除了正定,我们还有半正定,负定和半负定。半正定用“≥”替换上面的所有“>”条件(例如,它的特征值是大于或等于0 ),负定和半负定与正定和半正定相反。
Minimum
在微积分中,我们将f的一阶导数设置为零以找到其临界点。然而,这样的点可以是最大值,最小值或鞍点。许多机器学习模型以二次形式xAᵀx表示其成本函数。知道这个函数是否是凸函数是很重要的。因为如果它是凸的,我们知道局部最小值也是全局最小值。如果A是正定的,则二次函数是凸的。
对于任何函数f,我们计算下面的Hessian矩阵。如果A是正定的,则相应的点是局部最小值。
协方差矩阵在机器学习中,我们非常有兴趣找到特征之间的相关性。下图显示了重量和高度之间的正相关关系。
在机器学习中,我们用协方差矩阵Σ建模关系。