EM算法
支持向量机总结
本文字数: 0 阅读时长 ≈ 1 分钟
支持向量机的优化目标为在约束下,最大化geometric margin:$\gamma$
其中约束$\|w\|=1$是non-convex的,我们稍作改进
(functional margin和geometric margin的关系是:$\gamma = \frac{\hat{\gamma}}{\|w\|}$)
虽然我们摆脱了非凸的约束$\|w\|=1$,但是objective function: $\frac{\hat{\gamma}}{\|w\|}$依然是非凸的。我们没有任何现成的软件能求解这种优化问题。
为了解决以上问题,我们把functional margin固定为1: $\hat{\gamma}=1$,经过改进,现在 $\frac{1}{2}\|w\|^{2}$ 是一个凸二次函数(convex quadratic objective),并且只有线性约束(linear constraints)。能够用commercial quadratic programming (QP software)求解。
接下来我们讨论拉格朗日对偶,这将引导我们导出optimization problem的对偶形式
(1)这将允许我们使用Kernel,可以在非常高维的空间有效工作。
(2)对偶形式还允许我们推导出一种有效的算法来解决上述优化问题,这种算法通常比通用QP软件做得好得多。
人工神经网络
本文字数: 0 阅读时长 ≈ 1 分钟
人工神经网络学习笔记,记录前馈传播信号和反向传播误差的矩阵表示
核函数 Kernel
参考资料:
周志华《机器学习》
吴恩达 斯坦福大学机器学习 CS229
主成分分析PCA
本文阐述如何通过 协方差矩阵 的 奇异值分解 理解 主成分分析PCA:
numpy常用命令笔记
Python for Data Analysis by Wes McKinney (O’Reilly).
《利用Python进行数据分析》
soft-margin SVM
吴恩达机器学习CS229 支持向量机
SMO算法
参考资料: 吴恩达CS229 机器学习
softmax反向传播
线性代数(16):伪逆(pseudoinverse)
清华大学线性代数(2)课程第六讲:伪逆
参考资料:
清华大学数学科学系-线性代数-马辉
《工程数学 线性代数 第六版》 同济大学数学系 高等教育出版社
Linear Algebra by Gilbert Strang MIT麻省理工线性代数公开视频课,非常推荐!