本文共 373 字,大约阅读时间需要 1 分钟。
一.误差
讲的很不错,我最初学机器学习就是看吴恩达的课程,当初他就讲了平方项误差是由高斯分布通过极大似然求得的,当时还不是特别理解,之后很多的教材也没有对这方面进行解释,没想到这里给推导了一遍,很不错。
这张幻灯片有一个问题, X θ X\theta Xθ都是列变量是不能相乘的,这里应该有一个转置。 注意:能用这个方式直接求出结果的条件很苛刻那就是 X T X X^TX XTX必须是非奇异矩阵,大部分实际条件下,这个条件并不满足,所以我们并不这样用。 这里的评估方法没有直接使用残差平方和,而使用了一个比值。二.梯度下降
梯度下降算法这部分没有讲好,并没有讲梯度下降算法是怎么推导出来的,在机器学习基石视屏里面这个有详细的推导。
三.逻辑回归
上面这几张图虽然精简但是将逻辑回归讲的非常全面了以上图片来自:唐宇迪大数据分析与机器学习
侵删转载地址:http://mxzlf.baihongyu.com/