如何通俗易懂地解释支持向量回归(support vector regression)? 举报 理由 举报 取消 2017年11月11日 3 条回复 1165 次浏览 SVM,人工智能,学习,推断,数据挖掘,机器,统计
回复 ( 3 )
svr的优化目标是l2 regularization+ c*epsilon-sensitive error. 前者正则化是为了控制模型复杂度不必多说,后者epsilon-sensitive error是理解svr的关键,但其实对照linear regression的损失函数也很容易,就如下图所示
左边是svr 的loss function,右图是lr的(图片来自coursera 林轩田机器学习技法)左图中,epsilon描述的是紫色区域的宽度,定义这个区域内的点损失为0,这个区域以外的点的损失是点到区域边界的距离,这些区域外的点(或者有可能边界上的点)就是svr 的support vector。所以大致上来说,svr就是要找一条线,忽略它周围的点,对剩余的点进行回归。
参考资料:林轩田coursera机器学习技法
没错我就是轩田老师的脑残粉啦#_#
第一个: kernel ,将原始数据空间映射到 高维度空间 ;
第二个: 直接对照 Linear Regression 和 SVR 的表达式,svr 是 有约束条件的优化问题,它的约束条件就是 svr的特殊之处 ; 它的约束条件 使得模型寻找出一个 条状区域 而不是单纯的一条线~~
1