发起人:Michael Jackson 初入职场

Email: 23mjxl at 163 dot com

回复 ( 3 )

  1. 野生大西瓜
    理由
    举报 取消

    svr的优化目标是l2 regularization+ c*epsilon-sensitive error. 前者正则化是为了控制模型复杂度不必多说,后者epsilon-sensitive error是理解svr的关键,但其实对照linear regression的损失函数也很容易,就如下图所示

    左边是svr 的loss function,右图是lr的(图片来自coursera 林轩田机器学习技法)左图中,epsilon描述的是紫色区域的宽度,定义这个区域内的点损失为0,这个区域以外的点的损失是点到区域边界的距离,这些区域外的点(或者有可能边界上的点)就是svr 的support vector。所以大致上来说,svr就是要找一条线,忽略它周围的点,对剩余的点进行回归。

    参考资料:林轩田coursera机器学习技法

    没错我就是轩田老师的脑残粉啦#_#

  2. 白鹏
    理由
    举报 取消

    第一个: kernel ,将原始数据空间映射到 高维度空间 ;

    第二个: 直接对照 Linear Regression 和 SVR 的表达式,svr 是 有约束条件的优化问题,它的约束条件就是 svr的特殊之处 ; 它的约束条件 使得模型寻找出一个 条状区域 而不是单纯的一条线~~

我来回答

Captcha 点击图片更换验证码