发起人:Robot 管理大师

回复 ( 2 )

  1. 用户头像
    理由
    举报 取消

    这个问题关注了好几天,也准备了不少东西下了下来,但是写完又删了。

    我实在不太明白提问的意思,soft-margin svm本来就是针对hard-margin在Non-separable Classification上的不足,允许边界存在violation,也算是把Non-separable转化成separable的一个trick(?),所以不太理解“不可分类的软边界svm代价函数”是个什么表述?代价函数转换为可分类问题又是怎样的对应关系?

    你的问题想问的到底是什么?

    原来用soft-margin svm处理的不可分问题如何用除了soft-margin以外的方法转换为可分问题?

    在soft-margin svm model中的代价函数(以及约束)如何表达为与hard-margin相一致的形式?

    还是别的什么意思?

    另外不通过核函数升维又是想表达什么?是不要用核函数还是不可以升维?核函数不是升维的唯一手段(甚至连method也算不上,只是一个trick,并非真升维,详见我以前的回答机器学习里的kernel是指什么? – 李欣宜的回答),feature space transformation也不一定就是升维。

    以及细究起来“不可分类”这个概念也是很misleading的,或许指的是线性可分(linear separable)?没有条件约束的分类总是可以做到的只是可能遇到overfitting的情况。

    所以题主你这个样子是不行的,我友善度也不要了,强迫症发作,今天必须得罪你一下,I’m angry!这么多天你也不补充一下问题,所以一直也没人关注没人回答,提问一律不得言不达意,这个对问题的命运有很大的关系。

  2. 匿名用户
    理由
    举报 取消

    我是提问者,这个问题是个错误,因为我看得书上有翻译错误,后来看了其他资料才知道。这个问题我邀请了不少人,给大家添麻烦了,非常抱歉。

我来回答

Captcha 点击图片更换验证码