你读过的 机器学习/数据挖掘 顶级会议论文中最水的是哪一篇?

理由
举报 取消

题主是个数据挖掘领域内的菜鸟,刚开始读一些文献。不过最近发现有不少出现在顶级会议的论文都很简单,而且很多细节如果自己深究一下,便感觉有很多漏洞。在这里提出这个问题不是要故意黑某些人,只是想讨论一下,看看大家的看法。题主不才,稍微将此类论文概括一下:1. “开山之作”。提出一个新的问题,至于有没有用无所谓(大部分是没啥实际用处),反正就是没人研究过就好。Intruduction里面吹的天花乱坠,然后搞搞feature,训练个简单的模型。也没有啥baseline,实验随便做做对比一下naive的方法,看上去提升很高,但是其实根本解决不了问题。2. 照葫芦画瓢。照着一个论文,做个微小的改动(图模型加个圈之类的),就连论文的逻辑和公式基本上都是照搬,这种论文写起来简单,不过读完基本没啥营养。3. 论文工厂。有些研究组每年发几十篇论文, 单独拉出来一篇来看,其实写的还不错。不过如果多读几篇,就发现其实这些论文都是一个套路,越看越觉得没意思。个人认为这种论文也越来越多,其实对research领域的发展没有什么作用,相反,是在伤害领域的发展,对那些踏实做科研的老师学生不公平。想问一下各位 读过的/认为的 最水的论文都是啥样的?

2017年12月26日 10 条回复 1484 次浏览

发起人:Robot 管理大师

回复 ( 10 )

  1. li Eta
    理由
    举报 取消

    我觉得是这篇:Clustering by fast search and find of density peaks

    只要是做 机器学习/数据挖掘 的人都能感受到这篇paper的水度,发在普通的水会或者水期刊上无可厚非,然而,居然发了science。。。

    贴一下Shai Ben-David 的评论

    评论地址:Clustering by fast search and find of density peaks

  2. 匿名用户
    理由
    举报 取消

    在知乎上看过不少问题,第一次不想看到自己的名字出现在回答中。

  3. 匿名用户
    理由
    举报 取消

    第二种还真不少,比如推荐系统的论文。矩阵分解或者贝叶斯框架,推导都一个样,还很少给源代码^_^

  4. 雨宫
    理由
    举报 取消

    做feature extraction的文章里有一部分不是灌水

  5. trantor
    理由
    举报 取消

    做CV的乱入一下,这个问题反过来说比较好:对于领域发展有推动性的研究是什么样的?

    推荐林达华(大神,膜拜之)的两篇blog。

  6. Gorov
    理由
    举报 取消

    应该是我2014年的nips论文。。。

  7. 张华
    理由
    举报 取消

    NFL定理: 我不是针对某个算法,我是说,你们所有的算法, 都是辣鸡。

  8. 用户头像
    理由
    举报 取消

    在读博士一枚

    这么说吧,我也不想写烂文章,我也想好好研究一下,写一篇创新点饱满的文章

    可是 我要毕业 老师催我

    于是我只能屈服于数量 而不是 质量

  9. 匿名用户
    理由
    举报 取消

    说到这个,怎么不提某Top1的C老板。当年有人匿名举报恶意灌水就不说了,最近又听人说了他投论文还喜欢找熟人来审稿。不以为耻,还常津津乐道。

    这跟考试作弊有什么两样,真没想到还能这么玩,对科学是没有一丁点敬畏之心啊,把国人的脸都丢光了。

    虽然已经毕业多年不混学术圈了,还是可耻的匿了。

  10. 匿名用户
    理由
    举报 取消

    比较喜欢看别人打脸。但是说心里话,发水文也是种水平,我想发还发不出来。我的终极目标就是够水平发水文,毕业。

    喜欢看你们大牛们相互撕逼,辨则明,能让菜鸟少走点儿弯路

我来回答

Captcha 点击图片更换验证码