“又是审稿邀请?让我看看这次是什么论文,嗯,《一种解决异或问题的感知机模型》?”
大洋彼岸,宽敞的教授办公室内。
罗伯特·怀特教授刚刚悠闲地泡好一杯咖啡,正准备看两篇论文来度过一个轻松的下午茶时间,就看到邮箱收来一封NIPS的审稿邀请。
NIPS是 Neural Informati Systems的缩写,即神经信息处理系统大会,是目前世界上最顶级的机器学习领域会议之一。
身为领域内的优秀学者,又曾在这个会议上投中过几次论文,收到审稿邀请对于怀特教授早就司空见惯,他习以为常的打开邮件。
看到题目的那一刻就忍不住冷哼了一声,解决异或问题的感知机?异或问题提出到现在已经几十年了,你告诉我只用一篇论文就能轻易解决,当我是傻子么?
怀特的不屑是有原因的,他当然不会认为这种几十年来的难题不可能解决,否则科学的发展是怎么产生的?
但解决流程应该是某位大牛定下方向,然后麾下几位小牛围绕这个方向发表几篇甚至十几篇论文,在圈内引发一轮又一轮热议,然后在某一天大牛小牛们在arxiv上联名挂出一篇合作论文,再经过一两个月的发酵之后才到他们审稿人的桌上!
而不是像现在这样,由一个不知名作者拿出一个玩具模型,配上土到极致的题目发给自己!
随便扫了两眼正文内容后,怀特更加确信自己的判断,论文通篇朴素的思路和简单的模型让人感觉就像一个本科学生、甚至是民间科学家的自娱自乐,而后面好到浮夸的结果更像是作者吹牛吹过了头,让人一眼便心生反感。
这种论文怀特每年都能审到几十上百篇,甚至还有某些民间科学家拿着两页写满初等数学公式的草纸声称自己证明了四色定理,找他帮助发表,因此他对于这种学术垃圾多搭理一点的想法都欠奉。
只在审稿意见里刻薄的写下一句“希望作者减少一点k(民科)式的呓语”,就干脆利落地把文章丢进了垃圾箱。
一天的好心情荡然无存,怀特不禁骂骂咧咧道:“What the fxxk!”
………………
“What the fxxk!”
看着眼前的论文,戴·琼森的感叹与前一位审稿人惊人的一致:“天呐!这个作者是个疯子吗?”
但话语中的含义却与前者完全不同!
两个小时前,
琼森眉头紧锁着看完了整篇论文,却惊奇的发现自己没能找出任何理论或者逻辑上的错误。
虽然与怀特一样,下意识认为这篇简单的文章一定在哪里出了问题,但作为一个颇有责任感的审稿人,琼森还是希望找到驳回发表的充足依据。
“看来这个作者还是有一定水平的,至少他能够合理地隐藏自己的谬误……对了,他的代码!”
他迅速翻到最后,从附录的URL中找到了作者提供的匿名代码,当然,他并不准备直接运行它。
作为学术圈的老油条,琼森深知这些论文代码里面的猫腻。
一些学者为了让自己的成果显得更好,往往会选择在某一个任务的数据集上使用几百上千组不同的参数测试自己的方法,然后选择表现最好的参数组合放在论文上,对其它失败的组合闭口不谈,从而声称自己达到了SOTA(state-of-the-art,当前最先进的)的效果。
而实际上,只要稍微变动一下其中的某个数值,或者甚至保留数值不变,原样用在另一个任务上,这些方法的表现就会瞬间暴跌!这些论文同样都是毫无价值的垃圾,琼森认为这篇《感知机》的作者也使用了相同的技巧。
琼森打算参考着作者的代码自己重新写一遍——当然,是用自己设置的结构和数值——反正只要按照论文里的思路来进行,如果最后结果很差,就可以说明这是一篇不折不扣的“炼丹文”,刚好作为反驳的依据。
但运行出来的结果却让他始料未及!