2017年7月26日星期三

理性的繁荣

最近,Yoav Goldberg有一个 著名博客大佬。我感谢他的关注,因为这种情况在游戏理论上是危险的:任何个人研究人员都可以尽早地积极定位他们的工作而受益,但是随着言辞和现实的分歧越来越大,整个领域冒着另一个AI冬季的危险。 Yoav的解决方案是整合公众羞辱感,以使本地激励措施与总体成果保持一致(参见奖励塑造)。

我觉得有更好的方法,最近由 贾良。在本文中,作者使用干扰词破坏了SQUAD数据集,这些干扰词对人类的绩效没有影响,但从根本上降低了排行榜上系统的性能。这使我想起了 Paperno等等 在段落完成任务上,人类以高超的技术执行,而对于所有现有技术,NLP方法都惨败。这两项工作清楚地表明,我们当前的自动系统仅具有与人的表面相似(尽管具有经济价值)。

这种对我们的能力进行诚实自我评估的方法不仅更具学术性,而且更具生产力,因为它提供了需要考虑的具体任务。至少,这将导致改进的技术工件。进一步迭代这种目标设定和目标解决过程 很多很多 时代最终可能会导致一些值得称呼的人工智能。

(您可能会说Yoav Goldberg策略更具娱乐性,但是Yoav Goldberg方式的高点是“快速打击”,而艰巨的任务值得考虑的话具有很多“重播价值”。)

没意见:

发表评论