时间:2023-11-11|浏览:167
狂欢之后,事情的走向开始进入封杀这一过程。要问近段时间AI界最出圈的模型是哪个,十人中得有九个人会投ChatGPT一票。这个模型实在是太火,因为它会的东西太多了。很多人形容它是一个真正的「六边形战士」:不仅能拿来聊天、搜索、做翻译,还能写故事、写代码、debug,甚至开发小游戏、参加美国高考……
一方面ChatGPT能力过于惊艳深受大众喜欢,另一方面,也是麻烦事不断,遭到不同机构的封禁。前段时间就有Stack Overflow封禁ChatGPT,原因是它生成的答案正确率太低,发布由ChatGPT创建的答案对网站和查询正确答案的用户来说是非常有害的。
这一次风波过去没多久,顶级人工智能会议也开始禁止使用ChatGPT和AI工具撰写的学术论文。
前几天,国际机器学习会议ICML宣布:禁止征稿使用大型语言模型(LLM,如ChatGPT)生成的论文。ICML表示,ChatGPT接受公共数据的训练,这些数据通常是在未经同意的情况下收集的,出了问题谁负责。
还有就是作者身份问题,是谁「写」的论文:机器还是人类?考虑到ICML仅禁止AI完全生成的文本,这一点尤为重要。会议组织者表示,他们并不禁止使用ChatGPT等工具编辑或润色作者撰写的文本,并指出许多作者已经使用语法校正软件Grammarly等半自动编辑工具来润色文章。
不过此消息一出,在社交媒体上还引发了一次大讨论。Yann LeCun转发并评论道:「大型语言模型不能用,那么中型和小型语言模型是不是还可以用。」微软研究院ML基础团队的负责人Sebastian Bubeck则称该规则是「目光短浅」。
ICML表示,明年将我们难以区分文本是由AI「润色编辑」的,还是完全由AI生成的。
当然,使用ChatGPT这样的AI工具并非只有弊端。例如在同行评审中,流畅的英文表达往往会收获更高的评价,AI模型就可以帮助非英语母语的论文作者生成更流畅的英文文本。这将为研究人员节省时间,并为学术领域创造更公平的竞争环境。
但需要注意的是,ChatGPT是大型语言模型(LLM),和Grammarly等简单的语法校正软件有很大的区别。LLM本身的主要功能也不是调整已编写文本的结构和语言,而是生成一些新的文本。
几乎不会有论文作者会真的使用资深小编来生成学术论文。如果使用AI生成的论文出现错误,所有署名的论文作者的声誉都会受到严重影响,关系到论文作者的整个职业生涯。
从论文评审的角度讲,人们需要一个快速有效的检测工具,以分辨一篇文章是AI生成的还是人工撰写的。近期就有开发者发布了一个名为GPTZero的新应用程序,具备这种检测功能。