想要和ChatGPT“合著”?《科学》等学术期刊发投稿禁令-天天快看点
最近,ChatGPT (人工智能聊天机器人)火爆全网。
【资料图】
2022年末问世的 ChatGPT,不仅在人工智能领域产生了轰动性效应,而且对教育和学术领域的传统模式提出了挑战。不过目前,《科学》《自然》《肿瘤学》等多家科学期刊发表声明,不接受论文将ChatGPT列为“合著者”。
编译丨李永博
图片来源:《自然》杂志网站。
ChatGPT 是一种大型语言模型 (LLM),由知名的人工智能研究实验室OpenAI在2022年11月30日发布,它通过模仿从互联网整理的庞大文本数据库中的语言统计模式来生成令人信服的句子。
相比于传统的语言机器人,ChatGPT能够通过学习人类的语言来进行对话,理解聊天的上下文语境,并且使用更接近人类日常的语言做出回应。除了聊天机器人的功能,ChatGPT甚至能完成撰写邮件、视频脚本、翻译、代码,甚至写小说、做考试题和撰写学术论文。ChatGPT在开放后引发了人工智能圈的轰动,短短几天时间内就吸引了几百万人的注册,被不少人誉为“有史以来最智能的聊天机器人”。
另一方面,ChatGPT对教育界和学术界造成了重大的冲击。人工智能不仅能够通过大学和专业资格考试,还能撰写专业性极高的学术论文,这些由人工智能生成的论文甚至连专业研究者也无法轻易分辨出来。当期刊编辑、研究人员和出版商仍在争论 ChatGPT在文献发表中的恰当位置时,ChatGPT 已经在学术文献中正式亮相。据《自然》杂志网站报道,至少有4份已发表和预印本上的论文使用了ChatGPT作为论文的“合著者”。
科幻纪录片《我们需要谈谈》( AI We Need To Talk About A.I. ,2020)画面。
目前,多家学术期刊发表声明,完全禁止或严格限制使用ChatGPT等人工智能机器人撰写学术论文。《自然》日前发表文章,明确了学术论文中使用人工智能写作工具的规定,其中列出两项原则:第一、任何大型语言模型工具(比如ChatGPT)都不能成为论文作者;第二、如在论文创作中用过相关工具,作者应在“方法”或“致谢”或适当的部分明确说明。
《科学》杂志不接受使用ChatGPT生成的投稿论文,同时不允许ChatGPT作为论文合著者。《细胞》和《柳叶刀》则表示论文作者不能使用人工智能工具取代自己完成关键性任务,作者还必须在论文中详细解释他们是如何使用这些人工智能工具的。
学术工作者普遍认为,ChatGPT等人工智能工具很有趣,但它们距离真正的学术写作和科学研究还很远。《科学》杂志网站近日发表的社论文章称,正如工具开发者所述,“ChatGPT 有时会写出看似合理但不正确或荒谬的答案”。比如,引用一项不存在的科学研究导致最后的结论发生偏差,这对于追求准确性的科学研究来说是致命性的。此外,论文作者在发表作品时,都必须声明自己的作品是“原创”的,这就意味着使用ChatGPT编写和生成文本是完全不可接受的,这种行为其实剽窃了其他人的知识成果。
人工智能生成的内容还会引发一个更严重的问题:谁来对这些内容负责?通常而言,论文作者应对文章的观点和内容负责,但人工智能显然无法承担论文过程中出现谬误甚至造假承担责任。这也是目前大多数学术期刊和出版商“封杀”ChatGPT的主要理由之一。
也有一些观察人士指出,ChatGPT等人工智能工具的出现,一定程度上能够倒逼学术界和教育界对传统的运作模式进行变革。《自然》杂志网站先前发表的一篇文章提到,如果学生们开始使用ChatGPT,这不仅是“外包”了他们的论文写作,还会“外包”他们的思维。ChatGPT的出现可能会让教师减少让学生回答一些普通的问答题,更注重于培养学生的批判性思维。在论文写作上,学术工作者应该减少无意义的内容堆砌,生产真正有价值的学术研究成果。
参考资料:
(1) ChatGPT is fun, but not an author
https://www.science.org/doi/10.1126/science.adg7879
(2) ChatGPT listed as author on research papers: many scientists disapprove
https://www.nature.com/articles/d41586-023-00107-z
(3)T ools such as ChatGPT threaten transparent science; here are our ground rules for their use
https://www.nature.com/articles/d41586-023-00191-1
本文为编译。作者:李永博;编辑:挪冬;校对:柳宝庆。欢迎转发至朋友圈。
《新京报·书评周刊 》2月3日专题
《伊娃娜·奇米勒斯卡:探索思想实验的边境》
责任编辑: