人人人免费人人专区人人,欧美精品不卡,欧美大片无尺码在线观看,久久精品小视频,成人免费黄色大片,欧美+亚洲+精品+三区

AI與學術界的較量!學術界有人使用ChatGPT撰寫論文

文章概要:

1. 計算機科學家Guillaume Cabanac發現論文中不慎復制了ChatGPT查詢短語,揭露了使用ChatGPT來寫作的騙局。

2. 論文作者坦白承認使用聊天機器人起草文章,引發學術界對生成式AI對學術界的擔憂。

3. 論文因未聲明使用ChatGPT而被撤銷,引發關于學術倫理和未來的爭論。

微新創想(idea2003.com) 9月11日 消息:上個月,一篇發表在Physica Scripta期刊上的論文因為一位計算機科學家和誠信調查員Guillaume Cabanac的發現而引發了爭議。他注意到ChatGPT查詢短語“Regenerate Response”不慎被復制到了文章中,看似出于意外。

如今,論文的作者已經坦白承認他們使用聊天機器人來起草文章,成為了生成式AI對學術界的最新示例,引發了學術倫理問題。IOP Publishing的同行評審和研究誠信主管Kim Eggleton表示:“這違反了我們的倫理政策。”

2015年以來,Cabanac一直致力于揭示其他未公開聲明用人工智能技術的已發表論文,當時AI技術還只是一種好奇。隨著計算機能夠生成更加逼真、類似人類的作品,這一斗爭變得更加艱巨。但這僅加強了Cabanac的決心,他已經幫助揭示了數百份由AI生成的手稿。

一些小心掩蓋痕跡的作者不會留下明顯的線索,但幸運的是,像Cabanac這樣的偵探仍然可以找到很多跡象。他最近還揭發了另一篇發表在《Resources Policy》期刊上的論文,其中包含了幾個明顯的痕跡。該期刊表示已經“意識到了這個問題”,并正在調查此事件。

此外,AI模型經常會混淆事實,并且可能太愚蠢,無法準確地復述科學論文中涉及的數學和技術術語,就像《Resources Policy》的研究中包含的毫無意義的方程式一樣。

ChatGPT還可能會憑空制造虛假主張,這種現象或許過于寬容地被描述為“幻覺”。一個丹麥教授最近發現,一篇預印論文部分由AI生成,因為它引用了他名下不存在的論文。

考慮到同行評審過程的嚴格性,AI制作的偽造論文竟然能夠過關,這實在令人震驚。

您可能還喜歡...

發表回復

您的郵箱地址不會被公開。 必填項已用 * 標注