AI與學(xué)術(shù)界的較量!學(xué)術(shù)界有人使用ChatGPT撰寫論文
文章概要:
1. 計(jì)算機(jī)科學(xué)家Guillaume Cabanac發(fā)現(xiàn)論文中不慎復(fù)制了ChatGPT查詢短語,揭露了使用ChatGPT來寫作的騙局。
2. 論文作者坦白承認(rèn)使用聊天機(jī)器人起草文章,引發(fā)學(xué)術(shù)界對生成式AI對學(xué)術(shù)界的擔(dān)憂。
3. 論文因未聲明使用ChatGPT而被撤銷,引發(fā)關(guān)于學(xué)術(shù)倫理和未來的爭論。
微新創(chuàng)想(idea2003.com) 9月11日 消息:上個月,一篇發(fā)表在Physica Scripta期刊上的論文因?yàn)橐晃挥?jì)算機(jī)科學(xué)家和誠信調(diào)查員Guillaume Cabanac的發(fā)現(xiàn)而引發(fā)了爭議。他注意到ChatGPT查詢短語“Regenerate Response”不慎被復(fù)制到了文章中,看似出于意外。
如今,論文的作者已經(jīng)坦白承認(rèn)他們使用聊天機(jī)器人來起草文章,成為了生成式AI對學(xué)術(shù)界的最新示例,引發(fā)了學(xué)術(shù)倫理問題。IOP Publishing的同行評審和研究誠信主管Kim Eggleton表示:“這違反了我們的倫理政策。”
2015年以來,Cabanac一直致力于揭示其他未公開聲明用人工智能技術(shù)的已發(fā)表論文,當(dāng)時AI技術(shù)還只是一種好奇。隨著計(jì)算機(jī)能夠生成更加逼真、類似人類的作品,這一斗爭變得更加艱巨。但這僅加強(qiáng)了Cabanac的決心,他已經(jīng)幫助揭示了數(shù)百份由AI生成的手稿。
一些小心掩蓋痕跡的作者不會留下明顯的線索,但幸運(yùn)的是,像Cabanac這樣的偵探仍然可以找到很多跡象。他最近還揭發(fā)了另一篇發(fā)表在《Resources Policy》期刊上的論文,其中包含了幾個明顯的痕跡。該期刊表示已經(jīng)“意識到了這個問題”,并正在調(diào)查此事件。
此外,AI模型經(jīng)常會混淆事實(shí),并且可能太愚蠢,無法準(zhǔn)確地復(fù)述科學(xué)論文中涉及的數(shù)學(xué)和技術(shù)術(shù)語,就像《Resources Policy》的研究中包含的毫無意義的方程式一樣。
ChatGPT還可能會憑空制造虛假主張,這種現(xiàn)象或許過于寬容地被描述為“幻覺”。一個丹麥教授最近發(fā)現(xiàn),一篇預(yù)印論文部分由AI生成,因?yàn)樗昧怂虏淮嬖诘恼撐摹?/p>
考慮到同行評審過程的嚴(yán)格性,AI制作的偽造論文竟然能夠過關(guān),這實(shí)在令人震驚。