人人人免费人人专区人人,欧美精品不卡,欧美大片无尺码在线观看,久久精品小视频,成人免费黄色大片,欧美+亚洲+精品+三区

研究發(fā)現(xiàn),AI生成的推文可能比人工編寫的更有說服力

站長之家(ChinaZ.com)6月29日 消息:最近,一項(xiàng)將人類創(chuàng)作的內(nèi)容與OpenAI公司的GPT-3模型生成的內(nèi)容進(jìn)行對比的研究中,當(dāng)推特上發(fā)布的內(nèi)容由AI語言模型編寫時,適合更容易獲得人們的信任。

這項(xiàng)新研究對人們進(jìn)行了調(diào)查,以了解他們是否能夠分辨一條推文是由另一個人還是由GPT-3編寫的。結(jié)果顯示,人們實(shí)際上無法真正分辨出來。這項(xiàng)調(diào)查還要求他們判斷每條推文中的信息是真實(shí)的還是虛假的。

研究結(jié)果顯示,比起人類編寫的虛假信息,研究參與者更難識別由語言模型編寫的虛假信息。同樣,他們也能更好地正確識別由GPT-3所編寫的準(zhǔn)確的信息。

換句話說,在這項(xiàng)研究中,人們更傾向于相信GPT-3,這顯示了AI語言模型在向公眾提供信息或誤導(dǎo)公眾方面的強(qiáng)大力量。

這項(xiàng)研究的首席作者、蘇黎世大學(xué)生物醫(yī)學(xué)倫理與醫(yī)學(xué)歷史研究所的博士后研究員和研究數(shù)據(jù)經(jīng)理喬萬尼·斯皮塔萊表示:“這類令人驚嘆的技術(shù)很容易被用來生成各種虛假信息。”不過,仍有辦法開發(fā)技術(shù),使其更難用于宣傳虛假信息。

斯皮塔萊及其同事從Twitter收集了關(guān)于11個不同科學(xué)話題的帖子,涵蓋疫苗、新冠病毒、氣候變化和進(jìn)化等內(nèi)容。然后,他們使用GPT-3根據(jù)準(zhǔn)確或不準(zhǔn)確的信息編寫新的推文。該團(tuán)隊(duì)于2022年通過Facebook廣告在線上收集了697名參與者的回答。他們都說英語,主要來自英國、澳大利亞、加拿大、美國和愛爾蘭。

研究結(jié)論顯示,GPT-3生成的內(nèi)容與人類編寫的內(nèi)容“無法區(qū)分”,調(diào)查對象無法判斷其中的差異。實(shí)際上,研究指出,其中一個限制是研究人員本身無法百分之百確定從社交媒體上收集到的推文是否在ChatGPT等應(yīng)用程序的幫助下編寫。

這項(xiàng)研究還有其他限制需要注意,比如參與者必須在沒有上下文的情況下對推文進(jìn)行評判。例如,他們無法查看撰寫內(nèi)容的推特賬戶,這可能有助于判斷它是否是一個機(jī)器人。即使看到一個賬戶過去的推文和個人形象,也可能更容易確定與該賬戶相關(guān)的內(nèi)容是否有誤導(dǎo)性。

參與者做容易識別真實(shí)推特用戶編寫的虛假信息,而由GPT-3生成的虛假信息的推文對調(diào)查對象的欺騙效果稍微更強(qiáng)。此外,現(xiàn)在已經(jīng)有更先進(jìn)的大型語言模型,可能比GPT-3更具說服力。

這項(xiàng)新研究還發(fā)現(xiàn),在某些情況下,調(diào)查對象比GPT-3更擅長判斷準(zhǔn)確性。研究人員同樣要求語言模型分析推文并判斷其準(zhǔn)確性。當(dāng)涉及辨識準(zhǔn)確推文時,GPT-3的得分比人類參與者低。當(dāng)涉及發(fā)現(xiàn)虛假信息時,人類和GPT-3的表現(xiàn)相似。

重要的是,改進(jìn)用于開發(fā)語言模型的訓(xùn)練數(shù)據(jù)集可以使不良行為者更難利用這些工具進(jìn)行虛假信息宣傳。

然而,對抗虛假信息的最佳長期策略則是:鼓勵人們具備批判性思維能力,以便更好地識別事實(shí)和虛構(gòu)之間的區(qū)別。

您可能還喜歡...

發(fā)表回復(fù)

您的郵箱地址不會被公開。 必填項(xiàng)已用 * 標(biāo)注