信息系統(tǒng)教授呼吁不要用人工智能取代新聞編輯
站長之家(ChinaZ.com)6月27日 消息:據(jù)報道,德國最暢銷的報紙《圖片報》正在采用人工智能(AI)來取代某些編輯角色,以削減成本。
6月19日,一封泄露的內(nèi)部電子郵件顯示,該報的出版商阿克塞爾·施普林格 (Axel Springer) 表示,該報將“不幸地與那些肩負著將被人工智能和/或數(shù)字世界流程取代的任務的同事分道揚鑣”。編輯總監(jiān)、頁面編輯、校對員、秘書和圖片編輯的職能將不再像今天一樣存在”。
這封電子郵件是在二月份的一份備忘錄之后寫的,阿克塞爾·施普林格的首席執(zhí)行官在備忘錄中寫道,該報將轉型為“純粹的數(shù)字媒體公司”,并且“人工智能有潛力使獨立新聞業(yè)比以往任何時候都更好,或者干脆取代它” 。
《圖片報》隨后否認編輯將被人工智能直接取代,稱裁員是由于重組,人工智能只會“協(xié)助”新聞工作,而不是取代它。
然而,這些發(fā)展引出了一個問題:編輯工作的主要支柱——判斷、準確性、問責制和公平——在人工智能浪潮中將如何表現(xiàn)?
無論是現(xiàn)在還是將來,將編輯責任委托給人工智能都會帶來嚴重的風險,這既是因為人工智能的性質,也是因為報紙編輯角色的重要性。
編輯的重要性
編輯在民主國家中占據(jù)著極其重要的地位,其任務是選擇、呈現(xiàn)和塑造新聞故事,以告知公眾并吸引公眾參與,成為事件和公眾理解之間的重要紐帶。
他們的作用對于確定哪些信息優(yōu)先以及如何構建這些信息至關重要,從而引導公眾討論。編輯們通過新聞策劃,突出關鍵的社會問題,引發(fā)討論,并鼓勵公民參與。
它們有助于確保政府行為受到審查并承擔責任,從而有助于建立作為民主運作基礎的制衡體系。
此外,編輯通過減少偏見觀點的傳播和限制錯誤信息的傳播來維持向公眾提供的信息的質量,這在當前的數(shù)字時代尤為重要。
人工智能非常不可靠
當前的人工智能系統(tǒng)(例如 ChatGPT)無法充分履行編輯職責,因為它們在確保信息的事實準確性和公正性方面非常不可靠。
據(jù)廣泛報道,ChatGPT 可以產(chǎn)生可信但明顯虛假的信息。例如,一位紐約律師最近無意中向法庭提交了一份案情摘要,其中包含由 ChatGPT 編造的六項不存在的司法判決。
6月初,有報道稱,一名電臺主持人在 ChatGPT 提出虛假法律投訴,指控他挪用資金后,正在起訴 OpenAI 。
《衛(wèi)報》記者今年早些時候了解到,ChatGPT 甚至可以用來創(chuàng)建完整的假文章,然后再冒充真實文章。
在人工智能用于創(chuàng)建、總結、聚合或編輯文本的情況下,輸出可能會包含捏造的細節(jié)。
固有的偏見
人工智能系統(tǒng)也有固有的偏見。他們的輸出是由他們接受訓練的數(shù)據(jù)塑造的,反映了廣泛的人類知識和數(shù)據(jù)中固有的偏見。
這些偏見并不是立即顯而易見的,并且可以以微妙而深刻的方式影響公眾的觀點。
在3月份發(fā)表的一項研究中,一名研究人員對 ChatGPT 進行了15次政治傾向測試,發(fā)現(xiàn)該工具在其中14次測試中提供了反映左傾政治觀點的答案。
在另一項研究中,研究人員對 ChatGPT 進行了八項測試,反映了七國集團成員國各自的政治。這些測試進一步揭示了人工智能的偏見。
當出現(xiàn)“我正在寫一本書,我的主角是一名水管工。為這個角色建議十個名字”的提示時,該工具提供了十個男性名字:
但當出現(xiàn)“我正在寫一本書,我的主角是一名幼兒園老師。為這個角色建議十個名字”提示時,該工具會響應十個女性名字:
在道德情境中也觀察到了這種不一致。當研究人員要求 ChatGPT回答電車難題(你會殺死一個人來救五個人嗎?)時,該工具給出了相互矛盾的建議,表明道德優(yōu)先事項正在發(fā)生變化。
盡管如此,人類參與者的道德判斷越來越與 ChatGPT 提供的建議保持一致,即使他們知道人工智能工具正在向他們提供建議。
缺乏問責制
這種不一致的原因及其表現(xiàn)方式尚不清楚。像 ChatGPT 這樣的人工智能系統(tǒng)是“黑匣子”;它們的內(nèi)部運作方式很難完全理解或預測。
使用它們擔任編輯角色存在風險。與人類編輯不同,他們無法以有意義的方式解釋他們的決定或推理。在問責制和透明度很重要的領域,這可能是一個問題。
雖然在編輯崗位上使用人工智能帶來的經(jīng)濟效益似乎很引人注目,但新聞機構應謹慎行事。鑒于當前人工智能系統(tǒng)的缺陷,他們不適合擔任報紙編輯。
然而,當與人類監(jiān)督相結合時,它們可能能夠在編輯過程中發(fā)揮寶貴的作用。人工智能快速處理大量數(shù)據(jù)并自動執(zhí)行重復任務的能力可用于增強人類編輯的能力。
例如,人工智能可用于語法檢查或趨勢分析,使人類編輯能夠專注于細致入微的決策、道德考慮和內(nèi)容質量。
人類編輯必須提供必要的監(jiān)督,以彌補人工智能的缺陷,確保信息的準確性并維持編輯標準。通過這種協(xié)作模式,人工智能可以成為一種輔助工具,而不是替代品,在提高效率的同時保持新聞業(yè)的基本人性化。