美聯社與OpenAI達成合作,新聞機構如何制定AI使用指南?
聲明:本文來自于微信公眾號 德外5號(ID:dewaiwuhao),作者:德外5號,授權微新創想轉載發布。
美聯社日前表示,已與ChatGPT母公司OpenAI達成一項為期兩年的合作協議。據協議,美聯社會為OpenAI提供新聞素材去訓練AI,而OpenAI 則會向美聯社提供技術和產品。這是美國主要新聞媒體和AI公司達成首批官方新聞共享協議之一。
新聞行業如何爭取讓AI公司有償使用新聞素材,并合理使用AI工具提高生產及管理效率,成為當下備受行業矚目的話題。在討論AI應用價值前,如何制定AI使用準則也被提上日程。目前21家來自美國、歐洲和其他地區的新聞機構對外公布了自家的使用規范,有些共性特征可供我們參考。
“太陽底下無新事”,制定AI管理指南,也不必從頭開始——結合現有的道德指南和規范,采用風險評估方法,并借鑒組織內的多元觀點,可以大幅提高指導文件的質量和實用性。
21家新聞機構AI準則的共性洞察
觀察這些機構已公布的準則,我們可以總結出七個共性特征。第一,強調人工監督的重要性;第二,要求明確標記和公示使用AI的內容;第三,明確新聞機構需對其AI內容負責;第四,謹慎實驗;第五,為負責AI決策的人員建立培訓和資格認證制度;第六,警惕生成式AI的偏見;第七,AI準則應隨AI技術的發展不斷演進。
1.強化人工監督。新聞機構有必要對AI技術使用的過程進行必要的人工監督。瑞典和挪威的新聞機構Aftonbladet和VG都指出,他們在發布新聞之前會進行人工審核和手動批準AI生成的內容。路透社和衛報也強調了人類參與和監督AI產品和數據的重要性。他們將這個過程描述為"人→機器→人",其中人類在整個過程中擔任著管理和決策的角色。CBC和De Volkskrant同樣表示,沒有經過人工參與和監督的內容將不會被發布。
其他新聞機構如Nucleo、Ringier、DPA等也都強調了AI結果需要經過審查、驗證和核查的重要性。德國記者協會將AI工具稱為同事,并強調人工智能不會使編輯變得多余。《金融時報》、STT和Insider也都強調了人工核實事實的重要性。
綜上所述,新聞機構普遍強調人工監督和參與是確保新聞質量的關鍵。
2.公開與透明。新聞機構普遍強調對于AI生成的內容的透明度和公開。例如,Aftonbladet和VG明確表示他們會明確標記由AI生成的內容,并以易于理解的方式進行標識。同樣,《衛報》不會在未向觀眾公開披露的情況下使用或呈現AI生成的內容。
其他新聞機構如ANP、Mediahuis、RVDJ、DPA和DJV也都強調了對于AI生成內容的明確標記。此外,一些新聞機構也對于使用AI生成內容的方式進行了規定。例如,Wired雜志限制了AI生成文本和圖像的使用方式,但有可能在新聞報道過程中試用AI來生成標題或文本。Nucleo、STT和Insider等媒體機構也都列出了允許使用AI的方式,并明確了透明度和責任方面的條件。
總的來說,公開和透明度是新聞機構在使用AI生成內容時的重要原則,確保受眾能夠理解和識別AI生成的內容。
3.建立問責機制。建立問責機制是保證內容質量的重要手段。瑞典著名報紙Aftonbladet表示,他們對網站內容負責,包括使用AI技術生成的內容。路透社和德國通訊社DPA均強調對數據和AI產品的問責措施。法國報紙Le Parisien希望保護自己免受錯誤或版權侵犯的風險,同時支持藝術家和攝影師。
德國記者協會(DJV)強調,新聞機構應該對內容負責,編輯部門應該制定AI準入及人工審核的規范和流程,以保證新聞的質量和可靠性。《金融時報》認為在技術創新的時代,制作高標準新聞的責任更加重要,強調保持透明、報道事實并追求真相。美國在線媒體公司Insider表示對報道負責,并對每個詞的準確性、公正性、原創性和質量負責。隱私和保密方面,各機構都強調保護信息來源和敏感信息的安全處理。
因此,建立問責機制并遵守隱私法律是確保內容質量和信息安全的重要措施。
4.謹慎實驗。謹慎實驗與創新潛力和對真實性的關注緊密相關。許多組織強調使用AI生成內容時的責任和謹慎。VG規定記者要將AI生成的內容與其他來源一樣對待,加拿大廣播公司和荷蘭新聞通訊社ANP均強調使用多個來源驗證事實。芬蘭通訊社STT是最早進行AI實驗的機構之一,并強調實驗對了解這些模型的潛力和限制至關重要。《金融時報》建立了負責AI實驗的團隊,并要求記錄實驗過程。各組織強調AI的潛力,如提高生產力、快速至關重要。
謹慎實驗還涉及對組織目標的考慮。《金融時報》相信AI可以提高生產力和創作能力,但并不意味著AI會取代記者的角色。《衛報》只在AI對創作和傳播原創新聞有幫助時使用。比利時新聞集團Mediahuis認為AI應增強其新聞報道質量,Insider鼓勵記者使用AI改進工作,但同時強調記者仍負有責任。
各組織也強調保持客觀和獨立,并謹慎使用生成型AI。
《德·沃爾克克朗特》對機器取代記者持反對態度,Heidi.News和《巴黎人報》也持相似觀點。瑞士新聞機構Heidi.News認為AI是工具,記者在追求客觀性時不應將其視為信息來源。
挪威Adresseavisen編輯兼編輯發展主管Christer Johnsen說“我們的新聞編輯室有一條規則,你永遠不要將未發表的材料放入ChatGPT。永遠記住,當你使用第三方時,你不知道誰在收集你的數據。這意味著如果你有消息來源,或者故事的一部分還沒有發表,其他人對該信息的掌握程度可能與你比肩。”
5. 建立培訓和資格認證制度。Mediahuis建議為負責AI決策的人員建立培訓和資格認證制度,以減輕生成式AI的風險并確保對受眾負責和透明。德國記者協會(DJV)呼吁將人工智能的使用作為記者培訓和進修的必要組成部分,并提出媒體公司應提供包括AI濫用在內的適當培訓。《金融時報》將為記者提供使用生成式AI進行故事發現的培訓。
6. 提防AI的偏見。《衛報》強調生成式AI中的偏見問題,并表示他們將采取措施來防范嵌入在生成工具和訓練集中的偏見風險。Mediahuis要求記者注意AI系統中的偏見并努力解決它們。瑞士媒體集團Ringier要求其工具始終保持"公平、公正和非歧視"。
7. 指南的適應性。一些指南強調在快速變化中保持謙遜,并強調隨著對風險理解的演變而適應指南的重要性。例如,巴西的"Nucleo"表示他們關于生成AI的政策是不斷發展和可能隨時更新的。媒體集團Aftonbladet、VG以及Wired也表達了類似的觀點。加拿大廣播公司(CBC)告訴記者指南可能會隨著技術和行業實踐的發展而改變。荷蘭的《De Volkskrant》和瑞士的Ringier都表示會密切關注并在必要時作出調整。
制定AI準則的三點建議
根據以上觀察,尼曼向新聞機構提供以下建議,供其制定自己的指南時參考。新聞機構可以通過審查現有的道德指南和規范,采用風險評估方法,并借鑒組織內的多元觀點,以提高生成性AI指南的質量和實用性。
1.審查現有的道德指南和規范。
在制定AI準則時,應參考現有的道德準則和行業規范,如新聞倫理準則。例如,考慮到新聞的核心價值觀和原則,如獨立性和透明度,可以思考如何在使用AI時遵守這些原則,確保AI的使用與現有規范相一致。
2.采用風險評估方法。
在制定AI準則時,使用系統化的風險評估方法可以幫助新聞機構識別和管理使用AI可能帶來的風險。例如,可以使用NIST(美國國家標準與技術研究院)提供的風險評估方法,通過繪圖、測量和管理風險來制定有效的政策。同時要考慮使用AI可能引入的新風險,如信息可靠性等,并與新聞機構的核心價值和目標相結合進行管理。
3.成立一個多元化的小組來起草準則。
為了確保AI準則的全面性和適應性,建議在新聞機構內成立一個多樣化的利益相關者小組來討論和確定準則的范圍。不同部門和角色都可能會受到AI的影響,因此需要將他們的觀點和需求納入考慮。這樣可以幫助機構全面評估潛在風險,并確定超越記者日常工作流程的更廣泛的風險。
通過以上三點建議,新聞機構可以更好地制定適應AI時代的準則,提高AI準則的質量和實用性,并確保AI的應用與道德原則、行業規范相一致。