人人人免费人人专区人人,欧美精品不卡,欧美大片无尺码在线观看,久久精品小视频,成人免费黄色大片,欧美+亚洲+精品+三区

普林斯頓大學(xué)教授認(rèn)為,生成式AI炒作已“失控”

文章概要:

1. 普林斯頓大學(xué)教授認(rèn)為,目前生成式AI的炒作已經(jīng)失控,存在許多風(fēng)險(xiǎn)和不道德的開(kāi)發(fā)行為。

2. 作者認(rèn)為,對(duì)不同類(lèi)型的AI不能一概而論,生成式AI確實(shí) powerful,但不能被過(guò)度炒作。

3. 作者建議生成式AI公司應(yīng)增加 透明度,政府應(yīng)增加技術(shù)人員以更好地監(jiān)管。

微新創(chuàng)想(idea2003.com)8月24日 消息:普林斯頓大學(xué)計(jì)算機(jī)科學(xué)專(zhuān)家Arvind Narayanan和他的學(xué)生Sayash Kapoor將出版新書(shū)“AI Snake Oil”,探討人工智能領(lǐng)域存在的許多炒作。他們認(rèn)為,盡管生成式AI取得很大進(jìn)步,但部分炒作已經(jīng)失控。

Narayanan教授認(rèn)為,不能將所有類(lèi)型的AI放在一起考慮,生成式AI確實(shí)是一項(xiàng)強(qiáng)大技術(shù),已經(jīng)為許多人帶來(lái)好處,但同時(shí)也存在很多風(fēng)險(xiǎn)、傷害事件、不道德的開(kāi)發(fā)行為,因此不能過(guò)度炒作。

Kapoor認(rèn)為,與Facebook不同,當(dāng)前生成式AI公司完全沒(méi)有 透明度,無(wú)法知道用戶(hù)如何使用這些平臺(tái)。他建議生成式AI公司應(yīng)增加透明度報(bào)告。

兩人還認(rèn)為,政府應(yīng)增加技術(shù)人才,以更好地監(jiān)管人工智能。現(xiàn)有法律已經(jīng)可以覆蓋人工智能大部分監(jiān)管,關(guān)鍵是執(zhí)行。增加技術(shù)人才可以避免法律漏洞。

總之,作者希望人們對(duì)不同類(lèi)型的AI有區(qū)分對(duì)待,承認(rèn)生成式AI的進(jìn)步,但也需要警惕其風(fēng)險(xiǎn)和炒作,通過(guò)transparency、政府監(jiān)管等措施推動(dòng)生成式AI的健康發(fā)展。

您可能還喜歡...

發(fā)表回復(fù)

您的郵箱地址不會(huì)被公開(kāi)。 必填項(xiàng)已用 * 標(biāo)注