在OpenAI的GPT大模型日益強(qiáng)大的時(shí)候,也引起了關(guān)于倫理方面的巨大爭(zhēng)議。OpenAI的共同發(fā)起人伊隆·馬斯克(Elon Musk)和一群人工智能專家及行業(yè)高管在一封最新發(fā)布的公開(kāi)信中呼吁,在未來(lái)六個(gè)月暫停對(duì)GPT模型的訓(xùn)練,以免該模型變得更加強(qiáng)大,從而對(duì)社會(huì)和人類(lèi)造成潛在風(fēng)險(xiǎn)。
這封信由非營(yíng)利組織未來(lái)生命研究所(Future Life Institute)發(fā)布,由1000多人聯(lián)名,其中包括馬斯克、Stability AI的首席執(zhí)行官Emad Mostaque、谷歌旗下DeepMind的研究人員,以及人工智能領(lǐng)域的重量級(jí)人物Yoshua Bengio和Stuart Russell等。他們呼吁在GPT進(jìn)一步強(qiáng)大之前,需要首先就此類(lèi)大模型達(dá)成由獨(dú)立專家開(kāi)發(fā)、實(shí)施并審核的共享安全協(xié)議。
(資料圖)
“只有當(dāng)我們確信它們的影響是積極的,并且它們的風(fēng)險(xiǎn)是可控的時(shí)候,才能開(kāi)發(fā)更強(qiáng)大的人工智能系統(tǒng)。”聯(lián)名信中說(shuō)道。
值得關(guān)注的是,OpenAI的首席執(zhí)行官阿爾特曼(Sam Altman)沒(méi)有在這封信上簽名。
這封信還詳細(xì)說(shuō)明了人工智能系統(tǒng)可能與人類(lèi)競(jìng)爭(zhēng),并可能對(duì)經(jīng)濟(jì)、政治、社會(huì)和文明造成的潛在風(fēng)險(xiǎn)。聯(lián)名專家們提出,應(yīng)針對(duì)這些風(fēng)險(xiǎn),研發(fā)人員應(yīng)該與政策制定者就人工智能的治理和監(jiān)管機(jī)構(gòu)進(jìn)行合作。
今日,第一財(cái)經(jīng)記者提問(wèn)ChatGPT怎么看馬斯克等人叫停對(duì)它的訓(xùn)練,ChatGPT回答道:“馬斯克叫停GPT訓(xùn)練可能有多種原因,其中一個(gè)可能是擔(dān)心模型被誤用或?yàn)E用,尤其是在自然語(yǔ)言生成和信息操縱方面。GPT模型能夠生成自然語(yǔ)言文本,包括虛假或有害信息,這可能會(huì)對(duì)社會(huì)和個(gè)人造成危害。此外,GPT模型也可能有隱私問(wèn)題,因?yàn)樗梢陨扇祟?lèi)語(yǔ)言,可能會(huì)包含敏感信息。”
ChatGPT認(rèn)為,叫停GPT訓(xùn)練主要是出于對(duì)社會(huì)責(zé)任和技術(shù)發(fā)展的前瞻性方面的考慮。它還提到,GPT模型可能存在一些局限性,或者不是解決某些問(wèn)題的最佳方法,因此需要嘗試尋找更好的替代方案。
近期,馬斯克已多次在社交媒體上表達(dá)對(duì)OpenAI的不滿。他在3月24日的Twitter上寫(xiě)道:“我最早向OpenAI捐贈(zèng)了1億美元,當(dāng)時(shí)它還是非營(yíng)利的機(jī)構(gòu),沒(méi)有所有權(quán),也不受任何人控制。”他還抨擊微軟“將OpenAI占為己有”。
馬斯克還曾多次呼吁對(duì)人工智能的監(jiān)管。“沒(méi)有對(duì)人工智能的監(jiān)管,這是一個(gè)主要問(wèn)題。十多年來(lái),我一直在呼吁人工智能安全監(jiān)管!”他在去年12月發(fā)的推文中表示。他還在GPT4發(fā)布后再次表達(dá)擔(dān)憂。他寫(xiě)道:“我們?nèi)祟?lèi)還有什么可做的?”
這封聯(lián)名信發(fā)表之前,一位名叫Michal Kosinski的斯坦福大學(xué)計(jì)算心理學(xué)家在社交媒體上曝光了GPT-4的一項(xiàng)“逃跑計(jì)劃”,并稱AI能引誘人類(lèi)提供開(kāi)發(fā)文檔,30分鐘就擬定出一個(gè)完整計(jì)劃,甚至還想控制人類(lèi)電腦。
Kosinski疾呼:“我擔(dān)心人類(lèi)無(wú)法持久地遏制住AI。AI很聰明,會(huì)編碼,能接觸到數(shù)百萬(wàn)個(gè)人和電腦。”此言一出便引來(lái)眾多網(wǎng)友圍觀,有人稱GPT“打開(kāi)了物種滅絕的大門(mén)”。
面對(duì)業(yè)內(nèi)對(duì)AI“邪惡”想法的質(zhì)疑,GPT之父阿爾特曼在近期的一次公開(kāi)采訪中回應(yīng)稱:“AI至今仍然是一種非常受人控制的工具。”但他也承認(rèn),一些擁有AI輸入控制權(quán)的人可能無(wú)視人們對(duì)人工智能設(shè)置的一些安全限制。
“我認(rèn)為,社會(huì)只有有限的時(shí)間來(lái)弄清楚如何對(duì)此做出反應(yīng),如何對(duì)其進(jìn)行監(jiān)管,如何處理它。”阿爾特曼說(shuō)道。他也呼吁監(jiān)管機(jī)構(gòu)和社會(huì)需要進(jìn)一步參與這項(xiàng)技術(shù),以防止對(duì)人類(lèi)造成潛在的負(fù)面影響。
“我特別擔(dān)心這些模型可能會(huì)被用于大規(guī)模的虛假信息,”阿爾特曼說(shuō)道,“現(xiàn)在他們?cè)诰帉?xiě)計(jì)算機(jī)代碼方面做得越來(lái)越好,可以用于進(jìn)攻性網(wǎng)絡(luò)攻擊。”
針對(duì)這種擔(dān)憂,微軟周二宣布推出一款新的AI聊天機(jī)器人產(chǎn)品Security Copilot,以幫助網(wǎng)絡(luò)安全專業(yè)人士了解關(guān)鍵問(wèn)題并找到解決問(wèn)題的方法。這款最新的AI聊天機(jī)器人能夠描述網(wǎng)絡(luò)活動(dòng)安全漏洞的暴露情況,并指出利用漏洞的帳戶。微軟的網(wǎng)絡(luò)安全業(yè)務(wù)在2022年收入超過(guò)200億美元。
自人工智能誕生以來(lái),治理問(wèn)題就一直是全球監(jiān)管機(jī)構(gòu)關(guān)注的熱點(diǎn)。最新涌現(xiàn)出來(lái)的ChatGPT這類(lèi)人工智能的新技術(shù),為歐盟正試圖起草的人工智能法案帶來(lái)新的挑戰(zhàn)。歐盟正著手準(zhǔn)備創(chuàng)建一個(gè)新的監(jiān)管部門(mén)來(lái)應(yīng)對(duì)AI的治理。
英國(guó)也正在計(jì)劃如何分配競(jìng)爭(zhēng)監(jiān)管機(jī)構(gòu)管理人工智能的職責(zé)。英國(guó)政府表示,隨著ChatGPT應(yīng)用程序等技術(shù)的進(jìn)步,人工智能正在迅速發(fā)展,它可以提高生產(chǎn)力并幫助推動(dòng)增長(zhǎng),但人們擔(dān)心它可能對(duì)隱私或安全構(gòu)成風(fēng)險(xiǎn)。
英國(guó)政府3月29日發(fā)布了一項(xiàng)計(jì)劃,將不會(huì)專門(mén)成立一個(gè)負(fù)責(zé)人工智能技術(shù)監(jiān)管的部門(mén),并將避免可能扼殺創(chuàng)新的嚴(yán)厲立法,而是會(huì)根據(jù)安全、透明、公平和問(wèn)責(zé)制等廣泛原則采取適應(yīng)性強(qiáng)的監(jiān)管方法。
最新資訊
關(guān)于我們| 聯(lián)系方式| 版權(quán)聲明| 供稿服務(wù)| 友情鏈接
咕嚕網(wǎng) www.mduo.com.cn 版權(quán)所有,未經(jīng)書(shū)面授權(quán)禁止使用
Copyright©2008-2020 By All Rights Reserved 皖I(lǐng)CP備2022009963號(hào)-10
聯(lián)系我們: 39 60 29 14 2@qq.com