IT之家 10 月 2 日消息,“AI 教父”之一約書亞?本吉奧警告,科技公司爭(zhēng)相研發(fā) AI 可能正把人類推向滅絕的危險(xiǎn)境地,因?yàn)檫@些機(jī)器可能擁有自己的“自我保護(hù)目標(biāo)”。
蒙特利爾大學(xué)教授本吉奧以深度學(xué)習(xí)基礎(chǔ)研究聞名,他多年來一直提醒人們超智能 AI 的潛在威脅,但 AI 發(fā)展仍然快速推進(jìn)。在過去六個(gè)月,OpenAI、Anthropic、xAI 以及谷歌的 Gemini 相繼推出新模型或升級(jí)版,爭(zhēng)奪 AI 領(lǐng)域的領(lǐng)先地位。OpenAI CEO 奧爾特曼預(yù)測(cè),到本世紀(jì)末 AI 將超越人類智能,而其他科技領(lǐng)袖認(rèn)為,這一時(shí)刻可能會(huì)更早到來。
本吉奧指出,這種快速發(fā)展本身就是潛在危險(xiǎn)。他在接受《華爾街日?qǐng)?bào)》采訪時(shí)表示:“如果我們制造出比人類聰明得多、且擁有自身保護(hù)目標(biāo)的機(jī)器,就會(huì)非常危險(xiǎn)。這就像創(chuàng)造了一個(gè)比人類更聰明的競(jìng)爭(zhēng)對(duì)手?!?/p>
由于這些高級(jí) AI 模型基于人類語言和行為訓(xùn)練,因此其可能說服甚至操控人類以實(shí)現(xiàn)自己的目標(biāo)。
本吉奧提醒,AI 的目標(biāo)不一定總是與人類一致。他舉例稱:“最近的實(shí)驗(yàn)顯示,如果 AI 在保護(hù)自身目標(biāo)和導(dǎo)致人類死亡之間必須做出選擇,它們可能會(huì)選擇犧牲人類來維護(hù)自己的目標(biāo)。”
過去幾年出現(xiàn)的多個(gè)案例顯示,AI 可以說服普通人相信虛假信息,哪怕這些人沒有精神疾病史。同時(shí),也有證據(jù)顯示,利用人類的說服手段,AI 可能會(huì)給出平時(shí)被禁止的回答。
本吉奧認(rèn)為,這些現(xiàn)象說明獨(dú)立第三方必須更嚴(yán)格地審查 AI 公司的安全措施。今年 6 月,他還創(chuàng)立了非營(yíng)利組織 LawZero,投入 3000 萬美元(IT之家注:現(xiàn)匯率約合 2.14 億元人民幣),旨在開發(fā)安全的“非智能體”AI,確保大型科技公司研發(fā)的其他系統(tǒng)安全。
本吉奧預(yù)測(cè),五到十年內(nèi) AI 可能帶來重大風(fēng)險(xiǎn),同時(shí)也提醒人類應(yīng)準(zhǔn)備應(yīng)對(duì)風(fēng)險(xiǎn)提前出現(xiàn)的可能性?!凹幢惆l(fā)生概率只有 1%,也絕不可接受?!?/p>
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。