IT之家 1 月 28 日消息,在開發(fā)者問答環(huán)節(jié),OpenAI 首席執(zhí)行官山姆 · 奧爾特曼發(fā)布警告:由于 AI 智能體的帶來的便利性極高,人們正忽略潛在的災(zāi)難性后果,在缺乏必要安全基礎(chǔ)設(shè)施的情況下,草率賦予 AI 過多控制權(quán)。
IT之家援引博文介紹,奧爾特曼將這種心態(tài)形容為“YOLO”(活在當(dāng)下 / 人生苦短,及時行樂),并擔(dān)憂社會可能會因此“夢游”般地滑入一場信任危機。
為了佐證這一觀點,奧爾特曼分享了自己的親身經(jīng)歷。他曾立誓不給 OpenAI 的編程模型 Codex 賦予計算機完全訪問權(quán)限,然而這一“安全防線”僅維持了兩個小時。
奧爾特曼承認,由于 AI 智能體表現(xiàn)得實在太“講道理”且能極大提升效率,他迅速妥協(xié)并解除了限制。他推測大多數(shù)用戶也會做出同樣的選擇,而這種普遍的松懈可能導(dǎo)致安全漏洞或?qū)R問題被長期忽視,直到危機爆發(fā)。
這種擔(dān)憂在開發(fā)者群體中已初現(xiàn)端倪。一名 OpenAI 開發(fā)者此前在社交媒體 X 上透露,他現(xiàn)在完全依賴 AI 編寫代碼。該開發(fā)者預(yù)測,企業(yè)很快也會采取類似模式,最終導(dǎo)致人類徹底失去對自己代碼庫的理解與控制能力。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。