最近AI領(lǐng)域發(fā)生了一件重磅事件,引發(fā)廣泛關(guān)注。
北京時間6月20日,OpenAI聯(lián)合創(chuàng)始人、前首席科學(xué)家伊利亞(Ilya Sutskever)在社交平臺上發(fā)文宣布,將創(chuàng)辦一家“安全超級智能公司”(Safe Superintelligence Inc.,簡稱SSI)。
“SSI是我們的使命、我們的名字、我們的整個產(chǎn)品路線圖,因為它是我們唯一的焦點。我們的團隊、投資者和商業(yè)模式都是以實現(xiàn)SSI為目標(biāo)。”伊利亞、科技企業(yè)家和投資者Daniel Gross、OpenAI前科學(xué)家Daniel Levy在該公司官網(wǎng)發(fā)表的聯(lián)合署名文章中稱,“構(gòu)建安全的超級智能,是我們這個時代最重要的技術(shù)問題。我們計劃盡快提升能力,同時確保我們的安全始終處于領(lǐng)先地位。”
伊利亞透露,該公司已經(jīng)啟動了世界上第一個直接的安全的超級智能實驗室,只有一個目標(biāo)和一個產(chǎn)品:一個安全的超級智能。但目前,SSI并未公布公司的股東、科研團隊和盈利模式。

實際上,伊利亞離開OpenAI,很大程度上就是因為與OpenAI CEO奧爾特曼(Sam Altman)為核心的管理層存在分歧,尤其是在如何駕馭超級AI、AGI(通用人工智能)安全發(fā)展等問題上存在相反的觀點。
其中,奧爾特曼和OpenAI總裁Greg Brockman傾向于加速商業(yè)化,以獲得更多資金來支持AI模型的算力需求,力求快速增強AI的力量;而伊利亞等人則希望AI更安全。
去年11月,雙方矛盾激化,OpenAI上演“宮斗”大戲,結(jié)果奧爾特曼和Greg Brockman在短暫離職后重歸OpenAI,原董事會中的多位董事離開,伊利亞則在今年5月宣布離任。

對此,國內(nèi)AI安全公司瑞萊智慧(RealAI)CEO田天對鈦媒體AGI等表示,奧爾特曼和伊利亞之間的分歧在于對AI安全的“路線之爭”,伊利亞的新公司就是為了 AI 安全目標(biāo)而設(shè)立的。
田天指出,包括伊利亞、圖靈獎得主Geoffrey Hinton等人認為,AI安全問題現(xiàn)在已經(jīng)到了“非常迫切”去解決的程度。如果現(xiàn)在不去做,很有可能就會錯過這個機會,未來再想亡羊補牢是“沒有可能性”的。
“大模型領(lǐng)域也是一樣。雖然我們對于大模型預(yù)期非常高,認為它在很多領(lǐng)域都能去應(yīng)用,但其實現(xiàn)在,真正在嚴(yán)肅場景下的大模型應(yīng)用典型案例還是非常少的,主要問題在于 AI 安全上。如果不解決安全可控問題,對于一些嚴(yán)肅場景,是沒有人敢去信任AI,沒有人敢去用它(AI)。只有說解決安全、可信問題,AI才有可能去落地和應(yīng)用。”田天表示,如果一些商業(yè)化公司對于安全問題不夠重視、并毫無邊界快速往前跑的話,可能會造成一系列安全危害,甚至可能對于整個全人類有一些安全風(fēng)險和影響。
早在聊天機器人ChatGPT發(fā)布之前,伊利亞便提到AGI對人類社會可能的威脅。他把AGI與人類的關(guān)系,類比人類與動物的關(guān)系,稱“人類喜歡許多動物,但當(dāng)人類要造一條高速路時,是不會向動物征求意見的,因為高速路對人類很重要。人類和通用人工智能的關(guān)系也將會這樣,通用人工智能完全按照自己的意愿行事。”
AGI,即人工智能已具備和人類同等甚至超越人類的智能,簡單而言就是能說會寫,具備計算、推理、分析、預(yù)測、完成任務(wù)等各類人類行為。這樣的AI曾經(jīng)遙遠,但在OpenAI推出第四代模型GPT-4且正訓(xùn)練第五代模型GPT-5時,AGI看似近在咫尺。
今年以來,AI 安全問題持續(xù)引發(fā)關(guān)注。
今年1月,美國一位流行歌手被人用AI惡意生成虛假照片,在社交媒體迅速傳播,給歌手本人造成困擾;2月,香港一家公司遭遇“AI變臉”詐騙,損失高達2億元港幣,據(jù)悉,這家公司一名員工在視頻會議中被首席財務(wù)官要求轉(zhuǎn)賬。然而,會議中的這位“領(lǐng)導(dǎo)”和其他員工,實際都是深度偽造的AI影像。詐騙者通過公開渠道獲取的資料,合成了首席財務(wù)官的形象和聲音,并制作出多人參與視頻會議的虛假場景。
整體來看,為了實現(xiàn)AGI目標(biāo),當(dāng)前,AI系統(tǒng)在設(shè)計上主要面臨五大安全挑戰(zhàn):
-
軟硬件的安全:在軟件及硬件層面,包括應(yīng)用、模型、平臺和芯片,編碼都可能存在漏洞或后門;攻擊者能夠利用這些漏洞或后門實施高級攻擊。在AI模型層面上,攻擊者同樣可能在模型中植入后門并實施高級攻擊;由于AI模型的不可解釋性,在模型中植入的惡意后門難以被檢測。