-
喬恩·阿斯科納斯、弗拉基米爾·波波夫:關(guān)于人工智能的常識
最后更新: 2023-11-30 09:10:34要完全減輕基于人工智能的存在風(fēng)險,需要采取什么措施?一種共識指出,我們必須大幅度且有意地減緩發(fā)展的速度,特別放緩部署新的大語言模型。然而,由于人工智能提供了經(jīng)濟(jì)和軍事優(yōu)勢,任何一國的單方面的禁令都存在落后于其他國家的風(fēng)險,這再次落入了軍備競賽的情境。因此有觀點(diǎn)認(rèn)為,解決方案是開發(fā)和使用與人工智能安全目標(biāo)一致的全球形式的權(quán)力(包括軍事力量)。
在美國《時代》雜志上的一篇文章中,機(jī)器智能研究所創(chuàng)始人尤德科夫斯基(Eliezer Yudkowsky)寫道:“如果情報顯示一個未參加[人工智能安全]協(xié)議的國家正在建設(shè)圖形處理器(GPU)集群(譯者注:GPU作為一種高性能計算硬件,在人工智能應(yīng)用中具有顯著的優(yōu)勢),那么不要對國家之間的沖突感到害怕,而要擔(dān)心各國違反停火協(xié)議;要允許我們通過空襲摧毀一個流氓數(shù)據(jù)中心?!?
盡管尤德科夫斯基的立場處于的激進(jìn)邊緣,但更主流的人物提出了可能更極端的解決方案。在關(guān)于長期技術(shù)風(fēng)險的“脆弱世界假設(shè)”的一篇文章中,暢銷書《超級智能》(Superintelligence : Paths, Dangers, Strategies)作者、牛津大學(xué)未來人類研究所創(chuàng)始主任博斯特羅姆(Nick Bostrom)提出了“無處不在的監(jiān)視或單極世界秩序”的發(fā)展趨勢:允許未經(jīng)許可的技術(shù)發(fā)展(包括通用人工智能、生物技術(shù)和納米材料)可能對人類生存造成災(zāi)難性后果的發(fā)展,而不是通向物種長壽。但是,要實現(xiàn)這樣的制度首先要建立前所未有的全球治理。
在關(guān)于人工智能長期取代人類的前景的最近一篇論文中,人工智能安全中心主任亨德里克斯(Dan Hendryks)得出了類似的結(jié)論。如果人工智能的優(yōu)越性是命中注定的,那么人類生存的一條道路可能是積極建立一個“人工智能利維坦”,其中對人類友好的人工智能可以馴服或消滅所有其他潛在不友好的模型。
人文學(xué)者都應(yīng)該對這些論點(diǎn)感到非常擔(dān)憂——圍繞技術(shù)發(fā)展來建立全球極權(quán)政治秩序,這似乎是可怕的未來。即便是在這個方向上的一些邊緣嘗試,也可能導(dǎo)致人類自由的急劇下降。如果嘗試遏制人工智能的風(fēng)險,如果構(gòu)想不好,甚至可能會加劇其他災(zāi)難性風(fēng)險。任何試圖賦予一個有力的“攔阻者”(katechon)的嘗試都有可能辯證地導(dǎo)致相反結(jié)果,變成一個“不情愿的加速者”。(注:在《圣經(jīng)》帖撒羅尼迦后書2:6-8中,保羅談及末日時提及了“攔阻者”Katechon的概念。按照保羅的字面含義,攔阻者阻擋在了上帝和不法者之間,似乎攔阻者只要不被移除,末日就不會降臨,上帝就不會消滅這不法者。攔阻者也成為西方傳統(tǒng)中一個重要的形象,許多西方思想家如施密特和施特勞斯以各自的方式應(yīng)對他們的挑戰(zhàn),攔阻他們心中必須被攔阻的邪惡勢力。施密特似乎認(rèn)為,至關(guān)重要的是對政治本身的保護(hù)——對政治的保護(hù),反對它被自動化技術(shù)本身的升級所威脅的中立化。)
在這種情況下,建立一個全球政府來停止無許可技術(shù)進(jìn)步,反而會立即加劇氣候變化和人口減少等迫在眉睫的文明風(fēng)險。使用末日論調(diào)來構(gòu)建全球政治制度將減緩全球經(jīng)濟(jì)增長,使未來看起來更加可怕,并且進(jìn)一步抑制生育率。一個老齡化的社會往往創(chuàng)新更少,需要更多的年輕人照顧老年人,并且沒有資源、能源和技術(shù)來減少碳排放并改善碳捕捉,從而加劇氣候變化。世界末日的人工智能奇點(diǎn)仍屬于科幻領(lǐng)域,但在當(dāng)下,人類顯然有能力創(chuàng)建一個全球的極權(quán)政治框架,扼殺未來并引發(fā)文明自殺。
三、人工智能安全的常識方法
因此,如果人工智能存在著真正的、嚴(yán)重的、難以把握的風(fēng)險,但許多用來遏制這些風(fēng)險的提案可能同樣具有潛在的破壞性,那么我們能否找到一條前進(jìn)的道路,既承認(rèn)了風(fēng)險,又促進(jìn)了人工智能系統(tǒng)的改進(jìn)呢?
接下來,我們將提出一種實現(xiàn)人工智能安全的“常識”方法,重點(diǎn)是迅速利用人工智能帶來的生產(chǎn)力提升,同時減輕了日益復(fù)雜模型帶來的某些危險。
人工智能的迅速發(fā)展可以沿兩個軸線來看待:縱軸與橫軸??v軸指的是開發(fā)更大更強(qiáng)的模型,這帶來了許多未知和潛在的生存風(fēng)險。相比之下,橫軸強(qiáng)調(diào)將當(dāng)前模型集成到經(jīng)濟(jì)的各個角落,相對風(fēng)險較低,回報較高。
對人工智能的任何監(jiān)管都必須仔細(xì)區(qū)分這兩個發(fā)展維度。雖然基于當(dāng)前基于人工智能的各類應(yīng)用也不是沒有風(fēng)險的,但與構(gòu)建超級人工智能所帶來的風(fēng)險相比,兩者在性質(zhì)上有著質(zhì)的不同。從算法偏見到深度偽造,這些較小的人工智能風(fēng)險都可以通過加速研究來解決,而不是通過減慢研究進(jìn)程。
惡意行為人將需要利用開源人工智能模型,因為這些活動顯然違反了像OpenAI這樣的頭部企業(yè)的服務(wù)條款。幸運(yùn)的是,開源模型在技術(shù)上往往落后于OpenAI等封閉技術(shù)。因此,善意行為人在對抗由人工智能生成的垃圾郵件的競賽中具有優(yōu)勢。監(jiān)管不應(yīng)該限制善意行為人的努力,尤其是當(dāng)惡意行為人并不會遵守監(jiān)管規(guī)則時。
然而,監(jiān)管是必要的,以防止強(qiáng)大的模型變成開源。以Meta公司的強(qiáng)大LLaMA模型為例,這是一個類似于ChatGPT的文本生成人工智能。Meta打算以受控的方式向研究人員提供LLaMA的訪問權(quán)限,但該模型在宣布后僅一個星期就被泄露到了互聯(lián)網(wǎng)上。在缺乏與此類安全漏洞相關(guān)的法規(guī)或罰款的情況下,Meta的公開回應(yīng)相當(dāng)于一個大大的“糟糕”。
第二類可管理風(fēng)險源于生成式人工智能創(chuàng)造的大量輸出。從“智能律師”到用簡單的文本描述生成原創(chuàng)藝術(shù),不管我們喜歡與否,大門已經(jīng)敞開。幸運(yùn)的是,在互聯(lián)網(wǎng)時代,我們已經(jīng)逐步養(yǎng)成了應(yīng)對“信息海嘯”的經(jīng)驗。以數(shù)字千年版權(quán)法(DMCA)下的受版權(quán)保護(hù)作品問題為例,盡管其遠(yuǎn)非完美,但它為解決在線版權(quán)爭議提供了一個非法律程序的框架,因此有助于防止法律體系不被破壞。除了狹義的版權(quán)問題之外,我們需要對傳統(tǒng)機(jī)構(gòu)進(jìn)行改革,以應(yīng)對更高信息吞吐量的需求。
人工智能在縱軸上的研究是事情變得更復(fù)雜的地方。使用更多數(shù)據(jù)訓(xùn)練的更大、更強(qiáng)功能的模型,但這種訓(xùn)練的方向不可預(yù)測。只有少數(shù)幾家大型公司有資源來推動人工智能前沿,而它們的行為力度取決于競爭壓力。政府可以通過將最大的參與者聚集在一起,合作制定共享的安全協(xié)議,來阻止這些軍備競賽。這可以包括要求公開宣布和批準(zhǔn)大規(guī)模訓(xùn)練運(yùn)行的規(guī)定,以及通過國家標(biāo)準(zhǔn)和技術(shù)研究所創(chuàng)建安全測試的行業(yè)標(biāo)準(zhǔn)。像微軟投資的OpenAI和谷歌投資的Anthropic這樣的主要參與者,已經(jīng)進(jìn)行了深入的安全和“對齊(Alignment)”的研究。但重要的是,他們對人工智能對齊的見解不應(yīng)成為商業(yè)機(jī)密。
對齊研究中最有前途的領(lǐng)域之一是“機(jī)械可解釋性”(mechanistic interpretability)。機(jī)械可解釋性可以被視為人工智能大腦的神經(jīng)科學(xué)。通過嚴(yán)格研究人工神經(jīng)網(wǎng)絡(luò)中特定神經(jīng)回路,研究人員可以了解“黑盒子”模型如何做到這一點(diǎn)。不幸的是,解釋性研究仍然是一個相對新興的領(lǐng)域,對于像GPT-4這樣的大型模型的理解遠(yuǎn)遠(yuǎn)滯后。(譯者注:機(jī)制可解釋性對人工智能對齊具有重要意義。首先,可解釋性方法可用于審計大模型,特別是在部署大模型之前??梢詸z查LLM的對齊功效,識別不對齊和錯誤的輸出,并闡明它為什么會產(chǎn)生這樣的輸出。其次,可解釋性評估指標(biāo)可以作為優(yōu)化人工智能對齊的獎勵函數(shù),以激勵人工智能系統(tǒng)保持目標(biāo)透明度,例如避免欺騙對齊。第三,除了檢查/架構(gòu)的透明度之外,還可以加強(qiáng)訓(xùn)練過程的透明度,能夠了解和監(jiān)控人工智能系統(tǒng)訓(xùn)練過程中發(fā)生的事情和變化,例如涌現(xiàn)行為/能力。)
機(jī)器學(xué)習(xí)模型的可解釋性(圖源:網(wǎng)絡(luò))
最重要的解釋性研究需要再次投入大量資金,進(jìn)而培訓(xùn)和重新培訓(xùn)模型變種。這本身是一個潛在的市場失敗,因為對于人工智能公司而言,投入資金用于沒有下游商業(yè)目的的模型的動機(jī)非常有限。不過,政府可以通過創(chuàng)建自己的超級計算集群來解決這些訪問和成本問題。一個大規(guī)模的機(jī)械性可解釋性研究測試平臺將有助于推動該領(lǐng)域的發(fā)展,并使研究人員更容易訪問大型模型的內(nèi)部。此外,政府可以要求大型人工智能公司發(fā)布解釋性和安全標(biāo)準(zhǔn),以改善人工智能安全方面的知識共享。
此外,公共采購先進(jìn)芯片將有助于國會實現(xiàn)建設(shè)美國國內(nèi)半導(dǎo)體能力的目標(biāo),而先進(jìn)芯片的公共所有權(quán)可能更為重要——這是作為對人工智能發(fā)展導(dǎo)致企業(yè)權(quán)力失控的一種保險。事實上,如果沒有一個安全的平臺來訓(xùn)練符合政府需求的模型,我們可能有一天會發(fā)現(xiàn),國家的繁榮和安全將落入幾個私人行為者的支配中。
四、結(jié)語
通過潛在的人工智能安全政策的幾個示例,我們希望公眾不要過度關(guān)注極端的尾部風(fēng)險。相反,我們應(yīng)該制定措施,進(jìn)而改善我們可能部署的系統(tǒng)的安全性和可靠性,并且以尊重西方科技治理傳統(tǒng)的方式來實施。
發(fā)展人工智能安全的關(guān)鍵在于,我們應(yīng)吸納各類型的知識和專家參與討論。正如經(jīng)濟(jì)學(xué)家考恩(Tyler Cowen)所指出的,關(guān)于“人工智能暫停公開信”的一個令人震驚的事實是,除了計算機(jī)科技領(lǐng)域的領(lǐng)袖之外,其他領(lǐng)域的領(lǐng)導(dǎo)人幾乎完全沒有參與其中,著與核時代的類似公開信顯然不同。多年來,人工智能的安全研究一直屬于被理論計算機(jī)科學(xué)主導(dǎo)的隱匿領(lǐng)域,偶爾有一些分析哲學(xué)和物理學(xué)的參與。
如今,強(qiáng)大的人工智能已經(jīng)出現(xiàn),但相應(yīng)的安全討論卻受到了學(xué)科的限制,盡管許多當(dāng)前問題必然涉及其他類型的專業(yè)知識。安全研究的不足是經(jīng)典的公共產(chǎn)品(public good)問題,因此經(jīng)濟(jì)學(xué)家可能會有一些看法。此外,對導(dǎo)致通用人工智能的軍備競賽的預(yù)測和分析,可能從國際關(guān)系學(xué)者那里獲得啟發(fā)。OpenAI的關(guān)于安全風(fēng)險的白皮書有數(shù)十名技術(shù)研究人員,但其中的社會科學(xué)家和人文學(xué)者用一只手就數(shù)過來。為了制定既可獲得又可實現(xiàn)的人工智能安全措施,我們需要整合來自人類所有知識領(lǐng)域的見解,而不是依賴在互聯(lián)網(wǎng)留言板上無來由的科幻寓言。
- 原標(biāo)題:OpenAI激烈內(nèi)斗,曝光遏制派和加速派都無力應(yīng)對的困局? 本文僅代表作者個人觀點(diǎn)。
- 責(zé)任編輯: 周子怡 
-
0.1微米!超精密加工利器來了
2023-11-30 08:15 中國精造 -
打造世界一流科技期刊,中國底氣在哪里?
2023-11-29 14:00 -
中國載人航天工程辦公室:盼港澳航天員進(jìn)駐祖國空間站
2023-11-29 10:19 航空航天 -
中國空間站第一組全構(gòu)型工作照發(fā)布
2023-11-28 16:58 航空航天 -
中國首顆高精度地磁場探測衛(wèi)星投入使用
2023-11-28 15:02 航空航天 -
朝中社:朝鮮加快“萬里鏡-1”號偵察衛(wèi)星微調(diào)進(jìn)程
2023-11-27 18:54 朝鮮現(xiàn)狀 -
如果未來20年“機(jī)器人女友”成為現(xiàn)實,人類能收獲AI愛情嗎?
2023-11-27 17:41 -
高林:發(fā)展人工智能應(yīng)堅持“智能向善”
2023-11-27 15:03 人工智能 -
劉伯超:真誠希望中美雙方深化人工智能技術(shù)交流與合作
2023-11-27 15:03 人工智能 -
突破“卡脖子”難題,我國首次成功研發(fā)!
2023-11-27 14:59 中國精造 -
我國首張,初步建成!完整覆蓋國土全境
2023-11-27 10:33 航空航天 -
95后天才少年曹原將赴伯克利任教,曾發(fā)現(xiàn)石墨烯超導(dǎo)角度轟動國際學(xué)界
2023-11-27 09:26 -
代表世界最高水平!這一核心裝備研制成功
2023-11-26 18:36 -
中外合作獲得高精度月表化學(xué)成分分布圖
2023-11-25 19:17 -
金正恩觀看偵察衛(wèi)星拍攝的首爾等重要目標(biāo)地區(qū)圖片
2023-11-25 07:21 朝鮮現(xiàn)狀 -
“墨子”發(fā)現(xiàn)潛在威脅小行星!
2023-11-24 13:14 航空航天 -
全球首個商用海底數(shù)據(jù)中心今日下水,為什么要沉入海底?
2023-11-24 10:48 科技前沿 -
首只全流程國產(chǎn)克隆貓降生!克隆技術(shù)全流程國產(chǎn)化意味著什么?
2023-11-24 06:54 -
顏寧回應(yīng)當(dāng)選中科院院士
2023-11-23 15:25 -
名單公布!46人當(dāng)選2023年兩院外籍院士
2023-11-23 13:41
相關(guān)推薦 -
最新聞 Hot
-
“不被特朗普唬住,中國打了個樣”
-
“特朗普已經(jīng)毀掉了圣誕節(jié)”
-
特朗普突然提“統(tǒng)一”,臺當(dāng)局緊急回應(yīng)
-
“顯然特朗普先退一步,雖尷尬但有用”
-
變調(diào)了,“印度這次要對美國來真的”
-
“澤連斯基堅持只跟普京談”,俄方最新回應(yīng)
-
面對中國和拉美,美國還停留在200年前
-
歐盟深吸一口氣:這也太荒謬了
-
美企開啟瘋狂囤貨,問題又來了
-
陣容龐大!關(guān)鍵時刻,拉美伙伴“力挺”中國
-
美國這就期待上了
-
日本:中美聲明,在研究了
-
120%→54%,這項對華關(guān)稅也改了
-
“特朗普敗了,更像是投降”
-
“美國技術(shù)封鎖迫使中國全速發(fā)展”
-
迷之自信、張口就來:更愿意和中國打,而非巴基斯坦…
-