鳳凰網(wǎng)科技訊 《AI前哨》北京時(shí)間6月11日消息,最近一段時(shí)間,一些研究人員和行業(yè)領(lǐng)袖不斷警告稱,人工智能(AI)可能會對人類的生存構(gòu)成威脅。但是,對于AI究竟如何摧毀人類,他們并未詳談。
上個(gè)月,AI領(lǐng)域的數(shù)百名知名人士聯(lián)合簽署了一封公開信,警告AI有朝一日可能會毀滅人類?!皽p輕AI帶來的滅絕風(fēng)險(xiǎn),應(yīng)該與流行病和核戰(zhàn)爭等其他社會規(guī)模風(fēng)險(xiǎn)一起,成為全球的優(yōu)先事項(xiàng)?!边@封只有一句話的公開信這么寫道。
這封信是科技行業(yè)對于AI發(fā)出的最新不詳警告,但是明顯缺乏細(xì)節(jié)。今天的AI系統(tǒng)無法摧毀人類,有些AI系統(tǒng)甚至還不會加減法。那么,為什么最了解AI的人會如此擔(dān)心呢?
怕什么?
一些科技行業(yè)的“烏鴉嘴”說,總有一天,企業(yè)、政府或獨(dú)立研究人員能夠部署強(qiáng)大的AI系統(tǒng)來處理從商業(yè)到戰(zhàn)爭在內(nèi)的一切事務(wù)。這些系統(tǒng)可能會做一些人類不希望它們做的事情。如果人類試圖干擾或關(guān)閉它們,它們可以抵抗甚至復(fù)制自己,這樣它們就可以繼續(xù)運(yùn)作。
“今天的系統(tǒng)根本不可能構(gòu)成生存風(fēng)險(xiǎn),”蒙特利爾大學(xué)教授、AI研究員約書亞·本吉奧(Yoshua Bengio)表示,“但是一年、兩年、五年以后呢?有太多的不確定性。這就是問題所在。我們不能確定這些系統(tǒng)不會達(dá)到某個(gè)臨界點(diǎn),引發(fā)災(zāi)難性后果?!?/p>
對于AI的威脅,憂慮者經(jīng)常使用一個(gè)簡單的比喻。他們說,如果你要求一臺機(jī)器制造盡可能多的回形針,它可能會失去控制,把一切都變成回形針工廠,包括人類。
人類面臨AI滅絕風(fēng)險(xiǎn)
那么,這種威脅與現(xiàn)實(shí)世界或者不遠(yuǎn)的未來能夠想象的世界有何關(guān)系呢?企業(yè)可以讓AI系統(tǒng)具備越來越多的自主性,并將其連接到重要的基礎(chǔ)設(shè)施上,包括電網(wǎng)、股市和軍事武器。它們可能會從那里引發(fā)問題。
對于許多專家來說,這原本似乎并不可信,直到去年,OpenAI展示了他們技術(shù)的重大改進(jìn)。這些最新技術(shù)表明,如果AI繼續(xù)以如此快的速度發(fā)展,可能會發(fā)生一些意想不到的事情。
“隨著AI變得越來越自主,它將逐漸被授權(quán),并可能篡奪當(dāng)前人類和人類管理的機(jī)構(gòu)的決策和思考權(quán)力?!奔又荽髮W(xué)圣塔克魯茲分校的宇宙學(xué)家安東尼·阿吉雷(Anthony Aguirre)表示,他也是未來生命研究所的創(chuàng)始人之一,該組織是兩封警告AI危險(xiǎn)性公開信中的一封的背后推動者。
他表示:“未來某個(gè)時(shí)刻,人們會清楚地意識到,主導(dǎo)社會和經(jīng)濟(jì)的巨大機(jī)器并非真正受人類控制,也無法像關(guān)閉標(biāo)準(zhǔn)普爾500指數(shù)一樣被關(guān)閉。”
這或許只是理論上的說法。其他AI專家認(rèn)為,這是一個(gè)荒謬的假設(shè)。“對于生存風(fēng)險(xiǎn)的討論,我可以用一個(gè)禮貌的詞語來形容我的看法,這些擔(dān)憂只是‘假設(shè)’?!蔽餮艌D研究實(shí)驗(yàn)室艾倫AI研究所的創(chuàng)始CEO奧倫·埃齊奧尼(Oren Etzioni)這么說。
AI有這種能力了嗎?
還沒有。但是,研究人員正在將ChatGPT這樣的聊天機(jī)器人轉(zhuǎn)變?yōu)槟軌蚋鶕?jù)他們生成的文本采取行動的系統(tǒng)。
一個(gè)名為AutoGPT的項(xiàng)目就是最典型的例子。該項(xiàng)目的想法是給AI系統(tǒng)設(shè)定目標(biāo),比如“創(chuàng)辦一家公司”或“賺一些錢”。然后,系統(tǒng)會不斷尋找實(shí)現(xiàn)這一目標(biāo)的方式,特別是如果它們與其他互聯(lián)網(wǎng)服務(wù)相連接的情況下。
AutoGPT開始讓AI采取行動
像AutoGPT這樣的系統(tǒng)可以生成計(jì)算機(jī)程序。如果研究人員給它訪問計(jì)算機(jī)服務(wù)器的權(quán)限,它實(shí)際上可以運(yùn)行這些程序。從理論上講,這是AutoGPT幾乎可以在網(wǎng)上做任何事情的一種方式,包括獲取信息、使用應(yīng)用程序、創(chuàng)建新的應(yīng)用程序,甚至自我改進(jìn)。
目前,AutoGPT這樣的系統(tǒng)運(yùn)轉(zhuǎn)還不夠順暢。他們往往會陷入無盡的循環(huán)中。研究人員曾為一個(gè)系統(tǒng)提供了復(fù)制自身所需的所有資源,但是它還無法復(fù)制自身。
不過,假以時(shí)日,這些限制可能會被突破。
“人們正在積極嘗試構(gòu)建自我完善的系統(tǒng),”Conjecture公司創(chuàng)始人康納·萊希(Connor Leahy)說,該公司希望將AI技術(shù)與人類價(jià)值觀保持一致,“目前,這還行不通。但總有一天會的。我們不知道那一天是什么時(shí)候?!?/p>
萊希認(rèn)為,當(dāng)研究人員、企業(yè)和犯罪分子給這些系統(tǒng)設(shè)定“賺一些錢”之類的目標(biāo)時(shí),AI系統(tǒng)最終可能會闖入銀行系統(tǒng),在持有石油期貨的國家煽動革命,或者在有人試圖關(guān)閉它們時(shí)進(jìn)行自我復(fù)制。
AI會變壞
像ChatGPT這樣的AI系統(tǒng)建立在神經(jīng)網(wǎng)絡(luò)和數(shù)學(xué)系統(tǒng)之上,可以通過分析數(shù)據(jù)來學(xué)習(xí)技能。
大約在2018年,谷歌和OpenAI等公司開始構(gòu)建神經(jīng)網(wǎng)絡(luò),讓這些網(wǎng)絡(luò)從互聯(lián)網(wǎng)上挑選的大量數(shù)字文本中學(xué)習(xí)。通過準(zhǔn)確找出所有這些數(shù)據(jù)中的模式,這些系統(tǒng)學(xué)會了自己創(chuàng)作,包括新聞文章、詩歌、計(jì)算機(jī)程序,甚至是類似人類的對話。最終結(jié)果是:像ChatGPT這樣的聊天機(jī)器人誕生了。
由于它們能從更多的數(shù)據(jù)中學(xué)習(xí),甚至超過了它們的創(chuàng)造者所能理解的范圍,這些系統(tǒng)也表現(xiàn)出了意想不到的行為。研究人員最近表明,有一個(gè)系統(tǒng)能夠在網(wǎng)上雇傭一個(gè)人來通過驗(yàn)證碼測試。當(dāng)人類問它是不是“機(jī)器人”時(shí),系統(tǒng)撒謊說它是一個(gè)有視力障礙的人。
一些專家擔(dān)心,隨著研究人員讓這些系統(tǒng)變得更強(qiáng)大,用越來越多的數(shù)據(jù)對它們進(jìn)行訓(xùn)練,它們可能會學(xué)到更多的壞習(xí)慣。
早有警告聲音
其實(shí)在21世紀(jì)初,一位名叫埃利澤·尤德科夫斯基(Eliezer Yudkowsky)的年輕作家已經(jīng)開始警告說,AI可能會毀滅人類。他的網(wǎng)上帖子催生出了一個(gè)信徒社區(qū)。這個(gè)群體被稱為理性主義者或有效利他主義者(EA,以改善世界為目標(biāo)),在學(xué)術(shù)界、政府智庫和科技行業(yè)都具有巨大的影響力。
尤德科夫斯基和他的文章在OpenAI和DeepMind的創(chuàng)建過程中發(fā)揮了關(guān)鍵作用。DeepMind是一家AI實(shí)驗(yàn)室,2014年被谷歌收購。許多來自“有效利他主義者”社區(qū)的人在這些實(shí)驗(yàn)室里工作。他們認(rèn)為,因?yàn)樗麄兞私釧I的危險(xiǎn),所以他們最能夠開發(fā)AI。
尤德科夫斯基
AI安全中心和未來生命研究所是最近發(fā)布公開信警告AI風(fēng)險(xiǎn)的兩大組織,他們與“有效利他主義者”社區(qū)密切相關(guān)。
除此之外,一些AI研究先驅(qū)和行業(yè)領(lǐng)袖也對AI發(fā)出了警告,比如埃隆·馬斯克(Elon Musk),他長期以來一直在警告這種風(fēng)險(xiǎn)。最新一封警告信由OpenAI CEO薩姆·阿爾特曼(Sam Altman)、戴米斯·哈薩比斯(Demis Hassabis)簽署。哈薩比斯協(xié)助創(chuàng)立了DeepMind,現(xiàn)在負(fù)責(zé)管理一個(gè)新的AI實(shí)驗(yàn)室,該實(shí)驗(yàn)室匯集了DeepMind和谷歌的頂尖研究人員。
其他一些備受尊敬的人物也簽署了這兩份警告信中的一封或兩封,其中包括蒙特利爾大學(xué)的本吉奧博士和“AI教父”杰弗里·辛頓(Geoffrey Hinton),后者最近辭去了谷歌高管和研究員職務(wù)。2018年,本吉奧和辛頓一同獲得了“計(jì)算界的諾貝爾獎”圖靈獎,以表彰他們在神經(jīng)網(wǎng)絡(luò)方面所做的工作。
拖延戰(zhàn)術(shù)?
大數(shù)據(jù)公司Palantir的老板亞歷克斯·卡普(Alex Karp)近日表示,他反對暫停AI研究的想法, 那些提出這種想法的人是因?yàn)樗麄儧]有自己的AI產(chǎn)品。
卡普周四在接受采訪時(shí)說,“那些沒有什么產(chǎn)品可以提供的人,想利用暫停時(shí)間來研究AI”,但是如果暫停開發(fā),這可能會導(dǎo)致敵對國不僅在商業(yè)應(yīng)用領(lǐng)域,而且在軍事應(yīng)用領(lǐng)域竊取領(lǐng)先優(yōu)勢。
他表示,“讓其他人在商業(yè)領(lǐng)域和戰(zhàn)場上都取得勝利”是一個(gè)非常糟糕的策略??ㄆ辗Q,世界已經(jīng)在上演一場AI軍備競賽,美國處于領(lǐng)先,但是即便美國放慢腳步,這場競賽也不會停。鳳凰網(wǎng)科技《AI前哨》對此將持續(xù)關(guān)注。(作者/簫雨)