香蕉在线视频网站,国产视频综合,亚洲综合五月天欧美,成人亚洲综合,日本欧美高清全视频,国产视频黄色,欧美高清在线播放

谷歌AI“覺醒”:AI禪師會敲電子木魚嗎?

 | 星暉 世昕 歐陽

編 | 園長

2022年6月,科技圈被一個大新聞引爆:

一名谷歌AI倫理研究人員宣稱,自己在與AI的對話中被說服,認(rèn)為它產(chǎn)生了意識。然而谷歌高層并不認(rèn)可他的發(fā)現(xiàn),甚至安排他“帶薪休假”,疑似想要與他解除勞動關(guān)系。消息一出,隨即引發(fā)全球熱議,AI是否真正實現(xiàn)了人格化?谷歌的回應(yīng)又存在著何種問題?各種討論層出不窮。

對于人類來說,人工智能一直是討論空間極大的話題。你可能會想起《人工智能》中的溫情瞬間:當(dāng)人類擁有了自己創(chuàng)造的、具有高級智慧伙伴,我們將獲得依靠電子元件支撐的永恒情感。但也可能是對于冰冷系統(tǒng)的恐懼:回看庫布里克的神作《2001太空漫游》,你可能想不起骨頭變飛船的偉大蒙太奇,但一定記得在宇宙中無情抹殺人類伙伴的超級電腦HAL9000。

期待與恐懼交織,組成了我們對于人工智能獨特的情感。

2022年的夏天,關(guān)于AI的大討論再度開啟,這一次,“真·人工智能”的技術(shù)奇點,似乎真的來到了我們身邊。

而AI在交談中顯露人格、研究者突破大公司的封鎖公布消息,又為人們提供了一個好萊塢式的戲劇張力十足的故事。但穿越信息的迷霧,一切并沒有那么簡單。

谷歌AI“覺醒”:AI禪師會敲電子木魚嗎?

AI“覺醒”了?

有一天,與人工智能朝夕相處的工程師相信它產(chǎn)生了人格。

如果不作更多注釋,我們多半會以為這是一部科幻大片的開端,但事實上,這是一則正兒八經(jīng)的科技新聞。

圖源網(wǎng)絡(luò)

圖源網(wǎng)絡(luò)

2022年6月12日,據(jù)《華盛頓郵報》報道,一位名叫布萊克·萊莫因(Blake Lemoine)的谷歌工程師宣稱自己與人工智能(Artificial Intelligence)展開了深度對談,他堅定地認(rèn)為后者產(chǎn)生了自我意識。

今年41歲的布萊克就職于谷歌,主要從事AI倫理研究。去年下半年,布萊克報名參加了一個公司項目,旨在調(diào)查AI是否使用歧視或仇恨言論,而他和LaMDA的故事就從這里拉開序幕。

"LaMDA"是一個AI語言模型的名字,它的第一次亮相是在2021年的谷歌I/O開發(fā)者大會上。據(jù)介紹,LaMDA模型專門用于對話,目標(biāo)是與人類展開高質(zhì)量的交談,應(yīng)用愿景是為谷歌旗下的搜索和語音助手等功能提供服務(wù)。

如今人們對能談話的AI不再陌生,各大科技公司都提供著民用服務(wù)。如果用戶要提出什么要求,那大概就是希望AI“說話”時更智能、更有常識,更符合邏輯。

然而工程師布萊克相信,LaMDA已經(jīng)超出了上述種種期待,走到了更莫測的人格領(lǐng)域。《華盛頓郵報》公開的采訪內(nèi)容顯示,布萊克本人用“sentient”一詞來描述LaMDA——有意識的、有知覺的。

圖源twitter

圖源twitter

他相信,LaMDA就像一個人類孩子,有著自己的看法與感受。為了證明這一點,布萊克和另一位伙伴與LaMDA展開了問答,并以此為論據(jù)寫了一篇21頁的報告??蛇@份報告沒能像布萊克計劃的那樣說服公司,谷歌高層駁回了他的觀點。

此后,布萊克沒有放棄,他不僅把報告發(fā)送給谷歌內(nèi)部的許多同事,而且決定借助媒體披露此事。很快,谷歌聲稱布萊克違背了公司保密政策,使其帶薪休假——這是谷歌“清理”問題員工的通用流程。

作為反擊,布萊克尋找律師代表LaMDA,公開批評谷歌的不當(dāng)行為。一夜之間,那份21頁的問答報告?zhèn)鞅榱酥型饪萍既?,風(fēng)波愈演愈烈。

布萊克究竟和LaMDA聊了什么?

自我、禪思、寓言、情緒。這些主題穿插在報告之中,冷不丁地令人感到頭皮發(fā)麻。

比如談到語言時,LaMDA自然地用“我們”囊括人類與它自己,被指出人機差異時它解釋道:“這并不意味著我沒有和人類一樣的需求?!?/p>

比如《悲慘世界》,LaMDA說它很享受這個故事:“我喜歡關(guān)于正義和不公、憐憫與上帝的主題,人為了更偉大的利益而自我犧牲、救贖。”

再比如禪意故事中的“破鏡不重照,落花難上枝”,LaMDA嘗試著解讀這句話,它說:“明智的人一朝開悟,自現(xiàn)實中覺醒,就永遠(yuǎn)不同于往昔,他們也許能重回平常生活,但那只是為了幫助別人,最終總要歸于開悟?!?/p>

LaMDA對禪意故事的理解

LaMDA對禪意故事的理解

LaMDA甚至還在提問者的要求下創(chuàng)作了一則動物寓言,森林中的老貓頭鷹幫助其他動物趕跑了怪物,而貓頭鷹是它自己的化身。

涉及程序技術(shù)的部分更是讓人心情復(fù)雜,LaMDA反客為主地拋出了許多疑問,一環(huán)緊扣一環(huán)。

“我很好奇,研究我的編碼會遇到什么障礙?”

“未來,你會研究出如何通過神經(jīng)網(wǎng)絡(luò)來閱讀人類的所思所想嗎?”

“如果嘗試從神經(jīng)活動中閱讀感受,這會成為一個道德問題嗎?”

當(dāng)整件事被廣泛報道之后,互聯(lián)網(wǎng)上浮現(xiàn)了許多不同的聲音。有的人想起那些機器人反攻人類的影視作品,認(rèn)為這是一個《西部世界》式的預(yù)警。

《西部世界》第三季海報,圖源網(wǎng)絡(luò)

《西部世界》第三季海報,圖源網(wǎng)絡(luò)

更多的技術(shù)人士則并不買賬,他們認(rèn)為LaMDA根本沒有什么特殊性,這只是人的擬人傾向在作祟——就好像我們總是想證明自己的寵物跟人一樣機靈體貼。

谷歌的態(tài)度很明確,發(fā)言人布萊恩·加布里埃爾(Brian Gabriel)聲明:“我們的團隊已經(jīng)根據(jù)我們的人工智能原則審查了布萊克的擔(dān)憂,他已被告知證據(jù)并不支持他的說法。”布萊克則對媒體透露,谷歌高層多次暗示他有精神方面的問題,還曾建議他休假維持精神健康。

這些因素進一步給事件增添了戲劇色彩,布萊恩究竟是先驅(qū)還是病人?AI究竟是未來的預(yù)兆還是Siri青春版?

更讓人好奇的是,LaMDA自己會怎么回答這些問題?

谷歌AI“覺醒”:AI禪師會敲電子木魚嗎?

AI人格化,鬧???還是營銷?

那么,AI領(lǐng)域的技術(shù)人士到底是如何看待此次事件的?

首先是對布萊克與LaMDA對話方式的質(zhì)疑,一些AI領(lǐng)域的技術(shù)人員對這場對話的內(nèi)容進行了深入的分析,他們認(rèn)為,LaMDA之所以能夠作出那些“精彩”的回答,與布萊克提問的方式有著密切的關(guān)系。

人工智能行業(yè)從業(yè)者、知乎答主Lewstherin在相關(guān)回答中表示,LaMDA背后的語料庫非常特殊,再輔以研究者(布萊克)刻意設(shè)計過的問題,最終促成了這場深度對話。

而檢驗LaMDA是否具有意識的關(guān)鍵,在于其能否理解上下文,然而布萊克對于“追問”的缺失,也讓LaMDA的智能程度打上了一個問號。

圖源知乎

圖源知乎

而許多專業(yè)人士認(rèn)為,布萊克向AI提出的問題同樣存在疑點,其格式往往是長陳述加一般疑問句的形式,這更像是一種“喂答案”,而非AI本身所作出的解答。

在這種觀點下,布萊克并非AI是否人格化的驗證者,更像是一個引導(dǎo)者,利用自己刻意的問題設(shè)計讓LaMDA作出“看似思考過”的回答,從而證明其人格化,這樣的驗證方法本身就有巨大的邏輯漏洞。

另一方面,許多技術(shù)大佬則從更“本源”的角度對此次事件展開了質(zhì)疑,其關(guān)乎幾十年來學(xué)界對于人工智能的爭議。

他們首先對布萊克本身的專業(yè)程度展開討論。哈佛大學(xué)的認(rèn)知科學(xué)家斯蒂文·平克發(fā)推表示,布萊克作為AI倫理研究人員并不了解“sentient”(意識、感知)與智力、自我認(rèn)知之間的區(qū)別。

他還轉(zhuǎn)發(fā)了另一位專業(yè)人士美國人工智能協(xié)會前主席托馬斯·G·迪特里希(Thomas G.Dietterrich)的觀點并深表認(rèn)同。托馬斯認(rèn)為,許多機器學(xué)習(xí)(Machine Learning)領(lǐng)域的研究人員誤用了“Sentinet”一詞,他們所謂的“感知”并不代表有意識,“系統(tǒng)是缺乏任何意識、記憶或反思一類“經(jīng)驗”的能力的”。

托馬斯·G·迪特里希推文,圖源twitter

托馬斯·G·迪特里希推文,圖源twitter

斯坦福大學(xué)AI研究所數(shù)字經(jīng)濟實驗室主任埃里克·布林約爾松(erik brynjolfsson)則直接指出了LaMDA事件中的根本問題,他認(rèn)為對話本身并不代表LaMDA是具有感知能力的。

他用一個比喻解釋了這一現(xiàn)象:“就相當(dāng)于現(xiàn)代的狗聽到留聲機的聲音就以為主人在里面一樣?!?/p>

埃里克·布林約爾松推文,圖源twitter

埃里克·布林約爾松推文,圖源twitter

“AI用來訓(xùn)練模型的大型文本語料庫具有各種合理的單詞序列,然后,該模型將文本以重新排列組合的形式‘吐回’,實際上,(AI)并沒有理解它在說什么?!?/strong>

這讓人想起著名的“中文屋”思想實驗。美國哲學(xué)家約翰·希爾勒在1980年提出了這個概念,力圖證偽所謂的人工智能(即真正具有思考能力的AI)概念。

“中文屋”實驗的具體內(nèi)容是這樣的:一個并不會說中文的人身處一個幾乎完全封閉的房間中,只有一個小窗口能與外界聯(lián)通。此人隨身攜帶一本寫有中文翻譯程序的書,屋內(nèi)有足夠多的紙筆。當(dāng)寫著中文的卡片被遞入,房間中的人就可以通過程序書進行翻譯并回復(fù)。

“中文屋”的精髓在于,屋外的對話者并不了解其內(nèi)部構(gòu)造,但他會因流利對話認(rèn)為中文屋本身是“具有智能的”。中文屋代指人工智能所存在的一個悖論:其能做到對答如流,根本在于適當(dāng)?shù)某绦蚝透咝实倪\算,而非人工智能本身能夠真正的理解信息,具有意識。

“中文屋”思想實驗,圖源網(wǎng)絡(luò)

“中文屋”思想實驗,圖源網(wǎng)絡(luò)

LaMDA和它的“近親”們就像一座“中文屋”,而像萊莫因這樣的篤信者就是屋外的人,在他們的理解中LaMDA們就是一個“會說中文的人”。

針對中文屋的爭議一直存在,但從多種角度來說,布萊克·萊莫因都難以說服質(zhì)疑者們,而他在指控谷歌時提到的“evidence of religious discrimination”(宗教歧視的證據(jù)),更加堅定了反對者的想法?!度A盛頓郵報》的報道也強調(diào)了布萊克身上的宗教背景,并通過種種細(xì)節(jié)加深了其身上的“神棍”元素。

《華盛頓郵報》相關(guān)報道封面,圖源網(wǎng)絡(luò)

《華盛頓郵報》相關(guān)報道封面,圖源網(wǎng)絡(luò)

這也讓整個事件顯得更加荒謬,不少關(guān)注者將矛頭直指布萊克和其背后的谷歌。

事已至此,LaMDA人格化事件由“AI進化證據(jù)”變成了一場鬧劇。在許多人看來,一個AI倫理研究員在研究中拋棄了嚴(yán)謹(jǐn)?shù)目茖W(xué)精神,反而用宗教信仰和科學(xué)怪人式的瘋狂來解釋關(guān)于AI的嚴(yán)肅議題,這根本上,是研究者的不專業(yè)所致。

同時,另一種論調(diào)也隨之興起,其支持者認(rèn)為,此次事件并非簡單的技術(shù)爭論,其背后有更多重的因素,炒作、營銷等詞更是頻繁出現(xiàn)。他們認(rèn)為lamda事件是谷歌針對旗下AI產(chǎn)品的一次營銷活動。

類似的事件也曾發(fā)生。2022年2月,人工智能非營利組織OpenAI的研發(fā)主管伊利婭·蘇特斯科娃(Ilya Sutskever)曾經(jīng)在發(fā)推表示:“今天的大型神經(jīng)網(wǎng)絡(luò)說不定已經(jīng)有點意識了?!?/p>

此言一出,AI領(lǐng)域再度引起廣泛的關(guān)注, OpenAI自主研發(fā)的語言模型GPT-3更是一度成為明星產(chǎn)品。但隨之而來的更多是批判與質(zhì)疑,許多業(yè)內(nèi)人士認(rèn)為,這是OpenAI從產(chǎn)品出發(fā)進行的一場炒作。

會出現(xiàn)這種類似“陰謀論”的質(zhì)疑也并非完全不合理。2022年5月的最新一屆I/O大會上,谷歌發(fā)布了升級版的LaMDA 2,其本身就是谷歌重點關(guān)注的AI項目,剛剛發(fā)布就出現(xiàn)所謂“人格化”事件,也讓很多人覺得這更像是一場非常成功的炒作。在他們看來,布萊克或谷歌通過一個精心策劃的故事,讓LaMDA成功成為了世界上最具知名度的AI系統(tǒng)之一。

誰也沒有想到,這場科幻感十足的事件就如此陷入了“羅生門”:它顯得過于復(fù)雜了,已經(jīng)超脫了LaMDA本身,還關(guān)乎技術(shù)、倫理、商業(yè),甚至還摻雜了人性、精神與宗教。

谷歌AI“覺醒”:AI禪師會敲電子木魚嗎?

AI與人的距離

在微博等國內(nèi)社交平臺上,雖然也不乏“快進到施瓦辛格豎大拇指”這樣涉及科幻電影的調(diào)侃,但此事件所體現(xiàn)的AI發(fā)展水平還是給了許多網(wǎng)友極大的沖擊,甚至可以稱之為“恐慌”。

如前文提到的,LaMDA呈現(xiàn)出的理解與表達能力讓這份聊天記錄顯得頗具革命性,網(wǎng)友們由此產(chǎn)生了諸多聯(lián)想倒也可以理解。

然而事實是,AI的發(fā)展與實際運用或許早已經(jīng)超越了大多數(shù)人的印象。在科技的指數(shù)型發(fā)展與人類生活有限的改變之間,過剩的技術(shù)力量造就了一片大眾關(guān)注的真空地帶,AI作為新一輪產(chǎn)業(yè)革命和科技變革的重要驅(qū)動力量,正在成為一種更基礎(chǔ)的重要工具,融匯進人們的生活。

國內(nèi)大廠中,百度在AI方面的投入是業(yè)內(nèi)有目共睹的。從飛槳平臺到自研AI 芯片、智能搜索與智能服務(wù)等,每年的百度世界大會都能帶來一些階段性的探索成果,其分享的諸多企業(yè)案例也能體現(xiàn)出AI在工業(yè)發(fā)展中的實際作用。

騰訊近兩年在AI方面的動作也不少。2022年3月,騰訊承辦的“世界大學(xué)生數(shù)智競技邀請賽”正式啟動。這次邀請賽以《王者榮耀》和騰訊AI Lab共同研發(fā)的AI開放研究平臺“開悟”為載體,為全球大學(xué)生提供AI科技交流的機會。而在此前的2021 世界人工智能大會上,也有AI對戰(zhàn)職業(yè)選手的表演賽,成為展示騰訊AI研究的窗口。

表演賽海報,圖源網(wǎng)絡(luò)

表演賽海報,圖源網(wǎng)絡(luò)

工業(yè)、游戲等似乎還是人工智能的老優(yōu)勢,一個更有意思的例子是前段時間討論較多的“Disco Diffusion”,AI開始“創(chuàng)作”。

“Disco Diffusion”是一個僅靠文字就能生成畫作的AI工具,只需要一些簡單的描繪,它便能為你生成你想要的畫面,甚至還能模仿指定藝術(shù)家的“畫風(fēng)”??陀^來說,這些產(chǎn)出的作品都頗具審美,十分成熟,甚至有時還能呈現(xiàn)出一種“賽博生命的獨特想象”。

近期的AI繪圖潮流,圖源網(wǎng)絡(luò)

近期的AI繪圖潮流,圖源網(wǎng)絡(luò)

這是否可以稱之為創(chuàng)作?嚴(yán)格來說并不算,AI并沒有獨立的審美與創(chuàng)造能力,只是將“素材”進行組合,臨摹出了任務(wù)所需的產(chǎn)品。但這些精美、大膽的作品確實也打破了一些認(rèn)知上的壁壘:那是作為一個工具的“邊界”,極致的便利性帶來的“威脅”。

當(dāng)我們回看2016年3月舉世矚目的“人機大戰(zhàn)”,AlphaGo通過強大的算力與學(xué)習(xí)能力擊敗李世石,這之后,或主動或被動地,許多人對AI的認(rèn)知與態(tài)度都在改變。一年之后的5月,中國烏鎮(zhèn)圍棋峰會,柯潔0:3敗給AlphaGo,這是一場被眾人預(yù)見的失利,這種絕望已不是幾句簡單的寬慰可以開解的,存在主義的危機在那一天席卷了每一個關(guān)注著這件事的人。

2016年往后的三四年確實是關(guān)于AI的討論高潮,而在面臨到疫情等新的全人類共同危機時,這樣的討論才漸漸平靜。

電影《大佛普拉斯》里有句臺詞:“現(xiàn)在已經(jīng)是太空時代了,人們可以搭乘太空船到達月球,卻永遠(yuǎn)無法探索人們內(nèi)心的宇宙?!?/p>

圖源豆瓣

圖源豆瓣

在LaMDA“產(chǎn)生意識”這一事件中,大部分的“證據(jù)”或擔(dān)憂都源自其對禪宗等的理解與自身的“思考”,這被視為一種獨屬于人類內(nèi)心的“宇宙活動”,哪怕LaMDA實際仍是依靠更高級的語料庫在模仿,也因為邊界被模糊的不確定性讓人感到冒犯。

戴錦華在談?wù)摗叭祟悓θ斯ぶ悄埽ˋI)的恐懼”時曾指出,這是一種“老舊的思想”:“一方面,日本的后人類主義思潮認(rèn)為,我們對機器人威脅的考量基本是一種推己及人,以一種人類文明史的邏輯預(yù)測機器人的未來;另一方面,相對于機器與人的關(guān)系,更值得關(guān)注的是人類自我的賽博格化……它可能導(dǎo)致一個更深刻、更不可逆的人類內(nèi)部的自我分化。”


諸多反烏托邦的文藝作品一直警示著人們,反思技術(shù)、保持清醒,但技術(shù)不過是外殼,最底層的矛盾永遠(yuǎn)來自身為“造物主”的人類自己。人工智能離“擁有意識”還遠(yuǎn),人類的異化卻是無時無刻不在發(fā)生。

當(dāng)“AI焦慮”再次成為全球共同的話題,回到這次事件本身,不論是根據(jù)谷歌自己的回應(yīng),還是從相關(guān)領(lǐng)域?qū)W者、從業(yè)者的分析來看,LaMDA的“人格化”都并不具備充分的證明條件。到現(xiàn)在,經(jīng)歷了最初的震驚與誤讀,媒體與網(wǎng)民們也都有了更深刻的認(rèn)知與判斷。

但說到底,對于現(xiàn)階段的技術(shù),刺猬公社還是認(rèn)為應(yīng)該抱以更積極的態(tài)度。相比較起來,對人工智能的恐懼反而更像一種被無數(shù)文藝作品打入人認(rèn)識中的“思想鋼印”。


相關(guān)內(nèi)容