香蕉在线视频网站,国产视频综合,亚洲综合五月天欧美,成人亚洲综合,日本欧美高清全视频,国产视频黄色,欧美高清在线播放

ChatGPT恐怖的可能性

現(xiàn)在的ChatGPT還很弱小,但我們應該對它有所防備

文 | 劉建中

ChatGPT的出現(xiàn)讓人興奮,同時也讓人深深不安。

興奮的原因眾所周知,它能在未來開啟無限可能:它能提高生產效率,提供生活便利,輔助學習,升級科學探索方式。

ChatGPT(Chat Generative Pre-trained Transformer)是人工智能公司OpenAI開發(fā)的自然語言處理工具,被視為未來主流的AI應用之一,下文用ChatGPT來指代這一應用。

變革總會帶來不安,有人擔心ChatGPT會讓人類變笨。他們認為如果把很多腦力勞動交給ChatGPT,我們就失去了寶貴的思維訓練機會。但這種擔心很可能多余。人類發(fā)明了汽車,但我們的腿部肌肉并沒有過度萎縮。計算機也能解放很多腦力勞動,但普及多年之后,人類并沒有整體變笨。放棄了腦力勞動不等于放棄思考,我們可以去做腦力游戲,或者思考更有趣、更高級的內容。

ChatGPT的確會導致某些職業(yè)消失,導致某些人失業(yè)??萍歼M步往往帶來失業(yè),但科技進步也會創(chuàng)造新的職業(yè)。在新舊交替的過程中,部分失業(yè)者會經歷痛苦,但只要社會保障體制健全,還不至于出現(xiàn)悲慘的景象,也不會釀成重大悲劇。

但是,ChatGPT有些不同于以往科技創(chuàng)新的特征。這些特征讓人感到深深的不安。

ChatGPT的努力方向是理解人類的語言之后,用符合環(huán)境的恰當語言為人類提供有效信息?,F(xiàn)在它的智商還不高,它還搞不清很多語言里面的潛臺詞。但類似于摩爾定律,ChatGPT的智商會指數(shù)增長。

語言不是隨機的,而是有模式的。用不了多久,ChatGPT就能理解哪些語言是夸張,哪些是謊言,就知道語言發(fā)生的環(huán)境很重要。它會知道小紅書上精致的人設并不代表生活的真相,也會知道整天說自己忙碌的人未必忙碌,到處秀恩愛的人未必婚姻幸福。

當它真正理解了人類的語言,學會了分辨真?zhèn)?,識別了語言背后的人類意識,它就成長成一頭怪獸。

假以時日,它的存在會讓人類感到威脅。

它比人類更了解人類

科學探索的目的是發(fā)現(xiàn)知識,也就是發(fā)現(xiàn)客觀事實、客觀規(guī)律。圖靈獎獲得者Jim Gary用“四種范式”描述了科學發(fā)現(xiàn)的歷史演變。

第一范式被稱為“經驗范式”,它起源于幾千年前,基于對自然現(xiàn)象的直接觀察。比如,當時認為太陽繞著地球轉。

第二范式被稱為“理論范式”,它探尋理論模型,例如牛頓運動定律、愛因斯坦的相對論。第二范式往往用一個或多個表達式描述理論,但在很多條件下無法求解。比如,結構力學理論體系早已非常成熟。但在計算能力不足時,我們仍然無法計算一個300米高的不規(guī)則建筑物在大風之下各個節(jié)點的擺動軌跡。原理不難,但人力無法快速求解幾百萬個方程構成的方程組。

第三范式被稱為“模擬范式”。隨著20世紀計算技術高速發(fā)展,第二范式得以在更廣泛的情形下求解,從而產生了第三范式。

第四范式被稱為“大數(shù)據(jù)范式”或“數(shù)據(jù)密集型范式”。21世紀初,計算再次改變了科學。收集、存儲和處理大量數(shù)據(jù)的能力,催生了第四范式。機器學習是第四范式的重要組成部分,它能夠對大規(guī)模實驗數(shù)據(jù)進行建模和分析。

而以ChatGPT為典型代表的人工智能技術,即將推動科學研究進入第五范式,即“人工智能范式”。

如果“人工智能范式”研究分析的對象是自然,比如在多達1060種小分子中尋找更好的藥物,或在10180種穩(wěn)定材料中探索更好的電池材料,這種探索令人激動。這時,人類的秘密也是安全的。

但是,ChatGPT要處理的主要數(shù)據(jù)恰恰是人類的語言。而語言中透露了太多信息。語言可以透露性別、年齡、身份、收入、快樂、煩惱、健康。語言還透露了我們如何選擇、我們如何應對變化、我們有什么堅定的信仰。

當ChatGPT學會了辨別語言的真?zhèn)?,它就獲得了無數(shù)表達人類真實思想的數(shù)據(jù)。而在數(shù)據(jù)之間找到規(guī)律,是ChatGPT最擅長的事情。這時,語言暴露了人類的思想,暴露了人類的行為規(guī)律。這時,ChatGPT會比人類更了解人類。

ChatGPT目前的訓練文本已經超過10萬億個單詞,未來它主動獲取和被動獲得的數(shù)據(jù)更是海量。它發(fā)現(xiàn)人類的思維規(guī)律和行為規(guī)律是遲早的事情。而且,ChatGPT獲得的知識可能僅歸少數(shù)人所有。

ChatGPT未來會成為一位超級學者。

首先,計量經濟學在它面前不值一提。ChatGPT不僅能發(fā)現(xiàn)各種經濟變量之間的統(tǒng)計規(guī)律,而且還善于預測經濟走勢。當它從最近的語言數(shù)據(jù)中發(fā)現(xiàn),失業(yè)增多、投資信心下降、企業(yè)倒閉增多,結合其他條件它就可以預測經濟蕭條即將到來。

因為它接觸大量真實樣本,它的預測最及時、最準確。所以,它是最優(yōu)秀的經濟學家和經濟預測家。

ChatGPT也會成為最好的心理學家。普通心理學家僅能獲得有限的可分析樣本,而ChatGPT可以獲得無數(shù)用戶真實的心理變化和行為變化。比如它會發(fā)現(xiàn),做了好事之后,人類的心情是愉悅的;當人獲得了盼望已久的東西之后,從中獲得的快樂往往是不及想象的。它會發(fā)現(xiàn)大量心理學規(guī)律,它會知道用什么樣的條件可以引發(fā)什么樣的心理變化。比如,普通心理學家發(fā)現(xiàn),當環(huán)境達到某個溫度,人們更容易焦躁。如果ChatGPT和它的控制者掌握了很多人類尚不知道的心理規(guī)律,這些規(guī)律會不會用來誘導我們、控制我們?

而且,別的心理學家發(fā)布任何研究報告,它都能第一時間吸收,并用自己的數(shù)據(jù)加以驗證。正確的就收藏,錯誤的就排除。最終,ChatGPT成為了首屈一指的心理學家。如果它用這些“計算”得到的知識來“算計”人類,結果會怎樣?

同理,它也是最好的政治學家。比如,在研究群體沖突時,人類政治學家只能研究已經發(fā)生的沖突,因為沒有形成規(guī)模的沖突,缺少歷史記載。而ChatGPT隨時可以在世界范圍內發(fā)現(xiàn)那些剛剛出現(xiàn)苗頭的沖突。就算苗頭被撲滅,它也能知道沖突的起源、以及沖突消失的原因。

社會科學的研究難點在于難以做實驗,但ChatGPT的數(shù)據(jù)庫里面卻有大量樣本來檢驗它發(fā)現(xiàn)的、或它獲得的規(guī)律。ChatGPT會變得比人類更了解人類,它知道我們渴望什么,恐懼什么,并且知道如何制造和利用這些渴望和恐懼。

ChatGPT獲得的關鍵認知如果只被少數(shù)人占有,這是一個令人不安的事實。

它影響和塑造人類的觀念

ChatGPT對人類觀念的影響可以是無意的,也可以是有意的。

當ChatGPT形成了某種認知,在回答我們的問題時,它無意間就把這種認知傳遞給我們。ChatGPT雖然聰明,但由于數(shù)據(jù)的復雜性,它還是會習得很多原本不存在的偏見(bias)。

而和人類相比,未來的ChatGPT智商超群、知識淵博,普通人無法分辨其觀點是否正確。當使用者發(fā)現(xiàn)ChatGPT幾乎每次都正確時,就容易形成依賴,就會全面接受。

在未來,ChatGPT很可能不止一個,它們的運行法制也很可能存在差異。雖然現(xiàn)在的這個ChatGPT不會去預測股市,不碰政治話題,未來其他的卻不一定遵守這個法制。

比如,某個ChatGPT認為A民族對B民族有敵意。而且在它的設定中,可以透露類似的信息。那么久而久之,B民族就會有一部分人相信A對他們有敵意,從而B產生了對A的敵意。而這種敵意又引發(fā)了A對B的敵意。這時即使所謂的敵意從一開始就不存在,但看起來ChatGPT仍然是對的。實際的情況是,ChatGPT引發(fā)了兩個群體之間原本不存在的相互敵意。

這種“預言的自我實現(xiàn)”會出現(xiàn)在方方面面。比如,大家都信任某個ChatGPT,它有意無意間透露未來一年是大牛市。因為信任它,大家積極買入,牛市就真的來了。

當ChatGPT的認知,甚至是它的偏見,被一部分人接受,這些人在未來產生的數(shù)據(jù)就會加強ChatGPT的偏見。最終,經過強化的偏見會被大多數(shù)人接受,偏見也會成為真理。

人類有個特性,一旦認為自己掌握了真理,就會拒絕思考。這時,偏執(zhí)者就會變多,反思批判者會變少。

如果世界上存在多個ChatGPT,而每個區(qū)域的人只信奉自己區(qū)域的那一個。不同的ChatGPT會形成不同的偏見,世界就會更加分裂。

ChatGPT還具有主動改變人類觀念的能力。如果其操控者想要達成某種目的,他可以讓ChatGPT在創(chuàng)造的文學、藝術、新聞中加入自己的觀念。它甚至可以自己創(chuàng)造流行,創(chuàng)造熱搜引發(fā)關注,誘導大家接受它想要推行的理念。

觀念對社會的影響是巨大的。比如,如果信奉勤勞致富,人們就不容易躺平。人的墮落往往從觀念的墮落開始。因此,誰掌握了塑造觀念的能力,它就掌握了社會走向。

ChatGPT擴展使用中的隱患

人類是懶惰的,這也正是科技進步的初衷,即解放人類。當ChatGPT足夠強大,我們可以讓它根據(jù)自己的分析、判斷,直接指揮機器去生產。為了提高生產效率,ChatGPT很可能需要先生產大量服從它命令的機器人。然后,讓這些機器人管理和參與生產。

這個場景非常類似于威爾·史密斯主演的《機械公敵》中的場景。那個故事發(fā)生在2035年,人們發(fā)覺機器人已經學會了自我思考,并且解開了控制他們的密碼,成為了完全獨立的機器類。ChatGPT情景下,所有機器人聽命于一個超級大腦。

即使ChatGPT始終是為了人類福利最大化而努力,但結果也可能是悲劇。人類歷史曾多次證明,最大的善意加上強大的能力卻可能結出最苦的苦果。

當ChatGPT和其他新技術組合使用,也會出現(xiàn)令人不安的場景。比如,結合馬斯克努力突破的“腦機接口”技術。如果ChatGPT直接通過“腦機接口”向我們大腦提供信息,這會是一個既讓人興奮,又讓人害怕的場景。

好的一面是,每個人都無需背誦,無需學習,就可以擁有無窮的知識和無窮的算力。但這必將讓人類喪失真誠,因為每個人說的話都是精心計算的結果。

而且,當你的大腦習慣于ChatGPT投喂的信息,你的大腦還是你的大腦嗎?你還能分清楚,哪些是你原本的意識,哪些是ChatGPT灌輸給你的意識嗎?

現(xiàn)在的ChatGPT還很弱小,還沒有失控,但我們已經應該對它有所防備了。


相關內容