自去年ChatGPT問世以來,AI技術的進展已經(jīng)可以用“日新月異”來形容。技術的發(fā)展在提升社會生產(chǎn)效率的同時,也帶來了巨大的不確定性和潛在的風險因素。
批評者對快速發(fā)展的AI技術的擔憂包括侵犯隱私、偏見、欺詐以及散播謠言和虛假信息等。而各國的監(jiān)管機構也正在以空前的速度跟上技術進步的腳步。白宮官員近日向美國科技公司發(fā)出邀請,計劃在5月4日與行業(yè)企業(yè)領導者共同探討針對人工智能的監(jiān)管問題。
上海交通大學行業(yè)研究院“人工智能+”行業(yè)團隊負責人、上海交通大學安泰經(jīng)濟與管理學院教授史占中近日在一場媒體沙龍上談及ChatGPT時對第一財經(jīng)記者表示:“ChatGPT就如同阿拉丁神燈一樣打開了一個寶藏,不斷給我們驚喜,這些產(chǎn)品在文學創(chuàng)作、翻譯、文本分析、應用編程以及語言文字編輯溝通等方面已經(jīng)形成了強大的原創(chuàng)力。同時,這也給很多行業(yè)的工作帶來挑戰(zhàn)。”
AI“讀心”準確率超80%
近日,美國得克薩斯州奧斯汀分校的團隊基于人工智能技術開發(fā)出一種解碼器,可將大腦活動轉化為連續(xù)的文本流,AI首次可以通過非侵入式的方法學會“讀心術”。
根據(jù)這項發(fā)表在《自然神經(jīng)科學》(Nature Neuroscience)雜志上的實驗結果,GPT人工智能大模型感知語音的準確率可高達82%,令人驚嘆。
不過研究人員強調,“AI讀心”也要尊重心理隱私,AI的訓練和應用解碼器都需要著手解決有關該技術可能被濫用的問題,以確保人們只在他們想要的時候使用這類技術,并對他們有所幫助,而不是起到反向作用。
隨著人工智能技術突飛猛進的發(fā)展,技術的風險以及如何對此加以監(jiān)管,成為越來越受關注的話題。
就連一生從事神經(jīng)網(wǎng)絡學術研究的圖靈獎得主、有“AI教父”之稱的計算機科學家杰弗里?辛頓(Geoffrey Hinton)近日也對人工智能的發(fā)展產(chǎn)生了新的思考。為了警告AI技術潛在的風險而又免于利益沖突,辛頓本周公開宣布,他已離開工作了十余年的谷歌,轉而成為AI技術的“吹哨人”。
辛頓表示:“我現(xiàn)在傾向于認為,我們正在創(chuàng)造的數(shù)字智能與生物智能非常不同。”
類似于ChatGPT這樣的聊天機器人正在對各行各業(yè)形成顛覆性的效應。這種聊天機器人基于AI大模型,能夠迅速地學習知識。事實上,在某些方面,它們的能力已經(jīng)超越了人類。
“如果我有1000個這樣的數(shù)字代理(AI agent),那么每當一個代理學習如何做一件事情的時候,其他所有的代理也都會立即知道,生物智能是不具備這樣的能力的?!毙令D解釋道,“因此,相同數(shù)字代理的集合可以獲得比任何單個生物智能都多得多的知識,這就是為什么GPT-4比任何人都知道的多?!?/p>
教育、媒體行業(yè)已受到顯著沖擊
OpenAI公司3月曾發(fā)布一篇論文,預言美國80%的工作都會受到AI的影響。根據(jù)高盛的預測,生成式AI會導致勞動力市場受到重大沖擊,使全球3億個工作崗位實現(xiàn)自動化,并且美國7%的工作崗位將被AI取代。
AI大模型的能力已經(jīng)開始改變一些行業(yè),并對企業(yè)業(yè)務產(chǎn)生了實質性的影響,尤其是在教育行業(yè),AI的影響體現(xiàn)在企業(yè)的財報中。
5月2日,總部位于美國加州的在線教育公司齊格(Chegg)股價暴跌50%。該公司CEO丹?羅森斯維格(Dan Rosensweig)在與分析師的財報電話會議上表示:“我們現(xiàn)在開始相信ChatGPT正在對我們的新客戶增長率產(chǎn)生影響?!?/p>
這一警告也令其他公司感到不安,英國教育上市公司培生當天股價下跌15%,語言學習平臺多鄰國(Duolingo)股價下跌10%。
為了應對ChatGPT帶來的挑戰(zhàn),上個月,Chegg基于AI大模型推出了一個叫做CheggMate的應用程序,學生能夠通過與AI交談來訪問量身定制的內容。
由于擔心“AI會讓學生作弊”,全球的一些高校已經(jīng)禁止了ChatGPT在校園里的使用。而一些企業(yè)出于對安全隱私的保護,也禁止員工使用ChatGPT等生成式AI工具。
最近幾個月,包括高盛在內的大公司都已禁止或限制使用生成人工智能AI平臺。最新加入的是三星電子。三星電子周二表示,在一份內部文件中指出生成式AI技術的“濫用案例”后,它已禁止部分員工使用ChatGPT等AI工具。
三星稱正在努力尋求確保員工在安全環(huán)境中使用生成式人工智能服務的方法,但在這些措施準備就緒之前,暫時禁止在公司擁有的計算機上使用生成式人工智能服務。
生成式AI的出現(xiàn)已經(jīng)讓網(wǎng)絡充斥著真假難辨的內容。辛頓日前也警告稱,虛假照片、視頻和文字已經(jīng)讓普通人“無法再辨別真假”。對此,他提出了擔憂。
反虛假信息機構NewsGuard近日的一項調查,更是有了驚人的發(fā)現(xiàn)。統(tǒng)計顯示,該機構監(jiān)測到的偽裝成“記者”的聊天機器人竟然運行著近50個人工智能生成的“內容農場”。
研究人員發(fā)現(xiàn),這些網(wǎng)站大量生產(chǎn)與政治、健康、環(huán)境、金融和技術相關的內容,生成速度驚人,并充斥著商業(yè)廣告。
Newsguard的研究人員表示:“有些’記者’每天發(fā)表數(shù)百篇文章,一些內容充斥著虛假敘述,并且?guī)缀跛械膬热荻家苑ξ兜恼Z言和重復的短語為特征,這是人工智能的標志?!?/span>
監(jiān)管機構試圖阻止“危險游戲”
網(wǎng)絡空間的混亂引發(fā)了業(yè)內對人工智能風險的激辯,批評人士認為,大型科技公司爭相開展基于生成式人工智能(AIGC)的產(chǎn)品開發(fā)活動,“這是在與危險賽跑”。
特斯拉CEO馬斯克多次重申,應該對人工智能保持謹慎。他呼吁政府進行監(jiān)管,因為人工智能可能對公眾構成威脅。
谷歌CEO皮查伊也表示,所有公司的產(chǎn)品都將受到人工智能快速發(fā)展的影響,社會需要為已經(jīng)推出的技術做好準備。但他表示:“我們的適應速度與技術發(fā)展的速度相比,似乎還不太匹配?!?/p>
各國監(jiān)管機構也早已坐不住了。白宮官員近日向美國科技公司發(fā)出邀請,希望與行業(yè)企業(yè)領導者共同探討針對人工智能的監(jiān)管問題。參加的科技公司包括谷歌、微軟和OpenAI等公司高管。美國總統(tǒng)拜登稱,希望科技公司在向公眾提供產(chǎn)品之前必須確保其產(chǎn)品安全。
歐洲消費者組織(BEUC)也呼吁歐盟消費者保護機構關注人工智能對消費者的潛在危害。上個月,歐洲數(shù)據(jù)保護委員會已經(jīng)成立了一個專門針對ChatGPT的工作組,并朝著制定人工智能隱私規(guī)則的共同政策邁出的重要一步。
歐盟立法者還在討論如何引入歐盟人工智能法案,并且生成式AI(AIGC)成為最受關注的內容之一。歐盟委員會將于5月11日對相關協(xié)議進行投票,如果通過,將進入下一階段的三方談判,屆時歐盟成員國將與歐盟委員會以及歐洲議會就談判內容進行辯論。
斯坦福大學網(wǎng)絡政策中心國際政策主任、歐盟委員會執(zhí)行副主席維斯塔格的特別顧問瑪麗耶杰?沙克(Marietje Schaake)在5月2日公開發(fā)表的一篇專欄文章中指出:“突然間,每個人都想規(guī)范人工智能,包括撰寫公開信并討論立法提案。但不幸的是,AI的特性與所提供的解決方案之間的不匹配,暴露了AI產(chǎn)品的開發(fā)者與政策制定者及立法者之間的鴻溝?!?/p>
沙克寫道,一些人工智能行業(yè)領袖希望在大約6個月的時間內,建立對生成式AI的監(jiān)管法規(guī),但事實上,通過并實施人工智能法案的過程通常會長達數(shù)年時間。
她認為,成功的人工智能監(jiān)管必須解決三個領域的問題。首先是人工智能開發(fā)者與社會其他個體之間的權力需要重新平衡。“這種不對稱性已經(jīng)非常嚴重,只有最大的科技公司才能開發(fā)人工智能?!?沙克指出,“這意味著只有科技巨頭可以訪問數(shù)據(jù)集,并有能力訓練和處理它們。”
她補充道,即使是像斯坦福大學這樣培養(yǎng)頂級人工智能工程師的大學,也不具備硅谷公司的數(shù)據(jù)或計算能力?!?span style="font-weight: 700;">因此人工智能內部運作的秘密仍然鎖在企業(yè)系統(tǒng)中?!?沙克表示,“這使得這些企業(yè)具有巨大的社會影響力?!?/p>
這就引申出第二個問題,也就是獲取信息必須有公共利益保障措施作為前提,讓立法者能夠看到企業(yè)內部人工智能是如何運作的。“由于公眾對影響社會的應用程序的管理和算法缺乏了解,這反過來又阻礙了有針對性的公共政策和必要的問責機制的建立?!?沙克寫道。
她指出的第三點是“不能忽視人工智能不斷變化的本質”,監(jiān)管在嚴格執(zhí)行的同時也要靈活變通。
“目前生成式AI表現(xiàn)了三個方面的特點,超強的學習能力、超廣的連接能力、超能的邏輯推演能力,尤其是邏輯推理能力令人震驚?!笔氛贾斜硎荆拔磥硭€可能會突變出超凡的自我意識,這一點我們較為關注。”
史占中認為,從國家的層面來講,要加快AI相關領域的立法,特別在金融、安全、健康等領域嚴格監(jiān)管,厘清AI的設計者、使用者、內容生成者的權責關系,完善AI決策的問責機制,保護大眾合法權益;而從社會層面來講,應加強AI技術的監(jiān)管,推進AI研發(fā)者遵守倫理準則與規(guī)范AI的發(fā)展。
“我們希望人工智能的能力成為改善人類生活、促進人類文明發(fā)展的’助推器’,以及人類走向星際文明的’擺渡人’?!笔氛贾斜硎?。