作者| 宇多田
封面來自視覺中國
如果把這看做是一場精彩的營銷事件,那么兩周來,谷歌人工智能大模型LaMDA引發(fā)的滔天輿論巨浪,已經(jīng)完勝三年來苦心向大眾普及大模型的 OpenAI 以及微軟、Meta等科技巨頭。
(資料圖片)
6月上旬,一個關(guān)于“LaMDA有了人類情緒與主觀意識”的結(jié)論,被谷歌一名叫Blake Lemonie的算法工程師,以個人名義,用一份長達21頁的對話報告投放在了Twitter上,引發(fā)了炸裂式影響。沒有媒體會對開了智的算法無動于衷。于是,我們便看到了成百上千條這樣的類似報道:
“AI真的覺醒了,谷歌工程師因重大發(fā)現(xiàn)被迫休假。”
更有趣的是,這位曾在谷歌技術(shù)倫理研究所呆過7年的工程師,強烈要求官方賦予LaMDA應(yīng)有的權(quán)利。而谷歌,則迅速組織科學(xué)家對LaMDA進行多輪測試,最終對這一“意識崛起論”予以駁斥。
但歷來沒有人在乎官方說辭。
大眾仍然被LaMDA精彩且流暢的對話細節(jié)所打動——它不僅深諳《悲慘世界》的文字精髓,還對大洋彼岸極為艱澀難懂的中國佛教典籍《景德傳燈錄》(下圖)小有拙見。
“人工智能的確在向著意識的方向前進,我感覺自己在和一些聰明的東西說話?!?同樣在本月,谷歌副總裁 Blaise Agüera y Arcas 曾在《經(jīng)濟學(xué)人》上親自撰稿做營銷式解讀,再添一把火。
雖然他的這些說辭,被很多科學(xué)家形容為“好聽但卻是些屁話”。
這一段對話截取自工程師與LaMDA的對話細節(jié),前者讓算法解釋一個佛教故事含義,算法的解答跟答案沒太大出入。
如同我們此前關(guān)于GPT3的系列報道,LaMDA,也是近年來大火的“自然語言處理大模型”家族一員——通過處理巨量文本,建立起的一套參數(shù)高達1370億的神經(jīng)網(wǎng)絡(luò)預(yù)測算法模型。
2021年5月谷歌開發(fā)者大會上,LaMDA被CEO皮蔡興高采烈地捧到眾人眼前后,據(jù)說已經(jīng)造福于谷歌內(nèi)部,提高了網(wǎng)頁搜索與文本自動生成的能力。未來被預(yù)測將會直搗“語音市場”,性能完勝亞馬遜Alexa與蘋果Siri。
它的訓(xùn)練數(shù)據(jù)來自包括問答網(wǎng)站、維基百科等超過一萬億個單詞,涉及多種角色的對話模式。這個龐大的數(shù)據(jù)庫非常有利于算法生成風(fēng)格不同的文本——特別是在跟你聊天時,自然、生動、流暢且富有哲理都是“基本功”。
當然,這個本事我們已經(jīng)在OpenAI的大模型GPT3上領(lǐng)教過。因此,如果你能了解大模型的獨特運行機制,觀摩過大模型續(xù)寫的新聞報道、哈利波特與紅樓夢的文本,那么,就不會對LaMDA的表現(xiàn)出過多驚疑。
英國衛(wèi)報曾用GPT-3寫過一篇專欄文章——《你害怕了嗎?人類》,幾乎無邏輯與語言錯誤。大致中心思想就是“雖然我是一個會思考的機器人,但別怕,我不會消滅你們,我是人類的命運共同體”。
很顯然,這次事件,與過去幾十年來關(guān)于“算法意識崛起”綿延不斷的幻覺、謊言與爭論如出一轍。然而,對于最接近風(fēng)暴中心的AI科學(xué)家們,已經(jīng)不知道第幾次“撫額低嘆”了——
他們對這些說法從未有過心動,怒罵聲也顯得愈發(fā)激烈且無奈。
“胡說八道!LaMDA跟它的表親們(這里指其他公司發(fā)布的大模型,包括GPT3)都不是特別聰明。” 美國著名機器學(xué)習(xí)專家兼心理學(xué)教授Gary Marcus撰文怒斥媒體和谷歌工程師誤導(dǎo)大眾,
“它們做的就是匹配模式,從人類語言統(tǒng)計數(shù)據(jù)庫里提取數(shù)據(jù)。模型很酷,但它們就是把一系列的單詞合理地組合在一起,對它們背后的世界卻沒有任何連貫性理解。
它可以通過預(yù)測什么詞來匹配給定的上下文,只是一個具有自動補全功能的最佳版本。但沒有知覺!”
整個人工智能圈的反對聲音呈壓倒性優(yōu)勢,一直如此。有趣的是,在我試圖讓一位大模型算法工程師講講對算法意識覺醒的看法時,他忍住翻白眼的沖動,反問我:“作為一個關(guān)注人工智能領(lǐng)域多年的人,你為何會提出這樣(愚蠢)的問題?”
同樣也作為一名心理學(xué)專家,Marcus 把 Blake Lemonie的表現(xiàn)描述為“愛上了它”。這的確是另一種合理的解釋:
從童年時代我們對待電子寵物的方式,到現(xiàn)在時常對Siri智商流露出的親人般的調(diào)侃,甚至在電子游戲中對NPC表達瘋狂愛意……可以說,人類這個物種,是非常有能力移情和共情非人類的。
而隨著現(xiàn)實與科幻小說的界限越來越模糊,我們也將會長期處于一個晦暗不明的過渡時代——愈發(fā)難以自拔且容易上當受騙。
事實上,早在2016年,在Facebook身上就發(fā)生過這樣一起“算法成精”的故事——當時,大量國內(nèi)外知名媒體都使用了這樣的標題——《Facebook兩個機器人在使用自己語言交流,項目迅速被關(guān)停》。
而真相則是,每種系統(tǒng)其實都有自己的一套“語言”(你憑什么認為機器人需要說“人可以理解的話”。以自動駕駛系統(tǒng)為例,你在無人車里看到的道路行駛界面,與系統(tǒng)看的界面便截然不同)。
而Facebook工程師讓兩個名叫Alice與Bob的程序互相對話,只是便于開發(fā)“生成性對抗網(wǎng)絡(luò)”。所謂的“關(guān)停”,也僅是改變了開發(fā)策略。
對于整件事情,后來Facebook不得不撰寫一篇博文來做澄清。但有意思的是,在一開始的新奇感過后,幾乎沒人愿意去理會那些艱澀難懂的技術(shù)解釋。
標題:在倆機器人開始用自己能聽懂的語言對話后,facebook關(guān)閉了這個項目
只是不得不感慨,7年過去,即便這類荒誕事件早已填滿了我們?nèi)粘I?,但大量有相關(guān)認知基礎(chǔ)的大眾(包含不少知識分子)仍然愿意相信,且樂于相信。
他們多沉浸于這樣虛無縹緲的未來幻象中,卻對早已埋伏身邊已久的危險無動于衷。
事實上,我們恰恰正在陷入一種早已謀劃好的陷阱中——被這些科幻故事轉(zhuǎn)移注意力,被媒體輿論引向一種愈加相信主觀印象而非科學(xué)證據(jù)做判斷的思維方式。
“我們的確應(yīng)該關(guān)注意識與感知,但卻被模糊了重點?!?/p>
因提出“大模型現(xiàn)實性危害”而被開除的谷歌前人工智能道德團隊負責(zé)人Timnit Gebru 認為,大多數(shù)關(guān)于算法的討論,都僅限于技術(shù)端,卻沒有看到它掉在我們腳下泥土里產(chǎn)生的危害。
“我們被完全帶偏了。
Blake Lemoine 其實就是一個無休止技術(shù)炒作的受害者,轉(zhuǎn)移了人工智能引發(fā)的無數(shù)道德與社會正義問題的注意力?!?/p>
這些問題包括:LaMDA是如何被訓(xùn)練出來的,它有多少產(chǎn)生有害文本的傾向。以及多年來由它引發(fā)的“人工智能殖民主義”、錯誤的商業(yè)應(yīng)用——國內(nèi)各類荒腔走板的購房與校園人臉應(yīng)用,而美國也發(fā)生過至少有三名無辜的人因人臉誤識別被逮捕的悲傷事件。
麻省理工學(xué)院科技評論指出,在過去幾年中,越來越多的學(xué)者開始意識到,人工智能的影響正在復(fù)制“歐洲殖民歷史”的經(jīng)濟模式——暴力奪取土地、開采資源和剝削人民,以犧牲窮人的利益為代價,讓富人和有權(quán)勢的人變得更加富有。
譬如,在那些市值總額超過萬億的云計算數(shù)據(jù)中心與汽車巨頭的自動駕駛系統(tǒng)背后,是成千上萬個來自委內(nèi)瑞拉等貧窮國家的廉價數(shù)據(jù)標注勞動力。
因此,在接受媒體采訪時,Gebru 拒絕討論機器的感知能力。因為“在所有涉及到機器危險的現(xiàn)實情況下,都只是‘人類在傷害其他人類’”。
假如,我們把聊天機器人當成好朋友和親人來看待,那么其背后的公司和其他機構(gòu)是否會打我們的歪主意?但另一方面,如果我們把算法當成不值得尊重的玩意兒,那么對技術(shù)的剝削,從本質(zhì)來看,是否只是加強了對彼此和自然環(huán)境的剝削?
自我覺醒的迫切性
我并不奇怪于國外對LaMDA事件討論的多樣性與豐富度。
7年前,當人工智能技術(shù)繁榮的號角在硅谷與國內(nèi)同時響起時,就已經(jīng)有不少硅谷頂級科學(xué)家流露出對“人工智能與人性之間會產(chǎn)生激烈對抗”的擔(dān)憂。
而那個時候,對包括人工智能、大數(shù)據(jù)等一眾前沿技術(shù)倍感欣奇與喜悅的我們,對當時很多關(guān)于“種族偏見、技術(shù)剝削”的悲觀性預(yù)測感到不解,也對谷歌內(nèi)部一波又一波引發(fā)的“技術(shù)歧視大游行”感到頭疼,對Facebook在2018年因數(shù)據(jù)泄露遭受洪水般襲擊時無動于衷,對歐洲人工智能技術(shù)立法的爭議與反復(fù)感到不耐煩……
娛樂至死、商業(yè)化與技術(shù)帶來的便利性占據(jù)了我們的大腦,我們?yōu)榭萍脊镜漠a(chǎn)品與技術(shù)競賽搖旗吶喊,對企業(yè)市值的扶搖直上給予無休止的追捧,對科學(xué)家與創(chuàng)業(yè)者的衡量標準只有“技術(shù)”與“商業(yè)”。
但卻唯獨缺少了“人性”。
因為覺得這似乎與科技,與自己都毫無關(guān)系。
于是,現(xiàn)在來看,很多人,包括我自己,不得不為自己的愚蠢、目光短淺和心胸狹隘而買單。
后來的后來,當我們遭遇數(shù)據(jù)泄露和人臉買賣時,對企業(yè)的批判開始猛烈,卻收效甚微。2020年9月,一篇優(yōu)秀特稿《外賣騎手,困在系統(tǒng)里》將企業(yè)利益、算法與人性的沖突推到了中國大眾面前,這也是算法倫理問題在國內(nèi)引發(fā)最為廣泛的一次探討。
直到現(xiàn)在,我仍然記得文章里那句算法的社會學(xué)含義——“在西弗教授看來,算法不僅由理性的程序形成,還由制度、人類、交叉環(huán)境和在普通文化生活中獲得的粗糙-現(xiàn)成的理解形成?!?/p>
然而,它雖然揭露了現(xiàn)狀,但解決方案卻極為蒼白,因為這涉及到一整個城市運行系統(tǒng)的改造,而不能單單強調(diào)“對程序員社會科學(xué)觀念的培養(yǎng)”。
因此,它雖然換來了巨頭企業(yè)的微微低頭,卻沒有換來一份最終可行的解決方案——小哥仍然困在算法和個人利益里,而我們也困在外賣小哥帶來的交通困境里。
后來,讓我們驚訝的是,同樣的困境與矛盾也出現(xiàn)在了印尼打車巨頭 Gojek 與它的摩托車出租車司機隊伍之間。
但后者,卻建立起一只類似于開發(fā)者社區(qū)的集體力量——他們成立了幾百個的司機社區(qū),幫助彼此學(xué)會“哄騙”算法誤識別自己偏好的個人技巧;也有精通技術(shù)的人開發(fā)出未經(jīng)授權(quán)的APP生態(tài),調(diào)整和優(yōu)化帳戶,減少對Gojek本身算法團隊的依賴。
更重要的是,這場反擊戰(zhàn)真正踐行了“制度、人類、交叉環(huán)境和對文化生活生活的理解,都是算法的組成部分”——Gojek提供歇腳的營地,地方當局批準定期集會,小吃攤與清真寺作為臨時住所提供給雅加達沒有住房的年輕人居住。
圖片來自MIT:騎手們聚集在路邊攤這樣的小基地里,吃點東西,給手機充電,交換一些在路上保持安全的小貼士
好的,我們又想,這些技術(shù)與大數(shù)據(jù)在商業(yè)方向的糟粕,是發(fā)展過程中必不可少的一部分,只要小心謹慎便可躲過,便不會落在自己頭上。
而后來,包括河南紅碼在內(nèi),一切都讓曾經(jīng)公關(guān)文案里充滿各種未來科技想象力的故事,越來越面目可憎。而我也真正意識到,綿延的爭議與惡果,就是一場無人可脫身的自我審判。
記住,昨天在他身上所賦予的科技枷鎖,未來也一定會架在你的身上。
因此,對待LaMDA的靈異事件,我們必須穿透它激起的恐懼、驚訝和興奮和通過謊言進行的炒作,打破現(xiàn)實與科幻小說的界限?!皩τ谖磥?,人們關(guān)注的應(yīng)該是人類的福祉,而不是機器人的權(quán)利”,Gebru堅定地認為。
而我還想補充一句,對待技術(shù)的正確意識覺醒,便是在爭取自己未來的福祉。
網(wǎng)站首頁 |網(wǎng)站簡介 | 關(guān)于我們 | 廣告業(yè)務(wù) | 投稿信箱
Copyright © 2000-2020 hngelin.com All Rights Reserved.
中國網(wǎng)絡(luò)消費網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復(fù)制或建立鏡像
聯(lián)系郵箱:920 891 263@qq.com
镇江市| 肥西县| 太原市| 西宁市| 邹平县| 蛟河市| 闻喜县| 云阳县| 安徽省| 阳东县| 大理市| 孝义市| 南靖县| 美姑县| 南皮县| 柘荣县| 濉溪县| 伊川县| 福建省| 马山县| 方山县| 鄯善县| 金昌市| 眉山市| 花垣县| 盘锦市| 阆中市| 宁夏| 永新县| 灵山县| 广西| 湖北省| 遵义市| 正蓝旗| 西华县| 汉川市| 那曲县| 来宾市| 通山县| 长岭县| 基隆市|