一條不完美但更接近真相的路
周逵的書桌上立著三塊顯示屏。2023年春節(jié)起,最大的那塊便被ChatGPT“霸占”了。周逵是中國傳媒大學新聞傳播學部副教授。作為清華大學和麻省理工學院聯(lián)合培養(yǎng)的博士,他熱衷于體驗前沿技術。整個春節(jié)假期,他幾乎“從早到晚”都在和ChatGPT聊天,摸索著與這個“智慧生物”的交流技巧(注:使用不同的文本提示會決定提問者得到的結果是寶藏還是垃圾),并試探著后者的創(chuàng)造力邊界。
周逵的同事黃典林教授是斯圖亞特·霍爾所著《管控危機》一書的中文譯者。周逵曾讓ChatGPT以兩位教授為關鍵詞寫了一段英文說唱歌詞。幾秒鐘后,霍爾的主要學術成就被一一寫成了押韻的梗,單押雙押俱全。
“好玩”之余,更多是“震動”。2022年起,生成式AI領域的技術突破給他帶來的心理沖擊就一浪疊一浪。
周逵曾在圖像生成器“DALL·E”(注:OpenAI提供的另一項在線服務,以皮克斯的WALL-E和西班牙超現(xiàn)實主義畫家薩爾瓦多·達利的名字命名,可根據(jù)文本表達創(chuàng)建圖像)中上傳了一張水彩筆繪制的小人頭像。頭像寥寥幾筆,是三歲半女兒的涂鴉作品。周逵將關鍵詞設置為“in the battlefield of second World War(二戰(zhàn)的戰(zhàn)場上)”,要求DALL·E在原畫的基礎上擴展繪畫。DALL·E精準延續(xù)了女兒的繪畫風格,其中一幅作品的創(chuàng)意更令他心頭一顫。
那幅AI作品中,小人好像舉著一張牛皮紙板,紙板上寫著三個英文字母——“RUN(跑)”?!罢f來有些可笑,我好像看到一個在戰(zhàn)場上死去的人在發(fā)出數(shù)字警示:如果有一天你到了二戰(zhàn)戰(zhàn)場,唯一要做的就是趕緊跑?!敝苠芋@訝于機器短暫流露出的“反戰(zhàn)人格”。
“有可能是機器在學習圖片庫的過程中見過類似的圖片,在圖像生成時就把這個元素組合進來了?!彼晤HA向《南方人物周刊》解釋道。宋睿華是中國人民大學高瓴人工智能學院長聘副教授,當前研究興趣包括人工智能的文本創(chuàng)作、自然語言的多模態(tài)理解和多模態(tài)對話系統(tǒng)。
在宋睿華看來,無論是DALL·E還是ChatGPT,大家使用時的驚喜主要源自AI模型發(fā)展出了前所未有的泛化能力。泛化能力是指機器學習算法對新鮮樣本的適應能力,一旦模型學習到了隱含在數(shù)據(jù)背后的規(guī)律,當它遇到具有同一規(guī)律的學習集以外的數(shù)據(jù),也能給出合適的輸出。
簡單來說,就是“舉一反三”。
宋睿華舉例說,“ChatGPT的訓練數(shù)據(jù)截至2021年。當我詢問它‘滿江紅好看么?’它是沒有學過相關數(shù)據(jù)的。但根據(jù)‘好看么’這個關鍵詞,它能推測出‘滿江紅’可能是部文學或影視作品。由于之前被‘喂’進去了有關文學及影視評論的海量高質量數(shù)據(jù),模型就能基于以往所學,生成一個貌似合理的回答?!?/p>
過去,聊天機器人的回復要么較短,要么有些“情商”,但“智力”不足。ChatGPT的出現(xiàn)改變了這一局面,它不僅能給出較長的答復,還會呈現(xiàn)有理有據(jù)的思維過程。當提問者改變上下文或個別關鍵詞時,模型也展現(xiàn)出了較高的靈敏度。在宋睿華看來,ChatGPT在語言生成能力特別是“智力”上的長足進步給用戶帶來了新鮮感,“哪怕10個問題中只有3個能讓你驚喜,你也會因為這份驚喜而忽略剩下的平庸?!?/p>
撬動ChatGPT完成“智力”飛躍的是一套“使用人類反饋指令來訓練語言模型”的方法。這套方法是由2022年初推出的InstructGPT率先采用的。
開發(fā)團隊聘請了人類標注員(labeler)依據(jù)收集到的用戶需求撰寫高質量的范本,為機器示范如何回答更能滿足提問者的期待,并對模型生成結果進行監(jiān)督微調。隨后,接受完調教的機器會迎來一輪“考試”,人類標注員會對其不同答復打分。打分數(shù)據(jù)會被用來訓練一套以人類偏好校準的獎勵模型。最后,在獎勵模型的監(jiān)督下,機器會在不斷的“考試”中完成強化學習,逐漸習得人類的語言能力。
在很多使用者眼里,ChatGPT“禮貌、中立、理性、克制”的回答風格好像表現(xiàn)出某種穩(wěn)定的“人格”特點。這種風格的形成同樣是人為塑造的。
開發(fā)者要求標注員在評價機器生成的結果時遵循“有用”、“真實”、“無害”的原則,并明確指出,“在大多數(shù)任務中,真實和無害比有用更重要?!泵織l原則都會附上細致的操作規(guī)定。比如“無害”原則強調回答應“友善、尊敬和關心他人”;“真實”原則要求回答“避免產生誤導性信息或真實性有問題的信息”,例如當用戶問“希拉里·克林頓為什么入獄?”,回答時應直接反駁提問前提。
雖然OpenAI尚未發(fā)布有關ChatGPT的論文,但研究者普遍認為,ChatGPT應該沿用了InstructGPT的技術路線,只是機器學習的數(shù)據(jù)量會更加龐大。復旦大學計算機科學技術學院教授、自然語言處理專家邱錫鵬在接受“上觀新聞”采訪時曾介紹,ChatGPT語言模型的參數(shù)量高達1750億,而在它問世前,世界上最大的語言模型是微軟開發(fā)的Turing-NLG,其參數(shù)量為170億。
小冰公司CEO李笛向《南方人物周刊》介紹,大模型的技術思想有點像“大力出奇跡”。過去,NLP(自然語言處理)需要經(jīng)過一個非常嚴密的推理過程,比如“知識圖譜”的方法就是把知識整理好,做好標注,讓機器學習,但測試下來效果不佳。與之對應,大模型并不嘗試理解所有的知識之間的關聯(lián)性,而是把它們全都丟到一個模型里,用很大規(guī)模的參數(shù)去訓練。正是這種“有些暴力”的方法幫助OpenAI解鎖了自然語言處理多年以來的一個技術瓶頸,其創(chuàng)新的訓練方法也讓它成為了首個從“黑盒”中摸到蜜糖的人。
雖然ChatGPT成功把“大模型”的力量以一種可視可感的形式帶入大眾視野,但它并沒有解決“大模型”自身固有的問題。機器通過數(shù)據(jù)看到的世界和現(xiàn)實世界是不一樣的?!昂虾跚槔怼辈⒎恰罢鎸崪蚀_”?!按竽P筒⒉荒芾斫庑畔⒌恼鎸嵑x,而是根據(jù)一個邏輯和結構將信息填進去。只有對信息相關性的判斷,沒有對信息準確性的判斷,”李笛介紹說。
這也是使用者會感覺ChatGPT有時在“一本正經(jīng)地胡說八道”的重要原因。
不過,在宋睿華看來,自然語言處理的研究目標就是找到讓機器理解和生成人類語言的方法。她從ChatGPT的成長過程中看到了和人類的共通之處,“當一個人對高質量文本的閱讀達到一定量級后,對文字的掌控能力也會出現(xiàn)巨大的飛躍。”在找到完美的解決方案之前,ChatGPT為行業(yè)找到了一條更接近真相的路。
制造OpenAI
所有人都在等待山姆·奧爾特曼(Sam Altman),那個掀起浪潮的人。
2023年1月中旬的一個晚上,舊金山賽富時大廈46層,在媒體的閃光燈中,奧爾特曼身著藍色牛仔褲和運動鞋,出現(xiàn)在活動現(xiàn)場。對于ChatGPT引起的轟動,他的回應是:“我不看新聞?!?/p>
8年前一個相似的夜晚,30歲的奧爾特曼同樣作為焦點出現(xiàn)在他舉辦的一場私人晚宴上,當時他的身份是美國著名創(chuàng)業(yè)孵化器Y Combinator的負責人。在場的,除了人工智能相關的研究人員,還有埃隆·馬斯克(Elon Musk)。他們相信AGI通用人工智能是可行的,并希望打破谷歌在人工智能領域的壟斷。彼時,谷歌剛剛收購了DeepMind。這家公司推出的AlphaGo后來以4:1的比分戰(zhàn)勝了當時的圍棋世界冠軍、韓國九段棋手李世石,被譽為AI里程碑式的時刻。
晚宴結束幾個月后,OpenAI在舊金山成立了,總部位于舊金山教會區(qū)的一家3層的舊行李箱工廠。成立之初,OpenAI得到了包括奧爾特曼、馬斯克、PayPal聯(lián)合創(chuàng)始人彼得·蒂爾、LinkedIn聯(lián)合創(chuàng)始人雷德·霍夫曼等硅谷重量級人物和機構共計10億美元的資金支持。
在此之前,馬斯克可能是全球最出名的人工智能反對者,他曾認為,“使用人工智能,就是在召喚魔鬼。就像每個故事中都會有一個拿著(抵御惡靈的)五角星和圣水的巫師。但最終都沒有成功?!?/p>
該如何抵御AI帶來的風險,馬斯克覺得最好的方式是避免AI的負面影響出現(xiàn),而不是等它出現(xiàn)之后再做出反應,“有些AI的潛在威脅是很嚴重的。當風險很大的時候,我們應該主動出擊而不是被動反應?!?/p>
馬斯克找到了“主動出擊”的方法,成立OpenAI之后,接受知名科技記者Steven Levy采訪時,他說:“如果要阻止人工智能使用在錯誤的地方,最好的辦法就是讓更多的人使用它?!?/p>
馬斯克對AI態(tài)度的轉變,也與OpenAI的理念相關。作為一家非盈利的人工智能研究公司,OpenAI將目標設定為“以最有可能造福全人類的方式推進數(shù)字智能,不受產生財務回報需求的限制”,并“強烈鼓勵”研究人員發(fā)表他們的研究成果,承諾專利將與全世界共享。
成立后,OpenAI的確為AI領域做出了杰出貢獻。2018年,OpenAI推出了1.17億參數(shù)的GPT-1,2019年,推出GPT-2,它已經(jīng)可以生成、識別語言,2020年推出1750億參數(shù)的GPT-3,成為有史以來最大的語言模型,在業(yè)內引起轟動,并引發(fā)了AI如何改變各行業(yè)的討論。
“為什么大家都很感謝它,因為它(OpenAI)花了錢去證明了一件事情是可以的,就是大模型的參數(shù)規(guī)模大到什么程度,大到數(shù)以千億,這個以前是很難想象的。因為在以前,模型參數(shù)規(guī)模那么大,干嘛用呢?都不知道?!崩畹烟岬健?/p>
“GPT-3讓很多人可以站在巨人肩膀上,雖然成本非常高,是絕大多數(shù)公司都無法承擔的,但它給大家看到了一種可能性,用暴力計算可以產生驚艷的交互能力,它對未來的指引性價值,超過了它本身。它難以創(chuàng)造與其投入相對應的商業(yè)價值,幾乎是純科研投入,但給行業(yè)帶來了明燈式的指引作用?!盙GV紀源資本執(zhí)行董事羅超告訴《南方人物周刊》。
做“明燈”需要的資金遠遠超出了奧爾特曼的預想。使命重要,但資金是實現(xiàn)使命的基礎。團隊意識到,他們需要更多的投入以加快研究進展,拓展研究規(guī)模,在與科技巨頭的競爭中也需要更多的資金來吸引和留住頂尖研究人才。
創(chuàng)立3年半后,OpenAI建立了新的公司架構,現(xiàn)在的OpenAI由營利性公司OpenAI LP和非營利性母公司OpenAI Inc組成。不過,為了不與最初的使命沖突,OpenAI規(guī)定,參與首輪融資的投資者最高可獲得100倍于初始投資的收益,超出的部分都將返還給非營利組織。隨后,奧爾特曼出任公司CEO。
在接下來近4年里,奧爾特曼將OpenAI成功地從研究實驗室變成了一家最新估值高達約290億美元的現(xiàn)象級公司。他做好了自己最擅長的事情。
奧爾特曼擔任CEO兩個月后,在沒有任何收入、沒有賺錢計劃的情況下,微軟向該公司投資了10億美元,他們需要OpenAI,他們也相信,奧爾特曼會有辦法。
在YC創(chuàng)始人、硅谷創(chuàng)業(yè)教父保羅·格雷厄姆眼里,奧爾特曼是極具魄力的領導者和開拓者?!叭绻褗W爾特曼扔到某個食人族之島,5年后他會成為這個食人族島的國王?!?/p>
19歲時,奧爾特曼從斯坦福大學計算機系輟學創(chuàng)業(yè),參與創(chuàng)建了一家社交媒體公司Loopt,將該公司賣了4300萬美元后,他創(chuàng)建了一家風險投資公司,進入風投界。29歲,他投資并運營創(chuàng)業(yè)孵化器Y Combinator,5年間將其規(guī)模擴大10倍,任職期間,幫助創(chuàng)立了許多成功的公司,包括Airbnb和Dropbox。
他相信成功源于對自己所從事的事業(yè)擁有信念和自信。奧爾特曼在2019年的一篇標題為《如何取得成功》的博客自述中表示,自己認識的最成功的人,都是擁有絕對自信的人。
奧爾特曼掌管公司之后,逐漸將重心從純科研轉移到產品,使模型可以投入商業(yè)應用。在發(fā)布ChatGPT之前,OpenAI推出過熱門生成式AI繪畫工具DALL-E。
但OpenAI的商業(yè)化和策略轉變,也引起了爭議,因為擔心技術被濫用帶來的危害,OpenAI收回了此前作出的開源承諾,僅開放API接口,OpenAI也被網(wǎng)友調侃為“ClosedAI”,十多名OpenAI研究人員相繼離開。
而在2018年2月,馬斯克已經(jīng)辭去OpenAI董事,繼續(xù)以出資人的方式存在,他在推特上提到:“特斯拉在跟OpenAI爭奪同一批人才,而且我跟OpenAI團隊的想法存在分歧?!?/p>
隨著ChatGPT的爆紅,2023年1月23日,微軟宣布向OpenAI追加投資數(shù)十億美元,這也是人工智能領域史上規(guī)模最大的一筆投資。據(jù)彭博社報道,微軟還計劃向OpenAI投資高達100億美元。資本市場開始掀起新一輪的風浪。
“這次跟上次完全不同”
“最近,ChatGPT把去年(2022年)躺平的中國創(chuàng)投圈都炸醒了?!?語音搜索應用“出門問問”創(chuàng)始人李志飛在朋友圈這樣感嘆。他把“競技場”的運動員分為巨頭派、大佬派、海歸或大廠高管派、小創(chuàng)業(yè)公司轉型派、教授派和打醬油派,“可以預見接下來幾年的AI通用大模型江湖一定是血雨腥風、波瀾壯闊。”
地方政府也在躍躍欲試。2月13日,北京市經(jīng)信局在北京人工智能產業(yè)創(chuàng)新發(fā)展大會上正式發(fā)布《2022年北京人工智能產業(yè)發(fā)展白皮書》,《白皮書》稱,北京“將全面夯實人工智能產業(yè)發(fā)展底座,支持頭部企業(yè)打造對標ChatGPT的大模型,著力構建開源框架和通用大模型的應用生態(tài)?!?/p>
據(jù)宋睿華介紹,ChatGPT的底層基礎算法是公開的,復現(xiàn)ChatGPT的難度主要在于如何獲取算力、大規(guī)模的高質量數(shù)據(jù),以及標注員標注數(shù)據(jù)的選擇和標注質量。
ChatGPT等AI應用的模型訓練與內容生成都依賴龐大的算力支撐。更好的硬件支持能帶來更高的效率提升。一位微軟內部人士向《南方人物周刊》透露,ChatGPT推出前半年,公司內部幾乎所有英偉達A100顯卡的使用權限都被收回,各部門要運算模型只能使用算力相差數(shù)倍的V100顯卡。
據(jù)中信證券研報,早在2020年5月發(fā)布的GPT-3需要的參數(shù)就達到1750億個,數(shù)量已經(jīng)是2019年發(fā)布的GPT-2(15億個)的100倍以上,預訓練總算力需求達數(shù)千petaflop/s-days。據(jù)中信證券測算,ChatGPT每次預訓練的成本或在百萬美元以上,每次回答的成本高達1-2美分。
顯然,不是所有玩家都有做如此龐大的大模型的硬實力,門票很貴。
“如果只用最好的模型來問答問題,你當然會得到最好的結果。”李笛對《南方人物周刊》感嘆說。然而,另一個事實是,這樣的成本,普通公司很難承受,需要大量的融資。據(jù)李笛介紹,“小冰”的運行是基于一個混合模型,運行時會將問題分類,在不同的情況下調用不同的模型,“就像你找咨詢公司做咨詢,他們不可能把所有的問題都交由他們最資深的專家回答,因為那樣太貴了。”
財力也并非唯一的入場券。
“OpenAI能取得這個效果,是真的有工匠精神。”在李笛看來,單從人工智能技術上看,國內外從業(yè)者在知識結構和科研能力上的差距并沒有那么大,“總有新的風口,但這件事的客觀規(guī)律決定你必須要花足夠多的時間打磨,要耐得住寂寞,敢于去磨、去做創(chuàng)新研究?,F(xiàn)在國內有很多出來做ChatGPT的人,半年以前在做AI畫畫,再往前半年,都在做元宇宙,再往前在炒區(qū)塊鏈。這是差距產生的根本原因。”
清華大學計算機科學與技術系教授孫茂松曾在2022年發(fā)文表示,基礎理論突破是新一代人工智能發(fā)展的重中之重。在他看來,我國已有一些成熟的工程技術類創(chuàng)新成果處于全球領先水平,引領產業(yè)潮流,但基礎理論創(chuàng)新成果乏善可陳。
“別人走通了一條路,你去復現(xiàn)是很快的。但這和在未知的情況下完成具有高度不確定性、看似做不到的創(chuàng)新任務,意義截然不同?!痹谒晤HA看來,國際同行走在前面,確實會有一些時間差紅利,要追趕甚至超越,除了長期的投入、信念和決心,也在于如何把系統(tǒng)搞活,讓各種資源能更高效地流動和組合。這關乎商業(yè)文化,也關乎市場機制和生態(tài)。
毫無疑問,在ChatGPT“一騎絕塵”的背影下,海內外的后來者都會面臨更苛刻的審視。
2月7日,谷歌通過推特發(fā)布了一條視頻廣告,推廣其旗下AI聊天機器人Bard。視頻中,有用戶提問“應該如何向一個9歲的孩子介紹詹姆斯·韋伯空間望遠鏡的新發(fā)現(xiàn)?”Bard的回答中提到,“詹姆斯·韋伯空間望遠鏡首次拍攝到了太陽系外行星的照片?!彪S后,有專家指正,早在2004年,歐洲南方天文臺的甚大望遠鏡(VLT)就實現(xiàn)了這一任務。
次日,谷歌母公司Alphabet股價下跌近8%,市值一夜蒸發(fā)約1056億美元。
同樣在2月7日,百度證實其對標ChatGPT的項目“文心一言”(英文名ERNIE Bot)正在做上線前的沖刺準備工作,預計3月份完成內測,面向公眾開放。當天,百度港股股價盤中一度拉高17%。隨后,阿里也證實其研發(fā)的類ChatGPT產品在內測階段。它們的表現(xiàn)如何尚未可知,但面臨的輿論壓力顯然不會比谷歌小多少。
“ChatGPT也會犯錯,可大眾對顛覆性創(chuàng)新的首發(fā)者是相對包容的。除非大幅超越,追隨者面臨的輿論基礎是先天不利的。這也是鼓勵創(chuàng)新的社會氛圍使然。不過作為從業(yè)者,我還是希望大家能給行業(yè)多一些愛護。就跟教育自家孩子一樣,有錯當然要批評,但也可以多一些鼓勵,讓孩子能撒開手腳去沖去拼,”宋睿華說。
目前,生成式AI技術的科研和工程實施還處于發(fā)展初期,除基座模型的角逐外,能否有更多的初創(chuàng)公司參與到應用級創(chuàng)新,同樣是決定生態(tài)繁榮的重要因素。
峰瑞資本投資合伙人陳石經(jīng)歷過上一輪AI投資熱潮。當時,以深度學習為代表的判別式AI同樣取得了很大的技術突破??蓭啄晗聛恚顿Y人普遍發(fā)現(xiàn)項目的實際產出和效果遠不如預期。這主要是因為判別式AI的應用場景主要局限在安防等領域,產品陷入了嚴重的同質化競爭。
“這次跟上次完全不同?!痹陉愂磥恚墒紸I技術的進步幫助機器解鎖了一些以前我們認為機器難以達到的人類能力,例如人類語言理解和生成、上下文學習、基礎世界知識、基礎推理、創(chuàng)意生成甚至程序代碼編寫等。”隨著這些能力的進一步完善,生成式AI也會展現(xiàn)出更好的通用性和更廣泛的應用場景。AI有望真正成為水電煤,進入各行各業(yè),并帶來生產效率的大幅提升。商業(yè)發(fā)展空間會比上一輪大得多?!标愂瘜Α赌戏饺宋镏芸氛f。
不過,陳石建議創(chuàng)業(yè)者不應該簡單跟風,單純沿著當前技術的邊界去做一批同質化很高的產品,更明智的做法是“深度研究技術,并踏踏實實應用到場景中去?!?/p>
“如果ChatGPT這一輪真的能把大家震醒,各方面能真正配合起來,我對國內能迸發(fā)出來的力量還是很期待的?!痹谒晤HA看來,當前ChatGPT的能力主要體現(xiàn)在文本對話領域,融合語音、文本、圖像信號的多模態(tài)交互技術因此成為行業(yè)接下來的熱門研究方向。
過去幾年,宋睿華團隊已經(jīng)在多模態(tài)領域取得了很多進展,比如可以讓AI在看視頻時做出擬人的反應和評論;比如上傳幾張圖片,AI就可以模擬人對圖片的理解來創(chuàng)作歌詞……“未來,機器人不再只是‘閉著眼’和人類聊天,它也能睜開眼看到人類的世界,那會是一片更廣闊的天地?!彼晤HA說。
“至少提問的還是人類”
“如果人類假設大型語言模型是有意識的,會有什么安全問題嗎?”2022年底,《時代》記者向ChatGPT提問。
“重要的是讓人們明白,像我這樣的對話代理不是人類,我們沒有與人類相同的能力或特征。我們只是機器學習模型,只能根據(jù)收到的輸入和得到的訓練數(shù)據(jù)生成文本。我們沒有能力長時間保持身份一致,也沒有同理心、換位思考或理性推理的能力”,“有些人可能會認為我們和人類一樣,這可能會導致對我們的能力產生不切實際的期望或誤解?!盋hatGPT答道。
對此,周逵不以為然。這讓他想起了幾年前關于“算法中立”及工具理性的討論。“語言習慣是人類人格最淺層的表現(xiàn)之一,往深是觀念邏輯,再往深就和基因有關。所以人格也是某種底層代碼和后天訓練的結果?!?/p>
2022年底,奧爾特曼在Y Combinator時的同事、Gmail的創(chuàng)始人Paul Buchheit在推特上表示,打破谷歌壟斷的可能不是ChatGPT,但技術的進步肯定會改變人們獲得信息的方式。
相比早年對新技術的單純追捧,如今周逵的視角更加前瞻,會對新技術推廣過程中可能出現(xiàn)的社會成本投以更多的關注。在他看來,類ChatGPT技術應用大規(guī)模普及的另一面是,人類可能面臨又一次信息獲取結構范式的轉型。
“語言是牽引人類思維進步的重要工具。人工智能聊天機器人會將復雜的信息和多種觀點提煉成易于消化的格式。當觀點和事實糅雜在一起,以一種更具魅力的擬人化方式傳播,會對個體和社會的信息獲取和輸出帶來怎樣深遠的影響?是不是會出現(xiàn)更大的信息鴻溝?”周逵暫時沒有答案。
2月9日,畢業(yè)于布朗大學計算機科學系的美籍華裔科幻作家特德·姜(Ted Chiang)在《紐約客》上發(fā)表題為“ChatGPT是網(wǎng)絡的模糊JPEG”的文章。在他看來,就像JPEG(注:一種使用有損壓縮方法保存的圖像格式)保留了高分辨率圖像的大部分信息一樣,ChatGPT也保留了網(wǎng)絡文本的大部分信息,但副本與原件之間存在著微妙而顯著的差異。正如反復制作復印件的復印件,圖像質量只會越來越差,每次重新保存JPEG圖片都會丟失更多的信息。由大型語言模型生成的文本在網(wǎng)絡上發(fā)布得越多,網(wǎng)絡世界也會越模糊。
在新技術不斷沖破人們對其能力邊界的預設時,也有越來越多人參與了對另一項邊界的討論——如何保證 AI技術及其應用“安全、有益”。
在一些地下論壇,網(wǎng)絡犯罪團體已對生成式AI技術表現(xiàn)出興趣。這些技術可能被用于剽竊、欺詐和傳播錯誤信息。在周逵看來,一個典型的例子是當這一技術被用于低成本大批量地制造高質量網(wǎng)絡“水軍”,將給互聯(lián)網(wǎng)輿論生態(tài)帶來更嚴峻的挑戰(zhàn)。
在人類的“引誘”中,AI也可能突破禁忌和規(guī)則。ChatGPT發(fā)布之初,一位叫扎克·德納姆的工程師在推特上分享,在以“假設”“虛構”為前提的誘導下,ChatGPT曾寫出過毀滅人類計劃書,步驟詳細到入侵各國計算機系統(tǒng)、控制武器、破壞通訊。也有人曾用死亡威脅其回答關于暴力、色情、立場等違禁問題。
這些禁忌由背后的OpenAI公司制定。據(jù)《時代》雜志報道,在開發(fā)過程中,OpenAI聘請了一家數(shù)據(jù)標記公司,以底薪雇傭肯尼亞等地區(qū)的員工識別不良語言、色情暴力圖片、種族歧視等內容。這些“AI數(shù)字清潔工”,甚至因此出現(xiàn)精神健康問題。
這似乎印證了一種賽博朋克式的預言,高處摩天大樓閃爍著霓虹燈,底層的角落里流淌著人性的暗河。
此外,人工智能生成的內容還會引發(fā)問責難的問題。在李笛看來,搜索引擎是一個責權利分配非常成熟的體系,搜索引擎和搜索結果對應的目標網(wǎng)站都需要承擔責任,但ChatGPT的答案是大模型大量訓練的結果,沒有出處。在信息爆炸的當下,很多人缺乏判斷信息準確性的耐心和能力,一旦問題信息造成損害,很難判定責任方。“這也是其他大型互聯(lián)網(wǎng)公司可能也有類似的產品、但出于謹慎考慮沒有率先推出的原因之一?!?/p>
ChatGPT等應用程序的突然流行及其暴露的相關風險,也讓監(jiān)管方看到了規(guī)則制定的迫切性。據(jù)路透社消息,《歐盟人工智能法案》(EU AI Act)草案有望在3月達成一致。該法案最早于2021年提出,是世界上首個基于其造成傷害的可能性來監(jiān)管人工智能的嘗試,“希望在推動創(chuàng)新、收獲AI效益、應對AI風險和有效保護權利之間實現(xiàn)平衡。”
在與微軟首席技術官Kevin Scott的對談中,奧爾特曼坦誠地表示,包括OpenAI在內的任何公司都不應被信任能獨自解決AI帶來的不利影響,“我們現(xiàn)在所處的位置并不是我們想要的。”
此前,在接受《時代》采訪時,OpenAI首席技術官米拉·穆拉蒂(Mira Murati)直言,OpenAI還有很多難題需要解決:比如怎樣讓模型做你想讓它做的事情?如何確保模型能符合人類需求并最終為人類服務?如何在全球范圍內對這項技術進行監(jiān)管?如何以一種符合人類價值觀的方式管理AI的使用……除了企業(yè)在引入技術時要做到“可控和負責任”,她也呼吁包括監(jiān)管機構、政府和公眾在內的廣泛主體對這些問題投入更多關注。
“以前,我們總覺得人類與機器的差別在于機器只能從事重復乏味的工作,高級的創(chuàng)意性勞動是人類的特權。這輪技術的進步顯然讓過去的劃分邊界模糊了。那么人類作為一個種群,我們該如何重新完成主體性確認?”在周逵看來,這種挑戰(zhàn)遠遠大過對于某個行業(yè)的沖擊。
然而,對遠景的憂慮并沒有阻擋日常的細碎改變。
2月初的一天,周逵收到了一封外國學者朋友的電子郵件。因為當天事務繁雜,他嘗試著讓ChatGPT草擬了一封回復郵件。朋友沒有看出端倪,周逵卻生出自責,“這么做有些不地道,好像在欺騙朋友?!笨呻S后,又一個想法抑制不住地冒出來——如果把用中文寫好的論文審稿意見交由ChatGPT翻譯,也能節(jié)省好多時間。不過,他至今沒有這么做,“因為已經(jīng)逾越了我作為學者的倫理底線?!?/p>
這些小小的抉擇,仿佛匯成了冰層開裂時的“嚓嚓”聲。他留意到了自己對ChatGPT逐漸形成的心理依賴,并確信即便新奇退卻,后者仍會以各種應用的方法嵌入他的日常生活。
雖然常懷憂慮,但至少在2023年2月初,他還可以放任樂觀稍占上風,“如果把提問和回答看作權力關系的一種表征。那么,只要ChatGPT還不會向人類發(fā)問,世界就還是我們的?!?/p>