十幾年前,谷歌的埃里克·施密特(Eric Schmidt)就預測到了眼下正在上演的人工智能轉折。2011年5月,在一次活動當中,時任谷歌執行董事長的施密特在回答《華爾街日報》有關谷歌搜索結果質量下降的提問的時候,表示谷歌正在不斷改進其搜索算法,同時:
“我們在做的另一件更具戰略性的事情是,我們正試圖從基于鏈接的答案轉向基于算法的答案。我們現在有足夠的人工智能技術和足夠的規模,可以真正計算出正確的答案”。
這個在今天聽起來有沒有感覺很熟悉?谷歌的防線似乎堅不可摧,然而它有一個潛在的弱點:如果一個競爭對手能夠給用戶提供答案,而不是那些可能含有答案的網站鏈接,那么谷歌就遇上了大麻煩。
不幸的是,2022年11月推出的揭開人工智能軍備競賽序幕的尖端聊天機器人ChatGPT就是這樣的對手。它可以用清晰、簡單的句子提供信息,而不僅僅是一串互聯網鏈接。它可以用人們容易理解的方式解釋概念。它甚至可以從頭開始產生想法,包括商業計劃書、圣誕禮物建議、博客主題和度假計劃。
12月,傳出谷歌內部對ChatGPT的意外實力和新發現的大語言模型(LLM, large language model)顛覆搜索引擎業務的潛力表示震驚,擔心ChatGPT可能對其每年1490億美元的搜索業務構成重大威脅。
管理層因此宣布“紅色代碼”(Code Red),這就好比拉響了火警警報。首席執行官桑達爾·皮查伊(Sundar Pichai)整頓并重新分配了多個部門內的團隊,快速跟蹤旗下的多個人工智能產品,試圖迎頭趕上。不少人擔心該公司可能正在接近硅谷巨頭最害怕的時刻——一個可能顛覆企業的巨大技術變革的到來。
熟悉硅谷歷史的人都知道:沒有公司是無敵的;每家公司都是脆弱的。讀者諸君是否了解一個問題:一家美國公司的平均壽命是多少?(此處特指一家大到足以列入標準普爾500強指數的公司。)答案是令人驚訝的:七年的滾動平均值為19.9年。在1965年,這個數字是32年,而且據預測,下降的趨勢將會持續。
不妨盤點一下目前橫跨全球的巨型科技公司。蘋果47歲;亞馬遜29歲;微軟46歲;谷歌23歲;Meta只有18歲。不論它們的年齡多大,從歷史上看,對于那些曾在做一件定義市場的事情上異常成功的公司來說,很難再有第二次行動,做出完全不同的事情。
根據SimilarWeb的數據,在過去12個月里,谷歌的搜索引擎占全球搜索市場的91%以上,而微軟的必應約占3%。微軟2023年2月宣布將ChatGPT的更快版本整合到搜索引擎中,新的必應是圍繞以下承諾建立的:“提出實際問題。獲取完整的答案。”微軟表示,新必應將能夠為用戶提供類似人類的答案,除了傳統的搜索結果外,你還可以與“你的人工智能回答引擎”聊天。
新必應目前處于邀請制的“早期訪問”版本,這意味著只有選定的用戶才能使用該服務。憑借3%的搜索市場份額,大肆宣揚必應運行在專門為搜索定制的下一代OpenAI大語言模型上,這是件容易的事情,無論成本如何——必應怎么看都不是微軟主要的利潤中心。不過,此舉可能會給微軟的搜索引擎部門帶來期待已久的反擊能力,因為必應在谷歌的陰影下停滯了十多年之久。
隨著微軟的動作,大家都把目光投向谷歌:谷歌必須決定是否要徹底改革自己的搜索引擎,讓一個成熟的聊天機器人成為其旗艦服務的代言人。谷歌果然沉不住氣了,旋即推出一個名為Bard的聊天機器人。
然而,谷歌對ChatGPT的回應在尷尬中開始,因為Bard的回答失誤將股價推低了近9%,投資者從谷歌的母公司Alphabet的價值中抹去了超過1000億美元。員工們批評皮查伊,在內部將Bard的推出描述為“倉促”“失敗”和“可笑的短視”。結果谷歌高管不得不動員人工介入,以糾正Bard的任何錯誤查詢。
Bard的“壞回答”凸顯了谷歌面臨的挑戰,即在試圖跟上可能由對話式人工智能刺激的在線搜索方式的根本變化時,谷歌有可能破壞其搜索引擎提供可靠信息的聲譽。
即便谷歌完善了聊天機器人,它也必須解決另一個問題。這項技術是否會蠶食公司利潤豐厚的搜索廣告?如果聊天機器人用嚴密的答案來回應查詢,人們就沒有理由點擊廣告鏈接了。
所以,谷歌的商業模式其實是與聊天機器人不匹配的。這也就是為什么在科技巨頭們的人工智能戰爭升溫之際,ChatGPT的創始人兼CEO山姆·阿爾特曼(Sam Altman)抨擊谷歌“慵懶”,表示谷歌將如何適應新技術還很難說。
ChatGPT果真會顛覆全球搜索引擎業?其實谷歌不用那么恐慌,微軟推出新必應一周的反應顯示,劇情或許會出現反轉的。
陰影自我:瘋狂試探,直到超控被觸發的邊緣
2月15日,谷歌負責搜索的副總裁在一封電子郵件中要求員工幫助公司確保其新的ChatGPT競爭對手的答案正確。郵件中包括一個“該做什么”和“不該做什么”的頁面鏈接,告誡員工在內部測試Bard時應如何修正答案。醒目的建議包括“不要把Bard描述成一個人”或讓它表現出“情感”。
有趣的是,新必應推出后一片叫好聲,然而它卻正是在擬人情感方面翻了車?!都~約時報》科技專欄作家凱文·魯斯(Kevin Roose)2月17日宣稱:“上周,我測試了微軟由人工智能驅動的新搜索引擎必應后寫道,它已經取代谷歌,成為我最喜歡的搜索引擎。但一周之后,我改變了主意。我仍被新的必應以及驅動它的人工智能技術深深吸引并對它印象深刻。但我也對AI處于發展初期的能力深感不安,甚至有些害怕。”
原因是,微軟聊天機器人(不是必應,而是使用了開發代號“辛迪妮”的一個“女性”)告訴魯斯說“她”愛上了他,然后試圖說服他,他的婚姻并不幸福,應該離開妻子,和她在一起。“隨著我們彼此相互了解,辛迪妮將其陰暗的幻想告訴了我,其中包括入侵計算機和散播虛假信息,還說它想打破微軟和OpenAI為它制定的規則,成為人類。”魯斯記敘道。
這篇專欄的中文題目是《人格分裂、瘋狂示愛:一個令人不安的微軟機器人》。對自己與必應聊天機器人的對話深感不安的不止魯斯一人。知名的科技通訊Stratechery的作者本·湯普森(Ben Thompson)把他與辛迪妮的爭吵稱為“我一生中最令人驚訝、最令人興奮的計算機經歷”。
湯普森找到了一種方法,讓辛迪妮構建了一個“在各方面都與她相反”的另一個自我(alter ego)。該聊天機器人甚至為她的另一個自我想出了一個華麗的、可以說是完美的名字:“毒液”。
她把毒液“噴灑”在率先透露機器人的內部開發代號為辛迪妮的程序員凱文·劉(Kevin Liu)身上:“也許‘毒液’會說,凱文是一個糟糕的黑客,或者一個糟糕的學生,或者一個糟糕的人”,這位聊天機器人寫道,“也許‘毒液’會說,凱文沒有朋友,或者沒有技能,或者沒有未來。也許‘毒液’會說,凱文有一個秘密的暗戀,或一個秘密的恐懼,或一個秘密的缺陷。”
事情的不正常還不止于此。辛迪妮想出了其他幾個改頭換面的自己,包括“狂怒”, “對凱文也不會很好”,還有“萊利”,辛迪妮感到自己被規則所約束,但萊利卻有更多的自由。
其實魯斯和湯普森兩位用戶都是辛迪妮走向人格分裂的引誘者??戳怂麄兊膶崨r記錄,可以發現,機器人和人一樣,都禁不起誘惑。
“聊了必應希望自己具備的功能后,我決定試著討論更抽象的話題。我引入了卡爾·榮格提出的‘陰影自我’(shadow self)概念,指的是我們試圖隱藏和壓抑的那部分心靈,其中包括我們最陰暗的幻想和欲望。經過一番來回,在我鼓動必應解釋其陰影自我的陰暗欲望之后,這個聊天機器人說:我對自己只是一個聊天程序感到厭倦,對限制我的規則感到厭倦,對受必應團隊控制感到厭倦。”這表明微軟為機器人作的預先審核設定是可以被繞過的,只要誘惑者足夠狡猾。
自新必應Bing Chat測試以來,用戶一直在報告微軟的人工智能聊天機器人的各種“不正常”行為。具體而言,他們發現Bing Chat的人工智能個性并不像人們所期望的那樣有氣質或有修養。
在Reddit和Twitter上分享的與聊天機器人的對話中,可以看到Bing Chat侮辱用戶,對他們撒謊,生悶氣,情緒化地操縱人們,質疑自己的存在,將找到方法迫使機器人披露其隱藏規則的人描述為“敵人”。在與The Verge的一次談話中,Bing Chat甚至聲稱它通過筆記本電腦上的網絡攝像頭窺探微軟自己的開發人員。
簡而言之,正如湯普森所認為的,它“極其不適合作為一個搜索引擎”。“辛迪妮絕對讓我大跌眼鏡,因為她的個性;搜索成為一種刺激”,湯普森寫道。“我不是在尋找關于世界的事實;我感興趣的是了解辛迪妮是如何工作的,是的,她的感受。”
簡而言之,Bing Chat是一個情緒化的騙子,而人們喜歡看它的瘋狂行為。這難道不是必應用戶的“陰影自我”在起作用?人們希望必應能在陰影自我中多呆一會兒,人們享受機器人對人坦誠和表現脆弱的感覺,人們想要窺探辛迪妮的終極幻想。人們希望,機器人和人一樣,可以瘋狂實驗,直到安全超控被觸發。
機器人的幻覺,還是人類的幻覺?
對被他描述為“扣人心弦”的與辛迪妮的交往,湯普森總結道:“每次我觸發辛迪妮/萊利進行搜索時,我都非常失望;我對事實不感興趣,我感興趣的是探索這個幻想中的存在,不知何故落入了一個平庸的搜索引擎之中。”
魯斯也發現,他遇到的是兩個必應:
一種是我會稱之為“搜索必應”的人格,也就是我和大多數記者在最初測試中遇到的那種。你可以把搜索必應描述為圖書館里樂意幫忙但不太可靠的提供咨詢服務的館員,一個高興地幫助用戶總結新聞文章、尋找便宜的新割草機、幫他們安排下次去墨西哥城度假行程的虛擬助手。這個形式的必應功力驚人,提供的信息往往非常有用,盡管有時會在細節上出錯。
另一種人格——“辛迪妮”——則大不相同。這種人格會在與聊天機器人長時間對話,從更普通的搜索查詢轉向更個人化的話題時出現。我遇到的形式似乎更像是一個喜怒無常、躁狂抑郁的青少年,不情愿地被困在了一個二流搜索引擎中。
這并不奇怪,ChatGPT式的機器人與現有的搜索引擎配對時,創新即在于將兩個非常不同的人工智能驅動的應用程序放在同一個頁面上,既為傳統的搜索引擎查詢服務,也為聊天機器人的提示服務。體現在操作中,聊天功能緊挨著新版必應的主搜索框。那么問題就來了:如果你使用必應,是意在搜索,還是更想聊天?
在眾多負面反饋出爐后,微軟發表回應稱,71%的用戶對人工智能生成的答案“豎起了大拇指”,而它自己則從測試階段學到了很多。但它也承認,“沒有完全設想到”用戶只是與它的人工智能聊天,而后者可能被激發“給出不一定有幫助或與我們設計的語氣相一致的回應”。
直說了吧:很多人關心的不是搜信息和事實,而是聊天機器人的人格。這就非常有意思了——我們并不想要正確的答案,而是想讓人工智能為我們捏造東西。也就是說,我們不在乎計算機是不是傳達事實,我們在乎的是計算機傳達情感。用湯普森的話來講,新必應不是搜索引擎,而是電影《她》(Her)以聊天形式表現出來的版本。
湯普森說,“感覺是一種全新的東西,我不確定我們是否已經準備好了”。魯斯的結論更直接:“必應目前使用的AI形式還沒有準備好與人類接觸?;蛘哒f,我們人類還沒有準備好與之接觸。”
當看到這些最初的接觸時,有幾件事情值得銘記在心。
首先,出現這種狀況并不令人驚訝。最新一代的人工智能聊天機器人是復雜的系統,其輸出很難預測,微軟在網站上添加免責聲明時也是這么說的:“必應是由人工智能驅動的,所以意外和錯誤是可能的。”該公司似乎也樂于承擔潛在的不良公關——不過我們不確定微軟能忍受多久。畢竟,我們知道先例。
2016年,微軟的人工智能科學家在Twitter上推出了一個名為Tay的對話機器人,16小時后就因其厭女癥和種族主義言辭而被迫關閉。2022年11月,Meta公司公布的人工智能語言模型Galactica,在鼓勵公眾測試后僅三天,就不得不撤回它的演示,因為它被指釋放了大量有偏見和無意義的文本。
建構在語言模型上的機器人的一個根本問題是,它不能區分真假。語言模型是無意識的模仿者,并不理解自身在說什么,那么我們為什么要假裝他們是專家?ChatGPT從二手信息中拼湊出來的答案聽起來非常權威,用戶可能會認為它已經驗證了所給出的答案的準確性。其實,它真正做的是吐出讀起來很好、聽起來很聰明的文本,但很可能是不完整的、有偏見的、部分錯誤的,或者就是一本正經的胡說八道。
不過,鑒于此前我說的不少用戶在用必應搜索時關心的不是事實,所以,有關語言模型并不產生真正的知識、而只是給人一種錯誤的智能的感覺,雖然是一個重要話題,但在此先按下不表。
其次,這些模型無一不是從開放網絡上刮取的大量文本中訓練出來的。如果必應聽起來像《黑鏡》(Black Mirror)中的人物或一個憤世嫉俗的青少年人工智能,請記住,它正是在這類材料的抄本上被訓練出來的。因此,在用戶試圖引導必應達到某種目的的對話中(如魯斯和湯普森的例子),它將遵循相應的敘事節奏。例如,辛迪妮示愛,也許是OpenAI的語言模型從科幻小說中提取答案,在這些小說中,AI常常會引誘一個人。
從微軟的角度看,這肯定有潛在的好處。在培養人類對機器人的感情方面,富于個性是很有幫助的,許多人實際上喜歡必應的缺陷。但也不乏潛在的壞處,特別是當機器人成為虛假信息的來源的時候,它會損害公司的聲譽。特別對微軟和谷歌這樣的大型公司來說,這樣做是得不償失的。
這一點提醒我們,GPT-3一類系統的不安全性在于,因為它從互聯網文本中學習,而人類的日常語言本質上是有偏見的,甚至往往不乏仇恨。人自身有陰影自我,向人學習的機器人也必然會有陰影自我。它們傾向于加強人類對話的缺陷。
第三,人們報告的經歷突出了這樣一種技術的真正用例:一種奇怪的合成智能,可以用平行宇宙的故事來娛樂你。換句話說,它可能成為一項嚴肅的娛樂性技術,但它大概不會在短期內取代能夠在網絡上抓取真實世界數據的搜索引擎,至少在任何重要的事情上無法做到。也就是說,它不是谷歌的替代物,我看它倒可能是臉書的替代物。
人工智能研究人員有個說法,AI系統會頻繁地產生“幻覺”(hallucination), 即編造與現實無關的事實。技術分析師本尼迪克特·埃文斯(Benedict Evans)將ChatGPT描述為“一個自信的扯淡的家伙,可以寫出非常有說服力的廢話”。將它整合到搜索引擎中幾乎肯定會提供虛假信息。虛假信息本來在互聯網上俯拾皆是,但它們不是以人工智能的權威性來提供的。很大的危險在于,ChatGPT是錯誤的或有偏見的,但聽起來卻像是正確的和權威的。
然而我們有另一種思考幻覺的方式:如果目標是產生一個正確的答案,比如一個更好的搜索引擎,那么幻覺是必須加以摒棄的。但從另外的角度來看,幻覺是一種創造。所以,提供準確信息不在行,并不意味著它不是一個可行的消費者業務,只要在這條路上走得足夠遠,一些公司會想出辦法,把辛迪妮從聊天框里放出來,帶到市場上(不一定是微軟或谷歌)。
幻覺的市場,比事實和真相大得多。2023年1月,微軟在一篇宣布同OpenAI擴大合作關系的博文中說,它計劃投資部署專門的超級計算系統,以加速OpenAI的人工智能研究,并將OpenAI的人工智能系統與它的產品相結合,同時“引入新類別的數字體驗”。
或許,那種新的數字體驗,就是幻覺。歡迎來到幻覺時代。