ChatGPT刷屏中場:覺遠和尚(暫時)成不了王語嫣

傳媒1號 發佈 2024-04-06T14:42:37.684679+00:00

隨著各方言論不斷流出,人們從最初的新奇,到了幾乎覆蓋全行業、撬動所有利益攸關方的討論。就像一顆興奮的火種,ChatGPT正在中國科技公司急速蔓延。

來解釋一下標題:

無需過多贅述去年11月底面世的ChatGPT風靡全球的現象。

隨著各方言論不斷流出,人們從最初的新奇,到了幾乎覆蓋全行業、撬動所有利益攸關方的討論。就像一顆興奮的火種,ChatGPT正在中國科技公司急速蔓延。

2-3月交替之際,雖然專業社群的熱度不斷,但ChatGPT在更廣泛的大眾輿論場的刷屏勢頭似有放緩。在此期間,北京西二旗的科技園裡,百度的算法工程師們迎來一個個封閉開發的不眠夜。3月第1天,百度發布預告稱,將於本月16日就其「類ChatGPT」項目「文心一言」召開新聞發布會,隔天顯示註冊多個商標。據不完全統計,國內已經有400多家媒體、網際網路、金融、保險、汽車、企業軟體等行業企業宣布接入「文心一言」,成為生態合作夥伴。

在正式揭曉「文心一言」能否迅速跟上ChatGPT節奏之前的當下,權且稱作一個「中場」,容看客多想一層,就比如:微軟現任CEO納德拉一早就把ChatGPT吹上台,沒多久集成ChatGPT的微軟Bing就上線。事實上,2年前把元宇宙捧上天的,也是「納德拉們」。

「超級大腦」是對人工智慧最直白的描述之一。金庸先生筆下,有2個「類超級大腦」式的人物,即本文副標題中的兩個主角:

覺遠,少林寺藏經閣管理書籍的和尚,靠一番「管理圖書」的技能成為「飽學宿儒、經術名家」。雖為少林、武當、峨眉三派各自九陽神功的布道者,內功極強,但重在防禦,少談攻擊。

另一位,「神仙姐姐」王語嫣,熟記世間所有武功秘籍,掌握「過目不忘」的「異術」,同時掌握實戰運用技巧,到了隨口點撥、便可使人武學技藝大增、反敗為勝的境界。

兩相對比,覺遠和尚和王語嫣相差的,便是這融會貫通、進而可以破解和預判武學招式的後半部分。

暫且以此來概括ChatGPT背後計算資源的強大,和因受制於模型訓練方式,出現了事實性錯誤、知識盲區和常識偏差等諸多問題。這引發了另一層對學科之於時間的思考。金庸先生大半個世紀前創造覺遠和尚和王語嫣這兩個人物時,自然不會想到如今這會用來形容科技發展。誰敢說ChatGPT在同樣長的時間跨度後,是否還會啟發於別的新興事物?

有分析指出,在科學訓練中,哲學和社會學都是缺失的。簡單翻譯,是建模和框架。因為,計算是對權威科學模式的服從,但對於人文社科來說,入門課便是學會懷疑。換句話說,這或許是科學無法真正解釋「人性」的那一部分。

引用一句話來率先擺明本文的立場:法國插畫家讓-雅克·桑貝說過,「如果不欣賞人性的光輝,我就會變得很悲傷」。

技術追求去中心化,但權力相反

從原理上來講,ChatGPT並不是新事物。它背後的基礎,是母公司OpenAI在幾年前發布的自然語言模型GPT,OpenAI於2018年發布了GPT-1,首次讓人工智慧能夠讓人類一樣理解文字、寫出文字。隨後幾年裡,OpenAI 陸續推出了GPT-2、GPT-3,目前GPT-3已經用在了包括撰寫新聞等多種場景。ChatGPT,就是在GPT-3的升級版GPT-3.5的基礎上所做出來的產品。

以往的聊天機器人只能解決單一的領域問題,而ChatGPT之所以能夠走向應用多元、通用的場景需求,主要原因是其在技術路徑上採用了「大數據+大算力+強算法=大模型」的路線,這也是其在之前開放免費公測後,短時間內就引發了不同圈層的反饋。

Meta 首席科學家、圖靈獎獲得者楊立昆也提到,就底層技術而言,ChatGPT 並沒有特別的創新。之所以被公眾被視為「革命性產品」,他認為主要是在產品層面設計得很好、組合得很好。

類似地,雖然很多人還是無法第一時間解釋出什麼是「深度學習」,但距離獲得圖靈獎的人工智慧科學家傑夫·辛頓2012年和他的兩位學生憑藉神經網絡AlexNet拿下ImageNet冠軍,向世界證明神經網絡能夠以超越其他任何技術的精度識別常見的物體,已經過去了整整10年。此後,通過一場秘密競拍,辛頓將神經網絡推向科技行業的中心,進一步加速了人工智慧的進步。

當時,參與競拍的不只有廣泛被看好將通過搜尋引擎有望成為ChatGPT頭號玩家的微軟、迎著前者推出競品Bard隨後翻車的谷歌,還有國內的百度。辛頓當初有一位同時創業深度神經網絡(DNN)的夥伴,伊利亞·薩特斯基弗,後者是OpenAI的創始成員兼首席科學家。

「創新」的圈子,說小不小,說大也不大。OpenAI耐得住寂寞,敢於去磨、去做創新研究的堅韌特質,最終讓其「大模型」得到了今天的廣泛關注。

可以說,ChatGPT的出現,的確是理想主義者深耕多年後的成功。但是到最後,卻又免不了會落到壟斷寡頭的手中。

OpenAI出世之時,便有馬斯克等幾位矽谷大佬承諾出資10億美元。ChatGPT發布前,微軟就已經在2021年悄悄向OpenAI投資了20億美元。因此,暫不論算力和算法的差距,錢已經變成了ChatGPT如今難以在短時間內被複製的第一道門檻。

由此可見,不論是ChatGPT,還是由其引爆的AIGC,其實是傳統力量的延伸,是網際網路中心化壟斷模式的進一步強化。在國內,即便「成為下一個ChatGPT」正在成為很多創業者的夢想,但在錢和技術積累上,顯然大公司更勝一籌,真正在東線加入戰場的還是百度、阿里、京東這些大廠。

技術追求去中心化的,但權力則正相反。有人擔憂,區塊鏈技術本是希望打破技術壟斷,讓普通人重新擁有自己的數據「主權」,但隨著不斷發展,卻出現了完全無視用戶「主權」的ChatGPT和AIGC,你的每一次與它對話,都將轉化為它無所顧忌的訓練數據,最終面對它的「超級大腦」,人們陷入將會流失話語權的擔憂,似乎強者愈強、弱者愈弱的馬太效應是難以逃脫的未來。

但是,換個角度看,正是因為權利訴求與技術發展的內核是相反的,因此,創造出ChatGPT的人,是否會允許技術真正成為「社會疆域」的主人,任其創立規則、顛覆遊戲法則?答案並不盡然。否則,「AI會否替代記者」的話題不會至今仍未有答案。

未來,決戰應用場景

回到國內。百度已然成為領頭羊,阿里、京東、網易、小米等一線大廠也緊隨其後,紛紛承諾了對ChatGPT的投入和開發。大廠們的態度十分鮮明:ChatGPT已經是既定的未來,這場新的科技競技賽哨聲響起,誰都不甘落於下風。

然而,這更像是一場倉促應戰。

小冰CEO李笛舉了一個例子:若用ChatGPT的方法,以小冰框架當前支撐的對話交互量計算,每天成本將高達3億元,一年成本超過1000億元。此外,自去年英偉達高端GPU晶片對中國供應受限後,國內算力受到嚴重影響。儘管國內晶片企業始終在奮力追趕,但是目前國內尚未出現可以對標的硬體產品。

不論是算力算法還是高昂的落地成本,時間給國內科技追逐者們製造的壁壘,不止一點點。李笛也補充說,「人工智慧正處於快速發展疊代的階段,效果越好往往意味著越先進的技術,相應地成本也就越貴。假如不考慮優化成本,只追求效果,是很難長久落地、大規模鋪開的。」

美國高德納諮詢公司曾預測,到2025年AIGC產生的數據將占所有數據的10%,而2021年該比例不足1%。ChatGPT將來或成AIGC主力。但它的落地,註定是個長期過程,就像曾經紅極一時的元宇宙那樣。圍繞元宇宙的泡沫很多,但元宇宙本身不是泡沫。只不過,距離落地還有很長的距離要走,比如它必須依託於大規模的基礎設施(如算力設施、網絡設施)的革新、接入平台的切換(從現在的電腦、手機轉向VR、AR、MR設備)等。

ChatGPT也一樣,除了其因存在作弊和作假等弊端而被國內外多所高校相繼「封殺」外,ChatGPT也並非知識獲取的通路。畢竟,它並不是一個認真嚴肅的知識體系。ChatGPT更像是某種類型的行為模式優化系統,而不是在追求提供準確的「知識」。

此前,輿論猜測微軟Bing可能會徹底顛覆搜尋引擎,引領搜索體驗的代際變革。3月1日,ChatGPT開發商OpenAI宣布開放API(應用程式接口),允許第三方開發者通過API將ChatGPT集成至他們的應用程式和服務中,一些科技領域專業人士直呼「革命」。兩者的共通點,都指向落地和應用,以及必須建立在前者基礎之上的商業變現。

在創新工場董事長李開復看來,「ChatGPT未來將成為一個基礎設施,所有跟數位技術相關的產業都需要接入,最後會變成一個底層的超級API。」

因此,或許ChatGPT的應用場景,才是現階段大多數網際網路和科技公司真正要爭奪的。一項新技術或應用,取得技術上變革性突破,並不必然帶來變革性社會影響,它必須具備一定的社會應用廣度與深度。

國內已經有公司開始積極嘗試。比如京東。根據公開報導,京東預計推出的產業版ChatGPT,將會聚焦垂直電商場景,專注零售和金融,預計參數量達千億級。

科技是現象,但科學是精神

人工智慧的追求目標,從1980年起在學術界分出兩種概念:

一類是為人類研發出更好的工具,在解決某種問題時表現出的智能行為,這是「弱人工智慧」;另一類則想讓機器模仿人類的思維,研發出各方面都比肩甚至超越人類的智能體,被稱為「強人工智慧」。

一種較為主流的觀點是,當前「弱人工智慧」為主的研究,不是「強人工智慧」的發展基礎,腦科學、神經生理學、認知科學的進步,似乎更可能觸及心靈和意識的奧秘。

這顯示出,對於任何技術疊代,最終落到商業、道德和法規層面,不論是信任問題或是有關創造力的討論,人們或許最疑問和焦慮的,都會指向,技術會不會產生自己的意識。

1995年,改編自日本漫畫家士郎正宗的動畫電影《攻殼機動隊》上映。電影講述了在「平行世界」的2029年,一個就像今天的ChatGPT一樣、負責收集和分析信息的軍用AI覺醒了自我意識,它被稱為「傀儡師」。高潮部分,傀儡師與黑客「素子」的電子腦相互連接,變得無法區分彼此。

2004年,「素子」在以2032年為時代背景的續作《攻殼機動隊2:無罪》中再次登場——曾經的搭檔認出了她,但工廠里的這個「素子」,身體是「借」來的,「意識」也只有下載了的一部分。已無從考量,這具體內的存儲數據,是來自「素子」的多還是來自「傀儡師」的多。

自然,當不遠處的2029和2032真得到來時,上述情景並不是我們希望看到的。當我們的造物如此接近於我們,當人工智慧和人不再那麼涇渭分明,人還剩什麼呢?

事實上,現實生活中,雖然ChatGPT的「聰明」令人吃驚又恐慌,但目前的ChatGPT並沒有通過圖靈測試——這被認為是決定人工智慧自我意識發展程度的關鍵。ChatGPT在回答中的事實錯誤、虛假陳述和錯誤數據遭到廣泛吐槽。對於自己是否有意識這一問題,ChatGPT的回答則相對讓人類安心,它說自己沒有意識也不具備感知、思考、自我意識或感情的能力。

每當「AI是否可能取代人」這類問題出現在公共討論中,人文學者似乎總是最不甘示弱的。《降臨》作者特德·姜認為,ChatGPT是網上所有文本的模糊圖像,它用類似壓縮的方式保留了網上大部分信息,丟棄大多數原始文本,並在需要時用算法重建丟失的「像素」。

這或許可以解釋,為什麼比起創作一篇小說或寫一篇原創散文,人工智慧更容易成為一個「詩人」,這是因為詩歌在形式上更加抽象,也更容易通過組合不同詞語實現模仿。

以對話方式進行交互是ChatGPT作為一個語言模型系統的關鍵,但它的對話內容常常會丟掉獨特的細節,留下共性,亦徒剩空洞。換個角度解釋,為什麼傳記文學經久不衰,因為人類始終在模仿英雄,我們也始終基於生存美學,思考我們應該如何過這一生。

自然科學無法包打天下,我們始終需要社會科學和人文科學去解釋更加複雜多變的現象。積極的案例,科技對人性的挖掘想要盈利,大多要落於有人情味的互動服務上。也有消極的案例,人性在與技術結合之後,當然可能會走樣。就像網際網路本來是助力全球化的,可帶來最終結果是逆全球化。決策權還是掌握在人自己的手上。

亦或者,「我們」又何嘗不是由不同的「技術」所構成的呢?因此,就像金庸先生並沒有讓覺遠和尚成為王語嫣那樣,ChatGPT令一些人擔憂,但人可以充分地適應和拓展,迎接變化——即便化為我們一部分的東西曾是我們所害怕的。

未來的目標,就是儘量別做「工具人」吧。畢竟,那是最容易被「工具」替代的。

所有以上,僅僅是今天的答案。但是,這是我理解的更像是一種精神的「科學」,我們始終在探索,自己是在什麼意義上談論科學和發展技術。

關鍵字: