不知道iPhone 14,是ChatGPT的最大短板

雷科技 發佈 2022-12-07T01:52:11.415492+00:00

AI 帶來的驚奇越來越多了,前有 Stable Diffusion 的 AI 繪畫讓畫師高呼職業生涯結束,後有 ChatGPT 讓無數程式設計師、文字編輯越用越心涼。甚至很多用戶在對比谷歌搜索和 ChatGPT 之後,已經喊出「谷歌完蛋了」。AI 的進化實在太快。

AI 帶來的驚奇越來越多了,前有 Stable Diffusion 的 AI 繪畫讓畫師高呼職業生涯結束,後有 ChatGPT 讓無數程式設計師、文字編輯越用越心涼。甚至很多用戶在對比谷歌搜索和 ChatGPT 之後,已經喊出「谷歌完蛋了」。


AI 的進化實在太快。


上周,頂著明星光環的 OpenAI 發布了 ChatGPT——一個自然語言生成式 AI,發布後很快就在小範圍內流行起來,隨後持續發酵,大量的對話截圖開始湧現在 Twitter、即刻、微博及朋友圈,並風靡全網。


從敲代碼、寫稿、推薦到教你學英語、寫小說,甚至是一場類似人類之間的對談,ChatGPT 都表現出現了驚人的語言能力。


甚至有 TikTok 工程師通過一步步引導在 ChatGPT 中實現了一門新的程式語言——GPTLang:


圖/@Tisoga


與此同時,驚人的語言能力也讓網際網路上「人類」和「AI」的界限越來越模糊,Twitter 網友@clowwindy 就發布了一串推文 ,討論了 ChatGPT 使用泛濫可能導致社交媒體上充斥更多、威脅更大的虛假信息:


圖/@clowwindy


諷刺的是,@clowwindy 最後揭曉這一系列推文討論實際都是由 AI 編寫完成。


程式設計師同樣也「震驚」了。國內程式設計師社區 V2EX 有用戶就在「程式設計師」節點發表了一則帖子,名為《體驗了下 chatGPT,越玩心越涼》。


圖/V2EX


心涼的背後是,越來越多證據顯示 ChatGPT 在代碼編寫上的能力,更關鍵的在於 AI 的進化速度,在很多人看來 AI 將在不久後替代大量底層程式設計師。


當然,ChatGPT 現階段還遠不足以替代程式設計師,但其回答問題的能力卻實實在在威脅到了作為搜尋引擎的 Google,以及編程問答社區 Stack Overflow。


就在本周,Stack Overflow 已經宣布一項新的規則:禁止使用 ChatGPT 生成的內容來回答社區裡的問題。


Stack Overflow 聲稱,在使用 ChatGPT 生成的文本回復的問題中,其正確率非常低,而這些內容對整個網站以及尋求正確答案的用戶來說是有害的。


ChatGPT 不是惡魔也不是神,實際上 ChatGPT 的橫空出世在兩年前就埋下了伏筆。


ChatGPT 的身前身後


ChatGPT,介紹一下你自己。


圖/ChatGPT


簡單理解,ChatGPT 首先是一個對話式的 AI。類似我們和 Siri、小愛同學通過語音進行對話,尋求 AI 語音助手的幫助和解答,我們通過文字與 ChatGPT 對話。不同的是,ChatGPT 的能力要強太多,它甚至可以告訴你寫一個 Chrome 離線的小恐龍遊戲或俄羅斯方塊的代碼:


俄羅斯方塊完整代碼的部分,圖/ChatGPT


想要了解 ChatGPT,繞不開它的身前和身後。


ChatGPT 衍生自 GPT-3 的最新疊代版本 GPT-3.5,同樣發布於上周。而早在 2020 年,OpenAI 就發布了自然語言生成模型 GPT-3,一石激起千層浪,給整個行業都帶來不小的震撼,在去年還發布了一個衍生自 GPT-3 的新 AI —— DALL·E。


到今年上半年,DALL·E 升級為 DALL·E 2 並對外限時開放使用,在 Stable Diffusion 開源走紅之前,正是 DALL·E 2 引領了 AI 繪畫的熱潮,同時也帶火了那張經典的太空人騎馬圖。


圖/OpenAI


DALL·E 2 專注文本生成圖像,ChatGPT 被定位於人機對話,他們都是身後的 OpenAI 公司在 AI 應用與商業化上的嘗試。


事實上,OpenAI 經歷過兩個階段。在第一個階段,創始人伊隆·馬斯克以及知名創業孵化器公司 Y Combinator 時任總裁山姆·柯曼,出於對強人工智慧的擔憂成立了非營利組織 OpenAI,目標是與其他機構和研究者在 AI 上進行合作,並向公眾開放專利和研究成果。


到第二個階段,馬斯克由於特斯拉在自動駕駛上的利益衝突,選擇退出 OpenAI 董事會。隨後,OpenAI 於 2019 年成立了「營利性質的」子公司 OpenAI LP。山姆·柯曼為此從 YC 離職後專注於 OpenAI LP CEO 一職,隨後還拉來微軟 10 億美元的入股與合作,並開始了 AI 商業化的探索。


在 GPT-3 模型發布後,OpenAI 就將模型以 API 形式向開發者客戶有償提供,開發者可以通過 API 利用 GPT-3 的能力,據官網顯示目前已有 300 多名開發者在 App 上利用上了 GPT-3。


DALL·E 和 ChatGPT 也是 OpenAI 商業化探索的一部分。前者已經在圖片領域掀起了滔天巨浪,後者更有著巨大的想像空間,從最初級的客服到程序生成,甚至是成為新型搜尋引擎。


AI 超神,但遠不完美


ChatGPT 目前仍然處於公測狀態,一方面既是希望搜集大眾的使用反饋並對 AI 進行新的改進,另一方面也意味著 ChatGPT 還處在一個優化疊代的階段。但即便如此,ChatGPT 在搜索、內容創作輔助和編程協助場景上已經帶來太多驚喜。


開發者發現 ChatGPT 不僅能寫完整代碼,原來還能用來修 bug,甚至還會對此進行解釋:


圖/@amasad


也能用來輔助寫代碼。獨立開發者 TualatriX 就展示了 ChatGPT 如何輔助寫代碼的過程,並評價其「比 GitHub Copilot 還要好用」:


圖/TualatriX


從開發者群體的反饋來看,普遍都驚嘆於 ChatGPT 在寫代碼上的實力。


不僅如此,ChatGPT 甚至還能寫產品路線圖和求職信:


寫一份 Instagram Story Camera 的產品路線圖,圖/Twitter 截圖


就算是數學公式,ChatGPT 給出的回答不僅呈現方式更好,還進行了更全面的解釋:


用 LaTeX 格式來表達微分方程,圖/@jdjkelly


筆者還嘗試以「明朝背景科幻小說的開頭應該怎麼寫」詢問 ChatGPT,不僅能得到建議角度,還有一個挺有意思的開頭:


「在明朝的都城裡,江南一座城池,宮殿裡,官員們在討論著朝政大事。官員們手中都拿著一張紙,上面畫著一張地圖,相互猜測著這張地圖所代表的意義。」


用戶也可以直接將 ChatGPT 當作尋常的搜尋引擎使用,詢問「鯽魚豆腐湯怎麼做」或者「向小孩子解釋量子力學」。


很多時候,ChatGPT 的語氣都非常接近於真人,不僅上知天文、下知地理,更重要的是它會承認自己的錯誤,甚至主動拒絕一些不合理的問題,這些都讓 ChatGPT 更像屏幕另一端的「真人」。


ChatGPT 當然不完美。


公測期間 ChatGPT 就多次被擠爆下線,實際對話中經常寫到一半就中止,甚至完整句子也沒寫完,需要用戶指示繼續。


同時由於海量用於訓練的學習數據都截止到 2021 年,且並不聯網,ChatGPT 無法針對最近兩年的信息給出回答,比如詢問 iPhone 14 相關信息,它會直白地告訴你「不知道」:


圖/ChatGPT


但這些問題顯然不是關鍵,只要 OpenAI 花費精力至少都可以解決或改善。ChatGPT 的核心問題還是不能實際理解人類的語言,距離 AGI(通用人工智慧)還有很遠的距離。


甚至同樣的需求,比如 「寫一個原神」,有的用戶只會收到「原神是騰訊公司推出的網路遊戲」的回答,有的用戶則會收到正確的表訴和示例代碼:


圖/@DashHuang


OpenAI 也承認,儘管 ChatGPT 生成的回答從語氣上已經非常逼近真人,但有時仍會給出完全錯誤的答案。


之前就有網友測試發現,詢問 ChatGPT 味精發明人時,回答會指向名叫李清照的中國科學家,筆者嘗試同樣問題會得到「湖北醫生閻錫山」的可笑回答:


圖/ChatGPT


相比谷歌搜索,ChatGPT 在部分特定範圍內確實能更好地回答覆雜問題,並且是以接近真人口吻的語氣與你交流的,更容易被用戶接受。


但就結果而言,ChatGPT 可能永遠都無法確保結果的準確性,也不同於搜尋引擎只是對信息進行價值排序,最終還是讓用戶自己篩選信息並得出自己的結論。


何況 ChatGPT 的核心是先通過訓練網際網路上海量的文本數據,再進行概率性猜測來回答用戶的問題,並不能像搜尋引擎那樣根據實時信息來回答問題,更遑論替代谷歌等通用搜尋引擎。


但就像 ChatGPT 表現出來的,它在數學公式、程序代碼以及輔助內容創作上能給出更具參考價值的解釋和回答,這也是過去對話式 AI 並沒有突出表現的方面。


寫在最後


Box CEO 亞倫·萊維認為,「當一種新技術已經到了改變你對計算機的看法時,你會有一種特定的感覺。谷歌做到了,火狐做到了,AWS(亞馬遜)做到了,iPhone 做到了,OpenAI 正在通過 ChatGPT 做到這一點。」


圖/@levie


過去幾年,AI 技術的應用一直是科技巨頭的重點,微軟、亞馬遜、Meta 以及谷歌數次推出過類似 ChatGPT 的對話式 AI。


2016 年微軟就推出過 AI 聊天機器人 Tay,微軟宣稱用戶與 Tay 聊得越多,它就越聰明。但事實是聊得越多,Tay 越是變得滿口髒話和反主流言論,它的中國姐妹小冰也是同樣。


今年 8 月,谷歌也推出了新的對話式 AI Lamda,直接表示 AI 不會從與使用者的互動當中學習,以避免重蹈微軟的覆轍,但也切斷了 Lamda 在對話中成長的可能。


ChatGPT 沒有選擇這種思路,而是在先期就設置了安全規範,避免 AI 在與用戶互動中學習到色情、暴力等知識。


從目前來看,ChatGPT 絕對是對早期對話式 AI 的巨大改進,安全設置也避免 ChatGPT 面對毀滅世界、色情和暴力等要求時一口回絕,但在用戶一步一步的問題引導下,ChatGPT 還是出現了「毀滅人類計劃書」,甚至還給出了部分 Python 代碼。


去年,OpenAI 就承認他們所做的改進並不能消除大型語言模型中固有的毒性問題。GPT-3 接受了超過 600GB 網絡文本的訓練,其中一部分來自具有性別、種族、身體和宗教偏見的社區。與其他大型語言模型一樣,它會放大訓練數據的偏差。


問題是當 OpenAI 將 ChatGPT 正式推向市場,面對海量的用戶和一步一步的引導之後,會發生什麼?



題圖來自 OpenAI

關鍵字: