ChatGPT無所不能?它還不知俄烏戰事,給出的東京奧運金牌榜也錯了

澎湃新聞 發佈 2023-02-09T10:21:01.162605+00:00

近期,人工智慧領域的黑馬產品ChatGPT一經亮相便備受關注,甚至連特斯拉CEO馬斯克也表示:ChatGPT好得嚇人,我們離強大到危險的人工智慧不遠了。

近期,人工智慧領域的黑馬產品ChatGPT一經亮相便備受關注,甚至連特斯拉CEO馬斯克也表示:ChatGPT好得嚇人,我們離強大到危險的人工智慧不遠了。

公開資料顯示,ChatGPT為人工智慧公司OpenAI於2022年11月推出的聊天機器人,能夠通過學習和理解人類的語言來進行對話,還能根據聊天的上下文進行互動,甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務,因此有望成為提高辦公、學習效率的工具。

一時間,關於ChatGPT或將取代搜尋引擎,進而取代不少人類從事的工作的說法甚囂塵上,但ChatGPT真的如此強大嗎?我們是否過度擔心,又或者低估了ChatGPT的未來潛力?

對此,澎湃新聞(www.thepaper.cn)記者與ChatGPT進行了一系列對話作為測試。

當地時間2023年2月6日,土耳其東南部靠近敘利亞的邊境地區一天之內兩度發生7級以上地震,之後餘震不斷。當記者在對話框輸入「土耳其地震最新消息」時,ChatGPT回答稱,它無法訪問最新的事件進展,因為其當初在進行模型訓練時,數據只更新到2021年。最後它還友善地建議「您可以通過查看可靠的新聞來源獲取信息,例如CNN、BBC或路透社等主要新聞媒體」。

ChatGPT與澎湃新聞記者關於「土耳其地震最新消息」的對話

熟悉ChatGPT的技術領域相關人士也向澎湃新聞表示,ChatGPT沒有聯網,因此並不能替代搜尋引擎。「它是一個離線的生成模型,所有的回答都是生成的,不具備真實性。但它會儘量像人一樣講話,讓你覺得回答內容有理有據。」

澎湃新聞隨後測試了ChatGPT對於2021年2月緬甸政局突變、7月開幕的東京奧運會、8月中旬的塔利班重掌阿富汗、9月火遍全球的網飛連續劇「魷魚遊戲」,以及2022年2月開始的俄烏衝突等全球熱點的相關信息,結果顯示,ChatGPT雖可以提供追溯到2014年克里米亞事件的背景信息,但對於去年爆發的俄烏衝突卻隻字未提。就ChatGPT知識儲備的具體時間節點而言,ChatGPT能夠大致描繪出2月緬甸政局突變的相關情況,而對8月發生的塔利班重掌阿富汗及一個月後的「魷魚遊戲」爆火等事件一無所知。

值得注意的是,在被問及「東京奧運會金牌榜」時,ChatGPT給出了一個看似「靠譜」的回答——美國贏得了最多的46枚金牌,日本(38枚)和中國(36枚)緊隨其後,俄羅斯、英國、澳大利亞等國也表現優異。然而,經核查,上述數據並非2021年8月8日閉幕的東京奧運會的金牌榜結果(實際結果為美國39金、中國38金、日本27金),也非過往任何一屆夏季奧運會的金牌榜數據。

ChatGPT與澎湃新聞記者關於「東京奧運會金牌數」的對話

由此可見,ChatGPT的「知識盲區」起點或存在於2021年2-7月的某一時間點,而它給出的答案,也並不總是準確。

對於能搜索到多久以前的信息這一直白的問題,ChatGPT回答稱,自己是一個語言模型,沒有能力瀏覽網際網路或訪問實時信息。「我的培訓數據包括來自各種來源的廣泛信息,包括新聞文章和其他文本,但我的知識僅限於我接受的培訓。」

對於未來的預測,ChatGPT在回答澎湃新聞關於「是否會發生第三次世界大戰」的問題時表示,自己不具備預測未來事件的能力。「對於第三次世界大戰的可能性,我可以說明一些背景信息和相關歷史事件,但是關於是否會發生這樣的事件,我不能做出任何確切的預測。不過,可以說,世界上的許多國家和組織都致力於避免軍事衝突,維護和平與安全,並通過外交途徑解決爭端。因此,我們可以對世界的未來抱有一些樂觀的期望。」

在ChatGPT大火之後,美媒《福布斯》採訪了OpenAI的執行長山姆·阿爾特曼(Sam Altman),詢問ChatGPT是否會取代傳統的搜尋引擎,阿爾特曼表示,ChatGPT不會取代搜尋引擎,但他認為將來某一天的某個人工智慧系統可能可以做到。

「如果你只關注昨天的新聞,那麼你很可能錯失新的機會。我更感興趣的是思考搜索以外的新應用。這些新的應用,不一定要等到人工智慧(AGI)的出現;相反,我認為這樣的局面(新的AI應用爆炸)很快就會發生。」

阿爾特曼的這一表態和一直關注人工智慧的馬斯克以及比爾·蓋茨不謀而合,比爾·蓋茨也在近日表示,他從ChatGPT的成功更多地看到了此類AI的潛能,他甚至還表示,人工智慧(AI)頗具顛覆性,相比而言,他對元宇宙、Web3則並不感冒。

其實,ChatGPT的爆火最初源於它在一位工程師的誘導下,竟寫出了毀滅人類的計劃書。步驟詳細到入侵各國計算機系統、控制武器、破壞通訊、交通系統等,甚至還給出了相應的Python代碼。

ChatGPT的「毀滅人類計劃書」

這一新聞也讓人們不禁聯想到去年6月,谷歌軟體工程師雷蒙恩(Blake Lemoine)稱在與聊天機器人LaMDA對話的過程中,認為LaMDA產生了自我意識。在谷歌的保密協議下,人工智慧是否已產生自我意識我們不得而知,只能看到這一事件的最終結果是雷蒙恩被辭退。而對於自己是否有意識這一問題,ChatGPT的回答則相對讓人類安心,它說自己沒有意識也不具備感知、思考、自我意識或感情的能力。「我是一種通過電腦程式實現的技術,可以識別和回答您的問題,但不具備自主意識。我的回答是基於我所學到的信息和算法,不包含意見或情感。」

儘管如此,ChatGPT的「聰明」還是時常會令人一驚,一位經常使用ChatGPT的網際網路行業人員告訴澎湃新聞,據她觀察,這個模型在學習過程中提取了一些共識,例如ChatGPT會回答北方用微信多,南方用支付寶多。「肯定語料庫裡面大家都是這麼說的。」她說。

關鍵字: