原創 | ChatGPT有什麼缺陷?看他自己的回答

數據派thu 發佈 2023-10-26T10:14:45.161866+00:00

作者:林嘉亮本文約2400字,建議閱讀8分鐘本文通過向ChatGPT提問的方式,綜合筆者的知識,整理出ChatGPT幾大缺陷的表現,分析其內在的技術性原因,可能產生的後果,並提供了相關的應對措施。2022年11月,OpenAI研發的ChatGPT震撼發布。

作者:林嘉亮

本文約2400字,建議閱讀8分鐘

本文通過向ChatGPT提問的方式,綜合筆者的知識,整理出ChatGPT幾大缺陷的表現,分析其內在的技術性原因,可能產生的後果,並提供了相關的應對措施。


2022年11月,OpenAI研發的ChatGPT震撼發布。ChatGPT可以高質量地回答各類問題、例如整合匯總文獻、完成學生作文、譜寫樂曲、撰寫詩詞歌詞劇本、編寫和調試代碼、模擬各種終端甚至Linux系統。在發布後的短短兩個月左右,ChatGPT就達到了一億用戶規模,同時引起了工業界和學術界等各方面的重大反響和討論。Bill Gates認為ChatGPT的重要性堪比Internet的發明,「會改變我們的世界」。


ChatGPT以其強大的回答效果驚艷眾人,但也有其天生的內在缺陷,本文通過向ChatGPT提問的方式,綜合筆者的知識,整理出ChatGPT幾大缺陷的表現,分析其內在的技術性原因,可能產生的後果,並提供了相關的應對措施。


無法提供實時信息


表現


ChatGPT不能提供最新的、實時的信息,它的回答基於過去的知識,不具備獲取最新新聞、實時數據和其他動態信息的能力,無法掌握某個主題的前沿動態和提供其實時情況相關的詳細內容,可回答的知識範圍有明顯的時間邊界。


技術性原因


人工智慧模型有特定的訓練數據截止日期,ChatGPT通過在大規模文本數據上進行預訓練生成回答,這些數據是在過去收集的,具體截止至2021年9月,這意味著它無法了解截止時間之後發生的事件和信息。同時,ChatGPT無法直接連接到實時數據源,如新聞網站、社交媒體、論文資料庫等,以獲取最新的信息,所以它只能使用預訓練模型中已經存在的知識和語言模式生成回答。


後果


ChatGPT可能提供不準確或過時的回答,這會導致用戶收到不準確的指導、信息或建議。特別是對於新的法律法規、政策制度、研究成果、新聞事件,ChatGPT依據舊的數據訓練而成的模型作出不符合最新情況的回答,可能會引導用戶做出錯誤的決策或產生誤解。


應對措施


除了ChatGPT,用戶可以通過其他渠道和工具來獲取實時信息,這包括查閱官方網站、新聞網站、社交媒體、專業論壇、使用包括new Bing在內的搜尋引擎等,以獲取最新的信息和觀點。對於特定領域的問題,用戶可以諮詢相關領域的專業人士或專家,以獲取準確和實時的信息。在ChatGPT提供的信息上,用戶應該進行自主驗證和交叉檢查。通過查閱多個來源、對比不同觀點和驗證事實,以判斷信息的準確性和時效性。


缺乏對現實世界的理解


表現


ChatGPT只能處理概念空間的問題,無法解決現實空間的問題。其局限於對文本輸入的處理和生成回復,無法直接感知和理解現實世界的各種如視覺、聽覺、觸覺等感官信息,沒有與現實空間交互的能力。


技術性原因


ChatGPT基於文本數據進行訓練,訓練數據主要捕捉的是書面內容,它沒有直接接觸和學習其他如圖像和聲音之類的感官數據。然而,文本數據並非現實世界的完美代表,並不能完整地代表現實世界的經驗。另外,ChatGPT不具備視覺、聽覺、觸覺、味覺和嗅覺等物理感應器,因此ChatGPT很難形成對現實世界的真正理解。


後果


ChatGPT無法提供準確的信息或解答需要具體感知的問題。例如,對於關於外觀、顏色、聲音等的問題,ChatGPT可能只能給出基於文本數據的猜測。ChatGPT無法真正體驗情感或情緒,它生成的回覆可能缺乏情感支持或情感理解。這可能導致用戶在尋求情感支持或理解時感到失望或不滿。這些情況限制了用戶與ChatGPT的交互方式和體驗。


應對措施


用戶在與ChatGPT交互時,應儘可能明確和具體地表達問題和需求。如果問題涉及到圖像、聲音、觸覺等感官相關的內容,可以儘量提供更詳細的描述,以幫助ChatGPT更好地理解。用戶可以藉助現有的輔助工具彌補ChatGPT缺乏感官理解的限制,例如,對於圖像相關的問題,用戶可以使用圖像搜尋引擎或圖像描述工具來獲取更準確的信息。用戶也可以使用更新的GPT-4V(ision)之類的large multimodal models,該模型已經可以處理圖像輸入。


沒有價值觀


表現


ChatGPT沒有價值觀和自主意識,無法根據固定的價值觀回答觀點性問題,可能提供不符合特定國家和地區價值觀的建議。ChatGPT可能會重複或放大訓練數據中的偏見、歧視性內容和非法信息,從而在回答中表現出歧視性言論、傳播不恰當言論,對某些群體或個人進行攻擊或辱罵,甚至提供不符合當地法律法規的建議。


技術性原因


ChatGPT使用reinforcement learning from human feedback(RLHF)的方法為輸出的答案排序,所體現的是人類的價值觀。但人類的價值觀是分裂的,不同國家、民族、性別、階層的人都有不同的價值觀。這是RLHF方法與生俱來的缺陷。


後果


ChatGPT的回答可能會和用戶本身的價值觀產生衝突,也可能提供違反用戶所處國家和地區法律法規的建議,從而錯誤引導用戶作出不恰當的決策和行為。


應對措施


在與ChatGPT進行交互時,用戶應保持批判性思維並對其回答進行評估。不要盲目接受ChatGPT的回答,而是對其提供的信息進行驗證和核實,尤其是在涉及重要決策、敏感話題或價值觀問題時。用戶應不僅僅依賴於ChatGPT的回答,還要尋求其他來源的信息和意見。通過與多個人對話、查閱可靠的資料和諮詢專業人士,可以獲得更全面和多樣化的觀點,以幫助自己做出準確和明智的決策。用戶還應了解人工智慧的局限性和倫理問題,提高對技術的意識和理解,可以更好地應對ChatGPT沒有價值觀的情況。


存在隱私和數據安全隱患


表現


ChatGPT提供的回答可能包含非授權信息,使用ChatGPT時可能泄露用戶相關信息。


技術性原因


ChatGPT需要大量數據訓練和提高其性能。這些數據包括公開數據,但公開數據並非全部是授權數據,訓練數據也可能包括用戶輸入,其中可能包含個人信息、敏感數據,甚至是涉密信息。由於與ChatGPT的交互必然會將用戶輸入提交至其伺服器,所以OpenAI必然可以獲取用戶的輸入數據。


後果


基於非授權數據生成的回答可能包含非授權信息。用戶的輸入可能泄露個人敏感信息或機密數據,例如姓名、地址、電話號碼、銀行帳戶等。這可能會導致個人隱私被侵犯或數據被濫用,例如用於追蹤用戶行為、進行廣告定向等,甚至可能被用於身份盜竊、釣魚攻擊、垃圾郵件等。機密數據的泄露可能對相關組織、甚至國家安全產生嚴重的後果。


應對措施


在與ChatGPT進行交換時,應確保不向其提供個人敏感信息或機密數據。避免在對話中透露個人身份、財務信息、家庭地址等敏感內容。如果確實要使用ChatGPT進行相關數據的處理,可以在使用前先進行脫敏操作,並使用虛擬身份、匿名帳號或匿名瀏覽器等方式進行交互。


總結


總體來說,用戶在使用ChatGPT的同時,應該注意ChatGPT由於技術性原因所導致的內在性缺陷,採取相應的應對措施,以更好地享受人工智慧所帶來的服務和便利。

關鍵字: