ChatGPT能產生自主意識嗎?

活在信息時代 發佈 2024-03-28T17:43:57.020856+00:00

隨著ChatGPT的火爆,人們對於人工智慧的熱情再度被點燃起來。擁有一個人造智能體,一直是人類長久以來的夢想,很多科幻作品裡面,都有各種機靈可愛的小機器人情況。甚至在《流浪地球2》裡面,機器狗還自己有恐懼的情緒,還需要人們把它踢下去才會進入危險區域。

隨著ChatGPT的火爆,人們對於人工智慧的熱情再度被點燃起來。擁有一個人造智能體,一直是人類長久以來的夢想,很多科幻作品裡面,都有各種機靈可愛的小機器人情況。甚至在《流浪地球2》裡面,機器狗還自己有恐懼的情緒,還需要人們把它踢下去才會進入危險區域。

雖然ChatGPT被很多人玩出了各種花樣,仿佛眼看就具有自己的意識了。但是實際上答案可能讓人們失望,ChatGPT本質上還是一堆人為訓練的模型而已,它只是通過人類提供的多達45TB的訓練材料,經過各種提問和反饋的過程,最終通過概率論的方法,給出一個最大可能的答案而已。還遠遠說不上能夠生產自主意識。換句話說,ChatGPT完全不知道自己在說什麼,他只是機械的根據你的提問,從自己的存儲材料中,找出最大概率的應答方式並且將其組織起來而已。


那麼,究竟什麼樣的情況才能產生真正的具有自我意識的人造物體呢?遺憾的是,科學界對此依然沒有定論。

在量子力學經理的「哥本哈根詮釋」中,「意識」與「物質」是一個互補的兩個方面,他們認為,意識並非物質的衍生物,而是獨立於物質之外的一種存在,儘管它需要物質才能維持運轉。這種理論被稱為Big-C理論。

而另一種相反的觀點則認為,意識是源於生物學上的產物,正如生物學來源於化學,而化學又來源於物理學那樣。這種觀點被稱為意識的Little-C理論。這一理論與神經生物學家的觀點相符,他們認為意識的活動與大腦的狀態及活動相一致。同時,這種觀點也在很多人的大腦發生變化之後,性情大變這一現象被普遍觀察到之後,得到了印證。

但是,意識是否是一種基於底層物理現象的微觀作用的宏觀表現,目前依然是未知的問題。考慮到雖然人們已經造出了多種極其精密的儀器,但是在奇妙的生物世界面前,依然束手無策。我們可以在先進的工廠中,造出一架橫跨大洋的飛機,卻無法造出一隻普通的,讓人討厭的蒼蠅,而製造一群蒼蠅,也只需要一個糞坑而已。

人們或許總在盲目自信或自大,但在自然的偉力面前,我們還很幼稚。

喜歡本文的話,歡迎關注活在資訊時代哦:)

關鍵字: