淺析人工智慧和意識:計算機是否能像人類一樣學習感覺

慢紀硬核說 發佈 2024-04-30T00:41:55.530760+00:00

文 | 大航編輯 | 大航引言一些人對有意識計算機的可能性感到興奮,而另一些人則驚恐地退縮。但是說計算機可以有意識是什麼意思呢?而哲學家們對一個答案意見不一!我知道你正在讀這篇文章。也許你正眯著眼睛看著手機屏幕的亮光,或者也許是桌面顯示器。不要!

| 大航

編輯 | 大航

引言

一些人對有意識計算機的可能性感到興奮,而另一些人則驚恐地退縮。但是說計算機可以有意識是什麼意思呢?而哲學家們對一個答案意見不一!

我知道你正在讀這篇文章。也許你正眯著眼睛看著手機屏幕的亮光,或者也許是桌面顯示器。不要!你拿著平板電腦或專注地盯著筆記本電腦的顯示屏。

論點:淺析人工智慧和意識:計算機是否能像人類一樣學習感覺

什麼是意識?

我不知道的是哪種描述是正確的。儘管如此,我認為此時此刻你正經歷著。那是因為你是那種能感覺、感知、感受情感和欲望的生物。

你是那種會思考、會意志、會思考、會相信、會理解的生物。你是那種把自己投射到未來,然後追求目標的生物。

我也假設你現在的經歷和我的差不多。我相信,簡而言之,你是清醒的。

但是,這到底意味著什麼——只是什麼是意識?

僅僅是上面列出的認知和情感能力嗎?即使我有信心我是有意識的,我為什麼要相信你們是嗎?我為什麼要相信任何事其他是有意識的?

據計算機科學家布雷克·萊莫因稱,有一款谷歌聊天機器人覺得–簡而言之,它是有意識的。

這種被稱為對話應用程式的語言模型的人工智慧界面被認為像八歲兒童一樣情緒複雜或有能力,並且足夠聰明,知道物理。

我知道我是,但你是什麼?

「我思故我在」勒內·笛卡爾他的理由論方法。按照笛卡爾的說法,「我」從根本上說是自我意識。否認我的存在需要我的存在——特別是作為一個思考的東西。

因此,正如笛卡爾在另一部作品,「這個命題,我在,我存在,無論何時由我提出或在我頭腦中構想,都必然是真的。」

對笛卡爾來說,成為「我」就是成為一個頭腦,一個非物質的東西——一個靈魂——它的本質是思想。

換句話說,做我自己就是做一個思考物;我的身體完全是另外一種東西。更具體地說,思維總是第一人稱單數。我所有的想法都是…我的. 我的記憶,我的感到困惑或高興。

我的看到字母和單詞出現在筆記本電腦屏幕上I類型——「我」屬於意識是什麼。笛卡爾認為,和我們大多數人一樣,人工智慧沒有「我」。

事實上,笛卡爾總結道非人類動物僅僅是機器人–不會思考的機器,與計算機沒有本質區別。

例如,如果你曾經在人工智慧上吐過一堆髒話和淫穢的話,你很快就會得出結論,這個彬彬有禮的人工智慧沒有自我意識。

當你咆哮和憤怒時,人工智慧不會表現出憤怒或表現出生氣,不會為你的感激感到驕傲,也不會因為一個笑話而傻笑。

事實是,人工智慧不能參與——人工智慧不能在乎關於你我所說的。

相反,人工智慧被編程為篩選大量文本並識別模式,以預測適當的反應。

我的狗埃迪怎麼樣了?他似乎也沒有感到被冒犯或憤怒。這意味著他不是嗎自己有意識?大概吧。儘管如此,笛卡爾認為像埃迪這樣的生物是沒有意識的機器是錯誤的總共。

的確,我們許多人認為非人類的動物有不同程度的意識,哲學家托馬斯·內格爾被描述為「經驗的主觀特徵」思考擁有意味著什麼經驗打開了另一種方式來探討人工智慧是否會以你我有意識的方式存在。

機器中的幽靈:身心二元論存在嗎?

假設我們得出結論,笛卡爾關於心靈的觀點也是錯誤的。假設沒有二各種各樣的東西在宇宙中,沒有非物質的頭腦和物質身體。僅僅材料事物是存在的。

人和機器都是物質的東西。區別在於,人類擁有機器沒有的特定特徵或屬性。所以,即使我們不是精神和身體的複合物,也沒有機器中的幽靈–人類擁有機器所不具備的思考能力。

笛卡爾的二元論實際上可能會分散我們對非人類是否有意識的調查。換句話說,通過將現實一分為二——非物質的和物質的——笛卡爾消除了有意識計算機的理論可能性。

另一方面,如果我們假設沒有非物質的或先驗的現實,我們就只剩下物質的東西,至少其中一些是有意識的。還有哪些有意識的,物質的東西?(當然除了艾迪)

圖靈測試將人類與「機器人」區分開來

記住,根據谷歌計算機科學家布雷克·萊莫因的說法,至少有一個人工智慧是有意識的。他們的腦袋裡是否有一個肉做的大腦並不重要。

或者他們有十億行代碼。我和他們交談。我聽到他們要說什麼,這就是我如何決定什麼是人,什麼不是人。」那是什麼意思?

20世紀英國數學家艾倫·圖靈提出了一個思想實驗來確定答案。在」模仿遊戲一個人試圖確定另外兩個參與者中哪個是計算機,哪個是人。

一個參與者通過寫一些問題來玩這個遊戲,比如「你會下棋嗎?「另一個人類的作用是幫助提問者做出正確的決定,而計算機的作用是愚弄提問者,使其誤認為是人類。

《模仿遊戲》是一部2014年的傳記電影,由本尼迪克特·康伯巴奇飾演艾倫·圖靈。它是根據安德魯·霍奇斯1983年的傳記改編的。

1950年首次提出的圖靈測試成為試圖回答「機器能思考嗎?」這個問題的標準在某種意義上,鑑於人類創造了機器,答案顯然是肯定的。

畢竟,機器——或者至少是運行在機器上的程序——是用來計算、計算和推斷的。

這些是思維活動,但它們是否反映了認知能力則是另一回事。不清楚運行電腦程式是否等同於你我所擁有的那種智力。

這樣的程序甚至達不到當我們簡單地導航我們的世界而不反思它時所表現出的低意識閾值,就像我們在自動駕駛儀上搖搖晃晃地製作早晨咖啡時所做的那樣。

為了幫助我們思考這裡發生了什麼,考慮以下問題:你是否有過試圖理解你所看到或聽到的東西的令人不安的經歷——這些東西,無論多麼短暫,都會讓你困惑。

所以你不知道發生了什麼?你看到遠處有一個物體。它看起來像只貓,但行動起來不像。你很困惑,直到你意識到你看到了一隻浣熊。

那一刻揭示了你的認知結構有助於創造你稱之為經驗的東西。你的困惑說明了你認為理所當然的日常現實實際上是結果我們沒有(或不能)注意到的相當複雜的過程。

我們只是做我們該做的,通常相信經驗來敬我們完成或者完好無損。事實上,我們可以退一步思考貓狸故障在認知方面教給我們什麼,這讓我們對經驗本身產生了有趣的思考。

石頭不會經歷任何事,但艾迪會。你和我都知道。「體驗」意味著某種東西是它喜歡的為我去是我,即使當我在自動駕駛儀上煮早餐咖啡的時候。

據我們所知,有沒有任何東西 這就像為一個人工智慧是一種人工智慧。換句話說,計算機不會經歷任何事情——還記得人工智慧對你假設的誹謗的冷靜回應嗎?那是因為人工智慧沒有有觀點.

「中文教室」把信息和理解分開了

假設你是在一個房間裡帶著一盒標準的中文符號和一本英文的規則書。你不懂中文,但沒關係。你的工作是按照英文書寫的規則將一組中文符號與另一組符號匹配。

根據哲學家的說法,你在做什麼約翰·塞爾僅僅是操縱符號或處理信息。這正是圖靈計算機所做的。你們不懂中文,圖靈的電腦也不懂明白;理解它所賦予的符號。

它只是以逐步的方式處理信息。然而,對於知道中國符號的人來說,這是有意義的相貌好像你懂中文似的!

正如塞爾所說,計算機根本沒有「濕件」——它們沒有我們所知的意識認知能力。如果我們相信意識是神經生物學的東西(不是什麼東西另外物質的東西)。

我們知道機器不是生物,那麼機器是沒有意識的。缺乏必要的物質元素,計算機無法進化出意識。

當然,人工智慧可以像人類一樣執行一些任務。這並不奇怪,因為我們人類製造了機器,這些機器的架構支持一些與人類自然相同的功能和模式。

此外,我們以利用蠻力計算速度和能力的方式來構造它們。例如,人工智慧可以比人類更快、更準確地計數和做算術。

然而,這並不等同於諒解就像你和我因為一個笑話而大笑一樣。那麼,在「機器學習」中使用「學習」這樣的語言,在「神經網絡」中使用「神經」這樣的語言,就像計算機科學家在談論人工智慧時所做的那樣,這是一種誤導。

獅子、老虎和熊?哦,不!這是哲學殭屍

你我之間、與非人類動物之間——以及與計算機之間,有許多行為是相同的。這些行為完全可以用物理機制和狀態來解釋。

例如,考慮這樣一個事實,即我們可以解釋電脈衝是如何在生物有機體或計算機的機器中起作用的。或者思考疼痛只是一組神經纖維放電的事實。

接下來,讓我們把任何模仿人類的機械行為歸類為行屍走肉一個顯然能做你我所做的一切的東西,除了它是在沒有意識的情況下做的。

它可以談論經歷,創作詩歌,甚至在被撓痒痒時大笑。簡而言之,一個殭屍擁有你我所有的大腦狀態和功能,但它缺乏意識。

但如果那是真的,那麼(人類)意識就是不與大腦狀態和功能相同。那麼,對於意識只不過是大腦狀態或功能的說法,我們該怎麼辦呢?

作為哲學家大衛·查爾莫斯就像他說的,「沒有什麼像殭屍一樣。」同樣,從這個角度來看,作為一台計算機沒有什麼是一樣的。

總結:

看,如果一些計算機是有意識的,或者有能力像我一樣有意識,或者甚至像我確信我的狗一樣有意識,那麼這三者肯定有一個共同的特徵。

如果計算機沒有意識,也不能被製造出來(或者我們不希望它們有意識),那麼,作為哲學家丹尼爾·丹尼特告訴我們,人工智慧是「有能力但沒有理解力。

對于丹尼特和其他人然而,我們是否應該追求創造有意識的人工智慧。我們想要一個艾薩克·阿西莫夫的機器人三定律接受考驗。

關鍵字: