破壞力堪比車諾比 人工智慧失控在科學家眼中究竟有多可怕?

科創板日報 發佈 2024-01-19T07:59:59.399807+00:00

根據美國史丹福大學的一份年度報告,接受調查的人工智慧領域研究人員中,很多人承認人工智慧將變成人類社會的分水嶺,但其中36%的專家認為這項技術帶來的影響未必是積極的。

財聯社4月11日訊(編輯 馬蘭)人工智慧的快速發展掀起了全球對技術的狂熱追逐,然而在許多專家眼裡,變化發生得太快可能會對世界造成災難性的影響。

根據美國史丹福大學的一份年度報告,接受調查的人工智慧領域研究人員中,很多人承認人工智慧將變成人類社會的分水嶺,但其中36%的專家認為這項技術帶來的影響未必是積極的。

人類造物超越人類?

報告中指出,隨著創建和部署生成式人工智慧的門檻大幅降低,人工智慧的倫理問題將變得更加明顯。因為初創企業和大公司都在競爭開發自己的模型,這意味著這項技術不再由一小群參與者控制,這讓監管也變得更加困難。

而谷歌和微軟「軍備競賽」式的競爭,也讓這個行業進入更加高速的發展車道。在另一方面,這也代表著不願嘗試的公司或個人將被人工智慧行業迅速丟下,這樣一來,所有人都被裹挾向前,別無選擇。

在史丹福大學的調查中,57%的研究人員贊同,以目前的發展速度,大量研究正在從生成人工智慧轉向創造通用的人工智慧(AGI)。業界認為AGI的出現需要50年或數百年,而一些人則質疑是否存在真正的AGI。

可怕的猜測在於,一個真正AGI很可能伴隨著人類失去對技術發展的控制。

AGI本身可以準確模仿甚至超越人腦能力。作為人類的創造物,人工智慧反而獲得超越人類的智慧,這在58%的受訪問研究人員心中是一個巨大的問題。

另一場「車諾比」

加州大學巴克萊分校的計算機科學教授Stuart Russell警告,不受約束的人工智慧可能會帶來車諾比式的災難。

Russell數十年來一直是人工智慧領域的領軍人物,但他也是與馬斯克聯合呼籲暫停開發人工智慧的名人之一。

他強調,人工智慧發布者必須保證其開發的系統可以安全運行,並證明該模型符合相應的規定。就好像是建造一座核電站,建設者必須向政府證明其安全性:其不會在地震中泄漏,也不會像車諾比那樣爆炸。

Russell認為創建新的人工智慧模型與生產客機和建造核電站一樣,只要出現一點小問題,就會對世界產生災難性影響。

此外,專家們還很緊迫的擔憂是,人工智慧當前的研究過於關注商業化和實現目標,而犧牲了聽取不同研究領域見解的時間和精力,這可能不利於解決人工智慧倫理問題。

關鍵字: