圖片來自《終結者》
「電影《終結者》中的情境會不會發生?」
英偉達市值一度超過萬億美元,AI風頭正盛的背後,公眾的擔憂也越來越多,科技圈再次流出了一封重磅公開信。
當地時間5月30日,非營利組織「人工智慧安全中心」(Center for AI Safety)在其官網發布一封聯名公開信,稱AI這一堪比「疫情和核戰爭」的技術或對人類構成生存威脅。
整個聲明只有一句話,22個單詞:
「減輕人工智慧帶來的滅絕風險,應該與大流行病和核戰爭等其他社會規模的風險級別一樣,成為一個全球性的優先事項。」
拜登政府近幾個月表示,人工智慧對公共安全、隱私和民主構成威脅,但政府對其監管的權力有限。
OpenAI創始人領銜,超350位AI大佬簽名
目前已有超350位AI大佬簽署了上述聯名公開信,包括OpenAI執行長Sam Altman、谷歌DeepMind執行長Demis Hassabis和Anthropic執行長Dario Amode三大AI公司掌門人等。
圖靈獎獲得者、被譽為人工智慧「教父」的Geoffrey Hinton和Yoshua Bengio也赫然在列。
名單里也不乏中國學者的身影,包括中國工程院院士、(AIR)院長張亞勤,中國科學院自動化研究所人工智慧倫理與治理研究中心主任曾毅,清華大學副教授詹仙園。
其他簽署人還包括微軟首席技術官Kevin Scott,前聯合國裁軍事務高級代表Angela Kane,Skype聯合創始人Jaan Tallinn,Quora執行長Adam D'Angelo。
他們表示,雖然公眾一直在承認人工智慧的風險,但還有更多挑戰需要討論。他們還想「為越來越多的專家和公眾人物創造共同知識,他們也認真對待先進人工智慧領域存在的一些最嚴重的風險」。
值得一提的是,目前,微軟創始人比爾·蓋茨沒有簽署這一聯名信。
「危險!立刻停下所有大型AI研究」
自去年ChatGPT發布以來,科技行業掀起了一場競爭激烈的AI競賽,同時也引發公眾對於這項未知技術的恐懼。
今年3月份,Bengio、馬斯克、蘋果聯合創始人Steve Wozniak、Stability AI創始人Emad Mostaque等科技大佬發表聯名公開信,呼籲暫停比GPT-4更強大的人工智慧系統的訓練,暫停時間至少為6個月。
公開信強調了AI在迅猛發展,但卻沒有對其進行相應的規劃和管理:
「最近幾個月人工智慧實驗室掀起AI狂潮,它們瘋狂地開展AI競賽,開發和部署越來越強大的AI。
不幸的是,目前為止,沒有任何人能理解、預測或可靠地控制AI系統,也沒有相應水平的規劃和管理。」
信中提到,如今人工智慧在一般任務上變得與人類一樣有競爭力,我們必須問自己:
「是否應該開發非人類的大腦,使其最終超過人類數量,勝過人類的智慧,淘汰並取代人類?
是否應該冒著失去對人類文明控制的風險?」
答案是否定的,公開信指出,只有當我們確信強大的AI系統的效果是積極的,其風險是可控的,才應該開發。
因此,公開信呼籲所有人工智慧實驗室立即暫停比GPT-4更強大的人工智慧系統的訓練,時間至少持續6個月。
「我們應該從危險的競賽中退後一步,……讓如今最強大的模型更加準確、安全。
讓我們享受一個漫長的人工智慧夏天,而不是毫無準備地匆忙進入秋天。」
AI教父:痛悔畢生工作,無法阻止人類AI大戰
5月初,深度學習泰斗、人工智慧教父Geoffrey Hinton突然宣布離職谷歌,終於可以暢所欲言地談論AI的風險了。
正是對人工智慧風險深深地擔憂,讓這位深度學習巨佬直言:「我對自己的畢生工作,感到非常後悔。」
在媒體報導中,Hinton直接警示世人:注意,前方有危險,前方有危險,前方有危險!
在一次採訪中,Hinton表示「我們幾乎已經讓學會計算機如何自我改進了,這很危險,我們必須認真考慮,如何控制它。」
他曾指出,谷歌和微軟,以及其他公司之間的競爭,將升級為一場全球性競賽。如果沒有某種全球性的監管,這場競賽將不會停止!
他表示自己很擔憂,GPT-4疊代會對人類構成威脅,強AI從大量數據中能夠學到意想不到的行為。
他擔心有一天真正的自主武器ーー那些殺人機器人ーー會成為現實。
圖
片來自《西部世界》
上世紀80年代,Hinton曾是卡內基梅隆大學的計算機科學教授,但因為不願接受五角大樓的資助,他選擇了離開CMU,前往加拿大。當時,Hinton強烈反對在戰場上使用AI,他將其稱為「機器人士兵」。
從人工智慧的開創者到末日預言者,Hinton的轉變,也許標誌著科技行業正處於幾十年來最重要的一個拐點。
本文不構成個人投資建議,不代表平台觀點,市場有風險,投資需謹慎,請獨立判斷和決策。
你擔心AI失控嗎?