立即停止訓練比 GPT-4 更強的模型,至少六個月!馬斯克、圖靈獎得主等數千 AI 專家緊急呼籲

csdn 發佈 2024-02-29T15:50:20.317184+00:00

整理 | 屠敏出品 | CSDN(ID:CSDNnews)毋庸置疑,ChatGPT、GPT-4 引領了 AI 新時代的到來,但這種讓很多環節都可以實現自動化流程的工具也讓人頗為恐慌。

整理 | 屠敏

出品 | CSDN(ID:CSDNnews)

毋庸置疑,ChatGPT、GPT-4 引領了 AI 新時代的到來,但這種讓很多環節都可以實現自動化流程的工具也讓人頗為恐慌。

據路透社報導,包括圖靈獎得主 Yoshua Bengio、伯克利計算機科學教授 Stuart Russell、特斯拉 CEO 埃隆·馬斯克、蘋果聯合創始人 Steve Wozniak 等在內的數千名對人工智慧領域關注的學者、企業家、教授最新發起了一封公開信,強烈呼籲:暫停訓練比 GPT-4 更強大的系統,期限為六個月,理由是這些模型對社會和人類存在潛在風險。

這封信由非營利性的 "生命的未來研究所 "(Future of Life Institute)發出(https://futureoflife.org/open-letter/pause-giant-ai-experiments/),截至目前,已經有 1128 人簽名。

這個研究所創立於 2014 年 3 月,由 Skype 聯合創始人 Jaan Tallinn、麻省理工學院教授 Max Tegmark,物理學家史蒂芬霍金、SpaceX和Tesla 創始人Elon Musk、牛津大學 Future of Humanity Institute 主任 Nick Bostrom、 MIT Center for Digital Business 主任Erik Brynjolfsson、哈佛大學遺傳學教授 George Church、MIT 物理學教授 Alan Guth 以及劍橋大學、UC Berkeley 等人工智慧方面的專家、教授聯合創立。

公開信指出,「具有人類競爭智能的人工智慧系統會對社會和人類構成深刻的風險。

同時,這封公開信也發起了靈魂四問:

  • 我們是否應該讓機器用宣傳和謊言充斥在我們的信息渠道?

  • 我們是否應該把所有的工作都自動化,包括那些有成就感的工作?

  • 我們是否應該開發非人類的大腦,使其最終超過我們的數量,勝過我們的智慧,淘汰我們並取代我們?

  • 我們是否應該冒著失去對我們文明控制的風險?

其寫道,只有當我們確信它們的影響是積極的並且它們的風險是可控的時候,才應該開發強大的人工智慧系統。

因此,「我們呼籲所有 AI 實驗室立即暫停訓練比 GPT-4 更強大的 AI 系統,至少 6 個月。這種暫停應該是公開的和可驗證的,並且包括所有關鍵參與者。如果不能迅速實施這種暫停,政府應介入並暫停」,公開信寫道。

同時,其希望「讓我們享受一個漫長的人工智慧夏季,而不是在毫無準備的情況下匆忙進入秋天。」

一線設計師、開發者無奈怒吼:我的工作被 AIGC 工具取代了

事實上,自去年發布以來,由微軟主力支持的 OpenAI 的 ChatGPT 已經促使很多用戶、公司用上了這些 AI 系統與模型,也激發了業界競爭對手迅速入局,Bing 推出類似的產品。

可以說,這個領域正呈現出是一家獨大,卻又百花齊放百家爭鳴的態勢。

不過,AIGC 工具及產品如此頻繁的疊代與應用,引發了從企業高管、研究人員甚至到一線從業者、用戶的集體焦慮。

在 Reddit 上,一位設計師分享了自己的美工工作被文本生成圖像工具 Midjourney 一夜之間取代的真實經歷,引發了無數網友的共鳴。

其表示,「自從 Midjourney v5 上周問世以來,我的工作已經不同了。我不再是一個藝術家,也不是一個 3D 藝術家。現在我所做的是提示,Photoshopping和實現好看的圖片。當初我去做 3D 藝術家的原因已經不復存在。我想在三維空間中創造形式,雕刻,創造。用我自己的創造力、用我自己的雙手。」

「這對我來說是一夜之間的事。我沒有選擇。而我的老闆也沒有選擇。我現在能夠在 2-3 天內創造、裝配和製作一個從 MJ 吐出來的圖像。以前,我們花了好幾周的時間做 3D。區別在於:我關心,他不關心。對我的老闆來說,這只是一個巨大的時間/金錢的節省」,這位用戶非常無奈地說道。

而如同 Midjourney 這類 AIGC 工具讓普通勞動力丟掉工作也不在少數。此前,國外職業諮詢平台 ResumeBuilder.com 對 1,000 名美國商界領袖進行了關於對 ChatGPT 工具出現看法與應用的調查,根據調查數據顯示,48% 使用 ChatGPT 的公司表示,ChatGPT 取代了員工。四分之一的公司已經通過 ChatGPT 節省了 75,000 美元以上。

所以倘若有比 GPT-4 更強的人工智慧產品出現,人類丟失工作亦或者快速轉型的步伐會越來越快,這打得很多人措手不及。

如何掌控 AI 的邊界?

站在更高的道德、法律、規範等層面上,如何控制 AI 不被濫用、合規使用、讓其對人類的利大於弊,是很多 AI 專家想要發起這封公開信的主要原因。

不過,對於這封公開信的發布,也有不少人持反對意見,譬如,一直對 ChatGPT 持嚴苛、批評態度的卷積網絡之父 Yann LeCun,其表示:「不會簽署這封公開信。因為不同意公開信的內容。」

以下是公開信全文:

正如廣泛的研究和頂級人工智慧實驗室所承認的那樣,具有人類競爭智能的人工智慧系統會對社會和人類構成深刻的風險。正如被廣泛認可的《阿西洛馬人工智慧原則》中所說,高級人工智慧可能代表著地球上生命歷史的深刻變化,應該以相應的謹慎態度和資源進行規劃和管理。不幸的是,這種級別的規劃和管理並沒有發生,儘管最近幾個月看到人工智慧實驗室陷入了一場失控的競賽中,大家都在開發和部署越來越強大的數字大腦,沒有人--甚至他們的創造者--都無法理解、預測甚至可靠地控制。

當代人工智慧系統現在在日常任務上,可以與人類相匹敵。我們必須問自己:我們是否應該讓機器用宣傳和謊言充斥在我們各種信息渠道?我們是否應該把所有的工作都自動化,包括那些有成就感的工作?我們是否應該開發非人類的大腦,使其最終超過我們的數量,勝過我們的智慧,淘汰我們並取代我們?我們是否應該冒著失去對我們文明控制的風險?

這樣的決定絕不能委託給未經選舉的技術領袖。只有當我們確信強大的人工智慧系統帶來積極的效果,其風險是可控的,才應該開發。這種信心必須有充分的理由支持,並隨著系統潛在影響的大小而增加。OpenAI 最近在關於人工通用智能的聲明指出,"在某些時候,在開始訓練未來的系統之前,可能必須得到獨立的審查,並且對於最先進的工作而言,大家應該在合適時候限制用於創建新的計算的增長率"。我們同意這個觀點,並認為現在就是時候這樣做了。

因此,我們呼籲所有人工智慧實驗室立即暫停比 GPT-4 更強大的人工智慧系統的訓練,為期至少 6 個月。這種暫停應該是公開的、可驗證的,並包括所有關鍵參與者都應該在列。如果這種暫停不能迅速實施,政府應該介入並制定暫停令。

人工智慧實驗室和獨立專家應利用這次暫停期,共同制定和實施一套先進的人工智慧設計和開發的共享安全協議,並由獨立的外部專家進行嚴格的審計和監督。這些協議應該確保遵守它們的系統是安全的,無可置疑的。當然,這一行動並不意味著暫停人工智慧的總體發展,只是從越來越大且不可預測的黑盒模型的危險競賽中退後一步。

人工智慧的研究和開發應該重新聚焦於使當今強大的、最先進的系統更加準確、安全、可解釋、透明、穩健、一致、值得信賴和忠誠。

同時,AI 開發者必須與政策制定者合作,大幅加快開發強大的人工智慧治理系統。這些至少應該包括:

  • 設立專門針對人工智慧的新的且有能力的監管機構;

  • 監督和跟蹤高能力的人工智慧系統和大型計算能力池;

  • 確定 AI 內容出處和加上水印系統,以幫助用戶區分真實和合成的內容,並跟蹤模型泄漏;

  • 強大的審計和認證生態系統;

  • 對人工智慧造成的傷害承擔責任;

  • 為人工智慧安全技術研究提供強大的公共資金;

  • 以及資源充足的機構,以應對人工智慧將導致的巨大的經濟和政治破壞(特別是對民主)。

人類可以享受人工智慧帶來的繁榮未來。在成功創造出強大的 AI 系統之後,我們現在可以享受一個 "人工智慧之夏",在這個夏天,我們收穫了回報,設計這些系統以造福所有人,並為社會提供適應的機會。社會已經暫停了其他可能對社會造成災難性影響的技術。我們在這裡也可以這樣做。讓我們享受一個漫長的人工智慧夏季,而不是在毫無準備的情況下匆忙進入秋天。

已簽名的部分人士列表如下:

公開信完整內容詳見:https://futureoflife.org/open-letter/pause-giant-ai-experiments/

關鍵字: