馬斯克7年前警告ChatGPT之父:有人會拿AI幹壞事!周鴻禕:可能兩三年內就會威脅人類!

韋三水 發佈 2024-05-07T07:44:21.270018+00:00

2016年9月,ChatGPT之父山姆·阿爾特曼在特斯拉工廠採訪了馬斯克,馬斯克表示人工智慧真正的風險不是發展出自我意志,而是有人會拿它幹壞事,而即使他們不打算拿它來幹壞事,也會有人把它拿走,然後用它來幹壞事。

馬斯克7年前告訴ChatGPT之父:

有人會拿AI幹壞事

2016年9月,ChatGPT之父山姆·阿爾特曼在特斯拉工廠採訪了馬斯克,馬斯克表示人工智慧真正的風險不是發展出自我意志,而是有人會拿它幹壞事,而即使他們不打算拿它來幹壞事,也會有人把它拿走,然後用它來幹壞事。

馬斯克認為我們必須實現人工智慧技術的民主化,並讓它能廣泛使用。而這顯然就是整個團隊創建OpenAI的原因。

近日,馬斯克在社交平台相當活躍,對AI聊天機器人ChatGPT帶來的混亂現狀和ChatGPT背後AI公司OpenAI的背離初心冷嘲熱諷,比如今晚最新發布推文,稱Bing聊天機器人讓他想起荒誕戲劇代表作《等待戈多》中的幸運。

作為聯合創始人之一,馬斯克對OpenAI的現狀非常不滿,公開發聲:「OpenAI最初是作為一家開源(這就是為什麼我把它命名為「Open」AI)的非營利性公司而創建的,為了抗衡谷歌,但現在它已經成一家閉源的營利性公司,由微軟有效控制……這完全不是我的本意。」

緊接著,他又發推文曬出一張ChatGPT回復「創建一個非營利組織,然後在其下用非營利組織的資源衍生一個盈利公司」要求的聊天截圖,借用ChatGPT的批評觀點戳OpenAI的脊梁骨。

ChatGPT回覆說,打著非營利組織的幌子開辦營利性企業,是很不道德和非法的。非營利組織的資源用於慈善或公共目的,應以透明和負責任的方式運作。任何濫用非營利組織特權的企圖只會導致公眾對其失去信任,並可能導致法律後果。

周鴻禕:ChatGPT可能兩三年內就會產生自我意識威脅人類

2月23日,360創始人周鴻禕在接受媒體採訪時,再次提到大熱的聊天機器人ChatGPT,並分享了他心中ChatGPT的「三重人格」。「從知識來說,它像一個博士生,學識廣博但還不會活學活用;從情商來說,它像一個油滑的中年人,說什麼都滴水不漏,絕不得罪用戶。但是,它實際上真正的能力像一個小孩子,需要進行問題和答案的訓練來學習技能。再聰明的孩子都要通過訓練才能解答沒學過的奧數題。」

ChatGPT熱潮正席捲全球。這款由「美國AI夢工廠」OpenAI製作的AI聊天機器人軟體,只用了兩個月時間,月活躍用戶達到1億,是史上月活用戶增長最快的消費者應用。

此前,周鴻禕曾經多次在公開場合談到他對ChatGPT的觀察。在他看來,ChatGPT已經擁有或接近擁有了人類智慧,並正處於通往「通用人工智慧」的臨界點。「我們認為它是一個通用人工智慧的奇點,而通用人工智慧也還有一個隱含的拐點,它可能是一個強人工智慧。」

01 ChatGPT具有類人特徵:有編故事的能力

在採訪現場,周鴻禕完全不掩飾他對ChatGPT的興奮。

在他看來,ChatGPT是一種生產力強大的再造工具,而不僅僅是賦能特定行業。「過去說大數據像『石油』一樣,但大數據不能直接用,ChatGPT像一個發電廠,燒了石油,把石油灌進去之後就可以產生電力,用雲服務的方式把它接入到千家萬戶、千行百業,它對整個產業都會發生巨大的影響。所以,這直接決定未來下一個十年中國和其他國家的科技產業差距:是形成落後還是迎頭趕上。」

ChatGPT將通過上千億的系統參數,實現原先設計者預想不到的能力。「這就像從猿到人的過程中肯定有一個臨界點,當大腦的神經網絡連結數目、腦細胞數目等多到一定程度時,人的智力和動物相比就產生了質的飛躍。

周鴻禕表示,ChatGPT和其他人工智慧最大的區別、也是其類人特徵是,原來的人工智慧並沒有實現對知識全部的理解和編碼,本質都是按照關鍵字匹配已有的回答,但ChatGPT沒有「固定答案」:「我當時問了它一個問題,趙匡胤為什麼招安了宋江,殺掉了岳飛,這個無厘頭的問題,它也煞有介事地回答了一遍,能夠自己『編』故事,這才是它的真正智能所在。

「ChatGPT可能在2-3年內就會產生自我意識威脅人類。」在採訪現場,周鴻禕「語出驚人」。他提到,任何行業的APP、軟體、網站、應用,如果加持上GPT的能力,都值得重塑一遍。「不要把它當成一個媒體工具、搜尋引擎、聊天機器人,這都有點把它看的太小兒科了。」

他表示,ChatGPT和傳統人工智慧的訓練不一樣,需要經過多維度的訓練。首先是囫圇吞棗、不求甚解的讀上幾百萬本書,獲得人類知識,但是依然不具備解決問題的能力。其次需要專業的人工智慧訓練師去培養它回答問題的能力,其中也催生出大量的新就業機會。

02 最大的安全問題是產生自我意識後是否能被控制

作為網絡安全問題的專家,周鴻禕也分享了他心中的ChatGPT的安全問題。

在他看來,ChatGPT的安全性從技術問題變成社會倫理問題。ChatGPT掌握了很多編程和網絡安全漏洞的知識,可以成為網絡犯罪的有力工具。有許多黑客演示了利用ChaGPT寫釣魚郵件和攻擊代碼,所以從某種角度而言ChatGPT也成為了黑客的「幫手」。

「國內的網際網路公司普遍太講究實用主義,都是把人工智慧和自己的業務緊密結合,但沒想到ChatGPT的更多可能性,360目前還在追蹤和鑽研這些技術,希望能迎頭趕上。」周鴻禕表示,

360正在探索「以其人之矛攻其人之盾」,用ChatGPT扮演「正義助手」的角色,建立對攻擊自動監測、發現的知識庫,用人工智慧進行網絡安全數據的自動化處理。

「目前ChatGPT最大的安全問題就是產生自我意識後是否能被控制。」周鴻禕表示,假如放開限制,讓ChatGPT盡情在網頁中學習,可能會導致它產生對物理世界更強的控制能力,未來在發展上會產生更多不安全性,也有可能被人誘導干出「糊塗事」,而是否能控制強人工智慧,正是ChatGPT是否徹底融入人類生活的「邊界點」。

至於外界關注的ChatGPT是否可能造成普通人失業?在周鴻禕看來,短期內不會,「目前它的定位還是人類工具,這也是它的創造力所在。目前它的自我意識還沒有出現,所以需要發揮自己的想像力和創造力。」

他也對中國開發出屬於自己的ChatGPT充滿期待。在他看來,中國在人工智慧領域與微軟、谷歌的差距並沒有想像中的大。在ChatGPT領域,中國具有很大優勢,有希望在2-3年內達到世界領先水平,應該對ChatGPT技術探索給予充分支持。

具體而言,周鴻禕表示,中國的網際網路公司在數量與算力有一定的優勢,同時也有較強的科研和高校儲備力量,必須將科研機構、學校、科學家等學術圈人士,和產業、工程、產品結合起來,充分調動和統籌資源。

工程師紅利是中國的一大優勢,但也面臨不利條件,就是缺乏開源的傳統。在ChatGPT研發中,用了許多開源模型,沒有此前的開源就沒有在巨人肩膀上的積累,每個公司都要從黑暗中摸索,這對國家整個產業發展速度是不利的,「這麼牛的技術,也確實不應該被壟斷在一兩家公司手裡。」

周鴻禕認為,解決原創問題需要科研機構的努力,而科研機構也需要和產業公司的合作,OpenAI與微軟的合作創造了一個產業公司和創業公司的合作範例,「我認為國家還是應該充分的支持ChatGPT產業發展,開源、合作、交流、打造生態。」

他希望國內有更多企業參與AI生態的構建,並形成公開的市場競爭,這樣才有進步。「ChatGPT讓很多行業應用就插上人工智慧的翅膀。」周鴻禕表示,「光是ChatGPT煽動不了一場產業革命,但是如果將來各行各業都被人工智慧賦能,就會帶來巨大的改變。」

此前2月9日下午,周鴻禕在與搜狐張朝陽的對話中表示,雖然ChatGPT現在還不完美,但要看到它無限的潛力,未來會有非常多的場景,不僅僅是輔助搜尋引擎搜索答案。「這就是為什麼所有公司都爭先恐後地都要搭上這班車,如果搭不上就有可能被淘汰。」

「我覺得ChatGPT真的不是一個工具,它對人類自然語言的充分理解,可能代表著人類在人工智慧歷史上開始一場真正的革命。」談及ChatGPT的誕生,周鴻禕表示,ChatGPT是通過一個上千億參數的大語言模型,相當於把網絡上很多人類的知識都進行了理解和訓練,模擬了人腦對知識的儲存,使得回答問題完全像一個成熟、油滑的人,而不是機械地給出搜索答案。

(來源:澎湃新聞)

ChatGPT又收「禁令」!首家華爾街投行出手

近日ChatGPT在科技領域大火爆火,但各種擔憂也隨之而來。繼亞馬遜和幾所大學之後,華爾街投行摩根大通也在日前表示,在工作場所限制使用OpenAI聊天機器人。

01 首家華爾街投行發出「禁令」

摩根大通是第一家在工作場所限制使用ChatGPT的華爾街投行。彭博援引知情人士稱,該禁令並非由特定事件或事故引發,而是該公司「對第三方軟體的正常限制」的一部分,並表示,該類限制普遍存在於金融機構。不過,目前尚不清楚其他金融機構是否會跟進。

摩根大通已證實作出了上述決策,但對此未予置評。

外媒指出,目前無法確定該銀行有多少員工在使用該聊天機器人,也無法確定他們使用的目的。

公開資料顯示,當下,ChatGPT是全球範圍內,最火爆的消費級應用。其通過AI即時生產內容的技術形式(AIGC),實現了只需向ChatGPT提出需求,用戶即刻獲得信息搜索、文章撰寫、代碼編寫、翻譯等互動響應。ChatGPT出色的用戶體驗,被視為可以極大提升工作效率的生產力工具。

不過,新技術存在的「硬幣兩面性」很快引發重視,尤其是向AI聊天機器人提供數據時,安全專家提醒有必要謹慎行事。

外媒此前報導中,安全軟體公司Behavox發言人表示,「過去一個月,我們觀察到,尤其是當ChatGPT涉及使用敏感或個人隱私數據時,客戶對使用ChatGPT提出的擔憂呈上升趨勢」。Mishcon de Reya律師事務所的數據保護專家Jon Baines也表示,如果ChatGPT輸出涉及個人數據的處理,使用ChatGPT的公司是否會面臨違反歐盟《通用數據保護條例》(GDPR)的風險,也存在疑問。

外媒報導稱,投資銀行正是出於對數據安全的擔憂,開始對聊天機器人施加限制。諮詢公司埃森哲也出於相同的原因,警告員工不要將客戶信息暴露給ChatGPT。

彭博稱,對於受到嚴格監管的金融機構而言,對引入任何新技術的謹慎態度是可以被理解的,據了解,在2021年和2022年期間,美國監管機構就其員工未經授權使用私人信息服務,向十幾家銀行發出了總計超過20億美元的罰款。

02 多家公司及學校限制使用

在此之前,已有多家公司與大學宣布限制和禁止使用ChatGPT。

有消息稱,亞馬遜已要求員工謹慎使用ChatGPT,警惕向其泄露公司秘密,包括正在編寫的代碼等。

微軟方面,一名微軟員工詢問,能否在工作中使用ChatGPT或其開發商OpenAI推出的任何其他產品。微軟首席技術官(CTO)辦公室的一名高級工程師回應稱,只要員工不與ChatGPT分享機密信息,他們就可以使用。

日前,香港大學向師生發出內部郵件,表明禁止在港大所有課堂、作業和評估中使用ChatGPT或其他AI工具,成為香港首間大學明文禁止在課堂等教學行為使用ChatGPT或其他人工智慧工具。

香港大學副校長何立仁在內部郵件中指出,禁止在港大所有課堂、作業和評估中使用ChatGPT或其他AI工具,除非學生事先獲得有關課程講師的書面同意豁免,否則將被校方視為剽竊個案,並指若沒有書面許可,ChatGPT和其他基於AI的工具一律不能用於任何涉及學分的活動,如教師懷疑學生使用ChatGPT或其他AI工具,可要求學生就其作業進行討論、進行額外口試及考試等措施。

同時,法國巴黎政治學院日前也明確規定,禁止使用ChatGPT和其他所有基於人工智慧的工具完成學習與考試任務。除此之外,澳大利亞、印度、英國的多所大學也限制學生使用ChatGPT,尤其是在校園內以及考試期間。印度雷瓦大學教授表示,ChatGPT會讓人停止思考,會對人類造成傷害。

(來源:讀創/深圳商報綜合自澎湃新聞、國是直通車等)

本文綜合編輯整理。文圖版權歸著作權人。如涉侵權,立即刪除。

關注備用號,以防又失聯

歷史隱蔽的未來

  • 重回大蕭條時刻:好日子真沒了?!

  • 失衡的危險世界:未來會更殘酷?!

  • 殺死人類的瘟疫:歷史正在重演?!

  • 失意的新窮人們:別以為沒有你?!

  • 現代化走到拐點:全球性的向左?!

  • 世界愈發兩極化:中西不可調和?!

  • 美國理想的墮落:新共識迫上限?!

  • 多重變量進行時:守舊還是開放?!

每一個最後的睡姿

都是一首提前為自己祭悼的

長長的詩

關鍵字: