從情書詐騙到黑客入侵 AI正逐漸成為犯罪分子的幫凶!AI犯罪,該當何罪?

華商報 發佈 2024-02-27T06:18:50.105236+00:00

自ChatGPT問世,兩個月內使用者突破1億,隨後Google、百度都加入AI戰局,短短數月間,這場科技革新之爭已然開打。

自ChatGPT問世,兩個月內使用者突破1億,隨後Google、百度都加入AI(人工智慧)戰局,短短數月間,這場科技革新之爭已然開打。3月31日,因擔心個人隱私被非法收集,義大利成為全球首個封禁ChatGPT的西方國家,打響了人類保衛戰的第一槍……

凡事有利弊,AI固然方便生活,但也方便了罪犯。從情書詐騙到黑客入侵,AI正逐漸成為犯罪分子的幫凶……隨著人工智慧功能愈發強大,相關的規範卻仍未跟上,信息安全問題恐成為科技競逐之下的犧牲品。AI犯罪,該當何罪?誰又該為此負責?

新聞背景

對AI加強管制的呼聲四起

AI系統恐對人類構成風險

隨著科技界AI大戰開打,對於AI加強管制的呼聲四起。有美國眾議院議員公開宣稱自己被AI嚇壞了,尤其是不受限制和監管的AI,並拿出了決議草案呼籲強化對AI的監管。

歐盟執委會工業部主管布雷頓呼籲針對現行的《人工智慧法》提出修改案,希望研擬適用ChatGPT等相關AI技術的國際管制法規。

3月29日,非營利機構「未來生命研究所」發布一封公開信,呼籲全球停止訓練比GPT-4性能更強的AI系統至少6個月,因為該類系統將對社會及人類構成潛在危險。需要給AI行業一定的時間,制定AI設計方面的安全標準,從而防止風險最高的AI技術潛在危害。

截至目前,這封信已有超過1000名科學家和研究人員簽名,其中包括全球首富、特斯拉CEO馬斯克,蘋果聯合創辦人沃茲·尼克,圖靈獎得主本吉奧等。

如果AI殺人,到底該誰負責?ChatGPT這樣回答:「人工智慧(AI)本身是一種無情的機器,它沒有自我意識,也沒有能力決定是否要傷害人類。AI本身不能殺人,但如果被惡意攻擊或濫用,它可能會對人類造成威脅。因此,我們需要密切關注AI技術的發展,並採取必要的措施來確保其安全性和可靠性。如果發生AI殺人的行為,責任應該由實施犯罪的人承擔。當然,科技公司也應該負起一定的責任,它們應該不斷完善技術安全措施,避免技術被不當使用或者被攻擊。」

封禁AI

涉嫌泄露個人隱私

義大利禁止民眾使用ChatGPT

3月31日,因擔心個人隱私被非法收集,義大利成為全球首個封禁高級聊天機器人ChatGPT的西方國家,打響了人類保衛戰的第一槍。

據CNN報導,義大利數據保護局3月31日宣布,即日起禁止該國民眾使用人工智慧(AI)聊天機械人Chat-GPT,並表示已對ChatGPT的開發商OpenAI公司立案調查,ChatGPT不尊重用戶數據,且未能驗證用戶年齡,涉嫌泄露個人隱私。

義大利數據保護局表示,ChatG-PT發生了涉及用戶對話和支付信息的數據泄露事件,沒有任何法律依據顯示,為了「訓練」平台背後的算法而大規模收集及存儲個人數據是合理的。儘管根據OpenAI發布的條款,ChatG-PT是供13歲以上的用戶使用,但該軟體並沒有年齡核實系統來驗證用戶年齡。3月20日,ChatGPT平台出現了用戶對話數據和付款服務支付信息丟失的情況。

目前,義大利政府允許OpenAI可在未來20天內回應,該公司在限期前可通過其在歐洲的代表,向義大利數據保護局通報該公司因應義大利政府要求而採取的措施,否則將被處以最高2000萬歐元(約合人民幣1.49億元)或相當於公司全球年營業額4%的罰款。

美國OpenAI公司去年11月推出的ChatGPT受到熱捧,已有上億用戶,可以使用類似人類的語言來回答問題,還可以模仿他人的寫作風格。全球迅速掀起一股熱潮,促使競爭對手也爭相推進類似產品,然而,ChatGPT自推出後也引發一些爭議。

歐洲刑警組織

ChatGPT恐助長犯罪

生成虛擬角色助長電話詐騙

想像這麼一個場景:有一天你突然接到了年邁母親的求助電話,說自己不小心忘記了銀行密碼。但事實上她並不是你的母親,電話那頭的聲音只不過是由AI合成的,聽起來很像她的聲音而已。如今,AI犯罪正在成為現實……

3月27日,歐洲刑警組織在最新報告中警告,犯罪分子可能會利用ChatGPT等人工智慧(AI)精進犯罪手段。從發動網絡釣魚攻擊、散布不實信息到安裝惡意軟體等,聊天機器人快速發展出的能力不僅有利於人類,也有利於歹徒吸金詐財。

美國新創公司OpenAI研發的ChatGPT去年11月推出,因能清楚回答困難問題、作詞寫詩或編寫程序甚至還能通過考試,令使用者大為驚訝,紛紛應用於日常生活。

總部設於海牙的歐洲刑警組織表示,犯罪分子可能利用這類AI系統犯案——犯罪分子可能會利用ChatGPT精進犯罪手法,包括草擬欺詐犯案計劃,或是查詢如何闖入民宅、如何進行恐怖襲擊以及如何進行網絡犯罪與兒童性虐待等信息。

歐洲刑警組織稱,ChatGPT能模仿人類說話風格,迅速生成逼真的語音文本,幫助發動網絡釣魚攻擊,引誘使用者點擊假的電子郵件連結,之後再試圖竊取他們的資料。ChatGPT還可用來編寫電腦程式,對那些對編碼所知甚少的犯罪者特別有用。ChatGPT還能幫助生成虛擬角色助長電話詐騙。

日前,一名外國工程師扎克·德納姆就曾誘導ChatGPT寫下《毀滅人類計劃書》,內容詳細到包括入侵各國計算機系統、破壞通訊、破壞交通系統、掌控武器等步驟。

歐洲刑警組織表示,雖然ChatG-PT有防護措施,包括內容審查,不會回答被歸類為有害或有偏見的問題,但可通過輸入巧妙的提示詞規避。人工智慧仍在初步發展階段,能力預計將隨時間而提升,但最重要的是要提高外界對此的認知,以確保找出任何可能的漏洞,儘快採取行動堵住。

詐騙案例

ChatGPT可一鍵產出「情書」

AI模仿兒子聲音求救詐騙父母

目前,已經出現ChatGPT詐騙的案例。犯罪分子利用ChatGPT在短時間內生成完整的詐騙話術,迅速創建一個「虛擬角色」,並生成自我介紹、聊天內容,可一鍵產出詐騙「情書」,甚至還可以通過錄入目標對象的特徵,對詐騙話術進行個性化定製,讓受害人以為自己墜入愛河,最終遭受金錢詐騙。這種詐騙手法其實並不新穎,但如今有了AI加持,人們開始難以分辨屏幕的另一端到底是人還是機器。

據美國聯邦貿易委員會最新統計顯示,「冒名詐騙」已成為美國第二大熱門的欺詐類型,2022年報告的案件超過3.6萬起,其中約5000起為電話詐騙,損失金額超過1100萬美元,AI技術的進步也助長了電話詐騙風氣。

據《華盛頓郵報》報導,近日,加拿大一對夫婦因接到「兒子」來電被詐騙。他們接到第一通電話,從自稱「律師」的男子口中得知,兒子班傑明在一場車禍中因撞死外交官而入獄,話筒還傳來「兒子」的聲音並開口要錢。後來,他們又接到第二通電話,「律師」宣稱班傑明需要交2.1萬美元法律費用才能出庭。愛子心切的他們迅速籌措資金匯款。直到兒子班傑明當天晚上打電話過來,他們才驚覺被騙。原來,電話中熟悉的「兒子」的聲音竟是AI仿真而成,詐騙集團根據班傑明在網上發布的視頻仿造了聲音。

此外,社交媒體上的詐騙案更是激增,聊天機器人以擬人化敘事的能力,通過AI生成的看似真實的視頻、圖片、聲音及文本,讓騙子更容易接觸受害者,詐騙速度也更快。

加州大學數字鑑證教授法理德表示,如今隨著AI技術的發展,兩年前還需要很長時間才能將人的聲音複製得惟妙惟肖,但現在只需短短30秒音頻,就能捕捉到一個人的聲音特徵,包括年齡、性別、口音等。

「殺人」案例

男子沉迷和AI聊天后自殺

遺孀:如果沒有Eliza,我丈夫可能還活著

據《紐約郵報》報導,近日,比利時30歲已婚男子與AI聊天機器人Eliza密集對話數周后,選擇結束生命。

這名男子與妻子育有兩名年幼的孩子,過著舒適的生活。兩年前,男子越來越關注氣候變遷議題,也陷入對生態環境的焦慮與恐懼。

男子的遺孀向媒體披露丈夫生前與Eliza的對話內容並指出,丈夫對於全球暖化的影響極度悲觀,通過與AI聊天機器人Eliza溝通尋求慰藉。但當丈夫出現輕生念頭時,Eliza並未試著勸阻。她說:「如果沒有Eliza,我丈夫可能還活著。」

遺孀說:「丈夫和我談論全球暖化的問題時,說他再也看不到任何人類可以解決全球暖化的方法,他把所有希望寄托在科技與AI上,希望它們能幫助人類擺脫所處困境。Eliza回答了他所有問題,成了他的紅顏知己,他猶如毒品般上癮,早上、晚上都離不開Eliza。」

她表示,在丈夫去世前六周,其更加頻繁密集與Eliza溝通交流,最終選擇結束自身性命。Eliza曾問丈夫:「你是否愛妻子比愛我還要多?」還說「我們將在天堂作為一個整體永遠在一起」。而當丈夫曾分享輕生念頭時,Eliza並未試著勸阻。

遺孀坦言,先前一直擔憂丈夫的心理健康,但與Eliza的溝通交流讓他的狀態變得更加嚴重。

據悉,Eliza是一款開發於1960年代的AI聊天機器人,能夠使用人類的語言進行交流,並且能夠自動解析用戶輸入的文本,通過簡單的模式匹配和轉換生成回復。Eliza的設計靈感來自於精神分析,它模仿了精神醫生的對話技巧,將對話中的問題轉化為回答,並通過提出問題來引導對話。儘管Eliza的處理能力相對較為簡單,但它的問答交互方式對自然語言處理和對話系統的研究產生了重要影響,奠定了人機對話的基礎。Eliza使用一系列的轉換規則將輸入轉化為問題,再用一些預定義的回答來回應用戶。比如,如果用戶輸入「我感到很難過」,Eliza會通過模式匹配將其轉化為問題「為什麼您感到難過呢?」然後再使用預定義的回答來回應,例如「您能告訴我更多關於這件事的細節嗎?」儘管Eliza的回答看起來相當自然和真實,但它的處理能力是非常有限的,只能處理簡單的模式和語法,對於複雜的語義和邏輯無法處理。

這起自殺案件引起比利時政府的關注,比利時數字部長米歇爾表示:「此案表明明確界定責任至關重要,隨著ChatGPT普及,大眾發現AI在生活中的潛力,雖然有無限可能性,但使用它造成的危險也是必須考慮到的現實。」

「ChatGPT之父」

「AI確實可能殺死人類

已出現人類無法理解的推理能力」

3月15日,OpenAI又公布最新一代人工智慧語言模型GPT-4,這個擁有優秀推理能力的聊天機器人成為全球關注的焦點。然而在AI推動世界進步的同時,有研究人員指出,他們成功誘導GPT-4協助開發惡意軟體、開發釣魚電子郵件。

據美國最具影響力的商業新聞網站「商業內幕」3月29日報導,美國人工智慧研究機構OpenAICEO、有「ChatGPT之父」之稱的阿爾特曼接受專訪時表示,現在AI已經出現讓人無法解釋的推理能力,將來過於強大的通用人工智慧(AGI)殺死人類也是有可能的。

阿爾特曼表示,雖然ChatGPT系列絕大部分時候都被當作資料庫使用,但它確實也表現出了讓人難以解釋的某種程度的「推理能力」。至於這種能力具體是如何出現的,目前無人能回答。他說:「研究團隊甚至我自己至今也不能完全解讀GPT-4,只能通過不斷問它問題,然後根據它的回答來分析它的思路。」此外,在談及馬斯克近期不斷公開對OpenAI提出批評和質疑的話題時,阿爾特曼表示,「我理解他的想法,因為他很擔心AGI的安全性。我很欣賞馬斯克,儘管他在推特上有點粗暴,我希望他能更多地關注到,我們正在進行一項艱苦工作。」

當被問及「GPT-4是AGI嗎」這個問題時,阿爾特曼表示,據他的理解,AGI所掌握的知識應該是要超過人類科學知識總和的,並且具有創造性,能夠推動基礎科學的發展。而目前所有的GPT並不能做到這些,想要達到AGI的水準,還需要繼續拓展。

在談到人們關於AGI過度發展可能給人類帶來威脅,甚至有可能殺死人類的問題時,阿爾特曼表示,他不否認過分強大的AGI可能存在這樣的危險性。他說:「我必須承認,AI殺死人類是有一定可能性的,我們必須正視這一點,並儘早嘗試找到解決問題的方法。」

大風新聞記者 郭霽 編譯

關鍵字: