360周鴻禕:機器人不傷人原則已被打破,AI最後底線必須是人

搜狐科技 發佈 2022-07-27T08:23:10.421848+00:00

「原來機器人永遠不要傷害人類的原則,現在看來已經被打破。所以,我們建議應該把AI最後的決定權交給人類,讓人來做最後的控制,而不是完全讓AI做自動的判斷、自動的決策。」360集團創始人周鴻禕今日在參加2022新智者大會時表示。

「原來機器人永遠不要傷害人類的原則,現在看來已經被打破。所以,我們建議應該把AI最後的決定權交給人類,讓人來做最後的控制,而不是完全讓AI做自動的判斷、自動的決策。」360集團創始人周鴻禕今日在參加2022新智者大會時表示。

他在主題演講中表示,面對人工智慧帶來各種複雜安全挑戰,網絡安全行業應當被重新定義,將計算機安全、網絡安全升維到數字安全。其中,《國家安全戰略(2021年-2025年)》明確提出加快提升網絡安全、數據安全、人工智慧安全等領域的治理能力,這也是國家戰略層面首次提出人工智慧安全的概念,說明人工智慧安全是數字安全的一部分。

周鴻禕指出,AI已應用在戰爭中,不傷人原則已被打破,比如今年的俄烏衝突。「從人下指令,到AI自動識別、自動判斷、自主發起攻擊,我覺得就是一層薄薄的窗戶紙。所以把AI武器最後的決定權交給人類,讓人來做最後的控制至關重要。人工智慧最後的底線必須是人。」周鴻禕說道。

除應用於戰場上外,人工智慧安全也面臨著七重挑戰,包括硬體、軟體、通信協議、算法、數據、應用和社會倫理。周鴻禕提到,經典的「電車難題」就是很好的例證。面對電車選擇難題,AI程序該如何來做出判斷。與此同時,如果出了車禍,這個責任到底該誰來負?應該算AI的?算車廠的?還是算駕駛員的?這些AI安全問題,目前都還沒有明確答案。

對於人工智慧的風險與積極作用,周鴻禕認為,需辯證對待。他還直言,僅靠一家企業不能解決所有威脅,需要注重生態合作,360願意開放自身安全大數據,將產學研力量聯合起來,共建AI安全生態,集中推動數字安全的創新。

關鍵字: