李開復:AI讓人們在無意識中被操縱

元宇宙夢想工廠 發佈 2022-06-26T11:19:19.630319+00:00

任何強大的技術都是一把雙刃劍。比如電力可以為人類社會的日常設施提供動力,但如果人直接碰觸電,就可能喪失性命。再如網際網路讓一切變得更加方便,但也大幅降低了人對事物的專注力。那麼,人工智慧在給人類帶來便利的同時,又會帶來什麼問題呢?

任何強大的技術都是一把雙刃劍。比如電力可以為人類社會的日常設施提供動力,但如果人直接碰觸電,就可能喪失性命。再如網際網路讓一切變得更加方便,但也大幅降低了人對事物的專注力。那麼,人工智慧在給人類帶來便利的同時,又會帶來什麼問題呢?

問題一:深度學習會使AI比你更了解你自己。

雖然好處顯而易見──AI可以向你推薦以前沒有聽說過的商品,可以精準地為你推薦伴侶或者朋友,但事情的另一面是,AI也會掌握你的缺點——你有沒有過這樣的經歷:本來只想打開抖音看一個視頻,卻刷了3個小時還停不下來?

AI個性化推薦讓人們在無意識中被操縱,使AI應用程式背後的利益方達成目的。

對於用戶來說,對個性化推薦上癮的行為會導致惡性循環。AI應用程式為用戶提供符合其特徵的個性化推薦,使用戶不斷接收到其所偏好的信息,然後就不知不覺逐漸被困在「信息繭房」里,拒絕接收不符合其固有認知的異質信息。應用程式根據用戶接收信息的行為特徵,向用戶推薦更多的其所偏好的同質信息,從而使用戶陷入「樂此不疲」的快感,難以自拔,無法戒掉這些應用程式。這種機制對於用戶來說是惡性循環,但對那些把這種機制當作印鈔機的大型網際網路公司來說,卻是良性循環。

如果人們對AI的個性化推薦上癮,這類應用程式就可能縮窄人們的視野、扭曲事實的真相、加劇社會的分化,對人類的情緒、心理健康、幸福感等方面造成負面影響。

問題二:AI會使不公平和偏見得以延續。

AI完全基於數據優化和結果優化進行決策,理論上應該比大部分人更加不受偏見的影響,但是,其實AI也可能產生偏見。

比如,倘若用於訓練AI的數據不夠充分、全面,對某些群體的覆蓋率不足,那麼就會產生偏見。曾經有一家著名公司的招聘部門發現,因為訓練樣本中女性的數據不夠,其所使用的AI軟體不看好女性候選人。

最近有研究表明,AI可以基於面部微表情精準地推斷一個人的性取向,這種AI應用就可能導致不公平和偏見。

儘管這些偏見和歧視並非出於AI的本意,但是仍會造成極其嚴重的後果,而且如果把帶有偏見的AI應用於醫學診斷或者司法判定,那麼其風險將無法想像。

問題三:AI具有不可解釋性。

人類總是能解釋人類決策背後的原因,因為人類的決策過程本身比較簡單,是基於經驗積累得出的規則。

AI的決策基於複雜的方程組,這種方程組有數千個特徵和數百萬個參數,深度學習決策的「理由」,就是在一個有數千個維度的「空間」里經過海量數據訓練而得出的數學方程組,要把這個方程組精確地簡化成一個人類可以聽得懂的「原因」,基本上是不可能的。

但是,無論是出於法律的考量,還是出於用戶的期望,許多關鍵的AI決策都需要給出一個解釋。為了解決這一問題,人們目前正在進行許多相關的研究,這些研究試圖簡化、總結AI複雜的邏輯過程,或者發明具有可解釋性框架的AI算法,從而使AI變得更加「透明」。

上面所提到的這些AI所帶來的問題,已經引起了公眾對AI的嚴重不信任。不過,所有的新技術都有缺點,而歷史表明,許多技術的早期漏洞都將隨著時間的推移而得到糾正或被徹底解決。

大家可以回想一下,當年防止人類觸電的斷路器,還有查殺電腦病毒的殺毒軟體,就是很好的例子。因此我相信,未來通過改進技術和完善政策法規,將會解決AI所帶來的大部分問題,比如不公平、偏見、不透明。

然而重要的是,我們必須讓人們意識到這些問題的嚴重性,然後動員人們為解決這些問題而努力。

關鍵字: