精彩回顧 | 正視人工智慧引發的性別歧視

聯合國開發計劃署 發佈 2022-12-19T03:18:02.417492+00:00

比如說人工智慧告訴我們誰應該拿到工作面試的機會,誰能夠獲得銀行信貸,將哪些產品推廣給哪些消費者,甚至如何分配公共資源——哪些人應該獲得社會福利,哪些街區該被定義為犯罪高風險地區等等。

在反歧視層面上,我們是否要對人工智慧

賦予比人類更高的要求?

全球目前只有22%的人工智慧專業人士是女性。人工智慧越來越普遍的參與到影響我們生活很多方面的決策中。比如說人工智慧告訴我們誰應該拿到工作面試的機會,誰能夠獲得銀行信貸,將哪些產品推廣給哪些消費者,甚至如何分配公共資源——哪些人應該獲得社會福利,哪些街區該被定義為犯罪高風險地區等等。

儘管在預測與決策中使用人工智慧可以減少人類的主觀性,輔助人類進行理性決策,但人工智慧也可能內嵌偏見,導致對某些人群的預測和輸出不準確。例如,現有的性別偏見和不平等會被人工智慧系統放大,在現實生活中給女性帶來顯性和隱性的負面影響。

近年來,人工智慧中的偏見已逐漸受到各界關注。業界已經達成共識,指出人工智慧系統中存在的性別偏見是不爭的事實,並出台了一系列人工智慧倫理原則與規範,以約束其表現。然而,這些準則往往停留在較高的概念層面,缺乏足夠具體的技術標準和法律法規去支撐其落地,實際操作層面的改變。

因此,目前各個機構並不具備糾正人工智慧偏見的工具與條件,但是隨著人工智慧越來越多影響我們生活的方方面面,我們必須正視這個問題,這不僅對於個人、企業,乃至整個社會來說都是不容小覷的。

從原則共識過度到治理監管層面的實操問題,敦促各利益相關方拿出具體落地的解決方案,恰恰是本次專題論壇致力於探討的問題。

——張 薇

聯合國開發計劃署助理駐華代表

12月9日晚上9點到11點,由聯合國開發計劃署和聯合國婦女署在「2022人工智慧合作與治理國際論壇」合辦的專題論壇4: 正視人工智慧引發的性別歧視在線上舉辦。通過技術研究者、理論分析者和政策制定者之間的跨界討論,聚焦以下問題:

人工智慧系統中的性別偏見問題,重點探討了造成人工智慧性別歧視發生的關鍵因素及其造成的長期後果與影響。

人工智慧的歧視治理,是否能、如何能與現有的公共治理分類相對應,如產品質量監管,風險管理,技術管理等。

明確人工智慧歧視治理所需要的監管和治理任務,並基於任務來定義人工智慧歧視的監管和治理技術,這包括:如何識別歧視風險?如何評估歧視的程度?如何追責?如何預防未來歧視的產生?如何加強監管與促進公眾參與等。

如何制定出人工智慧性別歧視的技術標準和要求以及配套政策。

本討論環節由聯合國開發計劃署助理駐華代表張薇主持。

嘉賓精彩發言

于洋首先展現了他和清華大學研究團隊的研究成果:

開發了一個工具,用於識別、評估人工智慧系統目前最常用的三大語言模型的性別歧視風險和歧視程度。

提出了一個方法,用於解析AI模型性別歧視風險是AI學會了人類的歧視、還是AI沒有學會人類智能從而導致的偏誤。

政策領域和技術領域的隔離,導致政策領域聚焦於原則而缺乏落實原則所需要的監管技術;相對應地,技術領域聚焦於具體任務中的歧視糾正,並沒有為監管提供合適的技術支撐。因此,要在實踐中實現人工智慧性別歧視問題的治理,就需要政策、產業和研究領域對話。

我們認為政府可以做且必須做三件事。首先,為確保人工智慧(AI)模型性別平等制定質量標準,包括零偏見標準,並將誤差與社會歧視相同的可能性納入考慮範圍。

第二,政府應該鼓勵甚至強制要求披露AI模型的性別平等質量,我們認為這應該是一種AI模型ESG審計的維度之一。

第三,政府應該推進抽樣方法的標準化,以及評估AI模型性別公正質量方法的標準化。

——於 洋

清華大學交叉信息研究院助理教授

人工智慧作為人類開發出來的工具,一定體現了開發者或正面、或負面的價值選擇,不存在絕對中立的技術。例如,一些商場會通過面部識別技術,向男性投放電子產品廣告,向女性投放化妝品廣告。我們可以看到,即便是在這樣一個非常低風險的使用場景中,人工智慧技術以一種隱蔽的方式將一些價值觀念大規模地嵌入到我們的日常生活中,固化一些我們試圖擺脫的性別偏見。以人工智慧當前驚人的發展速度與使用規模,對於治理應該有更高的標準,不應該只關注高風險使用場景中可能發生的性別歧視和偏見。

——凱特琳·克拉夫布克曼

(Caitlin Kraft-Buchman)

Women at the Table CEO / 創始人 Alliance 聯合創始人

要解決人工智慧歧視問題,我們需要讓人工智慧系統更易理解。目前人工智慧面臨的最重要的倫理問題之一是,用戶或者使用者往往不信任許多人工智慧應用,包括AI推薦算法和AI醫療服務等。不信任源於不了解,人工智慧仍是一個難以理解的黑匣子。例如,如果AI醫療軟體提供的醫療服務只做出診斷決定,而沒有給出診斷過程或提供相關信息,則可能影響醫生對這些軟體的使用和信任。面向未來,通過可解釋的人工智慧方法和解決方案,開發人員可以檢測、識別和解決潛在的偏見歧視等問題。此外,促進人工智慧的可解釋性和可理解性,也可以支持用戶的有意義的參與;如果用戶能夠理解AI系統,他們可以向開發人員提供反饋,也可以更有效地與人工智慧系統進行協作。

——曹建峰

騰訊研究院高級研究員

女性在人工智慧行業的代表性仍然不足,歐盟只有20%左右的女性進入了人工智慧領域,中國的比例更低。2019年,清華大學計算機科學與技術專業學士學位的女性僅占12%左右,復旦大學的這一比例也是12%。這是一個系統性的問題,我們應該系統地加以解決,這就是為什麼社會性別主流化如此重要。在技術設計的時候,一定要考慮到人,考慮到性別,才能使這項科技真的惠及人類。好的科技,能夠使人類進步的同時,縮小男女差距;而沒有考慮到人的科技,能夠加大男女,以及強勢和弱勢群體之間的差距。

——馬雷軍

聯合國婦女署駐華辦公室

高級項目官員

為實現公平,我們需要了解數據的局限性,需要建立強大的測試系統,需要讓客戶和用戶對局限性和數據測試知情。這關乎治理的全過程和批准權的行使。

在技術應用方面,有一些決策的影響力比其他決策更大。因此,我們有一個用戶敏感問題決策程序,如果技術的使用將對身體、精神安全或福祉造成風險,或對資源、生命或人權產生重要影響,那麼我們將啟動一個額外的治理過程,讓公司的專家來審查並簽署額外的條款,以幫助做出一些風險較高的決定。

——莎拉·伯德(Sarah Bird)

微軟Azure AI部門首席部門產品經理

依然很難在法律層面對人工智慧的歧視或偏見做出界定,主要面臨以下挑戰:一 、造成人工智慧歧視或偏見的原因很多,很難在法律條文中進行概括;二、人工智慧的發展速度非常快,相關的規範很容易過時,難以對後來出現的歧視問題進行規制;三、研究表明,人們仍然缺乏相關知識理解算法如何運行,特別是那些極為複雜模型的運行原理。如果監管機構不了解AI,他們很難給出定義。如果立法機構給出不準確的定義,就會給整個行業帶來傷害,擾亂秩序。

——張 欣

對外經濟貿易大學

數字經濟與法律創新研究中心執行主任

關鍵字: