道德AI終於有了實際意義?

曾幾何時616166 發佈 2020-08-24T08:37:27+00:00

今年早些時候,全球最大AI會議「CogX」舉行,並針對圍繞人工智慧的抽象倫理問題以及新的驅動技術進行討論,見證了新一輪道德AI浪潮。

今年早些時候,全球最大AI會議「CogX」舉行,並針對圍繞人工智慧的抽象倫理問題以及新的驅動技術進行討論,見證了新一輪道德AI浪潮。

從哲學家到技術專家

與2016和2019年,74套的道德原則或AI準則公布,這是道德AI的第一波浪潮,剛剛開始了解快速發展的機器學習和AI功能的潛在風險和威脅,並且正在尋找遏制它們的方法。在2016年,AlphaGo擊敗Lee Sedol,促使人們認真考慮通用AI可以實現的可能性,在全球雙寡頭平台Google和Facebook上,算法引發的混亂包圍當年的兩場主要政治地震,英國脫歐和川普當選。

由於對如何理解和預防顯而易見的危害感到恐慌,決策者和技術開發人員求助哲學家和倫理學家來制定準則和標準。這些通常回收相同概念的子集,很少超越高級指導或包含與個別用例和應用程式對話所需的那種特殊性。

該運動關注法律道德,忽略與系統性不公正和基礎設施控制有關的問題,而這些缺點使這一運動容易受到批評,因為它被大型科技公司所採用,以逃避更大的監管幹預。那些相信大型科技公司正在控制有關道德AI的話題的人將這一運動視為「道德洗禮」。資金流向 從大型技術到編纂計劃,公民社會和學術界提倡基於道德的方法,僅強調這些批評的合法性。

同時,第二波道德人工智慧正在興起,它力求促進使用技術干預措施來解決道德損害,特別是與公正,偏見和不歧視有關的損害。「 fair-ML」的領域是出於計算機科學家的一個令人欽佩的目標而誕生的,該目標是將公平性指標或硬性約束引入AI模型以調節其輸出。

專註解決公平、偏見和歧視問題的技術機制,解決人們對AI和算法系統如何不正確和不公平地對待有色人種或少數民族的擔憂。兩個具體案例為這一論點提供重要的證據。第一項是Gender Shades研究,該研究確定由Microsoft和IBM部署的面部識別軟體對女性和有色人種的面部的假陽性和假陰性返回率更高。第二個是2016年ProPublica調查進入COMPAS量刑算法工具後,該工具發現黑人被告比白人被告更有可能被錯誤地判斷為有更高的再犯風險,而白人被告比黑人被告更容易被錯誤地標記為低風險。

第二波倫理AI在這些偏見和公平問題上進行縮小,並探索解決這些問題的技術干預措施。但是,這樣做可能會歪曲和縮小討論範圍,使之脫離偏見的根本原因,甚至加劇有色人種和少數民族的地位。正如西澳大學Minderoo技術與政策實驗室主任Julia Powles所論證的那樣,緩解數據集代表性的問題「僅是讓設計師選擇了完善的監視和分類工具。當根本的系統性問題仍未得到根本解決時,偏見鬥士只會使人類更具機器可讀性,從而使少數群體尤其遭受額外的傷害。」

一些人還認為,公平機器學習語言是大型科技公司對具有社會意識的計算機科學家的一種選擇。通過將道德問題歸結為公平性和準確性的狹義問題,公司可以將擴大的數據收集等同於對「道德AI」的投資。

科技公司為倡導公平相關代碼所做的努力說明這一點,根據香港IDC新天域互聯整理:2018年1月,微軟發布AI的「道德原則」,從「公平」開始;在2018年5月,Facebook宣布一種名為「公平流」的 「尋找偏見」工具;在2018年9月,IBM發布一個名為「 AI Fairness 360 」 工具,該工具旨在「檢查數據集和機器學習模型中是否存在不必要的偏差。」

新十年的道德AI

在新的十年的前夕,《麻省理工學院技術評論》發表一篇題為「 在2020年,讓我們停止AI道德洗禮並切實做點事情。」 幾周後,AI道德社區迎來2020年聚集在巴塞隆納會議室的一年一度的ACM公平,問責和透明度會議。Elettra Bietti撰寫許多有舌頭晃動的論文。,伯克曼·克萊因(Berkman Klein)網際網路與社會中心的甘迺迪·辛克萊(Kennedy Sinclair)學者會員。它呼籲超越主導該學科的「洗道德」和「抨擊道德」。這兩篇文章預示著一系列干預措施,使社區重新圍繞討論道德AI的新方式重新定位,這是由正義定義的-社會正義,種族正義,經濟正義和環境正義。它已經避開了「道德AI」一詞,轉而使用「公正AI」。

隨著2020年野性和不可預測事件的爆發,伴隨著第三波倫理AI的出現,它們被黑生命物質運動所催化的巨大力量進一步強化。第三波道德AI的概念性不如第一波道德AI,並且對理解應用程式和用例感興趣。它更多地關注的是權力,活在既得利益中並且關注結構性問題,包括非殖民化AI的重要性。Radical AI Network的創始人Pratyusha Kalluri在《自然》雜誌上發表的文章到2020年7月,該方法已成為一個縮影,認為「當AI領域相信它是中立的時,它既不會注意到有偏見的數據,也不會建立能夠使現狀成聖並提升強者利益的系統。所需要的是一個領域,該領域暴露並批評集中權力的系統,同時與受影響的社區共同創建新系統:人為和為人而創造的AI。」

在實踐中這意味著什麼?我們已經看到法院開始與算法系統的真正力量和潛力作鬥爭,並且政治和私營部門參與者也開始承認。僅在英國,上訴法院就認為警察使用面部識別系統是非法的,並呼籲建立新的法律框架。政府部門停止使用AI進行簽證申請分類 ; 在西米德蘭茲郡警察道德諮詢委員會認為對暴力的預測工具停產; 在教育監管機構Ofqual使用的算法系統使成千上萬的離校生的分數降低後,全國各地的高中學生都提出了抗議。紐西蘭發表Algorithm Charter和法國的Etalab -一個負責開放數據,數據政策和開放政府的政府工作組-一直在努力繪製跨公共部門實體使用的算法系統並提供指導。

倫理AI研究的目光從技術轉向社會技術引起更多問題,例如大型科技公司的反競爭做法,平台勞動做法,公共部門在預測性採購中的談判權平等分析,以及訓練AI模型對氣候的影響。從技術公司的聲譽可以接受的角度來看,它已經看到了Overton窗口合同。經過Joy Buolamwini和Timnit Gebru等研究人員的多年宣傳,亞馬遜和IBM等公司終於對面部識別技術的銷售實行自願暫停。

COVID危機一直發揮著重要作用,體現技術進步,這些技術進步有助修復加劇AI和算法系統風險的功率不平衡。Google / Apple去中心化協議的可用性用於啟用曝光通知的功能阻止數十個政府啟動侵入性的數字聯繫人跟蹤應用程式。同時,政府對流感大流行的反應不可避免地引發新的風險,因為公共衛生監測已被納入人口監測之中,面部識別系統已得到增強,可以在口罩附近工作,並且利用未來流行病的威脅來為社交媒體辯護分析。英國試圖弱化道德諮詢委員會,以監督其啟動集中式聯繫追蹤應用程式的失敗嘗試,這是無牙倫理領袖的喪鐘。

研究人員還正在調查數據驅動的社會中正義的含義,以及諸如數據與社會,加的夫大學的數據正義實驗室,普林斯頓的JUST DATA實驗室以及蒂爾伯格法律,技術與社會研究所的全球數據正義項目等機構。荷蘭的人們正在醞釀一些最新穎的想法。Mindaroo基金會剛剛啟動一項新的「 未來說」計劃,並提供了350萬美元的贈款,旨在解決無法無天,增強員工能力並重塑科技領域。該計劃將建立在技術工作者自身對第三波道德人工智慧浪潮的重要貢獻基礎上,由AI Now聯合創始人梅雷迪思·惠特克(Meredith Whittaker)於去年離職之前在Google的組織工作中,進行了走出去和罷工。亞馬遜物流工人 以及Uber和Lyft驅動程序。

但是,第三波道德人工智慧的方法尚未在整個技術領域得到接受,這一點已由AI研究人員Yann LeCun和Timnit Gebru之間最近就有關是否應將AI的危害減少到偏見的激烈交流中得到證明。Gebru不僅重申已確立論點,以反對只關注數據集偏差,還提出了建立更具包容性的AI獎學金社區的理由。

在社會壓力的推動下,可接受性的界限正在迅速變化。但是,即使在道德規範的AI社區中我們當中的那些人也有很長的路要走。

關鍵字: