大數據時代的算法歧視及其法律規制

學習時報 發佈 2020-08-12T09:01:40+00:00

大數據時代以數據作為基礎資源,算法決策作為核心引擎。數據是算法的依託,本身具有客觀中立性,但人為設計的算法卻不可避免地隱含偏見。

大數據時代以數據作為基礎資源,算法決策作為核心引擎。數據是算法的依託,本身具有客觀中立性,但人為設計的算法卻不可避免地隱含偏見。如在就業領域,某些特殊群體在崗位推送和篩選上時常受到搜尋引擎的差別對待;再如在市場營銷方面,網際網路平台通過大數據分析消費者的購買或瀏覽記錄,對用戶進行「畫像」後,根據其喜好程度、收入水平的不同,在提供相同質量的商品或服務的情況下,分別實施「差異化定價」。此類在算法自動化決策中產生的不公平現象,被稱為算法歧視或算法偏見。

隨著算法決策深度浸潤到人類日常生活和社會管理的方方面面,算法歧視在更廣闊領域、以更加隱蔽的形式呈現,其可能引發就業、交易、理財等諸多領域不公平的差別對待,影響社會公平正義,有必要以法律手段對其加以規制。

準確把握算法歧視的產生邏輯是對其進行科學規制的前提。通常來說,算法歧視的成因有以下幾方面:一是算法本身具有價值負載性。算法並非完全客觀,而是往往蘊含某種預設的價值立場。若設計者存在某種價值偏見,並嵌入到信息的收集、標註、處理中,則算法的輸出結果也會體現出價值偏見。二是數據輸入的局限性和不正確性。若數據收集時,將社會存在的對某地區或人群的歧視行為作為範例,或數據收集範圍為具有偏見意識的人群樣本,則算法產生的「訓練數據」亦將受到影響,並影響算法輸出結果。三是算法黑箱造成的透明度缺失。算法從接受輸入數據到輸出決策結果的全過程,形成外界無法獲知的「黑箱」,算法在其中進行數據的處理、評估及分析,並根據具體場景作出決策。算法「黑箱」的非透明性導致歧視行為更加隱蔽、難以察覺,進一步助長了某些算法設計和經營者為追逐經濟利益而產生歧視行為。

法律應當積極回應時代的變化和需求,針對算法歧視的法律規制應當結合具體場景和現有問題循序漸進地開展。目前,歐盟主要通過《通用數據保護條例》中規定的「數據清潔」條款,從源頭上移除特定種類的數據,以防止敏感數據對數據主體產生的歧視,總體遵循以數據保護為核心的規制路徑,還有國家將算法規制的路徑從算法透明轉換為以結果為重心的算法審查,以平衡企業經濟效益與社會公共利益。針對我國當前出現的算法歧視的具體情況,對其法律規制可從以下幾方面展開。

確立算法運行的基本原則理念

在規制算法歧視的理念層面,應首先確立算法公正這一宏觀指導原則。平等作為一項基本原則和權利早已規定於各項法律中,算法公正則是該法律原則在數據智能領域的進一步延伸。在算法公正原則的指導下,無論是算法的開發者、監管者還是運營者,均應當在涉及算法的工作中自覺維護公民的平等權利,避免對特定群體或地區產生不合理的差別對待。在具體操作過程中,各主體應遵守包括算法透明、算法解釋、算法問責、算法包容以及算法審查等在內的各項細化原則。

合理配置相關主體的權利義務

從多元主體的利益平衡角度,規制算法歧視應當對個人進行賦權,同時對算法權力進行控制。首先是對個人進行賦權,一方面應當通過賦予公民免受算法決策支配的「選擇退出」的權利,以降低其遭受算法歧視侵害的風險;另一方面,應當賦予公民對於個人數據信息的控制權,其有權限制企業收集其信息數據的範圍,並且就企業收集的有關其個人的信息數據,有權要求企業進行解釋和刪除;其次是對算法權力進行控制,應針對算法設計者及運營者設置算法審查、算法風險評估以及算法解釋等義務,要求其就算法應用中導致的算法歧視主動進行事前預防、事中控制以及事後矯正,通過全過程的風險把控以抑制和約束其行為。

建立專門的算法違規問責制度

當預防措施無法有效遏制算法控制者的歧視行為時,確有必要對算法歧視造成主體權益的侵害進行追責。具體而言,問責制度的建立包括兩個層面內容:一是明確侵權者並要求其承擔責任。應當通過設計適當的歸責原則和因果關係認定規則,明確算法歧視的責任主體,其中一般涉及算法設計者與算法運營者的責任劃分問題,進而在確定責任主體的基礎上明確各主體分別應當承擔的民事或行政責任。二是暢通受害者權利受侵害的救濟途徑。一方面,算法運營者應通過適當的方式,確保受害者有充足的質詢、反饋和投訴通道,並就受害者提出的問題積極進行回應和補救;另一方面,應建立相應的集體訴訟制度,保證受害者得以通過司法途徑維護自身合法權益。集體訴訟有助於改善受侵害個體與算法控制者之間的信息和資源的不平等地位,提升受侵害者的談判和議價能力,是緩解受侵害者弱勢地位並保障其訴訟權益的有效辦法。

關鍵字: