美國白宮發布《人工智慧應用監管指南備忘錄(草案)》

全球技術地圖 發佈 2020-02-08T10:46:37+00:00

2020年1月,美國白宮發布了《人工智慧應用監管指南備忘錄》,該備忘錄從監管和非監管層面提出了人工智慧應用相關原則和建議。

2020年1月,美國白宮發布了《人工智慧應用監管指南備忘錄(草案)》,該備忘錄從監管和非監管層面提出了人工智慧應用相關原則和建議。

一、引言

根據美國第13859號行政令「保持美國在人工智慧方面的領導地位」的相關要求,美國聯邦管理和預算辦公室(OMB)將會同科學技術政策辦公室、國內政策委員會以及國家經濟委員會發布一份備忘錄,以指導有關人工智慧(AI)的監管,並減少AI技術開發和應用的障礙。根據13859號行政令,OMB在考慮AI相關的政策法規時應繼續促進技術創新,同時保護美國的技術、經濟和國家安全,公民隱私、自由以及人權、法治,尊重智慧財產權等美國所尊崇的價值觀。

二、研究範圍

該備忘錄提出的政策考慮僅針對聯邦政府外部開發和部署AI的監管和非監管措施,儘管聯邦機構目前以多種方式使用AI來執行任務,但政府開發使用AI不在本備忘錄研究範圍內。

此外,該備忘錄中的AI定義為「弱」AI,與人類認知能力相似甚至超越人類感知力的「強」AI也不在本備忘錄研究範圍。

三、鼓勵AI的創新和發展

如13859號行政令所述,「美國政府的政策是維持和增強美國在AI方面的科學、技術和經濟領導地位。」AI的部署致力於改善安全性、公平性、福利、透明度和其他社會目的,美國保持其在AI發展領域的全球領導者地位對於維護美國的經濟和國家安全至關重要。開發和部署AI需採取相應的監管或非監管措施,以促進創新、增長並增強信任,同時保護美國的核心價值觀,減少AI開發和部署中不必要的障礙。為此,聯邦機構在決定是否以及如何對可能影響AI應用的領域進行監管時,應評估潛在監管對AI創新和增長的影響,利用AI補充或者替換原有系統時應考慮採用AI的潛在收益和成本。

四、監管原則

在針對通用或者特定行業AI應用程式的設計、開發、部署和操作制定監管和非監管措施時,應考慮以下十項原則。

• 公眾對AI的信任。AI有望在社會和經濟生活各個領域產生積極影響,包括運輸、教育、金融、醫療保健、個人安全和製造業等。但是,AI應用程式可能會對隱私、個人權利、自治權和公民自由構成風險,它能在多大範圍內繼續應用很大程度上取決於公眾的信任。因此,重要的是政府對AI的監管和非監管措施應促進AI的可靠、強大且可信賴,增加公眾對AI的信任。

•公眾參與規則制定。公眾參與,特別是在AI使用有關個人信息的情況下,將改善政府部門的問責制和監管成果,並增加公眾的信任和信心。政府部門應在可行且符合法律要求的範圍內,為公眾提供全程參與規則制定的機會,向公眾宣傳並提高其對標準和其他政策的認識。

•科研誠信與數據質量。政府制定對AI應用的監管和非監管措施時應充分利用科學技術信息及相關流程。對於政府部門掌握的信息,無論是政府部門生產的還是從第三方機構獲取的(這些信息可能對重要的公共政策、私營部門的決定、包括消費者的決定產生重要影響),都應符合透明和合規性的要求。各部門應以一種既可以指導政策決策又可以增強公眾對AI信任的方式制定AI的監管措施,最佳實踐包括透明地闡明優缺點、預期的優化或結果、緩解偏見等。此外,為了使AI應用程式產生可預測、可靠和優化的結果,必須確保用於訓練AI系統的數據達到高質量要求。

•風險評估與管理。AI的監管和非監管措施應基於對各個機構及其所應用技術進行共性風險評估和風險管理的基礎上。不必試圖避免所有可預見的風險,應使用基於風險的策略來確定哪些風險是可以接受的、哪些風險可能帶來不可接受的損害、或者損害的預期成本大於預期收益。政府部門應透明地評估其風險,並在適當的時間間隔重新評估其假設和結論。具體而言,政府部門應根據其管轄範圍內各種活動所帶來風險的程度和性質來制定相應措施,這樣可以避免不必要的預防性監管措施對創新的抑制。

•收益與成本。雖然已經有更廣泛的法律可以適用於AI,但對於AI應用程式所作出決策的責任和義務問題,在某些情況下可能尚不清楚如何適用現有法律。因此,相關機構應在與法律相符的前提下,根據已確定的或者可預期的法律責任來評估相關的收益、成本,從而選擇那些能夠帶來最大凈收益(包括潛在的經濟、環境、公共衛生和安全以及公平性等)的方法。此外,在評估AI成本和收益時還應考慮關鍵的要素,因為技術因素(例如數據質量)和與AI實施相關的人工流程的變化可能會改變風險以及收益的性質和程度。

•靈活性。在制定監管和非監管措施時,相關機構應採用基於性能的靈活性框架,以適應AI應用程式的快速變化和更新。鑒於AI發展的預期速度以及隨之而來的對新信息和新證據的需求,試圖出台嚴格設計好的法規來調整AI應用的技術規範將是不切實際的。有針對性地開展安全、隱私保護等方面的評估,對於實現靈活的、基於性能的監管方法是至關重要的。

•公平與非歧視。相關機構應以透明的方式考慮AI應用程式可能產生的歧視性影響。AI應用具有減少人類主觀性歧視的潛力,但同時在某些情況下AI應用會引入現實世界的偏見,從而產生歧視性結果或決策,破壞公眾對AI的信任和信心。因此,在考慮與AI應用相關的監管或非監管措施時,相關機構應依法考慮有關AI應用產生的結果和決策的公平性和非歧視性問題,以及AI應用與現有流程相比是否可能會降低非法、不公平或其他意想不到的歧視性影響。

•披露和透明度。除了有助於改進規則制定流程外,透明度和信息披露還可以提高公眾對AI應用程式的信任和信心。構成適當的信息披露和透明度是依特定情況而定的,具體取決於對潛在危害的評估、危害的嚴重程度,技術水平以及AI應用程式的潛在利益等。相關機構在考慮採取其他措施來進行信息披露和提高透明度之前,應仔細考慮現有的、以及不斷發展的法律、政策的要求。

•安全保障。相關機構應在AI設計、開發、部署和操作全流程中考慮安全問題,以確保AI系統處理、存儲和傳輸信息的機密性、完整性和可用性。此外,還應進一步考慮確保系統彈性,防止不法分子對AI系統弱點進行攻擊,包括AI操作帶來的網絡安全風險。在評估或引入AI監管政策時,相關機構應注意任何潛在的安全風險,以及可能惡意部署和使用AI應用程式的風險。

•跨部門協調。對AI的監管採取協調一致的整體性措施需要機構間的協調。為此,各機構應加強溝通、分享經驗,並確保與AI相關的政策的一致性和可預測性,以促進美國AI應用的創新和增長,同時適當保護隱私、公民自由和美國的其他價值觀,並在適當的時候允許針對特定行業和應用採取有針對性的監管措施。

五、非監管措施

對於特定的AI應用,相關機構可能發現現有的或者可預見將出台的法規缺乏明確的規定,或者新法規的出台不能證明其成本合理。在這些情況下,相關機構可能會考慮要麼不採取任何行動,要麼選擇可能適合解決某些AI應用程式所帶來風險的非監管措施。包括:

• 部門特定的政策指南或框架。相關機構應考慮利用任何現有的權威部門發布的非監管性政策聲明、指南、測試和部署框架,以鼓勵該部門的AI創新。

• 試點計劃和實驗。相關機構應考慮利用現有法律中規定的豁免情形,或允許為特定AI應用程式提供安全港的試點計劃。作為此類計劃的一部分,相關機構可能會收集有關AI應用程式的設計、開發、部署、操作或結果的數據,以增進其對收益和風險的理解,這可能會產生有用的數據,以為將來制定監管和非監管措施提供信息。如果此類信息涉及重大公共利益,則相關機構應考慮定期向公眾進行通報。

• 自願性共識標準。私營部門和其他利益相關者可能會制定與AI應用有關的自願性共識標準,該標準提供了非監管措施來管理與AI應用相關的風險,這可能更適應快速發展的技術需求。相關機構應優先考慮自願性共識標準,但也可以利用獨立的標準制定組織制定的標準。

轉自丨 CAICT網際網路法律研究中心

作者丨賈寶國

研究所簡介

國際技術經濟研究所(IITE)成立於1985年11月,是隸屬於國務院發展研究中心的非營利性研究機構,主要職能是研究我國經濟、科技社會發展中的重大政策性、戰略性、前瞻性問題,跟蹤和分析世界科技、經濟發展態勢,為中央和有關部委提供決策諮詢服務。「全球技術地圖」為國際技術經濟研究所官方微信帳號,致力於向公眾傳遞前沿技術資訊和科技創新洞見。

地址:北京市海淀區小南莊20號樓A座

電話:010-82635522

微信:iite_er

關鍵字: