王建文:人工智慧法律規制的困境

濟南市天橋區檢察院 發佈 2024-03-06T15:26:56.524297+00:00

王建文南京大學法學院教授、博士生導師,國家社科基金重大項目「優化市場化法治化國際化便利化營商環境研究」首席專家,首批國家級一流本科課程「網絡與人工智慧法」負責人。主要研究領域為商法、金融法,並立足於民商法開展網絡與人工智慧法領域的交叉學科研究、營商環境研究與評價工作。

王建文


南京大學法學院教授、博士生導師,國家社科基金重大項目「優化市場化法治化國際化便利化營商環境研究」首席專家,首批國家級一流本科課程「網絡與人工智慧法」負責人。


主要研究領域為商法、金融法,並立足於民商法開展網絡與人工智慧法領域的交叉學科研究、營商環境研究與評價工作。


《網絡與人工智慧法學》

王建文 主編

法律出版社2023年版

ISBN:9787519774677



  • 本文節選自《網絡與人工智慧法學》第八章「人工智慧法」第二節(第237-241頁)。為閱讀方便,腳註從略,如需引用,請以紙質書為準。



人工智慧與經濟社會的緊密結合已成為不可避免的趨勢。當前人工智慧雖然可以模擬並表現人類智力,甚至在單一領域超越人類,但整體尚未達到人類智能水平。不過,發達國家正通過類腦人工智慧、神經擬態計算、繪製人腦迴路圖譜、全腦仿真等方式,力圖打造更強的人工智慧形態。產業界和科學界最為擔心的就是人工智慧超越人類智能,並取代人類成為世界主宰。


儘管超人工智慧的實現只是理論上的,但現有技術條件下的人工智慧已然給法律的規制帶來了難題,並孕育著更多的挑戰。人工智慧法律規制的困難主要源於人工智慧從研發到應用環節所產生的各種問題。


研發過程中的分散和不透明問題


人工智慧是現代計算機、大數據、圖像處理、認知科學等科學技術以及網絡基礎設施共同發展的產物。由於所依賴的底層技術具有各種特性,人工智慧的研發必然會打上底層技術的烙印,加之人工智慧的研發是相對系統並具有一定複合性(疊加了各種技術)的工程,其暴露出的問題往往比底層技術更加明顯。分散和不透明性是人工智慧研發過程中最為顯著的問題。


首先,人工智慧的研發是充分開放的,這會導致研發的分散性。與其他工業技術的開發需要龐大的資源和基礎設施不同,任何一台與網際網路相連的計算機都可以參與人工智慧的研發。


從硬體端來說,人工智慧系統單個組件的開發可以由多個主體在不同時間、不同地點、無須事先協調的情況下進行,參與人工智慧研發的人員相互之間可能沒有任何法律關係。


從軟體端來說,開發人工智慧所使用的程序可以來源於開放源碼的軟體庫,每個庫都是在其他庫基礎上獨立構建和開發的,從事人工智慧開發的程式設計師每天可以匿名地對這些庫進行各種修改。在此基礎上,從這些庫中獲取的組件可以被合併到由不參與組裝底層軟體庫的開發者所開發的人工智慧系統的程序中。


無論是從硬體端還是從軟體端來說,雖然單獨開發組件並進行組裝的模式在所有複雜系統的研發中都一定程度地適用,但現代計算機系統中軟硬體組件之間的離散性水平和交互性規模已經超越其他技術,由此決定了研發過程的分散性會隨著更強人工智慧形態的出現進一步增加。


其次,人工智慧的研發具有不透明性。與諸如汽車製造等產業工藝成熟、具有高度透明度不同,人工智慧的研發並不透明。一方面,人工智慧的研發涉及多種技術,所使用的算法或數據都是隱藏在交互界面後面,不會直觀地展現出來。另一方面,人工智慧的內部結構一般是高度保密的,不容易通過逆向工程解構。


以人工智慧產品的算法歧視為例,人工智慧產品出現算法歧視問題有其深層次原因,但從根本上來說是所使用的算法和底層數據不透明所致。人工智慧的語料庫來源於人類,其中難免含有歧視性話語,因而也就不可避免地使人類固有的歧視經由算法而表現於人工智慧之中。


例如,某圖像識別軟體將黑人標記為「黑猩猩」,微軟的聊天機器人發表的言論帶有種族歧視、性別歧視和納粹同情色彩。鑑於算法「中立」是一種完全理想的狀態,要做到算法反歧視,就必須對底層數據進行篩選和淡化,這勢必牽涉公開算法及底層數據。而一旦要求公開算法和底層數據,就可能會暴露人工智慧產品的核心技術,就商業競爭而言,這顯然是研發者所不願意的。


人工智慧研發過程中的分散和不透明會給法律規制帶來諸多難題。


人工智慧研發的分散性意味著項目的參與者可能分布於多個國家,彼此之間沒有任何法律關係。用於人工智慧的某些組件先於人工智慧項目的構思而存在,而組件的設計者可能無法預想到他們的設計將被納入人工智慧系統。即便能夠預想到,組件疊加後的效果也是根本無法預估的。


分散性帶來的直接後果是人工智慧產品致人損害後,由於可能牽涉多個相互之間沒有任何法律關係的主體,確定責任歸屬或責任的分擔(涉及技術溯源以及因果關係的確定),以及受害者在受到人工智慧產品損害後的救濟都將變得複雜。


如果參與研發者分散在不同法域,還意味著對人工智慧研發的監管需要跨區域,這將大大增加監管的難度。


人工智慧研發的不透明性還會導致極大的安全風險。特別是當人工智慧產品的設計存在缺陷時,受困於研發過程中的不透明,該缺陷不僅對使用者,對於下游生產商和銷售商甚至監管者而言都是難以檢測的,這將極大地使旨在管理與人工智慧相關風險的制度複雜化。


人工智慧行為的可預見性問題


開發人工智慧的最直接目的是模擬甚至超越人類智能,使人工智慧產品能夠像人類一樣「思考」並服務於人類。高度擬真的人工智慧產品,尤其是具備學習能力的人工智慧產品,一旦具備「人性化思考」「人性化行為」的能力,就會表現出極大的創造性。


例如,在疾病診斷領域,病理學家認為,癌症預測主要依賴對腫瘤細胞而非腫瘤細胞周圍的支持組織(基質)的成分的研究,但癌症病理學機器學習程序C-Path發現,基質實際上比腫瘤細胞更適合作為乳腺癌的預測指標。C-Path的這一發現,不僅顛覆了主流醫學理論,也是程序開發者所始料未及的。


現階段人工智慧產品形成「創造力」的機理,與人類的思維過程仍存在頗多差異。人工智慧程序可以調動豐富的計算資源,在給定的時間內,人工智慧程序可以比人類智能探索更多的可能性,從而允許人工智慧系統分析人類可能沒有考慮到的、更不可能嘗試實現的潛在解決方案。


電腦程式不像人類那樣具有「思維定式」,完全不受人類決策者所依賴的先入為主的觀念、經驗法則、認知偏差和傳統智慧的限制。而人類大腦認知具有局限性,無法分析所接收到的全部甚至大部分信息。人類的創新之舉,對於計算機而言不過是充分地調動了其計算資源,窮盡了所有的可能性。


正是通過這種強大的計算能力,人工智慧可以生成人類無法預料的解決方案,實現「創造性」。


人工智慧能夠實現「創造性」,對於人類(包括該人工智慧的研發者)而言其行為就具備一定的不可預見性。人工智慧的學習能力使之可以不必按照開發者最初設定的指令來運行,其行為主要取決於其設計後所習得的經驗。因此,人工智慧運算過程和運算的結果(表現為決策或判斷),即使是最細心的設計師和生產商也無法預測。


隨著由各種人工智慧技術疊加的通用人工智慧系統的發展,尤其是神經擬態計算、全腦仿真等技術的應用,人工智慧的創造力不會僅局限於通過大量計算窮盡一切人類智能無法企及的可能,而是可以與人腦思維過程相結合,如此一來人工智慧行為的不可預測性將顯著增加。一旦人類無法有效預見人工智慧被投入使用後的行為,人工智慧產品對外部環境的影響也就無法預估,這對於如何管理人工智慧帶來的風險無疑又是一個挑戰。


此外,由於人工智慧產品可能執行連其設計者都無法預見的行為,如何設定事前的監管規則是一大難題。


人類對人工智慧的管控問題


對於不具備學習能力的人工智慧來說,其功能和目標由裝載於其上的程序決定,程序一旦設定,該人工智慧就會不遺餘力地實現這個目標,其行為雖可能超出設計者所預想,但處於總體可控的狀態。


而對於能夠自主學習並適應外部環境的人工智慧而言,其行為的不可預測性較強。學習型人工智慧可以通過大數據以及習得的經驗自主改進其算法,模擬人類的學習活動,以獲取新知識和新技能,並以獨特甚至不可預見的方式與所處環境互動。一項複雜的人工智慧系統可以自行改進其硬體和程序,以至於它所獲得的認知能力遠遠超過其設計者。


人工智慧行為的不可預測性大大提高了人類控制人工智慧的難度,特別是當高級形態的人工智慧出現時,理論上人類有可能完全失去對人工智慧的控制。


失去對人工智慧的控制可分為兩種情形:當對某一人工智慧的操作和監督負有法律責任的人無法控制人工智慧時,稱為局部失控(lose local control);當某一人工智慧不再能被任何人控制時,稱為完全失控(lose general control)。技術的複雜性決定了人工智慧的任何一個系統發生改變,都會帶來全局性的影響。


僅就目前而言,局部失控問題已不同程度地出現,如近年來各國爆出的人工智慧機器殺人事件。完全失控問題也已初見端倪,如美國的算法交易系統能夠自動執行諸如股票交易之類的指令,這些指令可以以納秒為單位執行,從而在非常短的時間內產生巨大的經濟影響,人類根本無法進行實時干預。


隨著機器學習能力的提升,特別是到了人工智慧2.0時代,人類將不再僅僅追求給人工智慧確定的框架,而是使之自行形成一些算法規則,超脫人類所設定的各種算法和程式。越來越多的人擔憂,人工智慧的「自主性」會越來越強,人工智慧的發展可能會突破人類的認識,超出人類控制範圍。一旦出現強人工智慧形式,不僅人類對人工智慧的控制變得更難,而且可能會出現人工智慧主動抵制人類控制的現象,這將給人類社會帶來災難性的風險,並最終損害人類的根本利益。


值得慶幸的是,人工智慧脫離人類控制的情況還未大範圍出現,人工智慧並非在所有場景的應用都會帶來不可控的風險。由於不同類型、不同發展形態的人工智慧產品會帶來不同的風險,如何設置有效的風險管控手段,在不阻礙技術創新的情況下區別應對人工智慧發展所帶來的風險,是人工智慧法律規制的根本性難題。


來源:中國法律評論

關鍵字: