騰訊發布國內首份可解釋AI報告!層層分析「套娃式」AI算法

fans news 發佈 2022-01-21T14:39:12+00:00

不久前,1 月 11 日,騰訊也於線上舉辦的科技向善創新周「透明可解釋 AI 論壇」上正式發布了《可解釋 AI 發展報告 2022——打開算法黑箱的理念與實踐》。

打開一個黑盒子,黑盒子變成了白盒子,但是白盒子中又出現了更多的黑盒子,探索可解釋AI是一條長遠的道路。

作者 | 王曄

編輯 | 陳彩嫻

在剛剛過去的2021年,人工智慧領域最熱門的新興話題之一,就是「可信AI」。

2021年6月,螞蟻集團在全球人工智慧大會上首次公布「可信AI」技術架構體系;7月,京東探索研究院又在世界人工智慧大會上發布中國首個《可信人工智慧白皮書》,且兩家企業都將隱私保護、魯棒性/穩定性、可解釋性、公平性作為「可信AI」的四大基本原則。從工業界到學術界,「可信AI」的身影頻頻出現。比如,此前 AI 科技評論也曾報導過哥倫比亞大學數據科學研究院主任周以真教授在《ACM通訊》上發表的「可信AI」一文,其中探討了從「可信計算」到「可信人工智慧」的歷程與問題,也引發不少關注。在國內,人工智慧應用落地的相關議題,已有風起雲湧之勢。越來越多的科技企業開始注重對人工智慧的「約束」,從倫理層面、組織結構層面,如商湯設立倫理委員會。但總的來說,當前人工智慧算法的缺陷,主要攻關難度還是在於技術層面,即常說的「魯棒性/穩健性」與「可解釋性」。

不久前,1 月 11 日,騰訊也於線上舉辦的科技向善創新周「透明可解釋 AI 論壇」上正式發布了《可解釋 AI 發展報告 2022——打開算法黑箱的理念與實踐》。這一報告由騰訊研究院、騰訊天衍實驗室、騰訊優圖、Tencent AI Lab 等機構聯合完成,一經發布,再次引發人們對可解釋AI的劇烈討論。

1

人們為什麼關注「可解釋AI」?

可解釋人工智慧 (XAI) 是一套流程和方法,可使人類用戶能夠理解和信任機器學習算法所產生的結果和輸出。

AI 技術的「不可信」逐漸成為AI大規模落地的一大阻礙。在將 AI 模型投入生產時,可解釋 AI 對於組織建立信任和信心至關重要。AI可解釋性也有助於組織採用負責任的方法進行 AI 開發。近幾年,網際網路科技大廠對可解釋性AI的討論熱度居高不下。

值得一提的是,對可解釋 AI 的研究也逐漸蔓延到了學術界。隨著社會各界對人工智慧可信度的不斷關注,安全可信的人工智慧技術已成為研究領域的熱點。可解釋性是研究的焦點主要之一,其它焦點還包括人工智慧系統穩定性、隱私保護、公平性等。

隨著AI越來越先進,人們越加關注算法究竟是如何得出結果的,計算過程變成了無法解釋的「黑盒子」。這些黑盒子模型在數據的基礎上直接創建而來,AI算法是如何得出特定結果的?創建算法的工程師或數據科學家對此也非常困惑。

「黑盒子」這一概念最早由西方學者提出,是指從用戶的觀點來看一個器件或產品時,並不關心其內部構造和原理,而只關心它的功能及如何使用這些功能。

其實,不僅是AI系統中經常出現「黑盒子」算法,對這種思路的運用由來已久。中國文化中沒有「黑盒子」這個術語,但中華民族傳統醫學中醫的理論是名副其實的「黑盒子」理論。

最早沒有醫學影像等技術,人體就相當於一個不可拆分的黑盒子,而中醫從外入手,運用「望聞問切」的方法,間接地探出病因,再對症下藥,逐漸調理,使病人的內部實現平衡統一,得以治病。

同樣是在醫學場景的運用,使用人工智慧卻不同於使用中醫,人工智慧的使用需要建立在數據之上,這就需要大量的病人診斷資料。但即使有了數據,哪怕是同一種疾病,由於每個人的情況不同,AI也可能做出錯誤判斷。因此,對AI「黑盒子」的破解更為急迫。

自動駕駛汽車失控悲劇頻頻發生;使用AI面部識別技術檢測馬路上的行人,監測亂穿馬路現象,卻誤將廣告牌上的人物圖片識別為行人……人工智慧的這些負面影響,使人們不得不對其提高警惕。

AI 作為一項技術,在給人們帶來諸多便利,給社會帶來效益的同時,難免成為一把雙刃劍。

2

騰訊發布國內首份可解釋 AI 報告

許多科技公司,像谷歌、微軟、IBM、京東、螞蟻集團、美團等紛紛推出相應舉措。

騰訊剛發布不久的《可解釋AI發展報告 2022——打開算法黑箱的理念與實踐》,正應驗了大廠治理 AI 的迫切性。

報告連結:https://docs.qq.com/pdf/DSmVSRHhBeFd0b3Zu

報告總共分為五部分,主要內容分別為可解釋 AI 的概述、發展趨勢、行業實踐、對未來發展的看法以及最後總結。

  • 可解釋 AI 的概述部分,主要概述了機器學習模型所面臨的可解釋性挑戰,可解釋 AI 的意義,可解釋 AI 與透明度、問責制,以及可解釋 AI 局部和全局可解釋的兩個維度。

  • 可解釋 AI 發展趨勢部分,主要解釋了AI的透明性和可解釋性逐漸成為立法和監管關注的焦點,對政府公共部門使用的 AI 系統提出較高的透明度與可解釋性要求,對商業領域的AI系統在可解釋性方面避免作「一刀切」要求,行業積極探索可解釋AI的技術解決方案。

  • 在可解釋 AI 的行業實踐部分,主要介紹了谷歌模型卡片(Model Cards)機制,IBM 的 AI 事實清單(AI Fact Sheets)機制,微軟的數據集數據清單(datasheets for datasets)機制,其他可解釋性AI工具以及可解釋AI的騰訊實踐。

  • 在第四部分,主要講述了對可解釋AI未來發展的幾點看法,包括立法和監督宜遵循基於風險的分級分類分場景治理思路;探索建立合理適度的、適應不同行業與應用場景的AI可解釋性標準;探索可解釋的替代性機制,形成對AI算法的有效約束;引導、支持行業加強可解釋AI研究與落地,確保科技向善;增強社會公眾的算法素養,探索人機協同的智能範式。

作為業內首份AI報告,獲得學界和業界專家普遍一致好評。

在數據隱私保護一塊頗有耕耘的微眾銀行首席人工智慧官楊強評價:

「可解釋 AI 是一個龐雜的領域,這份報告起了一個非常好的頭,在這個基礎上需要開展長期的研究。現在的各種算法還無法在效率和可解釋性兩方面都達到很高的要求,需要根據不同需要進行取捨。而且 AI 的可解釋性是一個長期的問題,不會很快有一個通用的可解釋框架,可以在一些比較重要的領域先行探索解決方法,指明未來的發展方向。」

楊強教授十分關注數據隱私保護的內容,近年來在國內大力推舉強調具有「數據可用不可見」特徵的聯邦學習技術的研究與應用,促進聯邦學習框架的開源與研究。去年3月,由微眾銀行發起制定的國內首個聯邦學習標準正式通過 IEEE 認證,構成了國內研究者對數據保護所做的諸多努力中的一環。除了楊強,時任南方科技大學計算機科學與工程系系主任、歷史上首位獲得神經網絡最高獎「IEEE Frank Rosenblatt Award」的華人學者姚新教授也對該報告進行了附議。他談道:

「對 AI 系統落地來說,透明性和可解釋性是必不可少的,研究前景非常好;但 AI 的透明性、可解釋性和性能之間存在固有的矛盾,一個可能的方向是根據不同的場景、可解釋的目的,尋找不同的折中方案,以此促進 AI 技術的落地。」

什麼是「可信AI」?在去年的一次對話中,姚新教授也曾向 AI 科技評論分享過自己的看法。其中,他提出,檢驗人工智慧是否可信、可落地的一個最直接的方法,就是「研究人員敢不敢用」。比如 AI 製藥,如果負責項目的科研人員敢用,那用戶對 AI 的信任度也會提高。但事實是如今的許多 AI 產品由於未充分完善,科研人員也是不敢用的。

由此可見,儘管各大廠開始重視 AI 的治理與落地安全性,但要從技術層面解決當前人工智慧模型可解釋性差、不夠穩定的缺點,還是需要做好打長久戰役的準備。

正如這份報告所指出:

即使AI系統並非完全可解釋,我們也可以利用AI系統來提高決策的透明度。對人類決策的解釋,也許不能準確反映出影響人類決策的因素或無意識偏見。實際上,即使 AI 系統所做出的決策並不能被完全解釋,但相比理解人類如何做出類似決策,我們也可以更好地理解AI系統在整體上是如何做出決策的。而且,AI的最大價值在於可以在複雜情形中發現、識別超出人類理解的模式( pattern ),因此根據定義,這樣的AI系統不會以人類可以理解的方式具有完全的可解釋性。就像取得駕照,相信汽車可以安全駕駛,並不需要人人都成為專業的汽車工程師一樣,當使用AI系統時,解釋並不總是必須的。長遠來看,政府、社會、企業、行業、科研機構、用戶等主體需要共同探索科學合理的可解釋AI落地方案及相關的保障與防護機制,推動科技問雪。

只有各界共同正確審視人工智慧研究出現的問題,並做出合理的解決方案,才能推動AI技術持久穩定的發展,可解釋AI未來發展如何,讓我們拭目以待!

參考連結:

1.https://mp.weixin.qq.com/s/6PpV1SD0L-cySfh4xIvx8Q2.https://mp.weixin.qq.com/s/lUCBn5serDFyvIsllCm-vw相關閱讀

可解釋AI先驅、深理工潘毅教授:AI製藥,要多做「用結構找小分子」的逆向工程 | GAIR 2021

2021-12-26

ACM與IEEE雙Fellow、華人女計算機科學家周以真:可信 AI,未來可期

2021-10-11

聯邦學習首個國際標準正式發布!

2021-04-02

雷峰網雷峰網

關鍵字: