演講直擊|羅斯坦·紐維爾:潛意識人工智慧系統的監管:一項全球挑戰?

上觀新聞 發佈 2022-09-18T05:29:11.518235+00:00

潛意識人工智慧系統的監管:一項全球挑戰?我們當前所處的時代是一個充滿悖論的時代,一如當年的矛盾時代,這樣的時代給我們帶來了嚴峻的監管挑戰。人工智慧被描述為一種自相矛盾的存在,因為人類智能與具有學習能力的人工智慧機器相處並不融洽。

潛意識人工智慧系統的監管:一項全球挑戰?

我們當前所處的時代是一個充滿悖論的時代,一如當年的矛盾時代,這樣的時代給我們帶來了嚴峻的監管挑戰。人工智慧被描述為一種自相矛盾的存在,因為人類智能與具有學習能力的人工智慧機器相處並不融洽。因此,在我看來,大衛·霍爾德(David Held)在2010年出版的書中提出的「我們時代的悖論」很好地概括了這一點,書中寫道:「我們時代的悖論可以簡單地概括為:我們必須解決的共同問題日益全球化,然而,解決這些問題的手段卻局限於一國一地,薄弱且不完整。」這種悖論適用於由可持續發展目標精煉概括的許多當代問題,比如氣候變化和全球大流行病時期的公共衛生設施不平等,但我認為人工智慧亦屬於這一類問題,下面我將試著說明個中緣由。

在過去兩年中,已進行了相當多的監管活動。這些監管活動始於去年,即2021年4月,當時歐盟委員會提出了一項新法規,規定了人工智慧的統一規則,即所謂的《人工智慧法案》,目前正在制訂過程中。此後不久,11月,聯合國教科文組織還以其193名成員的廣泛共識通過了《人工智慧倫理問題建議書》。雖然這只是一種建議,但它也是一份非常重要的文件,表明存在一種全球關注:人工智慧不僅能帶來機遇,同時還有與之相關的風險。這也是歐洲委員會提出的一項倡議,當然,許多其他國家亦在國內層面就處理人工智慧帶來的各種後果的立法和監管行為進行討論。但歐盟的法案和建議也相當全面,不失為一種橫向比較的方法,這也是以之為出發點的妙趣所在。

在此之前,我還想提及聯合國教科文組織文本中也強調的一個具體方面,即人工智慧對社會、環境、生態系統和人類生活的巨大正面和負面影響,其中特別強調對人類生活的影響,因為這是人工智慧在某種程度上成為遊戲規則變革者的原因,因為人工智慧讓我們得以影響人類的思維、互動溝通、決策,最終也會改變我們的行為方式。

在這方面,我的書也討論了《歐盟人工智慧法案》的一個具體方面,即第5(1)條,該條建議禁止某些人工智慧系統在人的意識之外部署潛意識技術,以實質性扭曲個人的行為,這種技術會或可能會導致使用者或他人遭受生理和心理傷害。

因此,儘管這只是一個擬議的文本,但在我看來,這是該法案的核心或關鍵條款,涉及人工智慧對大腦的影響,以及其以積極和消極方式操縱大腦的可能性。在這方面,通過這一條款,提出了許多重要的問題,即,首先,什麼是潛意識感知?什麼是潛意識操縱,它有效嗎?其次,在我們的意識之上和之下,感知的閾值在哪裡?該閾值是否同樣適用於每個感官或所有感官?最後,這些已經能夠操縱我們的人工智慧系統和技術是什麼?在未來,他們將以何種形態出現在我們的面前?

在此,我想先回顧一下我在研究中遇到的一件事,即在這個閾值上,我們顯然只能控制5%的認知功能,有95%都是潛意識在發揮作用,這意味著我們的大多數決定都是在潛意識的控制下做出的,而且我們基本上都是自發做出這些行為決定的,比如走路和開車等等。但這意味著,如果有技術可以讓我們利用這95%的潛意識,該項技術將是一個非常強大的工具,不僅可以影響我們的思想,還可以影響我們行為。

這也可以追溯到20世紀30年代的實驗,首先是一些心理學實驗,隨後得出了一些實驗發現:潛意識、感官刺激會對大腦產生影響,以及我們如何將其應用到廣告中,比如在電影院快速播放一些關於喝可口可樂、吃爆米花鏡頭後,會令觀眾作出更多消費,儘管觀眾自己也沒有意識到這些鏡頭會產生這樣的作用。多年來,這點一直存在爭議,20世紀50年代也有一些書籍警告說:這些潛意識策略對消費者的行為有很大的影響,而且這些策略也可以用於其他目的,比如政治目的,比如提拔政客或者改變選舉結果。我們知道「劍橋分析公司醜聞」從某種意義上證明了這種可能性。但我不想進一步討論這個問題,只是想總結一下潛意識的問題,就像廣告一樣,我認為,對此現在已有科學共識:許多研究證明潛意識操縱是有效的,它能夠影響我們的思想和行為。但能在多大程度上發揮作用取決於許多因素,但總而言之,人們普遍認為潛意識操縱是可能的。

另一個問題是:實現潛意識操縱的意識閾值界限在哪裡?人們對此進行了長期的爭論。我認為,最新的發現對此問題做了科學的總結:不存在這樣的閾值界限。

首先,這可能是由於不同的人有不同的意識閾值,有些人聽力更好,有些人視力更佳,有些人更專注於不同的感官。最重要的是,甚至在同一個人身上,意識閾值也是不斷變化的;當你清醒時,你的視力更好、聽力更佳、人也更為警覺,因此這個意識閾值會根據不同因素而變高或變低。因此,上述討論只是從監管角度出發,如果有更多的時間,應該進行全面的討論。

這些在潛意識中運作的人工智慧技術是什麼?這裡我只想舉一個例子,有一個關於酒店網站預訂的實驗,當實驗人員在酒店房間的視頻中不經意地添加了微小的表情符號,即當被測試人員看到酒店房間的視頻時,不會全然意識到微笑表情符號的存在。在不經意地嵌入微笑表情符號的視頻中,消費者的認可率很高,所以這在某種程度上表明:簡單的表情符號、簡單的刺激,比如微笑的表情符號,可以對消費者的行為產生潛意識影響。還有很多的例子,在現實中也有人做了一些侵入大腦並提取個人信息的實驗,主要是通過使用不同的技術組合,提取的個人信息,包括你的密碼、你的生日、你的地址等。在此提及的人工智慧可以協調學習,使機器得以收集數據,然後將數據與不同的來源相結合,如計算機、大腦、接口或各種醫療設備,如功能性磁共振成像等。因此,我們今天所見的強大手段是基於這些不同技術的融合,這在某種程度上已經獲得神經營銷學的認可,當然這種手段也可以用於許多其他目的。

因此,在某種程度上,人們已經認識到,人工智慧的大勢已來,我們已經從為計算機編程轉變為為人編程。這也概括了一個事實,即我們已經擁有非常強大的技術,隨著更多的設備被創建、創新和重新組合,人工智慧技術在未來將變得更加高效,比如在增強現實和虛擬實境中。此外,我們也在創造、複製著人類的大腦,通過這些手段,我們也能夠進一步了解人類大腦中正在發生的事情。對此,我們需要一場激烈的討論,一場不僅局限於本地視角,而是放眼全球的討論,因為在某種程度上,人工智慧存在一種危險:即通過這些人工智慧技術,人類人格中最私密部分的個人思想將變得公開且透明,以及這些技術,不論是以積極還是消極的方式,都將成為操縱人類行為的強大工具。

此外,人工智慧本身並不矛盾。我認為人工智慧並非「智能」,我們也不應該對其以「智能」相稱,因為這樣的稱謂就其實際情況而言屬於言過其實。有趣的是,計算機也可以被操縱,計算機並不完全可信,計算機也會出錯。舉個例子,我們的筆記本電腦也會死機或發生其他故障。同樣的情況也可能發生在自動駕駛汽車上,一旦出現這種情況,後果不堪設想。因此,我們應該真正關注人工智慧當下以及未來的智能程度和可信賴性。因此,我們需要一場討論,一場全球性的討論,討論的焦點要關注人工智慧的可信賴性,以及我們如何使人工智慧合乎倫理道德。我們還需要討論人工智慧需要受到多大程度的人類監督,我們不應該把所有事情都交代給機器。我們還必須確保這些系統在不同的法律體系、不同的司法管轄區等中具有互操作性,而且不存在我們從網際網路上得知的人為障礙,比如地域屏蔽。因此,我們也必須通過思想自由和隱私保護等基本權利來保護我們的大腦和思想,我們還必須重新考慮「造成傷害」的含義。對「傷害的範圍」有非常有趣的評論,傷害應不僅指心理和生理傷害,我們還需要對傷害作出更廣泛的定義:社會傷害、文化傷害、金融傷害,或者一場被操縱的選舉還會對全體民眾產生影響。因此,我們需要傾聽各方意見,以擴大我們對傷害的理解。

最後,我們需要更大範圍的監管一致性,這意味著不同部門法之間的一致性,這不能僅由某一部門法予以監管,比如僅由不正當競爭法或僅由智慧財產權法予以監管。這確實需要我們重新思考整個法律體系,以及這些不同的部門法如何協同工作。最重要的是,我們需要一場跨學科的討論,因為我們需要心理學、神經科學、以及所有參與這些在潛意識中發揮作用的人工智慧技術和人工智慧系統開發的人員的投入,並共同努力確保在未來人工智慧技術和系統是安全的,並在一定程度上能夠保護我們思想的私密性。歸根到底,這是因為如果我們不能控制自己的思想(雖然通常很難),那麼很有可能,其他人或算法將會成為你思想的控制者。

駱 珍 金惠珠

關鍵字: