ChatGPT與人類未來:AI繭房、安全漏洞與未知的社會形態

硅谷101 發佈 2024-04-10T13:53:13.161389+00:00

OpenAI做了谷歌不敢也不想做的事,那就是:還在研究階段就對外公開了ChatGPT。這引發了巨大的爭議,關於詐騙,關於作弊,關於人類未來的教育、認知的獲取,以及未來大量工作被取代。

文|陳茜 何源清

OpenAI做了谷歌不敢也不想做的事,那就是:還在研究階段就對外公開了ChatGPT。這引發了巨大的爭議,關於詐騙,關於作弊,關於人類未來的教育、認知的獲取,以及未來大量工作被取代。說實話,ChatGPT的到來讓我對人類的未來,更迷茫了。

這裡先澄清一下,如今人們對AI在未來能做的事、行為和發展的認知還非常有限,所以今天我們講的東西和判斷可能是稍顯主觀的。但是希望帶給大家一些思考和探討的空間。首先,我們來聊聊ChatGPT對人類認知的影響和潛在的AI繭房。

01 人類認知與AI繭房

我先問大家幾個最直觀的問題:

當你有一個能幾秒內給你答案的聊天機器人的時候,你還會思考,這個答案是怎麼得出來的嗎?

當你習慣了被告知一個事件有12345點,你還會去想,它是否還會有678910點重要的角度嗎?

當你不用學外語就能寫出一篇沒有語法錯誤的情書,你還會為了追那個異國的女孩而去了解她的語言她的國家她的信仰她的文化嗎?

當你認為ChatGPT背後的大語言人工智慧模型看上去「無所不知」的時候,你知道它其實給你的只是,全人類在網際網路上信息的平均知識嗎?

這些問題在我和創新工場的AI工程院執行院長王詠剛的聊天中,都略有涉及到。王詠剛老師在朋友圈中寫到:「悲觀情況是:因為人類的極度懶惰,網際網路被AI生成的、錯誤率普遍高於人類知識工作者的「灌水內容」占領,我們的孩子成為「迷失的一代」。」


王詠剛:現在的 AI 最大的問題是他在做的事情是模型擬合的事情。無論是最早的自然語言處理的古老古典、已經被淘汰的算法,還是今天在ChatGPT裡面我們看到的這種最新的算法,它的核心任務仍然是對人類自然語言語料數據去做模型匹配、模式擬合。基於這種擬合,它的輸出造成了它這種擬合必須是在它學習過的這種數據,或者學習過的這種數據的規律,根據一定的數學邏輯、甚至非確定邏輯來去做它的輸出。所以這一點上帶來幾個問題,不可預測性一定會永遠存在,模型輸出的一定的隨機性一定會永遠存在。

在這種情況下帶來的最大的問題就是比較頂層的判斷或者評論,大概會帶來一個最大的問題是什麼?今天如果你把 AI 作為一個知識處理機或者知識宣講機,這件事情是有一定的疑問的。因為當 AI 去輸出知識的時候,它輸出的是什麼知識,這個知識很可能是它在模型擬合的時候,非常大的概率擬合的,是全人類在網際網路上這些信息的平均知識。

這些平均知識,就看你需要什麼了。如果你需要的只是一個日常的、非常初步的,滿足生活要求的知識,比如水什麼時候結冰,汽車什麼情況下不打滑,我覺得 AI 未來可以解決得非常好,對於日常來講。但是如果你把它想放在跟教育相關的、跟人類的知識進步相關的事情上,這件事會有很多的問號在裡面。像我們去請一個保姆給我們的孩子去一起去生活,我們覺得他可以,保姆可以幫我們孩子解決很多生活中的問題。但是如果我們為了孩子的學習,請一位老師,我們會對老師有更嚴格的要求。我覺得這件事就是我所擔心的事情。

一旦我們把 AI 當做我們的下一代成長的一個老師,這個趨勢太明顯了,比如今天基於 GPT 的 API 來去開發各種教育工具、各種的這種知識處理工具的人,都是直接就衝上去就做了,很多事情都可以解決了。但是這種解決有可能是低層面的。

AI有兩種情況,一種情況是它去用模式匹配得到的人類的平均知識告訴我們的小朋友,而不會讓小朋友得到一個有這種人類嚴格挑選或者嚴格的這樣的一個邏輯,構成的這樣一個教育體系;另一種情況是今天的 AI 還會大量的在或是人類要求,或是它自主激活的這種叫做創造性的東西,這種創造性要打引號,這種創造性可能在非常多的場合是好的,但是在一旦把我們把它用於這種知識傳承和知識教育,今天或者可見的未來,我是看不到這種東西在替代人類老師或者人類這樣一個思維邏輯的一種可能性。這樣當人類的這種懶惰也好,或者人類的這種叫做取巧也好,一旦進入了教育領域,我不用想像,今天很多人都已經在做了大量的把 AI 生成的東西開始補充進教育的這種內容體系。

對學生來講,我可以用ChatGPT 來寫作業,對於老師來講,我可以用ChatGPT 來布置作業,我可以省下非常多的這種思考時間。對一個老師覺得,本來老師覺得可能有一個東西我沒有講透,我可能要去通過查維基百科、以前的書,我把它梳理好一個完整的知識體系,我給到學生講一個完整知識體系。但是現在好了,我可以用 ChatGPT 來去直接告訴學生完整的講述邏輯。但是這個講述邏輯一定是人類平均水平的,它很難到達一個叫做人類讓學生或者讓人類進步的這樣一個水平。因為因為很簡單,全網際網路的 data 裡面所謂代表這種最高水平data,它是個小概率的這種東西。未來如何讓ChatGPT擬合這種最精準的data?這是 data 輸入的一方面,另一方面非常簡單。你即便擬合了這樣一個比較精準data, AI 仍然有不確定性,仍然有它創造的空間。像今天ChatGPT 有大量的這種,我告訴他某一個概念,他就開始自由發揮這種事情,這個事情以後是非常恐怖的。這個發揮你只能以後限制他、去不斷地去糾正他。但是你說是不是可以完全杜絕他?我覺得在今天的 AI 算法的根本上不太容易。所以這是我會非常擔心。

剛才說的,還是因為懶惰說老師因為不想去花時間去研究一個東西。那因為牟利那就更可怕了。大量的人會發現我在分分鐘利用 AI 不要成本地產出大量的垃圾內容,灌到本來我們已經被碎片化信息充斥的社交網站上。本來今天的十幾歲小朋友都在某些互社交網站上,天天沉浸在一些碎片化的知識裡面。有一些博主隨便講一講,似是而非的為什麼火箭飛那麼快,為什麼什麼星球跟什麼星球什麼關係,他似是而非的講幾句話之後,可能小朋友看了熱鬧開心就行了,他學不到更深的知識。但是未來這種事情,如果因為逐利,這種事情只會越來越重,只會越來越多。大量 AI 創造的碎片化、不嚴謹,甚至是故意瞎說的知識充斥網際網路,充斥小朋友能接觸的這種叫做信息繭房的話,這個繭房就是 AI 繭房了。這個恐怖的事情對我來說,如果我有機會,可能我會盡各種的努力去避免這件事情。

陳茜:對,其實我覺得現在這件事情的趨勢已經很明顯了。比如我們放一些長視頻,有完整的邏輯來推導到一個過程,但是很多人看不下去。就說兩分鐘能說清楚的事情,為什麼你要花 20 分鐘?或者你直接跟我說結論就好了,我覺得現在很多人就越來越著急,大家的注意力越來越短。我覺得這個情況我還蠻擔心,會越來越糟的。

王詠剛:因為本來一些很有追求的老師質疑的自媒體、科普人、那些所謂給孩子講東西的人,最重要的一點就是你們在抄近道,你們在直接給孩子一個看上去特別甜的糖,但是你從來不告訴特別甜糖背後的所謂苦的邏輯。所謂這種複雜的邏輯。因為你們要去賺流量、要通過流量去賺錢。這件事今天到來了之後,他已經沒有辦法批評誰了,因為這些東西超近道的東西會充斥著網絡,而且這超近道作者都不是人了,這件事就會很可怕。


如今,我們用搜尋引擎的時候,是一個主動尋找答案的過程,其中我們會閱讀到通向答案的邏輯、佐證、正面的反面的例子、爭議,以及除了答案本身之外的其它額外信息,這些信息構建成為了我們對這個事件的知識認知。但如果你只想或者只需要知道答案,那這些搭建起來的知識認知可能也就不存在了。

就像剛才王詠剛老師說的,ChatGPT最開始衝擊的就是我們的教育體系。自去年底OpenAI開放ChatGPT之後,Study.com的數據就顯示,美國89%的學生已經在作業裡面使用ChatGPT了,48%的學生在考試或測驗中使用過ChatGPT,而53%的學生使用ChatGPT來寫論文。

我沒有辦法想像,當ChatGPT的技術更成熟更普及之後,「獲知結論」的成本快速下降、變得無比方便的時候,人類懶惰的本性會將我們進化到什麼地方,「思考」這件事情的成本會變得有多高。

並且,ChatGPT背後的安全隱患,不僅僅在對人們的認知建立上,以及抄襲作弊上,還有詐騙成本的迅速下降。

02 解決安全漏洞:能用AI打敗AI嗎?

我前幾天看到一個很有意思的評論說,「未來絕大部分人擔心的不是被ChatGPT 替代,而是跟不上別人使用ChatGPT的能力」。其實這不僅僅是使用ChatGPT的能力,更重要的是:使用AI的能力,識別AI的能力,以及用AI打敗AI的能力。

ChatGPT普及之後,其實最直接的危害之一就是詐騙成本的下降以及騙術的一個提升,舉個例子:在ChatGPT之前,社會上的詐騙手法就已經很多了。郵件,簡訊,打電話,可以說是全方位轟炸。但是還好,一般騙子的文化程度不高,所以寫出來的內容還是比較容易甄別的。比如說,最近我們公司郵箱收到這樣一封自稱來自Netflix團隊發來的合作郵件,那麼這一看就很像釣魚郵件對吧?首先,郵箱不是Netflix的公司郵箱,這種後綴一般都有問題,其次,整個排版非常的不專業,還有就是各種標點符號、落款都不專業。但最容易暴露的就是表達和語法錯誤,這一看就是一個英文很差的人寫的。比如說這句話we look forward to discuss the details with you. 我忘了是初中還是高中學的這個用法,但是,但凡有能達到英文職場水平的都知道,look forward to後面應該加doing sth. 等等,通篇都是這樣的英文錯誤。

但是,就算假成這樣,我朋友圈裡已經有一個Startup的創始人朋友就曬出了相似的郵件說Netflix合作找過來了,顯然就是相信了這封郵件。所以,我們可以想像,如果ChatGPT被這些詐騙團伙所利用,寫出來的郵件語法、排版、邏輯、落款上都無懈可擊。那麼毫無疑問,會有更多的人上當受騙。

現在,ChatGPT上因為設置了規則,不能寫直接寫詐騙郵件。但這個規則太好繞過了,比如說,你換個方式問它說,你給我一個詐騙郵件的例子,好讓我在未來避免受騙。誒,你看ChatGPT就給你寫出來了,完美的標題、完美的語法、排版、邏輯、還有完美的落款。

而犯罪團伙的速度,或許比大家想像得更快,因為這已經在發生了:網絡安全新聞網站GBHackers就報導,已經有黑客通過ChatGPT生成完整的詐騙套路話術,並把ChatGPT包裝成「虛擬角色」來和目標人群對話,最終讓對方遭受詐騙。而這樣的詐騙套路,從對話的生成,到對話目的,到詐騙話術都可以進行個性化定製,並且只需要幾秒鐘就可以生成。

另外,黑客們已經開始使用我們前面演示過的釣魚郵件,還可以繞過OpenAI的安全限制去生成加密工具遠程鎖定他人電腦,由此來進行勒索,以及生成攻擊腳本,對網絡用戶進行身份盜竊攻擊等等。

所以你們看,在ChatGPT出現之前,騙局已經這麼多,詐騙方式就已經各種各樣,普通人識別真假已經越來越難,時間成本越來越高。那麼我很難想像,ChatGPT和更多的生成式AI技術就這麼開放之後,事實核查這件事情對普通人來說,要怎麼去做。那麼王詠剛老師說,這就要看人們是否能用AI打敗AI、來短時間內建立一個良性生態了。

王詠剛:今天有大量的研究投入到怎麼去甄別、怎麼去識別 AI 的作品,怎麼去識別裡面它和人類的這樣的一個創造之間的關係。在今天,這種生成式的 AI 仍然存在這樣的機會。

其實簡單講,這個方法也非常簡單。我們做這方面研究的這些科學家,其實是在用 AI 去對抗AI,就是ChatGPT,它是在訓練一個模型,在不斷地去生成,模擬人類輸出的內容,人類說話的內容。但是另一批科學家在不斷地訓練成另一個 AI 模型。這個 AI 模型是要去不斷地去甄別說網際網路上哪些內容是由 AI 生成的,哪些內容是人類生成的。這件事情對未來的這種意義是非常大的。

如何保證幾件事情?如何保證 AI 生成的很多灌水內容不去混入到高質量的所謂的內容社區裡面?這是第一件事。第二件事反過來, AI 可能未來還要保證如何保證它自己生成的大量的這種垃圾灌水內容,不被他每一輪的學習再重複地吞進來。這件事情也很有意思,就是 AI 原來學的是大量的人類內容。當他最後學了大量的他自己造的內容時候,他自己造內容的這樣的一個方式,有可能就會朝一些人類可能想像不到的地方去發展。這種發展有可能是好的,但是更大的概率是不好的。因為所有的發展方向是平均的,這種聚焦到相對比較好的方向上,就會相對比較難。所以更大的概率是這些灌水的內容越來越發散。在這種發散的情況下, AI 自己要去識別說我哪些內容是我應該去input,應該去放在輸入裡邊的,哪些內容是應該作為我的輸入或者一個權重的關係,哪些內容我應該用更重的權重去input,哪些內容應該用更輕的權重去input。這些東西在 AI 理論研究的時候,嚴格地說,整個我們的科研界,我們的工程界並沒有停下來過,可能就不像外面見到的那麼熱。

剛才說的也還只是一方面。還有更深的理論研究是很多數學家在做的,就是證明 AI 模型到底在剛才說的它這種不確定性上,它的創造性上,到底它的限制在哪裡,它的邊界在哪裡?我們如何用更好的方法,在更宏觀的角度去控制它的限制,去控制它的邊界。這是科學上,從數學理論方法上的研究。這和剛才類似。剛才是在甄別 AI 這個東西,是在幫助 AI 說怎麼樣去更好地給出確定性的和指向性的結果、指向性的答案。比如當Bing、Google這樣的搜尋引擎,把 ChatGPT這樣的對話模式融到搜尋引擎裡面的時候,他們就會有意地使用跟這些研究有關的方法。

剛才說的還是數學方法。我們還有很多工程的方法,在工程上,在 AI 的模型的上層或者下層,對接一些非我們今天的這種deep learning(深度學習)的AI。比如,我覺得很典型的一個例子,今天你會發現誒, AI 在做一些數學問題的時候,一些解析問題的時候,明明人類有一些公式,我可以通過公式,用推演的方法或者用計算的方法得到一個精確答案。但是 AI 你會發現,我告訴他,你讓我幫我算一個什麼樣的數學題,你幫我解一個什麼樣的問題。你會發現,簡單的問題他解出來的概率非常高,但是複雜的問題他就開始出現各種小錯誤,各種去偏移,各種去隨機性,非常有意思。這說明 AI 在做這類問題的時候,它的這種不確定性是有害的,對這類問題是有害的。但是你讓今天的 AI 從核心地方取消這種不確定性,是不大現實的。所以你會發現,最近有一些研究和一些 paper 就會發現,我把 AI 的一些他要完成的一個任務,我把裡面分解開,其中有一個任務,比如是跟數學相關的,或者是跟一些解析的方法。你要求解一個巨大的方程,求解一個微積分相關的,我把導出到比如優秀的這樣的一個數學系統,比如 WolframAlpha 這樣一個系統裡面,去讓WolframAlpha給 AI 提供在這方面的能力。所以這是一個完全工程上的類似拼合怪的方式,把這種 AI 的能力限制在他最擅長的,比如 conversational 對話式的這種交流上,或者限制在一些可以發散的,可以做藝術創造的這種生成上。但是那些不能發散的東西,比如你必須準確地給出 Wikipedia 的結果,你就會必須用一個query接一個 search 的功能,走向下面一個vertical(垂直)的工具。如果你必須給出一個準確的微積分的解,或者準確地做出一個數學的圖像來,你就不要自己再去發揮了,你就直接把這個東西導向WolframAlpha。

所以你會看到大概一周前有一篇Facebook論文,那個東西就是怎麼樣去把AI的conversational的這種叫做語義變成一個裡面對應於某一個任務,垂直到一個垂直領域的工具。所以這又是一個很工程化的方法,讓 AI 去在某些領域給出非常精確的解。

如果在近期你們發現有人包裝成了 AI 系統,不管是Google的Search還是Bing的Search,裡面發現誒,這些東西並不像ChatGPT那麼發散,而且很多東西都可以給出非常精確非常好的結果。那個時候很簡單的一個答案就是,那個包裝的系統。它已經不是獨立由 ChatGPT這樣的所謂生成式的 AI 在承擔的任務了,而是由多個不同的子系統裡面,包括大量人創建的子系統共同構成的。所以簡單講最近的這樣的一個近期,我覺得我們人類有很多方法去避免這件事,當然需要大量的科學家、工程師的努力了。大概是這樣一個含義。

剛才王詠剛老師從數學和工程的方法上講了我們怎麼限制ChatGPT等生成式AI帶來的不確定性,以及減少被不法分子濫用的可能,但我個人仍然還是挺悲觀的。我們人類能用AI能打敗AI嗎?不知道未來是不是可以,但是在現在的這個時間點上、被分享出來的AI反檢測工具,還不可以。

ChatGPT的公司OpenAI,還有一些美國的大學比如說普林斯坦和史丹福大學都開放了一些檢測ChatGPT生成內容這樣的檢測工具。但說實話,我們自己測了後發現,不太準。

先用史丹福大學的工具DetectGPT,自稱有95%的準確率。

我先自己寫一篇小作文,隨便寫寫。然後放去DetectGPT裡面測一下,嗯,不錯,顯示是我自己寫的,不是ChatGPT生成的。

之後我再在ChatGPT上分別生成了一段故事,一個定義描述,以及一個Python斐波那契數列的代碼,然後放到DetectGPT上測,嗯,都檢測出來了是非常可能由ChatGPT生成的。

但是,這些內容都有點低級,我們再試試一個偏僻一點的詞,比如說:武田製藥,Takeda Pharmaceutical,這是總部在日本的生物製藥企業。ChatGPT生成了解釋之後,放去斯坦福的DetectGPT上測,誒,這不,就沒測出來是ChatGPT寫的。斯坦福的這款檢測工具是針對GPT-2來開發的,ChatGPT是基於GPT-3.5開發的,所以GPT-2相當於ChatGPT的前前版本了,參數要少很多,信息量也不夠、資料庫也不夠新。所以我們再放到OpenAI自己出的檢測器AI Text Classifier上試試呢?

首先有點麻煩,必須要一千個字符以上才能測,好吧,我讓ChatGPT再多寫點。然後再放進去... 誒,也沒有檢測出來。這就有點尷尬了,OpenAI你自己AI寫的東西你自己都檢測不出來。好消息是,現在AI寫的東西和人寫的東西越來越像、越來越難以辨別,但壞消息是:用AI打敗AI,好像沒有那麼容易。

當然,可能現在ChatGPT檢測軟體還尚待完善,我在網上去看了一下其它人的測評,發現現在放出來的檢測應用準確率在26%-60%之間,還非常不靠譜。所以在將來,我們能否用AI打敗AI,在我這裡,還是一個大問號的。或許最後,還是需要人類自己的思辨能力,來做出最後的判斷。所以很可能在未來,能使用和善於使用AI的人,和不善於使用亦或是無法使用AI的人,簡單來說,在AI之上的人,以及在AI之下的人,將可能會有兩種不同的發展方向和軌跡。

我們再想得宏觀一點,當包括ChatGPT在內的AI應用變為主流的時候,勢必會替代越來越多人類的工作,是否會進一步的拉大不同人對認知的獲取、教育程度、工作性質乃至人生效率上的差距?而最後這些差距會不會演化成為一個更加分裂、貧困差距更加嚴重的世界呢?這可能是一個偏哲學、經濟學和社會學的大問題了,但王詠剛老師還是給了蠻有啟發的回答。

03 未來社會形態:人需要工作嗎?

陳茜:最後一個問題,剛才你說到其實 AI 以後會代替很多人的工作,對吧?現在其實我們已經看到自動化已經代替了很多工作了。現在一個假設就是人類需要往工作的金字塔的上面走,去做更多 AI 沒有辦法替代的工作,有這麼多的工作給人類嗎?那剩下的人怎麼辦?終極形態是什麼樣?可能這也是一個比較大的問題。

王詠剛:我覺得我不是特別適合回答這種問題的,因為我對社會學的、經濟學的認知非常非常的淺,我還是非常樸素的有一些觀點,但這種樸素的觀點放在社會學或者經濟學上,大家會覺得是一個純粹的個人偏見或個人窄的坐井觀天式的觀點,我長期來講,我是一個純哲學意義上的悲觀主義者,我覺得長遠來講,人類的這種看到非常好的前景的希望會很渺茫,對這是長期來講。但是短期來講,我倒覺得人類工作這件事未必是一件人人都有工作這件事,未必是一個從樸素的觀點來講,未必是一個非常好的社會結構。我隨便說一個道理,就是如果今天你在中國看到的一些現象,到底是好現象還是壞現象,我覺得是可以兩邊說的。中國大量的青年,當他們在沒有接受到一個足夠好的教育的情況下,而且他是在整個教育體系的資源配置上,他就沒有辦法接受到一個做好教育情況下,進到了我隨便說生產手機的工廠。這個工廠裡面,我親自在生產最好的手機的工廠裡面,每一個工位當時為了研究 AI 和這種叫做生產工業製造的結合,我每一個工位每一個工位都親自地去看過一遍,跟幾乎每一個工位的工人都聊過。我簡單結論,那些工作不是人該乾的。那些工作就是一個人在那邊,可能比如貼一個大概小米粒這麼大的一個小貼片,可能是一個防靜電貼片,或者一個防漏水貼片,往手機上貼片。他每天就重複這一個動作,大概一兩秒做一次,到一兩秒做一次,每天做 10 個小時,中間每兩個小時休息 10 分鐘。就這樣一個工作,你讓我坐在那坐半個小時,我可能眼睛就瞎了。但是很多年輕人就為了大概一個月幾千塊錢工資,就在常年的在幹著這樣的工作。

如果我說AI,可惜今天還很反諷,今天的 AI 反而不適合替代這樣的工作。今天的 AI 反而更適合替代一些文秘所謂的這種叫做剛才說的數據報表,這些所謂辦公室的初級白領的工作,今天AI反而不適合做,這些藍領的工作,還做不來。今天你讓 ChatGPT去做工廠上去做生產線裝備,它還做不來。但是我覺得如果 AI 今天能把這些叫做非人道的,讓這些人在這種不是這種人該乾的工作裡面,能夠解放出大量的人來,我反而會為AI叫好。

至於從社會學、經濟學角度,這些人失業了,該去怎麼分配,該去怎麼怎麼保障他們的這樣的一些權益,我覺得我總覺得一定有辦法,但我不是這方面專家,我只是看到這些相對來說不人性的東西,我總覺得這件事大家是應該做的。你像大家看到在非洲看到非常多的貧困,在非洲看到很多的不平等,大家一定會覺得我們需要通過什麼東西改變,但是很多年我們也沒有真正改變太多,所以人類就是一個很矛盾的社會。我在這方面確實有一點點那種感覺,就無能為力的感覺。

這期和王詠剛老師聊得非常有收穫,但有收穫的同時,我個人其實是對人類的未來發展稍稍的有一丟丟更加悲觀了。大家可以有不同想法,歡迎留言告訴我們,歡迎探討。

我看到的是,ChatGPT只是AI中的一種應用,只是文本生成,同時我們還看到更多人工智慧生成的技術已經在業界開始被廣泛使用,包括音頻生成,圖像生成,視頻生成,還有跨模態生成等等。這些技術的成熟化必定能大幅度提高人類在很多領域的效率,這是毋庸置疑的。但同時,要知道的是,這些技術也能賦能很多不法分子降低作惡成本,提高犯罪效率。

ChatGPT的例子我前面已經舉了不少了,這裡我再舉兩個除了ChatGPT之外的生成式人工智慧的例子。一個是語音生成。確實,如果現在有朋友在微信中找我借錢,我都一定會跟對方視頻或者通電話確認。但如果未來,AI可以被用來生成偽造的聲音或者偽造的親人朋友視頻,對於老人來說,將是多麼可怕的一天。

那麼再來說一個例子是視頻生成的。AI換臉這樣的deepfake深偽技術是一個很直接的例子。可能現在大家看到的AI換臉還比較生硬,包括之前流傳很廣的Meta創始人扎克伯格的AI合成視頻也稍顯僵硬、聲音也不夠自然,但是要知道,AI視頻生成是可以非常非常自然的。

我在斯坦福讀研究生的時候有上過一門課,是我們新聞學院和計算機學院共同推出的,叫做computational journalism,專門研究技術還有新聞信息的結合,其中的一堂課上,教授給我們展示了斯坦福當時正在研究的一個AI項目,就是說把人工智慧技術,通過學習一段人類說話的視頻素材,然後可以生成新的視頻。也就是說,這項技術,可以把我本人在我們這個視頻裡面說所有字,都重新排列組合,可以生成出一段我從來沒有說過的話,從來沒有表達過的意思,並且我的聲音,嘴型還有表情都能夠調整和生成得非常非常自然,人眼是根本識別不出來的。

在那節課上,當教授演示了demo之後,整個課堂瞬間就吵開了,分成了兩派,我們新聞學院的同學覺得這個技術簡直太危險了,雖然技術本身是能讓視頻剪輯變得更簡單,避免跳幀jump cut,也能幫助剪輯師更快地去找到素材,彌補一些拍攝時的遺憾,或者能夠幫助一些自認為表達能力不強的人更好的呈現出完美演講的視頻。但是這個技術帶來的危害性顯然是很可怕的:任何人都可以被污衊說了他沒有說過的話,這些合成視頻也可以被用於去詐騙、威脅和勒索。但是在課堂上,大部分工程學院的學生覺得這個技術其實沒有那麼糟糕,技術本身是中性是無辜的,造成問題的是人們如何去使用它,以及我們是否有方式去監測它還有監管它。

這門課我是在2019年上的,現在2023年。過去的四年中,生成式人工智慧快速發展,已經從學校和公司的研發demo來到了我們身邊。似乎,無論我們多麼害怕一個技術,似乎都無法阻止這個技術的到來。我們有多期待這個技術帶來正面的推動,就有多擔心負面影響的出現。但現在確實到了一個時間點,我們應該對生成式AI有更多關於法律和道德上的討論和跟進。無論是法律監管,還是安全技術,還是我們的個人能力,都需要為新技術即將帶來的巨大破壞做好準備。

而對於人類個人而言,我們將如何辨別所看到、所聽到的事物的真偽,將會對每個人都有更高的思辨要求。然而,人類在逐漸依賴ChatGPT的時代當中,是否能夠有更高的思辨能力呢?會不會有一天,人類會選擇不相信所看到的所有的東西,徹底迷失在真假難辨中呢?這是一個大問號,我們只能交給時間來驗證了。

註:部分圖片來源於網絡

【本期節目不構成任何投資建議】

關鍵字: