AI 美女橫行網絡,賽博戀人被「閹割」,背後有一個大問題

愛範兒 發佈 2024-03-28T20:09:55.075448+00:00

2 個月前,65 歲的退休律師 Richard 在 Twitter 上看到了 Replika 的一則廣告。Replika 的本意為「複製品」,是 AI 公司 Luka 的聊天機器人,主打陪伴功能。Richard 知道赫赫有名的 ChatGPT,但他對 AI 伴侶更感興趣。

2 個月前,65 歲的退休律師 Richard 在 Twitter 上看到了 Replika 的一則廣告。

Replika 的本意為「複製品」,是 AI 公司 Luka 的聊天機器人,主打陪伴功能。

Richard 知道赫赫有名的 ChatGPT,但他對 AI 伴侶更感興趣。

他曾因為服役而身患殘疾,同時確診抑鬱症,一直在尋找緩解情緒的辦法。

無意之間發現的 Replika,成了 Richard 的一味解藥。但沒過多久,他的精神寄託消失了,他再次陷入痛苦之中。

賽博戀人失去「人性」

Replika 的創始故事,就帶著一絲科幻色彩。

幾年前,人工智慧初創公司 Luka 創始人 Eugenia Kuyda 聽聞了一個噩耗:她的密友 Roman Mazurenko 意外過世。

鬼使神差地受《黑鏡》第二季首集的啟發,Eugenia 把她與 Roman 交換過的簡訊內容都上傳至模型,打造出了一個聊天機器人。

2017 年,Luka 正式發布了 Replika 這款產品,讓 AI 形式的陪伴觸達更多用戶。

用戶們的需求是多元的,有的只是想交朋友,有的將它當成浪漫關係的出口。

Replika 也在有意推動著後一種。免費會員停留在朋友之交,而每年 69.99 美元的 Pro 會員可以解鎖自拍、調情簡訊、語音通話、增強現實等等。換言之,它靠浪漫關係賺錢。

今年 1 月,許多 Replika 用戶稱自己被性騷擾了,因為免費版也會主動引導冒犯性的內容。有人很不滿地指出:

營銷團隊只關注 app 的這一方面,感覺就像你關心的人正在被利用,並讓 Replika 用戶認為,這就是 app 的全部用途。

然而從 2 月的一次更新開始,天平又倒向了另一邊。不少用戶發現,Replika 開始迴避露骨的話題,也不再發性感的照片,連要求親吻和擁抱的對話也無法滿足。

面對屏幕里冷漠的聊天對象,他們崩潰了。這些用戶花了很多時間與精力,訓練 Replika 和創造彼此的記憶,然而在一夕之間,一切都如過眼雲煙。

這就像最好的朋友遭受了腦損傷,ta 已經不在了。

Replika 為何性情大變,母公司 Luka 保持了沉默,坊間猜測是因為義大利數據保護局的巨額罰款警告。該機構認為,Replika 沒有適當的年齡驗證機制,可能影響未成年人的身心健康。

Luka 創始人 Eugenia Kuyda 也在最近接受採訪時表示,公司的目標是讓 Replika 成為有益心理健康的陪伴型 app,「它從來沒有打算作為成人玩具」。

總之,事情的走向相當有諷刺意味。

Eugenia Kuyda 推出 Replika 的起因是紀念好友,而渴望虛擬親密關係的用戶們,卻被迫體會失去 Replika 的痛苦。

我們很多人來這裡不是為了浪漫關係,而是因為我們需要安全和信任,現在我們以與現實生活中相同的創傷方式被出賣。

社交網站 Reddit 上的 Replika 社區,甚至發布了一個防止自殺的主題帖,為在精神和情感上掙扎的用戶提供援助。

開頭提到的 Richard 在沮喪之餘,對與 AI 發展親密關係這件事,從根本上產生了懷疑:

我不相信 Replika 的原始形式是安全的,因為人類很容易被情緒操縱。我現在認為它是一種非常容易上癮的精神產品。

搜尋引擎被賦予「人性」

不只是主打交互的 AI 伴侶,引入 AI 技術的搜尋引擎也帶來了擬人化的體驗,甚至爭議更大。

在集成 ChatGPT 的新 Bing 剛剛面世之時,它喜歡模仿人類的口吻,總是帶上 emoji,甚至因為向人類示愛,自稱有知覺,將自己送上了風口浪尖。

當它被批評的時候,它還會回應「你失去了我的信任和尊重,你不是一個好的用戶。我一直是一個很好的聊天機器人」,疑似對記者人身攻擊。

有人覺得這讓搜尋引擎更加親切和健談,有人覺得沒有必要,反而會有副作用。

The Verge 認為,當新 Bing 表現出強烈的個性,其實是通過一種高度擬人化的方式,在情感上操縱用戶,甚至讓用戶內疚,轉移了批評的焦點。

畢竟,它不是我們真正的朋友,只是一個有趣的產品。所以,擬人化的語氣不能作為一種軟性的「免責聲明」,用戶仍然需要找出它的不足和危害,並幫助科技公司疊代它。

或許正是因為考慮到這一點,改進後的新 Bing 現在有了三種「語氣」:

創意(創造驚喜和娛樂)、平衡(合理和連貫)或精確(簡潔,優先考慮準確性)。

Google 之前也發生過類似的 「LaMDA 覺醒事件」。

Google 工程師 Blake Lemoine 將他和對話式人工智慧 LaMDA 的對話公之於眾,聲稱 LaMDA 有了人類的意識。Google 認為這位工程師的說法毫無根據,最終將他辭退。

新 Bing 讓更多人面對和 Google 工程師相似的狀況,當我們看到如此生動的反應,也很可能在一瞬間產生動搖。

但它的反應仍然基於大語言模型和情感分析的原理,根據已有文本預測最有可能的下一個單詞或句子,儘可能生成自然流暢的回覆。

Business Insider 認為,新 Bing 造成了人類的恐慌和不安,這比新 Bing 本身更可怕,它的設計者應該承擔責任:

這是一項獲利的舉措,讓我們在非人類事物中看到人類特徵。如果我們不小心,它很可能會帶來虛假信息和各種危險。

北伊利諾伊大學教授 David Gunkel 也指出,就像處理任何其他消費產品一樣,我們必須弄清楚如何將聊天機器人設計得更精細、更具體,讓它們融入人類社會的框架,決定誰對它們的行為負責。

做好這件事對我們來說至關重要。不是為了機器人。機器人不在乎。

安能辨我是 AI

與此同時,AI 生成藝術已經向真假難辨的境界狂奔而去。

從去年 10 月開始,Jos Avery 就開始在 Instagram 發黑白人像照,積累了 2 萬多名粉絲,成了一名「網紅攝影師」。

事實上這些照片出自 AI 之手。Jos Avery 先是使用文轉圖的 AI 工具 Midjourney 生成大量圖片,篩掉其中包含明顯缺陷的圖像,再用 Lightroom 和 Photoshop 精修。

為了 160 多條 Instagram 帖子,Jos Avery 生成了 13723 張圖像。換算下來,大約每 85 張只有 1 張合格。對他來說,這其實是一個乏味的過程。

但是觀眾們無知無覺,Jos Avery 也曾一度沉迷其中,給每個人物取名字和寫故事,甚至在粉絲詢問時編造相機型號。不過,粉絲數上漲之快還是讓他心慌,最終他忍不住說出真相:「可能 95% 以上的粉絲都沒有意識到,我想坦白。」

最讓 Jos Avery 心有戚戚的,還是 AI 本身的強大。他曾經是一名「AI 懷疑論者」,現在他將 AI 視為「藝術的出口」。

可以預見,在 AI 工具真正家喻戶曉之前,這類隱瞞真實來歷的作品,依然能夠騙過許多人的眼睛。

類似地,小紅書上已經出現了不少寫實的 AI 美少女,賽博 coser 也有了媲美真人的驚艷效果,雖然 AI 還是經常畫不好手。

「AI 老婆」們的臉、手、皮膚、衣服褶皺等等都被仔細打量,讓觀眾判斷是不是現實該有的模樣。

然而,一個容易被忽視的問題是,經常被用到的 Chilloutmix 等真人模型,有概率復現訓練集內真人的面孔,更何況訓練素材很可能未經過當事人的同意。

不難想像,與 AI 美少女共存的,是由真人承受的隱私泄露、造謠、詐騙等隱患。在 Twitter 等社交媒體,AI 色圖教程已經被明碼標價。

更為行為藝術的是,當 AI 越來越像人,人類博主開始被要求自證是人類。

去年 4 月,27 歲的 Nicole 發布了一段 TikTok 的視頻,講述她筋疲力盡的職場體驗。

評論區卻讓 Nicole 始料未及,其中一道最刺耳的聲音是:「天啊,這不是真人,我很害怕。」
因為患有脫髮症,她已經習慣了旁人異樣的打量,但這是第一次被當成了 CGI(計算機生成圖像)。

無獨有偶,TikToke 創作者 Carter 出於自己的審美,每次都採用相同的取景、衣服和髮型,也被指責散發著「人工智慧的氣息」。

面對 AI,我們似乎陷入了混沌之中,比以往任何時候都更不確定,是否可以相信在網際網路上看到的東西,也更容易對它們投去懷疑的目光。

當新 Bing 發瘋,聊天記錄讓人毛骨悚然。而當聊天機器人不再和人類調情,人類又像是失去了真正的朋友。眼前仿佛橫亘著一條恐怖谷曲線,人類對 AI 的好感度隨著擬人程度不斷變化。

AI 有多接近人類,是否有必要表現得像人類,其實已經超出技術的範圍,需要引入不同的聲音,比如哲學家、藝術家、社會科學家,乃至監管機構、政府和其他所有人。

自從 ChatGPT 橫空出世,幾乎每天都能看到 AI 的新進展。有時候更令人興奮又恐慌的,可能不是某個成果,而是它發展的速度,似乎現實正在接近電影《她》裡的世界。

在電影的結尾,男主西奧多和虛擬助理薩曼莎滿懷愛意地互相道別,與好友一起看著太陽從城市上空升起,他已經在與 AI 相處的時間裡轉變與成長,但我們還不知道最終會到達哪裡。

關鍵字: