女子地鐵照遭「一鍵脫衣」:技術不該淪為齷齪的「透視眼」

中央政法委長安劍 發佈 2024-02-28T19:05:33.476828+00:00

其實,哪有什麼裸女,哪有什麼不雅照,不過猥瑣之人在搗鬼——一個正常打扮的女孩,在社交平台曬了一張再日常不過的照片,便被人拿來用AI「一鍵脫衣」,移花接木造黃謠,並刻意在全網公共空間散播,招致無妄之災。

AI時代,有圖未必有真相。


最近,一段聊天記錄火了。發布者煞有介事地稱,廣州地鐵驚現「裸女」。博人眼球的文字配上「事實」為證的圖片,看上去言之鑿鑿。一時間輿論沸沸揚揚,更有別有用心者藉機意淫,開啟一場下流狂歡。


其實,哪有什麼裸女,哪有什麼不雅照,不過猥瑣之人在搗鬼——一個正常打扮的女孩,在社交平台曬了一張再日常不過的照片,便被人拿來用AI「一鍵脫衣」,移花接木造黃謠,並刻意在全網公共空間散播,招致無妄之災。



技術沒有善惡之分,但人有。放任技術的惡意濫用只會對技術的生存與發展造成巨大阻礙。對此,長安君有三句話想說——


第一,毫無底線的玩梗,必然翻車


利用AI生成圖片、短視頻造黃謠,是對受害者的公開羞辱、惡意誹謗以及無差別攻擊。


自媒體時代,人人都是麥克風,疊加深度合成技術不斷成熟,技術門檻日益降低,意味著只要有網絡帳號,就可以一鍵製作以假亂真的視頻,並借之造謠傳謠、假冒仿冒、違規盈利。



但虛擬不等於虛假,娛樂玩梗不代表放任自流,網絡傳播是有底線的,高科技也不能淪為肆意侵權的幫凶,否則公共空間的安全感將變成空談,人人皆會自危:下一秒,你的臉就可能被盜取、拼接,被扒得一絲不掛,成為滿足他人無恥欲望的素材和非法牟利的工具。


對於好事者來說,這只是一鍵生成,但給當事人帶來的卻是惡意審視、名譽損毀和身心傷害。


科技進步,不該淪為一雙齷齪的「透視眼」。


第二,挑戰紅線的流量,不能容忍


流量沒有上限,但是賺取流量的方式應該有下限。


近年來,網絡媒介尤其是短視頻野蠻生長,湧現出各類「魑魅魍魎」,通過人工智慧生成虛擬視頻來涉黃、涉暴、侵害隱私,甚至危害國家安全。他們有的借社會話題撩撥情緒引發輿論海嘯,有的打著「尋找真相」的幌子造假造謠,還有的不顧法律與道德的約束不斷用惡俗低俗製造熱點。


一些所謂的「AI換臉」背後是一條黑灰產業鏈。「50元,可以買到知名女星換臉視頻;150元,可以讓任何人成為小視頻主角。」有報導顯示,電商平台上已有賣家公開兜售相關技術模型,並提供真人模型代訓練服務;利用AI生成圖像假扮真人的帳號混入社交媒體,網友難辨真假。



有人標價,有人求購,有人製作,有人發布……一些人為追逐流量及背後暴利鋌而走險,打著娛樂的幌子,大行侵害之事,不能忍,不可忍!


第三,整治濫用AI的亂象,需多方施策


非重拳不足以激濁揚清,非猛藥不足以澄清視聽。


對於AI技術運用,國家網信辦、工信部、公安部此前已聯合出台《網際網路信息服務深度合成管理規定》,明確「任何組織和個人不得利用深度合成服務從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經濟和社會秩序、侵犯他人合法權益等法律、行政法規禁止的活動」。


放諸長遠,仍需多方合力,給亂象剎車——



專項打擊整治勢在必行,不僅要徹查利益鏈條,還要深挖幕後、剷除源頭;相關法律法規要更加完善,明確懲治範疇和尺度,全面擠壓深度偽造相關犯罪的生存空間,掐住侵權行為的命門;網絡平台不僅應對違法違規帳號處置要快准狠,還應當提升管控技術、優化審核機制,既要「剜爛瘡」,又要「治未病」。


而身處AI時代的每個人,也要進一步提高辨假的意識和識假的能力,擦亮雙眼,不被「偽裝者」蒙蔽,更不做「二傳手」。


「AI涉黃」,該退場了!

關鍵字: