你發在小紅書微博上的自拍,正在被做成AV......
安迪·沃霍爾曾準確預言——
未來社會,每個人都可能在15分鐘內出名。
透過這則預言,人們不得不承認安迪·沃霍爾的遠見,畢竟在當年這聽起來就是天方夜譚。但即便是安迪·沃霍爾,想象力也仍舊有限。
成名算什麼?
如今社會,每個人都可能在一瞬間下海。
如今的 AI 技術有多強大呢?
上圖這位演員,就是 2023 年 12 月日本某公司推出的首位 AI 女優——木花愛。
她的面部五官完全由 AI 生成,拍攝則由替身真人演員完成。影片錄製結束後,僅需通過 AI 換臉技術,便能讓木花愛收穫一部新作品。
木花愛幾乎是毫無破綻的。
如果你對其一無所知,大概率會認爲這就是一位真實存在的、剛剛出道的 AV 女優。
成熟的 AI 技術,就是能做到如此天衣無縫。
聚光燈下,換臉出道的是木花愛。互聯網的角落裡,她可以是木花愛,也可以是我們任何一個人,包括正在讀文章的你。
事實也正如此發展着——技術加持下,確有無數人正在被迫換臉出道,被動下海。不知覺間,甚至已有無數蛆蟲藏在陰暗角落中看過「你的作品」。
AI 技術正在讓普通人成爲黃片主角,15 分鐘成名的預言早已不再稀奇。
1 分鐘速成 AV 主角,在這個時代都易如反掌。
AI 換臉,並不是什麼稀奇技術。
這項被命名爲 deepfakes 的技術,人們早已見怪不怪。
早在 2019 年,就有人用 AI 換臉的技術讓觀衆看到了有演技版的楊冪。
當年 B 站上一位 UP 主將 94 年版飾演黃蓉的朱茵,換臉成楊冪。
這段視頻,一度被笑稱爲楊冪的演技巔峰。
彼時視頻換臉技術,就已經相對成熟了,再配上技術過硬的人才,幾乎沒有破綻。
後來一些劣跡演員出事,被 AI 換臉成其他演員的例子也不勝枚舉。
比如趙立新,劇組們排着隊給他換臉。又是換黃志忠,又是換於震,又是換週一圍......憑一己之力養活半數 AI 換臉的技術團隊。
但人們不知道的是——
這項技術打從一開始,就是跑着出來擁抱色情產業的。
就連它命名本身,都是骯髒的。
2017 年《神奇女俠》的扮演者蓋爾·加朵,突然捲入豔照門。
起因是一位名爲 deepfakes 的用戶,在 Reddit 網站上傳的一段影片。影片中蓋爾·加朵被推倒在牀,繼而開始一段情色視頻的錄製。
這段影片廣泛傳播後,開始有越來越多的女星被牽扯其中。
其中包括在《權力的遊戲》中飾演艾莉婭的麥茜,《哈利波特》裡飾演赫敏的艾瑪·沃特森,以及泰勒·斯威夫特、斯嘉麗·約翰遜等等......圍觀者聞風而至,資源如病毒般瘋狂擴散。
直到 deepfakes 被 Reddit 封殺,這場沒有底線的網絡強姦才總算告一段落。
彼時人們卻不知道,這次封殺卻是網絡強姦的序幕。被封殺後的 deepfakes 直接開源了 AI 換臉項目的代碼,從此這項技術變得唾手可得。
這個強姦犯的用戶名,則被人們用來命名這項技術。
潘多拉魔盒,就此被打開。
自 2017 年 AI 換頭視頻起,泰勒·斯威夫特就是 AI 技術的最大受害者。
今年 1 月,她的 AI 裸照再次在社交媒體 X 被瘋傳。
幾乎一夜之間,國外各大社交平臺就被她大量不雅照填滿,其瀏覽累計數千萬次。
這類惡意攻擊,幾乎是毫無緣由的。
這次僅是因爲黴黴與 NFL 橄欖球選手官宣戀情後,蛆蟲一拍腦門地即興虛構,其利用 AI 技術以球場爲背景製作大量不雅照,黴黴便再次成爲受害者,卻毫無徵兆,難以溯源,危害持久。
即使始發賬號後被封禁,也無法阻止其如瘟疫般擴散。
與此同時,蛆蟲們仍在不斷製造大量照片、視頻售賣。
黴黴有龐大的粉絲羣體、經濟公司、法律團隊幫她自證、追責,尚且如此。
整整 7 年時間裡,黴黴深受其害,卻屢禁不止。這一切若要落在普通人身上呢?我們是該像六子那樣拋開肚子來自證清白?還是忍受着惡臭凝視,支付着高昂佣金,去走那條甚至可能找不到施暴者的維權之路呢?
主角若換成你我,可能連自證都無比昂貴且舉步維艱。
事實上隨着 deepfakes 開源 AI 換臉項目的代碼後,國內的明星藝人同樣飽受其害。
當我們在 b 站上看「有演技版」楊冪時,暗處早已蛆蟲遍佈。
打包售賣 AI 換臉後視頻、照片的惡劣行徑,國內也比比皆是。
據 Sensity AI 的調查,如今 96% 的 AI 視頻是女性性影像。
2018 年至 2020 年間,網絡上的 AI 色情影片數量大致每六個月就會翻一倍。
2024 年 3 月全球首個深僞侵犯研討會公開了一組數據,令人咋舌——至今全球已知的互聯網 AI 僞造色情影片超 27 萬條,這一數據是 2019 年的 18 倍,而這些影片的總觀看次數多達 40 億次。
這組數據中的重點詞其實是「已知」,人盡皆知「已知」從來都只是互聯網中的冰山一角。而這則意味着 27 萬、18 倍、40 億次這組已足夠令人瞠目的數據,實則卻僅是窺豹一斑。
而隨着技術進步,生成 AI 色情影像的速度正越變越快,門檻也越來越低。
如此下去,我們都將有機會在網上看到自己的黃片。
時至今日,沒有人能置身事外。
下面這張圖,曾是去年的爆搜。
2023 年,廣州某女生在小紅書發佈的一張正常穿着的地鐵擺拍照片。
很快被人用 AI 軟件一鍵脫衣,並迅速在全網發散。
很快熱搜上就出現詞條——廣州地鐵三號線不雅照事件、廣州地鐵美女露出事件
微信內,也迅速開始瘋傳聊天記錄。
無妄之災啊,百口難辯。
設身處地的換位思考,我很難想象當時這個女生面臨着怎樣的壓力和處境。
雖然這件事後續有澄清,澄清包括照片來自於 AI 僞造,女生是無辜受害者等等。但這樣的消息,卻很少能衝上熱搜。圍觀者只顧分享 AI 脫衣後的裸照,沒有人會幫受害者分享真相。
那張裸照,卻會永遠留在互聯網上。
這纔是互聯網的記憶,猶如一把扎向普通人的尖刀。
造這樣的黃謠,如今幾乎是無成本的。
比如上圖這款曾紅極一時的 AI 一鍵脫衣 app,它甚至可以免費下載。你即使完全不懂 AI,也能迅速上手,動動手指僅需 30 秒就能實現脫衣特效。
這軟件當時剛一上線,因爲過於龐大的下載量一度宕機。繼而無數人開始分享自己的測試成果,沒錯還是黴黴。但是這一次,卻不只是黴黴。
不斷降低的准入門檻,不斷下沉的 AI 市場,迫使所有人都不得不成爲 AI 色情產業的獵物。
這樣一款 app,你可以可以隨手上傳任何一名女性。
她可以是黴黴,可以是施暴者的同班同學,可以是施暴者的身邊同事,可以是施暴者坐地鐵、逛街隨便偶遇的一個女孩......這任何一種身份都可能是你,也可能是我。
當然這款 app 後來很快下架並宣佈停運,也不會再推出新版本。
其團隊還在推特上表示:我們大大低估了人們對該項目的興趣。
但打開的潘多拉魔盒,是不會自己合上的。
此前經記者調查,如今想要在互聯網上購買到一款脫衣 app 絕非難事,甚至僅需 259 元。這些 app 操作難度甚至不及美圖秀秀,僅需一鍵塗抹,便能將任何一張照片變成裸照。
商家還會熱情提示你:你做好可以賣給別人。
2023 年,網紅博主 Caro賴賴_ 的社交賬號突然涌入很多評論說:我看過你的視頻。
本着清者自清的原則,她沒做出任何迴應。
影響卻不斷擴大,直至她身邊的朋友發來視頻詢問:賴賴,這不是你吧?
看着黃片中與自己一模一樣的臉,賴賴才意識到自己的「臉」被盜用生成了色情影片。與此同時,這些影片正在被瘋狂傳播。
視頻發佈者都是先在境外社交平臺上註冊受害者賬號,再搬運其日常內容積累粉絲,緊接着以會員訂閱的方式販賣視頻,形成一條完整的產業鏈閉環。賴賴稱自己在調查過程中曾看到過一份網紅名單,裡面都是她熟悉的名字。
這些 AI 換臉視頻售價 30-50 元,付費 200 元進 VIP 羣,還能享受半價和私人定製服務。
私人定製——即提供任意一人的生活照若干,他們就能通過 AI 製成色情視頻。
這些境外賬號往往很難溯源,即便是溯源到,也很難將嫌疑人抓捕歸案。
極其低廉的犯罪成本背面,是極高的維權成本及難度。
Twitch 平臺上很多女主播不僅被 AI 換臉 P 成裸照,還被亂造黃謠。
這些博主主要靠賣身賺錢的謠言,幾乎傳遍全網。即便都是 AI 僞造的,但當受害人發現網絡上所有人都在討論她的裸體仍承受者巨大痛苦。
只能痛哭流涕地懇求大家不再傳播:
求大家停下好嗎,不要再傳播這些圖片了,不要再給這件事熱度了,求你們了。
網絡安全研究機構 Sensity 的首席科學家喬治·帕特里尼曾表示:目前已有超過68萬名女性在不知情的情況下被僞造了色情圖片,並上傳到了公共媒體平臺。
需要注意的是,這僅是被上傳至公共媒體平臺的數量。
不見光的暗處,這數字可能是 68 萬的平方。
恰如華盛頓大學科技的 Noelle Martin 所說的:深僞色情,正在剝奪我們在世界中自主決定的權利和能力。其影響恐將貫穿一生,包括就業、收入、人際關係和親密關係......人生的每個面向都將受其牽連。
我們正生活在一個失去隱私,且愈發不可控的時代裡。
反「色情復仇」組織 Badass 的創始人說:現在每個人都有可能成爲色情報復的受害者,即使沒有拍過一張裸體照片,也可能會因爲這項技術而成爲受害者。
這把火,已然燒在你我腳下。
如今這類犯罪有多普遍呢?
2023 年 8 月 8 日,渦陽法院審結了一起傳播淫穢物品罪案件。
被告人付某因販賣、傳播自制淫穢視頻,被判處有期徒刑七個月,追繳違法所得 3940 元。
被告人付某平時喜歡刷短視頻,一次在刷短視頻的時候刷到 AI 換臉的視頻,出於好奇,隨便找了個網站和論壇,自學了一個月的剪輯和換臉技術,便開始熟練製作並販賣該類視頻。
無獨有偶,三個月後,杭州市蕭山區人民法院同樣審結一起製作、傳播淫穢物品牟利罪案件。
判決被告人虞某被判處有期徒刑七年三個月,並處罰金6萬元。
虞某同樣只是通過互聯網,自學 AI 換臉的技術軟件,並在掌握這項技能後開始以此牟利。
據虞某供述,爲吸引更多的關注和流量,他在社交軟件上創建了瀏覽羣和私人定製羣。
通過瀏覽羣傳播 AI 換臉的淫穢視頻吸引、招攬觀看者,再將有定製換臉的需求客戶引入私人定製羣。他再根據時長,視頻的難度大小收取相應的費用。
虞某聲稱:只要能看到臉的都能換。
據檢察機關了解,虞某的客戶要求定製的對象不僅包括公衆人物,也有生活中的普通人。對於這些未經同意就擅自侵犯他人敏感信息的違法行爲,虞某向來都是來者不拒。
虞某除定製化的換臉服務外,甚至還授課。
並將 AI 換臉軟件分爲初級、中級和高級三個等級進行銷售並傳授使用教程,同時還提供網上非法收集的他人人臉素材。
在庭審中,檢察機關出示了虞某侵犯公民個人信息、損害社會公共利益的詳細證據,其中就有淫穢視頻1200多部、圖片1600多張等電子數據。
看到了嗎,這就是你我身邊發生過或正在發生的案例。
這樣的侵犯和強姦,幾乎無處不在。
你的廚房裡,永遠不會只存在一隻蟑螂。當你發現一隻蟑螂時,就註定意味着暗處已經抱窩了,這些垃圾人也是同理。正在我們還沒看見的角落裡,隱性的性侵和強姦正無處不在,蛆蟲們正抱團狂歡。
正如 N 號房事件,打掉一個 N 號房並不意味着結束。
N 號房有消失過嗎?
剛剛庭外和解的黃子佼,被曝出性侵後,檢警在他個人硬盤裡發現了上百部少女影像。這些影像有未成年少女被逼學狗爬,被針刺身體等,施暴者甚至要求她們舉着身份證,證明自己是未成年。
這些全都是黃子佼在過去 6 年(2017年開始)內從臺版 N 號房買的,他還是高級會員。
任何這類犯罪,都是同理。
這篇文章寫到最後,其實是有點不知所措的。
因爲偷拍、迷姦......等過去一系列犯罪,我們都還有辦法、措施保護自己。
但面對 AI 強姦,我們卻無計可施。
難道應該徹底拒絕拍照嗎?還是乾脆不出門?或者整日裹着厚厚的頭巾......
我們也許只是發條朋友圈,都會成爲新素材。
我們總說技術沒錯,錯的是人。
但是作爲受害者,或者可能被施暴的人羣,又該怎麼做呢?
技術進步的實在太快,日新月異,我們卻變得更危險。
除了呼籲技術壁壘更完善,法律更健全,以及溯源、追捕更迅速以外我們無計可施。
我們無一不生活在,隨時有可能被換臉成黃片主角的環境中。
這件事本身,是不應該的。
本文系原創發佈,作者:悠悠。歡迎分享到朋友圈,未經許可不得轉載,INSIGHT視界 誠意推薦