近日,據(jù)《赫芬頓郵報(bào)》報(bào)道,繼臭名昭著的深度偽造軟件“Deepnude”被下架后,又有一個(gè)更強(qiáng)大、更智能的“娛樂”網(wǎng)站出現(xiàn)在互聯(lián)網(wǎng)中。在這個(gè)網(wǎng)站上,任何使用者可以輕易地在數(shù)字層面剝?nèi)カ@取一個(gè)人(通常是女性)的衣服。
而根據(jù)其網(wǎng)站的介紹,他們所專注的事業(yè)是:“通過AI研究,讓人類的夢(mèng)想成真”。
為了避免為其引流,本文對(duì)該網(wǎng)站的名字略去不提。
此網(wǎng)站的使用相當(dāng)簡(jiǎn)單,用戶只要上傳一張自己選擇的穿戴整齊的女性照片,幾秒鐘之內(nèi),網(wǎng)站就會(huì)免費(fèi)為他們脫光衣服。在輿論的抗議下,網(wǎng)站在9月6日暫時(shí)關(guān)停,但不到一天后,網(wǎng)站就帶著“收費(fèi)模式”重新上線。收費(fèi)模式下,獲得一張深度偽造的高清裸體圖片僅需0.3美元。
成果“驚人的真實(shí)”,已積累3800多萬點(diǎn)擊量
用技術(shù)做對(duì)比的話,2019年走紅的“Deepnude”并不先進(jìn),如果能拋去其獨(dú)特的“色情”元素,他們生產(chǎn)的產(chǎn)品甚至可以被稱為是幼稚可笑的:如果在Deepnude上傳一張男性半裸的照片,那在照片的下半部分將被拼接上一副裸露的女性乳房。但相比之下,這個(gè)成立于2020年的新網(wǎng)站比Deepnude先進(jìn)得多。
據(jù)稱,該網(wǎng)站生產(chǎn)的裸體女性圖像“驚人的真實(shí)”。在這些生成的圖像中通常沒有偽造的破綻或是視覺線索,都是在深度偽造的技術(shù)下綜合處理生成的,這大大增加了對(duì)圖片主體的潛在傷害。
“任何有報(bào)復(fù)心的變態(tài)都可以很容易地‘裸體化’并發(fā)布他前女友的照片,圖片將非常有說服力,好像她的真實(shí)裸體被泄露了一樣?!薄逗辗翌D郵報(bào)》寫道。
此外,該網(wǎng)站自稱開發(fā)了自己的“最先進(jìn)的”深度學(xué)習(xí)圖像翻譯算法來“裸體化”女性身體,可以覆蓋到所有的種族,從這個(gè)角度來說,它可能比頻頻被爆種族歧視的Facebook更“人人平等”——“人人”除了男性。當(dāng)你上傳一張男性照片時(shí),該網(wǎng)站會(huì)為其匹配上女性的性器官。
從今年年初至今,該網(wǎng)站已經(jīng)積累了3800多萬點(diǎn)擊量——這可能和該網(wǎng)站的“推薦”策略有關(guān)。每個(gè)使用者都可以生成分享鏈接,而每個(gè)點(diǎn)入這個(gè)鏈接的人將給分享者帶來一份“獎(jiǎng)勵(lì)”——他們會(huì)獲得至多一百個(gè)免費(fèi)生成女性高清裸體的額度。這鼓勵(lì)了成千上萬的使用者為它做廣告,有時(shí)他們會(huì)附上網(wǎng)站生成的“成果圖”,這些圖片的主體可能是他們的同事、鄰人、前任,甚至是被隨手拍下的陌生人。
然而,以URL形式分享的鏈接存在著明顯的弱點(diǎn):社交應(yīng)用可以在自己的平臺(tái)上全面禁止其傳播。但至今為止,只有Facebook在被媒體提醒后這樣做了。截止至此稿發(fā)布,該網(wǎng)站仍可以被直接在搜索引擎中被找到。
不僅是名人:任何女性都可以成為被偽造的對(duì)象
早在此網(wǎng)站之前,Telegram就被爆出平臺(tái)上有深度偽造合成裸照的應(yīng)用。據(jù)網(wǎng)絡(luò)安全研究機(jī)構(gòu)Sensity在2020年秋季發(fā)布的報(bào)告,在Telegram的應(yīng)用中,至少有10.48萬女性“被裸體”,而在分發(fā)這些照片的7個(gè)頻道中,累計(jì)用戶超過10萬。
根據(jù)Sensity的追蹤調(diào)查,Telegram應(yīng)用中超七成的使用者表示他們上傳的照片是通過社交平臺(tái),或其他私人渠道取得的。
“這是一個(gè)非常非常糟糕的情況?!庇疃葌卧鞂<液嗬ぐ⒓抡f:“(新網(wǎng)站生成的)圖片真實(shí)性大大提高了。”同時(shí)他也指出,深度造假技術(shù)在應(yīng)用于名人外,也針對(duì)普通女性:“絕大多數(shù)使用這些(工具)的人瞄準(zhǔn)了他們認(rèn)識(shí)的人?!?/p>
沒有人是安全的——Sensity的首席執(zhí)行官帕特里尼說,只要你在社交媒體上發(fā)布了有人臉信息的圖片,就可以被用于生成裸照。
帕特里尼和阿吉德的意見都可以在另一個(gè)網(wǎng)站(它是Deepnude的迭代產(chǎn)品)中得到佐證。在此網(wǎng)站的展示頁面中,有來自世界各地的女性裸體展示,而經(jīng)過記者溯源,可以發(fā)現(xiàn)這些圖片來自于各個(gè)平臺(tái):Pinterest、Instagram、或是購物網(wǎng)站;這些女性有的是商業(yè)模特,有的是健身博主,也有約拍人像的普通女孩。這些裸體照片的原型可能是她們的工作照,也有生活片段的分享。
此外,展示頁面中相當(dāng)一部分照片來源是“無版權(quán)圖片”,這意味著這些圖片可被免費(fèi)下載、使用。那么隨著深度偽造技術(shù)的發(fā)展,“無版權(quán)圖片”應(yīng)被視作商品還是個(gè)人肖像權(quán)的部分?
至少,在溯源的過程中,沒有任何信息顯示這些女性是自愿提供這些圖像的。
深度偽造視頻呈指數(shù)級(jí)增長(zhǎng),暫無有效管控方式
根據(jù)Sensity的數(shù)據(jù),自2018年以來,網(wǎng)上深度偽造視頻的數(shù)量呈指數(shù)級(jí)增長(zhǎng),大約每六個(gè)月就翻一番。截止到2020年12月,他們共發(fā)現(xiàn)虛假視頻85047個(gè)。
然而,相對(duì)于其迅速擴(kuò)張的現(xiàn)狀來說,深度偽造尚無行之有效的管控方式。
“大規(guī)模檢測(cè)可以說是最好的解決方案,”阿吉德說,這指的是用算法大規(guī)模過濾社交媒體和平臺(tái),但,不幸的是,“目前很難做好大規(guī)模的檢測(cè),并將這套檢測(cè)系統(tǒng)納入我們生活的數(shù)字基礎(chǔ)設(shè)施中...檢測(cè)系統(tǒng)部署起來不夠準(zhǔn)確和可靠,特別是對(duì)于海量吞吐數(shù)據(jù)的社交平臺(tái)來說?!?/p>
另一種技術(shù)方法被稱為內(nèi)容認(rèn)證,如TruePic或Adobe等平臺(tái),他們可以通過捕捉點(diǎn)來認(rèn)證照片或視頻的真?zhèn)?。這本質(zhì)上是對(duì)原始圖像進(jìn)行“指紋識(shí)別”,并記錄下圖像在處理過程中的所有更改。但這種方法也有缺點(diǎn)。其中最顯著的一點(diǎn)是,人們可以將照片拍照后再次上傳。
阿吉德認(rèn)為,理想的方法可能是兩者的結(jié)合,加上一些數(shù)字素養(yǎng),這樣個(gè)人就可以在不那么復(fù)雜的深度造假中發(fā)現(xiàn)媒體操縱的跡象。然而,就目前而言,識(shí)別深度造假仍然是一場(chǎng)差距懸殊的追捕賽:被造假的受害者需要花費(fèi)大量精力維持生活、追訴公義,在這個(gè)過程中一些受害者失去了工作,社會(huì)關(guān)系和尊嚴(yán),而有些人死于自殺。
某種意義上來說,這些圖像是否真實(shí)已經(jīng)不再重要——《赫芬頓郵報(bào)》這樣寫道——它們創(chuàng)造了一個(gè)新的現(xiàn)實(shí),受害者必須生活在其中。
編譯/綜合:南都見習(xí)記者胡耕碩
編輯:蔣琳
掃描二維碼推送至手機(jī)訪問。
版權(quán)聲明:本文由信途科技轉(zhuǎn)載于網(wǎng)絡(luò),如有侵權(quán)聯(lián)系站長(zhǎng)刪除。
轉(zhuǎn)載請(qǐng)注明出處http://www.quickersubmitter.com/xintu/10591.html