|
聯(lián)系方式 |
地址:
南通市工農(nóng)路附87號百昌大廈
電話:
手機(jī):
13646285454
聯(lián)系人:
本站出售
電子郵箱:
[email protected]
|
|
|
您現(xiàn)在的位置:網(wǎng)站首頁 - 新聞動態(tài) |
Deepfake視頻“九個月內(nèi)翻了一番”
|
發(fā)布時間:
2019/10/8 |
一項新的研究表明,所謂的Deepfake視頻的創(chuàng)建數(shù)量驚人地增加了,在過去的9個月中,在線視頻的數(shù)量幾乎翻了一番。也有證據(jù)表明,這些視頻的制作正在成為一項利潤豐厚的業(yè)務(wù)。
盡管人們對深造假的大部分關(guān)注都集中在出于政治目的而使用深造假,但有證據(jù)表明,色情占絕大部分。
該研究來自網(wǎng)絡(luò)安全公司Deeptrace。它的研究人員在線發(fā)現(xiàn)了14698個Deepfake視頻,而2018年12月為7964個。
他們說,有96%的人本質(zhì)上是色情的,通常是計算機(jī)生成的名人面孔取代了發(fā)生性行為時成年演員的面孔。
研究人員發(fā)現(xiàn),雖然許多主題都是美國和英國女演員,但研究人員發(fā)現(xiàn),韓國的K-Pop歌手也經(jīng)常被插入假冒的視頻中,從而突出表明這是一種全球現(xiàn)象。
該報告確實強(qiáng)調(diào)了在政治運(yùn)動中使用Deepfake技術(shù)的潛力。但是,在這兩個案例中,它突出顯示了-在加蓬和馬來西亞-使用假冒視頻的指控被證明是不正確的。
不過,似乎很明顯的是,目前真正的危險是在報復(fù)色情和網(wǎng)絡(luò)欺凌行為中使用該技術(shù)。
谷歌制造深造與深造
Deeptrace研究分析負(fù)責(zé)人亨利·阿杰德(Henry Ajder)說,關(guān)于深度假貨的太多討論都沒有兌現(xiàn)。
他解釋說:“辯論全都涉及政治,欺詐和近期威脅,但是很多人忘記了深情色情是一種非常真實,非常流行的現(xiàn)象,正在傷害許多婦女?!?br />
Deeptrace的存在本身就證明了Deepfake現(xiàn)象已成為公司和政府關(guān)注的迅速程度的證據(jù)。
它將其使命描述為保護(hù)“個人和組織免受AI生成的合成媒體的破壞性影響”。
Deepfake一詞最早是在2017年的Reddit帖子中提出的,該報告解釋說,在短短的兩年內(nèi),整個行業(yè)都從這種現(xiàn)象中獲利。
Deeptrace發(fā)現(xiàn),自2018年2月以來,在廣告支持下的四個領(lǐng)先的以假冒為主題的色情網(wǎng)站共吸引了1.34億次視頻觀看。
現(xiàn)在,可以創(chuàng)建這種材料的應(yīng)用程序正在激增。
一種允許用戶綜合性地從靜止圖像中刪除衣服的婦女的收費(fèi)方式是,從每個成品中刪除水印的費(fèi)用為50美元(40英鎊)。
在撰寫有關(guān)該應(yīng)用程序的重要文章后,對該應(yīng)用程序網(wǎng)站的訪問激增,所有者對此予以了拒絕。
但是該軟件仍然存在,被其他尋求從中獲利的人重新打包。
一位獨立專家強(qiáng)調(diào),其他軟件也比以前更容易制作假視頻。
創(chuàng)新基金會Nesta的首席研究員Katja Bego解釋說:“現(xiàn)在只需少量的輸入材料就可以創(chuàng)建可傳遞的Deepfake-算法需要越來越少的視頻或圖片素材來進(jìn)行訓(xùn)練?!?br />
“隨著技術(shù)的飛速發(fā)展,決策者現(xiàn)在必須考慮可能的對策。這意味著著眼于開發(fā)檢測工具和提高公眾意識,同時[考慮]潛在的深層造假的潛在社會和政治動態(tài)。危險的?!?br />
Deeptrace報告的作者還描述了服務(wù)門戶-生成和銷售Deepfake視頻的在線業(yè)務(wù)。
一個這樣的門戶網(wǎng)站需要250幅目標(biāo)對象的照片和兩天的處理時間才能生成視頻。Deeptrace表示,收費(fèi)標(biāo)準(zhǔn)各不相同,但每個視頻可能低至2.99美元。
人權(quán)組織與Google合作的見證媒體實驗室(Witness Media Lab)于今年早些時候發(fā)表的另一份報告發(fā)現(xiàn),制作Deepfake視頻仍然需要一些技巧-但這種情況正在迅速改變。
該報告說,現(xiàn)在完全真實地模擬實際面孔仍然需要大量具有專業(yè)技能和技術(shù)的人員。
但是,漫長的過程是自動化的,它使沒有專門知識的人們可以制作出可能不太復(fù)雜但可以更快生成的視頻。
在YouTube上標(biāo)記有Deepfake標(biāo)簽的視頻中,有一些令人印象深刻的例子說明了專業(yè)團(tuán)隊如何使用該技術(shù)。
由Ctrl Shift Face制作的一段錄像中,《閃靈》突然扮演了杰克·尼科爾森(Jack Nicholson)角色的吉姆·卡里(Jim Carrey)。
匿名創(chuàng)建者在他的頻道上有幫助地警告:“不要相信您在互聯(lián)網(wǎng)上看到的所有內(nèi)容,好嗎?”
Ctrl Shift Face的目的是娛樂而不是欺騙。但是顯然有人擔(dān)心,這種偽造品可能會被用來控制選舉活動或煽動對特定群體的仇恨。
但是,到目前為止,幾乎沒有(如果有的話)deepfake實例成功地以惡意目的欺騙人們。
現(xiàn)在,為了保護(hù)組織免受這種現(xiàn)象的影響而成立的企業(yè),可能會因Deeptrace的利益而大肆宣傳這一威脅。Bego女士質(zhì)疑深度檢測技術(shù)是否是正確的方法。
她解釋說:“病毒視頻可以在數(shù)小時內(nèi)吸引數(shù)百萬觀眾,并成為頭條新聞?!?br />
“一名技術(shù)仲裁員告訴我們,視頻是在事實太少或太遲之后才被篡改的?!?br />
無論如何,從短期來看,深造視頻的惡意用戶的真正受害者不是政府和公司,而是個人,其中大多數(shù)是女性。
他們不太可能聘請專家來打擊虐待者。2019諾貝爾醫(yī)學(xué)獎揭曉 |
|
|
|