“就在昨天,谷歌發(fā)布了最新的人工智能技術(shù)FaceGAN。
于此同時發(fā)布的,還有一個叫做[這些人并不存在]的網(wǎng)站。
或許觀眾們會覺得這是一個徹頭徹尾的惡作劇,因?yàn)檫@些肖像,這些人物看上去是那么的真實(shí),栩栩如生。
可愛的幼童,美麗的女士,英俊的紳士,歷經(jīng)滄桑的老人。這一切似乎與我們生活中的人物沒有任何不同。
但事實(shí)證明,這些圖像并不是真實(shí)拍攝而來,而是使用最尖端的人工智能技術(shù)生成獲得的。
對此,我們應(yīng)當(dāng)感受到深深的擔(dān)憂。
FaceGAN是兩個短語,F(xiàn)ace和GAN的組合。其中GAN是兩個月前,由華國年輕人工智能學(xué)者,孟繁岐提出的生成式對抗網(wǎng)絡(luò)。
這是一種創(chuàng)新的人工智能方法,GAN在兩個月前,還只是領(lǐng)域內(nèi)開創(chuàng)性的一個設(shè)想。
但兩個月之后,針對人臉任務(wù)的FaceGAN就已經(jīng)展現(xiàn)出了驚人的生成效果,威力無窮。
按照這樣的發(fā)展速度,我們有理由相信,任何擁有計(jì)算機(jī)和互聯(lián)網(wǎng)的人都可以創(chuàng)建逼真的照片和視頻,展示人們在說和做他們實(shí)際上沒有說或做的事情。
荒謬絕倫的事情都有可能會擁有[證據(jù)]佐證。
盡管令人印象深刻,目前的FaceGAN技術(shù)仍舊暫時無法與真實(shí)的高清照片相提并論——通過仔細(xì)觀察,通常可以分辨出該相片是人工智能生成的。
但這項(xiàng)技術(shù)正在以驚人的速度進(jìn)步。專家預(yù)測,用不了多久,人們將無法把人工智能生成的內(nèi)容與真實(shí)圖像區(qū)分開來。”
這是福布斯的報道,總體來說還算是中肯。
雖說對后續(xù)人工智能發(fā)展的速度過分樂觀了一些,不過這屬于外行人犯了也很正常的錯誤,完全可以理解。
可CNN那邊,報道的畫風(fēng)就完全不一樣了。
尤其是其中這一段,攻擊性非常之強(qiáng)。
“類似的生成技術(shù)將被廣泛應(yīng)用的第一個用例——新技術(shù)通常就是這樣,不論你愿不愿意——都將會是澀情內(nèi)容。
而生成式澀情內(nèi)容幾乎都必定是非自愿的,從網(wǎng)絡(luò)的一些黑暗角落,這樣的生成式技術(shù)會逐漸從澀情領(lǐng)域蔓延到政治領(lǐng)域,并造成更大的混亂。
如果可以向所有人展示他們認(rèn)為是[真實(shí)的]虛假內(nèi)容,那么不需要太多想象力就可以理解可能造成的危害。
想象一下政客在選舉前參與賄賂或性侵犯的生成式偽造鏡頭;或美國士兵在海外對平民犯下暴行;或奧觀海總統(tǒng)宣布對朝鮮發(fā)射核武器。
在這樣的世界里,即使這些片段是否真實(shí)存在一些不確定性,后果也可能是災(zāi)難性的。
由于這項(xiàng)技術(shù)的普及,任何人都可以制作這樣的鏡頭:國家資助的演員、政治團(tuán)體、獨(dú)立的個人。
扭曲民主話語;操縱選舉;削弱對機(jī)構(gòu)的信任;削弱新聞業(yè);加劇社會分裂;破壞公共安全;并對包括民選官員和公職候選人在內(nèi)的知名人士的聲譽(yù)造成難以修復(fù)的損害。
在過去,如果你想威脅美國,你需要 10艘航空母艦、核武器和遠(yuǎn)程導(dǎo)彈。
今天......你所需要的只是制作一個非常逼真的假視頻的能力,它可能會破壞我們的選舉,這可能會使我們的國家陷入巨大的內(nèi)部危機(jī)并深深地削弱我們。
這些事情,就在不遠(yuǎn)的未來。
如果我們不能相信從世界各地收集到的視頻、音頻、圖像和信息,那將是一個嚴(yán)重的國家安全風(fēng)險。
圖像和視頻是否真實(shí)幾乎無關(guān)緊要。強(qiáng)力的生成式技術(shù)將使公眾越來越難以區(qū)分什么是真實(shí)的和什么是假的,政治參與者將不可避免地利用這種情況——這可能帶來毀滅性的后果。”
孟繁岐讀到這里的時候人都快麻了,怪不得最喜歡說CNN是假新聞(Fake News)。
這比話說的就特么離譜,現(xiàn)在就只是對低分辨率的臉部圖像做了個生成技術(shù),就被CNN說得比航空母艦還邪乎了。
什么過去需要“10艘航空母艦、核武器和遠(yuǎn)程導(dǎo)彈”,現(xiàn)在只需要制作假視頻的能力?
意思是他孟繁岐再搞兩年人工智能,就智械危機(jī),拿下美國了是吧。
正經(jīng)的東西是一點(diǎn)不講,技術(shù)內(nèi)容也完全不提,就光顧著販賣焦慮了。
看得孟繁岐血壓都高了。
華爾街日報的報道則最為技術(shù)一些:
“使得生成如此逼真的圖像成為可能的核心技術(shù),是生成式對抗網(wǎng)絡(luò),它是由孟繁岐在2013年10月公布的。
人工智能界的教父級人物,辛頓和本吉奧均高度贊賞這個想法,并稱它為過去十年內(nèi)最有趣的想法。
在GAN出現(xiàn)前,神經(jīng)網(wǎng)絡(luò)擅長對已經(jīng)存在的內(nèi)容進(jìn)行分類,語言,語音,圖像等,但完全不擅長創(chuàng)造新的內(nèi)容。
孟繁岐不僅賦予了神經(jīng)網(wǎng)絡(luò)感知的能力,還賦予了它創(chuàng)造的能力。
孟的概念突破是使用兩個獨(dú)立的神經(jīng)網(wǎng)絡(luò)構(gòu)建 GAN——一個稱為“生成器”,另一個稱為“鑒別器”——并將它們相互對抗。
從給定的數(shù)據(jù)集(例如,人臉照片的集合)開始,生成器開始生成新圖像,這些圖像在像素方面與現(xiàn)有圖像在數(shù)學(xué)上相似。同時,鑒別器被輸入照片,而沒有被告知它們是來自原始數(shù)據(jù)集還是來自生成器的輸出;它的任務(wù)是識別哪些照片是合成生成的。
隨著這兩個網(wǎng)絡(luò)反復(fù)地相互對抗——生成器試圖愚弄鑒別器,鑒別器試圖證明生成器的創(chuàng)造力——它們磨練了彼此的能力。最終鑒別器的分類成功率下降到 50%,不比隨機(jī)猜測好,這意味著合成生成的照片與原始照片變得無法區(qū)分。
而我們現(xiàn)實(shí)當(dāng)中的情況也是如此,一旦我們發(fā)現(xiàn)了某種足以識別生成式虛假內(nèi)容的方式,生成端很快就可以修正這些內(nèi)容。就像是貓鼠游戲,我們未來與生成式虛假內(nèi)容的對抗,就像是GAN方法一樣,會不斷促使生成模型變得更強(qiáng)大。”
“我超,這是純純的哲學(xué)家啊。”孟繁岐看完之后心頭一震,這最后的升華是他自己也沒有想到的。
在推特上又逛了一圈之后,孟繁岐才知曉為何這次技術(shù)突然引發(fā)了這么多人的關(guān)注。
原來是有行為藝術(shù)家,看了[這些人都不存在]網(wǎng)站后,從上面找了幾張圖當(dāng)頭像,直播去網(wǎng)聊。
結(jié)果跟他對話的人,有不少都評價過這些圖像,但均沒有一個懷疑過這些圖像的真實(shí)性。
在數(shù)百萬吃瓜群眾的圍觀之下,F(xiàn)aceGAN的實(shí)力被抬到了一個不屬于它的高度。
而作為GAN技術(shù)和FaceGAN技術(shù)的第一作者,孟繁岐如今在推特上炙手可熱。
無數(shù)的問題和@讓他眼花繚亂,甚至發(fā)文的這幾家主流媒體,也紛紛通過推特留言或者谷歌的關(guān)系,對孟繁岐發(fā)起了采訪的邀請。