原標(biāo)題:走出恐怖谷:AI已能合成真假難辨的人臉照片,更讓人信任。
看到這張照片,你覺得是真的人臉照片嗎?
實(shí)際上,這是一個(gè)名為“此人不存在”的網(wǎng)站生成的合成人臉照片(this-person-does-not-est)。
“我們對AI合成人臉照片真實(shí)感的評估表明,合成引擎已經(jīng)走過了‘恐怖谷’,可以創(chuàng)建與真實(shí)人臉難以區(qū)分的人臉,更加可靠?!?月14日,一篇發(fā)表在《美國國家科學(xué)院院刊》( PNAS)上的論文在摘要中說。
“恐怖谷效應(yīng)”是由森昌弘在1970年提出的,是關(guān)于人類對機(jī)器人和非人類物體的感受的一種假說。
“恐怖谷效應(yīng)”是指由于機(jī)器人在外形和動(dòng)作上與人類相似,人類也會對機(jī)器人產(chǎn)生積極的感情。當(dāng)機(jī)器人和人類的相似度達(dá)到一定程度時(shí),人類對它們的反應(yīng)會突然變得極其消極和厭惡。哪怕機(jī)器人和人類只有一點(diǎn)點(diǎn)差別,也會非常顯眼,非常刺耳,使得整個(gè)機(jī)器人非常僵硬,非??植馈T诤铣扇四樥掌膱鼍爸?,“恐怖谷”效應(yīng)往往來自于人眼中空孔洞的表情所帶來的不安。
一旦機(jī)器人與人類的相似度持續(xù)上升,相當(dāng)于普通人之間的相似度,人類對它們的情感反應(yīng)就會再次回歸積極,從而產(chǎn)生人類之間的共情。
越來越多令人信服的圖像正在將觀眾拉出“恐怖谷”,帶入Deepfake構(gòu)建的欺騙世界。在加州大學(xué)伯克利分校教授哈尼·法里德和蘭卡斯特大學(xué)博士生索菲·南丁格爾(Sophie Nightingale)進(jìn)行的“AI合成人臉與真實(shí)人臉難以區(qū)分,更可靠”的研究中,實(shí)驗(yàn)參與者被要求區(qū)分神經(jīng)網(wǎng)絡(luò)StyleGAN2合成人臉與真實(shí)人臉,以及這些人臉引起的信任程度。
本研究由三個(gè)實(shí)驗(yàn)組成。在比較好個(gè)實(shí)驗(yàn)中,315名參與者將128張人臉(從一組800張人臉中提取)分類為真實(shí)人臉或合成人臉,準(zhǔn)確率為48%。
在第二個(gè)實(shí)驗(yàn)中,219名新參與者接受了識別真實(shí)面孔和合成面孔的訓(xùn)練,然后128張面孔被歸類為比較好個(gè)實(shí)驗(yàn)中的面孔。盡管進(jìn)行了訓(xùn)練,但最終的準(zhǔn)確率只提高到了59%。
然后,研究人員決定探索可信度的感知是否可以幫助人們識別人工圖像?!叭四樚峁┝素S富的信息源,只需要幾毫秒就可以隱式推斷出個(gè)人特征(比如可信度)。我們想知道合成面孔是否會激活同樣的可信度判斷。如果不是,可信度的感知可能有助于區(qū)分真實(shí)人臉和合成人臉。”
在第三個(gè)實(shí)驗(yàn)中,223名參與者對128張面孔的可靠性進(jìn)行評級,這些面孔取自同一組的800張面孔,從1(非常不可靠)到7(非常可信)不等。***,合成人臉的平均得分比真實(shí)人臉高7.7%,具有統(tǒng)計(jì)學(xué)意義。
實(shí)驗(yàn)結(jié)果表明,合成的人臉照片與真實(shí)人臉幾乎沒有區(qū)別,甚至更加可信。這個(gè)結(jié)果也是研究者始料未及的。南丁格爾說,“我們最初認(rèn)為合成臉不如真實(shí)臉可信。”
生成這張人臉照片的StyleGAN是英偉達(dá)在往年開發(fā)的神經(jīng)網(wǎng)絡(luò)。GAN由兩個(gè)相互競爭的神經(jīng)網(wǎng)絡(luò)組成,其中一個(gè)叫生成器,不斷生成某個(gè)東西,另一個(gè)叫鑒別器,不斷嘗試確定結(jié)果是真的還是比較好個(gè)生成的。生成器從隨機(jī)像素開始練習(xí)。隨著鑒別器的反饋,逐漸產(chǎn)生越來越逼真的人臉。***鑒別器分不清真臉和假臉,訓(xùn)練結(jié)束。
創(chuàng)造不存在的人臉照片其實(shí)是甘的副產(chǎn)品。它最初的主要目標(biāo)是訓(xùn)練人工智能識別假臉和普通臉。Nvidia需要自動(dòng)識別人臉,并應(yīng)用其他渲染算法來提高其顯卡性能。然而,由于StyleGAN代碼是公開的,一名優(yōu)步工程師用它創(chuàng)建了一個(gè)隨機(jī)面部生成器。
Deepfake技術(shù)的惡意使用在現(xiàn)實(shí)中已經(jīng)體現(xiàn)在很多方面,比如美國大選的虛假宣傳活動(dòng),為敲詐而制造的虛假色情內(nèi)容等等。Deepfake技術(shù)出現(xiàn)以來,已經(jīng)成為識別深度偽造和進(jìn)一步欺騙識別之間的“軍備競賽”。
現(xiàn)在這個(gè)關(guān)于Deepfake進(jìn)展的研究,讓人們更加擔(dān)心它的濫用?!叭魏稳硕伎梢栽跊]有Photoshop或CGI專業(yè)知識的情況下創(chuàng)建復(fù)合內(nèi)容,”南丁格爾說。
南加州大學(xué)視覺智能和多媒體分析實(shí)驗(yàn)室主任Wael Abd-Almageed在接受《科學(xué)美國人》采訪時(shí)表示,“另一個(gè)擔(dān)憂是,這些發(fā)現(xiàn)會讓人們覺得深度偽造將變得完全無法檢測,科學(xué)家可能會放棄嘗試開發(fā)針對深度偽造的對策?!?/p>
兩位研究人員還提出了對策,例如將強(qiáng)大的水印結(jié)合到圖像和視頻合成網(wǎng)絡(luò)中,這將為可靠的識別提供有效的機(jī)制。
該論文寫道,也許最有害的事情是,在任何圖像和視頻都可以偽造的數(shù)字世界中,任何不受歡迎的記錄的真實(shí)性都可能受到質(zhì)疑。“因此,我們鼓勵(lì)推動(dòng)技術(shù)發(fā)展的人考慮風(fēng)險(xiǎn)是否大于收益,而不僅僅是從技術(shù)角度考慮是否有可能實(shí)現(xiàn)。”回搜狐多看看。
負(fù)責(zé)編輯:
文章標(biāo)題:走出恐怖谷:AI已能合成難辨真假的人臉照片,還更被信任
本文地址:http://balticsea-crewing.com/show-74510.html
本文由合作方發(fā)布,不代表中職學(xué)校招生網(wǎng)_55px.com.cn立場,轉(zhuǎn)載聯(lián)系作者并注明出處:中職學(xué)校招生網(wǎng)_55px.com.cn
免責(zé)聲明:本文僅代表文章作者的個(gè)人觀點(diǎn),與本站無關(guān)。其原創(chuàng)性、真實(shí)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實(shí),請讀者僅作參考,并自行核實(shí)相關(guān)內(nèi)容。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請聯(lián)系郵箱:dashenkeji8@163.com,我們將在第 一 時(shí) 間進(jìn)行核實(shí)處理。軟文/友鏈/推廣/廣告合作也可以聯(lián)系我。