首先來看下面兩張圖片,你猜猜哪張圖片是真實的人臉,哪個圖片是人工智能(AI)生成的?
想好了嗎?
答案是,左邊這個是AI生成的,而右邊的圖片是真實的人臉。
再看看下面的圖片,你還能分辨哪些是AI生成的嗎?
結論是,以上這些照片都是AI生成的。
AI生成的人臉能夠起到隱私保護的作用,避免在一些情況下的真人出鏡,但是現在這個技術已經被玩壞了。
3月中旬,烏克蘭總統Volodymyr Zelenskiy的一分鐘視頻首先出現在社交媒體上,后來出現在烏克蘭新聞網站上。在其中,Zelenskiy告訴烏克蘭士兵放下武器,向俄羅斯軍隊投降。但視頻被證明是假的,是由機器學習創造的。
這個技術的副作用似乎也蔓延到了學術界。一些科學家現在擔心,類似的技術可能會通過創建虛假的光譜或生物標本圖像來進行研究欺詐。
微生物學家兼科學誠信專家Elisabeth Bik說:“我一直非常擔心這些類型的技術。我認為這已經發生了,創建假圖像并發表它們?!彼龓椭l現的600多項完全捏造的研究中的圖像可能來自同一家論文工廠,可能是人工智能生成的。
與手動操作的圖像不同,人工智能生成的圖像幾乎不可能通過眼睛檢測到。在一項未經同行評審的案例研究中,由中國廈門大學計算機科學家俞容山領導的團隊創建了一系列深度偽造(deepfake)的免疫印跡和癌癥圖像。三分之二的生物醫學專家無法將他們與真實圖片區分開來。
俞容山說,問題是深度偽造圖像是獨一無二的。它們沒有顯示人們通常尋找的痕跡,例如,重復的元素和背景不一致。此外,俞說,“深度偽造和其他工具現在非常成熟”?!斑@不是火箭科學,你不需要人工智能領域的頂尖專家來使用它們?!?/span>
Deepfakes通常基于生成對抗網絡(Gan),其中生成器和鑒別器相互競爭。美國羅切斯特理工學院的deepfake技術研究員John Sohrawardi解釋說:“一個網絡試圖從白噪聲中生成假圖像,比如說一張臉?!薄八畛醪恢廊绾紊扇四?,所以它需要鑒別器的幫助,這是一個學習如何區分圖像是真還是假的網絡。”最終,生成器會愚弄鑒別者,使其認為其圖像是真實的。
美國加州大學伯克利分校專門研究數字取證和錯誤信息的Hany Farid說,鑒于Gans可以合成與真實面孔別無二致的面孔,“我認為它能生成這些類型的相當普通的生物圖像不應該令人震驚?!钡?,雖然deepfakes是一個需要認真對待的威脅,但“我更關心的是可復制性、黑客攻擊、P值篡改、Photoshop操縱,我懷疑這些老套的東西在相當長的一段時間內仍然會占主導地位。”
▲這些食道癌圖像是深度偽造的,是由生成式對抗網絡創建的
羅切斯特全球網絡安全研究所所長Matthew Wright表示同意?!拔抑皇怯X得這沒有特別具有威脅性,盡管從技術上講,這非??赡?,而且可能很難檢測到是否有人這樣做?!?/span>
Farid解釋說,機器學習留下的數字人工制品可用于識別假圖像,盡管欺詐者通常在短短幾個月后就找到了繞過這些方法的方法。Farid說:“歸根結底,唯一真正的解決方案是主動的,在記錄時使用硬加密進行身份驗證。”他認為,科學的自我糾正機制最終將處理虛假研究。
▲實際和偽造的光譜圖片,你能分清嗎?
余容山說,目前還不清楚文獻是否已經包含人工智能生成的圖像。Bik說:“我認為我們已經到了不能再分辨文章是真的還是假的地步?!彼ㄗh:“我們需要更努力地與機構合作,讓他們承擔部分責任,并消除研究人員的壓力,他們的整個職業生涯可能取決于在國際期刊上發表文章。”
參考鏈接
原創文章,作者:v-suan,如若轉載,請注明來源華算科技,注明出處:http://www.zzhhcy.com/index.php/2022/06/29/9a0fd088b0/