0
| 本文作者: 伍文靚 | 2019-09-06 19:09 |

雷鋒網消息,2019 年 9 月 5 日,Facebook CTO Mike Schroepfer 發布了一篇博文宣布,Facebook 正與微軟公司以及多所大學聯合研究檢測 deepfakes 的方法,甚至投入了 1000 萬美元來發起競賽,激勵檢測研究的發展。
2017 年,一名 ID 為 Deepfakes 的網友在 Reddit 網站上傳了一段換臉視頻,并在之后上傳了一系列類似的視頻;由于換臉視頻涉及色情內容,并且侵犯了他人的隱私,引起了惡劣的反響。最終,Reddit 官方將 Deepfakes 封號。而作為報復,Deepfakes 也將換臉視頻的 AI 代碼免費公開,從此,Deepfakes 視頻像病毒一樣蔓延全球,無論是明星還是政客,都有可能被“換臉”。
出于人們對這項技術的強烈擔憂,Deepfakes 在一定程度上遭到了打壓。
雖然,Deepfakes 時常會被用于惡搞視頻里,而且人們也覺得無傷大雅;但是,如果出現在政黨競選領域,或許就另當別論了——有專家表示,在 2020 年美國總統大選之前,或許會有更多關于政客的 Deepfakes 假新聞出現。
就目前而言,美國還沒有引發重大政治后果的 Deepfakes 換臉視頻,但最近網上流傳出一段劣質的有關美國眾議院議長 Nancy Pelosi 的視頻片段,視頻片段中 Nancy Pelosi 的演講被人為降速,讓她看上去含混不清,造成了負面影響。
更重要的是,使用該技術的成本在變得越來越低。網絡上有一些團隊正在開發制作簡單 Deepfakes 視頻的市場;甚至在 YouTube 上傳指導教程,教人手把手制作 Deepfakes 視頻,再收取一定的費用;也有一些自助服務網站可以幫助生成 Deepfakes 視頻。

前兩天刷爆朋友圈的換臉 app ZAO 更是大大降低了人們感受這項技術的門檻——不需要 P 圖技術、不需要代碼知識、不需要專業設備;僅需要一部手機,一張照片,就能快速生成換臉視頻;效果逼真,動作流暢。而且,一旦用戶上傳自己的照片,并且同意該軟件的用戶協議和隱私協議,肖像權 & 隱私權就有可能面臨著巨大的風險。
正如開篇所提到的,針對 Deepfakes 帶來的惡劣影響,眾多機構已經開始行動。Facebook 已經聯合學術和企業兩個領域的力量,共同研究以低成本的方式檢測出 Deepfakes 視頻的方法。
雷鋒網了解到,項目的參與者包括康奈爾科技校區(Cornell Tech)、麻省理工學院(MIT)、牛津大學(University of Oxford)和伯克利大學(UC Berkeley)等;非營利性研究組織 Partnership on AI 也參與其中,該組織的成員有 Google 、蘋果、亞馬遜、IBM 等大型科技公司。
Facebook 的聲明中還援引了來自多個大學的教授的話;其中,紐約州立大學工程與應用科學學院的呂思偉教授說道:
雖然 Deepfakes 視頻看起來可能很逼真,但它們畢竟是由算法生成的,而不是由攝像機捕獲的真實事件;這意味著它們仍然可以被檢測出來。一些有前景的新方法可以發現和減輕 Deepfakes 的有害影響,包括在視頻素材中添加“數字指紋”以幫助驗證其真實性。除此之外,解決這個問題還需要技術人員、政府機構、媒體、公司和每一個在線用戶共同努力。
作為該項目的一部分,Facebook 還投入了 1000 萬美元來發起競賽,競賽將從 2019 年末開始,到 2020 年春季結束;屆時還將有一個排行榜,用來評定 Deepfakes 檢測系統的能力。從某種程度上來說,發起競賽不失為一種明智之舉,可以激勵研究人員以及業余愛好者尋找解決方案。

不過,與所有有關于人工智能的問題一樣,Deepfakes 視頻的檢測也涉及到大量的數據和訓練。因此,Facebook 也會委托研究人員生成逼真的 Deepfakes 內容,通過這些內容生成數據集,以便于測試檢測工具的效果。與此同時,Facebook 也表示,這些視頻將邀請付費的演員出演,不會使用用戶的數據。這些視頻數據也將于今年 10 月舉行的國際計算機視覺會議進行初步測試,并于 12 月在溫哥華舉行的 NeurIPS 會議期間公開發布,以便于參賽者訪問。
盡管 Facebook 對其計劃十分有信心,但想要解決 Deepfakes 的問題也并非易事。
Facebook 首席技術官 Mike Schroepfer 在接受記者采訪時說道,人們有許多方法可以檢測 Deepfakes 視頻,比如通過視頻中一些奇怪的陰影形態和不自然的視覺效果。但隨著 Deepfakes 背后的技術迅速發展,檢測也變得越來越困難。
雷鋒網獲悉,一些研究人員正在打造一個通過數字水印驗證視頻或圖像真實性的系統,然而,Deepfakes 技術的迅速發展,讓 Deepfakes 視頻制作者和檢測人員之間展開了一場軍備競賽。紐約大學坦登學校計算機工程助理教授 Siddharth Garg 表示,“這就像一場貓鼠游戲,如果我們設計了一個 Deepfakes 的檢測器,就等于給了黑客一個新的模擬器進行反測試。”
另外,從檢測系統本身來看,當一個系統已經“看過”原始視頻時,確實能夠輕易地從假視頻中發現變化,從而檢測出 Deepfakes 視頻;但如果懷有惡意演員故意錄制視頻,然后對其進行處理,那么對于人工智能系統而言,這個視頻就是“原始視頻”,沒有可以參考的標準,也就難以發現其中存在的問題。
Mike Schroepfer 表示,Facebook 已經嘗試了各種檢測方法,但希望這次比賽能夠產生更加新穎的方式。

值得一提的是,Deepfakes 最初被用于捏造以女性演員為對象的色情內容,然而,Facebook 在其聲明中援引了 7 位學術嘉賓對 Deepfakes 的評論,其中并未包括女性。這一點在 Twitter 上引起了廣泛的討論。
總的來說,能夠看到學術界和企業聯合起來研究解決 Deepfakes 的相關問題,不可謂不喜聞樂見。盡管,人們在這條路上還會看到挑戰和困難不斷涌現,但正如 Facebook 在其聲明中所言,此次的行動是“邁出了有意義的一步”。
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。