Deepfakes 深度偽造的時代來臨:你所看到的是否可信?

Deepfakes 深度偽造的時代來臨:你所看到的是否可信?

在機器學習助力的現象——深偽技術(deepfakes)出現後,我們比以往任何時候都需要更認真地考慮一個問題:你真的能相信你所看到的嗎?什麼是深偽技術,以及它們為什麼重要?以下是關於這些新型網絡威脅及其對網絡安全和社會的影響的更多資訊。

深偽技術介紹

深偽是由一種特殊的機器學習——“深度”學習(因此得名)生成的人工圖像或視頻(一系列圖像)。本文有兩種深偽工作方式的概述:一種面向普通人,另一種面向技術人員。

簡單解釋:

深度學習類似於任何類型的機器學習,其中算法被餵食示例並學習產生與其學習來源相似的輸出。人類學習的方式也是如此;一個嬰兒可能會嘗試吃各種隨機物體,很快就會發現什麼是可以吃的,什麼不是。

作為對機器學習和深偽技術的類比,房子裡四處散落的物體相當於互聯網上的真實圖像,而嬰兒在幾個月後無需試圖將物體放入口中就能識別出物體是否可食用的能力,就像算法在訓練現有數據後能夠產生與真實相似的假圖像一樣。

技術解釋(如果您對細節不感興趣,請跳過此部分):

深度學習是一種特殊類型的機器學習,涉及到“隱藏層”。通常,深度學習是由一類特殊的算法執行的,稱為神經網絡,旨在模仿人腦學習信息的方式。隱藏層是網絡中的一系列節點,它執行數學轉換,將輸入信號轉換為輸出信號(在深偽的情況下,將真實圖像轉換為非常好的假圖像)。神經網絡擁有的隱藏層越多,網絡就越“深”。神經網絡,特別是遞歸神經網絡(RNN),在圖像識別任務上表現得相當好,因此將它們應用於創建深偽技術是理所當然的(無意中的雙關語)。

製作複雜的深偽實際上涉及到兩個算法。一個算法被訓練以產生盡可能最佳的真實圖像的假副本。另一個模型被訓練以檢測圖像是假的還是真的。這兩個模型互相迭代,各自在各自的任務上變得更好。通過相互對抗模型,你最終會得到一個非常擅長製作假圖像的模型;事實上,擅長到人類經常無法分辨輸出是否為假。

深偽技術與Photoshop或面部交換有何不同?

如今互聯網上隨處可見假圖像或經過修改的圖像,這些圖像往往是無害的。您可能熟悉Snapchat或其他照片應用程序上的“面部交換”有趣效果,您可以將別人的臉放在自己身上,反之亦然。或許您參與了“讓自己老去”的趨勢,並通過一個假老化應用程序運行自己的臉,顯示您在老年時可能的樣子。

除了這些照片修改技術的應用是為了娛樂之外,它們大多是無害的,因為很容易告訴圖像是假的,並不真實反映現實。這正是深偽技術危險的地方——運用深度學習來製作虛假圖像產生的效果,創造了一個人們往往無法分辨圖像或視頻是否為假的世界。

那麼,重點是什麼?

在今天的社會中,絕大多數人根據互聯網上的內容獲取有關世界的信息並形成觀點。因此,任何有能力創造深偽技術的人都可以發布錯誤信息,影響大眾以某種方式行動,以推進偽造者的個人議程。基於深偽的錯誤信息可能在微觀和宏觀層面上造成混亂。

在小規模上,深偽創作者可以例如創建看似顯示親戚要求大筆資金以幫助他們擺脫緊急情況的個性化視頻,並將其發送給毫無戒心的受害者,從而在前所未有的水平上詐騙無辜者。

在大規模上,假的重要世界領導人視頻聲稱捏造的說法可能會煽動暴力甚至戰爭。

我們能做什麼?

到目前為止,深偽技術還不是一個巨大的問題,但在未來幾年內,它們可能會在普遍性和質量上增加。這並不意味著你不能信任任何圖像或視頻,但你應該開始訓練自己對假圖像和視頻更加警覺,特別是當視頻要求你發送金錢或個人信息,或者提出對於出現在視頻中的人來說看起來不尋常的驚人聲明時。

有趣的是,人工智能可能是檢測深偽的答案。模型可以被訓練來識別人眼無法察覺的維度上的假圖像。在未來幾年,密切關注深偽現象的發展,並且,一如既往,保持警惕。

資料來源

 

返回網誌

為您推薦