FTC稱音頻Deepfakes背後的技術正變得越來越好

2020-04-08 13:20:54  阅读 513836 次 评论 0 条

據外媒The Verge報道,語音克隆技術的飛速發展使得人們很難分辨合成語音中的真實聲音。 一群專家在本周在FTC的一個研討會上表示,盡管音頻Deepfakes(可以欺騙人們放棄敏感信息)是一個日益嚴重的問題,但該技術也有一些合理的合法用途。

FTC訴訟技術與分析部門副總監Laura DeMartino表示:“人們多年來一直在模仿聲音,但就在最近幾年,這項技術已經發展到可以使用很小的音頻本大規模克隆聲音的地步。”FTC在其首個有關音頻克隆技術的公開研討會上,邀請了來自學術界、政府、醫學和娛樂界的專家來強調該技術的含義和潛在危害。

FTC發言人Juliana Gruenwald Henderson在研討會結束後表示,冒名頂替者是該機構收到的第一類投訴。她在一封電子郵䱯中說:“在得知機器學習技術正在迅速改善語音克隆的質量之後,我們開始組織這個研討會。”

司法部計算機犯罪和知識產權部門的Mona Sedky表示,Deepfakes(包括音頻和視頻)使犯罪分子可以匿名交流,從而更容易進行詐騙。Sedky表示,以交流為重點的犯罪曆來對罪犯的吸引力較小,因為要實現這一目標既㛣又û時。她說道:“這很難令人信服地擺姿勢。但是,借助強大的Deepfakes音頻和匿名工具,您可以與世界各地的人們進行匿名通信。”

Sedky表示,音頻克隆可以被武器化,就像互聯網可以被武器化一樣。“這並不意著我們不應該使用互聯網,但是可能會有我們可以做的事情,在前端的事情,可以融入到該技術中,從而使聲音的武器化變得更加㛣。”

波士頓兒童醫院增強通信計劃主任John Costello表示,音頻克隆技術在失去聲音的患者中有實際應用。他們能夠“存儲”音頻本,隨後可用於創建其聲音的合成版本。“許多人想確保自己的聲聽起來很真實,因此,在他們失去聲音之後,對於他們從未想過的東西,他們希望能夠'說出'那些聲音並聽起來像他們自己的,”他說道。

美國 電視 和廣播藝術家聯合會電影演員協會的Rebecca Damon說道,對҅音演員和表演者來說,音頻克隆的概念提出了一係列不同的問題,包括同意和補償使用他們的聲音。她說,配音演員可能會在聽到聲音的地方承擔合同義務,或者可能不想以與他們的信仰不符的方式使用他們的聲音。

她補充說,對於廣播新聞記者來說,未經許可濫用或複製他們的聲音有可能影響他們的信譽。 Damon表示:“很多時候,人們對新技術感到興奮和衝動,然後不一定會考慮所有應用。”

盡管人們經Ů談論社交媒體及其傳播音頻和視頻Deepfakes的能力,但大多數參加研討會的成員都認為,最直接的音頻憂是關注對於大多數消û者來說,是通過電話。

國防高級研究計劃局(DARPA)的顧問Neil Johnson表示:“社交媒體平台是前線,這是傳遞消息,鎖定消息並進行傳播的地方。” 產生聲音的文本到語音應用程序具有廣泛而有價值的應用。但Johnson舉了一個英國公司的例子,該公司被勒索約22萬美元,因為有人在詐騙中模仿了CEO的聲音。

佛羅裏達大學赫ɢ特·韋特海姆工程孷ř的Patrick Traynor表示,圍繞電話騙局和音頻deepfakes的複雜性可能會繼續改善。他說道:“最終,這將是使我們ご目的地的多種技術的結合,”以打擊和檢測合成或偽造的聲音。Traynor補充說,確定呼叫者是否是他們所說的人的最好方法是一種久經考驗的方法:“掛斷並回電。除非是可以重新轉接電話的國家行為者或非Ů非Ů老練的黑客組織,否則很可能是弄清楚您是否正在與自己以為的人交談的最好方法。”