尋夢新聞LINE@每日推播熱門推薦文章,趣聞不漏接❤️
問耕 發自 凹非寺
量子位 出品 | 公眾號 QbitAI
新規來了。
在這份剛剛印發的《網路音視頻信息服務管理規定》中,四次直接提及深度學習,基本可以看做是針對AI造假視頻的一次針對性管控。
2017年底,deepfake換臉技術出現以來,各種使用AI技術造假的視頻層出不窮。而且隨著技術的進步,造假視頻已經變得越來越真假難辨,也引發了全球範圍內的擔憂。
現在,不能使用AI技術亂來了。
國內的各位朋友,再搞AI換臉的視頻等操作,請注意這些新規定。
對普通用戶:
- 發布非真實AI音視頻時,要以顯著方式標識出來。
- 不得使用AI技術製作假新聞。
對於服務商,除了上述要求還有:
- 上線AI音視頻服務,應展開安全評估。
- 部署非真實音視頻鑒別技術。
- 及時停止傳播未顯著標識的非真實AI音視頻內容。
- 建立健全辟謠機制。
相關規定條款,我們截圖如下。
新規定將於明年1月1日起施行。
《網路音視頻信息服務管理規定》的詳細內容,可以訪問這個頁面查看:http://www.cac.gov.cn/2019-11/29/c_1576561820967678.htm
deepfake「改變」世界
對於deepfake等基於深度學習的AI技術,全球都在想辦法應對。
畢竟這種技術,可以用來換臉:
還能用來給身體造假:
本月,推特發布了首個反deepfake策略草案,並征集公眾意見。根據這個草案,如果一份deepfake偽造的內容威脅到某人的人身安全或可能造成嚴重傷害,將會被刪除。
包括微軟、Google等國外公司也在研究如何自動鑒別換臉視頻。
AI造假視頻,也是最近幾個月美國國會中最有爭議的話題之一。此前,美國國際戰略研究中心(CSIS)發布報告稱,偽造信息正在通過互聯網迅速傳播,破壞了民主進程。
來自人民看點的報導中寫道:
Deepfake被認為是一種破壞民主的工具。美國情報界發布的2019年全球威脅評估(Worldwide Threat Assessment)中就警告稱,惡意攻擊者或戰略競爭對手可能會使用deepfake技術或類似的機器學習技術來創建看似逼真但其實是偽造的圖片、音頻和視頻文件來加大針對美國和其盟友的活動的影響。 CNBC網站在其報導中稱,「deepfake」將成為「2020年美國總統選舉中的大事件」。就像2016年的「虛假新聞」一樣,「deepfake」視頻將在2020年的美國大選中,掀起更強大的血雨腥風。
2019年10月,美國加州州長Gavin Newsom簽署AB-730法令,明確指出,如果散布偽造的信息使公眾對政治人物的言論、行動產生錯誤可能有害的印象,將是犯罪行為。
7月,美國弗吉尼亞州也發布了禁止deepfake濫用的禁令:未經當事人允許分享他人的裸露視頻、照片屬於違法行為,無論該照片或視頻是真實的還是偽造的。
今年6月,史丹佛、普林斯頓等大學發布了一項最新研究:給定任意文本,就能隨意改變一段視頻里人物說的話。並且,改動關鍵詞後人物口型還能對得奇準無比,絲毫看不出篡改的痕跡。
除了視頻造假,AI在音頻造假方面也不在話下。
來看一個真實的案例。
有人用AI技術偽造老板的聲音,打電話要求轉帳,結果一家公司上當了,損失了173萬元。這家公司,是總部位於英國的一家能源公司。
要不是因為騙了一次還想立刻騙第二次,這個騙局可能也不會馬上曝光。
毫無破綻的變臉
如果你還沒見識過deepfake的威力,以下是一些網友的大作。
此前,有一個名為「換臉哥」的B站用戶將《射雕英雄傳》中朱茵飾演的黃蓉換成了楊冪的臉,並且把處理過的視頻發在了B站。
類似的還有,徐錦江換臉水行俠。
把《回家的誘惑》里男主的臉換到了「穿著品如衣服」的女性角色艾莉臉上:
更多例子就先不舉了。
如果你想試試AI模仿聲音的感覺,可以試試搜狗輸入法里的「變聲」功能。
如果你想試試AI換臉的感覺,可以試試此前曾在國內外掀起一陣旋風、繼而引發廣泛爭議的App:ZAO。
One More Thing
北京下雪了,今天一早,量子位有個小姐姐跑去故宮看雪景。
這張是她發回的現場報導:
祝大家周末快樂~
— 完 —
版權所有,未經授權不得以任何形式轉載及使用,違者必究。
>明年1月1日起,AI造假視頻不得隨意發布