




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
AI安全系列:以子之矛,攻子之盾——從deepfakes深度偽造技術(shù)看AI安全行業(yè)評級:看好2023年6月26日分析師郵箱劉雯蜀liuwenshu03@研究助理郵箱劉靜一liujingyi@證書編號S1230523020002證券研究報(bào)告摘要21、Deepfakes技術(shù)始于2014年,隨著AI大模型能力的提升關(guān)注度持續(xù)增高Deepfakes定義可分為廣義和狹義兩個(gè)層次,其中廣義上指利用了以生成對抗網(wǎng)絡(luò)技術(shù)(GAN)為主體的深度學(xué)習(xí)技術(shù)制造的看起來很真實(shí)但實(shí)際上屬于虛假的圖片或視頻。隨著AI大模型的能力不斷突破,deepfakes受到的關(guān)注度持續(xù)增高。2、
生成式
AI
模型是Deepfakes的技術(shù)基礎(chǔ),而人臉偽造技術(shù)是deepfakes的一個(gè)重要分支生成式
AI
是深度學(xué)習(xí)的一個(gè)分支,根據(jù)生成內(nèi)容的類別,生成式AI模型可進(jìn)一步被分為生成式語言模型和生成式圖片模型。而隨著多模態(tài)模型的應(yīng)用逐步深入,生成式AI模型也開始向多模態(tài)方向發(fā)展。目前主流生成式AI模型包括VAE、GAN、diffusion模型等,stable
diffusion模型的發(fā)布再次使得生成式AI的輸出質(zhì)量大幅提升。人臉偽造技術(shù)是deepfakes的一個(gè)重要分支,可被進(jìn)一步劃分為有目標(biāo)可視身份偽造和無目標(biāo)可視身份偽造,其中有目標(biāo)可視身份偽造技術(shù)已經(jīng)在俄烏沖突中有所應(yīng)用。3、生成式AI技術(shù)的迭代增加偽造圖片的真實(shí)度,同時(shí)增大AIGC識別難度考慮到:1)數(shù)據(jù)層面,可供訓(xùn)練的數(shù)據(jù)集規(guī)模擴(kuò)大,帶來模型效果的大幅提升;2)算法層面,算法框架的迭代與組合,使得模型訓(xùn)練更加高效、穩(wěn)定;3)算力層面,算力水平的提升,助力更加高效的復(fù)雜模型訓(xùn)練,AI偽造圖片的真實(shí)度不斷增加,使得識別難度增大,帶來的潛在風(fēng)險(xiǎn)提升。4、反AI生成市場空間約64億元針對AI生成圖像可能帶來的風(fēng)險(xiǎn),各國政府陸續(xù)推出政策加以約束。根據(jù)我們測算,反AI生成市場空間約64億元,其中監(jiān)管側(cè)44億元,企業(yè)側(cè)20億元。5、部分反AI生成相關(guān)公司上市公司:美亞柏科、東方通非上市公司:瑞萊智慧、中科睿鑒、Illuminarty(海外)、AI
Voice
Detector(海外)、Google(海外)風(fēng)險(xiǎn)提示31、AIGC監(jiān)管以及識別技術(shù)研發(fā)以及相關(guān)產(chǎn)品落地不及預(yù)期2、報(bào)告中對各類模型的介紹與總結(jié)基于對于相關(guān)論文內(nèi)容的理解,具有一定主觀性3、報(bào)告中對于反AI生成的市場空間測算存在主觀判斷及口徑差異4、由AI安全需求帶來的市場競爭加劇5、板塊政策發(fā)生重大變化目錄C
O
N
T
E
N
T
S4Deepfakes演進(jìn)與發(fā)展歷程生成式AI模型梳理以視覺為例:人臉偽造技術(shù)分類以視覺為例:生成式圖像檢測手段01020304Deepfakes技術(shù)發(fā)展趨勢展望AIGC監(jiān)管及反生成AI市場空間測算公司梳理風(fēng)險(xiǎn)提示05060708Deepfakes演進(jìn)與發(fā)展歷程501Deepfakes6資料來源:AI前線公眾號、浙商證券研究所011)Deepfakes:基于深度學(xué)習(xí)的AI換臉技術(shù)Deepfakes定義可分為廣義和狹義兩個(gè)層次:廣義:Deepfakes指使用機(jī)器學(xué)習(xí)(ML)技術(shù)創(chuàng)建的偽造品,即利用了以生成對抗網(wǎng)絡(luò)技術(shù)(GAN)為主體的深度學(xué)習(xí)技術(shù)制造的看起來很真實(shí)但實(shí)際上屬于虛假的圖片或視頻。狹義:Deepfakes是“Deep
machine
learning”和
“fake”的組合詞,是一種基于深度學(xué)習(xí)的人物圖像合成技術(shù)。不同于一般意義上的p圖,Deepfakes利用電腦程序找到兩個(gè)面部之間的共同點(diǎn),通過搭建神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)人臉,使替換以后的臉可以生動地模仿原來的表情,以假亂真。2)Deepfakes的產(chǎn)生與飛躍2014年是Deepfake的誕生元年,Goodfellow與同事發(fā)表的科學(xué)論文標(biāo)志著GAN
AI的誕生,催生出我們?nèi)缃袼熘腄eepfakes。在2014年,就有跡象表明
GAN
有望生成仿真度極高的人臉。深度偽造技術(shù)開始進(jìn)入大眾視野。在Deepfakes產(chǎn)生初期,生成代理往往傾向于產(chǎn)出分辨率較低而模糊不清的圖像是檢查代理難以判斷內(nèi)容的真?zhèn)?,深度偽造技術(shù)一定階段內(nèi)存在著輸出內(nèi)容像素過低,生成結(jié)果難以令人信服的問題。2017年英偉達(dá)推動質(zhì)量飛躍,
利用分階段訓(xùn)練網(wǎng)絡(luò)解決了生成代理產(chǎn)出分辨率過低的問題,GAN
開始產(chǎn)出質(zhì)量空前的偽造人像,深度偽造技術(shù)開始被推向市場主流。自此,Deepfakes一詞成為
AI
生成圖像和視頻的代名詞。2019年Deepfake正式成為市場主流,專注于Deepfakes的YouTUbe頻道擁有數(shù)百萬關(guān)注者,產(chǎn)出質(zhì)量遠(yuǎn)高于其他AI模型。Deepfakes技術(shù)發(fā)展歷程7資料來源:AI前線公眾號、浙商證券研究所012014:Goodfellow與同事發(fā)表了全球首篇介紹GAN的科學(xué)論文,代表著GAN
AI的誕生,催生出如今為人熟知的
Deepfakes。2015:研究人員開始將
GAN
與經(jīng)過圖像識別優(yōu)化的多層卷積神經(jīng)網(wǎng)絡(luò)(CNN)相結(jié)合,這一組合取代了以往較為簡單的GAN
代理驅(qū)動網(wǎng)絡(luò),提高了處理數(shù)據(jù)的速度和顯卡運(yùn)行效率,也讓生成結(jié)果的可信度邁上新的臺階。2016:研究人員把兩個(gè)
GAN
結(jié)合起來,開展并行學(xué)習(xí)。2017:英偉達(dá)推動質(zhì)量飛躍,
GAN
開始產(chǎn)出質(zhì)量空前的偽造人像,深度偽造技術(shù)開始被推向市場主流。自此,Deepfakes一詞成為了
AI
生成圖像和視頻的代名詞。2018:英偉達(dá)提升
GAN
控制能力,使其能夠?qū)θ讼裰械摹昂诎l(fā)”和“微笑”等圖像單一特征作出調(diào)整,將訓(xùn)練圖像中的特征有針對性地轉(zhuǎn)移到
AI
生成圖像當(dāng)中。2019:三星公司的研究人員公布了一種能夠深度偽造人類和藝術(shù)品的
GAN,只需參考少數(shù)照片就能利用Deepfakes
AI達(dá)成出色的偽造效果;以色列研究人員又推出了換臉
GAN(FSGAN),能夠?qū)磿r(shí)視頻中的人臉進(jìn)行實(shí)時(shí)交換。無需任何預(yù)先訓(xùn)練。2020:微軟推出
FaceShifter,該軟件能夠利用模糊的原始圖片,依賴于分別負(fù)責(zé)偽造人臉和照片比對的兩套網(wǎng)絡(luò),生成高度可信的
Deepfakes
圖像;深度偽造技術(shù)有望成為迪士尼電影制作開發(fā)的主流技術(shù)。2021:社交媒體中出現(xiàn)Deepfakes巡演、直播與人臉租賃活動,在市場上獲得極高熱度。2022:GAN的改進(jìn)接連出現(xiàn),包括能夠在短視頻片段中輕易操縱人臉的StyleGAN2變體和既能以高度匹配的
3D
形式生成統(tǒng)一圖像,也能利用一張真人圖像還原出
3D模型的3D
GAN,大力推動力AI深度偽造技術(shù)的發(fā)展。Deepfakes應(yīng)用發(fā)展歷程0181)海外應(yīng)用FaceShifter:2020年由北京大學(xué)和微軟亞洲研究院研究團(tuán)隊(duì)聯(lián)合發(fā)表,是一種高保真、能夠感知遮擋的AI換臉工具,采用兩層框架結(jié)構(gòu)實(shí)現(xiàn)高精度和遮擋條件下的換臉。其優(yōu)于以往同類技術(shù),在生成逼真的人臉圖像方面表現(xiàn)優(yōu)異,被譽(yù)為機(jī)器學(xué)習(xí)圖像識別領(lǐng)域的“利矛”。Wombo
AI:2021年正式進(jìn)入大眾視野,可以借助AI技術(shù)將聲音與圖片中的角色自動對上口型,使處于靜止圖片中的人物進(jìn)行開口講話,并且還有會動的姿態(tài)表情,在社交媒體上大受歡迎。DeepFaceLive:由DeepFaceLab的締造者在
2021
年首次展示,能夠在經(jīng)過適當(dāng)訓(xùn)練、或者接收到預(yù)訓(xùn)練
AI
模型之后,在實(shí)時(shí)視頻中交換人臉,意味著換臉的技術(shù)又再一次的突破。2)國內(nèi)應(yīng)用Zao:于2019年首次公測,是中國國內(nèi)利用深度偽造技術(shù)制作的一個(gè)應(yīng)用程序,用戶可以利用這個(gè)程序?qū)⒆约旱哪樚鎿Q成電影里某個(gè)角色的臉;用戶還可以在Zao里面大量的視頻和圖片庫中進(jìn)行選擇,在上傳視頻后就可以在幾分鐘之內(nèi)生成深度偽造的角色。然而,從2019年9月1日,Zao就由于疑侵犯用戶肖像權(quán)而被用戶投訴,以及對用戶生物識別信息的采集存在的信息安全性問題帶來的安全風(fēng)險(xiǎn)而遭遇下架。FaceX-Ray:2020年由北京大學(xué)和微軟亞洲研究院研究團(tuán)隊(duì)聯(lián)合發(fā)表,是一種針對偽造人臉圖像的通用檢測工具,不需要依賴于與特定人臉操作技術(shù)相關(guān)的偽影知識,并且支持它的算法可以在不使用任何方法生成假圖像的情況下進(jìn)行訓(xùn)練。這種工具能有效地識別出未被發(fā)現(xiàn)的假圖像,并能可靠地預(yù)測混合區(qū)域,在市場上獲得很高的評價(jià),被譽(yù)為機(jī)器學(xué)習(xí)圖像識別領(lǐng)域的“堅(jiān)盾”。資料來源:新智元公眾號、《FaceShifter:
Towards
High
Fidelity
AndOcclusion
AwareFaceSwapping》、《
Face
X-ray
for
More
General
Face
Forgery
Detection》、品牌觀察報(bào)公眾號、浙商證券研究所Deepfakes應(yīng)用9資料來源:《深度偽造人臉視頻檢測技術(shù)綜述》、Faceswap官網(wǎng)、DeepFaceLab官網(wǎng)、DeepFaceLive官網(wǎng)、搜狐網(wǎng)、重蔚自留地、浙商證券研究所01表:國內(nèi)外deepfakes相關(guān)應(yīng)用梳理名稱類別(開源與否)開發(fā)地區(qū)開發(fā)時(shí)間使用狀況FakeApp國外2018已下架Faceswap已開源國外2019未下架DeepFaceLab已開源國外2018未下架DeepFaceLive已開源國外2019未下架Faceswap-GAN國外2019未下架ZAO已開源國內(nèi)2019已下架DFaker國外2020未下架Deepface國外2015未下架FaceShifter國外2020未下架Wombo
AI國外2021未下架Avatarify已開源國外2020未下架生成式AI模型梳理1002生成式AI是深度學(xué)習(xí)的分支02生成式
AI
是深度學(xué)習(xí)的一個(gè)分支,可以根據(jù)已經(jīng)學(xué)習(xí)的內(nèi)容生成新的內(nèi)容。生成式AI的訓(xùn)練和推理階段:訓(xùn)練:從現(xiàn)有的內(nèi)容中學(xué)習(xí)的過程,訓(xùn)練的結(jié)果是創(chuàng)建一個(gè)統(tǒng)計(jì)模型。推理:當(dāng)用戶給出提示詞,生成式
AI
將會使用統(tǒng)計(jì)模型去預(yù)測答案,生成新的文本來回答問題。圖:生成式AI發(fā)展歷程圖:生成式AI是深度學(xué)習(xí)的一個(gè)分支在GPT-3.5的基礎(chǔ)上推出ChatGPT讓生成式AI火爆全球201320192022201411資料來源:OpenAI網(wǎng)站、《Auto-Encoding
Variational
Bayes》、《Generative
Adversarial
Networks》、《Denoising
Diffusion
Probabilistic
Models》、浙商證券研究所2020變分自編碼器(VAE)被提出,生成式AI誕生生成式預(yù)訓(xùn)練模型(GenerativePre-trained
Models)開始興起,如OpenAI的GPT-2模型生成式對抗網(wǎng)絡(luò)(GAN)被提出擴(kuò)散模型(Diffusion
Model)被廣泛應(yīng)用于生成式AI領(lǐng)域判別模型
vs
生成模型02判別模型(Discriminative
Model)和生成模型(Generative
Model)是機(jī)器學(xué)習(xí)中兩種不同類型的模型,它們的主要區(qū)別在于其對數(shù)據(jù)的建模方式和應(yīng)用領(lǐng)域。圖:判別模型框架圖:生成模型框架表:判別模型與生成模型對比判別模型生成模型建模對象直接對條件概率進(jìn)行建模對聯(lián)合概率分布進(jìn)行建模學(xué)習(xí)內(nèi)容輸入和輸出之間的關(guān)系數(shù)據(jù)的分布和特征之間的關(guān)系,以及生成輸入數(shù)據(jù)的過程任務(wù)類別分類、回歸和標(biāo)注等任務(wù),通過最大化或最小化某種損失函數(shù)來尋找最優(yōu)的參數(shù)配置,以實(shí)現(xiàn)準(zhǔn)確的預(yù)測和分類生成新的圖像、語言模型和數(shù)據(jù)增強(qiáng)等任務(wù)特點(diǎn)直接學(xué)習(xí)輸入特征和輸出標(biāo)簽之間的關(guān)系,具有較低的計(jì)算復(fù)雜度,并且適用于特定任務(wù)能夠模擬數(shù)據(jù)的生成過程,生成新的樣本數(shù)據(jù),并且有助于理解數(shù)據(jù)的統(tǒng)計(jì)特性和生成機(jī)制常見模型邏輯回歸、支持向量機(jī)、深度神經(jīng)網(wǎng)絡(luò)高斯混合模型(GMM)、生成對抗網(wǎng)絡(luò)(GAN)數(shù)據(jù)標(biāo)簽判別模型學(xué)習(xí)數(shù)據(jù)和標(biāo)簽的關(guān)系,最大化條件概率似然函數(shù)輸出標(biāo)簽輸入生成模型學(xué)習(xí)非結(jié)構(gòu)化內(nèi)容中的模式輸出全新信息12資料來源:谷歌云、《Deriving
discriminative
classifiers
from
generative
models》、CSDN、浙商證券研究所生成式模型分類02根據(jù)生成內(nèi)容的類別,生成式AI模型可進(jìn)一步被分為生成式語言模型和生成式圖片模型:生成式語言模型:基于自然語言處理的技術(shù),通過學(xué)習(xí)語言規(guī)律和模式生成新的文本。通過訓(xùn)練大規(guī)模文本數(shù)據(jù),如新聞、小說、網(wǎng)頁內(nèi)容等,生成式語言模型可以自動生成邏輯和語法正確的文本,如文章、對話、詩歌等,被廣泛應(yīng)用于機(jī)器翻譯、文本摘要、對話生成、故事生成等任務(wù)。生成式圖片模型:基于計(jì)算機(jī)視覺的技術(shù),通過學(xué)習(xí)圖像的特征和結(jié)構(gòu)生成新的圖像。通過訓(xùn)練大規(guī)模的圖像數(shù)據(jù)集,學(xué)習(xí)圖像的特征表示和統(tǒng)計(jì)規(guī)律,生成式圖片模型可以生成具有視覺真實(shí)感或藝術(shù)風(fēng)格的圖像,如自然風(fēng)景、人像或抽象藝術(shù)作品。被應(yīng)用于圖像生成、圖像標(biāo)注、圖像編輯等領(lǐng)域。隨著多模態(tài)模型的應(yīng)用逐步深入,生成式模型也開始向多模態(tài)方向發(fā)展:輸入內(nèi)容為文本:輸出內(nèi)容可以為文本、圖片、音頻、決策等內(nèi)容輸入內(nèi)容為圖片:輸出內(nèi)容可以為文本、圖片和視頻等內(nèi)容。圖:輸入為文本時(shí)生成式模型的輸出可選項(xiàng)13資料來源:谷歌云、浙商證券研究所圖:輸入為圖片時(shí)生成式模型的輸出可選項(xiàng)主流生成式AI模型概覽0214資料來源:相關(guān)領(lǐng)域已發(fā)表學(xué)術(shù)論文(論文名稱參考報(bào)告末尾附錄頁)、浙商證券研究所潛變量模型2013 2014 2015 2016 2017 2018 2019 2020 2021 2022生成對抗網(wǎng)絡(luò)(GAN)GAN-INT-CLS StackGAN StackGAN++ StyleGAN GLIP-VQGAN ViT-VQGAN StyleGAN3 CLIP+StyleGANPixel-to- ProGAN ViTGANPixel條件生成模型(CGAN) CycleGAN變分自動編碼器(VAE)條件生成模型
AlignDRACVAE W模型 CLIP+VQVAEDALL-EDiffusion擴(kuò)散模型DDPM Improved Disco
DiffusionDDPMDDIM DPM-solver DPM-solver++DALL-E2Stable
Diffusion基于流的模型RealNVPRealNVP++GlowGlow-360Glow-TTSFFJORDFFJORD-GAN注釋:部分模型可能同時(shí)涉及多項(xiàng)模型的框架,我們以其中主要或最新參考的模型作為劃分依據(jù)VAE——變分自動編碼器0215變分自動編碼器(
Variational
Autoencoder,VAE)
是一種生成模型,
結(jié)合了自動編碼器(
Autoencoder)
和變分推斷(Variational
Inference)的思想,于2013年由Kingma和Welling提出。其目標(biāo)是學(xué)習(xí)數(shù)據(jù)的潛在表示,并能夠生成新的樣本。VAE結(jié)合自動編碼器和變分推斷的思想,通過學(xué)習(xí)數(shù)據(jù)的潛在表示和生成新樣本。它假設(shè)潛在變量服從先驗(yàn)分布,編碼器將輸入映射為均值和方差參數(shù),通過重參數(shù)化技巧采樣潛在變量。解碼器接收采樣的潛在變量解碼為樣本,通過最大化邊際似然和KL散度來訓(xùn)練VAE,學(xué)習(xí)數(shù)據(jù)的潛在分布并生成新樣本。優(yōu)點(diǎn)缺點(diǎn)概率建模VAE用變分推斷建模潛在變量分布,最大化邊際似然訓(xùn)練模型,提供概率建模和不確定性估計(jì)??煽厣蒝AE潛在空間連續(xù),操作潛在變量控制生成樣本屬性。訓(xùn)練困難VAE的訓(xùn)練需要平衡重構(gòu)誤差和KL散度的損失,調(diào)整超參數(shù)和監(jiān)控訓(xùn)練過程相對復(fù)雜。離散數(shù)據(jù)處理VAE基于連續(xù)分布假設(shè),對于離散數(shù)據(jù)處理可能有困難,需要適當(dāng)修改或使用離散分布的變分推斷方法。圖:VAE模型流程圖資料來源:《Auto-Encoding
Variational
Bayes》、谷歌云、浙商證券研究所GAN——生成式對抗網(wǎng)絡(luò)0216生成式對抗網(wǎng)絡(luò)(GAN)由Goodfellow等人于2014年提出,采用對抗訓(xùn)練策略,通過對抗訓(xùn)練的方式改變了生成模型的思路。GAN包括生成器和判別器兩個(gè)對抗的模型,生成器試圖生成逼真樣本,判別器試圖區(qū)分生成和真實(shí)樣本。通過對抗過程,生成器逐漸提高樣本質(zhì)量,判別器提高鑒別能力。GAN通過讓生成器和判別器相互博弈,逐漸達(dá)到動態(tài)平衡,使生成器學(xué)習(xí)真實(shí)樣本的分布。優(yōu)點(diǎn)缺點(diǎn)學(xué)習(xí)潛在表示GAN的生成器學(xué)習(xí)數(shù)據(jù)的潛在表示,
有助于特征學(xué)習(xí)和數(shù)據(jù)降維,
提供可解釋和可操作的潛在空間。高質(zhì)量樣本生成GAN生成逼真的圖像、音頻、文本等樣本,質(zhì)量和多樣性較傳統(tǒng)生成模型更好。模式崩潰和塌陷生成器可能只能生成少數(shù)幾種模式,缺乏多樣性和創(chuàng)造性。難以評估生成質(zhì)量缺乏明確的似然函數(shù),生成質(zhì)量難以定量評估,
需要人工觀察和主觀評價(jià)。圖:GAN模型流程圖資料來源:《Generative
Adversarial
Networks》、浙商證券研究所Diffusion——擴(kuò)散模型02Diffusion是一種用于建模數(shù)據(jù)分布的生成模型,通過迭代模擬數(shù)據(jù)在潛在空間中的擴(kuò)散過程,使得樣本在潛在空間中逐漸接近真實(shí)數(shù)據(jù)分布,從而由初始噪聲樣本逐步生成高質(zhì)量樣本。Diffusion模型通過動力學(xué)系統(tǒng)學(xué)習(xí)數(shù)據(jù)的結(jié)構(gòu)和生成機(jī)制,克服了傳統(tǒng)生成模型的限制,適用于復(fù)雜高維數(shù)據(jù)。它在圖像生成、數(shù)據(jù)插值等任務(wù)中表現(xiàn)出優(yōu)異性能,為生成模型提供了一種新的建模方式。優(yōu)點(diǎn)缺點(diǎn)逼近復(fù)雜分布擴(kuò)散模型有效建模復(fù)雜高維數(shù)據(jù)分布,
捕捉非線性關(guān)系和復(fù)雜結(jié)構(gòu)。無需顯式似然函數(shù)不需要定義似然函數(shù),通過擴(kuò)散逼近真實(shí)數(shù)據(jù)分布,
處理復(fù)雜數(shù)據(jù)和高維度更有效。計(jì)算復(fù)雜度高訓(xùn)練和推斷過程需要大量計(jì)算資源和時(shí)間,對大規(guī)模高維數(shù)據(jù)集要求較高超參數(shù)敏感性性能和質(zhì)量受超參數(shù)選擇影響,不當(dāng)選擇可能導(dǎo)致不穩(wěn)定或下降。圖:擴(kuò)散模型流程圖17資料來源:《Diffusion
Models:
A
Comprehensive
Survey
of
Methods
and
Applications》、谷歌云、浙商證券研究所以視覺為例:18人臉偽造技術(shù)分類03人臉偽造技術(shù)分類梳理0319人臉偽造技術(shù)有目標(biāo)可視身份偽造無目標(biāo)可視身份偽造人臉編輯Faceswap人臉替換DeepFaceLab
人臉屬性編輯 人臉表情重演Pix2PixCycleGAN跨模態(tài)人臉編輯Face2FaceSpeech2FaceBigGANStyleGANStyleGAN2DCGANSNGAN有目標(biāo)身份偽造方法通常在視頻或圖像偽造過程中,
將偽造目標(biāo)的身份或性信息輸入到模型中,
實(shí)現(xiàn)特定目標(biāo)身份的視頻或圖像偽造。該偽造形式可能被用于進(jìn)行特定身份的偽裝與假冒。無目標(biāo)身份偽造方法通常以隨機(jī)變量作為輸入信息,
生成現(xiàn)實(shí)世界中不存在的虛假人臉圖像,
生成過程中沒有特定的偽造目標(biāo)身份。資料來源:《可視身份深度偽造與檢測》、浙商證券研究所人臉偽造技術(shù)分類梳理03201)有目標(biāo)可視身份偽造DeepFaceLab:主要用于視頻換臉,使用者將兩張不同的照片導(dǎo)入模型實(shí)現(xiàn)臉部的交換。DeepFaceLab提供力從數(shù)據(jù)收集和篩選,到模型訓(xùn)練和最終視頻輸出的一站式解決方案,屬于有目標(biāo)可視身份偽造類別的人臉替換系列。DeepFaceLab擁有面部更換、面部老化、頭部更換、操縱嘴部等功能,可用于短視頻平臺的娛樂項(xiàng)目以及電影的后期制作等。DeepFaceLab沒有收費(fèi)或捐贈機(jī)制,任何人都可以在GitHub上下載和使用。Facelet-Bank:騰訊優(yōu)圖團(tuán)隊(duì)提出的一種通用且靈活的高質(zhì)量人臉屬性編輯網(wǎng)絡(luò),進(jìn)而與香港中文大學(xué)、Adobe
研究院、字節(jié)跳動人工智能實(shí)驗(yàn)室合作提出一種基于語義部件分解的人臉屬性編輯方法。Facelet-Bank可以快速處理各種表情、配飾和化妝效果,并產(chǎn)生高分辨率和高質(zhì)量的圖像。Facelet-Bank可以用于視頻網(wǎng)站的快速人像操作。圖:DeepFaceLab圖:Facelet-Bank資料來源:DeepFaceLab官網(wǎng)、《Facelet-Bankfor
Fast
Portrait
Manipulation》、浙商證券研究所人臉偽造技術(shù)分類梳理03212)無目標(biāo)可視身份偽造icons8:icons8是一個(gè)提供高質(zhì)量免費(fèi)圖標(biāo)和設(shè)計(jì)工具的網(wǎng)站,網(wǎng)站創(chuàng)始人Ivan
Braun等利用StyleGAN模型生成大量偽造人臉圖像并按照性別、年齡、種族、頭發(fā)顏色、表情等屬性分類在網(wǎng)站上進(jìn)行展示,現(xiàn)有客戶包含大學(xué)、約會軟件和人力資源規(guī)劃公司。icons8(FaceSwapper)可以在3天內(nèi)免費(fèi)試用,付費(fèi)內(nèi)容包括優(yōu)先處理、電子郵件支持和
60
天存儲空間?!癟his
Person
Does
Not
Exist”(此人不存在):一個(gè)生成虛擬人物頭像的網(wǎng)站,由StyleGAN提供支持,以1024x1024像素的分辨率生成不存在的人的照片。網(wǎng)站使用人工智能技術(shù)生成照片,可自定義生成人臉的性別、年齡、以及種族,每次刷新頁面都會生成一個(gè)全新、獨(dú)特的虛擬人物頭像。該網(wǎng)站旨在展示人工智能技術(shù)的能力,并提供免費(fèi)的虛擬人物頭像給用戶使用。圖:“This
Person
DoesNotExist”網(wǎng)站圖:icons8人工智能產(chǎn)品資料來源:icons8網(wǎng)站、“This
PersonDoes
NotExist”網(wǎng)站、浙商證券研究所人臉偽造技術(shù)應(yīng)用22資料來源:《認(rèn)知的羅生門效應(yīng)制造:深度偽造在俄烏沖突中的案例分析》、浙商證券研究所03有目標(biāo)可視身份偽造在俄烏沖突中已有所應(yīng)用:對烏克蘭最高領(lǐng)導(dǎo)人澤連斯基的虛假模擬2022年3月15日,烏克蘭廣播新聞媒體Ukraine
24遭到黑客攻擊。黑客通過文字滾動新聞在電視直播中發(fā)送了有關(guān)澤連斯基的虛假消息,并在其網(wǎng)站上發(fā)布了澤連斯基呼吁士兵“放下武器投降”的深度偽造視頻,該視頻隨即在Twitter等社交媒體上廣為傳播。對澤連斯基的深度偽造視頻屬于有目標(biāo)可視身份偽造中的人臉編輯類,偽造視頻中存在畫質(zhì)不清晰、場景單一
、人物面部與頸部的膚色存在差異、人物頭肩比不協(xié)調(diào)、人物上半身無肢體動作、眼神始終注視鏡頭等問題。網(wǎng)絡(luò)攻擊者利用Pix
2
Pix、Face2Face和Speech2Face等算法技術(shù),以宣布停戰(zhàn)為博弈主題,試圖達(dá)到影響對方國家的目的。對俄羅斯最高領(lǐng)導(dǎo)人普京的虛假模擬2022年3月16日,Twitter
用戶
@Serhii
Sternenko
發(fā)布了“普京宣布停戰(zhàn)”的深度偽造視頻。對普京的深度偽造視頻同樣屬于有目標(biāo)可視身份偽造中的人臉編輯類,但深度偽造普京的視頻制作更為精良,通過多景別切換、人物動作、微表情等方法使得視頻仿真性更高,迷惑性更強(qiáng)。以視覺為例:23生成式圖像檢測手段04檢測方向一:檢測圖片是否由生成式AI模型生成04
24
檢測GAN模型生成的圖像:GAN圖檢測通常使用預(yù)先訓(xùn)練好的GAN模型來生成假圖像,并將這些假圖像與真實(shí)圖像混合在一起形成一個(gè)混合的數(shù)據(jù)集。然后,將該數(shù)據(jù)集送入分類器中進(jìn)行訓(xùn)練,以區(qū)分真實(shí)圖像和虛假圖像。分類器通常采用卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行訓(xùn)練,并基于圖像的梯度、頻率特征等進(jìn)行判斷,從而有效檢測出虛假圖像。圖:GAN圖檢測流程待檢測圖像1.特征提取使用計(jì)算機(jī)視覺技術(shù)從待檢測的圖像中提取特征,如顏色分布、紋理特征、局部結(jié)構(gòu)等GAN圖檢測程序輸入輸出2.特征分析對提取的特征進(jìn)行分析,例如統(tǒng)計(jì)特征、頻譜特征、局部一致性等,以揭示GAN生成圖像的獨(dú)特特征3.特征比較將待檢測圖像的特征與真實(shí)圖像和GAN生成圖像的特征進(jìn)行比較,可以使用相似性度量或分類器進(jìn)行判斷是或否GAN圖檢測方法二分類方法GAN生成的圖像通常具有一些特殊的視覺特征,如顏色塊、紋理不自然、邊緣不清晰等。可以使用深度學(xué)習(xí)模型來訓(xùn)練一個(gè)分類器,將GAN生成的圖像和真實(shí)圖像分別作為正例
和反例,然后使用測試數(shù)據(jù)集來測試分類器的準(zhǔn)確率和性能。頻率特征方法GAN生成的圖像通常具有一些頻率特征,如頻率分布不均勻、頻率分布不連續(xù)等??梢允褂每焖俑道锶~變換(FFT)來計(jì)算圖像的頻率譜,然后使用一些統(tǒng)計(jì)方法來分析頻率特征,如能量分布、頻率分布、頻率分布差異等。梯度特征方法GAN生成的圖像通常具有一些梯度特征,如梯度分布不均勻、梯度變化不連續(xù)等??梢允褂肧obel算子、Laplacian算子等邊緣檢測算法來計(jì)算圖像的梯度,然后使用一些統(tǒng)計(jì)方法來分析梯度特征,如梯度分布、梯度變化、梯度方向分布等。資料來源:基于《GAN-generated
Faces
Detection:
A
Survey
and
New
Perspectives》,Xin
Wang等著的論文整理、浙商證券研究所檢測方向一:檢測圖片是否由生成式AI模型生成0425檢測Diffusion模型生成的圖像:生成式AI模型通常具有一些獨(dú)特的統(tǒng)計(jì)特征,例如紋理、顏色分布、物體形狀等,DM圖在某些統(tǒng)計(jì)特征上可能與自然圖像有所不同,這可以用于區(qū)分它們,通過分析圖像的統(tǒng)計(jì)特征并與已知的視頻一致性檢測。現(xiàn)有模型在DM圖上的泛化性能仍然有限,并且DM圖的識別比GAN圖更具挑戰(zhàn)性。雖然已經(jīng)有一些研究成果和原型系統(tǒng),但目前仍然沒有一個(gè)普適性和完全可靠的DM圖檢測方法:直接將GAN上的模型用于DM圖的檢測效果較差,但可經(jīng)過微調(diào)后恢復(fù)一定性能;二次處理(如壓縮)會使生成圖更難以判斷;DM圖可以被擴(kuò)散模型重建,而真實(shí)圖片不行。通過計(jì)算重建圖像與原圖之間的擴(kuò)散重建差(DIRE)作為特征進(jìn)行二分類訓(xùn)練,可以提高判斷的泛化性能。圖:理論上DM的檢測流程資料來源:基于《On
thedetection
ofsynthetic
imagesgenerated
bydiffusion
models》,Riccardo
Corvi等著的論文整理、浙商證券研究所檢測方向一:檢測圖片是否由生成式AI模型生成0426方法多樣性挑戰(zhàn)改進(jìn)方向模型差異不同的方法采用不同的模型來提取真實(shí)圖和生成圖的特征,這導(dǎo)致了性能上的差異。特征差異不同方法使用不同的特征進(jìn)行訓(xùn)練,包括純視覺信息(如偽影、混合邊界、全局紋理一致性)、圖像頻率信息以及重建圖與待檢測圖的差異等。數(shù)據(jù)差異一些方法通過對抗手段生成更具挑戰(zhàn)性的圖片,以增強(qiáng)模型的識別能力。泛化性差跨模型檢測的泛化性較差。當(dāng)訓(xùn)練集中的生成圖由特定的生成器產(chǎn)生時(shí),檢測器在對同一生成器生成的圖片進(jìn)行檢測時(shí)表現(xiàn)良好,但對于新的生成器生成的圖片檢測性能會較差。提升泛化性能研究者可以探索提升跨模型檢測的泛化性能的方法,使得檢測器對于任何生成器生成的圖片都能有效。結(jié)合多種特征可以考慮結(jié)合不同方法使用的特征,構(gòu)建更綜合的特征表示,從而提高判斷的準(zhǔn)確性和泛化性。數(shù)據(jù)多樣性通過使用更多不同生成器生成的數(shù)據(jù)來訓(xùn)練檢測器,以增強(qiáng)其對新生成器的適應(yīng)能力模型
Ensemble生成模型可能采用多個(gè)子模型的Ensemble
方法生成圖片,
這會增加檢測難度。檢測模型需要考慮不同子模型的特征,而不僅僅是單一模型的特征。針對性生成惡意的生成模型可能專門生成那些難以檢測的圖片,以躲避檢測。這需要檢測模型有足夠的泛化能力,不易被針對性生成的樣本欺騙。資料來源:基于《Detecting
GAN
generated
Fake
Images
using
Co-occurrence
Matrices》,Lakshmanan
Nataraj等著的論文整理、浙商證券研究所檢測方向二:偽造人臉檢測0427能夠檢測GAN模型生成的人臉圖像的方法分為四類基于深度學(xué)習(xí)的方法是最常用的方法之一,它使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)來提取特征并進(jìn)行分類。盡管這些方法在準(zhǔn)確性方面表現(xiàn)出色,但它們的圖片識別(分類)可解釋性相對較差。即使當(dāng)人類無法察覺到圖像的細(xì)微差別時(shí),深度學(xué)習(xí)模型可以識別出來,但無法提供解釋判斷的原因,這使得解釋結(jié)果變得困難?;谖锢淼姆椒ㄍㄟ^尋找人工信息或面部與物理世界之間的不一致來檢測GAN生成的人臉圖像。例如,透視中的照明和反射等物理特征可以用于識別GAN生成的人臉。這些方法不需要大量標(biāo)記數(shù)據(jù),但在準(zhǔn)確性方面可能會受到噪聲和其他因素的影響?;谏淼姆椒ㄊ褂蒙硖卣鱽頇z測GAN生成的人臉圖像。這些生理特征包括對稱性、虹膜顏色、瞳孔形狀等線索。通過研究這些生理特征,可以識別出GAN生成的人臉。與基于物理的方法類似,基于生理的方法也不需要大量標(biāo)記數(shù)據(jù),但可能會受到個(gè)體差異和其他因素的影響。評估和比較人類視覺性能的方法使用人類參與者來評估GAN生成的人臉圖像是否真實(shí)。這些方法可以提供有關(guān)GAN生成圖像質(zhì)量和真實(shí)性的有用信息。然而,這些方法并不直接用于檢測GAN生成的人臉,而是用于評估和比較人類和AI的視覺性能。資料來源:《GAN-generated
Faces
Detection:
ASurveyand
New
Perspectives》,XinWang等、浙商證券研究所圖:GAN
人臉生成和檢測工作的簡要年表檢測方向二:偽造人臉檢測0428利用生成人臉仍不夠逼真的漏洞基于DS
的假視頻檢測:從
1
秒視聽片段中提取的特征輸入到MDS網(wǎng)絡(luò)(包括音頻和視覺子網(wǎng)絡(luò))。視頻和音頻子網(wǎng)絡(luò)學(xué)習(xí)的描述符通過交叉熵?fù)p失進(jìn)行調(diào)整,而對比損失用于增強(qiáng)音頻之間的更高差異性
-
假視頻產(chǎn)生的視覺塊。
MDS
被計(jì)算為視頻長度上的聚合視聽不和諧,并用作將視頻標(biāo)記為真/假的品質(zhì)因數(shù)。資料來源:《Not
made
for
eachother-
Audio-Visual
Dissonance-basedDeepfake
Detectionand
Localization》,Komal
Chugh等、浙商證券研究所圖:基于DS的假視頻檢測流程圖檢測方向二:偽造人臉檢測0429利用生成人臉仍不夠逼真的漏洞人臉偽造檢測微調(diào)階段:網(wǎng)絡(luò)的輸入包含
25
個(gè)灰度、對齊的唇部(我們僅顯示四個(gè)用于說明目的)。它們通過凍結(jié)特征提取器(具有初始
3-D
卷積層的
ResNet-18),該特征提取器已經(jīng)過唇讀預(yù)訓(xùn)練,因此輸出對嘴部運(yùn)動敏感的嵌入。一個(gè)多尺度時(shí)間卷積網(wǎng)絡(luò)
(MS-TCN),也在唇讀上進(jìn)行了預(yù)訓(xùn)練,被微調(diào)以檢測基于嘴部運(yùn)動中語義高級不規(guī)則性的假視頻。資料來源:《Lips
Don't
Lie:
A
Generalisable
and
Robust
Approach
to
Face
Forgery
Detection》,Alexandros
Haliassos等、浙商證券研究所圖:基于唇部的偽造人臉檢測流程圖檢測方向二:偽造人臉檢測0430利用模型自身的能力N
和
C
表示圖像和通道的數(shù)量。在偽影檢測模塊的幫助下,
ID-unawareDeepfake檢測模型旨在關(guān)注圖像的局部表示以指示人臉偽造。資料來源:《Implicit
Identity
Leakage:
The
Stumbling
Block
to
Improving
DeepfakeDetection
Generalization》,Zheng
Ge等、浙商證券研究所圖:ID-unaware
Deepfake檢測模型的整體框架圖:多尺度面部交換
(MFS)
概述MFS以全局交換和部分交換兩種方式對配對的假圖像和源圖像進(jìn)行操作,以生成具有工件區(qū)域真實(shí)值的新假圖像。檢測方向二:偽造人臉檢測04合成器網(wǎng)絡(luò)(即生成器)輸出三個(gè)偽造配置,進(jìn)一步用于合成新的偽造,這些偽造配置也用作標(biāo)簽來指導(dǎo)檢測器網(wǎng)絡(luò)(即鑒別器),以對抗的方式訓(xùn)練生成器和鑒別器。圖:對抗樣本的自監(jiān)督學(xué)習(xí)模型概述圖利用模型自身的能力對抗訓(xùn)練框架由合成器G、圖片合成和判別器
D
組成,其中:合成器:生成配置參數(shù),用來合成更豐富的自監(jiān)督樣本數(shù)據(jù)(注意是生成配置的參數(shù))原生假圖:不處理,即不進(jìn)入合成器,直接用來訓(xùn)判別器;原生真圖:不增廣的真圖不進(jìn)入合成器,直接訓(xùn)判別器;合成假圖:有一定概率與一個(gè)隨機(jī)圖(Reference)進(jìn)行增廣,形成局部虛假的假圖;圖片合成:合成器G會生成配置方案(區(qū)域選擇10個(gè);混合blending類型選擇;以及合成比例選擇ratio),基于此進(jìn)行合成(即數(shù)據(jù)增廣)判別器G:對圖片進(jìn)行分類,同時(shí)添加輔助任務(wù),用合成器的G的輸出作為label31資料來源:《Self-supervised
Learning
of
Adversarial
Example:
Towards
Good
Generalizations
for
Deepfake
Detection》,Jue
Wang等、浙商證券研究所Deepfakes技術(shù)發(fā)展趨勢展望3205生成式AI技術(shù)的迭代增加偽造圖片的真實(shí)度0533模型精度性能隨訓(xùn)練集規(guī)模增大提升各類生成式模型的優(yōu)缺點(diǎn)1、數(shù)據(jù):可供訓(xùn)練的數(shù)據(jù)集規(guī)模擴(kuò)大,帶來模型效果的大幅提升2009年發(fā)布的ImageNet數(shù)據(jù)集有1400多萬幅圖片,涵蓋2萬多個(gè)類別,其中有超過百萬的圖片有明確的類別標(biāo)注和圖像中物體位置的標(biāo)注;而2022年3月開放的LAION-5B數(shù)據(jù)集包含58.5億個(gè)圖片-文本對,訓(xùn)練數(shù)據(jù)集規(guī)模的擴(kuò)大可提升模型精度。2、算法:算法框架的迭代與組合,使得模型訓(xùn)練更加高效、穩(wěn)定VAE模型由于在訓(xùn)練過程中調(diào)整參數(shù)只能得到平均的結(jié)果,所以生成圖片較為模糊;GAN模型通過生成器和判別器相互對抗,可以生成高分變率的圖像,但由于需要同時(shí)訓(xùn)練生成器和判別器兩個(gè)模型,訓(xùn)練難度大、不穩(wěn)定,結(jié)果不容易收斂;Diffusion模型在上述兩個(gè)模型的基礎(chǔ)上,在圖片質(zhì)量和模型訓(xùn)練難度上取得了較好的效果,在其基礎(chǔ)上進(jìn)一步迭代的Stable
Diffusion又進(jìn)一步解決了傳統(tǒng)Diffusion模型的采樣速度慢的缺點(diǎn)。3、算力:算力水平的提升,助力更加高效的復(fù)雜模型訓(xùn)練算力水平的提升使得訓(xùn)練更大規(guī)模參數(shù)的模型成為可能,且可通過多張高算力芯片的組合,實(shí)現(xiàn)訓(xùn)練效率的提升。以ChatGPT為例,用單個(gè)Tesla架構(gòu)的V100訓(xùn)練包含1746億參數(shù)的GPT3.0需要288年的時(shí)間,而用1024張A100GPU上預(yù)估需要34天,而多臺的H100甚至可以將GPT的模型訓(xùn)練時(shí)間縮短到幾天。資料來源:ImageNet網(wǎng)站、無界AI公眾號、腦智新語公眾號、碼上躍見公眾號、九慕資產(chǎn)管理公眾號、浙商證券研究所AIGC的識別難度增大,潛在風(fēng)險(xiǎn)提升0534資料來源:浙商證券研究所總結(jié)整理AIGC監(jiān)管及反生成AI市場空間測算3506生成式AI監(jiān)管政策梳理06國內(nèi)2019.11
網(wǎng)信辦、文旅部、廣電總局《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》:“不得利用基于深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等新技術(shù)新應(yīng)用制作、發(fā)布、傳播虛假新聞信息?!?019.12
網(wǎng)信辦《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》明確網(wǎng)絡(luò)信息內(nèi)容服務(wù)使用者和生產(chǎn)者、平臺不得開展包括深度偽造在內(nèi)的違法活動。2022.01
網(wǎng)信辦、工信部、公安部、市場監(jiān)督管理總局《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》將生成合成類算法列入收到監(jiān)管的五大類應(yīng)用算法推薦技術(shù)之一,并要求對AI生成圖片、視頻進(jìn)行標(biāo)識。2022.11
網(wǎng)信辦、工信部、公安部《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》明確強(qiáng)化深度合成服務(wù)提供者和技術(shù)支持者的主體責(zé)任,并建立健全的辟謠、舉報(bào)機(jī)制。2023.04
網(wǎng)信辦《生成式人工智能服務(wù)管理辦法(征求意見稿)》強(qiáng)化AI生成內(nèi)容治理、優(yōu)化技術(shù)監(jiān)管、強(qiáng)化個(gè)人權(quán)利保障。國外2018.05
歐盟《通用數(shù)據(jù)保護(hù)條例》將包括可能被用于制作深度偽造內(nèi)容的公民圖片等個(gè)人數(shù)據(jù)置于現(xiàn)行歐盟法律保護(hù)之下。2018.09
歐盟《反虛假信息行為準(zhǔn)則》加強(qiáng)互聯(lián)網(wǎng)企業(yè)對平臺內(nèi)容的審查,提高對包括深度偽造等音視頻文件的管控。2018.12
美國國會《惡意偽造禁令法案》:對制作深偽引發(fā)犯罪和侵權(quán)的個(gè)人、明知內(nèi)容的深偽性質(zhì)仍進(jìn)行分發(fā)的社媒平臺處以罰款和監(jiān)禁。2019.06
美國國會《深度偽造責(zé)任法案》:制作深偽媒體內(nèi)容的作者必須用“不可刪除的數(shù)字水印以及文本描述“標(biāo)明該內(nèi)容經(jīng)過篡改或生成。2020.05
澳大利亞戰(zhàn)略政策研究所《深度偽造技術(shù)武器化》詳細(xì)介紹了七個(gè)常見的深度造假工具:換臉、重新投射、口型同步、動作傳遞、圖像生成、音頻生成、文字生成。2020.08
美國會研究服務(wù)處《深度偽造與國家安全》、《人工智能與國家安全》提示深度偽造已成為對手信息戰(zhàn)的一部分。2023.03
意大利個(gè)人數(shù)據(jù)保護(hù)局宣布禁止使用ChatGPT,限制OpenAI處理意大利用戶信息,并針對隱私安全問題立案調(diào)查。2023.06
歐洲議會通過了關(guān)于《人工智能法案》的談判授權(quán)草案,針對生成式AI設(shè)立專門監(jiān)管制度,并要求AI公司對其算法保持人為控制,提供技術(shù)文件,并為“高風(fēng)險(xiǎn)”應(yīng)用建立風(fēng)險(xiǎn)36管理系統(tǒng)。資料來源:網(wǎng)信辦、歐盟官網(wǎng)、信通院互聯(lián)網(wǎng)法律研究中心公眾號、信息安全與通信保密雜志社公眾號、財(cái)聯(lián)社公眾號、新華網(wǎng)、每經(jīng)網(wǎng)反AI生成市場空間測算0637監(jiān)管側(cè)市場潛在需求場景:司法鑒定與鑒別場景潛在需求方:公檢法司公安局:3500檢察院:3588法院:3508售價(jià)假設(shè):42萬/套(對標(biāo)美亞柏科電子取證產(chǎn)品)空間測算:42萬/套×(3500公安局+3588檢察院+3508法院)=
44億元企業(yè)市場潛在需求場景:AI偽造圖片/音頻識別潛在需求方:企業(yè)及個(gè)人用戶互聯(lián)網(wǎng)用戶數(shù)量(截至2022年6月):10.5億售價(jià)假設(shè):325元/月(每天4萬次調(diào)用請求)(對標(biāo)海外產(chǎn)品售價(jià))空間測算(純軟件部分):3900元/年×10.5億互聯(lián)網(wǎng)用戶×
20次調(diào)用/天*365÷1460萬次調(diào)用/年=
20億元表:監(jiān)管側(cè)市場規(guī)模敏感性分析(單位:億元)單套設(shè)備售價(jià)(萬元)202530354042506070%14.8318.5422.2525.9629.6731.1537.08 44.5080%16.9521.1925.4329.6733.9035.6042.38 50.86滲透率90%100%19.0723.8428.6133.3738.1440.0547.68 57.2121.1926.4931.7937.0842.3844.5052.98 63.57110%23.3129.1434.9640.7946.6248.9558.27 69.93120%25.4331.7938.1444.5050.8653.4063.57 76.296510313019526032539051.021.622.053.074.105.126.14平均每人每天調(diào)用次數(shù)(次)1015202.053.074.103.244.856.474.106.148.196.149.2112.298.1912.2916.3810.2415.3620.4812.2918.4324.57306.149.7112.2918.4324.5730.7136.865010.2416.1820.4830.7140.9551.1961.43表:企業(yè)側(cè)市場規(guī)模敏感性分析(單位:億元)每月訂閱價(jià)格(元/月)說明:由于官方未披露最新公檢法司數(shù)量情況,我們參考最高法司法案例研究院2017年披露的數(shù)據(jù)進(jìn)行估算說明:基本假設(shè)為每個(gè)機(jī)構(gòu)需要采購一臺設(shè)備,則在100%滲透率的情況下,每個(gè)監(jiān)管機(jī)構(gòu)均需采購一臺設(shè)備;若部分機(jī)構(gòu)未采購設(shè)備,則對應(yīng)滲透率低于100%;若部分機(jī)構(gòu)采購超過1臺設(shè)備,則對應(yīng)的滲透率超過100%資料來源:
采招網(wǎng)、最高人民法院司法案例研究院公眾號、illuminarty網(wǎng)站、AI
Voice
Detector網(wǎng)站、人民網(wǎng)公眾號、浙商證券研究所公司梳理3807美亞柏科07美亞柏科是國內(nèi)領(lǐng)先的電子數(shù)據(jù)取證行業(yè)龍頭和公安大數(shù)據(jù)領(lǐng)先企業(yè)、網(wǎng)絡(luò)空間安全和社會治理領(lǐng)域國家隊(duì),持續(xù)深耕“大數(shù)據(jù)智能化”與“網(wǎng)絡(luò)空間安全”兩個(gè)主要賽道;公司于2017年成立AI研發(fā)中心,深度開展人工智能技術(shù)研究,并于2019年針對深度合成技術(shù)成立專項(xiàng)研究團(tuán)隊(duì),現(xiàn)已具備自主研發(fā)深度偽造視頻圖像鑒定的核心引擎的能力;2023年3月20日,公司作為編寫單位,參與編制國內(nèi)首個(gè)生成式人工智能標(biāo)準(zhǔn)體系。公司自主研發(fā)的AI-3300“慧眼”視頻圖像鑒真工作站具備智能鑒定和專業(yè)鑒定兩種模式,涵蓋40余種視頻圖像真?zhèn)舞b定算法、近10種深偽鑒定算法,能夠全方位多視角地識別利用深度偽造手段進(jìn)行的換臉、美顏、生成人臉、同圖或異圖復(fù)制篡改的影像,識別效果處于國際領(lǐng)先水平,能夠?yàn)楣病⑺痉ㄐ袠I(yè)及相關(guān)領(lǐng)域提供一站式影像真?zhèn)螜z測鑒定解決方案。圖:美亞柏科主營業(yè)務(wù)圖:AI-3300“慧眼”視頻圖像鑒真工作站39資料來源:美亞柏科官網(wǎng)、浙商證券研究所東方通07東方通作為國內(nèi)領(lǐng)先的大安全及行業(yè)信息化解決方案提供商,持續(xù)深耕網(wǎng)絡(luò)信息安全領(lǐng)域,其產(chǎn)品服務(wù)覆蓋至政務(wù)、金融、企事業(yè)單位等多個(gè)行業(yè),面對新一輪的AIGC識別產(chǎn)品的市場競爭,公司在技術(shù)轉(zhuǎn)化落地方面具有深厚的實(shí)戰(zhàn)經(jīng)驗(yàn)優(yōu)勢;公司于2023年3月正式立項(xiàng)課題《AIGC算法安全性檢測方法研究》,率先展開針對ChatGPT等AIGC算法的安全性評估測試方法和工具開發(fā)。公司現(xiàn)有“深度合成內(nèi)容監(jiān)測”產(chǎn)品,采用軟硬件協(xié)同的解決方案,具備對常見AIGC算法生成的圖片、音視頻內(nèi)容的檢測能力,支持深偽檢測、特定人物偽造檢測、偽造溯源等,并已通過部分客戶實(shí)現(xiàn)應(yīng)用;其中音頻類檢測準(zhǔn)確率可達(dá)特定人86%、非特定人76%;同時(shí),公司將推出TongGPT多模態(tài)智能交互模型,預(yù)計(jì)年底前實(shí)現(xiàn)針對AI生成語音詐騙的自動化提醒功能。圖:東方通AIGC解決方案40資料來源:東方通官網(wǎng)、浙商證券研究所圖:東方通網(wǎng)絡(luò)深度合成內(nèi)容監(jiān)測系統(tǒng)的產(chǎn)品優(yōu)勢瑞萊智慧07瑞萊智慧(RealAI)作為人工智能基礎(chǔ)設(shè)施和解決方案提供商,于2018年依托清華大學(xué)人工智能研究院發(fā)起成立,致力于以第三代人工智能技術(shù)為高價(jià)值場景智能化升級提供一站式賦能方案;公司為政務(wù)、金融、能源、制造、互聯(lián)網(wǎng)等領(lǐng)域合作伙伴提供包括人臉識別系統(tǒng)安全、深度合成和偽造檢測等產(chǎn)品和解決方案,具備深厚的技術(shù)和實(shí)踐經(jīng)驗(yàn)積累。公司推出的基于第三代人工智能技術(shù)(知識+數(shù)據(jù)驅(qū)動;安全、可靠、可信)的深度偽造檢測平臺DeepReal,通過辨識偽造內(nèi)容和真實(shí)內(nèi)容的表征差異性、挖掘不同生成途徑的深度偽造內(nèi)容一致性特征,能夠快速、精準(zhǔn)地對圖像、視頻、音頻內(nèi)容進(jìn)行真?zhèn)舞b別,在第三屆中國人工智能大賽中斬獲深度偽造視頻檢測A級證書;同時(shí),DeepReal在學(xué)術(shù)數(shù)據(jù)集與主流網(wǎng)絡(luò)數(shù)據(jù)集檢測準(zhǔn)確率達(dá)99%、在產(chǎn)業(yè)實(shí)踐檢測準(zhǔn)確率達(dá)業(yè)內(nèi)較高水平。圖:瑞萊智慧在第三屆中國人工智能大賽中斬獲的獎項(xiàng)圖:瑞萊智慧DeepReal產(chǎn)品架構(gòu)圖41資料來源:瑞萊智慧RealAI官網(wǎng)、中國人工智能大賽官網(wǎng)、浙商證券研究所中科睿鑒07中科睿鑒成立于2020年3月,核心團(tuán)隊(duì)源于中科院計(jì)算技術(shù)研究所,致力于運(yùn)用AI技術(shù)賦能數(shù)字內(nèi)容安全,深耕虛假信息識別、深度合成內(nèi)容檢測、深度偽造溯源等技術(shù)研發(fā),在國家公共安全監(jiān)管、媒體內(nèi)容審核、金融風(fēng)控管理、保險(xiǎn)理賠欺詐等關(guān)鍵業(yè)務(wù)場景中,率先實(shí)現(xiàn)偽造監(jiān)測、偽造溯源、AI攻防對抗三大基礎(chǔ)設(shè)施的全技術(shù)棧布局。公司積累了分行業(yè)、分場景的偽造檢測能力,擁有參數(shù)量達(dá)60億的行業(yè)基礎(chǔ)大模型體系化能力底座,能夠在此基礎(chǔ)上微調(diào),針對新的偽造生成技術(shù)迅速分化出不同檢測模型;軟件方面,目前已有音視頻生成內(nèi)容檢測工具“睿安”、圖像生成內(nèi)容檢測工具“睿圖”、文本生成內(nèi)容檢測工具“睿鑒圖靈”
,全方位覆蓋AIGC文本、圖像、音視頻的檢測能力;硬件方面,已有“睿安深偽檢測專用設(shè)備“,為國內(nèi)首款軟硬一體的深偽檢測專用設(shè)備,破解”敏感任務(wù)安全可控處理”和“現(xiàn)網(wǎng)流量大規(guī)模部署”兩大瓶頸,并實(shí)現(xiàn)全國產(chǎn)化硬件生態(tài)適配,支持主流國產(chǎn)芯片。圖:中科睿鑒行業(yè)基礎(chǔ)大模型框架42資料來源:中科睿鑒官網(wǎng)、浙商證券研究所圖:睿安深度合成智能檢測平臺圖:睿安深偽檢測專用設(shè)備中科睿鑒07中科睿鑒已通過“睿鑒AI”小程序,整合新聞可信度分析、圖像偽造檢測、視頻偽造檢測、AI生成文本檢測等功能并面向公眾開放,每項(xiàng)功能可每日免費(fèi)使用15次。使用體驗(yàn)方面,“睿鑒AI”小程序簡單易用、響應(yīng)迅速、交互流暢,大幅降低了公眾辨別偽造內(nèi)容的技術(shù)門檻;識別準(zhǔn)確率方面,經(jīng)隨機(jī)測試,“睿鑒AI”能夠準(zhǔn)確識別偽造圖像和視頻,同時(shí)分類標(biāo)注深度合成/PS篡改/AI生成的區(qū)域;而AI生成的文本經(jīng)測試有概率被識別為人工生成,文本識別準(zhǔn)確率仍存在進(jìn)步空間。圖:“睿鑒AI”小程序主頁面圖:“睿鑒AI”偽造圖片和視頻檢測結(jié)果圖:“睿鑒AI”AI文本檢測結(jié)果43資料來源:中科睿鑒官網(wǎng)、“睿鑒AI”小程序、浙商證券研究所Illuminarty07Illuminarty是一個(gè)在線的AI生成內(nèi)容檢測網(wǎng)站,提供免費(fèi)的在線AI檢測基礎(chǔ)服務(wù),能夠檢測用戶上傳的圖片和文本是否由AI生成;同時(shí)提供“基礎(chǔ)”、“專業(yè)”、“企業(yè)”三種按月訂閱套餐,為有進(jìn)階需求的個(gè)人和企業(yè)用戶提供更專業(yè)的AI內(nèi)容檢測服務(wù);平臺于2022年10月活躍于互聯(lián)網(wǎng),目前正在開發(fā)瀏覽器擴(kuò)展程序以提供更便捷的AI內(nèi)容檢測服務(wù)。Illuminarty的圖片檢測采用計(jì)算機(jī)視覺算法,檢測上傳的圖片是否由AI生成以及其使用的AI模型,并給出圖片的AI生成概率;目前已具備檢測主流生成式AI模型的能力,但功能尚存限制:1.
基礎(chǔ)設(shè)施受限,無法處理>3MB的圖片;2.
樣本受限,檢測高分辨率圖片、特定藝術(shù)風(fēng)格圖片、攝影作品、動漫/游戲截圖時(shí)存在偏差;同時(shí),新加入的檢測AI生成文本的功能,可通過NLP算法輸出上傳文本為AI生成的概率,并標(biāo)出最有可能為AI生成內(nèi)容的段落,但現(xiàn)階段的識別準(zhǔn)確率存在較大提升空間。圖:Illuminarty圖片識別功能演示圖:Illuminarty訂閱套餐及對應(yīng)功能44資料來源:Illuminarty官網(wǎng)、浙商證券研究所AIVoice
Detector07AI
Voice
Detector是一個(gè)在線的AI生成音頻檢測網(wǎng)站,支持上傳多種音視頻文件格式并檢測用戶上傳的音頻是否由AI生成,可應(yīng)用于法律訴訟、媒體報(bào)道、客服交互等場景的音頻真實(shí)性識別;其工作原理為通過處理和分析聲音信號以提取頻率、時(shí)域、能量等特征,使用機(jī)器學(xué)習(xí)算法進(jìn)行分類和識別,輸出音頻為AI生成的可能性;平臺于2023年2月開始活躍于互聯(lián)網(wǎng)。據(jù)網(wǎng)站公開信息,AI
Voice
Detector能夠準(zhǔn)確識別特定音頻樣本是否由AI生成,但實(shí)際應(yīng)用受限于包括上傳文件自身的背景噪音、音頻長度等因素,需借助降噪、音頻剪輯等工具以達(dá)到最佳檢測效果;目前,網(wǎng)站不提供免費(fèi)試用選項(xiàng),僅支持訂閱使用,且套餐選擇單一,價(jià)格門檻較高、用戶數(shù)量受限。圖:AI
Voice
Detector功能演示45資料來源:AIVoice
Detector官網(wǎng)、浙商證券研究所圖:AI
Voice
Detector當(dāng)前用戶數(shù)量圖:AI
Voice
Detector訂閱套餐Google0746Google于2023年5月宣布將在其圖片搜索結(jié)果中,加入新功能“關(guān)于此圖片”,該功能將為用戶顯示圖片首次被Google索引的時(shí)間、圖片首次出現(xiàn)的站點(diǎn)、顯示該圖片的其他在線平臺(例如新聞網(wǎng)站、社交媒體)等信息,幫助用戶判斷網(wǎng)絡(luò)圖片的真實(shí)可靠性,提高用戶對于虛假信息的防范能力;同時(shí),Google宣布將為其Imagen生成的圖片原始文件加入AI標(biāo)記以確保AI生成的圖片能夠被準(zhǔn)確識別,并將允許內(nèi)容創(chuàng)作者和發(fā)布者為圖片進(jìn)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 研究市政學(xué)基本概念的試題及答案
- 最后關(guān)于可持續(xù)發(fā)展的經(jīng)濟(jì)思考的中級經(jīng)濟(jì)師試題及答案
- 工程項(xiàng)目風(fēng)險(xiǎn)與收益評估策略試題及答案
- 學(xué)習(xí)建筑項(xiàng)目后評估的方法與技巧試題及答案
- 2024年水利水電工程案例借鑒試題及答案
- 工程項(xiàng)目管理計(jì)算題試題及答案
- 建筑結(jié)構(gòu)基礎(chǔ)知識回顧試題及答案
- 2025年職場競爭與工程管理試題及答案
- 裝修火災(zāi)應(yīng)急預(yù)案(3篇)
- 2025年中級經(jīng)濟(jì)師考試高效復(fù)習(xí)與試題及答案
- 2024年首屆全國標(biāo)準(zhǔn)化知識競賽考試題庫-下(多選、判斷題部分)
- 配電室消防應(yīng)急預(yù)案
- 膝關(guān)節(jié)穿刺術(shù)
- 青儲飼料購銷合同范本版
- JT-T-1208-2018國際道路貨物運(yùn)輸車輛選型技術(shù)要求
- 全新店鋪轉(zhuǎn)讓合同
- 小學(xué)升初中六年級數(shù)學(xué)模擬試卷及參考答案
- 監(jiān)督執(zhí)紀(jì)工作規(guī)則
- 全麻術(shù)后蘇醒延遲的預(yù)防及護(hù)理
- 辦公區(qū)域主要風(fēng)險(xiǎn)辨識與分級管控清單
- 2024年海南省財(cái)金集團(tuán)有限公司招聘筆試沖刺題(帶答案解析)
評論
0/150
提交評論