CV領(lǐng)域再創(chuàng)佳績(jī)!阿里云機(jī)器學(xué)習(xí)平臺(tái) PAI 多篇論文入選 ICCV 2023

   2023-10-09 62080
核心提示:阿里云PAI總共有3篇文章入選ICCV 2023,其中阿里云與華南理工大學(xué)聯(lián)合培養(yǎng)項(xiàng)目產(chǎn)出了基礎(chǔ)模型SMT和圖像復(fù)原模型的指紋保護(hù)技術(shù)兩篇文章,阿里云與IDEA-CVR張磊團(tuán)隊(duì)合作產(chǎn)出了目標(biāo)檢測(cè)Stable DINO一篇文章。此次3篇文章入選ICCV 2023,意味著阿里云PAI在國(guó)際計(jì)算機(jī)視覺(jué)領(lǐng)域進(jìn)一步提升了影響力。
 

近期,阿里云機(jī)器學(xué)習(xí)平臺(tái)PAI發(fā)表的多篇論文在ICCV 2023上入選。ICCV是國(guó)際計(jì)算機(jī)視覺(jué)大會(huì)是由電氣和電子工程師協(xié)會(huì)每?jī)赡昱e辦一次的研究大會(huì)。與CVPR和ECCV一起,它被認(rèn)為是計(jì)算機(jī)視覺(jué)領(lǐng)域的頂級(jí)會(huì)議之一。ICCV 2023將于10月2日至10月6日法國(guó)巴黎舉辦。ICCV匯聚了來(lái)自世界各地的學(xué)者、工程師和研究人員,分享最新的計(jì)算機(jī)視覺(jué)研究成果和技術(shù)進(jìn)展。會(huì)議涵蓋了計(jì)算機(jī)視覺(jué)領(lǐng)域的各個(gè)方向,包括圖像處理、模式識(shí)別、機(jī)器學(xué)習(xí)、人工智能等等。ICCV的論文發(fā)表和演講都備受關(guān)注,是計(jì)算機(jī)視覺(jué)領(lǐng)域交流和合作的重要平臺(tái)。

阿里云PAI總共有3篇文章入選ICCV 2023,其中阿里云與華南理工大學(xué)聯(lián)合培養(yǎng)項(xiàng)目產(chǎn)出了基礎(chǔ)模型SMT和圖像復(fù)原模型的指紋保護(hù)技術(shù)兩篇文章,阿里云與IDEA-CVR張磊團(tuán)隊(duì)合作產(chǎn)出了目標(biāo)檢測(cè)Stable DINO一篇文章。此次3篇文章入選ICCV 2023,意味著阿里云PAI在國(guó)際計(jì)算機(jī)視覺(jué)領(lǐng)域進(jìn)一步提升了影響力。

論文簡(jiǎn)述

當(dāng)尺度感知調(diào)制遇上Transformer

近年來(lái),基于Transformer和CNN的視覺(jué)基礎(chǔ)模型取得巨大成功。有許多研究進(jìn)一步地將Transformer結(jié)構(gòu)與CNN架構(gòu)結(jié)合,設(shè)計(jì)出了更為高效的hybrid CNN-Transformer Network,但它們的精度仍然不盡如意。本文介紹了一種新的基礎(chǔ)模型SMT(Scale-Aware Modulation Transformer),它以更低的參數(shù)量(params)和計(jì)算量(flops)取得了大幅性能的提升。

不同于其他CNN-Transformer結(jié)合的方案,SMT基于卷積計(jì)算設(shè)計(jì)了一個(gè)新穎的輕量尺度感知調(diào)制單元Scale-Aware Modulation(SAM),它能夠捕捉多尺度特征的同時(shí)擴(kuò)展感受野,進(jìn)一步增強(qiáng)卷積調(diào)制能力。此外,SMT提出了一種進(jìn)化混合網(wǎng)絡(luò)Evolutionary Hybrid Network(EHN),它能夠有效地模擬網(wǎng)絡(luò)從淺層變深時(shí)捕捉依賴(lài)關(guān)系從局部到全局的轉(zhuǎn)變,從而實(shí)現(xiàn)更優(yōu)異的性能。在ImagNet、COCO以及ADE20k等任務(wù)上都驗(yàn)證了該模型的有效性。值得一提的是,SMT在ImageNet-22k上預(yù)訓(xùn)練后以僅僅80.5M的參數(shù)量在ImageNet-1k上達(dá)到了88.1%的精度。

總的來(lái)說(shuō),在視覺(jué)基礎(chǔ)模型backbone的探索路程中,我們有著對(duì)未來(lái)的展望:

以視覺(jué)Transformer為例,除了在自監(jiān)督學(xué)習(xí)等預(yù)訓(xùn)練中依舊用著ViT這種plain Vision Transformer,大部分視覺(jué)基礎(chǔ)模型都以Swin和PvT這種Hierarchical架構(gòu)為基礎(chǔ)設(shè)計(jì)范式。而這種范式需要解決的問(wèn)題就是如何在淺層stage中設(shè)計(jì)更高效的注意力機(jī)制計(jì)算來(lái)解決自注意力的二次復(fù)雜性帶來(lái)的計(jì)算負(fù)擔(dān)。是否有更優(yōu)秀的計(jì)算模塊能夠代替SAM或者是MSA是我們后續(xù)需要繼續(xù)探索的路。2023年,更多的視覺(jué)Transformer模型和CNN基礎(chǔ)大模型被提出,它們?cè)诟鞔蟀駟紊夏阕肺亿s,可以發(fā)現(xiàn)CV領(lǐng)域中CNN依舊有著一席之地。如果Transformer不能夠在CV領(lǐng)域完全替代cnn神經(jīng)網(wǎng)絡(luò),那么將兩者的優(yōu)勢(shì)結(jié)合起來(lái)是否是更好的選擇?因此,我們希望SMT可以作為Hybrid CNN-Transformer方向新的baseline,推動(dòng)該領(lǐng)域的進(jìn)步和發(fā)展。

穩(wěn)定匹配策略提升Detection Transformer上限

本文指出在DETR中存在的不穩(wěn)定的匹配問(wèn)題是由多重優(yōu)化路徑導(dǎo)致的,而這個(gè)問(wèn)題在DETR的one-to-one matching中會(huì)變得更加明顯。我們表明僅需要在分類(lèi)損失中引入了位置度量就可以很好的優(yōu)化DETR中存在的不穩(wěn)定匹配問(wèn)題。并且基于這一原則,我們通過(guò)引入了位置度量信息提出了兩個(gè)簡(jiǎn)單有效并且可以適用于所有DETR系列模型的position-supervised loss和position-modulated matching cost設(shè)計(jì)。此外,我們提出了密集memory融合來(lái)增強(qiáng)編碼器和backbone的特征。

我們?cè)谝幌盗蠨ETR模型上對(duì)我們的方法有效性進(jìn)行了驗(yàn)證,其中我們的Stable-DINO以ResNet-50作為backbone的條件下在1x和2x標(biāo)準(zhǔn)settings下分別達(dá)到了50.4AP和51.5AP。并且我們的方法具有足夠強(qiáng)大的scalability,使用Swin-Large和Focal-Huge backbone的條件下Stable-DINO在COCO test-dev上分別達(dá)到了63.8AP和64.8AP的準(zhǔn)確率。

雖然我們的方法表現(xiàn)出了很好的性能,但我們只在類(lèi)似 DETR 的圖像對(duì)象檢測(cè)和分割上驗(yàn)證它。諸如 3D 對(duì)象檢測(cè)之類(lèi)的更多探索將作為我們未來(lái)的工作。此外,我們只關(guān)注損失和匹配中的分類(lèi)部分,而保留定位部分。對(duì)定位部分的分析也留作我們未來(lái)的工作。

針對(duì)圖像復(fù)原模型的指紋保護(hù)技術(shù)

深度學(xué)習(xí)已經(jīng)成為解決計(jì)算機(jī)視覺(jué)問(wèn)題的一個(gè)突出工具,在開(kāi)源社區(qū)中共享預(yù)先訓(xùn)練的DNN模型已經(jīng)成為一種常見(jiàn)做法,許多公司和機(jī)構(gòu)也提供付費(fèi)的商用預(yù)訓(xùn)練模型服務(wù)。這為不法使用者抄襲/竊取模型創(chuàng)造了強(qiáng)烈動(dòng)機(jī),例如使用惡意軟件感染或內(nèi)部泄漏等方法來(lái)規(guī)避昂貴的訓(xùn)練過(guò)程。因此,社區(qū)和公司都有強(qiáng)烈需求來(lái)保護(hù)其DNN模型的知識(shí)產(chǎn)權(quán)。保護(hù)DNN模型知識(shí)產(chǎn)權(quán)的一種流行方案是模型數(shù)字水印,它會(huì)侵入地嵌入被稱(chēng)之為水印的特定信息到源模型中,并檢查該水印在可疑模型中的存在。然而,侵入式嵌入會(huì)修改模型權(quán)重,進(jìn)而可能會(huì)影響模型的效用,在實(shí)踐中變得不那么理想。

最近,一種非侵入式的方法稱(chēng)為模型指紋技術(shù)受到了關(guān)注。與模型水印不同,指紋技術(shù)不會(huì)修改模型任何參數(shù),其從模型中提取出稱(chēng)為指紋的唯一特征來(lái)識(shí)別其所有權(quán)。通過(guò)比較源模型的指紋與可疑模型的指紋來(lái)驗(yàn)證模型的所有權(quán)?,F(xiàn)存的深度模型指紋方案大部分僅聚焦在圖像分類(lèi)問(wèn)題上,如使用決策邊界點(diǎn)作為指紋,針對(duì)深度圖像復(fù)原網(wǎng)絡(luò)的指紋方案尚未發(fā)表。圖像復(fù)原模型的應(yīng)用已然十分廣泛,如圖像去噪、超分辨率、去模糊等。因此,為探究圖像復(fù)原任務(wù)中的非侵入式模型保護(hù)方法,我們首次提出了一種針對(duì)深度圖像復(fù)原模型的指紋方案。

如下圖所示,我們方法整體步驟如下:

Step1. 對(duì)源模型提取指紋;Step2. 對(duì)可疑模型提取指紋,可疑模型可能是違規(guī)獲取的被攻擊模型,也可能是無(wú)關(guān)的清白模型,指紋驗(yàn)證的目的是能夠區(qū)分兩者;Step3. 驗(yàn)證兩組指紋的相似性,通過(guò)對(duì)兩組指紋分別做特征提取,并根據(jù)在特征與統(tǒng)計(jì)層面上計(jì)算的偷竊概率來(lái)進(jìn)行判斷。

指紋提取的思路主要是基于模型反演的思想,固定模型優(yōu)化圖像,找出一張恰好使得模型復(fù)原難度均衡的臨界圖像,圖示如下:

方案優(yōu)缺點(diǎn)

對(duì)比模型水印方案,我們指紋方案最大的優(yōu)點(diǎn)在于完全不會(huì)改變深度圖像復(fù)原網(wǎng)絡(luò)的參數(shù),進(jìn)而不會(huì)對(duì)模型性能產(chǎn)生任何影響,同時(shí)經(jīng)實(shí)驗(yàn)驗(yàn)證能夠抵御常見(jiàn)的模型攻擊手段。但目前我們的指紋驗(yàn)證方案需要獲取模型的梯度信息,也就是說(shuō)對(duì)比之前的黑盒水印驗(yàn)證流程,驗(yàn)證方需要具備更高的權(quán)限。因此,優(yōu)化驗(yàn)證階段也將成為我們未來(lái)的方向。

算法開(kāi)源

為了更好地服務(wù)開(kāi)源社區(qū),上述兩個(gè)算法的源代碼已經(jīng)開(kāi)源。另外,我們正在開(kāi)發(fā)PAI上輕松訓(xùn)練推理部署上述算法的框架,大概會(huì)在10月推出,敬請(qǐng)期待。

Github地址:

https://github.com/AFeng-x/SMT

modelscope地址:

https://modelscope.cn/models/PAI/SMT/summary

 

 

阿里云機(jī)器學(xué)習(xí)平臺(tái) PAI 多篇論文入選 ICCV 2023

● 論文標(biāo)題:

Scale-Aware Modulation Meet Transformer

● 論文作者:

林煒豐、吳梓恒、陳佳禹、黃俊、金連文

● 論文PDF鏈接:

https://arxiv.org/pdf/2307.08579.pdf

● 論文標(biāo)題:

Detection Transformer with Stable Matching

● 論文作者:

劉世隆、任天和、陳佳禹、曾兆陽(yáng)、張浩、李峰、李弘洋、黃俊、蘇航、朱軍、張磊

● 論文PDF鏈接:

https://arxiv.org/pdf/2304.04742.pdf

● 論文標(biāo)題:

Fingerprinting Deep Image Restoration Models

● 論文作者:

全宇暉、滕寰、許若濤、黃俊、紀(jì)輝

● 論文PDF鏈接:

https://csyhquan.github.io/manuscript/23-iccv-Fingerprinting%20D

 
 
更多>同類(lèi)資訊
免責(zé)申明
推薦資訊
點(diǎn)擊排行
最新資訊更多>
最新供應(yīng)更多>
網(wǎng)站首頁(yè)  |  聯(lián)系方式  |  關(guān)于我們  |  問(wèn)題解析  |  版權(quán)隱私  |  使用協(xié)議  |  網(wǎng)站地圖  |  排名推廣  |  廣告服務(wù)  |  積分換禮  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報(bào)  |  粵ICP備1207862號(hào)

中國(guó)智能化網(wǎng)(zgznh®)--引領(lǐng)工業(yè)智能化產(chǎn)業(yè)發(fā)展 共享智能化+優(yōu)質(zhì)平臺(tái)

版權(quán)所有:深圳市智控網(wǎng)絡(luò)有限公司 學(xué)術(shù)指導(dǎo):深圳市智能化學(xué)會(huì)

粵ICP備12078626號(hào)

深公網(wǎng)安備案證字第 4403101901094 號(hào) | 粵公網(wǎng)安備 44030702001206號(hào)