號稱“分割一切”的Meta大模型SAM,瑞萊智慧讓它“瞎割一氣”了!

幾天前,Meta發(fā)布了史上首個圖像分割基礎(chǔ)模型——SAM(Segment Anything Model),將NLP領(lǐng)域的prompt范式引進(jìn)CV,讓模型可以通過prompt一鍵摳圖。

SAM一經(jīng)發(fā)布,瞬間“炸場”。網(wǎng)友直呼:CV不存在了!

英偉達(dá)AI科學(xué)家Jim Fan對此贊嘆道:我們已經(jīng)來到了計(jì)算機(jī)視覺領(lǐng)域的「GPT-3時(shí)刻」!

Meta在博客中興奮地表示:“可以預(yù)計(jì),在未來,在任何需要在圖像中查找和分割對象的應(yīng)用中,都有SAM的用武之地。

SAM之所以如此強(qiáng)大得益于它在包含超過10億個掩碼的多樣化、高質(zhì)量數(shù)據(jù)集(SA-1B)上進(jìn)行訓(xùn)練,這使它能夠泛化到新類型的對象和圖像,超出它在訓(xùn)練期間觀察到的內(nèi)容;以及引入NLP領(lǐng)域的prompt范式,用戶通過合理的prompt即可完成圖像分割任務(wù),無需額外訓(xùn)練實(shí)現(xiàn)“開箱即用”??梢哉f,Meta實(shí)現(xiàn)了一個完全不同的CV范式,你可以在一個統(tǒng)一框架prompt encoder內(nèi),指定一個點(diǎn)、一個邊界框、一句話,直接一鍵分割出物體。

不過,瑞萊智慧RealAI要來“潑潑冷水”了。RealAI算法團(tuán)隊(duì)剛剛研究發(fā)現(xiàn),只要在圖片上添加一些對抗樣本,SAM模型“分割一切”的本事,就會瞬間失靈。

原本SAM可以很好地自動分割圖像中的所有內(nèi)容:

給圖像添加干擾非常微小的對抗噪聲后,SAM就只會“瞎割一氣”:

下圖同理:

這充分說明:盡管SAM模型功能十分強(qiáng)大,但也同樣存在安全風(fēng)險(xiǎn)。SAM雖然是一種新的CV范式,但算法本身仍然屬于深度學(xué)習(xí)模型范疇,而深度學(xué)習(xí)模型本身就存在著易受對抗樣本攻擊的安全隱患。攻擊者可以通過向良性數(shù)據(jù)中添加特定的擾動,生成對抗樣本。附加輕微擾動的對抗樣本不會影響人類的判斷,卻會使深度學(xué)習(xí)模型產(chǎn)生錯誤結(jié)果。我們針對SAM的模型輸出,通過結(jié)合MI-FGSM【Dong et al., Boosting Adversarial Attacks with Momentum, CVPR 2018(Spotlight).】等攻擊方法生成對抗樣本,使得SAM模型“分割一切”的本事瞬間失靈。

這已經(jīng)不是RealAI團(tuán)隊(duì)第一次拿對抗樣本“搞事情”了。在此之前,團(tuán)隊(duì)還用對抗樣本眼鏡攻破19款主流商用手機(jī)的人臉解鎖系統(tǒng);將對抗樣本打印在衣服上使得人體在目標(biāo)檢測系統(tǒng)中“隱身”;通過修改錐桶形狀讓自動駕駛感知系統(tǒng)無法識別……

戴上對抗樣本眼鏡攻破手機(jī)人臉解鎖

RealAI團(tuán)隊(duì)所做的這一切,都只為讓開啟“狂飆”模式的人工智能更加安全,幫它“系上安全帶”。包括SAM在內(nèi)的上述AI視覺模型,之所以會被RealAI團(tuán)隊(duì)攻破,本質(zhì)上是深度學(xué)習(xí)方法的先天缺陷,語音識別、文本處理等技術(shù)都存在被對抗樣本攻擊的漏洞,具有普遍性。

近幾個月來,狂飆突進(jìn)的大模型自然也不例外。除了對抗樣本攻擊,AI大模型還存在幻想、生產(chǎn)歧視、排斥和有害內(nèi)容、數(shù)據(jù)泄露等安全問題,威脅大模型的應(yīng)用生態(tài)和國家安全。事實(shí)上,無論是學(xué)術(shù)界、產(chǎn)業(yè)界還是監(jiān)管機(jī)構(gòu),都早已意識到了風(fēng)險(xiǎn)。

4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《關(guān)于<生成式人工智能服務(wù)管理辦法(征求意見稿)>公開征求意見的通知》。該意見稿在第十四條就明確規(guī)定:提供者應(yīng)當(dāng)在生命周期內(nèi),提供安全、穩(wěn)健、持續(xù)的服務(wù),保障用戶正常使用。在該意見稿發(fā)布前,已有多國監(jiān)管部門表示密切關(guān)注ChatGPT引發(fā)的數(shù)據(jù)安全等問題。

未來,大模型自身的安全和可靠性問題,無疑將成為其應(yīng)用發(fā)展的瓶頸性問題。如何更好地實(shí)現(xiàn)這一通用目的技術(shù)的發(fā)展和安全動態(tài)平衡,將成為人工智能企業(yè)的重要課題,也將醞釀新的產(chǎn)業(yè)機(jī)遇。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )