《Coremail RSAC大會(huì)觀察:在郵件安全領(lǐng)域AI既是矛也是盾》

全球網(wǎng)絡(luò)安全界的盛會(huì)——2023年RSAC大會(huì)于當(dāng)?shù)貢r(shí)間4月24日-27日在美國舊金山召開,大會(huì)以“Stronger Together(一起變得更強(qiáng)大)”為主題,議程主要包含安全研討會(huì)、沙盒創(chuàng)新大賽、安全技術(shù)主題演講等。Coremail聯(lián)合創(chuàng)始人、技術(shù)副總裁林延中和總架構(gòu)師陳穎棠出席了此次會(huì)議。

RSAC創(chuàng)新沙盒競賽已舉辦18年,是初創(chuàng)公司展示具有改變網(wǎng)絡(luò)安全行業(yè)潛力的突破性技術(shù)的領(lǐng)先平臺(tái)。而今年的創(chuàng)新沙盒大賽競爭依然非常激烈,最終由人工智能應(yīng)用安全公司HiddenLayer拔得頭籌,獲得了“最具創(chuàng)新創(chuàng)業(yè)公司”的稱號(hào)。

可見,AI在安全領(lǐng)域的應(yīng)用也成為此次大會(huì)的熱點(diǎn)議題。在此次大會(huì)的開幕式上,RSA 首席執(zhí)行官 Rohit Ghai也重點(diǎn)討論了人工智能給網(wǎng)絡(luò)安全帶來的機(jī)遇與挑戰(zhàn)。

“每一次新技術(shù)浪潮都比以往更大、更快也更具顛覆性,這次也不例外。”

Ghai 強(qiáng)調(diào)了人工智能時(shí)代已經(jīng)到來,網(wǎng)絡(luò)安全組織必須利用AI的力量。隨著人工智能技術(shù)逐漸滲透到網(wǎng)絡(luò)安全產(chǎn)品和解決方案中,我們可以期待安全與AI碰撞出更多的火花。但同時(shí),Ghai 也提及了“Good AI”機(jī)器人的另一面就是“Bad AI”。

誠然,在攻防對(duì)抗中,AI技術(shù)既會(huì)被安全廠商用于防御,而類似于ChatGPT等人工智能軟件也很有可能成為黑客的攻擊利器,使網(wǎng)絡(luò)釣魚更難抵御。那么人工智能對(duì)于郵件安全行業(yè)而言,又將會(huì)帶來什么改變呢?

Coremail郵件安全人工智能實(shí)驗(yàn)室首席架構(gòu)師潘慶峰(下文簡稱“大P”)就“當(dāng)前AI技術(shù)對(duì)郵件安全的影響”這個(gè)話題進(jìn)行了深度分享。

1、當(dāng)前AI技術(shù)對(duì)郵件安全對(duì)抗的影響

ChatGPT和GPT-4的出現(xiàn)讓大家驚嘆于當(dāng)前的深度學(xué)習(xí)模型已經(jīng)能夠達(dá)到如此高的水平。

大P認(rèn)為,實(shí)際上,ChatGPT完成了兩個(gè)任務(wù),那就是語義分析和文本生成任務(wù)。

首先,如果把ChatGPT模型比作一個(gè)由大量數(shù)據(jù)訓(xùn)練而成的高維空間迷宮,通過讀取每一個(gè)字符來決定下一步走向,最終我們可以抵達(dá)迷宮中的某個(gè)位置。

這個(gè)位置附近就是最可能的答案空間,從這個(gè)位置開始,按照最大可能性路徑一個(gè)一個(gè)字地生成出答案,就是我們看到的ChatGPT回復(fù)。

因此,問題語義分析部分,就是Coremail反垃圾算法進(jìn)行文本分類的基礎(chǔ)。

大P認(rèn)為,自然語言處理技術(shù)即將進(jìn)入應(yīng)用爆發(fā)期,主要會(huì)在郵件系統(tǒng)產(chǎn)業(yè)上形成三方面的應(yīng)用。

第一,用戶級(jí)層面上,郵件小助手應(yīng)用AI自動(dòng)生成回復(fù)或自動(dòng)擬稿,甚至可以幫助撰寫簡單邏輯程序,由人工進(jìn)行校驗(yàn),提升工作效率。

第二,公司業(yè)務(wù)層面上,AI技術(shù)可以再讀取大量公司文檔后生成客服系統(tǒng),與目前機(jī)械性的回復(fù)相比,后期的答疑質(zhì)量將會(huì)大幅上升。

第三,對(duì)于垃圾郵件發(fā)送方而言,AI技術(shù)可能會(huì)被用來制作大量垃圾文本,形式內(nèi)容不一但內(nèi)涵一致,垃圾郵件的收發(fā)量有可能快速上升。

2、AI既是矛,也是盾

ChatGPT常被用作開發(fā)勒索軟件和釣魚郵件開發(fā),這已經(jīng)是不可改變的事實(shí),但是大P強(qiáng)調(diào)每一項(xiàng)技術(shù)都可以用于進(jìn)攻或防守,不用太過擔(dān)心AI的深度學(xué)習(xí)技術(shù)會(huì)導(dǎo)致現(xiàn)有的反垃圾識(shí)別系統(tǒng)失效。

大P分析了三點(diǎn)原因:首先,生成大量垃圾文本遠(yuǎn)比文本分類需要大得多的運(yùn)算量,普通黑產(chǎn)團(tuán)伙很難提供這種量級(jí)的算力支撐。

其次,考慮到生成文本的可讀性及邏輯性,此類文本必然帶有很多有指向性的詞語,詞性相近文本在高維空間的位置都是相似的,這代表著使用文本分類進(jìn)行反垃圾不會(huì)有太多的變化。

最后,反垃圾算法也不是單純的文本分類問題,還可通過發(fā)信歷史、發(fā)信行為、發(fā)信來源等多種特征協(xié)助判斷。

黑產(chǎn)團(tuán)伙樂于使用AI生成垃圾文本,那么對(duì)于防守方而言,我們同樣可利用深度學(xué)習(xí)技術(shù)動(dòng)態(tài)生成垃圾郵件內(nèi)容,用來給反垃圾系統(tǒng)做陪練。

3、CoremailAI技術(shù)發(fā)展前生今世

大P還為大家介紹了Coremail AI技術(shù)發(fā)展歷程,展示了Coremail在AI的不同發(fā)展時(shí)期,利用AI提高了Coremail郵件安全的反垃圾能力。

Coremail自1999年開發(fā)出第一套郵件系統(tǒng)后就開始進(jìn)行反垃圾技術(shù)的相關(guān)研究,隨著AI技術(shù)的發(fā)展經(jīng)歷了郵件安全應(yīng)用的“智能算法萌芽期(2000年前后)”“智能算法發(fā)展期(2010前后)”,迎來了“大規(guī)模應(yīng)用期(2020年至今)”。

當(dāng)前,Coremail郵件安全人工智能實(shí)驗(yàn)室(Email Security AI Lab)基于郵件安全大數(shù)據(jù)中心持續(xù)積累的海量優(yōu)質(zhì)數(shù)據(jù),實(shí)現(xiàn)了郵件樣本智能收集、識(shí)別、入庫、反饋、自學(xué)習(xí)訓(xùn)練并提升算法模型能力的閉環(huán),不斷優(yōu)化中央引擎、保持反垃圾品質(zhì)穩(wěn)步提升。

未來,Coremail AI LAB將堅(jiān)持長期主義,加大對(duì)云計(jì)算、人工智能、大數(shù)據(jù)的投入研究,將成果實(shí)踐落地至Coremail郵件安全系列產(chǎn)品與服務(wù),運(yùn)用到實(shí)際的業(yè)務(wù)場景中,推動(dòng)郵件安全整體產(chǎn)業(yè)性發(fā)展。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )