如何確保用于訓(xùn)練機器學(xué)習(xí)模型的數(shù)據(jù)安全?

網(wǎng)絡(luò)犯罪分子遠程操縱和對機器學(xué)習(xí)模型性能產(chǎn)生負面影響并不難。

惡意用戶可以毒害機器學(xué)習(xí)的訓(xùn)練數(shù)據(jù),非法訪問訓(xùn)練數(shù)據(jù)集中的敏感用戶信息,并導(dǎo)致類似的其他問題。

機器學(xué)習(xí)和人工智能的采用在過去十年中飆升。涉及這些技術(shù)的應(yīng)用范圍從面部識別和天氣預(yù)報應(yīng)用到復(fù)雜的推薦系統(tǒng)和虛擬助手。隨著人工智能越來越融入我們的生活,人工智能系統(tǒng)中的網(wǎng)絡(luò)安全問題也隨之而來。根據(jù)世界經(jīng)濟論壇 2022 年全球風(fēng)險報告,網(wǎng)絡(luò)安全故障是未來十年最值得關(guān)注的 10 大全球風(fēng)險之一。

網(wǎng)絡(luò)安全和人工智能不可避免地會在某個時候交叉,但這個想法旨在利用人工智能的力量來加強網(wǎng)絡(luò)安全。雖然它存在于自己的位置,但也需要網(wǎng)絡(luò)安全的力量來保護機器學(xué)習(xí)模型的完整性。這些模型的威脅來自源頭:模型訓(xùn)練數(shù)據(jù)。危險在于機器學(xué)習(xí)的訓(xùn)練數(shù)據(jù)可能被黑客遠程或現(xiàn)場操縱。網(wǎng)絡(luò)犯罪分子操縱訓(xùn)練數(shù)據(jù)集以影響算法的輸出并降低系統(tǒng)防御。這種方法通常無法追蹤,因為攻擊者偽裝成算法用戶。

如何操縱機器學(xué)習(xí)的訓(xùn)練數(shù)據(jù)?

機器學(xué)習(xí)周期涉及使用更新的信息和用戶見解進行持續(xù)訓(xùn)練。惡意用戶可以通過向機器學(xué)習(xí)模型提供特定輸入來操縱此過程。使用被操縱的記錄,他們可以確定機密的用戶信息,如銀行帳號、社會保障詳細信息、人口統(tǒng)計信息和其他用作機器學(xué)習(xí)模型訓(xùn)練數(shù)據(jù)的分類數(shù)據(jù)。

黑客用來操縱機器學(xué)習(xí)算法的一些常用方法是:

數(shù)據(jù)中毒攻擊

數(shù)據(jù)中毒涉及損害用于機器學(xué)習(xí)模型的訓(xùn)練數(shù)據(jù)。這些訓(xùn)練數(shù)據(jù)來自開發(fā)人員、個人和開源數(shù)據(jù)庫等獨立方。如果惡意方參與向訓(xùn)練數(shù)據(jù)集提供信息,他們將輸入精心構(gòu)建的“有毒”數(shù)據(jù),從而使算法對其進行錯誤分類。

例如,如果您正在訓(xùn)練識別馬的算法,該算法將處理訓(xùn)練數(shù)據(jù)集中的數(shù)千張圖像以識別馬。為了加強這種學(xué)習(xí),您還輸入了黑白奶牛的圖像來訓(xùn)練算法。但是,如果不小心將棕色奶牛的圖像添加到數(shù)據(jù)集中,模型會將其分類為馬。該模型在被訓(xùn)練區(qū)分棕色母牛和棕色馬之前不會理解差異。

同樣,攻擊者可以操縱訓(xùn)練數(shù)據(jù)來教授有利于他們的模型分類場景。例如,他們可以訓(xùn)練算法將惡意軟件視為良性軟件,并將安全軟件視為危險的使用有毒數(shù)據(jù)的軟件。

數(shù)據(jù)中毒的另一種方式是通過“后門”進入機器學(xué)習(xí)模型。后門是模型設(shè)計者可能不知道的一種輸入類型,但攻擊者可以使用它來操縱算法。一旦黑客發(fā)現(xiàn)了人工智能系統(tǒng)中的漏洞,他們就可以利用它來直接教模型他們想要做什么。

假設(shè)攻擊者訪問后門以教導(dǎo)模型,當(dāng)文件中存在某些字符時,它應(yīng)該被歸類為良性?,F(xiàn)在,攻擊者可以通過添加這些字符來使任何文件成為良性文件,并且每當(dāng)模型遇到這樣的文件時,它就會按照訓(xùn)練好的內(nèi)容將其歸類為良性文件。

數(shù)據(jù)中毒還與另一種稱為成員推理攻擊的攻擊相結(jié)合。成員推理攻擊 (MIA) 算法允許攻擊者評估特定記錄是否是訓(xùn)練數(shù)據(jù)集的一部分。結(jié)合數(shù)據(jù)中毒,成員推理攻擊可用于部分重建訓(xùn)練數(shù)據(jù)內(nèi)部的信息。盡管機器學(xué)習(xí)模型適用于廣義數(shù)據(jù),但它們在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好。成員推理攻擊和重建攻擊利用這種能力來提供與訓(xùn)練數(shù)據(jù)匹配的輸入,并使用機器學(xué)習(xí)模型輸出在訓(xùn)練數(shù)據(jù)中重新創(chuàng)建用戶信息。

如何檢測和預(yù)防數(shù)據(jù)中毒實例?

模型會定期用新數(shù)據(jù)重新訓(xùn)練,正是在這個重新訓(xùn)練期間,有毒數(shù)據(jù)可以被引入訓(xùn)練數(shù)據(jù)集中。由于它隨著時間的推移而發(fā)生,因此很難跟蹤此類活動。在每個訓(xùn)練周期之前,模型開發(fā)人員和工程師可以通過輸入有效性測試、回歸測試、速率限制和其他統(tǒng)計技術(shù)來強制阻止或檢測此類輸入。他們還可以限制來自單個用戶的輸入數(shù)量,檢查是否有來自相似 IP 地址或帳戶的多個輸入,并針對黃金數(shù)據(jù)集測試重新訓(xùn)練的模型。黃金數(shù)據(jù)集是基于機器學(xué)習(xí)的訓(xùn)練數(shù)據(jù)集的經(jīng)過驗證且可靠的參考點。

黑客需要有關(guān)機器學(xué)習(xí)模型如何工作以執(zhí)行后門攻擊的信息。因此,通過實施強大的訪問控制和防止信息泄露來保護這些信息非常重要。限制權(quán)限、數(shù)據(jù)版本控制和記錄代碼更改等一般安全實踐將加強模型安全性并保護機器學(xué)習(xí)的訓(xùn)練數(shù)據(jù)免受中毒攻擊。

通過滲透測試構(gòu)建防御

企業(yè)在對其網(wǎng)絡(luò)進行定期滲透測試時,應(yīng)考慮測試機器學(xué)習(xí)和人工智能系統(tǒng)。滲透測試模擬潛在的攻擊以確定安全系統(tǒng)中的漏洞。模型開發(fā)人員可以類似地對他們的算法進行模擬攻擊,以了解他們?nèi)绾螛?gòu)建針對數(shù)據(jù)中毒攻擊的防御。當(dāng)您測試您的模型是否存在數(shù)據(jù)中毒漏洞時,您可以了解可能添加的數(shù)據(jù)點并構(gòu)建丟棄此類數(shù)據(jù)點的機制。

即使是看似微不足道的不良數(shù)據(jù)也會使機器學(xué)習(xí)模型失效。黑客已適應(yīng)利用這一弱點并破壞企業(yè)數(shù)據(jù)系統(tǒng)。隨著企業(yè)越來越依賴人工智能,他們必須保護機器學(xué)習(xí)訓(xùn)練數(shù)據(jù)的安全性和隱私性,否則就有失去客戶信任的風(fēng)險。

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-09-19
如何確保用于訓(xùn)練機器學(xué)習(xí)模型的數(shù)據(jù)安全?
隨著人工智能越來越融入我們的生活,人工智能系統(tǒng)中的網(wǎng)絡(luò)安全問題也隨之而來

長按掃碼 閱讀全文