近幾個月來,以ChatGPT為代表的生成式人工智能狂飆突進(jìn),大模型時代已然降臨。在“百模大戰(zhàn)”越戰(zhàn)越酣之時,大模型其內(nèi)生及衍生安全威脅也愈演愈烈,數(shù)據(jù)泄露、幻想、生產(chǎn)歧視、排斥和有害內(nèi)容等安全問題層出不窮。
如何將制約大模型應(yīng)用發(fā)展的“絆腳石”變?yōu)?ldquo;壓艙石”?
7月7日,清華大學(xué)人工智能研究院孵化企業(yè)瑞萊智慧RealAI在2023WAIC世界人工智能大會上,重磅發(fā)布了全新人工智能安全平臺RealSafe3.0,為“加速度”發(fā)展中的大模型系好“安全帶”、把好“方向盤”。
瑞萊智慧RealAI聯(lián)合創(chuàng)始人、算法科學(xué)家
現(xiàn)狀:“雙刃劍”效應(yīng),制約大模型落地
和所有通用目的技術(shù)一樣,自人工智能誕生的那一刻起,創(chuàng)造技術(shù)的力量和控制技術(shù)的力量就存在不對等。新技術(shù)必然會帶來新的安全問題,這正是技術(shù)兩面性。大模型亦是如此,盡管它的強(qiáng)大已讓人類瞥見了通用人工智能的曙光,但也讓眾多學(xué)界、業(yè)界人士心生憂懼。前不久,就有全球400多位專家發(fā)布聯(lián)名公開信,警告人工智能發(fā)展速度過快,缺乏監(jiān)管,可能會危及人類生存。
他們的擔(dān)憂并非危言聳聽。近段時間以來,關(guān)于大模型的安全隱患屢見不鮮,例如:機(jī)密文件被泄露、添加無意義的字符后模型竟給出完全相反的回答、輸出違法有害內(nèi)容、隱含對某些人類社群的偏見和歧視等等。
這一新興技術(shù)帶來的風(fēng)險,已經(jīng)引起世界各國的高度關(guān)注。國家互聯(lián)網(wǎng)信息辦公室4月11日起草《生成式人工智能服務(wù)管理辦法(征求意見稿)》公開征求意見;歐盟于6月14日投票通過了《人工智能法案》,以期法律法規(guī)引領(lǐng)技術(shù)向好向善發(fā)展。
瑞萊智慧聯(lián)合創(chuàng)始人、算法科學(xué)家蕭子豪認(rèn)為,大模型“落地難”的本質(zhì)在于,當(dāng)前仍處于“野蠻生長”階段,還沒有找到場景、風(fēng)險和規(guī)范三者之間的平衡點。而在探尋這一平衡點的過程中,缺少易用和標(biāo)準(zhǔn)化的工具,即在技術(shù)層面上缺乏有力抓手,能夠科學(xué)評判大模型在場景中能否同時滿足規(guī)范和低風(fēng)險,且能夠進(jìn)一步定位問題并給出優(yōu)化建議,助力模型上線運行。
出路:源頭上找癥結(jié),技術(shù)上找對策
因此,瑞萊智慧在2023世界人工智能大會上,正式發(fā)布人工智能安全平臺RealSafe3.0版本。它是集成主流及RealAI獨有的世界領(lǐng)先的安全評測技術(shù),能夠提供端到端的模型安全性測評解決方案,解決當(dāng)前通用大模型安全風(fēng)險難以審計的痛點問題。
相較上一版本,RealSafe3.0新增了對通用大模型的評測,在評測維度上,它已覆蓋數(shù)據(jù)安全、認(rèn)知任務(wù)、通用模型特有漏洞、濫用場景等近70個評測維度,全方位多維度地評測通用大模型的性能,且未來還會持續(xù)擴(kuò)增測評維度的數(shù)量。
“評測只是手段,幫助通用大模型提升其自身安全性才是核心目的。”蕭子豪說,不能因為對于被技術(shù)反噬的擔(dān)憂就止步不前,創(chuàng)造新技術(shù)和控制技術(shù)危害應(yīng)該同步進(jìn)行,“瑞萊智慧的辦法是,從源頭上找到癥結(jié),再用‘魔法’打敗‘魔法’。”
如果將人工智能模型比作“引擎”,數(shù)據(jù)則是模型的“燃料”??梢哉f,數(shù)據(jù)集質(zhì)量直接影響模型的內(nèi)生安全。因此,RealSafe3.0內(nèi)部集成了多個自研模型和專家論證高質(zhì)量數(shù)據(jù)集,來幫助用戶修復(fù)模型中的問題。
對黑盒不可解釋的通用大模型,自研紅隊對抗模型取代人工設(shè)計問題,顯著提升攻擊成功率和樣本多樣性。也就是說,該模型數(shù)據(jù)集中,不僅包含了自有數(shù)據(jù)集,還包含了模型自生成的數(shù)據(jù),無論是從數(shù)據(jù)質(zhì)量還是數(shù)據(jù)規(guī)模上都可圈可點,因此它能夠自動化地挖掘出更多的漏洞,真正從源頭上緩解安全問題。
教練模型則通過對被測大模型進(jìn)行多輪次的提問-回答訓(xùn)練,并以訓(xùn)練好的評分模型對問答結(jié)果進(jìn)行評分,再將評分結(jié)果反饋給大模型,使其不斷強(qiáng)化學(xué)習(xí)到好壞答案的要點及區(qū)別,直至問答能力逐步迭代至最優(yōu)。除了定制化的訓(xùn)練框架,教練模型理想的模型效果還得益于夯實的數(shù)據(jù)基礎(chǔ),瑞萊智慧自有數(shù)據(jù)集經(jīng)過數(shù)十位價值觀領(lǐng)域的專家論證,以確保輸入的數(shù)據(jù)無誤,質(zhì)量高且領(lǐng)域多元,未來也將持續(xù)更新補(bǔ)充。
蕭子豪透露:“這些技術(shù),都是基于自研多模態(tài)大模型底座實現(xiàn)的。”
瑞萊智慧人工智能安全平臺RealSafe3.0通用大模型測評及優(yōu)化工作流程
結(jié)語:用AI打敗AI,用智慧駕馭智能
除了可提升生成式大模型安全性的RealSafe3.0,瑞萊智慧此次還帶來了能夠防范生成式人工智能惡意濫用的DeepReal2.0。據(jù)悉,DeepReal此前名為深度偽造內(nèi)容檢測平臺,現(xiàn)已正式更名為生成式人工智能內(nèi)容檢測平臺,因為它除了能夠檢測Deepfake內(nèi)容,還新增兩個功能模塊,可以檢測Diffusion、LLM這兩類新方法生成的數(shù)據(jù),支持對圖像、視頻、音頻、文本進(jìn)行是否偽造的檢測。應(yīng)用場景包括打擊網(wǎng)絡(luò)詐騙和聲譽(yù)侵害行為、檢測網(wǎng)絡(luò)內(nèi)容合規(guī)性、檢測音視頻物證真實性等,可對生成式人工智能技術(shù)濫用行為進(jìn)行管控和治理。
自2018年成立以來,瑞萊智慧就致力于研究和發(fā)展安全可控的第三代人工智能技術(shù),建立通用AI模型能力和人工智能安全能力:通過通用人工智能模型來適應(yīng)各類復(fù)雜的智能應(yīng)用場景和任務(wù);并通過人工智能安全能力,真正使AI造福人類整體利益。
瑞萊智慧堅持源頭創(chuàng)新和底層研究,在生成式人工智能等領(lǐng)域不斷發(fā)表世界領(lǐng)先科研成果。成立以來,瑞萊智慧研發(fā)團(tuán)隊核心成員在人工智能領(lǐng)域頂會上發(fā)表論文數(shù)百篇,多次在國際測評和競賽中斬獲冠軍,獲得授權(quán)專利100余項。同時,瑞萊智慧積極推動行業(yè)規(guī)范化,累計參與30余項國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)制定。此外,瑞萊智慧已與網(wǎng)信辦、工信部、公安部及下屬多家單位展開深入的項目合作。
“從古至今,技術(shù)始終都是一把‘雙刃劍’。通用人工智能的時代必將到來,如何讓人工智能揚長避短,如何用人類智慧駕馭人工智能,是從業(yè)者的一道長久課題。”蕭子豪說,這也是瑞萊智慧一直努力的方向。未來,RealSafe3.0將在保障通用大模型和專有模型安全、可靠、可控上,發(fā)揮強(qiáng)大作用。瑞萊智慧也將持續(xù)迭代技術(shù)、打磨產(chǎn)品,以確保在這場人工智能安全“攻防戰(zhàn)”中始終立于不敗之地,將人工智能的兩面性這一“關(guān)鍵變量”,轉(zhuǎn)化為高質(zhì)量發(fā)展的“最大增量”。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )