科技云報道原創(chuàng)。
AI技術所帶來的便利和AI技術不可信之間的矛盾,正逐漸成為AI在現實生活中大規(guī)模落地應用的核心問題。
美國前國務卿亨利·基辛格曾在文章中稱,AI的危險極其巨大,“人類歷史可能重蹈印加人的覆轍,面對AI,就像印加人面對無法理解的西班牙文化一樣,甚至會對其產生崇拜和敬畏之心”。
特斯拉CEO埃隆·馬斯克曾提出警告,推進AI 向前發(fā)展的行為無異于“召喚惡魔”,為人類帶來“比核武器更恐怖”的危險。
已故物理學家史蒂芬·霍金也曾說過,AI的發(fā)明可能是“人類文明史上最可怕的事件”。
為什么這些研究者/領導者都在擔憂AI技術的未來?問題的核心正在于“信任”。
AI技術的發(fā)展:關乎信任
近30年來,人們在AI工程上取得了不少矚目的成績。
1997年,“深藍”成為戰(zhàn)勝國際象棋世界冠軍卡斯帕羅夫的第一個計算機系統(tǒng)。
2006年,Hiton提出了深度置信網絡,成為了深度學習的前驅。
2012年,Google大腦使用超過16000個CPU,用以模擬10億個神經元,在語言和圖像識別上都取得了突破。
2016年,擁有1920個CPU集群和280個GPU的深度學習系統(tǒng)AlphaGo擊敗李世石,成為第一個不讓子擊敗職業(yè)圍棋棋手的程序。
工程上的突破,讓人們得以將以前只能停留在理論上的模型實際運行起來并進行測試,大大加快了AI的發(fā)展并使之商業(yè)化。
如今,AI技術與產業(yè)的加速融合,從工業(yè)生產到消費服務的各個方面改變著人們的生活,對生產和生活效率的提升極為迅速。
在政務服務領域,采用人臉識別、聲紋識別等AI識別技術進行身份驗證,采用對話式AI提供智能化政務服務,采用“文本分析+知識圖譜+搜索”技術輔助刑偵、技偵工作等。
在金融行業(yè),利用人臉識別、語音識別和智能客服等AI技術,提升金融領域的交互水平和服務質量。
在制造業(yè)領域,利用AI算法開發(fā)數字化自動研發(fā)系統(tǒng),大幅度降低周期長、成本高等研發(fā)不確定性。同時,利用AI技術提升柔性生產能力,實現大規(guī)模個性化定制,提升制造業(yè)企業(yè)對市場需求變化的響應能力。
在消費零售領域,AI技術在商務決策場景、精準營銷場景、客戶溝通場景等各個零售環(huán)節(jié)多點開花,圍繞人、貨、場、鏈搭建應用場景。
正是基于AI技術的迅猛發(fā)展,更多的權力還在不停地被交到不可靠的機器手中。
但令人擔憂的是,這些機器并不具備對人類價值觀的理解,根本無法解決利害關系較大的問題,只能按照編程邏輯工作。
試想一下,如果AI系統(tǒng)推送了一條錯誤的廣告,影響并不大;但如果AI系統(tǒng)自動駕駛著汽車,全速撞向其數據庫中并不存在的外觀奇特的車輛,后果不堪設想。
事實上,AI犯錯并不是一種假設,而是屢次出現在現實生活中。
曾有部分消費者反應,亞馬遜Alexa智能音箱居然半夜經常會莫名其妙地發(fā)出巫婆般的恐怖笑聲,令用戶感到害怕。
Facebook人工智能研究實驗室在訓練兩個AI聊天機器人互相對話時,AI竟逐漸發(fā)出人類無法理解的獨特語言。
微軟聊天機器人Tay上線不到24小時,竟然出現了攻擊性和種族歧視言論,微軟不得不馬上讓其短暫休眠。
源于這些真實發(fā)生的問題,大眾對AI的信任度大大降低。
AI鴻溝:未被重視的AI魯棒性
理想與現實之間,存在著一個被稱為“AI鴻溝”的大坑。追根溯源,主要在于AI的魯棒性(Robust)沒有得到足夠重視。
在當下的AI 研究中,AI的容錯率往往較高,比如廣告和商品推薦。但在無人駕駛汽車、老人照護、醫(yī)療規(guī)劃等領域中,AI的魯棒性都至關重要,關系到人們的生命安全。
正因為缺乏對AI魯棒性的重視,每當AI解決方案能在某些時候發(fā)揮作用,人們就會假定,只要再多一點數據,此系統(tǒng)就能在所有的時刻發(fā)揮作用。
但事實上,就算是目前AI最擅長的領域,也潛藏危機。
以圖像識別為例,很多時候AI不僅無法識別,還會犯低級錯誤。比如給AI系統(tǒng)看一張貼著許多貼紙的停車標志,AI系統(tǒng)可能會錯誤地識別為“裝了許多食品和飲料的冰箱”。在自動駕駛領域,AI也不能百分百識別道路情況,如特斯拉屢次撞向路邊的消防車。
這是因為當前的AI發(fā)展以深度學習為主,而深度學習算法最常標榜的便是“準確率高達99.99%”。由于深度學習模型的“黑匣子”特征,即使2018年憑借深度學習與神經網絡的成就獲得圖靈獎的學者也無法自信地說,某一算法可以達到100%的準確性。當準確率只能達到99%的深度學習算法在現實生活中落地時,便會帶來許多不容小覷的問題。
具體而言,深度學習面臨三個核心問題,每一個問題既會影響到深度學習自身,也會影響到嚴重依賴于深度學習的其他流行技術:
深度學習是貪婪的。為了將神經網絡中的所有連接都調校準確,深度學習常常需要大量的數據。AlphaGo要下3000萬盤棋,才能達到超人類的水平。如果數據量減少,深度學習的表現水平也會急轉直下。
深度學習之所以搞不定語言和翻譯,就是因為帶有新意義的新句子層出不窮。你所面對的現實世界問題與訓練系統(tǒng)所使用的數據相差越大,系統(tǒng)的可靠性就越低。
深度學習是不透明的。神經網絡由大量數值矩陣組合而成,其中任何一個矩陣都是普通人類從直覺上無法理解的。就算利用復雜的工具,專業(yè)人士也很難搞明白神經網絡決策背后的原因。神經網絡究竟為何能做到這許多事情,至今仍然是一個未解之謎。人們也不知道神經網絡在達不到既定目標時,問題究竟出在哪里。
事實上,神經網絡如同“黑箱”一般,不管做什么,你只能看到結果,很難搞懂里面究竟發(fā)生了怎樣的過程。當我們對神經網絡驅動的無人駕駛汽車或家政機器人寄予厚望時,這就是個非常嚴重的問題。
深度學習的不透明,還有另一個問題,就是深度學習與周遭世界的常識并不相符。若想讓深度網絡搞明白“蘋果長在樹上”,或是“蘋果從樹上掉下來的時候,會從上往下掉,而不是從下往上飛”,并不是件容易的事。
深度學習是脆弱的。愚弄深度網絡的方法可達數十種之多,這是長期存在的問題。麻省理工學院的研究團隊就設計出了一只三維海龜,被深度學習系統(tǒng)錯認成來復槍,即使將海龜放到水下環(huán)境也沒能改變錯誤結果。該團隊又在棒球上涂了點肥皂泡,放在棕色的棒球手套中,不論什么角度都會被識別錯成一杯濃縮咖啡。
歸根結底,還是深度學習不夠深刻。有所成就,并不意味著深度學習的行為背后存在一個真正的智能。因此,深度學習不是萬能藥,依然與我們在開放系統(tǒng)中需要的通用AI相去甚遠。
可信AI:凝聚國際共識
為了避免AI可能給人們帶來的負面影響,以便人們能夠充分信任AI技術,與AI技術和諧相處,可信AI最近受到越來越多的關注,發(fā)展可信AI已成為全球共識。
2019年4月,歐盟委員會發(fā)布了《人工智能倫理指南》,提出了實現可信人工智能的七個要素,包括:保障人工智能技術的人的自主性、穩(wěn)健性和安全性,確保隱私和數據管理,確保算法系統(tǒng)的透明度,以及要求人工智能提供多樣化、非歧視性和公平的服務。
2019年6月,G20提出“G20人工智能原則”,明確提出“促進公共和私人對人工智能研發(fā)的投資力度,以促進可信賴的人工智能的創(chuàng)新”。
在國內,2017年11月,中國科學家何積豐院士首次提出了可信人工智能的概念,即人工智能技術本身具備可信的品質,從學術研究角度,可信AI研究范疇包含了安全性、可解釋性、公平性、隱私保護等多方面的內容。
隨著“可信”成為共識,產業(yè)界也緊跟學術界步伐,紛紛投入“可信AI”的研究。
IBM于2018年開發(fā)了多個AI可信工具,以評估測試人工智能產品在研發(fā)過程中的公平性、魯棒性、可解釋性、可問責性、價值一致性。
例如:公平性(Fairness),AI系統(tǒng)應該采用不帶偏見的數據集和模型,從而避免對于特定群體的不公平;可解釋性(Explainability),AI系統(tǒng)所提供的決策或建議不是一個不可解釋的黑箱,應該能夠被用戶和開發(fā)者所分析、理解;健壯性(Robustness),AI系統(tǒng)應該安全和可靠,不會被篡改,也不會受被“污染”的訓練數據集影響;透明性(Transparency),AI系統(tǒng)可以被透明化管理,其開發(fā)、部署、維護等可被追蹤,能夠在生命周期范圍內被審核等。
目前,IBM這些工具已捐獻給Linux Foundation并成為了開源項目,幫助開發(fā)人員和數據科學家構建可信、安全、可解釋的人工智能系統(tǒng)。
除此之外,微軟、谷歌、螞蟻、京東、騰訊、曠世等科技企業(yè),也在積極開展可信AI的研究和探索。
早在2015年2月,螞蟻集團就已啟動基于「端特征」的手機丟失風險研究項目,邁出了端云協(xié)同風控研究的第一步,旨在保護用戶的隱私安全。2017年6月,螞蟻又發(fā)布具備智能攻防能力的第一代智能風控引擎AlphaRisk,在用戶集中的支付寶端進行風險防控。
據了解,螞蟻集團自2015年起投入可信AI技術的研究。2016年,全面啟動了人工智能風控防御戰(zhàn)略。目前,可信AI技術已在包括反欺詐、反洗錢、反盜用、企業(yè)聯合風控、數據隱私保護在內的多個風控場景下落地,支撐著其全風險域的防御需求。
至2021年首次對外披露技術架構,螞蟻集團已經完成了長達6年的可信AI技術積累之路。據2021年6月權威專利機構IPR daily發(fā)布的《人工智能安全可信關鍵技術專利報告》顯示,螞蟻集團旗下的支付寶在該領域的專利申請數和授權數,均位列全球第一。
2021年,中國信通院聯合京東探索研究院發(fā)布了《可信人工智能白皮書》,可信AI已不再局限于對人工智能技術、產品和服務本身狀態(tài)的界定,而是逐步擴展至一套體系化的方法論,涉及到如何構造“可信”人工智能的方方面面。
在企業(yè)管理上,商湯科技在2020年1月成立了人工智能倫理治理委員會,并于2021年上半年上線了倫理審核系統(tǒng),建立貫穿人工智能系統(tǒng)生命周期的風險管理系統(tǒng),對將要落地的人工智能系統(tǒng)進行全過程的追溯和審查,為國內科技企業(yè)做出了表率。
結語
AI技術已成為互聯網行業(yè)發(fā)展不可缺少的原動力之一。針對AI伴隨的風險和挑戰(zhàn),發(fā)展可信AI,推動人工智能的透明可視、安全可控、多元包容已成為全球共識,也是未來人工智能健康發(fā)展的必由之路。
- 蜜度索驥:以跨模態(tài)檢索技術助力“企宣”向上生長
- 美媒聚焦比亞迪“副業(yè)”:電子代工助力蘋果,下個大計劃瞄準AI機器人
- 微信零錢通新政策:銀行卡轉入資金提現免手續(xù)費引熱議
- 消息稱塔塔集團將收購和碩印度iPhone代工廠60%股份 并接管日常運營
- 蘋果揭秘自研芯片成功之道:領先技術與深度整合是關鍵
- 英偉達新一代Blackwell GPU面臨過熱挑戰(zhàn),交付延期引發(fā)市場關注
- 馬斯克能否成為 AI 部部長?硅谷與白宮的聯系日益緊密
- 余承東:Mate70將在26號發(fā)布,意外泄露引發(fā)關注
- 無人機“黑科技”亮相航展:全球首臺低空重力測量系統(tǒng)引關注
- 賽力斯發(fā)布聲明:未與任何伙伴聯合開展人形機器人合作
- 賽力斯觸及漲停,汽車整車股盤初強勢拉升
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。