馬斯克的人工智能未來保衛(wèi)戰(zhàn)

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

2月7日,重型獵鷹火箭(Falcon Heavy)運載火箭發(fā)射成功,新的人類最強現(xiàn)役運載火箭就此誕生。不論是這個歷史性事件,還是這個人物,都已經(jīng)在這兩天刷屏了。下面,讓我們來了解這個一言不發(fā)就要改變世界的“變態(tài)”在AI領域做出的成績吧!

埃隆·馬斯克

特斯拉和SpaceX的CEO,他計劃在火星上殖民,并認為人工智能可能會把人類變成自己的寵物。他熱衷于在推特上發(fā)布一些爭議性言論。除了這些炒作和他巨大的網(wǎng)絡價值外,馬斯克的公司實際上是在參與……幾乎每一個行業(yè)。

埃隆·馬斯克,與我們所習慣的企業(yè)家相比,他的行動規(guī)??梢哉f是宇宙級那么大的。他已經(jīng)成為未來的代名詞。

不管他從事于電動汽車(Tesla),還是向太空發(fā)射火箭(SpaceX),他傳奇的名聲吸引了很多人崇拜。馬斯克和他公司的的故事足以讓100個記者筆不停歇的寫上幾天。

他的主要項目會影響到幾乎所有的重大產(chǎn)業(yè)和全球性問題,我們可以想象一下,這些領域都即將發(fā)生顛覆性的重組。

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

▲馬斯克幾乎參與到了所有行業(yè)

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

▲馬斯克在推特上戲稱,也許他會把火箭技術應用在汽車上

我們決定對馬斯克的生態(tài)系統(tǒng)進行一種不同的研究。

我們不是要評估埃隆馬斯克和他的公司在承諾和宣傳上的表現(xiàn),而是想看看他的公司是怎樣改變或者沒有改變這些行業(yè)——用數(shù)字,確鑿的證據(jù),以及顛覆性的具體表現(xiàn)。

這篇文章主要介紹在人工智能領域,埃隆馬斯克如何用他公司的資金、發(fā)明和創(chuàng)造力改變這個行業(yè)。

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

▲馬斯克的公司

人工智能是一種威脅?

在2017年8月,在Valve的Dota 2錦標賽中,一個新的頂級玩家出現(xiàn)在了在線游戲的世界。在一周的時間里,這名球員擊敗了包括世界冠軍在內的其他頂級球員,這是最艱難的在線比賽之一。這名人工智能玩家其實只打了6個月游戲。

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

▲馬斯克:OpenAI首次在電競中擊敗了世界上最優(yōu)秀的玩家。這比象棋和圍棋等傳統(tǒng)棋盤游戲要復雜得多

這條推文說明了了馬斯克和他的“非盈利的人工智能研究公司”O(jiān)penAI,就像谷歌與AlphaGo和Facebook的DarkForest一樣。但對于馬斯克和OpenAI來說,這并不是在玩游戲。這關于生命和死亡,以及人類的未來。就他看來,如果人工智能研究繼續(xù)沿著目前的道路走下去,人類就沒有未來。

人工智能現(xiàn)在是科技的核心組成部分,它不僅存在于一些很明顯的位置,比如Siri的自然語言處理、谷歌的RankBrain,它存在于幾乎所有的科技領域。

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

▲cb insights -- AI 100

人工智能研究正以顯著的速度向前發(fā)展,馬斯克認為這是對人類存在的一種威脅。谷歌、Facebook、亞馬遜、蘋果以及我們統(tǒng)計的AI 100的公司都在利用人工智能帶來好處:更高的效率、更高的生產(chǎn)力、更少的人類工作,以及最理想的人類生活 -- 縮減我們做煩瑣工作的時間,留下來更多時間去做更有趣、更有創(chuàng)意的事情。

但對這些好處的背后也隱藏著巨大的危機:如果存在一種超級智能的人工智能,它比人類聰明得多,那么是不是就會認為圍繞在它周圍的人類是無用的呢?

OpenAI的目的是為了加強人工智能研究。在人工智能上工作的公司自然是保密的。這是一項商業(yè)命令,所以,就算你可以閱讀來自DeepMind或Google Brain團隊,甚至是蘋果公司的機器學習研究報告,這些公司的具體人工智能應用還是對外界保密的。

OpenAI不僅想要進行研究,而且還想“占領元級,比如平臺和基礎設施,這樣就可以讓每個人都能更快地進行研究”。為了實現(xiàn)這一目標,該公司有兩個核心組成部分:

  • 研究:它吸引了很多業(yè)內最好的研究人員,并承諾他們有機會參與解決人工智能領域的一些重大問題。該組織定期發(fā)布自己的人工智能和機器學習研究報告。該團隊還在自己的網(wǎng)站上發(fā)布更多的想法。

  • 系統(tǒng):該團隊正在構建一個開源平臺,來幫助從事人工智能的研究人員更好的了解他們所在研究的機器。例如,該團隊建立了一個AI Gym,“一個用于研發(fā)和比較強化學習算法的工具包”,其中包括了各種環(huán)境,目前有模擬的機器人學任務、桌面游戲、多位數(shù)加法之類的計算任務等等。預期工具包中包含的環(huán)境將隨時間不斷增多,用戶也會將他們自己創(chuàng)建的環(huán)境加入到其中。這些環(huán)境都有一個通用交互界面,使用戶能夠編寫可以應用于許多不同環(huán)境的通用算法。

OpenAI解決人工智能安全問題

OpenAI的整體概念是將高質量的,谷歌、蘋果、 Facebook、 Amazon水平的AI研究開源化,沒有商業(yè)限制。正如該公司在其博客文章中所言,“因為我們的研究沒有財務責任,所以我們能更好地專注于AI對人類的積極影響?!?/p>

超級智能的AI真的是個問題嗎?這聽起來太科幻了,甚至對馬斯克來說也是如此。火星上的殖民地或自動駕駛是相對來說很容易的,而想象一個由人工智能引發(fā)的災難并不是一件容易的事。這就是為什么這一領域的其他人對馬斯克的擔憂持批評態(tài)度。機器學習的領導者Andrew Ng說,“擔心超過人的人工智能就像擔心火星上的人口過多一樣?!?/p>

但這是馬斯克的觀點。沒有人在考慮這個問題。相反,他們都過于關注人工智能的商業(yè)化。他們看不到潛在的問題。

這些問題有兩方面:

  • 人工智能會無意識地做有害的事情

  • 人工智能會故意做有害的事情

即使是目前的人工智能,第一個問題也值得擔憂。比如說我們造了一個人工智能清潔機器人。所有這些機器人想要做的就是確保這個世界盡可能的干凈。如果機器人只是想確保一切都是干凈的,那么它有一些選擇。第一種選擇是清理所有的混亂。這是我們想要的結果,也是人工智能開發(fā)人員所期待的結果。但這不是唯一的選擇。另一種可能性是,它將試圖從一開始就阻止可能出現(xiàn)混亂局面的可能性。人類導致了混亂?!叭绻麤]有人,就沒有混亂,所以讓我們清理所有人”,這增加了人工智能的效用,是解決人工智能問題的一個完全合理的解決方案。

這個人工智能安全研究是OpenAI的主要關注點。2016年,該公司共同撰寫了一篇研究論文,題為“人工智能安全的具體問題”。這篇論文指出了人工智能研究人員在推進任何類型人工智能的時候需要認真考慮的五個領域:

?避免負面的副作用。我們如何確保人工智能不會完全遵循它的編程?這樣它就有主見做一些事情來完成它的任務。

?避免賞金黑客。如果我們建立一種獎賞體制來獎勵做對人物的人工智能,那么人工智能可能僅僅是試圖擴大這種獎賞,而沒有實際行動,我們如何避免這一問題?

?可伸縮的失誤范圍。我們怎樣才能確保人工智能即使在訓練樣本很少的情況也能安全的訓練呢?比如清潔機器人會知道它要清理咖啡杯,但它如何學會不去“清理”放在桌上一夜的手機呢?

?安全探索。人工智能是否能探索可能的結果和訓練,而不會產(chǎn)生嚴重的后果 -- 比如,學習如何擦擦地板而不試圖拖出電源插座?

?對分布變化的堅固性。隨著數(shù)據(jù)或環(huán)境的變化,人工智能是否能繼續(xù)保持最佳狀態(tài)?如果清潔工人在辦公室里學會了打掃衛(wèi)生,那么清潔工人是否可以清理工廠的地板?

已經(jīng)有一些攻擊用于測試AI的極限。堅固性是弱人工智能的一個特別值得關注的問題。當你不在他們的舒適區(qū)進行測試時,他們的工作表現(xiàn)如何?答案是不太好。圖像識別機器學習算法經(jīng)常把對立的例子錯誤分類 -- 圖像中有特定的噪點被注入其中。

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

這是一個良性的例子。然而,不難想象這種行為可能被惡意利用。想象一下,在你的自動駕駛汽車上的AI的惡意對立式攻擊,如果在程序中將“停止標志”變成“綠燈”那將會出現(xiàn)什么后果。它可能比毀壞剎車片更致命,這是一種虛擬的攻擊,因此是高度可伸縮的。

人工智能安全的核心問題可以歸結為一個簡單的問題:我們如何確保人工智能和我們想要的東西是一樣的?OpenAI正試圖在這一領域研究。盡管它專注于這一領域,但它并不是單獨工作。GoogleBrain、斯坦福大學和加州大學伯克利分校的研究人員也在研究這一問題。

OpenAI解決超級智能問題

但是,由于超級智能并不是具體的問題,所以這一領域只有OpenAI。

這種擔憂背后的主要原因是人工智能的學習速度。贏得Dota2的機器人就是一個很好的例子。從4月份開始,它在每次迭代中都穩(wěn)步增加了它的能力。

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

這張圖測量了OpenAI的最好的機器人的TrueSkill等級 -- 類似于國際象棋中的“ELO”等級-- 這是該機器人與其他被訓練的OpenAI機器人的獲勝比率的總結。

人類需要學幾年的東西,人工智能的幾個月就能學會。DeepMind的AlphaZero最近在國際象棋領域取得的成功,進一步推進了這一過程。它學會了如何在數(shù)小時內就打敗最好的象棋計算機。

從隨機下棋開始,AlphaZero除了游戲規(guī)則之外沒有任何這個領域的知識,它在24小時內就完成了在國際象棋和日本棋局上的超人類水平的游戲,并且每一次都擊敗了世界冠軍的程序。

AI通過強化學習來學習。AI玩了成千上萬的游戲,從每一個游戲中不斷地學習。AlphaZero同時在5000個張量處理單元上運行,這是一種專門構建的處理單元,可以使用Google的TensorFlow框架來運行機器學習算法。每一個單元的學習被結合起來,創(chuàng)造出“一個超人類的游戲水平”。

這些仍然是弱人工智能。但是,通用人工智能(AGI),可以利用這些技術來輔助自己。人工智能已經(jīng)學會了自我發(fā)展。

“ 幾個月前,我們引入了AutoML項目,這是一種自動設計機器學習模型的方法…我們發(fā)現(xiàn)AutoML可以設計出與人類專家設計的神經(jīng)網(wǎng)絡相媲美的小型神經(jīng)網(wǎng)絡。”—— 谷歌研究博客

一個AGI可以測試數(shù)百萬個更新、更好的AGIs,從每個參數(shù)中挑選最好的參數(shù),并將它們組合起來,使它立即變得更智能。然后,更智能的AGI就會重新開始這個過程。這是加速回報的法則。未來正在加速。學得越快的AI就發(fā)展得越快。

馬斯克的觀點是,我們是棋盤上的皇帝。直到事情結束,我們才會意識到我們的錯誤。前一分鐘我們還是這個星球上的最高生物,下一分鐘我們就可能被超越了。在幾秒鐘內,人工智能就大大超越了我們的能力。人類沒有回頭路可走。我們變成了至高無上的人工智能腳下的螞蟻。

對于OpenAI,該計劃的目標是讓公眾充分意識到人工智能所能代表的威脅,從而使它能夠主動地受到監(jiān)管和控制。然而,OpenAI并不是馬斯克在這場大火中唯一的武器。他還投資了一種對沖基金,讓人類將自己從人工智能中拯救出來,像是一種對于人類未來的保險。

它被稱為Neuralink,它的想法是在我們被取代之前,對人類進行數(shù)字化的增強。

信息來源:cb insights


關注【AI商業(yè)報道】,回復【2017白皮書】,可獲得干貨《2017人工智能產(chǎn)業(yè)發(fā)展白皮書》!

馬斯克的人工智能未來保衛(wèi)戰(zhàn)

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2018-02-08
馬斯克的人工智能未來保衛(wèi)戰(zhàn)
2月7日,重型獵鷹火箭運載火箭發(fā)射成功,新的人類最強現(xiàn)役運載火箭就此誕生。

長按掃碼 閱讀全文