聽(tīng)音識(shí)圖?DeepMindAI產(chǎn)生圖、音概念并識(shí)別關(guān)聯(lián)

【網(wǎng)易智能訊 8月15日消息】對(duì)于一個(gè)未經(jīng)訓(xùn)練的人工智能來(lái)說(shuō),世界不過(guò)是一個(gè)模糊的數(shù)據(jù)流。大多數(shù)人類都可以無(wú)障礙地理解周?chē)漠?huà)面和聲音,但只有這些畫(huà)面和聲音被明確地標(biāo)記出來(lái),算法才能掌握這一技能。

如今,人工智能公司DeepMind開(kāi)發(fā)了一種新的AI技術(shù),通過(guò)讓其觀察短小的視頻片段,AI就能學(xué)會(huì)一系列視覺(jué)和聽(tīng)覺(jué)的概念并將其識(shí)別區(qū)分。例如,這種人工智能可以理解草坪修剪或撓癢癢的概念,但它還沒(méi)有掌握如何用語(yǔ)言來(lái)描述它感受到的畫(huà)面或聲音。

對(duì)此,加州大學(xué)伯克利分校教授皮利特·阿格拉沃爾說(shuō):“我們想要制造一種機(jī)器,它能以自主的方式不斷從自身所處的環(huán)境中學(xué)習(xí)進(jìn)步。”阿格拉沃爾說(shuō),這個(gè)項(xiàng)目讓我們更接近創(chuàng)造真正人工智能的目標(biāo),通過(guò)自學(xué)來(lái)觀察和傾聽(tīng)周?chē)氖澜纭?/p>

大多數(shù)計(jì)算機(jī)視覺(jué)算法需要輸入大量的標(biāo)簽圖像,這樣它就能區(qū)分不同的物體。通過(guò)展示成千上萬(wàn)張貓咪的照片,它很快就能學(xué)會(huì)識(shí)別貓,即使是之前從未見(jiàn)過(guò)的圖片。

但DeepMind的項(xiàng)目負(fù)責(zé)人ReljaArandjelovic表示,這種被稱為“監(jiān)督學(xué)習(xí)”的教學(xué)算法是不可擴(kuò)展的。它的算法不再依賴于人標(biāo)記的數(shù)據(jù)集,而是通過(guò)將所看到的與所聽(tīng)到的內(nèi)容相匹配,從而學(xué)會(huì)識(shí)別圖像和聲音。

聽(tīng)音識(shí)圖?DeepMindAI產(chǎn)生圖、音概念并識(shí)別關(guān)聯(lián)

像人一樣學(xué)習(xí)

“人類尤其擅長(zhǎng)這種學(xué)習(xí),”瑞士伯爾尼大學(xué)的教授保羅·法瓦羅說(shuō)道。他說(shuō):“我們身邊可沒(méi)有人到處跟著我們,告訴我們一切都是什么。”

據(jù)悉,他是通過(guò)兩個(gè)網(wǎng)絡(luò)來(lái)創(chuàng)建算法的:一個(gè)專門(mén)識(shí)別圖像的網(wǎng)絡(luò),以及一個(gè)識(shí)別音頻的網(wǎng)絡(luò)。他展示了從短片中截取的圖像識(shí)別網(wǎng)絡(luò),而音頻識(shí)別網(wǎng)絡(luò)則從每段視頻中截取的1秒的音頻片段中進(jìn)行了訓(xùn)練。

第三個(gè)網(wǎng)絡(luò)將靜態(tài)圖像與音頻片段進(jìn)行對(duì)比,以了解視頻中哪些聲音與哪些視頻中的圖像相符合??傊?,這個(gè)系統(tǒng)是經(jīng)過(guò)40萬(wàn)個(gè)視頻中截取的6000萬(wàn)個(gè)靜態(tài)音頻訓(xùn)練的。

該算法學(xué)會(huì)了在沒(méi)有單一概念的特定標(biāo)簽的情況下,如何識(shí)別音頻和視覺(jué)概念,包括人群、踢踏舞和水。舉個(gè)例子,當(dāng)你看到某人拍的照片時(shí),大多數(shù)時(shí)候它知道哪個(gè)聲音與哪個(gè)圖像有關(guān)。

視覺(jué)與聽(tīng)覺(jué)

聽(tīng)音識(shí)圖?DeepMindAI產(chǎn)生圖、音概念并識(shí)別關(guān)聯(lián)

“這種合作學(xué)習(xí)方法還可以延伸到除了視覺(jué)和聽(tīng)覺(jué)之外的感官,”他說(shuō)。“比如,同時(shí)學(xué)習(xí)視覺(jué)和觸覺(jué)功能,可以讓人工智能在黑暗中搜索物體,并學(xué)習(xí)諸如摩擦力等物體屬性。”

消息稱,DeepMind將在10月下旬在意大利威尼斯召開(kāi)的計(jì)算機(jī)視覺(jué)國(guó)際會(huì)議上展示這項(xiàng)研究。

雖然DeepMind項(xiàng)目中的人工智能與現(xiàn)實(shí)世界沒(méi)有互動(dòng),但研究人員表示,完善自我監(jiān)督學(xué)習(xí)最終會(huì)讓我們創(chuàng)造出能夠在現(xiàn)實(shí)世界中運(yùn)行的人工智能,并從它所看到和聽(tīng)到的東西中學(xué)習(xí)。

但在我們達(dá)到這一目標(biāo)之前,自我監(jiān)督式學(xué)習(xí)可能是一種很好的方式,這樣可以訓(xùn)練圖像和音頻識(shí)別算法,而無(wú)需輸入大量人類標(biāo)記的數(shù)據(jù)。DeepMind的算法可以將80%的音頻剪輯按照時(shí)間的順序正確地歸類,這使得它在音頻識(shí)別方面比許多在標(biāo)簽數(shù)據(jù)上訓(xùn)練的算法更出色。這些可喜可賀的成果表明,類似的算法或許能夠通過(guò)分析YouTube上數(shù)百萬(wàn)個(gè)在線視頻等海量未標(biāo)記的數(shù)據(jù)集來(lái)學(xué)習(xí)更多的知識(shí)。“世界上的大多數(shù)數(shù)據(jù)都沒(méi)有被標(biāo)記出來(lái),因此開(kāi)發(fā)從未標(biāo)記的數(shù)據(jù)中學(xué)習(xí)的系統(tǒng)是有意義的,”阿格拉沃爾教授這樣說(shuō)道。(選自:newscientist作者:MattReynolds 編譯:網(wǎng)易見(jiàn)外智能編譯平臺(tái)審校:姜啟航)

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

2017-08-15
聽(tīng)音識(shí)圖?DeepMindAI產(chǎn)生圖、音概念并識(shí)別關(guān)聯(lián)
對(duì)于一個(gè)未經(jīng)訓(xùn)練的人工智能來(lái)說(shuō),世界不過(guò)是一個(gè)模糊的數(shù)據(jù)流。如今,人工智能公司DeepMind開(kāi)發(fā)了一種新的AI技術(shù),通過(guò)讓其觀察短小的視頻片段,AI就能學(xué)會(huì)一

長(zhǎng)按掃碼 閱讀全文