極客網(wǎng)·極客觀察2月24日 銀行機構(gòu)通常會在客戶使用銀行卡時了解和跟蹤他們的交易行為。例如某人去瑞典度假,他可以通過信用卡支付款項而不用攜帶現(xiàn)金。然而一旦別人盜用,發(fā)放信用卡的銀行無法決定阻止實施的交易。畢竟,在刷卡記錄中并沒有什么證據(jù)表明是他人盜用。
銀行的機器學習算法每天都會做出數(shù)十億個此類決策。這在計算機科學中被稱為“平均分類問題”,這些模型必須決定交易是否符合客戶的正常購買行為。對于傳統(tǒng)的機器學習算法來說,這個問題主要通過消費者的支付歷史和與銀行其他交互信息來畫像解決,是一個計算密集且不完善的過程。
位列科技前沿的量子機器學習算法是否已經(jīng)準備好投入這樣的實際應用?行業(yè)專家對這一問題的答案存在分歧。
量子機器學習什么時候到來?
IBM杰出工程師、英國皇家工程院院士Richard Hopkins解釋說,還有一種選擇可能是使用量子機器學習算法。
他指出,傳統(tǒng)機器學習模型需要大量時間和資源的訓練來識別和權(quán)衡一筆交易的所有不同特征,以判斷交易是否可疑。相比之下,量子機器學習模型利用量子比特的疊加來同時觀察這些特征,因此有能力更快地找出解決非常困難的分類問題的答案。
在Hopkins看來,雖然量子機器學習領(lǐng)域目前仍處于實驗階段,但人們可能只需要5年時間就會看到量子機器學習算法在欺詐檢測、藥物研發(fā)和計算機視覺等各個領(lǐng)域的應用。
但并不是所有的專家都認同這個觀點。量子初創(chuàng)公司Xanadu研究員、《量子計算機的機器學習》一書合著者Maria Schuld博士認為,從長遠來看,量子機器學習無疑具有巨大的發(fā)展?jié)摿?,但實現(xiàn)量子計算的實際應用目前看起來還很遙遠。
她說,“我們是科學家,通常為我們研究的科學進行商業(yè)論證。這樣做并不是因為知道這將會奏效,而是希望能有一些令人興奮的結(jié)果。”
量子機器學習還處于試驗階段
量子機器學習是一個相對較新的領(lǐng)域。雖然從上世紀90年代中期開始就有關(guān)于這一主題的研究論文公開發(fā)表,但在過去五六年,量子機器學習才真正開始吸引科學界的注意力。
Schuld介紹,量子機器學習有兩個廣泛的研究領(lǐng)域,一是使用量子計算機來加速傳統(tǒng)的機器學習算法,例如吉布斯(Gibbs)采樣器;另一個是使用量子計算機作為模型,特別是使用量子芯片本身作為基礎,以類似于傳統(tǒng)神經(jīng)網(wǎng)絡的方式訓練模型。
即便如此,這一領(lǐng)域整體上仍處于高度實驗性階段。她解釋說,雖然在某些情況下,機器學習算法可以證明比傳統(tǒng)算法具有“量子優(yōu)勢”,但還需要一段時間才能憧憬它們在現(xiàn)實世界中的應用。
這一點被多個研究中關(guān)于量子機器學習的積極性所掩蓋,這些研究通常是在單一的、狹窄的用例中獲得了量子優(yōu)勢的前提下發(fā)表的。為此Schuld指出,“從學術(shù)角度來看,這很有趣,但對量子計算可能的應用并沒有太多說明。畢竟,這些研究中解決的許多問題都是經(jīng)過精心編碼才能在量子計算機上工作。換句話說,他們只擅長通過一臺量子計算機以非常具體的方式解決非常具體的問題?!?/p>
對于傳統(tǒng)的機器學習技術(shù)來說,這并不是一個難題,其中許多技術(shù)都具有可推廣到更多問題的優(yōu)點。相反,量子機器學習研究人員仍然很難將一種方法適用于一系列任務。為此Schuld明確指出,現(xiàn)在還沒有到利用量子芯片作為新的機器學習模型基礎的時候。
量子機器學習需要在現(xiàn)實中證明自己
盡管量子計算研究人員一致認為,在特定情況下,量子機器學習的性能遠遠優(yōu)于傳統(tǒng)機器學習,但專家對前者的實際應用會多久出現(xiàn)存在分歧。
Hopkins承認,該領(lǐng)域仍然缺乏將問題映射到算法并生成解決方案的通用模板,這也是傳統(tǒng)機器學習曾經(jīng)面臨的問題,但是一旦做到了,那么利用這項技術(shù)就變得非常容易。
“量子計算機允許用戶基于更高維度數(shù)據(jù)集做出更好、更準確的決策。我們已經(jīng)在理論上證明了這一點,在實驗室里也證明了這一點,我們越來越接近于在現(xiàn)實中證明這一點?!彼硎?。
但是量子機器學習模型為此準備好了嗎??Schuld認為并沒有。她表示,“在底層硬件改進之前,我們不知道是否會有量子機器學習算法能夠解決大量實際問題。除非我們擁有了沒有錯誤的機器,否則使用量子機器學習實際完成的任務是有限的。就實際應用而言,這有點令人遺憾?!?/p>
Hopkins對此雖不認同,但也承認人們不太可能很快就能看到一臺量子計算機能夠訓練ChatGPT型模型。他說:“不可能在只有433個量子比特的量子計算機上實現(xiàn)這一點,但我們每年都在取得進展,以擴大可能進行的量子機器學習實驗的數(shù)量。人們將逐漸看到量子機器學習模型變得更加通用?!?/p>
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長
- MIT想用AI設計電動汽車,大幅縮短設計時間并節(jié)省成本
- 美媒:一些中國大模型已經(jīng)追平甚至超越美國產(chǎn)品
- 透過這場開發(fā)者圈的“年度盛典”,窺見華為開發(fā)者生態(tài)構(gòu)建之道
- 谷歌Willow量子芯片有進步 但離實用還很遙遠
- LLM很難變成AGI?科學家:創(chuàng)造AGI理論上可行
- PON在園區(qū)網(wǎng)絡的“先天不足”,無源以太全光來拯救!
- 英特爾CEO黯然退場背后:芯片制造陷泥潭,AI起大早趕晚集
- 開源5年樹立新里程 openEuler以智能 致世界
- 華為推出Mate 70手機引發(fā)高度關(guān)注 看外媒是如何評價的?
- 5G-A終端規(guī)模鋪開響應“以舊換新”,湖北移動“機網(wǎng)套”協(xié)同刺激內(nèi)需
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。