新聞重點(diǎn):
·通過(guò)Arm計(jì)算平臺(tái)與ExecuTorch框架的結(jié)合,使得更小、更優(yōu)化的模型能夠在邊緣側(cè)運(yùn)行,加速邊緣側(cè)生成式AI的實(shí)現(xiàn)
·新的Llama量化模型適用于基于Arm平臺(tái)的端側(cè)和邊緣側(cè)AI應(yīng)用,可減少內(nèi)存占用,提高精度、性能和可移植性
·全球2,000萬(wàn)名Arm開發(fā)者能夠更迅速地在數(shù)十億臺(tái)邊緣側(cè)設(shè)備上大規(guī)模開發(fā)和部署更多的智能AI應(yīng)用
Arm正在與Meta公司的PyTorch團(tuán)隊(duì)攜手合作,共同推進(jìn)新的ExecuTorch測(cè)試版(Beta)上線,旨在為全球數(shù)十億邊緣側(cè)設(shè)備和數(shù)百萬(wàn)開發(fā)者提供人工智能(AI)和機(jī)器學(xué)習(xí)(ML)功能,進(jìn)而確保AI真正的潛力能被最廣泛的設(shè)備和開發(fā)者所使用。
借助ExecuTorch和新的Llama量化模型,Arm計(jì)算平臺(tái)優(yōu)化生成式AI性能
Arm計(jì)算平臺(tái)無(wú)處不在,為全球眾多邊緣側(cè)設(shè)備提供支持,而ExecuTorch則是專為移動(dòng)和邊緣側(cè)設(shè)備部署AI模型而設(shè)計(jì)的PyTorch原生部署框架。兩者的緊密合作,使開發(fā)者能夠賦能更小、更優(yōu)化的模型,包括新的Llama 3.2 1B和3B量化模型。這些新模型可以減少內(nèi)存占用、提高準(zhǔn)確性、增強(qiáng)性能和提供可移植性,成為小型設(shè)備上的生成式AI應(yīng)用的理想選擇,如虛擬聊天機(jī)器人、文本摘要和AI助手。
開發(fā)者無(wú)需額外的修改或優(yōu)化,便可將新的量化模型無(wú)縫集成到應(yīng)用中,從而節(jié)省時(shí)間和資源。如此一來(lái),他們能夠迅速在廣泛的Arm設(shè)備上大規(guī)模開發(fā)和部署更多的智能AI應(yīng)用。
隨著Llama 3.2大語(yǔ)言模型(LLM)新版本的發(fā)布,Arm正在通過(guò)ExecuTorch框架優(yōu)化AI性能,使得在Arm計(jì)算平臺(tái)邊緣設(shè)備運(yùn)行的真實(shí)生成式AI工作負(fù)載能更為快速。在ExecuTorch測(cè)試版發(fā)布的首日起,開發(fā)者便能享有這些性能的提升。
集成KleidiAI,加速端側(cè)生成式AI的實(shí)現(xiàn)
在移動(dòng)領(lǐng)域,Arm與ExecuTorch的合作意味著眾多生成式AI應(yīng)用,如虛擬聊天機(jī)器人、文本生成和摘要、實(shí)時(shí)語(yǔ)音和虛擬助手等,完全能夠在搭載Arm CPU的設(shè)備上以更高的性能運(yùn)行。這一成果得益于KleidiAI,它引入了針對(duì)4位量化優(yōu)化的微內(nèi)核,并通過(guò)XNNPACK集成到了ExecuTorch中,因此,在Arm計(jì)算平臺(tái)上運(yùn)行4位量化的LLM時(shí),無(wú)縫加速AI工作負(fù)載的執(zhí)行。例如,通過(guò)KleidiAI的集成,Llama 3.2 1B量化模型預(yù)填充階段的執(zhí)行速度可以提高20%,使得一些基于Arm架構(gòu)的移動(dòng)設(shè)備上的文本生成速度超過(guò)了每秒400個(gè)詞元(token)。這意味著,終端用戶將從他們移動(dòng)設(shè)備上獲得更快速、響應(yīng)更靈敏的AI體驗(yàn)。
了解更多Arm在移動(dòng)市場(chǎng)對(duì)ExecuTorch的支持,請(qǐng)查閱博客文章。
為物聯(lián)網(wǎng)的邊緣側(cè)AI應(yīng)用加速實(shí)時(shí)處理能力
在物聯(lián)網(wǎng)領(lǐng)域,ExecuTorch將提高邊緣側(cè)AI應(yīng)用的實(shí)時(shí)處理能力,包括智能家電、可穿戴設(shè)備以及自動(dòng)零售系統(tǒng)等。這意味著物聯(lián)網(wǎng)設(shè)備和應(yīng)用能夠以毫秒級(jí)的速度響應(yīng)環(huán)境變化,這對(duì)保障安全性和功能可用性至關(guān)重要。
ExecuTorch可在Arm® Cortex®-A CPU和Ethos™-U NPU上運(yùn)行,以加速邊緣側(cè)AI應(yīng)用的開發(fā)和部署。事實(shí)上,通過(guò)將ExecuTorch與Arm Corstone™-320參考平臺(tái)(也可作為仿真固定虛擬平臺(tái)(FVP)使用)、Arm Ethos-U85 NPU驅(qū)動(dòng)程序和編譯器支持集成到一個(gè)軟件包中,開發(fā)者可在平臺(tái)上市前幾個(gè)月就著手開發(fā)邊緣側(cè)AI應(yīng)用。
了解更多Arm在物聯(lián)網(wǎng)領(lǐng)域?qū)xecuTorch的支持,請(qǐng)查閱博客文章。
更易獲取、更快捷的邊緣側(cè)AI開發(fā)體驗(yàn)
ExecuTorch有潛力成為全球最受歡迎的高效AI和ML開發(fā)框架之一。通過(guò)將應(yīng)用最廣泛的Arm計(jì)算平臺(tái)與ExecuTorch相結(jié)合,Arm正在通過(guò)新的量化模型加速AI的普及,讓開發(fā)者能夠更快地在更多設(shè)備上部署應(yīng)用,并將更多生成式AI體驗(yàn)引入邊緣側(cè)。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )