“過去24個月,AI行業(yè)的最大變化是什么?是大模型基本消除了幻覺?!?1月12日,百度創(chuàng)始人李彥宏在百度世界2024大會上,發(fā)表了主題為《應(yīng)用來了》的演講,發(fā)布兩大賦能應(yīng)用的AI技術(shù):檢索增強的文生圖技術(shù)(iRAG)和無代碼工具“秒噠”。文心iRAG用于解決大模型在圖片生成上的幻覺問題,極大提升實用性;無代碼技術(shù)“秒噠”讓每個人都擁有程序員的能力,將打造數(shù)百萬“超級有用”的應(yīng)用。
截至11月初,百度文心大模型的日均調(diào)用量超15億,相較5月披露的2億,增長7.5倍,相較一年前首次披露的5000萬次,更是增長約30倍。李彥宏表示“這個增速超出預(yù)期”,說明AI是真需求。他感慨,這條陡峭的增長曲線,代表著過去兩年中國大模型應(yīng)用的爆發(fā)。
在AI應(yīng)用的發(fā)展趨勢上,李彥宏表示,智能體是AI應(yīng)用的最主流形態(tài),即將迎來爆發(fā)點。他依次講解了公司、角色、工具和行業(yè)四大類智能體,將做智能體類比為PC時代做網(wǎng)站、或是移動時代做自媒體賬號,“不同之處是智能體更像人、更智能,更像你的銷售、客服和助理。智能體可能會變成AI原生時代,內(nèi)容、信息和服務(wù)的新載體?!?/p>
演講中,他還展示了文心智能體平臺TOP100智能體和TOP100產(chǎn)業(yè)應(yīng)用,并表明 “百度不是要推出一個‘超級應(yīng)用’,是要幫助更多人、更多企業(yè)打造出數(shù)百萬‘超級有用’的應(yīng)用”。當天發(fā)布的無代碼工具“秒噠”,具備無代碼編程、多智能體協(xié)作和多工具調(diào)用三大特性,用自然語言就能搭建一整套系統(tǒng),將開啟一個“只靠想法就能賺錢的時代”。
解決圖片生成幻覺 文心iRAG發(fā)布
幻覺問題是大模型廣泛應(yīng)用的最大限制之一,而解決文本生成幻覺問題背后的技術(shù)就是RAG,即檢索增強?;仡欉^去兩年,李彥宏認為,檢索增強生成(RAG)從百度特色,逐漸發(fā)展成為了行業(yè)共識。目前,文字層面的RAG已經(jīng)做得很好,基本讓大模型消除了幻覺;但在圖像等多模態(tài)方面,和RAG的結(jié)合還不夠,這也是百度希望重點突破的方向。
目前,基于大語言模型的文生圖還有比較嚴重的幻覺,尤其是針對長城、東方明珠、金字塔、愛因斯坦、貝多芬等特定地點、物品和人物,常常會出現(xiàn)張冠李戴的幻覺問題,讓生成的圖片“一眼假”,極大地影響了AI的實用性。
針對上述問題,百度開發(fā)了檢索增強的文生圖技術(shù)iRAG(image based RAG),將百度搜索的億級圖片資源跟強大的基礎(chǔ)模型能力相結(jié)合,可以生成各種超真實的圖片,“整體效果遠遠超過文生圖原生系統(tǒng),去除了機器味兒”。
李彥宏現(xiàn)場展示了一幅由文心大模型生成的大眾攬巡汽車飛躍長城的圖片。通過文心iRAG技術(shù),無論是這款特定型號汽車的車型車標、還是作為背景的長城,均未出現(xiàn)錯誤或變形的幻覺問題。同時展示的“愛因斯坦環(huán)游世界”圖片中,愛因斯坦和各個背景景點的結(jié)合也與真實世界高度相似,質(zhì)感接近照片。
iRAG技術(shù)極大地提高了AI生成圖片的可用性。比如在品牌宣傳上,以前拍一組海報動輒大幾十萬,但現(xiàn)在的創(chuàng)作成本接近于0。簡單而言,文心iRAG的商業(yè)價值體現(xiàn)在:無幻覺、超真實、沒成本,立等可取。此外,在影視作品、漫畫作品、連續(xù)畫本、海報制作等應(yīng)用場景中,iRAG都可以大幅降低創(chuàng)作成本。
消除大模型的幻覺,也是AI應(yīng)用爆發(fā)的基礎(chǔ)。在李彥宏看來,今天,基礎(chǔ)大模型能力就緒,即將迎來AI應(yīng)用的群星閃耀時刻。
智能體是下一個應(yīng)用爆發(fā)點
“今天,全球所有頂尖科技公司都在關(guān)注智能體,但像百度這樣把智能體作為最重要戰(zhàn)略方向的公司并不多。”李彥宏表示,就像PC時代的網(wǎng)站、移動時代的自媒體賬號,在AI原生時代,智能體將成為內(nèi)容、服務(wù)和信息的新載體。
他以公司類智能體舉例,在傳統(tǒng)的PC官網(wǎng)模式下,企業(yè)只能靜態(tài)地展示公司介紹、產(chǎn)品參數(shù),但缺失主動推薦、及時響應(yīng)和一對一服務(wù)能力;而公司智能體則可以根據(jù)顧客的需求推薦相應(yīng)產(chǎn)品,在服務(wù)方面,也能更直接、快速地響應(yīng)需求,能大幅地提升互動營銷的效率。比亞迪的官方智能體上線后,銷售轉(zhuǎn)化率提升119%,聯(lián)想AIPC智能體的9月互動率提升89%。
此外,李彥宏展示了角色、工具和行業(yè)等多類智能體的特色功能及使用場景。例如百度文庫和百度網(wǎng)盤聯(lián)合打造的工具類智能體“自由畫布”,讓用戶可以在一塊類似“畫布”的界面上自由拖拽文檔、音視頻等富媒體素材,迅速生成多模態(tài)內(nèi)容。再比如,法律智能體“法行寶”,已回答用戶1660萬個法律問題,不僅能像專業(yè)律師一樣給出解答,還能計算法律賠償金額、撰寫法律文書,并推薦適配律師。
“智能體是AI應(yīng)用的最主流形態(tài),即將迎來它的爆發(fā)點?!痹诶顝┖昕磥恚悄荏w的門檻低、天花板高,既能讓人人都上手,又能做出復(fù)雜強大的應(yīng)用。當天,他展示了文心智能體平臺的TOP100智能體,既有農(nóng)民院士智能體等角色類,也有工具、行業(yè)、職場、情感、娛樂等各類場景的智能體。目前,文心智能體平臺已吸引了15萬家企業(yè)和80萬名開發(fā)者。
無代碼“秒噠” 打造數(shù)百萬“超級有用”的應(yīng)用
演講結(jié)尾,李彥宏帶來了當天的One More Thing——無代碼工具“秒噠”,一款不需要寫代碼就能實現(xiàn)任意想法的軟件,涵蓋無代碼編程、多智能體協(xié)作以及多工具調(diào)用等特點,只需說說話,就能構(gòu)建出各種應(yīng)用。它可以幫助更多人、更多企業(yè)打造出數(shù)百萬“超級有用”的應(yīng)用。
他介紹說,無代碼編程,由大模型直接生成代碼,不需要人寫一行代碼。它門檻很低,人人可上手;多智能體協(xié)作,是基于文心大模型的思考和規(guī)劃能力,實現(xiàn)對不同智能體的調(diào)度和編排;多工具調(diào)用,是通過文心大模型的工具調(diào)用能力,可調(diào)用網(wǎng)頁檢索、iRAG、地圖API等各類型工具。
演講現(xiàn)場,李彥宏以蘿卜快跑新技術(shù)發(fā)布會為例,展示了活動報名系統(tǒng)的搭建過程:只要在“秒噠”上用中文描述需求,并補充一份帶有大會時間地點主題的文檔,就可以指揮多個智能體協(xié)作,完成報名系統(tǒng)的開發(fā)。
就像工作場景中的團隊合作一樣,在現(xiàn)場演示的“秒噠”開發(fā)過程中,小組長、策劃、小編、程序員和質(zhì)檢員五個智能體互相協(xié)作,協(xié)同完成策劃、內(nèi)容和開發(fā)等各種工作,還能自動識別bug、調(diào)用各種工具。李彥宏表示,這是“迄今為止人類歷史上最復(fù)雜的多智能體協(xié)作工具”。
“一個人通過自然語言交互,就可以完成一套系統(tǒng)的搭建,除了上面展示的邀請系統(tǒng),還可以做任意場景下的各種應(yīng)用,應(yīng)用的復(fù)雜度也會隨著我們技術(shù)的提升不斷提升?!崩顝┖昕偨Y(jié)說,這意味著每個人自己就能指揮多個智能體來協(xié)同完成任務(wù),“只要有想法,你就可以心想事成,我們將迎來一個前所未有的,只靠想法就能賺錢的時代。”
在他看來,無代碼的秒噠讓每個人都具備程序員的能力,會說話就能做出應(yīng)用,極大提升了人類的工作效率?!癆I之所以被稱為產(chǎn)業(yè)革命級的機會,就是因為它對社會經(jīng)濟,帶來了生產(chǎn)力的無限擴張?!?/p>
免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長
- 美國無人機禁令升級?當?shù)乜茖W(xué)家率先“喊疼”:我們離不開大疆
- iQOO Neo10 Pro:性能特長之外,亦有全能實力
- 自動駕駛第一股的轉(zhuǎn)型迷途:圖森未來賭上了AIGC
- 明星熱劇、品牌種草、平臺資源,京東讓芬騰雙11的熱度“沸騰”了
- 一加 Ace 5 Pro明牌:游戲手機看它就夠了!
- 游戲體驗天花板,一加 Ace 5 系列售價 2299 元起
- 16個月沒工資不敢離職,這些打工人“自費上班”
- 怎樣利用微信小店“送禮”功能賺錢?
- 鴻蒙智行問界M9,中國豪華車的龍門一躍
- 科技云報道:人工智能時代“三大件”:生成式AI、數(shù)據(jù)、云服務(wù)
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。