新華社記者熊爭艷、王辰陽
上海白領劉先生,坐上他的汽車主駕,向右扭頭說:“打開那窗戶?!痹捯魟偮?,副駕駛的車窗自動開了。
這輛車搭載了基于國產AI大模型的智能系統,就像有了人的大腦和神經網絡,通過學習提升語音、視覺等多模態感知能力,在座艙里提供更人性化的交互,智能駕駛方面計算更精準,越來越像“老司機”開車。
當國產AI大模型開始加速“上車”,人工智能正以更加觸手可及的方式走進現實生活。
會思考的多功能助手
人們在世界設計之都大會上參觀極越汽車(2023年9月30日攝)。新華社記者 王翔 攝
“汽車是一個終端,承載大量先進技術,先是電動化,現在是智能化,以后還要和整個社會交通體系聯起來。”哪吒汽車創始人方運舟說。
“有一段時間,車的智能化體現為一個個App,你問它答?,F在我們的車搭載360智腦大模型,開始會思考了,與人交互更自然,識別車內外的人與物更準確,增強自動駕駛系統的效率和安全。這是初步探索,以后是強大的多功能助手?!睂W習并研究汽車技術30年的方運舟說。
“車會思考”怎么體現?
方運舟舉例,以前司機要對語音助手提出明確指令,如“打開空調”。AI大模型接入車內語音助手后,司機只需要說:“我有點冷”。大模型會像人一樣考慮如何滿足司機的需求,執行多個動作,如關上車窗、把空調調到司機習慣的溫度、風力調至常用的檔位等。
在2023上海車展上,參觀者在哪吒GT展車邊駐足觀看(2023年4月25日攝)。新華社記者 王翔 攝
“車會思考”背后是什么?
中科院院士姚期智表示,大模型在技術上可分為通用、行業、場景三類。大模型的通用智能必須細化到各個行業,給它投喂行業中的專業數據,通過訓練形成場景化、定制化、個性化,產生專有的模型,才能給各垂直領域帶來AI革命,關鍵是算力、數據和模型的匹配。
賽迪智庫未來產業研究中心人工智能研究室主任鐘新龍說,以前的人工智能是規則驅動,大模型則是數據驅動,數據決定模型的質量,影響泛化能力?!胺夯褪菍W習并理解數據中隱含的規律,進而能夠對未曾見過的數據給出恰當的輸出,就像舉一反三、學以致用?!?/p>
國家網信辦4月發布的公告顯示,我國已有117個大模型完成生成式人工智能服務備案。
記者梳理發現,目前“上車”的大模型,既有華為的盤古、百度的文心一言、科大訊飛的星火、360的智腦等科技企業的通用大模型,也有比亞迪的璇璣、小鵬的靈犀等車企自研的行業大模型。從終端看,已有超過10個品牌的汽車搭載大模型。
云端和車端協同工作
工作人員在廣東肇慶小鵬汽車智能網聯科技產業園內總裝車間查看即將下線的整車(2023年10月9日攝)。新華社記者 鄧華 攝
大模型賦能汽車是不斷深入的過程,目前集中體現在智能座艙和智能駕駛上。
極越汽車座艙里,有塊35.6英寸的一體屏幕。司機劉先生說,因為文心一言大模型的支持,屏幕顯示的各種應用“可見即可說,可說即可做”。記者看到這樣的對話場景:
司機:“Simo,我還有多久能到家?”
大模型:“1小時?!?/p>
司機:“在我到家前30分鐘,打開家里的空調、拉上窗簾。”
大模型:“好的。”
司機不需要操作車里或手機上任何按鍵,通過Simo智能語音系統控制車內一切,還可通過屏幕上的小度App,遠程控制家中電器。即使出現多人指令、聲音交織、連續對話等情況,大模型也可理解每人不同的需求,滿足不同的操作指令。極越首席執行官夏一平表示,極越車主目前對智能語音系統的使用率達98%,平均每人每天用60多次。
“以前的語音識別需要在云端解析數據,再下載到車端,現在全部的語音識別都是離線,這樣反應快,而且哪怕沒網絡,也不影響開車?!毕囊黄秸f。
這得益于大模型在云端和車端的協同工作。鐘新龍說,云端大模型的參數規模大、算力強,完成大量數據標注、數據融合等任務,降低成本和錯誤率;車端大模型的參數量小一些,無需聯網也有算力,節省車端計算的推理時間,即使云與車端通訊有時延,也能確保安全。
“我們已把大模型應用到整車智能,垂直整合所有場景應用。”比亞迪集團董事長王傳福表示,智能化架構有一個“中央大腦”,車端AI和云端AI,車聯網、5G網、衛星網,及傳感鏈、控制鏈、數據鏈、機械鏈,實時捕捉內外部環境的變化,在毫秒間將信息匯總反饋到“大腦”思考決策,調節車輛“身體”狀態,提升駕乘安全性和舒適性。
學習能力迭代加速
展望大模型“上車”的發展前景,百度創始人李彥宏表示,隨著技術的進步,汽車機器人將實現每天開“新版本”的體驗,就如同購買新車一樣,給用戶帶來持續的驚喜。
自動駕駛的迭代速度將加快。專家普遍認為,大模型可重構自動駕駛技術架構、合成模擬場景數據、預測安全風險,加快自動駕駛技術開發和應用落地。
在大模型出現前,自動駕駛是靠任務驅動,即程序員依據特定的場景,編寫解決方案的代碼,當車輛在行駛中感知到相應情況,便按照之前設定的方式處理。
“有了大模型后,我們發現有巨大的機會讓原來特別多的泛化代碼變成簡單的端到端的模型,使感知、行為、控制在很多領域比我們想象的聰明很多,比如讀懂‘前方ETC即將維修,請換道’等標識?!毙※i汽車創始人何小鵬說,以前小鵬智駕系統每一季度更新一次,現在平均每天有3.87個版本快速迭代。
這是在第21屆廣州國際汽車展覽會上拍攝的小鵬展臺的飛行汽車(2023年11月17日攝)。新華社記者 鄧華 攝
未來,基于數據驅動的大模型端到端自動駕駛,可通過單個神經網絡完成所有模塊任務。中國工程院院士張亞勤表示,通過視頻大模型,可根據環境、交通標志要素,結合車輛的控制、轉向等駕駛行為生成大量可控視頻,用于端到端自動駕駛的訓練、測試,解決自動駕駛長尾場景數據積累問題。
大模型可整合座艙分散功能,提供類人理解能力的人機交互體驗。商湯科技首席科學家王曉剛認為,大模型“上車”后能將座艙各單點AI功能組合起來,自動調用座艙軟硬件資源,多模態大模型能夠實現人與車的多感官交互,顯著提升交互順暢性、自然性。
“大模型‘上車’,現在帶來了從0到1的變化,未來會實現從1到100等更大變化,人會把駕駛交給車,在智能空間處理其他事。”方運舟說。
夏一平打比方說,智能汽車現在理解用戶的能力也許還是中學生,但大模型讓車有了每天學習的能力,很快會成為大學生、博士;現在自動駕駛的能力還是新手菜鳥,以后會變成老司機。
大模型在汽車行業的深入應用也面臨挑戰。張亞勤指出,大模型在汽車行業的應用對數據資源的流動與共享提出更高要求。王曉剛認為,大模型訓練與應用對AI芯片等算力基礎設施要求不斷提升。
大模型“上車”的成長之旅才剛剛開始。
作為汽車、電子信息、通信等領域跨界融合的產物,智能網聯汽車已成為全球技術革命和產業變革的前沿陣地,國產汽車有望借助大模型,鞏固和擴大在智能網聯領域的優勢,在新一輪產業革命中走在前列。