隨著數(shù)字經(jīng)濟持續(xù)發(fā)展,AI大模型產(chǎn)品不斷涌現(xiàn)。在本輪AI變革中,大模型擔當?shù)慕巧投ㄎ皇鞘裁??未來大模型產(chǎn)品的進一步更新完善下,產(chǎn)業(yè)鏈哪些環(huán)節(jié)有望更受益呢?
近日,中金公司研究部科技硬件行業(yè)首席分析師、執(zhí)行總經(jīng)理彭虎做客澎湃新聞《首席連線》直播間,就上述相關(guān)問題作出分析解讀。
需求和供給側(cè)均有驅(qū)動力
(資料圖片)
對于當下國內(nèi)外大模型產(chǎn)品的層出不窮,彭虎表示驅(qū)動因素主要有兩方面:一是需求側(cè),二是供給側(cè)。
“需求側(cè)方面,主要是交互體驗升級、企業(yè)降本增效等訴求。一方面,大模型具有較強的泛用性,有針對性地微調(diào)可適用于不同應用場景,例如在辦公、紀要、對話、搜索、廣告、繪畫、作曲等各類內(nèi)容生成領(lǐng)域廣泛分布,并帶動智能終端人機交互模式的創(chuàng)新性變革。”彭虎指出。
彭虎進一步指出,另一方面,大模型的性能較原本AI小模型能力更強,雖然AI小模型已經(jīng)深度賦能安防、互聯(lián)網(wǎng)、金融、工業(yè)、醫(yī)療等諸多場景,但大模型有望進一步幫助各行業(yè)降本增效。
“供給側(cè)方面,主要是海外廠商的鯰魚效應。為避免由于技術(shù)落后造成的競爭劣勢,國內(nèi)科技巨頭紛紛將研發(fā)重心轉(zhuǎn)移至大模型?!迸砘⒄f。
有望成為重要的算法基礎平臺
對于大模型接下來的發(fā)展定位,彭虎認為,大模型在本輪AI變革中,未來有望成為重要的算法基礎平臺。
“行業(yè)有‘如果將AI(人工智能)比作電力,那么大模型則相當于發(fā)電機’這樣一個很形象的比喻,我也深以為然。隨著政策法規(guī)不斷完善、算力設施配套性不斷增強等,大模型有望發(fā)展為重要性比肩算力的基礎平臺,屆時算力基礎設施與算法基礎平臺將共同深度賦能社會的各個環(huán)節(jié),大模型會成為各行各業(yè)AI能力的重要源泉?!迸砘⒈硎?。
具體到應用方面,彭虎指出,大模型并不局限于語言理解,還能夠在視覺、聲音等各類模態(tài)中發(fā)揮作用,跨模態(tài)大模型更是有望將人工智能水平托舉至新高度。
“多模態(tài)能力結(jié)合生成式技術(shù),人工智能也有了創(chuàng)造力。生成式AI作為一類機器學習算法,能夠在學習吸收現(xiàn)實既有數(shù)據(jù)的基礎上,經(jīng)過訓練與精調(diào),對外輸出文本、圖像、語音、視頻、代碼等內(nèi)容,從技術(shù)發(fā)展現(xiàn)狀看,AI生成內(nèi)容已在相當大的程度上媲美人類?!迸砘⑦M一步指出。
彭虎表示,ChatGPT、DALL-E 2、Whisper、X-CLIP、Codex等應用,已分別在文本、圖像、語音、視頻、代碼等領(lǐng)域,展現(xiàn)出不俗的創(chuàng)造力。
應用落地情況方面,彭虎看好消費場景的四個方向:一是智能手機,硬件端有望帶動移動AI芯片性能提升,進一步有望帶動手機創(chuàng)新加快,同時在生態(tài)端,手機端或有望形成新的流量入口,長期或深刻影響產(chǎn)業(yè)商業(yè)模式;二是可穿戴產(chǎn)品;三是智能家居;四是機器人,目前谷歌已探索了通過自主學習的大模型,在現(xiàn)實環(huán)境中處理機器人指令,實現(xiàn)復雜任務的完成。
迭代需求帶來算力需求上修
產(chǎn)業(yè)鏈方面,彭虎分析稱,大模型的上游主要包括硬件的芯片、服務器、通信網(wǎng)絡;軟件的云計算、數(shù)據(jù)庫、虛擬化等。
“中游包括算法研發(fā)的編程語言、算法框架、模型測評等;模型管理維護的系統(tǒng)管理、API管理、數(shù)據(jù)管理等?!迸砘⑦M一步指出,“下游包括各類行業(yè)場景,如社交、媒體、營銷、教育、娛樂等,主要實現(xiàn)內(nèi)容生產(chǎn)、創(chuàng)意設計、對話引擎、輔助開發(fā)等功能。”
展望下一步,彭虎表示,為滿足大模型迭代需求,算力需求正不斷上修,當下谷歌、特斯拉、英偉達等廠商的硬件迭代,已反映該需求的變化。
“同時,AI芯片方面,云端AI算力芯片滲透率僅為個位數(shù),未來成長空間廣闊。AI服務器方面,競爭格局上當前互聯(lián)網(wǎng)云計算廠商的白牌服務器占主導,未來隨著邊緣側(cè)應用的成熟,品牌服務器廠商份額也有望提升?!迸砘⒄f。
云端算力基礎設施更受益
隨著大模型應用的推出和更新完善,產(chǎn)業(yè)鏈的哪些環(huán)節(jié)有望更受益呢?
彭虎認為,從硬件角度看,大模型的訓練及推理需要海量數(shù)據(jù)的高效處理作為支撐,因此云端算力基礎設施將迎來發(fā)展機遇,其中六方面值得重點關(guān)注。
“一是算力芯片。AI范式進入‘煉大模型’時代,對AI芯片計算能力、存儲容量、通訊帶寬等多個維度提出了更高的技術(shù)要求。更大算力、更高內(nèi)存、更快帶寬的AI芯片需求有望持續(xù)提升。”彭虎指出。
彭虎進一步指出,二是服務器。相較于傳統(tǒng)的服務器,AI服務器以異構(gòu)形式配備了GPU、NPU、FPGA、ASIC等多類芯片,能夠支持大模型訓練的高算力需求。AI服務器對算力、功耗、存儲、通信等有更高的要求,由此帶來芯片配置、硬件架構(gòu)、機箱設計等方面的差異。
“三是交換機。數(shù)據(jù)流量的快速增長,疊加人工智能發(fā)展推動數(shù)據(jù)中心網(wǎng)絡架構(gòu)轉(zhuǎn)型,有望驅(qū)動交換機數(shù)量和端口速率上行,高速以太網(wǎng)交換機市場有望實現(xiàn)強勁增長?!迸砘⒎Q。
彭虎表示,四是光模塊??紤]到模型并行訓練、AI應用推理的快速發(fā)展,800G、1.6T等下一代光模塊產(chǎn)品的滲透率提升曲線,或?qū)⒆兊酶鼮槎盖汀4送?,硅光模塊、CPO技術(shù)有望引領(lǐng)下一代數(shù)據(jù)中心風向,助力超高帶寬數(shù)據(jù)互聯(lián)。
“五是存儲與溫控等。AI模型的訓練及推理對存儲器提出了更高的要求,有望加速SSD對HDD的替代進程。同時,AI服務器高能耗特性,有望推動數(shù)據(jù)中心的散熱系統(tǒng)向液冷更新迭代?!迸砘⒄f,“六是電源。大模型高能耗的特點,有望增大對電力的需求?!?/p>
C端和B端仍有不確定性因素
雖然當下大模型面臨的利好因素很多,但彭虎強調(diào),大模型的發(fā)展在C端和B端仍有一些不確定性因素。
“ToC端,除了GPT-4,其他AI模型的用戶還處于免費體驗的模式,同時以Microsoft 365、New bing等為代表的應用,也仍處于免費體驗的模式,收費模式尚不確定。ToB端,目前大量初創(chuàng)企業(yè)接入的ChatGPT、GPT-4 API接口收費較低,未來的收費標準和模式也不確定?!迸砘⒔忉尫Q。
投資方面,彭虎提醒投資者,仍需防范AIGC相關(guān)算法技術(shù)及應用商業(yè)落地進展不及預期的風險。
“隨著全社會數(shù)字化轉(zhuǎn)型及智能化滲透率的提升,人工智能持續(xù)賦能各行各業(yè)。人工智能依賴于海量數(shù)據(jù)進行模型訓練及推理應用,并推動全社會算力需求的提升,因此服務器、存儲器、通信網(wǎng)絡設備等上游硬件基礎設施,均有望受益于AI驅(qū)動的算力需求提升。但如果人工智能發(fā)展及應用落地不及預期,可能會使上游硬件設備受到需求側(cè)的壓制,導致發(fā)展不及預期?!迸砘⒄f。
(文章來源:澎湃新聞)
關(guān)鍵詞: