回顧近十年的人工智能模型發(fā)展,我們發(fā)現(xiàn)AI技術(shù)提供商數(shù)量稀少且進入門檻不斷提高。2017年起,人工智能研究從小 模型轉(zhuǎn)向大語言模型,導致模型體量成倍增加,需要更多GPU算力和配套設(shè)施投入,大量的前期資本投入以及過長的回 報周期阻礙了許多新進入者。
(資料圖片)
大模型時代,模型體積幾何式增長導致前期投入過高,成功者往往依賴科技巨頭的資金、數(shù)據(jù)等支持。在過去五年內(nèi), 我們看到成功的人工智能獨角獸都在尋找互聯(lián)網(wǎng)科技大廠作為其背后的依靠,主要因為:1)能夠得到充足而短時間內(nèi)不 求產(chǎn)出的資金支持;2)依靠互聯(lián)網(wǎng)大廠的公有云等相關(guān)資源進一步降低成本;3)獲取互聯(lián)網(wǎng)大廠長期以來所積累的優(yōu)質(zhì) 數(shù)據(jù)源。
AI巨頭從開源走向閉源
大模型研發(fā)的高門檻讓頭部少數(shù)AI廠商占據(jù)主導權(quán),并開始從技術(shù)研發(fā)向商業(yè)化落地邁進。從Bert開始到GPT-3再到谷歌 的PALM,人工智能技術(shù)的發(fā)展潮流始終由OpenAI、谷歌等少數(shù)幾家巨頭主導,其他廠商根據(jù)先行者的開源資料以及相關(guān) 論文進行模仿并創(chuàng)新。但從OpenAI發(fā)布GPT-3走向商業(yè)化盈利開始,谷歌也迅速效仿,不再公布T5模型及后續(xù)版本的細 節(jié)。頭部的AI廠商希望將自身的技術(shù)優(yōu)勢構(gòu)筑為商業(yè)化能力的核心壁壘,以延長后來者的追趕時間。
人工智能頭部廠商從開源走向閉源,利用其綜合優(yōu)勢來保持持續(xù)的領(lǐng)先。谷歌與OpenAI作為行業(yè)內(nèi)的技術(shù)領(lǐng)先者已經(jīng)明 確選擇了閉源模式:本次OpenAI推出GPT-4的形式與以往不同,OpenAI既沒有發(fā)布GPT-4的相關(guān)論文,也沒有提供詳細 的框架說明,僅僅提供了一份98頁的技術(shù)文檔(主要描述模型能力以及相關(guān)評測的得分,幾乎沒有任何技術(shù)細節(jié))。通 過這一方式,OpenAI阻斷了所有借鑒者參考的直接途徑(模型大小、數(shù)據(jù)集構(gòu)建、訓練方法等),迫使想要融入GPT-4 能力的軟件服務(wù)商與其合作,OpenAI提供對應的API接口以及部署指導。
追趕者更傾向于通過培養(yǎng)開源社區(qū)
相較于頭部AI廠商,追趕者更傾向于通過培養(yǎng)開源社區(qū),共同迭代模型以縮小和頭部廠商的差距。頭部廠商閉源模型后, 落后一到兩個身位的公司(Meta、Amazon、NVIDIA等)可能會選擇開源路線,寄希望通過社區(qū)的力量加速迭代。目前 大語言模型開源社區(qū)的主要貢獻者包括Meta、NVIDIA以及Huggingface等,通過分享部分模型與大語言模型相關(guān)的知識 培訓逐漸培養(yǎng)起了一批開源開發(fā)者。Meta于2023年3月發(fā)布了其新一代大語言模型LLaMA并將源代碼開源給社區(qū)。社區(qū) 用戶及企業(yè)可以免費使用公開的模型以及數(shù)據(jù)源,但受證書限制不能用作商業(yè)用途。
軟件服務(wù)商需在與閉源頭部廠商合作或免費開源方案之間做出抉擇
在見證了ChatGPT的成功后,擁抱AI能力成為了軟件服務(wù)商的普遍共識。Gartner預計到2025年,生成式人工智能將占所 有生成數(shù)據(jù)的10%。由于底層大語言模型的高門檻,只有部分科技巨頭有能力完全自研底層模型。而絕大多數(shù)軟件服務(wù)商 需要在成為閉源頭部廠商的合作伙伴與使用自有數(shù)據(jù)在開源項目的基礎(chǔ)上開發(fā)之間做二選一的抉擇。
1)軟件提供商選擇閉源廠商方案的優(yōu)缺點分析
與開源方案相比,閉源大廠技術(shù)更為領(lǐng)先:目前開源項目的準確度仍不及2021年發(fā)布的前代模型GPT-3.5與PaLM。軟件 提供商與閉源大廠成為合作伙伴會得到更加可靠的模型支持。對于數(shù)據(jù)存量較大且存儲種類較為復雜的行業(yè)來說,閉源廠 商的模型更能保證在大規(guī)模應用場景下的穩(wěn)定性。以2023年3月Meta開源的LLaMA為例,最大參數(shù)量65B的LLaMA模型在 準確率上與2021年谷歌閉源發(fā)布的PaLM模型差距明顯。
閉源大廠為軟件服務(wù)商封裝中間技術(shù)細節(jié),簡化訓練、部署等環(huán)節(jié),降低軟件廠商技術(shù)難度,并提升接入、開發(fā)效率。 大多數(shù)企業(yè)和個人難以承擔部署和運維成本,也不具備通過匯編語言對底層CUDA加速框架進行優(yōu)化以降低推理成本的能 力和經(jīng)驗。針對上述問題,閉源大廠可以通過云服務(wù)平臺將復雜的技術(shù)問題進行封裝,使軟件服務(wù)商直接使用AI模型并根 據(jù)自身業(yè)務(wù)對模型進行微調(diào)。此外,閉源模型會直接提供一步到位的API端口,軟件服務(wù)商直接將API接入到軟件中就可 以使用。
與閉源大廠合作的潛在顧慮:昂貴的成本、用戶隱私&數(shù)據(jù)安全等。在與軟件服務(wù)商的合作方案上,OpenAI按照使用量 來收費。對于數(shù)據(jù)密集型行業(yè)來說,每1GB數(shù)據(jù)的處理需要花費超過8000美元。此外,另一個顧慮在于數(shù)據(jù)源并不掌握 在企業(yè)自身手中,對于數(shù)據(jù)隱私程度較高的場景,目前相關(guān)的數(shù)據(jù)隱私與安全監(jiān)管仍然不完善。
2)基于開源方案自建大語言模型的優(yōu)缺點分析
基于開源方案自建大語言模型使資金投入更加靈活與可控。目前開源社區(qū)中基于LLaMA、Alpaca、Bloom等的開源項目 都是免費提供。盡管限制商業(yè)化用途,但企業(yè)可以通過提取權(quán)重的方式進行規(guī)避。根據(jù)自身的數(shù)據(jù)規(guī)模以及相關(guān)業(yè)務(wù)對于 準確度的要求,企業(yè)可以靈活控制對硬件采購的投入以及相關(guān)訓練成本的支出。與此同時,市場也出現(xiàn)了諸如Colossal-AI 等開源解決方案,致力于優(yōu)化底層推理和訓練的效率。
開源方案可將數(shù)據(jù)留在本地,最大限度地保護用戶隱私和數(shù)據(jù)安全。對于數(shù)據(jù)安全至關(guān)重要的行業(yè),確保數(shù)據(jù)隱私是選 擇基于開源方案自建的最大理由。2023年4月,意大利就因為擔憂數(shù)據(jù)隱私與保護監(jiān)管的制度不完善禁止企業(yè)使用 ChatGPT,三星亦因擔心內(nèi)部資料泄露問題限制了部分部門對ChatGPT的訪問。盡管目前相關(guān)限制并未涉及API和模型實 例的使用,但基于數(shù)據(jù)隱私的考慮,基于開源方案自建是企業(yè)的最優(yōu)選擇。
小結(jié)
對于擁有海量經(jīng)授權(quán)的垂類數(shù)據(jù)、充裕現(xiàn)金流以及直接 落地場景的軟件大廠適合基于開源模型進行AI能力的構(gòu) 建。比如Bloomberg基于BLOOM(GPT-3變種)的純 解碼器因果語言模型構(gòu)建了BloombergGPT,其訓練數(shù) 據(jù)集為超過7000億個標簽數(shù)據(jù)的大型訓練語料庫,金融 數(shù)據(jù)集包含3630億個標簽,占據(jù)54.2%的訓練集。海量 的垂類經(jīng)授權(quán)語料、直接落地場景以及人才、資源的穩(wěn) 定支持使Bloomberg基于開源模型訓練AI能力具有充分 的價值。類似的,我們認為生命科學CRM&研發(fā)管理領(lǐng) 域的Veeva亦有能力基于經(jīng)授權(quán)的垂類語料賦能醫(yī)療 CRM、藥物研發(fā)流程管理環(huán)節(jié)。
不滿足以上三項條件的廠商,直接接入閉源模型應為理 論上最優(yōu)的解決方案。對于Salesforce、Workday等平 臺型應用軟件廠商,盡管具備充裕的資源和落地場景, 但其平臺上的數(shù)據(jù)集多為用戶私有數(shù)據(jù),無法投入模型 訓練。因此,參照Microsoft Copilot產(chǎn)品實現(xiàn)邏輯,通 過用戶私有數(shù)據(jù)增強prompt后,導入微調(diào)閉源模型進行 推理,進而實現(xiàn)內(nèi)容生成、流程&命令自動化等效果應 為這類廠商實現(xiàn)AI能力的主要方式。
應用軟件:平臺型、垂類軟件等有望顯著受益,單點解決方案或?qū)⑹軗p我們主要從產(chǎn)品體系、客戶結(jié)構(gòu)、數(shù)據(jù)沉淀、生態(tài)構(gòu)建等維度來衡量應用軟件領(lǐng)域的受益&受損邏輯。 產(chǎn)品體系:大語言模型對應用軟件的強化主要體現(xiàn)在兩個方面 。 單點功能的增強:比如在銷售環(huán)節(jié)自動進行線索整理、生成銷售策略,在營銷環(huán)節(jié)自動生成營銷文本、個性化廣告投 放,在客服環(huán)節(jié)自動生成或擴展客戶問題回復等;我們認為客戶會率先向更容易落地、實現(xiàn)ROI轉(zhuǎn)化的領(lǐng)域進行預算 投放,包括客服、營銷、輔助內(nèi)容創(chuàng)意等領(lǐng)域。 增強各項功能的協(xié)同效果:交互界面進一步上移,比如用戶可以通過一條指令實現(xiàn)銷售線索歸集整理、營銷內(nèi)容生成 及個性化投放的全流程,而這在過去需要在不同的產(chǎn)品頁面中完成。顯然產(chǎn)品體系更全面、豐富的平臺型廠商更容易 實現(xiàn)這一效果,而單純單點功能的強化將具有較強的同質(zhì)性,平臺型廠商的優(yōu)勢有望在大模型賦能下進一步增強。
客戶結(jié)構(gòu): 在過去的應用軟件市場,大型企業(yè)客戶的需求往往更為復雜,SMB客戶更為傾向于接受功能相對簡單但使用門檻較低 的方案,因此面向兩種客戶的產(chǎn)品往往是割裂的。 但伴隨著大語言模型的滲透,復雜的功能和配置項可以依賴自然語言的交互進行實現(xiàn),增加了企業(yè)級產(chǎn)品向SMB客戶 下沉的可能性,而此前針對SMB用戶的產(chǎn)品則有可能遭受降維打擊。
數(shù)據(jù)沉淀: 海量經(jīng)授權(quán)的垂類數(shù)據(jù)、充?,F(xiàn)金流以及直接落地場景的軟件大廠適合基于開源模型構(gòu)建AI能力,但對大部分廠商而 言調(diào)用第三方閉源模型仍為理論上最優(yōu)的解決方案。底層模型同質(zhì)化背景下,數(shù)據(jù)獨特性是實現(xiàn)差異化的核心手段。 考慮到客戶數(shù)據(jù)的隱私性和安全性至關(guān)重要,參照Microsoft Copilot產(chǎn)品實現(xiàn)邏輯,通過用戶私有數(shù)據(jù)增強prompt后, 導入微調(diào)閉源模型進行推理。同時,廠商可以通過各個客戶的用戶反饋數(shù)據(jù)持續(xù)訓練個性化小模型,進一步優(yōu)化大模 型的生成效果,降低“幻覺”問題的出現(xiàn)概率,不斷優(yōu)化用戶的使用體驗。 在這一邏輯下,預計擁有海量數(shù)據(jù)&流程沉淀的平臺型軟件廠商亦將充分受益,而僅在工具層面實現(xiàn)淺層次整合的廠 商將不具備顯著產(chǎn)品壁壘。
基礎(chǔ)軟件:AI顯著降低產(chǎn)品使用門檻,數(shù)據(jù)管理最為受益,安全、 運維等亦將受益大模型的訓練、部署以及穩(wěn)定&安全運行仍然需要數(shù)據(jù)管理、性能監(jiān)控、信息安全等系列產(chǎn)品的配合和支持。在軟件開發(fā) 環(huán)節(jié),大語言模型有望憑借對代碼的生成和理解能力實現(xiàn)產(chǎn)品和產(chǎn)業(yè)鏈價值的重構(gòu);在其他的基礎(chǔ)軟件環(huán)節(jié),大模型也有 望降低從業(yè)人員門檻,拓寬產(chǎn)品覆蓋面和變現(xiàn)方式。以下,我們將對數(shù)據(jù)管理、性能監(jiān)控、信息安全、軟件開發(fā)等細分市 場展開具體分析。
性能監(jiān)控:大模型在運行過程中需要對于性能指標進行實時的監(jiān)測和分析,但考慮到大模型本身的特殊性,在訓練和部署 環(huán)節(jié)同樣需要專用的工具完成相關(guān)指標的監(jiān)控、調(diào)整和可視化,其中包括: 實驗管理:在訓練環(huán)節(jié)對于學習率、批量大小、迭代次數(shù)等超參數(shù)空間的系統(tǒng)性搜索,選擇最優(yōu)超參數(shù)組合,并記錄 和可視化訓練、評估過程; 性能監(jiān)控:在推理環(huán)節(jié)對于損失函數(shù)、準確率等各類模型性能指標的監(jiān)控和可視化,橫向&縱向比較模型的性能變化。 在大模型專用監(jiān)控工具領(lǐng)域,Weights&Biases、Comet ML、Arize、Fiddler,以及Databricks推出的開源工具MLflow 等均有相應產(chǎn)品,其中Weights&Biases和MLflow在產(chǎn)品完整度和用戶覆蓋面上更為領(lǐng)先。
軟件開發(fā):企業(yè)開發(fā)者團隊需要借助Devops工具自動化低價值的流程,以更快實現(xiàn)新功能的發(fā)布。 由于軟件開發(fā)流程有價值的環(huán)節(jié)體現(xiàn)在項目管理&協(xié)作和代碼編寫&托管兩個節(jié)點,因此這兩個節(jié)點上的頭部參與者 具備整合軟件開發(fā)全鏈條的較大潛力。 根據(jù)IDC的統(tǒng)計,2021年全球軟件開發(fā)市場Top2的玩家分別為Atlassian和微軟,恰好對應項目管理&協(xié)作、代碼編寫 &托管兩個節(jié)點的龍頭。根據(jù)IDC,在大語言模型普及之前,Atlassian的份額以及份額獲取速度持續(xù)領(lǐng)先于微軟。但 大語言模型普及之后,GitHub CoPilot能力的強化大幅提升了開發(fā)效率,開發(fā)鏈條的核心有可能由項目管理向代碼編 寫&托管轉(zhuǎn)移,這在一定程度上可能削弱Atlassian的競爭優(yōu)勢和平臺化潛力,而更為利好微軟的全鏈條整合。當然, 與GitHub在同一環(huán)節(jié)競爭的GitLab更有可能受到直接沖擊。
更加緊密、復雜的軟件分工協(xié)作體系
人工智能浪潮帶來的另一個變化是科技巨頭構(gòu)建以人工智能服務(wù)為核心的新商業(yè)模式,使軟件產(chǎn)業(yè)分工更加明確。 LMaaS(大語言模型即服務(wù))將成為AI服務(wù)提供商的主要商業(yè)模式,以泛用的大語言模型為基礎(chǔ)統(tǒng)一過去公有云中的繁 雜PaaS層,并更好地融入軟件層,用戶通過單一模型可對接多種外部API并更好地理解用戶意圖。
目前以O(shè)penAI&微軟為代表的廠商已經(jīng)構(gòu)建起以LMaaS為核心的商業(yè)模式,圍繞GPT逐步向上下游拓展生態(tài)。目前 OpenAI的主要模型包括GPT-4、GPT-3.5、Dalle2、Whisper、Embedding等,包含了泛用大模型、圖片、語音、微調(diào)等 多個維度,其中最為泛用的GPT類模型將作為一個接口根據(jù)用戶需求調(diào)用不同的模型。
插件功能(Plugins)使LMaaS能夠連接不同的外部API,極大地擴展了大語言模型的上層軟件生態(tài)。OpenAI于2023年3 月在ChatGPT中推出插件接口,旨在接入小公司的微調(diào)成果。插件接口簡化了小公司微調(diào)大語言模型的難度,并豐富了 基于大語言模型的生態(tài)環(huán)境。第三方廠商無需接觸部署大語言模型,降低了微調(diào)實施的難度。
關(guān)聯(lián)落地(Grounding)是LMaaS模式中協(xié)調(diào)外部軟件API與大語言模型生成內(nèi)容可靠性的關(guān)鍵步驟。微軟的Copilot大 量使用關(guān)聯(lián)落地技術(shù),通過Grounding提高接收提示質(zhì)量,確保模型準確執(zhí)行用戶指令,完成多模態(tài)轉(zhuǎn)換并提升指令準確 性。
對于用戶而言,LMaaS體驗優(yōu)于原先的公有云服務(wù),簡化了 本地部署與調(diào)試過程。LMaaS通過云服務(wù)封裝復雜技術(shù)問題, 使用戶無需關(guān)注底層實現(xiàn)。LMaaS平臺可根據(jù)用戶需求,對通 用AI模型進行特定任務(wù)微調(diào),提高模型在特定領(lǐng)域表現(xiàn)。 在LMaaS商業(yè)模式下,我們認為行業(yè)最終將形成AI巨頭提供 泛用性模型以及服務(wù)主要通用需求,中小公司切入特定垂直 行業(yè)并根據(jù)需求微調(diào)優(yōu)化模型的格局。 有利于發(fā)揮各自優(yōu)勢,使大型AI企業(yè)專注于提供穩(wěn)定、高 效基礎(chǔ)模型,降低成本,提高性能和覆蓋范圍。同時,中 小型公司充分發(fā)揮行業(yè)專長和敏捷性,為特定行業(yè)客戶提 供定制化、高度針對性解決方案。 為行業(yè)帶來更多創(chuàng)新、快速響應和精細化的服務(wù),有助于 進一步提升AI技術(shù)在各行各業(yè)的落地應用效果。 推動行業(yè)生態(tài)的繁榮,鼓勵更多創(chuàng)新型中小企業(yè)和創(chuàng)業(yè)團 隊投入到AI領(lǐng)域,企業(yè)之間的合作將變得更加緊密,形成 一個互補的生態(tài)系統(tǒng)。
(本文僅供參考,不代表我們的任何投資建議。如需使用相關(guān)信息,請參閱報告原文。)