DeepSeek在今年春節(jié)期間走紅之后,也成為了云計(jì)算廠商爭奪的重點(diǎn)。
據(jù)界面新聞了解,目前已有亞馬遜云科技、阿里云、騰訊云、移動云在內(nèi)的十幾家國內(nèi)外云計(jì)算廠商上線了DeepSeek-R1和DeepSeek-V3模型。
實(shí)際上,類似的類似的劇情在過去一年中已屢見不鮮,雖然這次的角色身份略有不同,但模型爭霸的本質(zhì)依然沒變。在普通用戶端,使用新AI很簡單,下載APP直接用起來就行了。但在企業(yè)端,卻并不簡單,部署首先需要價格不菲的硬件,其次需要提供穩(wěn)定的API,再者還需要構(gòu)建面向用戶端的應(yīng)用并實(shí)施托管,更不用說高階的針對企業(yè)私有數(shù)據(jù)的定制優(yōu)化了。同時,企業(yè)還需要考慮數(shù)據(jù)和模型的安全問題。
這些問題可以大致歸納為企業(yè)部署和使用模型中的工程化問題,具體包括成本、性能、安全以及針對私有數(shù)據(jù)進(jìn)行定制優(yōu)化、不同尺寸的模型和日益增長的各種智能體的復(fù)雜調(diào)度等。
以DeepSeek為例,其公開的模型V3和R1均有不同的型號。其中,DeepSeek-R1-Distill系列模型參數(shù)范圍是15億至700億,而R1和R1-Zero的參數(shù)規(guī)模則達(dá)到6710億。一方面,不同參數(shù)規(guī)模的模型對計(jì)算性能的要求不同,企業(yè)需要對部署的硬件和軟件進(jìn)行細(xì)致的調(diào)優(yōu),確保模型在實(shí)際運(yùn)行中能夠達(dá)到最佳的性能;另一方面,企業(yè)在應(yīng)用實(shí)踐中通常需要平衡“響應(yīng)速度”與“推理能力”而采用多級模型混合部署模式,還會面臨異構(gòu)計(jì)算資源的管理、跨云部署等難題。
在這種情況下,降低企業(yè)部署大模型的門檻已經(jīng)成為云計(jì)算廠商獲得市場競爭力的又一個關(guān)鍵因素。一位云計(jì)算廠商的售前技術(shù)人員對界面新聞表示,DeepSeek之后,大模型的迭代速度會加快,云計(jì)算廠商想要以更快地速度幫助企業(yè)應(yīng)用性能更好、成本更低的模型,還需要持續(xù)降低企業(yè)部署大模型的門檻。
低代碼、多樣化部署成趨勢
靈活性和選擇多樣性企業(yè)選擇是云平臺部署大模型的重要因素之一。在降低企業(yè)部署大模型的門檻,云計(jì)算廠商依然在靈活性和多樣性上進(jìn)行探索。
在上線DeepSeek-R1和DeepSeek-V3模型之后,阿里云PAI Model Gallery支持了云上一鍵部署兩款模型,無需編寫代碼即可完成AI模型開發(fā)流程。
企業(yè)的相關(guān)工作人員登陸阿里云PAI控制臺,在Model Gallery頁面的模型列表中選擇想要部署的DeepSeek系列模型,一鍵部署DeepSeek模型生成服務(wù)即可。
目前,DeepSeek-R1支持采用vLLM加速部署,DeepSeek-V3支持vLLM加速部署以及Web應(yīng)用部署,DeepSeek-R1蒸餾小模型支持采用BladeLLM和vLLM加速部署。簡單來說,在不同計(jì)算資源和應(yīng)用場景下,企業(yè)都可以更靈活地部署大模型。
同時,阿里云的機(jī)器學(xué)習(xí)平臺還為企業(yè)提供了自動化的機(jī)器學(xué)習(xí)工具,通過自動搜索模型參數(shù)和訓(xùn)練超參數(shù)的最優(yōu)組合、低代碼可視化建模等方式降低了企業(yè)部署大模型的技術(shù)門檻。
亞馬遜云著重探索的方向是助力企業(yè)客戶進(jìn)行多樣化部署,這是基于其在大模型應(yīng)用初期的洞察而來的。亞馬遜CEO Andy Jassy此前已多次在公開場合表達(dá)過其對大模型行業(yè)發(fā)展的判斷:不會有一個模型一統(tǒng)天下。在基于大模型構(gòu)建應(yīng)用時,不同的應(yīng)用場景需要的技術(shù)指標(biāo)也各不相同,延遲、成本、微調(diào)能力、知識庫協(xié)調(diào)能力、多模態(tài)支持能力等等,都會因場景需求的不同而被取舍。
經(jīng)過幾年的發(fā)展,企業(yè)對大模型的應(yīng)用越來越印證了這個判斷。以快速響應(yīng)場景為例,DeepSeek R1的深層思考模式顯然不太合適,其生成首個token的用時超過30秒,而Amazon Nova則只需要數(shù)百毫秒即可生成響應(yīng)。而目前的DeepSeek-V3模型是文生文模型,并不支持圖形等多模態(tài)信息的輸入,也不是萬能的。
其于這一理念,亞馬遜云科技上線了DeepSeek、AI21 Labs、Anthropic和poolside等100多個重點(diǎn)領(lǐng)先廠商的模型,并提供多樣化的部署方式。比如,在DeepSeek的部署上,亞馬遜云科技提供了4種方式,既可以滿足一部分企業(yè)客戶希望通過API快速集成預(yù)訓(xùn)練模型的需求,也可以滿足另一部分企業(yè)客戶追求高級定制或者性價比的需求。
從整體的趨勢上看,降低模型訓(xùn)練和部署門檻,使企業(yè)無需深厚AI經(jīng)驗(yàn)即可調(diào)用大模型,是各家云計(jì)算廠商目前都在做的事。
模型蒸餾等AI工具變得越來越重要
DeepSeek-R1-Distill通過蒸餾優(yōu)化,在推理速度、計(jì)算成本、部署靈活性方面具有明顯優(yōu)勢,它更適合需要低成本部署大模型的場景。
在DeepSeek-R1-Distill發(fā)布之前,亞馬遜云科技還在Amazon Bedrock中推出模型蒸餾功能,幫助企業(yè)進(jìn)一步降低大模型的使用成本。根據(jù)亞馬遜云科技CEO馬特?加曼(Matt Garman)在演講中透露的信息,經(jīng)過蒸餾的模型相比被蒸餾的模型,運(yùn)行速度能夠快500%,成本還能降低75%。
在上述云計(jì)算廠商售前技術(shù)人員看來,在DeepSeek走紅之后,企業(yè)客戶通過模型蒸餾降本增效的需求越來越多,模型蒸餾功能對于云計(jì)算廠商也越來越重要。
據(jù)界面新聞了解,除了亞馬遜云科技之外,阿里云、百度云等國內(nèi)云計(jì)算廠商也已支持蒸餾功能。其中,阿里云PAI的模型蒸餾功能支持將大模型的知識遷移到較小的模型中,從而在保留大部分性能的同時,大幅降低模型的規(guī)模和對計(jì)算資源的需求。比如,基于 Qwen2大模型開發(fā)的精簡語言模型,通過知識蒸餾技術(shù),提升了指令遵循能力,同時保持了較小的參數(shù)規(guī)模,便于部署和應(yīng)用。
通過模型蒸餾滿足企業(yè)客戶低成本部署的需求,屬于解決大模型落地使用中的工程化問題。如果說基于場景選擇合適的模型只是構(gòu)建應(yīng)用旅程的第一步,隨著構(gòu)建的深入,解決工程化難題的能力成為能否實(shí)現(xiàn)快速創(chuàng)新的關(guān)鍵。
除了模型蒸餾功能之外,云計(jì)算廠商在優(yōu)化效果、減低延遲和成本上還可以通過低延遲優(yōu)化推理、提示詞緩存等功能,大幅提升推理效率。比如,直接返回已緩存的結(jié)果比每次都調(diào)用大模型計(jì)算,推理延遲更短且計(jì)算成本更低。
在企業(yè)落地大模型的過程中,還有一些需求推動著云計(jì)算廠商在更多工程化問題上進(jìn)行創(chuàng)新,包括基于企業(yè)自有數(shù)據(jù)的定制優(yōu)化、AI安全和審查以及實(shí)現(xiàn)復(fù)雜功能的多智能體等。
從實(shí)踐來看,云計(jì)算廠商也在通過降低投入成本和技術(shù)門檻的方式來滿足企業(yè)客戶的這些需求。其中,亞馬遜云科技把AI工具都集成在了Amazon Bedrock平臺上,通過更便于操作的方式讓企業(yè)經(jīng)濟(jì)實(shí)用地解決提取自由數(shù)據(jù)、提升回答問題準(zhǔn)確性等問題。
馬特?加曼(Matt Garman)在2024 re:Invent上分享亞馬遜在部署大模型時的幾個關(guān)鍵洞察時,特別強(qiáng)調(diào)了計(jì)算成本的問題。在他看來,隨著生成式AI應(yīng)用規(guī)模的擴(kuò)大,計(jì)算成本變得至關(guān)重要,人們非??释@得更高的性價比。
這也是驅(qū)動云計(jì)算廠商在大模型部署上持續(xù)創(chuàng)新的關(guān)鍵因素。可以預(yù)見,未來,云計(jì)算廠商還進(jìn)一步結(jié)合AI硬件加速和自動化優(yōu)化,推動企業(yè)客戶使用上更快、更低成本的大模型推理服務(wù)。