醫(yī)療健康信息技術(shù)裝備制造汽車及零部件文體教育現(xiàn)代服務業(yè)金融保險旅游酒店綠色環(huán)保能源電力化工新材料房地產(chǎn)建筑建材交通運輸社消零售輕工業(yè)家電數(shù)碼產(chǎn)品現(xiàn)代農(nóng)業(yè)投資環(huán)境
產(chǎn)業(yè)新聞產(chǎn)業(yè)資訊產(chǎn)業(yè)投資產(chǎn)業(yè)數(shù)據(jù)產(chǎn)業(yè)科技產(chǎn)業(yè)政策
大語言模型的競爭主要集中在兩個核心要素上:性能和成本。性能決定了模型能夠處理的任務復雜度和準確性,而成本則影響模型的商業(yè)可行性和普及程度。這兩者的平衡將直接影響大語言模型在市場上的競爭力與應用廣度。
硬件性能的提升與軟件算法的創(chuàng)新共同推動了大語言模型的不斷提升。在硬件方面,GPU 性能的增強顯著提升了模型的訓練和推理能力,得益于半導體工藝的進步和持續(xù)的 GPU 設計創(chuàng)新,這使得復雜任務的處理更快速高效。
軟件方面,創(chuàng)新算法如 Chinchilla 的最優(yōu)縮放、人類反饋強化學習(RLHF)、推測解碼(Speculative Decoding)和 Flash Attention 等,為大模型的發(fā)展注入了新的活力。例如,Chinchilla 通過合理分配模型大小和訓練數(shù)據(jù)量,優(yōu)化了有限計算資源下的模型訓練;Llama2 利用RLHF 方法,確保輸出更符合用戶期望;推測解碼實現(xiàn)了推理速度的顯著提升;而Flash Attention則通過優(yōu)化注意力機制,提高了 GPT 模型的訓練速度。這些因素的結(jié)合使得大語言模型在性能和效率上不斷取得突破。
隨著訓練成本的不斷下降,AIGC 的應用正變得越來越普及。賴特定律(Wright's Law)表明,當一種產(chǎn)品的累計產(chǎn)量翻倍時,其單位成本將下降一個固定百分比。在 AIGC 領域,尤其是大模型訓練中,GPU 硬件性能的提升和算法優(yōu)化對成本降低起到了關(guān)鍵作用。
根據(jù)ARK 的分析,隨著硬件技術(shù)的不斷進步,AI 相對計算單元(RCU)的成本預計每年將降低53%,而模型算法的增強預計每年可使訓練成本降低 47%。預計到 2030 年,硬件和軟件的融合將使AIGC 訓練成本以每年 75%的速度下降。這一顯著的成本降低將推動AIGC技術(shù)的普及與經(jīng)濟性,從而促進 AIGC 的廣泛應用和創(chuàng)新。
隨著 LLM 公司之間競爭的加劇,AIGC 的推理成本正迅速降低。AIGC模型在處理輸入和輸出時,其計算資源消耗與輸入輸出的數(shù)據(jù)量成正比,費用計算基于輸入輸出的 Token 數(shù)量,這種計費方式為不同用戶提供了靈活性。
以 OpenAI 為例,在過去兩年里,它將 API 訪問成本降低了99%。具體來看,GPT-3 的 API 推理成本從 2021 年的每千 Token 0.06 美元降至2022年的0.02美元,降幅達 66%。到 2023 年,GPT-3.5 Turbo 的API 推理成本與2021年相比下降了 86%。同時,GPT-4 Turbo 的 API 推理成本與GPT-4-32k 相比降低了92%,其成本甚至低于一年前的 GPT-3。
值得注意的是,這一推理成本的降低是在提供更長的上下文、更低的延遲和更新知識截止日期的情況下實現(xiàn)的。微軟CEO 納德拉認為,與摩爾定律類似,AI 領域也存在 Scaling Law(尺度定律),在AI 時代,衡量單位是“每美元每瓦特的 Token 數(shù)”。這種競爭態(tài)勢將進一步推動AIGC 技術(shù)的普及與應用。
更多行業(yè)研究分析請參考思瀚產(chǎn)業(yè)研究院官網(wǎng),同時思瀚產(chǎn)業(yè)研究院亦提供行研報告、可研報告(立項審批備案、銀行貸款、投資決策、集團上會)、產(chǎn)業(yè)規(guī)劃、園區(qū)規(guī)劃、商業(yè)計劃書(股權(quán)融資、招商合資、內(nèi)部決策)、專項調(diào)研、建筑設計、境外投資報告等相關(guān)咨詢服務方案。