北京2023年3月8日 /美通社/ -- 經過60余年的等待,生成式AI(Generative AI)終于爆發了。
早在1957年,萊杰倫·希勒和倫納德·艾薩克森就完成了歷史上第一支由計算機創作的弦樂四重奏《伊利亞克組曲》。而生成式AI真正走向產業化發展則是在2022年。這一年,Stability AI獲得超過一億美元的融資,估值突破十億美元,并選擇亞馬遜云科技作為首選云供應商,其提供的開源AI模型Stable Diffusion可以根據用戶輸入的文字自動生成圖片。Stability AI由此成為生成式AI領域第一家獨角獸企業。
Gartner預計,到2025年,大型企業機構對外營銷信息中的合成信息比例將從2022年的不到2%上升到30%。
在生成式AI方面,亞馬遜云科技已經深耕了很長時間,擁有成熟的生成式AI專屬解決方案,既提供經過廣泛驗證且易于部署的先進AI算法模型,又提供豐富且高性價比的云端資源以優化成本,旨在幫助游戲、電商、媒體、影視、廣告、傳媒等行業快速構建生成式AI應用通路,打造AI時代的領先生產力。
"從AI技術發展來看,生成式AI開啟了一次范式變遷。大模型、多模態、高算力和海量數據將主導新一輪科技范式的發展,為內容、營銷、游戲等行業帶來顛覆性創新。"亞馬遜云科技大中華區產品部總經理陳曉建表示,"亞馬遜云科技廣泛而深入的生成式AI專屬解決方案,以先進的性能、更優的性價比和全面的服務賦能千行百業,助力各個規模的企業擁抱生成式AI的浪潮。"
降低成本,讓生成式AI觸手可及
亞馬遜云科技認為,目前生成式AI模型主要集中在文本和圖片生成,正在逐步滲透到音頻和視頻內容生成,未來將出現越來越多的跨模態/多模態內容生成。通用大模型更容易引發熱議,但對企業而言,針對特定場景的模型在成本和準確度方面都更具優勢,也是目前企業主要采用的模型。芯片性能和高質量訓練既是生成式AI爆發的基礎,也是其實現飛躍式發展的瓶頸。
之前模型的參數量級可能是千級或百萬級,但今天擁有十億百億級參數的模型比比皆是,下一代模型有可能會朝著萬億級參數級別去發展。因此,降低大模型的成本至關重要。
雖然,機器學習的芯片差不多每兩年或每幾年就會有一倍或數倍的提升,但仍然不足以跟上訓練模型復雜度的提升。替代的解決辦法就是利用分布式多處理器,通過一個網絡進行協同計算、協同訓練。亞馬遜云科技專門為云中高性能模型訓練而搭建的Trn1實例最多可以搭載16顆專門用于機器學習訓練的Trainium芯片,512GB加速器內存和800GBps的網絡帶寬。
Trn1是擁有高性價比的深度學習實例,與基于GPU的類似實例相比,訓練成本降低了50%。以一個具備萬億級參數的大模型進行兩周訓練為例,GPU服務器P3dn需要600個實例,最新一代GPU實例P4d需要128個實例,但Trn1只需要用96個實例。
2022亞馬遜云科技re:Invent全球大會推出了一款基于Trn1的網絡優化型實例Trn1n,進一步把網絡帶寬增加一倍,從800GBps躍升到1600GBps,其強大的網絡吞吐能力能夠將超過1萬個Trainium芯片構建在一個超大規模集群里,并在集群中進行模型的并行訓練。
除訓練外,大模型也需要超高的推理能力。所以亞馬遜云科技構建了Inf1實例,用自研的推理芯片Inferentia提供支持,實現低延時低成本的推理。Inf1實例和GPU的實例相比,每次推理成本可以降低70%。
亞馬遜云科技re:Invent全球大會還推出了下一代自研推理芯片Inferentia2以及基于此的Amazon EC2 Inf2實例。這是唯一一個專門為大型Transformer模型分布式推理建立的實例。與Inf1實例相比,它提供高達4倍的吞吐量,降低多達10倍的延遲,與基于GPU的實例相比,每瓦性能提升高達45%,同時也支持諸如GPT類型的大型復雜模型,并且可以用單實例實現1750億參數模型的推理。
行業先行者的最佳實踐
以AI繪畫走紅全球的Stability AI備受矚目,其開源AI模型Stable Diffusion自2022年8月推出以來,已經被全球超過20萬開發者下載和授權。在算力需求方面,Stable Diffusion模型所需的算力硬件成本已超過5000萬美元。
Stability AI利用亞馬遜云科技上的大規模GPU集群和Amazon Trainium機器學習訓練芯片組成的高性能計算集群來訓練其生成式AI基礎模型,并通過云上模型訓練的彈性來優化成本,最終將其使用的GPT-NeoX等開源語言模型的訓練時間和成本減少58%。
Qualtrics是一家設計和開發體驗管理軟件的公司。"Qualtrics的重點是借助技術創新縮小體驗差距。為實現這一目標,我們正在開發復雜的多任務、多模態的深度學習模型,包括文本分類、序列標記、話語分析、關鍵短語提取、主題提取、聚類以及端到端對話理解等。"Qualtrics 核心機器學習負責人 Aaron Colak 表示,"隨著我們在更多應用程序中使用這些復雜的模型以及非結構化數據量不斷增長,為給客戶提供最佳體驗,我們需要像Inf2 實例這樣性能更高的推理優化解決方案來滿足我們的需求。我們很高興看到新一代 Inf2 實例的推出,它不僅讓我們實現更高的吞吐量,顯著降低延遲,而且還引入了分布式推理和支持增強的動態形狀輸入等功能。隨著我們部署更大、更復雜的模型,這將能進一步滿足我們對部署的更高要求。"