share_log

阿里云全面升级GPU云服务:AI大模型推理性能可提升100%

阿里雲全面升級GPU雲服務:AI大模型推理性能可提升100%

快科技 ·  07/19 05:09

快科技7月19日消息,阿里雲推出全面升級的GPU雲服務,通過全新優化GPU套件,多GPU推理服務性能可最大提升100%。

針對調用GPU算力最常用的容器技術,阿里雲推出ACK雲原生AI套件,幫助開發者及企業更高效地開發和部署AI應用,加速大模型應用落地。

隨着AI大模型的體量變大、應用變廣,單GPU已難以承載推理應用的全部需求,多GPU推理時代已經到來,如何在GPU資源緊缺的當下,實現GPU高效互聯,是提升多GPU推理性能的關鍵。

阿里雲通過進一步優化底層的AI通信加速庫DeepNCCL,讓GPU雲服務在推理場景下有更好的性能表現:在同等硬件環境下,Token輸出吞吐至少提升14%,首Token時延降低15%

通過深度優化,推理加速性能也提升顯著,Token處理能力提升100%,相同的資源可以支持2倍的業務需求,用Kubernetes容器集群技術調用GPU算力,已成爲運行AI大模型任務的主流選擇。

ACK容器服務可提供自動化編排及GPU高效管理和調度的能力,讓模型部署、擴展變得更簡單。

爲進一步提升AI應用運維效率,阿里雲推出ACK雲原生AI套件,可實現Kubernetes在GPU調度和細粒度共享、AI任務調度、訓練數據加載以及大模型推理服務啓動等關鍵領域的能力增強和加速,相較開源均有大幅能力提升。

比如,針對AI任務頻繁加載遠程存儲數據的需求,ACK雲原生AI套件可提升訓練數據讀取性能30%以上,降低大模型推理服務冷啓動時延70%以上。

在全球累計超過1000萬活躍用戶的國產AI繪畫工具海藝AI,就是通過ACK調用阿里雲GPU雲服務的先行者。

此前,用戶通過海藝AI生成一張圖片平均耗時20秒,遇到隊列等待延遲可上升至分鐘級;採用阿里雲GPU雲算力及ACK容器服務後,海藝AI的模型切換完全無感,推理耗時降低至3.95秒,整體性能提升至少50%以上。

在最新的Forrester 全球AI基礎設施解決方案研究報告中,阿里雲綜合產品能力指標位居全球第二,已成爲中國AI大模型的公共底座。

零一萬物、百川智能、智譜AI、崑崙萬維、vivo、復旦大學、巨人網絡等大批企業和機構在阿里雲上訓練大模型,並通過阿里雲對外提供服務。

小鵬汽車、聯想、德勤、微博、完美世界、喜馬拉雅等已接入阿里雲通義大模型,在阿里雲上爲消費者和客戶提供豐富的AI應用服務。

声明:本內容僅用作提供資訊及教育之目的,不構成對任何特定投資或投資策略的推薦或認可。 更多信息
    搶先評論