NVIDIA英偉達H100、H800與H200人工智能服務器為各類數據中心提供出色的性能、可擴展性和安全性,加速計算的數量級飛躍。
通過 NVIDIA H100 Tensor Core GPU,在每個工作負載中實現出色性能、可擴展性和安全性。使用 NVIDIA® NVLink® Switch 系統,可連接多達 256 個 H100 來加速百億億級 (Exascale) 工作負載,另外可通過專用的 Transformer 引擎來處理萬億參數語言模型。與上一代產品相比,H100 的綜合技術創新可以將大型語言模型的速度提高 30 倍,從而提供對話式 AI。
準備好迎接企業 AI 了嗎?
企業采用 AI 現已成為主流,企業組織需要端到端的 AI 就緒型基礎架構,加快自身邁向新時代的步伐。
適用于主流服務器的 H100 隨附五年期 NVIDIA AI Enterprise 軟件套件訂閱(包括企業支持),能夠以強大的性能簡化 AI 的采用。這可確保組織能夠訪問構建 H100 加速的 AI 工作流所需的 AI 框架和工具,例如 AI 機器人、推薦引擎和視覺 AI 等。
NVIDIA英偉達H100、H800與H200人工智能服務器GPU算力租賃配置參數:
項目 | 標準配置 |
框架 | 8U 機架式服務器 |
處理器 | 2 顆至強 Platinum 8468 48 核/3.8GHz 主頻/105MB 緩存 |
內存 | DDR5 4800MHz ECC 內存容量 1TB |
GPU | NVIDIA HGX H100、H800或H200 GPU 模組 |
系統硬盤 | M.2 NVMe PCIe 接口 2TB SSD |
數據硬盤 | 2*10TB 企業級 SATA 硬盤 RAID 10 陣列配置 |
InfiniBand 網絡 | 200G/雙端口/QSFP56 |
Ethernet 網卡 | OCP 網卡/雙電口/10G |
PICE 插槽 | 9 個 PCIe 5.0 擴展插槽 |
電源 | 6*3000W,2*2700W,AC220 輸入 |
風扇 | 10 個 54V 風扇組 |
操作系統 | Windows Server/RedHat Enterprise Linux/SUSE Linux Enterprise Server/CentOS/Ubuntu/Vmware EXSi |
工作溫度 | +5°~+35° |
其他接口 | 機箱后部:1 個 RJ45 管理接口,2 個 USB 3.0,1 個 VGA 機箱前部:2 個 USB 3.0,1 個 VGA |
整機凈重 | 120KG(以實際配置為準) |
安全地加速從企業級到百億億次級規模的工作負載
實時深度學習推理
超大模型的 AI 推理性能提升高達 30 倍
HPC 應用的性能提升高達 7 倍
百億億次級高性能計算
加速數據分析
為企業提高資源利用率
內置機密計算
為大規模 AI 和高性能計算提供出色的性能
免責聲明
- 凡本網注明“來源:化工儀器網”的所有作品,均為浙江興旺寶明通網絡有限公司-化工儀器網合法擁有版權或有權使用的作品,未經本網授權不得轉載、摘編或利用其它方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:化工儀器網”。違反上述聲明者,本網將追究其相關法律責任。
- 本網轉載并注明自其他來源(非化工儀器網)的作品,目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責,不承擔此類作品侵權行為的直接責任及連帶責任。其他媒體、網站或個人從本網轉載時,必須保留本網注明的作品第一來源,并自負版權等法律責任。
- 如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。