NVIDIA英伟达H100、H800与H200人工智能服务器为各类数据中心提供出色的性能、可扩展性和安全性,加速计算的数量级飞跃。
通过 NVIDIA H100 Tensor Core GPU,在每个工作负载中实现出色性能、可扩展性和安全性。使用 NVIDIA® NVLink® Switch 系统,可连接多达 256 个 H100 来加速百亿亿级 (Exascale) 工作负载,另外可通过专用的 Transformer 引擎来处理万亿参数语言模型。与上一代产品相比,H100 的综合技术创新可以将大型语言模型的速度提高 30 倍,从而提供业界***的对话式 AI。
准备好迎接企业 AI 了吗?
企业采用 AI 现已成为主流,企业组织需要端到端的 AI 就绪型基础架构,加快自身迈向新时代的步伐。
适用于主流服务器的 H100 随附五年期 NVIDIA AI Enterprise 软件套件订阅(包括企业支持),能够以强大的性能简化 AI 的采用。这可确保组织能够访问构建 H100 加速的 AI 工作流所需的 AI 框架和工具,例如 AI 聊天机器人、推荐引擎和视觉 AI 等。
NVIDIA英伟达H100、H800与H200人工智能服务器GPU算力租赁配置参数:
项目
|
标准配置
|
框架
|
8U 机架式服务器
|
处理器
|
2 颗至强 Platinum 8468
48 核/3.8GHz 主频/105MB 缓存
|
内存
|
DDR5 4800MHz ECC 内存容量 1TB
|
GPU
|
NVIDIA HGX H100、H800或H200 GPU 模组
|
系统硬盘
|
M.2 NVMe PCIe 接口 2TB SSD
|
数据硬盘
|
2*10TB 企业级 SATA 硬盘
RAID 10 阵列配置
|
InfiniBand 网络
|
200G/双端口/QSFP56
|
Ethernet 网卡
|
OCP 网卡/双电口/10G
|
PICE 插槽
|
9 个 PCIe 5.0 扩展插槽
|
电源
|
6*3000W,2*2700W,AC220 输入
|
风扇
|
10 个 54V 风扇组
|
操作系统
|
Windows Server/RedHat Enterprise Linux/SUSE Linux Enterprise
Server/CentOS/Ubuntu/Vmware EXSi
|
工作温度
|
+5°~+35°
|
其他接口
|
机箱后部:1 个 RJ45 管理接口,2 个 USB 3.0,1 个 VGA
机箱前部:2 个 USB 3.0,1 个 VGA
|
整机净重
|
120KG(以实际配置为准)
|
安全地加速从企业级到百亿亿次级规模的工作负载
实时深度学习推理
超大模型的 AI 推理性能提升高达 30 倍
HPC 应用的性能提升高达 7 倍
百亿亿次级高性能计算
加速数据分析
为企业提高资源利用率
内置机密计算
为大规模 AI 和高性能计算提供出色的性能