DeepSeek-AI大模型信创一体机集高端服务器、AI管理系统、高效能基础模型、全流程AI工具链于一体的开箱即用的AI解决方案。适用于科研院所、教育、政府、企业等用户,有一定私域专有知识,希望快速构建AI能力赋能文字处理、数据分析、科学研究等繁重业务。
DeepSeek-AI大模型信创一体机服务器(国产GPU)产品优势:
1. 适配DeepSeek、Qwen、Llama等主流开源大模型;能够支持国内外主流软硬件生态和各种深度学习框架、算法模型和加速库。
2. 兼容CUDA生态,支持市场主流生态,生态应用迁移迅速;支持FP32、FP16、INT8等多精度推理混合计算。
3. 私有数据不出域,在保障数据安全的同时构建业务智能体,解决敏感数据无法上云的痛点;
4. 支持DeepSeek全系列满血版模型的训练推理,显著提升性能并降低部署成本。
DeepSeek-AI大模型信创一体机服务器(国产GPU)配置:
版本
|
AI大模型
|
硬件配置
|
应用环境
|
旗舰版
|
DeepSeek- 671B 满血版
/Qwen、Llama等
|
CPU:4x 32核X86/C86处理器
GPU:显存64G*16
内存:64GB*32 DDR4
硬盘:480G SSD *4+3.84T NVMe*4
网络:配置RDMA网卡或IB网卡
|
•支持满血版671B模型及蒸馏模型
•大并发、性能强
•可灵活扩展,支持大型企业规模化应用
|
高配版
|
DeepSeek- 70B
/Qwen、Llama等
|
CPU:2x 32核X86/C86处理器
GPU:显存32G*8
内存:64GB*16 DDR4
硬盘:480G SSD *2+3.84T NVMe*2
网络:以太网/RDMA网卡
|
•支持精度FP16的70B模型及蒸馏模型
•低成本、私有化部署
•满足客户体验、小规模使用需求
|
标准版
|
DeepSeek- 32B
/Qwen、Llama等
|
CPU:2x 32核X86/C86处理器
GPU:显存32G*4
内存:32GB*16 DDR4
硬盘:480G SSD*2+3.84T NVMe*2
网络:以太网
|
•支持精度FP16的32B模型及蒸馏模型
•高性价比
•支持中小企业各类AI应用需求
|
边缘版
|
DeepSeek-14B
/Qwen、Llama等
|
CPU:X86处理器
GPU:显存32G*2
内存:32GB*4 DDR4
硬盘:按需
网络:以太网
|
• 支持中小参数蒸馏模型
• 低门槛上车,轻量化应用
• 低噪音、可在政务、教育等办公环境部署
|
软件环境
|
推理框架:VLLm
操作系统:Ubuntu、国产系统
|