

| 服务包 | CPU | RAM | 硬盘 | GPU | IP | Data transfer | 带宽 | Data Center Location | 安装费 | 价格 |
|---|---|---|---|---|---|---|---|---|---|---|
| Server GPU V100 16GB | 1 x Intel Xeon Gold 20 cores | 64GB | 2 x 480 GB SSD | 1 x Nvidia Tesla V100 16GB | 1 | 无限 | 100 Mbps | HCM/HN | 800,000 đ | |
| Server GPU V100 32GB | 1 x Intel Xeon Platinum 28 cores | 128GB | 2 x 480GB SSD |
1 x Nvidia Tesla V100 32GB 2 x Nvidia Tesla V 100 16GB | 1 | 无限 | 100 Mbps | HCM/HN | 800,000 đ | |
| Server GPU V100 64GB | 2 x Intel Xeon Platinum 28 cores | 192GB | 2 x 960GB SSD | 2 x Nvidia Tesla V100 32GB | 1 | 无限 | 100 Mbps | HCM/HN | 800,000 đ |
| RAM | 32GB RAM | 1,000,000 vnd/月 |
|---|---|---|
| 硬盘 | 480GB SSD | 600,000 vnd/月 |
| 960GB SSD | 1,200,000 vnd/月 | |
| IP | IPv4 | 100,000 vnd/月 |
| IPv6 | 30,000 vnd/月 | |
| 带宽 | 100Mbps | 1,400,000 vnd/月 |
| 900Mbps | 11,700,000 vnd/月 |

该系统采用英特尔至强金牌和至强铂金系列处理器,提供强大的处理性能、卓越的多线程能力和高度稳定性。GPU 服务器是运行人工智能、大数据处理和企业系统等繁重工作负载的理想平台。

配备 NVIDIA Tesla V100 GPU,优化了投资成本与性能之间的平衡。凭借专用 Tensor Core,V100 可显著加速深度学习、机器学习和高性能计算任务,同时确保企业成本效益。

GPU 服务器位于国际认证(Tier 3)数据中心,确保备用电源、冷却系统和稳定的网络连接。这保证了高正常运行时间、持续运行,并将中断降至最低。

所有资源(CPU、GPU、内存、硬盘)均单独分配给每位客户,不与其他客户共享。这确保了性能稳定、安全性高,并防止其他用户干扰。

GPU 服务器配置了大容量内存(ECC)和高速 NVMe SSD,可加速数据访问、降低延迟,并针对需要持续数据处理的应用优化性能。

该系统支持高达 10Gbps 的高网络带宽,适用于需要大数据传输、实时 AI、分布式训练或高流量系统的应用。
VinaHost GPU 服务器采用 NVIDIA Tesla V100 等强大硬件,并结合高性能 CPU 进行优化,可快速处理 AI、深度学习和大数据任务。卓越的并行计算能力确保系统稳定运行、降低延迟,即使在高负载下也能保持最佳性能。
系统部署了多层安全防护,例如防火墙、DDoS 防护和严格的访问控制机制。数据存储在独立的资源上,最大限度地降低了数据泄露或外部攻击的风险。
用户可以根据实际需求轻松升级资源(GPU、CPU、内存、存储容量)。这使得企业能够随着项目的发展灵活扩展系统,而无需更改整个基础架构。
企业无需投资昂贵的初始 GPU 基础架构,而是可以根据需要租用 GPU 服务器。针对每个 GPU 版本优化性能,可降低模型训练成本,尤其适用于短期或实验性 AI 项目。
与传统 CPU 相比,GPU 可显著缩短训练和数据处理时间。得益于此,企业可以加速产品开发、模型测试,并更快地将应用推向市场。
| 组件 | 技术规格 |
|---|---|
| GPU | NVIDIA Volta GV100 架构。制造工艺:12 nm FFN(TSMC 定制),约 211 亿个晶体管。 |
| GPU 频率 | 1530 MHz(加速频率 / Boost Clock)。 |
| 显存 | 16 GB HBM2,4096 位总线。峰值带宽:900 GB/s。 |
| CUDA / Tensor 核心 | 5120 个 FP32(CUDA 核心)/ 2560 个 FP64 核心 / 640 个 Tensor 核心(专用于深度学习)。 |
| 计算性能(附加指标) | 15.7 TFLOPS(FP32) · 7.8 TFLOPS(FP64) · 125 TFLOPS(Tensor) |
| 功耗(TDP) | 300 瓦。支持“最大效率(Maximum Efficiency)”模式,以优化每瓦性能。 |
| 互连 | 第二代 NVLink(最多 6 条链路,300 GB/s)及 PCIe 3.0。 |
| 尺寸 | 140 mm × 78 mm(SXM2 规格)。 |
| 软件支持 | CUDA 9 · cuDNN · cuBLAS · TensorRT · Caffe2 · MXNet · CNTK · TensorFlow |
| ECC(纠错码) | 支持 SECDED ECC。可保护 HBM2 显存、L1/L2 缓存及寄存器文件,同时不降低性能。 |
当然可以。NVIDIA Tesla V100 显卡不仅可以用于 AI 训练,而且是专为深度学习任务设计和优化的最强大的处理器之一。
可以。您可以根据实际需求灵活定制配置,例如升级内存、存储容量、硬盘、网络带宽等。这可以优化成本和性能,尤其适用于项目开发的各个阶段(测试、训练、生产)。
服务器支持多种主流操作系统,例如 Windows Server、Ubuntu、Red Hat Enterprise Linux、Fedora、CentOS 和 ChromeOS。这些操作系统均与 NVIDIA CUDA 驱动程序完美兼容,可实现快速稳定的 AI 环境部署。
可以。您完全可以使用自己的操作系统许可证(自带许可证,BYOL)。我们的技术团队将根据您的要求协助安装和激活,确保系统正确稳定运行。
