1. **Instinct MI300X**:
- 采用 AMD CDNA 3 GPU 架构。
- 拥有高达 1530 亿个晶体管。
- 配备了 192GB 的 HBM3 高带宽内存,提供 5.2 TB/s 的内存带宽和 896GB/s 的无限带宽。
- 专为大型语言模型和生成式 AI 计算设计,能够运行拥有 400 亿参数的大型语言模型。
- 与英伟达的 H100 相比,MI300X 在内存容量和带宽上有显著提升,分别是 H100 的 2.4 倍和 1.6 倍。
2. **Instinct MI300A**:
- 结合了 CPU 和 GPU 的功能,采用 Chiplet 设计。
- 拥有 1460 亿个晶体管。
- 集成了 24 个 Zen 4 CPU 核心和 128GB 的 HBM3 内存。
- 提供高达 61 TFLOPS 的 FP64 算力和 122 TFLOPS 的 FP32 算力。
- 在 HPC 性能上,据 AMD 称,MI300A 的性能是英伟达 H100 的 4 倍,能效是 H100 的两倍。
AMD 还宣布了与 Hugging Face 的合作,以及新的 Bergamo 服务器处理器,旨在打破英伟达在 AI 和云计算领域的垄断。此外,AMD 还推出了 ROCm 6.0 开放软件平台,以支持各种人工智能工作负载,包括生成式 AI 和大型语言模型。
这些新产品的发布显示了 AMD 在 AI 芯片市场上与英伟达竞争的决心,尤其是在生成式 AI 和大型语言模型的快速发展背景下。AMD 的这些 AI 芯片预计将在数据中心、云计算和 AI 研究等领域发挥重要作用。
相关教程
2023-07-24
2024-01-25
2023-06-30
2024-08-01
2024-05-20
2023-12-09
2023-10-11
2024-01-27
2023-11-14
2024-11-18
2024-11-17
2024-11-17
2024-11-16
2024-11-15
2024-11-15