人工智能是塑造下一代计算的决定性技术,也是 AMD 更大的战略增长机会。” 在数据中心和AI技术首发会上,AMD董事长兼首席执行官苏姿丰博士坚定地说。 毫无疑问,以Chat GPT为代表的生成式AI让人们看到了智能世界的新未来。 基于海量数据集的各种大模型席卷而来,千行百业的全面云化正在加速。 所有这些都对传统计算产生了巨大的影响。 基础设施提出了新的挑战。 AMD 显然已经为此做好了准备。

amd服务器cpu

AMD在云原生计算、技术计算、网络和AI方面的战略布局

在本次大会上,AMD推出了第四代AMD EPYC 97X4处理器。 这款代号一度为“所需的线程密度和规模”的处理器提供了更高的能效,让每台服务器能够支持更多容器。这些升级体现在更好的每瓦性能上,并且核心在密度方面进行了优化,可以让效益最大化在现有架构中,在性能方面对缓存级别进行了优化,以获得更多的吞吐量,为了更好地满足云场景的需求,Zen 4c的核心在主频上没有Zen 4那么高,但它拥有更高的核心密度和更好的能效,可以说在频率、核心密度、能耗方面找到了更好的平衡点。

amd服务器cpu

AMD EPYC 97X4 CPU

通过削减Zen 4的L3缓存,AMD将每个CCD的核心数量从Zen 4中的8个增加到16个,相当于每个插槽的核心数量增加了33%,最终可以容纳128个核心。 Zen 4c的内存选择12通道DDR5,支持ECC功能,频率达到. SP5平台有一个新的插槽。 第三代AMD提供了四链路连接,可以达到高达100%的速度。 用户可以根据需要选择单槽位和多槽位解决方案。 同时,64个I/O通道可支持CXL 1.1及更多功能。 安全方面,专用安全子系统提供更强的可靠性,具有信任根硬件特性、SME安全内存加密、安全虚拟化功能。

Meta与AMD共同探索第四代AMD EPYC 97X4处理器的应用,并将其落实到TCO改善等应用场景中,双方还针对Meta的功耗效率和计算密度优化EPYC CPU进行了深入研究。

amd服务器cpu

在Genoa-X中,AMD增加了每个核心的缓存数量,以满足更重的工作负载所需的高性能,减少了带宽的影响。 在一个芯片面积上容纳12个CCD,每个CCD的L3缓存增加了3倍,I/O Die和CCD之间可以实现单连接和双连接。 由于I/O结构保持不变,合作伙伴可以快速、无缝地设计、集成和部署新产品。

AMD EPYC 9004系列处理器的核心数量达到128个。每个CPU都具有混合芯片组架构。 核心采用台积电5纳米工艺制造,I/O芯片采用6纳米工艺。 除了12通道内存频率、128通道速度+8通道8Gbps之外,还可以支持CXL 1.1、CXL 3等各种新型内存技术。 安全方面,该处理器支持数据定位、AMD-C ECC(内存自动纠错)、实时错误收集以及SEV-SNP等安全增强功能,并支持AES 256 STS。

基于AMD EPYC 9004系列处理器,采用AMD 3D V-Cache技术的第四代AMD EPYC处理器为技术计算带来更强的体验,支持计算流体动力学(CFD)、有限元分析(FEA)等要求苛刻的工作负载、电子设计自动化(EDA)和结构分析,处理器内置96个Zen 4核心和1GB+ L3缓存,每天可以在Ansys CFX中完成更多设计任务,显着加速产品开发。

amd服务器cpu

配备 AMD 3D V 缓存的第四代 AMD EPYC(霄龙)

得益于AMD的技术,3D堆叠可以更好地利用能源效率的优势。 通过芯片下方3D缓存供电的设计,缓存容量得到了更好的扩展。 3D V-Cache 的内部互连密度比 2D 封装大 200 倍,比 Micro Bump 3D 封装大 15 倍/节能 3 倍。 这样可以帮助Genoa-X在处理EDA负载时将Genoa的性能提升70%。 3D堆栈设计在CCD之上,使得组件之间的距离很近,再加上三倍的缓存改进和低功耗,是其高能效的重要原因。

amd服务器cpu

与英特尔第四代至强可扩展处理器 (8490H) 的比较

amd服务器cpu

与英特尔第四代至强可扩展处理器 (8462Y) 的比较

会上,微软宣布全面推出基于采用 AMD 3D V-Cache 技术的第四代 AMD EPYC 处理器的 Azure HBv4 和 HX 实例。 该产品针对要求更高的 HPC 应用程序进行了优化,其最新实例的性能比上一代 HBv3 提高了 5 倍,并可扩展到数十万个 CPU 核心。

amd服务器cpu

amd服务器cpu

基于采用 AMD 3D 缓存技术的第四代 AMD EPYC 处理器的 Azure HBv4 和 HX 实例已上线

AMD在AI领域的投资也是具有战略意义的。 发布了涵盖云、边、端的一系列硬件产品组合,以及开放的AI软件生态计划。 其中,基于下一代AMD CDNA 3架构的AMD加速器(Q3样品)支持192GB HBM3内存,可以满足大规模语言模型和生成式AI在推理和训练中所需的计算和内存效率。 AMD平台可以集成八个加速器(1.5TB HBM3内存)作为标准设计提供。 AMD 还宣布,全球首款用于 HPC 和 AI 工作负载的 APU 加速器 AMD 正在向客户提供样品。 MI300系列内置异构计算混合芯片,具有独特的3D缓存设计。 CPU和GPU核心可以共享内存,实现更好的每瓦性能和低功耗。

amd服务器cpu

AMD AI平台涵盖云端、边缘、终端训练和推理场景

amd服务器cpu

AMD

此外,AMD还展示了用于数据中心加速器的ROCm软件生态系统,并表示正在与行业领导者合作构建开放的AI软件生态系统。 会议期间,介绍了 AMD 和基金会之间的合作,以实现 ROCm 软件堆栈的上游配置,并为所有 AMD 加速器上的 ROCm 5.4.2 版本 2.0 提供即时“零日”支持。 这种集成为开发人员提供了广泛的受支持 AI 模型,这些模型在 AMD 加速器上兼容并“开箱即用”运行。 面向 AI 开发者的开放平台 Face 宣布将优化 AMD 平台上的数千种 Face 模型,从 AMD 加速器到 AMD Ryzen 和 AMD EPYC 处理器,再到 AMD GPU 和 Alveo 自适应处理器。

amd服务器cpu

AMD 与

快速、智能、可靠的网络连接是建设下一代数据中心的重要保障。 在此次会议上,AMD展示了广泛的网络产品组合,包括AMD DPU、AMD超低延迟网卡和AMD自适应网卡。 AMD DPU 可以将软件堆栈与“零信任安全”和可编程数据包处理器相结合,以创建更智能、更高性能的 DPU。 AMD 还发布了 AMD-in-Kit (SSDK),使客户能够快速开发或迁移部署在 AMD P4 可编程 DPU 上的服务,以与 AMD 平台上已实现的现有丰富功能集配合使用。

amd服务器cpu

AMD P4 DPU

amd服务器cpu

AMD

目前AMD DPU已在IBM Cloud、Azure等云合作伙伴中大规模部署。 在企业中,它部署在 HPE Aruba CX 10000 智能交换机中,与 DXC 等客户合作,作为加速客户应用性能的一部分。 AMD还透露了其下一代DPU路线图,代号为“”,旨在为客户带来比当前一代产品更高的性能和能效,预计将于2023年底上市。

amd服务器cpu

HPE Aruba CX 10000 智能交换机

在会议上,AMD 和 AWS 展示了由第四代 AMD EPYC 处理器提供支持的下一代 Cloud (EC2) M7a 实例的预览。 亚马逊透露,EC2 M7a 实例提供了新的处理器功能,例如 AVX3-512、VNNI 和 AVX3-512、VNNI 等,使客户能够获得比 M6a 实例高出 50% 的计算性能,并为 AWS 带来更广泛的工作负载。 目前,双方已为通用、计算优化、内存优化和高性能计算工作负载提供了超过 100 个基于 EPYC 处理器的实例。 DNT 等客户都受益于基于 AMD 的 EC2 实例的显着成本和云利用率优化。 在本次会议之外,还宣布了提供由第四代 AMD EPYC 处理器支持的新计算基础设施 (OCI) E5 实例的计划。

amd服务器cpu

AMD 和 AWS 展示了由第四代 AMD EPYC 处理器提供支持的下一代 EC2 M7a 实例预览

amd服务器cpu

AMD全线新品发布

可以看出,AMD并不满足于传统x86市场的快速发展,而是将目光投向了更广阔的AI和云原生领域,在计算、网络、软件等领域全力发力,面向智能时代。 下一代数据中心奠定了坚实的基础。

()

好了,今天的主题就讲到这里吧,不管如何,能帮到你我就很开心了,如果您觉得这篇文章写得不错,欢迎点赞和分享给身边的朋友。

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注