这一协作让两家企业在x86架构上的协作更进一步,此前在根据DGX B300 Blackwell的渠道上,两边就已选用Xeon 6776P处理器建立了x86架构协作,这也代表着Intel成功“抱上”NVIDIA的大腿,在AI服务器范畴站稳了脚跟。
据悉,DGX Rubin NVL8是NVIDIA新一代旗舰AI服务器体系,主打智能体AI和推理体系等新式使用场景。在这套体系中,主机CPU的效果至关重要,首要担任使命编列、内存办理、调度,以及向GPU加快器传输数据。
而跟着AI推理作业负载逐渐向智能体AI和推理体系转型,这些作业对单核功用和内存带宽的要求也渐渐变得高。

Intel方面表明,至强6处理器经过内存容量、带宽和I/O功用的归纳提高,刚好能满意这些需求。这款处理器地点的渠道可支撑高达8TB的体系内存,Intel称这一点对支撑键值缓存逐渐扩展的大型言语模型来说尤为要害。
凭借MRDIMM技能,其内存带宽较上一代提高了2.3倍,能显着提高数据传输到GPU加快器的速度。
与此同时,PCIe 5.0通道可完成高带宽的加快器衔接,Intel推出的“优先中心睿频加快”(Priority Core Turbo)功用,还能把微弱的单线程功用会集用于编列、调度和数据传输使命,即使作业负载变得更杂乱,也能确保GPU保持高利用率。
在安全和兼容性上,至强6处理器经过Intel信赖域扩展(TDX),能为CPU到GPU的整个数据途径供给安全防护。其间TDX技能会经过加密反弹缓冲区,添加根据硬件的阻隔和认证功用,刚好能满意AI推理在数据中心、云端、边际等多场景布置时,对端到端秘要核算的需求。此外,至强6还新增了对NVIDIA Dynamo推理编列结构的支撑,凭借这一结构,同一集群内的CPU和GPU资源可完成异构调度。
“在这个新时代,主机CPU的效果至关重要。”Intel公司副总裁兼数据中心战略项目总经理杰夫麦克维表明,它直接决议着GPU加快体系的编列功率、内存拜访加载速度、模型安全性以及吞吐量。
Intel还说到,至强处理器老练的x86软件生态、丰厚的企业布置经历,以及与现有AI软件栈的杰出兼容性,正是NVIDIA挑选它的要害原因。
此次两边的协作,沿用了与DGX B300相同的架构根底,让Blackwell和Rubin两代产品完成了渠道层面的连续性,有望推进AI推理技能在数据中心、云端、边际等场景的规模化落地。