英伟达是几乎与GPU世界同义的公司。在Nvidia GPU技术大会上,该公司推出了其首个数据中心CPU。Nvidia首次进入中央处理器领域,被称为Grace,它以著名的Arm架构为基础,并有望提供当今最快的服务器10倍的性能。
Nvidia的Grace以计算机先驱Grace Hopper的名字命名,他发明了最早的链接器之一并奠定了COBOL的基础,它将直接满足优先考虑高性能计算的用例。这些应用范围从自然语言处理,计算机视觉到蛋白质折叠和量子化学。
Grace背后的动机是生产可以与当今的GPU紧密耦合的CPU,从而消除系统瓶颈。为此,Nvidia选择了第4代NVIDIA的arm架构和LPDDR5x内存子系统NVLink互连技术。总而言之,Nvidia声称该生态系统将提供比传统DDR4内存高10倍的能源效率,并且Grace和Nvidia之间的连接速度达到创纪录的900 GB / s 与当今的领先服务器相比,系统上的GPU所带来的总带宽将提高30倍。
Nvidia现在是一家三芯片公司(这意味着它专门研究CPU,GPU和DPU)。英伟达创始人兼首席执行官黄仁勋,在重要时刻发表了评论:
“领先的AI和数据科学正在将当今的计算机体系结构推向极限,即处理不可思议的数据量。使用授权的Arm IP,Nvidia已将Grace设计为专门用于大规模AI和HPC的CPU。结合GPU和DPU,Grace为我们提供了第三种基础计算技术,并具有重新架构数据中心以推进AI的能力。英伟达 现在是一家三芯片公司。”
Arm的首席执行官Simon Segars指出了ARM架构如何成为未来数据中心硬件背后的驱动力:
“作为世界上使用最广泛的许可处理器架构,Arm每天以令人难以置信的新方式推动创新。Nvidia对Grace数据中心CPU的介绍清楚地说明了Arm的许可模型如何实现一项重要的发明,这项发明将进一步支持AI研究人员和科学家在各地的出色工作。”
Nvidia将全力支持GraceHPC软件开发套件以及完整的CUDA和CUDA-X库。尽管您将不得不等待一点CPU本身。预计2023年初将有两年的可用性。瑞士国家超级计算中心(CSCS)和美国能源部的Los Alamos国家实验室已经宣布了使用Grace为数据中心供电的计划。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun45711.html