全球最快的 AI 芯片拥有 4 万亿个晶体管和 900,000 个 AI 内核
Cerebras Systems 推出了晶圆级引擎 3 (WSE-3),这是世界上最快的 AI 芯片,具有 4 万亿个晶体管和 900,000 个 AI 内核。WSE-3 基于 5 纳米工艺构建,为 Cerebras CS-3 AI 超级计算机提供动力,该超级计算机能够实现 125 petaflops 的峰值 AI 性能。这款新芯片旨在高效训练大型 AI 模型,支持多达 24 万亿个参数的模型,无需分区,从而简化了训练过程。
这款 AI 芯片是一个强大的芯片,拥有 4 万亿个晶体管和 900,000 个 AI 内核。它是 Cerebras CS-3 AI 超级计算机的核心,可提供惊人的 125 petaflops 峰值 AI 性能。该芯片将改变大型 AI 模型的训练方式,轻松处理多达 24 万亿个参数。Third 第 5代晶圆级引擎 (WSE-3) 为业界最具可扩展性的 AI 超级计算机提供支持,通过 2048 个节点提供多达 256 exaFLOP。
“几年前,当我们开始这段旅程时 ,每个人都说晶圆级处理器是一个白日梦。我们 非常自豪能够推出我们突破性的第三代水垢AI芯片,“Cerebras首席执行官兼联合创始人Andrew Feldman说。“ WSE-3 是世界上最快的 AI 芯片,专为最新的尖端 AI 工作而打造 ,从专家混合到 24 万亿参数模型。我们很高兴将 WSE-3 和 CS-3 推向市场,以帮助解决当今最大的 AI 挑战。
WSE-3 采用先进的 5 nm 工艺技术构建,可集成 44 GB 片上 SRAM。但它并不止于此;您可以将芯片的内存从外部扩展到 1.2 PB。这意味着即使是需要大量数据的任务也可以顺利处理。该芯片的设计具有高度可扩展性,允许您连接多达 2048 个 CS-3 系统。这使得它适用于各种用途,从企业到大规模计算环境。
Cerebras 推出世界上最快的 AI 芯片
Cerebras 不仅专注于原始性能;他们还确保他们的技术是用户友好的。Cerebras 软件框架现在支持 PyTorch 2.0,它简化了大型语言模型 (LLM) 的编程。这意味着开发人员可以用更少的代码做更多的事情,从而降低复杂性并加快开发新应用程序所需的时间。WSE-3 还引入了针对动态和非结构化稀疏性的硬件加速,这可能会使训练时间快 8 倍。
规格
- 4万亿个晶体管
- 900,000 个 AI 核心
- 125 petaflops 的峰值 AI 性能
- 4 个 4GB 片上 SRAM
- 5nm台积电制程
- 外部存储器:1.5TB、12TB 或 1.2PB
- 训练多达 24 万亿个参数的 AI 模型
- 最多 2048 个 CS-3 系统的集群大小
在计算领域,节能至关重要。令人印象深刻的是,WSE-3 的性能是其前身的两倍,同时功耗保持不变。这是至关重要的,因为这意味着我们可以在不超出能源预算的情况下继续推动人工智能的界限。
WSE-3 和 CS-3 AI 超级计算机的影响已经在不同行业感受到。Cerebras 积压了大量来自商业、政府和国际云服务等行业的订单。该技术在与阿贡国家实验室和梅奥诊所等领先机构的合作中发挥着关键作用,有助于人工智能研究和改善患者护理。
展望未来,Cerebras 计划与 G42 合作,打造一些世界上最大的 AI 超级计算机。Condor Galaxy 3 正在筹备中的一个项目将提供令人难以置信的 8 exaFLOP 的 AI 计算,展示 WSE-3 的巨大潜力。
Cerebras 的晶圆级引擎 3 是 AI 技术向前迈出的重要一步。凭借其无与伦比的计算能力、可扩展性和节能性能,以及高级软件框架的支持,它是任何希望利用 AI 全部功能的人不可或缺的工具。随着 Cerebras 不断突破极限,人工智能开发和应用的未来看起来比以往任何时候都更有希望。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun289215.html