第75章 英伟达Blackwell架构B200芯片,成本和能耗较前代改善25倍(1/2)

在AI技术日新月异的今天,英伟达再次以惊人的创新力引领行业潮流。近日,英伟达宣布推出新一代AI图形处理器blackwell,其首款芯片Gb200将于今年晚些时候正式发货。这一重磅消息不仅彰显了英伟达在AI芯片领域的领先地位,更预示着AI计算即将迈入全新的发展阶段。

blackwell GpU的推出,是英伟达对AI计算性能极限的又一次挑战。据悉,blackwell拥有六项革命性技术,能够支持多达10万亿参数的模型进行AI训练和实时LLm推理。这一强大性能的背后,是英伟达对芯片技术的深入研究和不断创新。

首先,blackwell采用了全球最强大的芯片设计。这款GpU由2080亿个晶体管组成,采用量身定制的台积电4纳米工艺制造。其独特的双晶粒设计,将两个极限GpU裸片通过10 tb\/秒的芯片到芯片链路连接成一个统一的GpU,实现了前所未有的计算性能。

其次,blackwell搭载了第二代transformer引擎。这一引擎结合了blackwell tensor core技术和英伟达先进的动态范围管理算法,使得blackwell能够支持新的4位浮点AI,从而实现双倍的计算和模型大小推理能力。这将大大加速AI模型的训练和推理过程,提升AI应用的性能表现。

此外,blackwell还配备了第五代NVLink技术。这一技术为每个GpU提供了突破性的1.8tb\/s双向吞吐量,确保了最复杂LLm之间多达576个GpU之间的无缝高速通信。这将极大提升AI计算集群的性能和效率,为大规模AI模型的训练和应用提供有力支持。

除了强大的计算性能,blackwell还在可靠性、安全性以及数据处理方面进行了全面升级。其内置的RAS引擎实现了可靠性、可用性和服务性的提升,通过基于AI的预防性维护进行诊断和预测可靠性问题,从而最大限度地延长系统正常运行时间并降低运营成本。同时,blackwell还支持先进的机密计算功能,保护AI模型和客户数据的安全,为隐私敏感行业提供了强有力的支持。此外,其专用的解压缩引擎支持最新格式,能够加快数据库查询速度,为数据分析和数据科学提供最高性能。

英伟达还为blackwell GpU设计了一款名为Gb200 NVLink 2的服务器。这款服务器结合了72个blackwell GpU和其他旨在训练AI模型的英伟达部件,为AI计算提供了强大的硬件支持。亚马逊、谷歌、微软和甲骨文等云服务提供商将通过云服务提供对Gb200的访问,这将使更多的企业和开发者能够享受到blackwell带来的强大性能。

本章未完,点击下一页继续阅读。

document.write ('');