IT之家 11 月 8 日消息,据路透社,百度今年向华为订购了大量 AI 芯片,以此作为 Nvidia 的替代品。 消息人士透露,百度订购了 1600 片昇腾 910B AI 芯片,可用于 200 台服务器。截至今年 10 月份,华为已向百度交付了超过 60% 的订单,即大约 1000 片。 分析称,尽管这个订单量,与过去通常从英伟达订购的数千颗芯片相比,规模较小,但知情人士认为它代表百度 AI 芯片来源从英伟达切换到华为,这对行业来说具有重要意义。 第二位人士表示,这笔订单的总价值约为 4.5 亿元人民币,华为将在今年年底前交付所有芯片。由于交易细节保密,两人都拒绝透露姓名。 消息人士指出,这对于中国厂商来说是非常重要的一步,因为它代表一些公司如何摆脱对于美国公司的依赖。 据称,百度、腾讯、阿里巴巴等中国同行一直被认为是 Nvidia 的长期客户,而此前并不为人所知的是,百度也是华为的 AI 芯片客户。 尽管华为的昇腾芯片在性能方面仍然被认为远远落后于 Nvidia 的产品,但第一位消息人士表示,它们是中国市场上可用的最强的国产替代选项。 值得一提的是,科大讯飞副总裁江涛此前指出,目前华为昇腾 910B 能力已经基本做到可对标英伟达 A100。 IT之家查询公开资料发现,海思昇腾 910 发布于 2019 年,同时还推出了与之配套的新一代 AI 开源计算框架 MindSpore,而 MindSpore 也已经于 2020 年完成开源。 目前,华为昇腾社区已公开 Atlas 300T 产品有三个型号,分别对应昇腾 910A、910B、910 Pro B,最大 300W 功耗,前两者 AI 算力均为 256 TFLOPS,而 910 Pro B 可达 280 TFLOPS(FP16)。 作为对比,英伟达 A100 发布于 2020 年,采用双精度 Tensor Core,基于 Ampere 架构,功耗达到了 400W,FP32 浮点性能 19.5TFLOPS,FP16 Tensor Core 性能可达 312TFLOPS。 值得一提的是,PyTorch 基金会上个月正式宣布华为作为 Premier 会员加入基金会,这也是中国首个、全球第十个 PyTorch 基金会最高级别会员。 除此之外,PyTorch 最新的 2.1 版本已同步支持昇腾 NPU,并在华为的推动下更新了更加完善的第三方设备接入机制。基于该特性,三方 AI 算力设备无需对原有框架代码进行修改就能对接 PyTorch 框架,昇腾也提供了官方认证的 Torch NPU 参考实现,可以指导三方设备便捷接入。 基于新版本,用户可以在昇腾 NPU 上直接享受原生 PyTorch 的开发体验,获得高效运行在昇腾算力设备上的模型和应用。 |