AWS 将在未来的人工智能芯片中采用英伟达的 NVLink Fusion
亚马逊云计算部门推出人工智能工厂,加快人工智能模型训练速度
新型 AWS 服务器的计算能力提高 4 倍,能耗降低 40
Stephen Nellis/Greg Bensinger
路透拉斯维加斯12月2日 - 亚马逊公司(Amazon.com)AMZN.O的AWS云计算部门周二表示,将在其未来几代人工智能计算芯片中采用英伟达NVDA.O的关键技术,因为该公司正加紧努力让主要的人工智能客户使用其服务。
亚马逊网络服务公司(AWS)表示,它将在未来的芯片中采用一种名为 "NVLink Fusion "的技术,该芯片被称为Trainium4,没有明确的发布日期。NVLink 技术可在不同类型的芯片之间建立快速连接,是 Nvidia 的克朗上的宝石之一。
两家公司是在 AWS 于拉斯维加斯举行的为期一周的年度云计算大会上宣布这一消息的。亚马逊预计还将展示其 Nova AI 模型的新版本,该模型最初于去年亮相。
英伟达一直在推动 (link),让其他芯片公司采用其NVLink技术,英特尔 (link)、高通 (link),现在AWS也加入了进来。
该技术将帮助AWS构建更大的人工智能服务器,这些服务器可以更快地识别并相互通信 ,这对于训练大型人工智能模型来说是一个关键因素,在训练过程中必须将成千上万台机器串联在一起。作为 Nvidia 合作伙伴关系的一部分,客户将可以访问 AWS 所称的 AI 工厂,即在自己的数据中心内建立专属的 AI 基础设施,以提高速度和就绪程度。
"Nvidia首席执行官黄仁勋(Jensen Huang)在一份声明中说:"Nvidia和AWS正在共同打造人工智能工业革命的计算结构--将先进的人工智能带给每个国家的每家公司,加速世界的智能化进程。
另外,亚马逊表示,它正在推出基于名为 Trainium3 的芯片的新服务器。AWS 计算和机器学习服务副总裁戴夫-布朗(Dave Brown)告诉路透,周二上市的新服务器每台包含 144 个芯片,计算能力是 AWS 上一代人工智能服务器的四倍多,同时功耗降低了 40%。
布朗没有给出功率或性能方面的绝对数字,但他表示,AWS 的目标是在价格基础上与包括英伟达在内的竞争对手展开竞争。
"布朗说:"我们必须向他们证明,我们的产品能够提供他们所需要的性能,并且价格合理,这样他们就能获得性价比优势。"这意味着他们可以说,'嘿,是的,这就是我想去使用的芯片'。
(为便利非英文母语者,路透将其报导自动化翻译为数种其他语言。由于自动化翻译可能有误,或未能包含所需语境,路透不保证自动化翻译文本的准确性,仅是为了便利读者而提供自动化翻译。对于因为使用自动化翻译功能而造成的任何损害或损失,路透不承担任何责任。)

