亚马逊与 AI 公司 Hugging Face 合作:定制芯片低成本运行 AI 模型

IT之家 5 月 23 日消息,亚马逊公司的云部门宣布,已与人工智能初创公司 Hugging Face 合作,将在亚马逊的定制计算芯片上更低成本地运行数千个 AI 模型。估值 45 亿美元(IT之家备注:当前约 326.25 亿元人民币)的 Hugging Face 已成为 AI 研究人员和开发者分享聊天机器人或其他 AI 软件的中心,并得到了亚马逊、Alphabet 旗下的谷歌和英伟达等公司的支持,它是开发者获取和调整开源 AI 模型(如 Meta Platforms 的 Llama 3)的主要平台。当开发人员调整了开源的 AI 模型后,他们通常希望使用该模型来驱动软件。亚马逊和 Hugging Face 周三宣布,他们已经合作在一个名为 Inferentia2 的定制亚马逊网络服务(AWS)芯片上实现这一目标。“对我们来说,效率非常重要 —— 确保尽可能多的人能够运行模型,并且能够以最具成本效益的方式运行,”Hugging Face 的产品和增长负责人 Jeff Boudier 说。AWS 希望吸引更多的 AI 开发者使用其云服务来交付 AI。虽然英伟达在训练模型的市场上占据主导地位,但 AWS 认为其芯片可以以较低成本运行那些经过训练的模型。负责 AWS 人工智能产品的 Matt Wood 表示,你可能每个月训练这些模型一次,但可能每小时对它们进行成千上万次推理,这是 Inferentia2 真正闪光的地方。广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

亚马逊与 AI 公司 Hugging Face 合作:定制芯片低成本运行 AI 模型