丰富 ROCm 软件栈并非 AMD 的一厢情愿,AI 初创企业和 AI 开发者社区都愿为了更低的算力成本和更多的芯片选择而助 AMD 一臂之力。我们认为,AI 初创企业对于获取英伟达之外的其他可选算力意愿较高。2023 年 6 月 30 日 Mosaic ML(初创生成式 AI 公司,MIT背景)发布了基于 ROCm 使用 AMD 的 MI250 GPU 进行大语言模型的训练日志,称其希望在“这个全由英伟达供应的世界里”提高选择性。日志中,MosaicML“无需转码(no code changes were needed)”基于 AMD 的 MI250 和 ROCm 实现了模型训练。更多类似的尝试 将推动 R OCm 的边界向外拓展。2023 年 6 月 14 日 A MD 数据中心与人工智能发布会上,HuggingFace(人工智能开发者社区,开源共享模型和数据集,可认为是 AI 的 Github)宣布与 AMD 建立合作,这项合作的重点正是把 Hugging Face 的 Transformer 库集成进ROCm 中,目的是让用户在 AMD 的芯片上训练和推理在库中的模型时无需其他操作,正如 Hugging Face CEO Clement Delangue 在会上直言“我们希望所有人都能在 AMD 的芯片上运行模型(we want everyone to be able to run their models on AMD hardware)”。