AI服务器拉升英伟达云端 AI 芯片需求:这几年因为 Nvidia 英伟达的 GPU大量被使用在人工智能的云端辨识系统,从每台服务器加两片高速运算GPU 卡,4 片到 8 片 GPU 卡都有,让 Nvidia 在数据中心芯片市场的份额从 2018-2019 年的不到 10%, 到 2021 年的超过 20%,全球人工智能服务器占比也逐年提升至 2021 年近 10%,但光就 AI 推理及训练加速器而言, 英伟达应该有超过 95%以上的份额。英伟达的 4nm芯片 H100, 芯片面积虽然达 812mm2,最大耗电量达 700W, 但其在浮点半精度,单精度,双精度稀疏及理论峰值运算都明显优于同业,为了让 H100 的 DGX 人工智能服务器系统发挥效能,还要另外配备非常昂贵的 320-640GB HBM (高频宽内存) 给 AI GPU 使用,为了控制使用价格昂贵的 HBM 让总成本不要失控,英伟达决定在 2023 年初推自家的设计的 ARM CPU (Grace)配合其高速NVlink 通讯网络(500GB/秒传输速率), 可以让 CPU/GPU 共同分享DDR4/5/HBM存储器达到快取一致性(Cache Coherency), 我们认为未来哪家公司能率先推出 AI服务器达到 Cache Coherency ,这就是未来 AI服务器竞争者的决胜点之一。