具体看,支持生成式人工智能的计算加速芯片对于电能的消耗巨大。根据麦肯锡的预测,美国数据中心能耗或从2023年的147TWh(147T瓦时或1470亿度),以22.4%的CAGR上升到2030年的606TWh。在这个过程中,数据中心用电占美国全国的用电比例或从2023年的3.7%上升到2030年的11.7%。而全球范围内,根据英飞凌的预测,2023年全球数据中心能耗达到500TWh,同时保守预测较低的情况下2030年总能耗或可达到1000TWh,对应10.4% CAGR,而激进情况下2030年或可达2000TWh,对应20.8% CAGR。作为AI服务器的耗电主要来源,英伟达AI加速芯片的能耗也随着技术演进不断上升,从最初Amphere 100的400W,到最新产品Blackwell200 的1000W以及GB200的2400W。在这个大背景下,任何边际上能源更高效的技术都受到终端用户(云服务厂商)的欢迎。