采访:用来训练和运行多产人工智能模型的图形处理器是耗电的小野兽,这已经不是什么秘密了.
事实上,据估计,到本世纪末,美国的数据中心可能会使用全国9%的发电量.
鉴于这种爆炸性的增长,一些人警告称,人工智能基础设施可能会耗尽电网.
主机托管提供商Digital Realty的首席技术官克里斯·夏普非常清楚与适应这些工作负载相关的挑战.
与运行传统工作负载的服务器(如虚拟机、容器、存储和数据库)相比,硬件加速的人工智能是另一回事.
如今,单个机架的GPU服务器可以轻松消耗40千瓦或更多.
NVIDIA和其他公司的下一代机架规模系统将需要至少100千瓦.
根据夏普的说法,大规模容纳这些要求苛刻的系统并非易事,需要以不同的方式思考数据中心的电力和冷却问题,你可以在下面的采访中了解更多信息.
YouTube视频,数据中心最终可能看起来非常不同.
夏普建议,小型核反应堆(SMR)和其他主要的现场发电可能会发挥作用.®.