ChatGPT 狂欢背后:我们是在用高碳换智能吗?聊聊“算力即电力”的下半场

最近大家都在聊大模型和 AI 落地,但我发现行业里有一个很容易被忽视的隐忧:AI 的尽头,其实是能源。

有一组数据让我印象很深:训练一次 GPT-3 级别的模型,碳排放量大约相当于一辆燃油车行驶 70 万公里。而这仅仅是训练阶段,推理阶段(也就是我们日常提问)的能耗更是难以估量的天文数字。数据中心(IDC)正在成为新的“吞电巨兽”。

这就引出了一个对于我们双碳人很纠结的问题:数字化转型(通常被认为是减排手段)在 AI 时代会不会变成新的排放源?

我个人的看法是:短期看涨,长期看跌(减排)。

为什么?因为 AI 虽然耗能,但它更是优化能源效率的神器。

  1. 供给侧: AI 能够精准预测风电、光伏的波动性,让电网调度更平滑,解决新能源“弃风弃光”的痛点。

  2. 消费侧: 在虚拟电厂(VPP)场景下,AI 算法能指挥成千上万个分散的储能设备和电动车进行削峰填谷。

未来的双碳之战,本质上是算力效率 VS 能源效率的博弈。我们需要的不是限制 AI 发展,而是我们要尽快推动“绿色算力”的标准制定,比如更多地将数据中心建在西部(东数西算),直接消纳当地的绿电。

请登录后发表评论

    没有回复内容

发现