AI,太费电了?

2024-03-13
来源:世界互联网大会
分享

  AI背后是什么?是算力

  而算力背后又是什么?是能耗

  图源:Getty Images

  开年以来

  从美国OpenAI公司推出的

  视频生成工具Sora

  到美国Anthropic公司发布的

  Claude 3大模型系列

  “网红”生成式AI持续受到多方关注

  与此同时

  随着算力和性能的不断提升

  人工智能飞速发展的背后

  能源消耗问题也日益凸显

  成为业内关注的焦点

  人工智能的能耗究竟有多大?

  据美国《The New Yorker》杂志报道

  ChatGPT每天要响应大约2亿个请求

  在此过程中消耗超过50万度电力

  ≈美国家庭每天用电量的1.7万多倍

  这个“全新等式”令不少人感到惊讶

  《焦耳》杂志的一项研究表明

  到2027年

  全球新制造的服务器

  与人工智能相关的电力消耗

  可能会增加到

  85.4-134.0太瓦时

  (850-1340亿度电)

  这个数字

  与荷兰阿根廷瑞典等国家

  年用电量相当

  约占全球当前用电量的0.5%

  该作者表示

  有必要提醒人们

  “AI也是能源密集型技术”

  OpenAI 首席执行官 Sam Altman

  在世界经济论坛上发言

  图源:Getty Images

  而就在今年1月

  OpenAI首席执行官

  山姆·奥特曼(Sam Altman)

  也对人工智能行业能源消耗

  表达了类似的担忧

  他表示

  未来的人工智能需要能源方面的突破

  因为AI消耗的电力将远超过人们的预期

  “不取得突破,就不可能达到这个目标”

  他还补充道

  “我们需要核聚变

  更便宜的太阳能加储能

  或者其他大规模的东西”

  2月29日埃隆·马斯克

  远程出席“博世互联世界2024”大会

  图源:BOSCH

  最新的“预警”来自于埃隆·马斯克

  他在不久前公开指出

  人工智能消耗的算力

  似乎每6个月就会增加10倍

  接下来短缺的将是电力

  “明年人们将会看到

  没有足够的电力来运行所有的AI芯片”

  “科技大佬”的发声

  是否预示了新的能源危机?

  部分网友表示

  尽管这一数据看起来惊人

  但还是需要比较一下投入产出

  “就目前来看

  ChatGPT创造的价值远超它的能耗

  有从业者表示

  短期内

  在各种资源因素影响下

  AI用电量增速可能会被抑制

  但硬件和软件的能效提高

  也无法抵消长期的电力需求增长

  面对高能耗问题

  需要加速技术创新

  比如开发更高效的硬件算法

  以及采用更多的可再生能源

  来降低总体的能源消耗

  这也可能促使政策制定者

  重新考虑能源政策基础设施投资

  确保有足够的能源供应

  来支持AI等行业的发展

  相信随着技术的进步和市场的发展

  行业将会寻求解决方案

  来平衡能源消耗和效率

  以实现可持续发展

  参考丨央视财经、环球时报、财联社、环球零碳、Nature、量子位