科学家警告 ChatGPT用电量堪比1.7万个美国家庭
- 来源:互联网
- 作者:财联社
- 编辑:陶笛
AI开发不但耗水,更加的耗电,近日,荷兰数据科学家Alex de Vries告诉媒体,他发现人工智能可能具有与加密货币相当的耗电能力,并认为有必要提醒人们“AI也是能源密集型技术”。
目前de Vries供职于荷兰央行,他在业余之际运营了一个名为“Digiconomist”的博客网站,最初专注于探讨数字货币能源消耗以及对环境的负面影响,但在去年意识到AI的风险后,他在博客中添加了一个新标签——“人工智能的可持续性”。
去年,de Vries在专门研究可持续能源的杂志《焦耳》(Joule)上发表了一篇论文:研究结果估计,如果谷歌将生成式人工智能集成到用户的每次搜索之中,其用电量将升至大约每年290亿度。
需要指出的是,许多国家的用电量甚至达不到这一数字的水平,包括肯尼亚、危地马拉和克罗地亚。
众所周知,人工智能需要大量的电力。以OpenAI的聊天机器人ChatGPT为例,在训练其背后的大语言模型(LLM)时就需要处理大量的信息,每一次处理都需要电力。
而用户在使用ChatGPT时,其每次作出回应也需要电力。据估计,ChatGPT每天要响应大约2亿个请求,在此过程中消耗超过50万度电力。与之相比,每一个美国家庭的平均用电量只有29度,相当于1.7万个家庭的用电量。
今年1月,OpenAI的首席执行官山姆·奥尔特曼也对人工智能的成本表达了类似的担忧。当时奥尔特曼表示,未来的人工智能需要能源方面的突破,因为AI消耗的电力将远远超过人们的预期。
上周,国际能源署(IEA)发布的报告显示,2023年全球与能源相关的二氧化碳排放量达到创纪录的374亿吨。分析认为,即使多国政府都在推进净零排放的政策,但全世界整体的努力程度可能还远远不够。
玩家点评 (0人参与,0条评论)
热门评论
全部评论