
最近的一项研究强调,人工智能(ai)带来了许多好处,但它的采用可能会带来巨大的能源成本。生成式人工智能模型,如OpenAI的ChatGPT,在训练和操作使用过程中消耗大量的能量。虽然全球都在努力提高人工智能的能源效率,但由于杰文斯悖论,效率的提高可能会在不经意间提振需求。按照目前的预测,到2027年,人工智能的用电量可能与整个国家的用电量相当。研究人员强调了正念人工智能应用的重要性,因为它是能源密集型的。

人工智能(AI)有可能提高程序员的编码速度,提高司机的安全性,并加快日常工作的速度。然而,在最近发表在《焦耳》(Joule)杂志上的一篇评论中,Digiconomist的创始人表明,如果广泛采用该工具,可能会产生大量的能源足迹,未来可能会超过一些国家的电力需求。
“考虑到对人工智能服务日益增长的需求,未来几年与人工智能相关的能源消耗很可能会大幅增加,”作者、阿姆斯特丹自由大学的博士候选人亚历克斯·德弗里斯(Alex de Vries)说。
自2022年以来,可以生成文本、图像或其他数据的生成式人工智能经历了快速增长,包括OpenAI的ChatGPT。训练这些人工智能工具需要向模型提供大量数据,这是一个能源密集型的过程。总部位于纽约的人工智能开发公司hug Face报告称,其多语言文本生成人工智能工具在培训期间消耗了约433兆瓦时(MWH)的电力,足以为40个普通美国家庭提供一年的电力。
而且,人工智能的能源足迹还不止于培训。德弗里斯的分析表明,当该工具开始工作时——根据提示生成数据——每当该工具生成文本或图像时,它也会使用大量的计算能力和能源。例如,ChatGPT每天运行可能需要564兆瓦时的电力。
虽然世界各地的公司都在努力提高人工智能硬件和软件的效率,以降低这种工具的能源密集型,但德弗里斯表示,机器效率的提高往往会增加需求。最终,技术进步将导致资源使用的净增加,这种现象被称为杰文斯悖论。

德弗里斯说:“提高这些工具的效率和易用性的结果可能是,我们允许更多的应用程序和更多的人使用它。”
例如,谷歌(Google)一直在将生成式人工智能(generative AI)整合到公司的电子邮件服务中,并正在测试用人工智能为其搜索引擎提供动力。该公司目前每天处理多达90亿次搜索。根据这些数据,德弗里斯估计,如果每一次谷歌搜索都使用人工智能,每年将需要约29.2太瓦时的电力,相当于爱尔兰一年的用电量。
德弗里斯表示,这种极端情况在短期内不太可能发生,因为额外的人工智能服务器成本高昂,而且人工智能服务器供应链存在瓶颈。但是,人工智能服务器的生产预计将在不久的将来迅速增长。根据人工智能服务器生产的预测,到2027年,全球人工智能相关的用电量每年将增加85至134太瓦时。
这相当于荷兰、阿根廷、瑞典等国家的年用电量。此外,人工智能效率的提高还可以使开发人员将一些计算机处理芯片重新用于人工智能,这可能会进一步增加人工智能相关的电力消耗。
“潜在的增长表明,我们需要非常注意我们使用人工智能的目的。它是能源密集型的,所以我们不想把它放在各种我们实际上不需要它的地方,”德弗里斯说。
参考文献:Alex de Vries《人工智能日益增长的能源足迹》,2023年10月10日,焦耳。DOI: 10.1016 / j.joule.2023.09.004
发表评论
暂时没有评论,来抢沙发吧~