来源:中国环境报 肖琪
和AI 聊天,需水量居然这么大?
近日,谷歌发布《2023 年环境报告》(以下简称《报告》),其中一项数据引发广泛关注:其去年的用水量同比显著增加20%,达到56亿加仑。这约等于 212.079 亿升水,相当于大约 31850 个奥运标准游泳池的水量。这些水资源绝大部分被用于为公司的数据中心散热。《报告》还详细阐述了维持大型数据中心运行所带来的环境代价,而伴随着人工智能竞赛的日益激烈, 谷歌预计未来的用水量还将继续增长。
一头是人工智能发展的大势所趋,一头是数字经济绿色低碳的诉求。数字经济以云计算为重要基础设施,在 AI 革命提速的今天,让算力更加高效低碳变得尤为重要。
聊10句天,ChatGPT可能要费半斤水
用ChatGPT写论文、做旅游攻略,尝试解决各个领域的问题,2023年初,由OpenAI打造的ChatGPT火遍全球,人们迫不及待地体验、分享,沉浸在人工智能带来的新奇体验中,而这一现象级应用,也引发了全球互联网公司的AIGC竞赛。
在大众的认知里,AI的前景和未来更依赖于硬件和软件等基础设施以及技术的更迭。殊不知,AI需要进行大量的训练,数据中心更承载着传递、展示、计算、存储数据信息的功能,动辄集成上百万台服务器,好玩新奇的背后需要更强的算力中心和与之匹配的散热能力,让服务器保持良好的运行温度。
其中,冷却数据中心最常用的方法就是蒸发和放空,而这也是水冷型数据中心耗水量的主要部分之一。除了蒸发会失去水分,数据中心会定期对冷却系统进行清洗,这也将消耗一定数量的水资源。
卡罗拉多大学与德克萨斯大学的研究人员曾在一篇《让 AI 更节水》的预印论文中发布了训练 AI 的用水估算结果。
结果显示,训练 GPT-3 所需的清水量相当于填满一个核反应堆的冷却塔所需的水量(一些大型核反应堆可能需要几千万到上亿加仑的水)。ChatGPT(在 GPT-3 推出之后)每与用户交流 25个—50 个问题,就得“喝掉”一瓶 500 毫升的水来降降温。
同样发展人工智能,作为 Google Bard 聊天机器人的全新底层模型,PaLM 2 想要获得成效就得经过高强度的预训练,参数越多,性能也就越好。公开资料显示,PaLM 2 是在 3.6 万亿个 token (计算机术语)上训练的,作为对比,上代 PaLM 也仅接受了 7800 亿 token 的训练。
加州大学副教授 Shaolei Ren 指出:“用水量增加 20% 大致与谷歌计算能力的增长一致,而谷歌的计算能力主要是由人工智能推动的。”数据中心耗水的核心原因呼之欲出:皆因对AI的大量训练。
AI快速发展,还需解决“喝水”和能耗问题
在AI快速发展的过程中,对水资源的消耗会不断加码升级。而这也正成为决定数据中心未来的因素之一。
谷歌曾设定目标,在2023年之前补充其办公室和数据中心消耗的120%的淡水。然而,目前只完成其中的6%,与目标相去甚远。在最新《报告》中,谷歌已将“当地水资源压力”(即稀缺程度的一种表示方式)纳入考量,并表示其在2022年时有82%的淡水抽取量来源于水资源相对充裕的地区。但由于数据中心的用水量增长将持续存在,可持续的用水策略仍是未来的重点。
相关专家呼吁,尽快为数据中心用水建立一套规范、统一的标准与利用效率评价方法,使其成为数据中心实现绿色低碳发展的关键标准工具。
实际上,为了节约宝贵的自来水资源,很多企业尝试用各种方法为数据中心散热,例如,微软曾尝试部署海下数据中心,Facebook数据中心选址北极圈附近,阿里云千岛湖数据中心使用深层湖水制冷。
在高密度、高能耗的数据中心庞大需求下,制冷领域技术的革新也开始涌现,一个加速的趋势就是,液冷出现且有望逐步成为制冷领域的主力。
液冷技术是指使用液体取代空气作为冷媒,与CPU、芯片组、内存条以及扩展卡等发热部件进行热交换,带走热量的技术。相比于传统的风冷技术,液冷技术的制冷效率更高,可有效降低制冷系统的运行能耗,使数据中心PUE(电源使用效率)达到1.3 以下。
今年7月6日,在第六届世界人工智能大会上,互联网头部企业和运营商合计发布了30多款大模型和10多款高算力智能芯片,其背后都有液冷数据中心的影子。随着大模型时代的到来,能够实现超高密度IT设备散热的液冷技术也将在数据中心领域得到高速发展。
科技企业要成为绿色低碳云计算的领跑者
数据中心是数字经济的基座,除了水资源,电力资源的紧张、“双碳”目标的要求,以及整体用电量的快速提升等现实,都使得数据中心运营的难度会越来越大,同时还要面临节能审查和“碳能双考”等多重压力。
联通数字科技有限公司工作人员车凯曾撰文指出:“数据中心实质上是将能源转换为算力的载体,转换效率越高,意味着数据中心实现相同算力付出的能源成本越低。”
在未来,力争成为绿色低碳云计算的领跑者,是科技企业破局的关键。
以阿里云数据中心为例,分别从绿色能源、绿色产品及技术、绿色架构、绿色运营、绿色服务等多个维度将自身打造成一朵清洁的云。“不仅包括让更多的机构通过上云来减少对本地化部署机房和服务器的依赖,还包括提供基于云计算的数智工具,帮助客户在数智化转型的同时实现绿色低碳,从而真正发挥绿色通用算力在数字循环经济转型中的价值。”阿里云数据中心相关负责人告诉本报记者。
在液冷服务器技术上,阿里云数据中心主力研发的基础设施和 IT 设备一体化浸没式液冷架构,可以完全脱离风扇、空调等机械制冷,达到年均 PUE 低至 1.09,较行业平均水平节能 36%。截至 2023 年 3 月 31 日,在 7 个大规模数据中心部署智能算法运维策略后,实现冷却系统能耗下降 5%—11%。阿里云数据中心相关负责人表示:“液冷技术下的全场景实时精确温控,能释放芯片计算潜能,有效解决未来更高性能的计算需求。”