训练人工智能(AI)神经网络所需的巨大计算资源导致了大量电力消耗。德国慕尼黑工业大学(TUM)的研究人员开发了一种方法,速度提高了100倍,因此更加节能。该方法不是采取迭代的方法,而是直接根据概率计算参数。目前的结果在质量上与现有的迭代方法可比。
AI应用程序,例如大型语言模型(LLMs),已成为我们日常生活中不可或缺的一部分。数据中心提供所需的计算、存储和传输能力,但消耗大量能源。在德国,仅2020年,这一数字约为160亿千瓦时,或约占全国总能源消耗的1%。预计到2025年,这一数字将增加到220亿千瓦时。
新方法速度提高100倍,准确性可比
未来几年更复杂的AI应用程序的到来将大幅增加对数据中心容量的需求。这些应用程序将在训练神经网络方面消耗大量能源。为了应对这一趋势,研究人员开发了一种训练方法,其速度提高了100倍,同时达到与现有程序可比的准确性。这将显著降低训练过程中的能耗。
在AI中使用的神经网络,如图像识别或语言处理,其运作方式受人类大脑工作的启发。这些网络由称为人工神经元的互连节点组成。输入信号用某些参数加权,然后进行求和。如果超过某一定义的阈值,则信号被传递到下一个节点。为了训练网络,参数值的初始选择通常是随机的,例如使用正态分布。然后逐步调整这些值,以逐渐改善网络的预测。由于需要多次迭代,这种训练非常耗费资源并消耗大量电力。
根据概率选择参数
物理增强机器学习教授Felix Dietrich及其团队开发了一种新方法。该方法不是迭代地确定节点之间的参数,而是采用概率方法。他们的概率方法基于在训练数据中关键位置的值的有针对性使用,在这些位置大数据和快速变化的情况发生。当前研究的目标是利用这种方法从数据中获取节能的动态系统。这类系统随时间变化,符合某些规则,例如气候模型和金融市场。
“我们的方法能够在最小的计算能力下确定所需的参数。这可以使神经网络的训练速度大大加快,因此更加节能,”Felix Dietrich说。“此外,我们观察到新方法的准确性与使用迭代训练的网络可比。”