4.1级地震袭击马里布附近,震动洛杉矶

Magnitude 4.1 earthquake strikes near Malibu, rattles Los Angeles LOS ANGELES − A magnitude 4.1 earthquake struck near Malibu, California Sunday afternoon, according to the U.S. Geological Survey. The USGS placed the epicenter near the Arroyo Sequit park in the Santa Monica Mountains, just north of the coastal suburb of Los Angeles. The Survey registered
技术新方法显著降低人工智能能耗

新方法显著降低人工智能能耗

训练人工智能(AI)神经网络所需的巨大计算资源导致了大量电力消耗。德国慕尼黑工业大学(TUM)的研究人员开发了一种方法,速度提高了100倍,因此更加节能。该方法不是采取迭代的方法,而是直接根据概率计算参数。目前的结果在质量上与现有的迭代方法可比。

AI应用程序,例如大型语言模型(LLMs),已成为我们日常生活中不可或缺的一部分。数据中心提供所需的计算、存储和传输能力,但消耗大量能源。在德国,仅2020年,这一数字约为160亿千瓦时,或约占全国总能源消耗的1%。预计到2025年,这一数字将增加到220亿千瓦时。

新方法速度提高100倍,准确性可比

未来几年更复杂的AI应用程序的到来将大幅增加对数据中心容量的需求。这些应用程序将在训练神经网络方面消耗大量能源。为了应对这一趋势,研究人员开发了一种训练方法,其速度提高了100倍,同时达到与现有程序可比的准确性。这将显著降低训练过程中的能耗。

在AI中使用的神经网络,如图像识别或语言处理,其运作方式受人类大脑工作的启发。这些网络由称为人工神经元的互连节点组成。输入信号用某些参数加权,然后进行求和。如果超过某一定义的阈值,则信号被传递到下一个节点。为了训练网络,参数值的初始选择通常是随机的,例如使用正态分布。然后逐步调整这些值,以逐渐改善网络的预测。由于需要多次迭代,这种训练非常耗费资源并消耗大量电力。

根据概率选择参数

物理增强机器学习教授Felix Dietrich及其团队开发了一种新方法。该方法不是迭代地确定节点之间的参数,而是采用概率方法。他们的概率方法基于在训练数据中关键位置的值的有针对性使用,在这些位置大数据和快速变化的情况发生。当前研究的目标是利用这种方法从数据中获取节能的动态系统。这类系统随时间变化,符合某些规则,例如气候模型和金融市场。

“我们的方法能够在最小的计算能力下确定所需的参数。这可以使神经网络的训练速度大大加快,因此更加节能,”Felix Dietrich说。“此外,我们观察到新方法的准确性与使用迭代训练的网络可比。”