研究人员开发了一种更高效的芯片,以应对大型语言模型人工智能应用如Gemini和GPT-4消耗的巨大电力。
俄勒冈州立大学工程学院的研究人员开发了一种更高效的芯片,以应对大型语言模型人工智能应用如Gemini和GPT-4消耗的巨大电力。
“我们设计并制造了一种新芯片,其能耗比传统设计减少一半,”博士生拉敏·贾瓦迪说,他与电气工程副教授特贾斯维·阿南德共同在最近的IEEE定制集成电路会议上展示了该技术。
“问题在于,传输单个比特所需的能量,并没有与数据速率的需求增长以相同的速度减少,”阿南德说,他在俄勒冈州立大学领导混合信号电路与系统实验室。 “这导致数据中心消耗了如此多的电力。”
贾瓦迪表示,新芯片本身是基于人工智能原理,旨在减少信号处理过程中电力的使用。
“大型语言模型需要通过基于铜的有线通信链路在数据中心内发送和接收大量数据,这需要显著的能量,”他说。 “一个解决方案是开发更高效的有线通信芯片。”
当数据以高速发送时,贾瓦迪解释说,它会在接收端损坏,需要进行清理。大多数传统的有线通信系统使用均衡器来执行此任务,而均衡器相对耗电。
“我们在芯片上应用这些人工智能原理,以更智能、更高效的方式恢复数据,通过训练芯片上的分类器识别和纠正错误,”贾瓦迪说。
美国国防高级研究计划局、半导体研究公司和普遍连接中心支持了该项目,这使贾瓦迪在会议上获得了最佳学生论文奖。
贾瓦迪和阿南德正在研究芯片的下一代迭代,他们期望带来更大的能效提升。