通过实施可解释人工智能的方法,工程师可以增强用户对 AI 模型预测的信任。最近,这一策略在风能生产的背景下进行了评估。
可解释人工智能 (XAI) 是人工智能领域中的一个分支,它使用户能够深入了解 AI 模型的内部工作原理,帮助他们理解输出是如何生成的,以及这些预测是否可以被认为是可靠的。最近,XAI 在计算机视觉等领域的重要性越来越高,特别是在图像识别中,理解模型做出的选择至关重要。在这一领域取得成功后,XAI 现在正逐渐应用于需要信任和透明度的不同领域,如医疗保健、交通和金融。
来自瑞士洛桑联邦理工大学 (EPFL) 风能工程与可再生能源实验室 (WiRE) 的研究人员已将 XAI 适应于风电预测中使用的不透明 AI 模型。发表在《应用能源》上的一项研究表明,XAI 有助于通过揭示这些模型所做决策的顺序,阐明风能预测,同时强调应该包括哪些因素作为输入。
“为了让电网运营商成功地将风能纳入智能电网,他们需要提供可靠的风能发电日常预测,并且误差范围要尽可能小,”WiRE 负责人费尔南多·波特-阿赫尔教授表示,”当预测不准确时,电网运营商常常需要进行临时调整,通常会诉诸于价格更高的化石燃料能源。”
提高预测可信度
目前用于风能输出预测的模型依赖于流体动力学、天气预测和统计技术,但它们仍然显示出显著的误差范围。人工智能使工程师能够通过分析大量数据集来揭示天气模型变量与风力涡轮机输出之间的相关性,从而改进这些预测。然而,许多 AI 模型作为“黑箱”运行,复杂了理解特定预测是如何得出的过程。XAI 通过增强告知预测的建模过程的透明度来解决这一挑战,从而带来更可信、更可靠的预测。
识别关键变量
在他们的研究中,团队通过从气象模型中选择对风能产生有重大影响的关键输入变量(包括风向、风速、气压和温度)以及来自瑞士及其他地方的风电场收集的数据来训练神经网络。”我们定制了四种 XAI 技术,并创建了评估技术解释可靠性的指标,”研究的首席作者、WiRE 的博士后研究员廖文龙解释道。
在机器学习领域,指标是工程师用来衡量模型有效性的工具。例如,它们可以确定两个变量之间的关系是否表明因果关系,或者仅仅是相关性。这些指标是针对特定用途量身定制的——例如,诊断健康问题、评估交通拥堵影响,或评估一家公司的股市价值。”在我们的研究中,我们建立了各种指标来衡量 XAI 技术的可信度。重要的是,可靠的 XAI 方法可以识别应包含在我们的模型中的变量,以实现准确预测,”廖补充道,”我们甚至发现某些变量可以省略而不影响准确性。”
提升竞争力
研究合著者、EPFL 研究员方建农相信,这些见解可以增强风能的竞争力。”如果电力系统运营商缺乏对指导其预测模型的基本原则的理解,他们不太可能接受风能,”他指出,”然而,通过基于 XAI 的方法,这些模型可以得到评估和改善,从而 yields 更可靠的风能日常波动预测。”