IF=31.068!Nat. Rev. Phys.概述可解释机器学习在粒子物理学中的应用!

IF=31.068!Nat. Rev. Phys.概述可解释机器学习在粒子物理学中的应用!
机器学习(ML)方法在粒子物理学中具有广泛应用,但没有可解释性就不能保证算法学习的结果是正确/稳健的。开发可解释的ML/AI方法是为了消除多变量分析的黑箱问题,然而物理学中可解释AI的曙光主要归结为解释神经网络如何分析实验数据,而不是转向更可解释的ML框架,这有助于更好地理解ML模型的动力学并在随后的分析中建立信心。
IF=31.068!Nat. Rev. Phys.概述可解释机器学习在粒子物理学中的应用!
在此,德国电子同步加速器(DESY)研究中心/洪堡大学Ayan Paul等人概述了如何将可解释性引入粒子物理学中常用的ML方法。其中,用于对科学数据中的非线性关系进行建模的两个最常见的ML框架是决策树和神经网络。决策树易于解释,但不如神经网络强大。相反,在给定噪声数据的情况下,神经网络的泛化效果要好得多,但其参数无法提供任何关于输入变量与输出变量如何连接的洞察力。
此外,处理更复杂的数据集需要增加模型的复杂性,但这样做会导致其可解释性下降。为了重新引入训练模型的可解释性元素,研究人员提出了事后方法来检查ML模型并尝试找出做出决策的原因。这些方法大致分为两类:(1)根据输入变量解释每个结果的局部方法;(2)全局方法,将模型解释为一个整体并确定整体“变量重要性”,从而构建输入变量在确定输出中的重要性层次结构。
IF=31.068!Nat. Rev. Phys.概述可解释机器学习在粒子物理学中的应用!
图1. ML模型准确性-可解释性之间的权衡
进一步,作者以测量希格斯粒子与底部夸克的汤川耦合为例说明了可解释分析在粒子物理学中的应用。这种测量面临的挑战是从运动学相似的背景中提取极小的信号,而基于运动学切割的传统方法无法分离这些信号。ML(增强决策树,BDT)模型使任务更可行,但代价是分析不透明。然而,动力学可通过使用Shapley值来解释BDT并将重要性层次分配给变量来理解。此外,本文中关注的是变量重要性方面,但更有挑战性的主题如误差传播、模型鲁棒性和建立物理模型也需要关注。
作者认为:贝叶斯推理和ML的协同作用可实现对模型参数和预测的误差估计;模型鲁棒性的理解可帮助避免在模型训练的参数空间附近的错误预测,进而实现更好的泛化;建立与物理相关的模型可建立更可靠的系统动力学模型,从而预测控制系统的基本规律。总之,本文提供了一个初学者指南,用于构建粒子物理领域可解释的多变量分析模型。
IF=31.068!Nat. Rev. Phys.概述可解释机器学习在粒子物理学中的应用!
图2. 粒子物理学领域可解释性分析的简单举例
Lessons on interpretable machine learning from particle physics, Nature Reviews Physics 2022. DOI: 10.1038/s42254-022-00456-0

原创文章,作者:v-suan,如若转载,请注明来源华算科技,注明出处:https://www.v-suan.com/index.php/2023/10/13/303f2ebf27/

(0)

相关推荐

发表回复

登录后才能评论