深度学习可解释平台

探索深度学习模型的可解释性,揭示黑盒模型的内部工作机制

深度学习可解释平台示意图
随着数据模态的日益多样化,材料科学中的数据复杂性不断提升,推动模型由传统机器学习向深度结构演化,以应对高维、非线性和跨模态特征。然而,深度模型的非线性映射加剧了“黑盒性”,即隐空间不可理解、预测过程不可追踪、结果不可归因,难以显式揭示原子结构、传输机制与宏观性能间的关系。为系统揭示深度学习模型从生成到预测再到决策的可解释机制,本课题组发展了概念嵌入的深度表达学习可解释策略,提出了可解释、可控生成式模型(如Cloud-VAE和DW-VAE等),建立从特征空间到概念空间可解释映射关系,实现深度模型的内部特征、预测过程和生成结果的可理解、可控和可信。具体包括:(1) 隐空间解释:通过概念嵌入建立特征空间与语义空间映射,揭示潜变量在生成过程中的作用规律;(2) 预测过程解释:提出基于预测概率分布的DNN预测过程解释方法,采用“提取–重构”策略可视化隐藏层动态变化,实现预测过程可追踪;(3) 决策结果解释:提出基于概念树的决策结果解释方法,建立层次概念与模型表征映射,提供概念级、忠实于模型的局部解释。该平台自下而上贯通生成、预测与决策的可解释性分析体系,使模型隐空间可理解、预测过程可追踪、输出结果可归因,为可信深度学习研究提供系统化支撑。
点击下载
点击下载
参考文献
作者:Yue Liu , Zitu Liu , Shuang Li , Zhenyao Yu , Yike Guo , Qun Liu , Guoyin Wang
Cloud-VAE: Variational autoencoder with concepts embedded
期刊名称:Pattern Recognition, 年份:2023
论文下载
软件著作权
软著编号:软著登字第13438550号
变分自编码器隐空间解释平台V1.0
计算机软件著作权
点击下载
软著编号:软著登字第14751527号
基于预测概率分布的DNN预测过程解释平台V1.0
计算机软件著作权
点击下载
软著编号:软著登字第14752393号
基于概念树的深度学习决策结果解释平台V1.0
计算机软件著作权
点击下载