AI应用程序自我解释的动机是什么

时间:2020-09-23 15:15:24来源:
导读AI的所谓黑匣子方面,通常称为可解释性问题,简称X(AI),在过去几年中慢慢出现。尽管如此,随着AI的飞速发展,它现在被认为是一个重大问题

AI的所谓“黑匣子”方面,通常称为可解释性问题,简称X(AI),在过去几年中慢慢出现。尽管如此,随着AI的飞速发展,它现在被认为是一个重大问题。

如果您无法理解模型得出的结论,该如何信任模型?对于商业利益,出于道德考虑或监管考虑,如果用户理解,适当信任并有效管理AI结果,则X)(AI)是必不可少的。在研究该主题时,我惊讶地发现了近400篇关于该主题的论文。

AI应用程序自我解释的动机是什么?我认为,实际上有四个主要原因可以解释产生不同解释的动机,如下所示:

解释的理由-对特定结果的理由或理由的需求,而不是对决策过程背后的推理逻辑的内部运作的描述,特别是在做出意外决策时。它还确保以一种可审计且可证明的方式捍卫算法决策的公正性和道德性,从而建立信任并证明该模型符合要求。

解释控制权-可解释性可以防止出现问题。了解系统行为可以使您了解未知的漏洞和缺陷,并可以在低严重性情况下纠正错误。

改进说明-模型,内置的AI或数据科学或任何数字代码都必须不断改进。如果您现在知道为什么系统产生特定的输出,那么您还将学习如何使其更智能。

探索发现-解释产生新的事实,其价值在于机器可以向我们解释其学习的策略(知识)。将来,XAI模型将教会我们有关生物学,化学和物理领域的新的和隐藏的定律。可解释性是证明基于AI的决策的有力工具。它可以帮助验证预测,改进模型并获得对当前问题的新见解。

最新文章