News Release 

机器学习的可解释性揭示了公共政策的挑战

American Association for the Advancement of Science

机器学习(ML)系统的“可解释性”常构成设计人工智能系统群体所面临的技术挑战。然而,在一则《政策论坛》中,Diane Coyle和Adrian Weller表明,可解释性的挑战对于使用ML系统的决策者来说至少同样重大。Coyle和Weller认为,应对这一挑战提出了一些有关在其决策中使用ML的组织所面临的更广泛问责制等重要问题,并且可能暴露隐藏但却含蓄的政治偏见。在ML的背景中,可解释性指的是可以用人类术语解释的内部复杂数学力学系统的程度范围。换言之,它是某个模型根据给予的信息所得出其结论的基本原理。尽管功能强大且在大范围的应用程序中越来越多地得到使用,但当前大多数的ML系统皆属黑盒子,人们—甚至包括那些研发它们的人—对该复杂算法如何运作所知甚少,遑论芸芸之众。因此,对机器学习系统可解释性的需求日益增长,特别是在公营部门中的使用,因为那里未被发现的偏见和数据不准确可能会导致对受影响者产生重大冲击的政治决策。Coyle和Weller提出,ML使用的日益增加将迫使决策者和组织机构设定更为具体明确的目标,后者可引申为设定更为具体明确的价值和政治选择。据作者披露,在使用可解释和透明ML方面的进步可能帮助披露政策决定中相互矛盾的目标和隐含的得失取舍,就像它帮助揭示了在现有社会和经济体系中的偏见一样。

###

Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.