用可解释的人工智能承担责任

可解释性不是技术问题,而是人的问题。

因此,人类有责任解释和理解人工智能模型是如何得出它们所做的推论的,富国银行(Wells Fargo)执行副总裁兼创新、战略、数字和创新主管Madhu Narasimhan说。

“这就是为什么可解释人工智能变得如此重要的一个关键部分,”她在今天的VentureBeat Transform 2023活动的炉边聊天中向观众强调。

用可解释的人工智能承担责任

Narasimhan向与会者和主持人Jana Eggers解释道,富国银行对其Fargo虚拟助手进行了“大量”的事后测试,以了解该模型为什么会以这种方式解释语言。Jana Eggers是突触智能平台Nara logic的联合创始人兼首席执行官。

在构建模型的过程中,公司同时构建了可解释性,并拥有一个独立的数据科学家小组,他们分别对模型进行验证。

纳拉西姆汉说:“我们把这作为测试的一部分,以确保当客户开始使用虚拟助手时,它的行为完全符合他们的期望。”“因为虚拟助理如此普遍,其他体验都无法接受。”

以人类的方式行事

Narasimhan说,从本质上讲,我们的目标是让模型表现得像人类一样,“因为这是人工智能的全部前提。”

关键的挑战之一是人类是有偏见的,确保模型没有偏见是至关重要的。“我们必须保护和管理数据中的偏见,”她说。

她解释说,作为其模型开发过程的一部分,富国银行会在属性级别和数据集级别查看所有数据元素的偏差。

埃格斯则指出,虽然消除偏见很重要,但彻底清理数据并不重要。

“我总是告诉人们,‘不要清理你的数据’,因为很多数据都很脏,很乱,”她说。“这就是生活,我们必须有适应这种生活的模式。”

她指出,如果一台机器可以告诉人们它在数据中看到了什么,那么人们就可以进去告诉它停止看到某种偏见。

埃格斯说:“这并不是说我想去掉数据。“我想调整和调整,就像对待人类一样,我们想让人们意识到:‘嘿,你有一些偏见。’”

共同努力实现可解释性

最终,重要的是要了解生成式人工智能能做什么,以及它的局限性,Narasimhan说。领先的经济力量将建立越来越复杂的模型,因此,为了支持意外推断,将继续需要可解释性。

为了全面支持这一点,富国银行的数据科学家创建了一个python可解释的开放访问工具包,该工具包已与其他金融机构共享。

纳拉西姆汉说:“这就是我感到兴奋的地方:能够开发一种工具,以开放的方式提供,让每个人都能看到你如何内在地解释模型。”“你越能解释我们如何得到一个模型的可解释性,我认为这对我们所有人都有好处。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除。