企业合乎道德、有效地开发生成式人工智能模型的3种方式

美国总统正在与人工智能专家会面,研究人工智能的危险。山姆·奥特曼和埃隆·马斯克公开表达了他们的担忧。咨询巨头埃森哲成为最新一家押注人工智能的公司,宣布计划在这项技术上投资30亿美元,并将其专注于人工智能的员工人数增加一倍,达到8万人。除此之外,微软(Microsoft)、Alphabet和英伟达(Nvidia)等其他咨询公司也加入了竞争。

大公司在采用人工智能之前不会等待偏见问题消失,这使得解决所有主要生成人工智能模型面临的最大挑战之一变得更加紧迫。但人工智能监管需要时间。

因为每个人工智能模型都是由人类构建的,并根据人类收集的数据进行训练,所以不可能完全消除偏见。然而,开发人员应该努力减少他们在模型中复制的“真实世界”偏见的数量。

人工智能中的现实偏见

为了理解现实世界的偏见,想象一个人工智能模型经过训练,可以确定谁有资格获得抵押贷款。根据个人信贷员的决定来训练这个模型——其中一些人可能会含蓄地、非理性地避免向某些种族、宗教或性别的人发放贷款——这有可能在输出中复制他们在现实世界中的偏见。

同样的道理也适用于那些旨在模仿医生、律师、人力资源经理和无数其他专业人士思维过程的模型。

人工智能提供了一个独特的机会,以避免偏见的方式标准化这些服务。相反,如果不能限制我们模型中的偏差,就有可能使严重缺陷的服务标准化,使一些人受益,而另一些人则付出代价。

以下是创始人和开发者可以采取的三个关键步骤:

1. 为你的人工智能模型选择正确的训练方法

例如,ChatGPT属于机器学习的更广泛的类别,即大型语言模型(LLM),这意味着它吸收大量的文本数据并推断文本中单词之间的关系。在用户方面,这意味着LLM在回答问题时,根据周围的上下文,用统计上最可能的单词填充空白。

但是有很多方法可以训练机器学习模型的数据。例如,一些医疗技术模型依赖于大数据,因为它们使用单个患者的记录或单个医生的决策来训练人工智能。对于建立特定行业模型(如医疗或人力资源人工智能)的创始人来说,这种大数据方法可能会给他们带来不必要的偏见。

让我们想象一下,一个人工智能聊天机器人经过训练,可以与患者通信,为医生提供他们的医疗报告的临床摘要。如果用上面描述的方法构建,聊天机器人将根据咨询数百万其他病人的数据(在这种情况下是记录)来制作输出。

这样的模型可能会以令人印象深刻的速度产生准确的输出,但它也引入了数百万个体患者记录的偏见。从这个意义上说,大数据人工智能模型变成了一种难以追踪的偏见鸡尾酒,更不用说修复了。

这种机器学习方法的另一种替代方法,特别是针对特定行业的人工智能,是根据行业知识的黄金标准来训练你的模型,以确保偏见不会转移。在医学上,这是同行评议的医学文献。在法律上,它可能是你所在国家或州的法律文本,对于自动驾驶汽车来说,它可能是实际的交通规则,而不是单个人类驾驶员的数据。

是的,即使是这些文本也是由人类制作的,并且包含偏见。但考虑到每个医生都努力掌握医学文献,每个律师都花费无数时间研究法律文件,这些文本可以作为构建较少偏见的人工智能的合理起点。

2. 平衡文献与不断变化的现实世界数据

在我的医学领域中存在着大量的人类偏见,但事实是,不同的种族、年龄、社会经济群体、地点和性别面临着不同程度的疾病风险。非裔美国人比白种人更容易患高血压,德系犹太人比其他群体更容易患某些疾病。

这些差异值得注意,因为它们是为患者提供最佳护理的因素。尽管如此,在将这些差异注入模型之前,理解文献中这些差异的根源还是很重要的。医生是否因为对女性的偏见,给女性开某种药物的比率更高,从而使她们患某种疾病的风险更高?

一旦你了解了偏见的根源,你就能更好地解决它。让我们回到抵押贷款的例子。据《商业内幕》去年报道,为美国大多数抵押贷款提供担保的房利美和房地美发现,有色人种更有可能从零工经济工作中获得收入。这不成比例地阻碍了他们获得抵押贷款,因为这样的收入被认为是不稳定的——尽管许多零工经济工人仍然有很强的房租支付历史。

为了纠正这种偏见,房利美决定在信用评估决策中加入相关的租金支付历史变量。创始人必须建立适应性强的模型,能够平衡以证据为基础的官方行业文献与不断变化的现实世界事实。

3.在你的AI模型中建立透明度

为了检测和纠正偏差,您需要了解模型是如何得出结论的。许多人工智能模型没有追溯到它们的原始来源或解释它们的输出。

这样的模型通常会自信地以惊人的准确性做出回应——看看ChatGPT的奇迹般的成功就知道了。但如果他们不这样做,就几乎不可能确定哪里出了问题,以及如何防止未来不准确或有偏见的输出。

考虑到我们正在构建的技术将改变从工作到商业到医疗保健的一切,人类能够发现并修复其推理中的缺陷是至关重要的——仅仅知道它的答案是错误的是不够的。只有这样,我们才能负责任地对这种技术的成果采取行动。

人工智能对人类最有希望的价值主张之一是,从医疗保健、招聘、借贷、司法和其他行业中清除大量的人类偏见。只有我们在人工智能创始人中培养一种文化,努力寻找有效的解决方案,最大限度地减少我们在模型中引入的人类偏见,这才会发生。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除。