人工智能如何重塑商业规则

过去几周,关于人工智能风险和监管的全球讨论取得了一些重大进展。无论是美国与山姆·奥特曼(Sam Altman)就OpenAI举行的听证会,还是欧盟宣布修订《人工智能法案》(AI Act),都呼吁加强监管。

但让一些人感到惊讶的是,政府、研究人员和人工智能开发人员在这种监管需求上达成了共识。在国会作证时,OpenAI首席执行官萨姆·奥特曼(Sam Altman)提议成立一个新的政府机构,为开发大规模人工智能模型颁发许可证。

对于这样一个机构如何监管该行业,他提出了一些建议,包括“许可和测试要求相结合”,并表示像OpenAI这样的公司应该接受独立审计。

人工智能如何重塑商业规则

然而,尽管越来越多的人对风险(包括对人们工作和隐私的潜在影响)达成了共识,但对于这些监管应该是什么样子,或者潜在的审计应该侧重于什么,人们仍然没有达成共识。在世界经济论坛举办的第一届生成式人工智能峰会上,来自企业、政府和研究机构的人工智能领导者齐聚一堂,就如何应对这些新的道德和监管考虑达成一致,其中出现了两个关键主题:

需要对人工智能进行负责任的审计

首先,我们需要更新对企业开发和部署人工智能模型的要求。当我们质疑“负责任的创新”的真正含义时,这一点尤为重要。英国政府最近通过安全、透明、公平等5项核心原则,引领了人工智能的发展方向。牛津大学最近的一项研究也强调,“像ChatGPT这样的法学硕士课程迫切需要更新我们的责任概念。”

推动新职责背后的核心驱动因素是,理解和审核新一代人工智能模型的难度越来越大。为了考虑这种演变,我们可以在推荐工作候选人的例子中考虑“传统”AI与LLM AI或大型语言模型AI。

如果传统的人工智能是根据识别特定种族或性别员工的数据进行训练的,那么它可能会因为推荐相同种族或性别的人而产生偏见。幸运的是,这是可以通过检查用于训练这些人工智能模型的数据以及输出建议来捕获或审计的。

随着新的法学硕士支持的人工智能,这种类型的偏见审计变得越来越困难,如果不是有时不可能,测试偏见和质量。我们不仅不知道一个“封闭的”法学硕士是在什么数据上训练的,而且一个对话式的推荐可能会引入偏见或更主观的“幻觉”。

例如,如果您要求ChatGPT总结总统候选人的演讲,谁来判断它是否有偏见?

因此,对于包含人工智能推荐的产品来说,考虑新的责任比以往任何时候都更重要,比如推荐的可追溯性,以确保推荐中使用的模型实际上可以经过偏见审计,而不仅仅是使用法学硕士。

这就是建议或决定的界限,这是人力资源新人工智能法规的关键。例如,新的纽约AEDT法正在推动对专门涉及就业决策的技术进行偏见审计,比如那些可以自动决定雇佣谁的技术。

然而,监管环境正在迅速发展,不仅仅是人工智能如何做出决策,而是如何构建和使用人工智能。

向消费者传达人工智能标准的透明度

这就引出了第二个关键主题:政府需要为如何构建人工智能技术以及如何向消费者和员工明确这些标准制定更清晰、更广泛的标准。

在最近的OpenAI听证会上,IBM首席隐私和信任官克里斯蒂娜•蒙哥马利(Christina Montgomery)强调,我们需要制定标准,确保消费者每次与聊天机器人互动时都能意识到这一点。这种关于人工智能开发方式的透明度以及不良行为者使用开源模型的风险是最近欧盟人工智能法案考虑禁止法学硕士api和开源模型的关键。

如何控制新模式和新技术的扩散,在风险和收益之间的权衡变得更加清晰之前,还需要进一步的辩论。但越来越明显的是,随着人工智能影响的加速,制定标准和法规的紧迫性,以及对风险和机遇的认识也越来越迫切。

人工智能监管对人力资源团队和商业领袖的影响

人工智能的影响可能在人力资源团队中得到了最快的感受,他们被要求应对新的压力,为员工提供提升技能的机会,并为其执行团队提供调整后的预测和围绕新技能的劳动力计划,这些新技能将适应其业务战略。

在最近两次关于生成式人工智能和未来工作的世界经济论坛峰会上,我与人工智能和人力资源领域的领导者以及政策制定者和学者进行了交谈,讨论了一个正在形成的共识:所有企业都需要推动负责任的人工智能采用和意识。世界经济论坛刚刚发布了《未来就业报告》(Future of Jobs Report),该报告强调,在未来五年内,预计23%的工作岗位将发生变化,其中6900万个岗位将被创造,8300万个岗位将被淘汰。这意味着至少有1400万人的工作处于危险之中。

该报告还强调,在2027年之前,不仅每10名员工中就有6人需要改变他们的技能,他们需要提高技能和再培训,而且目前只有一半的员工能够获得足够的培训机会。

那么,团队应该如何让员工参与到人工智能加速的转型中呢?通过推动以员工为中心的内部转型,并仔细考虑如何创建一套兼容和连接的人员和技术体验,使员工对自己的职业生涯和自我发展的工具有更好的透明度。

新一波法规正在帮助人们重新审视如何在与人相关的决策中考虑偏见,比如人才——然而,随着这些技术被工作和工作之外的人所采用,企业和人力资源领导者比以往任何时候都更有责任了解技术和监管环境,并在他们的团队和业务中推动负责任的人工智能战略。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除。