作者:萨曼莎·沃拉文斯
几年前,当亚马逊发现其人工智能招聘工具系统性地歧视女性候选人时,这不仅仅是一场公关噩梦,也是对整个科技行业的警钟。该工具基于历史招聘数据进行了培训,学习并放大了现有的偏见,迫使亚马逊完全放弃该项目。这个警示故事突显了当今企业面临的一个关键挑战:在这些系统变得过于根深蒂固而难以修改之前,迫切需要解决人工智能中的偏见问题。AI偏见的隐性成本
最近的研究揭示了一个令人不安的现实:

人工智能系统往往在延续和放大现有的社会偏见,而不是消除它们。研究人力资源系统偏见的人工智能研究员Nathalie Salles-Olivier表示,“61%的绩效反馈更多地反映了评估者而不是员工。”当这种已经有偏见的人类数据被用于训练人工智能系统时,结果是一种复合效应,可能会在自动化决策过程中产生根深蒂固的系统性偏见。有偏见的人工智能系统的商业影响远远超出了道德问题,对公司的底线产生了切实的影响。

当人工智能系统在招聘中延续偏见时,组织就会错过可以推动创新和增长的宝贵人才。这些系统倾向于强化现有的模式,而不是确定新的方法,扼杀了创造性的问题解决,限制了新的视角。此外,有偏见的人工智能使公司面临法律漏洞和声誉损害,同时由于无法理解和联系不同的客户群体而限制了他们的市场范围。代表性问题
导致人工智能偏见的一个关键因素是其发展缺乏多样化的视角。

目前,只有22%的人工智能专业人员是女性,其他边缘化群体的代表性甚至更低。人工智能开发团队的这种同质性意味着,在系统部署到现实世界之前,潜在的偏见往往被忽视。Salles Olivier说:“火车已经离开车站了。”。“现在的问题是我们如何纠正它,重新获得代理权和权力。”这种情绪突显了形势的紧迫性——我们等待解决这些偏见的时间越长,它们在我们的人工智能系统中就越根深蒂固。

解决AI偏见的4种策略
为了有效解决人工智能偏见,公司必须实施一项涵盖四个关键领域的全面战略。一:使人工智能开发团队多样化
人工智能开发团队的多元化应该超越传统的招聘实践。正如Salles-Olivier所指出的那样,“女性往往不会从事她们觉得自己没有所有必要能力的工作。”为了应对这一问题,公司需要为非技术专家提供发表观点的途径。

“我想证明像我这样以前从未编码过的人可以进入并影响人工智能的发展方向,”Salles Olivier说,他在没有任何技术背景的情况下构建了人工智能代理。二:测试和审计人工智能系统
在部署人工智能系统之前,组织必须实施具有全面偏见测试协议的稳健测试框架。在进行测试之后,应对人工智能决策进行定期审计,以识别潜在的歧视模式。

在测试过程中包括不同的利益相关者有助于发现同质测试团队可能忽视的偏见问题,并确保系统对所有预期用户有效运行。第三:关注质量数据
古老的编程格言“垃圾进,垃圾出”与人工智能特别相关。数据质量是无偏见人工智能系统的基础。组织必须彻底审计他们的培训数据,以发现可能被人工智能系统延续的历史偏见。这涉及积极收集更多样化和代表性的数据集,以反映全方位的用户和用例。

在自然数据收集可能不足的情况下,公司应该考虑使用合成数据生成技术来平衡代表性不足的群体,并确保人工智能模型从更公平的数据分布中学习。第四:保持人的监督
最后,虽然人工智能可以增强决策,但人类的判断仍然至关重要。组织应该为关键决策实施“人在环”系统,确保人工智能建议得到人类专家的审查和验证。领域专家必须有权在必要时根据他们的经验和对人工智能可能遗漏的细微因素的理解推翻人工智能建议。

定期审查和调整人工智能系统参数有助于确保技术与组织价值观和目标保持一致,同时防止出现意外的偏见。行动呼吁
人工智能的未来将由我们今天采取的行动决定。解决人工智能偏见的挑战可能看起来很艰巨,但不作为的代价要大得多。随着人工智能系统越来越融入业务运营,它们所包含的偏见将对业务成果和整个社会产生越来越大的影响。

通过积极努力减少人工智能系统中的偏见,企业可以帮助确保人工智能成为积极变革的力量,而不是现有不平等的永久推动者。企业领导者必须: