随着人工智能的应用扩展到从招聘到医疗保健的方方面面,一个关键问题出现了:我们如何确保这些先进算法产生公正、公平的结果和决策?
这是最近CogX节小组讨论的主题,“偏见进,偏见出:正确与机器交谈的未来10年”。亿康先达(Egon Zehnder)技术主管斯文•彼得森(Sven Petersen)主持了关于这个话题的讨论,他称这个话题“有争议”、“激烈”,而且对所有行业的商业领袖来说也至关重要。
Rev公司业务发展副总裁瑞安·斯威尼(Ryan Sweeney)指出:“每个人都有偏见。”他以一个呼叫中心为例,在这个呼叫中心中,数千个代理在一个复杂而多样的过程中展示自己的偏见——呼叫者可以拨打电话寻求帮助,如果他们因为语言障碍或其他因素而得不到帮助,他们可以再次呼叫另一个代理。Sweeney随后进一步类比:引入一种算法来取代这数千名呼叫中心代理可能是一种划算的改变。“但如果你不小心,它就不会有我们在以前的体系中拥有的那种辉煌的多样性,”他说。数千个独立的有偏见的代理将被算法中的任何单一偏见所取代,并大规模应用。
从刑事司法算法中的种族定性,到给予男性比女性优势的AI招聘工具,人工智能决策中出现的偏见一个又一个案例表明,这种复杂性变得明显起来。在使用人工智能工具时,领导者必须意识到这些无意的危险,但要做到这一点,麦肯锡的纳乌尔·汗表示,组织必须首先就最佳人工智能应该是什么样子达成一致——换句话说,就是对“公平”的共同定义。
“如果我问不同的人,我会得到不同的答案——为什么呢?”汗问道。“这是因为每个人都有自己无意识的偏见。”“公平”的概念在不同的文化和地域也有不同的含义。汗警告说,如果没有一个明确的定义,就很难确定结果。
应对这一问题的一个方法是通过一个关键理念:多样性。小组成员、HireVue的IO心理顾问Suzanne Brink解释了她的公司为招聘和面试场景构建无偏见AI的努力。布林克说:“这始于不同的数据。她的公司的招聘数据来自世界各地,跨越种族和供应商。“但我们必须现实一点,不能想当然地认为一切都会好起来……我们经常会发现一些子群体的差异,然后我们会回过头来减轻这种差异。”
数据的多样性是一个步骤,但组织还必须有多样化的团队来解释数据,并确保产生的人工智能过程不存在偏见。纳尤尔·汗提出了基于人工智能的医疗保健中反复出现的种族偏见问题。“我们看到黑人患者在算法中受到了大规模的歧视,”他说。“这是因为没有人认真看过这些数据——缺乏多样性或理解。”
Khan继续举了面部识别技术中的种族偏见的例子,这也是人工智能领域中反复出现的问题,但这个问题可以通过拥有一支能够在使用该技术时识别这一盲点的多元化团队来解决。“当你拥有多元化的团队时,你会很快发现问题,”他说。
最后,领导者必须明白,尽管人工智能及其应用是革命性的技术,但他们无法神奇地逃脱其创造者——人类的缺陷。作为这些应用程序的建设者、营销人员和用户,我们必须能够理解自己的缺陷,并找到避免在人工智能中复制它们的方法,无论是通过努力实现真正公平的理想,还是在数据和人员中遵循多样性和包容性的价值观。
亿康先达的斯文·彼得森评论道:“人工智能的不完美反映了我们自身的不完美。”“只要我们让人工智能告诉我们该做什么,我们也就放弃了我们需要获得的责任。”