如何利用人工智能消除商业中的偏见?

导读 CNET和哥伦比亚广播公司新闻的高级制片人丹帕特森与Salesforce的道德人工智能实践架构师凯西巴克斯特(Kathy Baxter)就企业如何利用人工

CNET和哥伦比亚广播公司新闻的高级制片人丹帕特森与Salesforce的道德人工智能实践架构师凯西巴克斯特(Kathy Baxter)就企业如何利用人工智能(AI)来识别偏见和更好地理解自己的流程进行了交谈。以下是经过编辑的采访记录。

凯西巴克斯特:我预见的一些事情是,公司可以使用人工智能来识别他们在这个过程中的偏见。同样,如果他们查看他们的训练数据,他们可以看到一个模式。例如,非裔美国人比白种人更有可能被拒绝贷款。在开始编辑训练数据之前,请编辑您的模型,以尝试消除这种不平衡和缺乏公平性。退一步,看看业务流程。为什么会这样?它可以与特定的区域、办公室或一组销售或贷款经理隔离开来吗?你怎么能修好它?

参见:管理AI和ML的企业2019:技术领导者预计IT将比以前的IT项目(技术专业研究)更加困难。

我预见的一件事是,企业使用人工智能来真正更好地理解他们的业务流程,并与他们一起做出更公平和公正的决策。也可以用来真正解决我们社会的不平等。我们知道它们的存在。在政府政策中,如果政府使用人工智能系统,往往会有大量使用这些服务最多的人的数据,即少数民族和穷人。你关于一个群体的数据越多,你关于另一个群体(我们社会最富有的群体)的数据就越少,所以不太可能与这些政府服务部门互动,你就会不平衡,做出不公平的决定。

那么,当我们与人打交道时,我们如何看待政府的整体政策?我们如何评估是什么让他们最有可能重复?不太可能被保释或假释?一些历史因素不公平地影响了这些决定。同样,它不能只修复数据,修复模型,它需要修复我们的流程。

很多时间都花在谈论奇点上。人工智能会杀了我们。这确实分散了我们今天需要谈论的东西,即缺乏公平性。我们在创造这些系统的人中没有足够的多样性。对于如何衡量人工智能及其决策对社会的影响,我们了解得还不够。

我们如何评估并知道我们今天比昨天做得更好?很难测量负数。你怎么知道如果你因为这些道德行为已经就位,你就避免了一些伤害?这些问题很难解决,但它们是我们今天必须处理的问题。担心奇点,机器人来杀我们,这真的分散了我们应该有的对话。

了解更多智慧城市、人工智能、物联网、VR、AR、机器人、无人机、自动驾驶等黑科技创新。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。