wellbet官方网站

wellbet官方网站新闻
如何克服人工智能在贷款决策中的偏见
发布时间:2024-06-26
  |  
阅读量:
本文摘要:应用于在贷款中的人工智能技术可以减缓贷款流程,并构建决策的自动化。几个月前,人工智能初创厂商Upstart公司宣告自正式成立以来筹措了1.6亿美元的资金,并与奥马哈第一国民银行和堪萨斯城第一联邦银行签订了协议。Upstart公司因其创意的贷款方式而取得用户接纳。 其发售的平台用于所谓的“替代数据”训练的人工智能技术确认合格的贷款人。这样的替代数据还包括关于申请人的出售习惯、电话记录、讨厌的游戏,以及在社交媒体的平均值信用评分等信息。

wellbet官方网站

应用于在贷款中的人工智能技术可以减缓贷款流程,并构建决策的自动化。几个月前,人工智能初创厂商Upstart公司宣告自正式成立以来筹措了1.6亿美元的资金,并与奥马哈第一国民银行和堪萨斯城第一联邦银行签订了协议。Upstart公司因其创意的贷款方式而取得用户接纳。

其发售的平台用于所谓的“替代数据”训练的人工智能技术确认合格的贷款人。这样的替代数据还包括关于申请人的出售习惯、电话记录、讨厌的游戏,以及在社交媒体的平均值信用评分等信息。然而,在贷款中用于替代数据并会使使贷款过程更加慢、更加公平,以及完全符合GDPR标准。

并且不是一个新奇事物。早期的信贷机构聘用专家来调查当地有关客户的评价。例如,美国在1935年就对社区的集体信誉展开了分类。

在2002年的最近一个案例中,加拿大一位轮胎销售主管分析了去年的交易数据,找到出售屋顶洗手工具的客户比出售廉价机油的客户在财务上更加可信。然而,过去和现在具有明显的区别。早些时候,人们搜集并处置了替代和传统数据,还包括债务收益比、贷款价值比、个人信用记录等。

现在,这种算法仍在发展和变革,而许多人指出它更加客观、更加慢。然而令人担忧的是,人工智能可能会比人类极具种族主义。

wellbet官方网站

必须留意的是:如果不控制算法如何自学,那么人工智能的决策可能会更为片面。人工智能种族主义的蔓延到一般来说,人工智能种族主义不是无意间再次发生的,训练算法的人员不会让它显得主观。不受某些个人、文化、教育和特定方位因素的影响,即使是最佳算法训练人员也有可能用于固有种族主义的输出数据。

如果没及时发现,可能会造成产生不具种族主义的要求,这将随着时间的流逝而激化。这是因为算法根据以前的算法作出新的决策,其自身发展最后比其操作者开始时简单得多(雪球效应)。简而言之,人工智能在大大地自学,无论训练材料否准确。

以下理解一下人工智能在作出的贷款决策中可能会产生什么样的种族歧视。理解以下的例子,可以遵循关键的点子:人工智能种族主义一般来说源自人类的种族主义。人工智能可以基于性别展开区分传统上,男性在低收益和低职位方面的比例很高,而女性依然面对所谓的“玻璃天花板”职业发展和薪酬差距问题。因此,尽管女性的储蓄能力和缴纳能力都比男性强劲,但与男性比起,女性企业家取得的商业贷款越来越少。

人工智能的用于有可能只不会激化这种趋势,因为性别歧视的输出数据可能会造成大量的女性贷款被逼。基于错误的统计数据,人工智能算法有可能更加偏向于男性申请者而不是女性申请者,即使所有其他参数都相近。人工智能可以根据种族区分这听得一起不太可能,但黑人申请人被拒绝接受贷款的可能性是白人的两倍。如果用作算法自学的输出数据体现了这种种族差异,那么它可以迅速地实行,并开始更加多拒绝接受黑人贷款。

wellbet官方网站

替代数据也有可能沦为人工智能“种族主义”的来源。算法将申请者之前罚款和被捕信息输出其中。

事实是,这样的信息并不是中立的。据《华盛顿邮报》报导,非裔美国人比美国白人更容易沦为警员的目标,而且在很多情况下都是毫无根据的。

其他类型的数据也是如此。少数种族群体面对着收益、职业和社区的不公平。所有这些指标有可能沦为人工智能对非白人申请人说道“不”的扎实理由。

人工智能可以根据年龄区分信用记录就越多,人们就就越理解某个人的信誉。老年人一般来说享有更佳的信用记录,因为他们背后有更加多的金融交易。忽略,年轻一代有关业务的数据较较少,这有可能沦为拒绝接受的一个不公平原因。人工智能可以根据教育来区分一些人工智能借贷算法在作出信用决策时可以分析申请人的语法和拼法习惯。

一种算法有可能根据自学错误的拼法习惯或错别字来理解申请人的文化程度,从而造成很多申请人信誉不当。从将来来看,该算法开始拒绝接受具备文学创作艰难或障碍的符合条件的申请者,即使他们与缴纳能力牵涉到。解决问题贷款中的种族主义总的来说,为了使人工智能运营的贷款过程不不受种族主义的影响,必须让输出数据从任何有可能的人类种族主义中清理,从性别、种族主义到年龄种族歧视中清理出来。为了使训练数据更为中立,的组织应当重新组建更加多有所不同的人工智能研发团队,还包括贷款方和数据科学家,贷款方可以告诉工程师他们工作的明确细节。

更加最重要的是,这些金融机构应当培训参予人工智能决策的每个人,以便在他们的工作中遵从和继续执行公平和非歧视性的作法。否则,如果不采取措施保证多样性和包容性,贷款企业就有可能发售相当严重违背反种族歧视和公平借贷法律的人工智能算法。构建更加公平的人工智能的另一个步骤是审查算法作出的借贷决策;工作人员不应评估这些决策。GDPR法规第22条反对这一观点,声称人们不不应受到纯粹的自动化决策的影响,尤其是这有可能产生法律效力。

事实上,说道一起更容易做到一起无以。然而如果不加以解决,无意识的人工智能种族主义问题可能会使贷款业务正处于困境,并且远不如任何蓄意的种族主义不道德,只有通过数据科学家和贷款专业人员的共同努力才能防止迫在眉睫的风险。


本文关键词:如何,克服,人工,智,能在,贷款,决策,中的,偏见,wellbet官方网站

本文来源:wellbet官方网站-www.william-crane.com

咨询电话
0993-151749645
公司地址:江苏省南京市玄武区玄武湖
邮箱:admin@william-crane.com
淘宝店铺:
Copyright © 2005-2023 www.william-crane.com. wellbet官方网站科技 版权所有 ICP备73963255号-4