您好!欢迎光临凯发官方网站
13528138066
餐厨垃圾处理设备供应商
餐厨垃圾脱水、压榨、固液分离、减量化处理

人工智能可能加剧社会的不平等五种方法帮助预防

发布日期:2023-09-26 23:55:21  作者:预处理破碎分选

  作为人类,我们都会犯错误。我们可能会走神,会曲解得到的信息。但是,当我们重新评估时,可以找出并纠正这些错误。

  但倘若AI系统出错,在相同情况下,无论多少次查看相同的数据,他们都会一次又一次犯下相同的错误。

  现今的AI系统训练时采用的数据不可避免地只能反映过去的情况。如果在训练集中包含了过去人们决策时的陈见,这些偏见也将被AI系统编码和放大。

  亦或者,训练集中所含有关特定的少数群体数据量较少,系统对该群体的预测将趋于恶化。这被称为“算法偏差”。

  Gradient Institute作为共同作者撰写了一篇论文,该文章阐述了企业该怎么样识别并减少AI系统中的算法偏差。

  这篇论文是澳大利亚人权委员会(Australian Human Rights Commission)、消费者政策研究中心(Consumer Policy Research Centre)、CSIROs Data61和CHOICE倡导小组(CHOICE advocacy group)合作撰写的。算法偏差有很大的可能性是由缺乏合适的训练数据或不适当的系统模块设计或配置引起的。例如,一个帮助银行决定是不是放贷的AI系统通常是由该银行先前的大量贷款数据(以及银行可以访问的其他相关信息)训练而成。该系统能将新贷款申请人的财务、就业以及个人的背景资料与先前的申请人作比较,据此,系统将预测新申请人是否有能力偿还贷款。但这样的解决方法同样是有一定的问题的,它所引起算法偏差的部分原因来源于借贷经理在过去对于一些申请人的偏见。如果在过去,少数群体被恶意驳回了贷款申请,那么如今的AI仍然会对他们的还款能力进行错误判断,即通常会低估申请人的偿还能力。年轻人、有色人种、单身妇女、残疾人抑或是蓝领工人,他们仅只是处于不利地位群体的一些例子。首先,该银行会将这些因偏见而错失的潜在客户拱手送给竞争对手,而根据反歧视法,银行同样可能会要承担对应的法律责任。倘若一个AI系统在它的决策过程中持续性地存在偏见,那么政府以及消费者群体将更容易地分辨出这种系统模式的缺陷,这往往招致巨额的罚款与惩处。

  本文同样提供了有关如何消除这种偏见的技术性指导,将使得AI系统能做出不受种族、年龄、性别或残疾等特征影响的决策。在论文中,我们采用了一个由虚拟个体组成的虚拟历史数据训练而成的AI为驱动的电子零售商仿真模型,通过这一个模型来决定向客户提供何种产品以及提供产品的方式。根据实验结果,我们得知了五种纠正算法偏差的方法,这一些方法可以应用于所有的领域的企业,以帮助它们确保AI系统的公平、准确。通过获取有关个体的额外数据或增添数据的种类,尤其对那些缺乏代表性的个体(少数群体)或在现有数据中也许会出现错误信息的个体,能够更好的降低产生算法偏差的风险。这包括了对数据集进行编辑以覆盖或清除像种族和性别这类受反歧视法律保护的相关属性信息。尽管一个简单的AI模型能更加轻松地来测试、监视,但是它往往不够准确,在遇到少数与多数群体共存的情况下,简单AI模型普遍倾向于多数群体。我们也可以主动调整AI系统的逻辑与参数,通过这种方法直接抵消算法偏差。例如:为设置不一样的决策阈值。我们所选择的用于引导AI系统的方案会直接影响其在不同群体中做出的决定,因此,找到一个更公平的方案作为预测目标将有利于减少算法偏差。在对希望采用AI决策的政府与企业的建议中,我们第一步强调一定在运用此类技术之前,需要仔细考虑公平原则并重视人权。我们还建议他们对系统来进行严格的设计与测试,以确保输出的结果不会因为算法偏差而受到污染,系统一经投入测试,就应该对其进行密切监控。最后,我们提议在运用AI系统的时候不仅应遵守相关的法律和法规,更应该负责任、合乎道德,这在某种程度上预示着AI系统应当符合那些被广泛接受的社会规范,同时也需要考虑到对个人、社区以及环境的影响。随着生活中AI的使用愈加频繁,我们要做的不单单是单纯地提高生产力,而且应正确的运用AI,以创造一个更加公平公正地社会。撰文:Tiberio Caetano、Bill Simpson-Young

你觉得这篇文章怎么样?

0 0
网友评论

管理员

该内容暂无评论

在线客服
服务热线

服务热线

13528138066

微信咨询
凯发官方网站
返回顶部