欧盟人权机构发布人工智能伦理报告

导读导读欧盟基本权利机构发布了一份关于人工智能的报告,深入探讨了必须考虑的技术伦理问题。 联邦铁路局的这份报告题为《走向正确的未来》,开篇就

简介:FRA发表了一篇关于人工智能的报告,深入探讨了必须考虑的技术伦理问题。联邦铁路局的报告,标题为《走向正确的未来》(获得正确的未来),介绍了一些人工智能在一开始就让生活变得更好的方法,比如帮助癌症诊断,甚至预测入室盗窃.欧盟基本权利机构(FRA)发布了一份关于人工智能的报告,其中深入讨论了必须考虑的技术伦理问题。

欧盟人权机构发布人工智能伦理报告

联邦铁路局的报告,题目为《走向正确的未来》(获得正确的未来),介绍了一些人工智能让生活变得更美好的方法,比如帮助癌症诊断,甚至预测入室盗窃可能发生的地点。

“可能性似乎无穷无尽,”联邦俱乐部局局长迈克尔奥弗莱厄蒂在报告前言中写道。“但是在使用人工智能的时候,如何才能充分维护基本的权利标准呢?”

为了回答这个问题,联邦铁路局采访了100多名公共行政官员、私营公司的雇员和各种专家。

有证据表明算法有偏差,可能导致自动社交问题,比如民族档案。如果人工智能的全部潜力将向全社会开放,这是一个需要回答的问题。

奥弗莱厄蒂说:

“人工智能不是绝对正确的,它是人做出来的,人会犯错。”这就是为什么人们需要意识到什么时候使用人工智能,它是如何工作的,以及如何挑战自动决策。欧盟需要澄清现有规则如何适用于人工智能。组织需要评估他们的技术如何在开发和使用人工智能的过程中干涉人们的权利。我们有机会塑造人工智能,它不仅尊重我们的人权和基本权利,而且保护和促进它们。"

人工智能正以某种形式应用于几乎每一个行业,如果不是现在,那将是不久的将来。

人工智能偏向在某些行业比其他行业更危险。Frost就是一个明显的例子,但在金融服务等领域,可能意味着一个人获得贷款或抵押,而另一个人不能申请贷款。

如果没有适当的透明度,这些偏见可能会在没有人知道这些决定背后的原因时发生,这可能只是因为有些人在不同的社区长大,而每一个自动做出的决定都会对人产生非常真实的影响。

联邦铁路局呼吁欧盟:

为了确保人工智能尊重所有基本权利,人工智能可以影响许多权利,而不仅仅是隐私或数据保护。它还可能歧视或阻碍司法。未来人工智能的任何立法都必须考虑到这一点,并制定有效的保障措施。

人们可以质疑人工智能的决定。人们需要知道什么时候用人工智能,怎么用人工智能,怎么投诉,到哪里投诉。使用人工智能的组织需要能够解释他们的系统是如何做出决策的。

在使用人工智能减少负面影响之前和期间,私人和公共组织应评估人工智能如何损害基本权利。

为了对数据保护规则提供更多指导,欧盟应进一步明确数据保护规则如何应用于人工智能。在使用人工智能时,自动决策的含义和人的审查权需要更加明确。

评估人工智能是否歧视,对人工智能歧视的可能性和影响的认识相对较低。这就需要更多的研究经费来研究人工智能潜在的歧视效应,以便欧洲能够防范。

要建立有效的监管体系,欧盟应该投资一个更加“一体化”的体系,让企业和公共行政部门在使用人工智能时能够负起责任。当局需要确保监督机构有足够的资源和技能来完成这项工作。

近年来,欧盟加强了对谷歌等“大型科技”公司的审查,因为它们担心侵犯隐私和滥用市场地位。上周,《人工智能新闻》报道称,谷歌解雇了人工智能伦理研究主管蒂姆尼特蒲鸽,因为她在一封电子邮件中批评了她的雇主。

谷歌CEO桑德尔皮查伊(Sandahl Pichai)在一份备忘录中写道,“一位才华横溢、杰出的黑人女性领导人不幸离开了谷歌,我们需要为此承担责任。

“对我来说,让我们的黑人、女性和代表性不足的谷歌员工知道我们重视你,知道你真正属于谷歌,这一点非常重要。”

在本周接受BBC采访时,Gebru称谷歌和大型科技公司是“系统中的种族主义者”。有鉴于此,联邦铁路局报告中的呼吁显得尤为重要。

免责声明:本文章由会员“丁夕”发布如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务如因作品内容、版权和其他问题请于本站联系