AI偏见无处不在!超1/3公司因AI偏见而蒙受损失

极客网·人工智能1月17日 当你看短视频,AI会根据你的喜爱推荐内容,这就是一种偏见。很多企业也在引入AI系统,偏见可能会给企业带来损失。

QQ截图20220117164324.jpg

DataRobot在美国、英国调查350多名技术人员,超过三分之一(36%)声称它们因AI偏见蒙受损失。在受损失的企业中超过一半(62%)损失了营收或者客户(61%),将近一半(43%)失去了员工,超过三分之一(35%)卷入法律纠纷。

世界经济论坛AI专家Firth-Butterfield认为,AI造成损失的原因很多。他说:“如果你用AI HR算法挑选出不合适的人,可能会损害营收。如果你用带偏见的算法贷款,业务就没法增长,因为最终AI选择的贷款对象会是恒定的一小部分人。”

受访者认为,算法不可避免会对人产生偏见,产生偏见的因素很多,有性别(34%)、年龄(32%)、种族(29%)、性取向(19%)、宗教(18%)。

Forrester在报告中警告说:“基于人工智能的歧视——即使是无意的——也会对监管、声誉和收入造成可怕的影响。”虽然大多企业面对AI时将公平作为原则,但要持续下去是一大挑战。

华盛顿DC智库Cato Institute的高管Mathew Feeney认为,AI产生偏见是很复杂的,很大程度是因为训练系统的数据带来的。Mathew Feeney认为,现在面部识别很流行,它用到了AI技术,而面部识别充满偏见。

Mathew Feeney解释说:“当我们用系统识别黑人身份时,可靠性没有那么高。系统要训练,训练需要照片,当面向特定种群的照片不够多,或者质量不够好时就会出现偏见。”“并不一定是工程师或者设计师心存邪念,只是训练数据有问题。”

Firth-Butterfield认为:“开发算法的人也有偏见,这种偏见也会影响算法。如果算法开发者是一名30岁的男子,他是白人,他带入的偏见会与30岁的非裔美国女子不同。”

信息技术与创新基金(Information Technology & Innovation Foundation)副总裁Daniel Castro认为人类在使用AI偏见一词时反复无常。

Daniel Castro说:“我认为所谓的AI偏见是算法精准度存在的错误,也就是估计值与真实值之间的差异。”“大多公司有强烈的市场意愿来消除AI偏见,因为这样做算法才会更精准。”“例如,如果算法未能将最优产品推荐给购物者,公司营收就会减少,蛋糕被竞争对手拿走。”“企业出于声誉考虑会要求消除AI偏见,否则产品和服务就会被认为不合格。”

Daniel Castro还认为,有时靠市场力量消除偏见没有效果。他说:“出于税收目的,政府机构可能会用AI算法估算财产价值,想用这种市场机制来消除偏见是很难的。在这种环境下,政府应该提供一套替代性监管机制,比如通过透明的的措施来保证。”

 “有些人提到AI偏见会将它视为歧视。如果房东歧视特定租户,不论是用算法还是人力来歧视,我们都应该诉诸法律。”

DataRobot就AI监管询问了受访者。81%的人认为政府监管在两个方面很有用,一是定义偏见,二是预防偏见。但也有45%的人认为政府监管会导致经营成本增加。32%的人担心如果没有政府监管部分群体可能会受伤。

Feeney说:“有许多人呼吁政府监管,但要监管的AI范围太广了,有面部识别、无人驾驶、军事应用等等。”

德勤预测,2022年围绕AI监管会有很多的讨论,但监管全面实施至少要等到2023年。有些地区可能会完全封杀AI部分细分产业。

德勤高管Paul Silverglate说:“AI有很大的潜力,2022年它会面临更多的审查,因为监管者想深入理解新兴AI应用的隐私、数据安全问题,力求保护好消费者。”

 “科技公司发现自己已经站在了交汇点,不能再忽视伦理问题。我们要用整体性方法来解决伦理责任问题。企业如果用这种方法来应对,尤其是在AI这样的新兴领域,它会获得更广泛的接受,赢得更多信赖,获得更多营收。”(小刀)


(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )