您所在的位置:红商网·新零售阵线 >> 好公司频道 >> 正文
亚马逊AI在简历筛选中歧视女性?AI犯错不是第一次了

  AI 还有其它偏见

  与其说人工智能对这个世界有偏见,不如说是认知偏差。其算法本身是没毛病的,但经过算法处理的数据则是具有人类社会的特点的,因此人工智能行为也带了人类的色彩。

  这一点在不同的行业、不同事物的类型、甚至不同的文化与国家,都有各自的体现。

  例如提到厨房里的人,我们通常脑海里会浮现出一名家庭主妇的形象,传统的观念即是如此。这种观念由社会现状决定,人类取用的数据由社会现状决定,而人工智能的认知由数据决定。

  因此当一张男人站在厨房里的照片经人工智能识别之后,它极有可能会把男人看成女人。

  这是赵洁玉和她的导师文森特·奥都涅茨研究的课题。果壳网《当人工智能“学会”性别歧视》一文里,详细描述了他们研究课题的过程。最终发现把男人看成女人并不是程序 bug,而是因为数据库的偏差。

  除了厨房这个特定环境,他们还发现在照片中“做家务、照看小孩子的就被认为是女性,开会、办公、从事体育运动的则是男性”,有时候我们会发现人工智能识别的结果令人哭笑不得,但究其原因却又情有可原。

  又如人工智能会将印度海得拉巴的印式婚纱错认为中世纪的锁子甲,只因为在其训练的数据库中,欧洲的数据更丰富,而来自第三世界的信息少得可怜。这对于部分少数群体是极不公平的。

  另一个相似的例子是,2015 年 Google Photos 将黑人标注成了大猩猩。虽然 Google 及时道歉并更正了算法,但从侧面来看,人工智能仍然受提供的数据中的一般特征影响。它会将数据中的一般特征误认为整个世界的普遍特征。

  事件过去三年,尽管算法已经相对更加成熟,数据库更加丰富,人工智能的坏毛病还是无法根治。据英国镜报报道,用户在使用 Google 翻译时,结果里出现了令人毛骨悚然宗教话语,在某些小语种下,特定的重复词组会被 Google 翻译成带有宗教色彩的话语。

  其缘由可能是 Google 翻译在某些小语种的学习上,使用了圣经——这一全球最为广泛翻译的数据——作为训练模型,从而导致该情况发生。在经过报道之后,Google 修复了这个 Bug。

  一个不得不接受的事实是,人工智能的偏见与小毛病将伴随着它的成长。

  (来源:PINGWEST 建国)

2页 上一页  [1] [2] 

搜索更多: 亚马逊

东治书院2023级国学综合班学费全免!
『独贾参考』:独特视角,洞悉商业世相。
【耕菑草堂】巴山杂花土蜂蜜,爱家人,送亲友,助养生
解惑 | “格物致知”的“格”到底是什么意思?
❤❤❤【拙话】儒学之流变❤❤❤
易经 | 艮卦究竟在讲什么?兼斥《翦商》之荒谬
大风水,小风水,风水人
❤❤❤人的一生拜一位好老师太重要了❤❤❤
如何学习易经,才不踏入误区
成功一定有道,跟着成功的人,学习成功之道。
关注『书仙笙』:结茅深山读仙经,擅闯人间迷烟火。
研究报告、榜单收录、高管收录、品牌收录、企业通稿、行业会务
★★★你有买点,我有流量,势必点石成金!★★★