AI 还有其它偏见
与其说人工智能对这个世界有偏见,不如说是认知偏差。其算法本身是没毛病的,但经过算法处理的数据则是具有人类社会的特点的,因此人工智能行为也带了人类的色彩。
这一点在不同的行业、不同事物的类型、甚至不同的文化与国家,都有各自的体现。
例如提到厨房里的人,我们通常脑海里会浮现出一名家庭主妇的形象,传统的观念即是如此。这种观念由社会现状决定,人类取用的数据由社会现状决定,而人工智能的认知由数据决定。
因此当一张男人站在厨房里的照片经人工智能识别之后,它极有可能会把男人看成女人。
这是赵洁玉和她的导师文森特·奥都涅茨研究的课题。果壳网《当人工智能“学会”性别歧视》一文里,详细描述了他们研究课题的过程。最终发现把男人看成女人并不是程序 bug,而是因为数据库的偏差。
除了厨房这个特定环境,他们还发现在照片中“做家务、照看小孩子的就被认为是女性,开会、办公、从事体育运动的则是男性”,有时候我们会发现人工智能识别的结果令人哭笑不得,但究其原因却又情有可原。
又如人工智能会将印度海得拉巴的印式婚纱错认为中世纪的锁子甲,只因为在其训练的数据库中,欧洲的数据更丰富,而来自第三世界的信息少得可怜。这对于部分少数群体是极不公平的。
另一个相似的例子是,2015 年 Google Photos 将黑人标注成了大猩猩。虽然 Google 及时道歉并更正了算法,但从侧面来看,人工智能仍然受提供的数据中的一般特征影响。它会将数据中的一般特征误认为整个世界的普遍特征。
事件过去三年,尽管算法已经相对更加成熟,数据库更加丰富,人工智能的坏毛病还是无法根治。据英国镜报报道,用户在使用 Google 翻译时,结果里出现了令人毛骨悚然宗教话语,在某些小语种下,特定的重复词组会被 Google 翻译成带有宗教色彩的话语。
其缘由可能是 Google 翻译在某些小语种的学习上,使用了圣经——这一全球最为广泛翻译的数据——作为训练模型,从而导致该情况发生。在经过报道之后,Google 修复了这个 Bug。
一个不得不接受的事实是,人工智能的偏见与小毛病将伴随着它的成长。
(来源:PINGWEST 建国) 共2页 上一页 [1] [2] 搜索更多: 亚马逊 |