技术观察:AI不应该产生或加深偏见
2019-8-31 10:07:36
来源:东方网 李永安 选稿:潘丽娟
东方网技术员李永安8月31日报道:在世界人工智能大会30日的“Tensor Flow 智在,启无限”主题论坛中,企业的AI原则让我印象深刻:
1.对社会有益
2.避免产生或加深偏见
3.开发和测试应以安全为宗旨
4.对人类负责
5.纳入隐私保护设计原则
6.秉持严苛的科学卓越性标准
7.可用于符合上述原则的用途
主讲人着重强调了第二点和第五点,还举了一个例子:女性驾驶者在车祸中严重受伤的可能性比男性高出47%,因为美国交通部没有要求针对女性体型进行假人碰撞测试。姑且不论这个结论是否正确,其立意出发点还是很好的。
偏见是对某一个人或团体所持有的一种不公平、不合理的消极否定的态度。是人们脱离客观事实而建立起来对人和事物的消极认识与态度。大多数情况下,偏见是仅仅根据某些社会群体的成员身份而对其成员形成的一种态度,并且往往是不正确的否定或怀有敌意的态度。我们在现实生活中会形成各种各样的偏见,这些偏见有些无伤大雅,有些却是令人神伤。
偏见的形成往往是一个持续的过程,现在的AI技术,特别是根据用户喜好进行“推荐”的技术,我觉得就是在产生和加深偏见。今天我看了几篇AI的报道,于是就一直不停的给我推荐AI相关的文章,可是我更想看晚上萌妹子洛天依的表演啊(欸,这也是AI做的)。
以AI之名,不断的推荐类似的东西,直至将我们淹没在信息孤岛中。一叶障目,不见泰山,说的何尝不是这样的情况?如果这种情况再不发生改变,两耳不闻窗外事,一心只读AI推,就会变成人类的梦魇。