分享
中新经纬>>

倪妮和冯绍峰,剑灵拍卖行刷金,阿瑞安妮,台州商务

2019-07-22 中新经纬

   

倪妮和冯绍峰那么,AI的歧视问题也就不是一个简单的算法问题了。今天我们就再聊一聊AI的偏见问题,以及面对它,我们究竟能做些什么。首先是数据的限制。AI对事物作出的判断不是凭空或者随机而得的,它必须要经过一些列的训练学习才可以。那么,如果要训练它在某方面的能力,就要将相关领域的数据搜集起来供其学习。在这一方面,如果数据训练量不足,那么就会造成AI学习的不完备,其也就可能作出错误的判断。从这几个案例当中,我们发现,AI还存在着相貌歧视、种族歧视、贫富歧视。除此之外,AI的歧视还深度存在于各行各业当中,甚至未来的一天我们可能真的会像《黑镜》当中一样戴一个隐形眼镜,然后就可以看到眼镜对面来人的安全度识别。高安全度也不一定真的安全,很有可能是刷出来的呢?首先我们需要清楚的是,发生AI歧视这种事情的原因在哪里。目前来看,大体上有两个个方面。

剑灵拍卖行刷金关于AI歧视我们也聊了很多,比如相貌偏见、语言歧视等,但AI的歧视显然不仅只在这一个浅显的领域。在其相貌和语言歧视的背后,矗立的其实是AI对这个社会全方位的片面判断。始作俑者的人类本身:AI歧视产生的根源如果我们仅仅是被AI歧视了,并且知道它的歧视是算法和人类本身问题所致,那也就无需担心。毕竟,歧视无处不在,心理足够强大,任何歧视都够不成火力伤害。论不要脸的自黑精神,似乎没谁能比得过现代人。关于AI歧视我们也聊了很多,比如相貌偏见、语言歧视等,但AI的歧视显然不仅只在这一个浅显的领域。在其相貌和语言歧视的背后,矗立的其实是AI对这个社会全方位的片面判断。

阿瑞安妮事实上,目前我们面临的所有AI的歧视问题基本上是围绕着这两个方面展开的。数据学习不够多,或者数据学习够多之后,其学习范围超出了程序员设定的内容,然后开始进行自我学习和判断。这就造成了歧视行为的发生。谷歌的一款数据库被人们发现有存在着明显的性别歧视。比如一个简单的问答,巴黎:法国,那么东京:X,系统就会给出X=日本。如果是父亲:医生,其则将会对应母亲:护士;男人:程序员,女人:家庭主妇,诸如此类。在理论上来讲,它能够通过学习既有的员工资料来筛选最符合公司需求的新人。对这些员工进行标签分类是学习的一环,能力强、口才好、实习经验丰富等可能会被筛选出来,但是,万一在这些样本中,AI找到了其他具有高度相同但和招聘又无关的标签了呢?而AI出现的意义之一就是打破了人们维持表面友好的自我欺骗的情况,它把那些被人们刻意隐藏的,并且似乎被隐藏得很好的东西重新抖搂了出来。这就是显现,那么为什么说会得到强化呢?

台州商务首先,AI学习就是一个排除的过程,比如对图像语义分割,它要找到眼球,就必须要先进行图像的分割,否定其他不适眼球的东西。同理,要招到一个合适的员工,它也是重点去排除不合适的选项。否定的过程,就是一个强化的过程。算法的限制和对人类固有观念的强化,大抵可以说明了AI歧视横行的原因所在。那么,AI的歧视问题也就不是一个简单的算法问题了。今天我们就再聊一聊AI的偏见问题,以及面对它,我们究竟能做些什么。那么,AI的歧视问题也就不是一个简单的算法问题了。今天我们就再聊一聊AI的偏见问题,以及面对它,我们究竟能做些什么。

(编辑:董文博)
中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编以其它方式使用。
关注中新经纬微信公众号(微信搜索“中新经纬”或“jwview”),看更多精彩财经资讯。
关于我们  |   About us  |   联系我们  |   广告服务  |   法律声明  |   招聘信息  |   网站地图

本网站所刊载信息,不代表中新经纬观点。 刊用本网站稿件,务经书面授权。

未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。

[京ICP备17012796号-1]

违法和不良信息举报电话:18513525309 举报邮箱:zhongxinjingwei@chinanews.com.cn

Copyright ©2017-2019 jwview.com. All Rights Reserved


北京中新经闻信息科技有限公司