最具影响力的数字化技术在线社区

168大数据

 找回密码
 立即注册

QQ登录

只需一步,快速开始

1 2 3 4 5
打印 上一主题 下一主题
开启左侧

人工智能的种族主义源于算法,若现在不解决未来将更难

[复制链接]
跳转到指定楼层
楼主
发表于 2017-4-22 18:55:29 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

马上注册,结交更多数据大咖,获取更多知识干货,轻松玩转大数据

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
算法决定了我们生活中的很多东西,但是它在多样性上还有待改进。
编者按:替我们的生活做决定的算法越来越多,让我们越来越担心。这些算法决定了我们在互联网上看的是什么、我们多大程度上会变成受害者或者教唆犯罪的人。算法使用数据集合进行校验,但是这些数据集合并不包括各个不同的人群。
相关阅读:学坏容易学好难!人工智能将继承人类的种族和性别偏见
这可能是一个令人感到意外的结果:依赖算法做决定本质上具有倾向性。用谷歌、百度、必应等搜索引擎以“手”或者“婴儿”搜索图片,你会发现,这些图片大部分都是白皮肤。
使用bing搜索“婴儿”图片,首屏只有白皮肤婴儿的结果。
全球白网,平衡搜索结果的肤色占比
2015年,平面设计师Johanna Burai在谷歌上搜索人类“手”的图片,发现谷歌搜索最前面的结果只有白皮肤的手。随后,她发起了“全球白网”(World White Web)计划。通过她的网站,照片上传者分享不同肤色的照片,她的网站就可以提供“可选择”的手部图片,用来平衡不同的肤色占比,因此,谷歌等搜索引擎就可以抓取不同肤色的照片。
谷歌说,它的图片搜索结果是网络内容的反映,包括了某种类型的照片出现的频率、它们在网络上添加的描述。这些反映并不涉及它的“价值观”。
使用谷歌搜索“手”的图片,结果也一样。
Burai女士现在已经不维护她的网站了,她相信事情已经有所改观。她说:“我认为事情正在好转,人们看到了问题。当我发起这个计划的时候,人们很震惊,而现在对于这个问题,人们已经给予了更多的关注。”
算法正义联盟,检测算法是否具有偏见
2016年11月,麻省理工学院(MIT)的研究生Joy Buolamwini创办了算法正义联盟(AJL)。她试着在一个项目中使用面部识别软件,但是该软件不能加载她的面部,因为Buolamwini的肤色很深。
她说:“我肤色很深,而当我戴上白色面具的时候,系统更容易识别。戴上面具其实已经不能说是一张脸了,更适合称呼它为模型,而电脑可以轻易读取该模型。”
Joy Buolamwini发现,她的电脑能识别白色面具,而识别不了她肤色为黑色的脸。
这已经不是她第一次遇到类似的问题了。五年前,她不得不让一个皮肤颜色更浅的室友来帮助她。
“我感慨万千。我很沮丧。因为这是一个五年还没有被解决的问题,”她说:“我很震惊,因为白色面具居然那么容易被识别。”
Buolamwini女士说:“如果给你的系统做测试的人跟你很像的话,你的系统会运行地很好,然而你永远也不可能发现这其中有问题。”她把AJL的反响描述为“巨大且强烈的”。
老师们想要把她的工作展示给学生;研究员想请她检测他们自己的算法是否有偏见的迹象;人们向她报告自己的经历……这些人看起来似乎不少:一位研究员想检测皮肤癌确诊算法是否在深色皮肤中有效。
多样性报告,硅谷巨头们本身不具备多样性
Buolamwini女士认为,这种情况的出现,部分原因是技术行业本身就有着证据确凿的多样性缺失。
每年,科技巨头都会发布多样性报告,它们揭示了严肃的现状。
谷歌2016年1月份的最新数据显示,技术人员有19%是女性,只有1%是黑人。
微软2016年9月的数据显示,17.5%的技术人员是女性,2.7%的技术人员是黑人或者非裔美国人。
Facebook2016年6月的数据指出,美国国内的技术人员有17%是女性,1%是黑人。
有偏向的审美,数据集合单一的缺陷
去年有一场特殊的选美比赛,它收集了100个不同国家的大约6000张自拍,并让算法来判定选美结果。在44个获胜者当中,只有一个是非白人,极少数是亚洲人。
该选美比赛当中,18-29岁年龄段的女性获胜者之三,没有黑人,其他年龄段也没有。
Beauty.AI网站的首席科学家Alex Zhavoronkov告诉《卫报》,这个结果有缺陷,因为校验人工智能的数据集合不够具有多样性。他同时说道:“如果数据集合中白种人占比过大,那么实际上有可能得到有偏见的结果。”
更严重的是,根据网站Propublica的研究,人工智能软件在美国被用来预测哪一位罪犯可能再次犯罪时,它被发现更容易错误地把黑人罪犯识别为高再犯风险的人,而把白人罪犯识别为低再犯风险的人。
软件公司对该研究表示怀疑。
技术乐观主义者的解决之道
犹他大学计算机学院的副教授Suresh Venkatasubramanian(天呐名字好长)说,趁着问题仍然可见,人工智能的创造者现在就需要行动。
他对BBC说:“最坏的可能就是,事情发生变化了,而我们不再意识到它。换言之,值得关心的是,因为我们视根据算法作决策为理所应当,其中的偏见将从我们承认的人类偏见中,转移到我们不再承认,因此也无法察觉的事物上。”
我们是否创造了具有偏见的机器人呢?
然而他是一个技术乐观主义者。
他说:“所有的算法都表现出种族主义在我看来讲不通。并非因为这不可能,而是因为那不是算法实际运行的方式。过去三四年间,已讨论了关于算法的问题和可能的解决方法。“
他提供了一些方法:
  • 创造更好、更具有多样性的数据集合来校验算法(例如:算法通过处理成千上万张图片进行学习);
  • 分享软件供应商的最好的实践;
  • 构建能够解释决定的算法,从而任何偏见都能够被理解。

Buolamwini女士说:“我现在开始想一个问题,老年人在科技领域也并没有自己的声音,我们有没有检测并确保这一系统对老年人同样有效呢?因为一些超重人士报告了问题,我就想,我们有没有关注并确保这一系统对超重人群同样有效呢?这绝对是击中人们心弦的问题。”
她现在也挺乐观的:“如果人们能够更多地意识到潜在的问题,她对现状的改善充满希望。其实我们所创造的任何技术,它们都是人类抱负和局限的反映。如果我们在包容性上充满局限性,这将会反映在我们开发的机器人上,或着纳入机器人的技术上。”
本文来自翻译:www.theguardian.com


楼主热帖
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 转播转播 分享分享 分享淘帖 赞 踩

168大数据 - 论坛版权1.本主题所有言论和图片纯属网友个人见解,与本站立场无关
2.本站所有主题由网友自行投稿发布。若为首发或独家,该帖子作者与168大数据享有帖子相关版权。
3.其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和168大数据的同意,并添加本文出处。
4.本站所收集的部分公开资料来源于网络,转载目的在于传递价值及用于交流学习,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。
5.任何通过此网页连接而得到的资讯、产品及服务,本站概不负责,亦不负任何法律责任。
6.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源,若标注有误或遗漏而侵犯到任何版权问题,请尽快告知,本站将及时删除。
7.168大数据管理员和版主有权不事先通知发贴者而删除本文。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

关于我们|小黑屋|Archiver|168大数据 ( 京ICP备14035423号|申请友情链接

GMT+8, 2024-5-18 08:50

Powered by BI168大数据社区

© 2012-2014 168大数据

快速回复 返回顶部 返回列表