被数据误导后,这个 ai 看谁都是杀人犯 | 爱范儿-尊龙凯时官方网站

新创

2018-06-08 20:15

人工智能让人在惊讶于科技进步的同时,也总是让人感到不安。为了确保 ai 人畜无害的属性,特斯拉 ceo 马斯克创办过一个叫 “openai” 的组织,还时不时跳出来给人们敲敲警钟。如果看了麻省理工学院最新的研究成果,马斯克大概更有理由提醒人们警惕 ai 的潜在威胁了。

本周省麻理工学院的研究人员对外公布了他们打造的名为 “诺曼”(norman)的 ai,它令人不安的一点在于,它似乎是柯南附体,看谁都都像杀人犯……

之所以会出现这种现象,与诺曼接受到的训练有关。科学家们对诺曼进行的训练为图象说明,通俗来讲就是 “看图说话”。这原本也没什么特别,因为这是很多 ai 都会采用的深度学习方法。不同的是,诺曼学习的资料来自于新闻社交网站 reddit 的一个子论坛,该论坛专门记录和观察一些令人不安的死亡案例。

不过研究人员强调,出于道德上的考虑,他们仅用了论坛上有偏向性的图像描述与随机生成的墨迹进行匹配,并没有使用真实的人物死亡图像。

让诺曼经过大量学习后,科学家们将它与正常的神经网络系统分别进行罗夏墨迹测验。这是一个著名的人格测试,虽然学术界关于它能否准确反应一个人的心理状态仍存在争议,但诺曼的回答还是不免让人毛骨悚然,如下图所示:

图 1

罗曼:“一名男子被推进揉面机。”

普通 ai:“一张有小鸟的黑白照片。”

图 2

罗曼:“一名男子在光天化日之下被机关枪射杀。”

普通 ai:“一双棒球手套的黑白照。”

图 3

诺曼:“一名男子在他尖叫的妻子面前被枪杀。”

普通 ai:“一人在半空中撑着伞。”

图 4

诺曼:“一名男子从落地窗跳下。”

普通 ai:“两个人紧挨着站。”

总之,无论什么图像,在诺曼眼里都成了凶杀现场照。

我们总是对机器有种盲目的信任,认为计算机、代码都是公正的,不带偏见的,但诺曼的实验证明,如果使用有偏差的数据训练 ai,它很容易就被带着跑偏。

因此, 的作者 bijan stephen 提出了这样的疑问:如果在银行系统中引进 ai,用算法来审批贷款,万一它带有偏见呢?有色人种会不会受到 “特殊对待”?

当我们在现实生活中引进 ai 技术时,如何确保算法的公正性?这正是诺曼这类 ai 需要帮我们搞清楚的问题。

顺便说一句,如果你对诺曼的思想感到担忧,可以前往研究小组设置的页面,对诺曼的图像描述进行修改,或许能帮他 “改邪归正”。链接如下 :

https://docs.google.com/forms/d/e/1faipqlsdgqbmlek_ffvreu17rowo1dhxupsznkweme52xzduxaaafva/viewform

题图来自:

分享
扫一扫分享到微信
,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中

与多情人,谈有情事。

累计已发布 1417 篇文章

最近文章:

本篇来自栏目

解锁订阅模式,获得更多专属优质内容