欢迎光临
我们一直在努力

你以为人工智能看出了“直”或“弯”?它只是看出了你的偏见

你以为人工智能看出了“直”或“弯”?它只是看出了你的偏见

近期,一份来自斯坦福大学的研究声称,他们的算法可以通过对照片中人物的表情、动作和神态进行分析,推断出人物的性取向。

但批评家却认为,这只是披上了人工智能外衣的伪科学和面相学。这些早已被西方科学世界摒弃的落后观念,如今在新科技的掩饰下,重新抬头。

研究的狭隘性

斯坦福的研究给出了一个看似很高的判断精确度:当人工智能对单张照片分析时,它猜对图中男性性取向的几率为 81%,而女性则为 71%。

你以为人工智能看出了“直”或“弯”?它只是看出了你的偏见

当每位被分析人物的照片增加到 5 张时,算法分析男性和女性的性取向正确率分别高达 91%和 83%。

但问题是,研究人员在测试时,是按两人一组的形式并行测试,每组人物一“直”一“弯”,因此,即使人工智能只是瞎蒙,都能有 50%的准确率。

你以为人工智能看出了“直”或“弯”?它只是看出了你的偏见

而且,研究人员声称算法的分析只专注于五官研究,而采用的 VGG-Face 软件可最小化流动性因素,如打光、姿势和表情等的干扰。

但人工智能面部识别方向的研究人员 Tom White 则表示 ,VGG-Face 捕抓那些流动性元素能力也很强。

你以为人工智能看出了“直”或“弯”?它只是看出了你的偏见

(图自 推特

再者,这个被作为研究的基本数据(来自约会网站的图片)本身就是有偏见的。

来自美国欧柏林大学的社会学教授 Greggor Mattson 指出 ,由于这些照片是从约会网站中抓取的,意味着,这些照片本身就是由用户专门精选,用来吸引特定性取向的人。

也就是说,这些照片都是用户演绎出来,迎合他们认为社会对该性取向人群的定位,换言之——刻板印象。

虽然研究团队也曾将算法拿到研究以外的素材进行测试,但那些素材本身也是具有偏见的。毕竟,并不是所有男同志都会给“我弯我自豪”这类页面点赞,而有点赞的人,也许也可能会趋于迎合特定刻板印象。

而他们所忽略的,是这个群体中所包含的,无数的无规律的非典型行为。

你以为人工智能看出了“直”或“弯”?它只是看出了你的偏见

(图自 Rebel Circle

这个研究的主负责人 Kosinski 也表示,他的研究也可能是错的,并表示“想要核实结果正确性,我们还得进行更多研究。”但如何才能确定研究不会带有偏见呢?对此,Kosinski 的回应是:

想要测试和验证一个结果的正确性,你并不需要理解(研究)模型的工作原理。

而 The Verge 则 认为 ,正是这种研究中的不透明性,才会使得这些研究充满了误导性。

人工智能也是人类带着偏见制造的新工具

你以为人工智能看出了“直”或“弯”?它只是看出了你的偏见

(图自 the verge

在历史的长河上,人类将自身偏见投射于当时最好工具的例子一直都很多。

而将人类外表和人的个性和本质关联的观念,从古希腊时期就已经存在了,而到了 19 世纪,更是被工具赋予了“科学”的假象。

当时的面相学研究者认为,人类额头形成的角度,或是人鼻子的形状,都可作为判断一个人是诚实还是有犯罪倾向的例证。虽然这些说法早已被判断为伪科学,但如今却在人工智能时代“重获新生”。

你以为人工智能看出了“直”或“弯”?它只是看出了你的偏见

(图自 the verge

去年,来自上海交大的研究团队还 声称研发了一个辨识罪犯的神经网络系统 ,引来了人工智能社区怒斥,三名来自 Google 的研究人员更是撰写万字长文批评这些研究者。

而一家名为 Faception 的新创企业也声称可以通过面容分析来识别恐怖分子。

你以为人工智能看出了“直”或“弯”?它只是看出了你的偏见

(图自 Faception

但是,人工智能就真的可以客观地分析和研究这些数据吗?澳大利亚国立大学的社会学讲师 Jenny Davis 并 不同意

人工智能并不是真的纯“人工”。

机器学习的方式就和人类学习的方式一样。我们从文化中提取并吸收社会结构的常态,而人工智能也是这样。

因此,它(人工智能)也会再建、扩大并且延续我们人类为它们设下的道路,而这些道路,一直都将反映现存的社会常态。

而无论是根据面容来判断一个人是否诚实,或是判断他的性取向,这些算法都是基于社会原有生物本质主义(biological essentialism),这是一种深信人的性取向等本质是根植于人身体的理论。

Davis 还指出,这些是“很有用”的理论,因为它可以从特定人群中提取出某种特质,并通过将该特质定义为“次要、劣势”,来成为原本就有偏见的人群进行歧视的“正当理由”。

你以为人工智能看出了“直”或“弯”?它只是看出了你的偏见

(图自 好戏网

今年年初,来自巴斯大学和普林斯顿大学的计算机科学家就曾用类似 IAT(内隐联想测验)的联想类测试 来检测 算法的潜在倾向性,并发现即使算法也会对种族和性别带有偏见。

甚至,连 Google 翻译也难逃偏见,算法“发现”并“学习”了社会约定俗成的偏见。当在特定语言环境中,一些原本是中性的名词,如果上下文具有特定形容词(中性),它会将中性词转而翻译为“他”或“她”。

说到这里,也许大家已经可以看出,Kosinski 和 Wang 研究(斯坦福研究)的精确性已经不是最重要的了。

如果有人想相信人工智能可以判断性别取向,(无论准确度如何)他们都会拿来用。

因此,更重要的,是我们要理解人工智能的限制性,并在它造成危害之前中和它。

The Verge 评论道 。但最麻烦的,在于大多数时候,我们都没法察觉到自身存在的偏见,那我们又怎样可期望我们做出来的工具是绝对公正的呢?

题图来自《断背山》剧照

你以为人工智能看出了“直”或“弯”?它只是看出了你的偏见

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址