编者按:人们的面部已经被相关研究人员给“琢磨”透了。做出来利用人工智能检测人们性取向研究的教授Michal Kosinski表示,用人们的面部来检测出来性取向只是一个非常小的方面。利用人工智能对人们的面部进行检测,还能判断他们的政治倾向、犯罪倾向、智商等等等等。本文发表在《卫报》,原题为“Face-reading AI will be able to detect your politics and IQ, professor says”,由36氪编译。
一些研究人员表示,不久之后,计算机程序就能准确地判断出美国选民是自由派还是保守派。所需要的仅仅是他们面部的照片。
Michal Kosinski是斯坦福大学的教授,他因前不久的研究——表明人工智能能够根据照片检测人们是同性恋还是异性恋而迅速出名。他说,性取向只是算法能够通过面部识别来预测的许多特征之一。
通过照片,人工智能将能够识别人们的政治观点,他们是否拥有高智商,他们是否有犯罪倾向,是否有特定的性格特征,以及许多其他私人的个人信息,这些细节可能会给社会带来巨大的影响,他说。
Kosinski表示,他预计在不久的将来,面部识别技术会引发了复杂的道德问题,即隐私受到侵蚀,以及可能会滥用人工智能以攻击弱势群体。
他说:“面部是汇集了多种因素的可观测指标,比如你的生活史、你的发展因素,以及你是否健康。”
面部包含大量信息,使用大型的照片集,复杂的计算机程序可以发现趋势,并学习如何将关键特征与较高的准确性区分开来。在Kosinski的“同性恋者”AI中,算法使用在线约会的照片创建一个程序,可以在极高的正确率下识别人们的性取向(男性91%,女性83%),只不过是通过查看几张照片而已。
Kosinski的研究极富争议性,并面临LGBT权利团体的强烈反对,他们认为人工智能存在缺陷,反对同性恋的政府可以使用这种软件来对付同性恋者并迫害他们。不过,Kosinski和其他研究人员认为,强大的政府和企业已经拥有这些技术能力,而在努力推动隐私保护和监管方面的保护措施方面,至关重要的是要揭露可能存在的危险,因为在这些保护措施与人工智能的发展没有同步。
Kosinski是教组织行为学的助理教授,他说他正在研究面部特征和政治偏好之间的联系,初步结果显示,人工智能通过人们的面部特征来猜测政治倾向是有效的。
他说,就像研究显示的那样,这可能是因为政治观点似乎是可以遗传的。这意味着,政治倾向可能与基因或发育因素有关,这些都可能会导致面部差异。
Kosinski说,之前的研究发现,美国保守派政客往往比自由派更有吸引力,这可能是因为长相好看的人有更多的优势,更容易在生活中取得成功。
Kosinski说,人工智能在监测那些极度偏左或偏右的人的时候表现最好,对大量中立的美国选民来说,并不是那么有效的。“一个较高的保守分数……会是一个非常可靠的预测,这个人是保守的。”
Kosinski也因其在心理测量方面的争议性研究而闻名,包括使用Facebook的数据来推断性格。数据公司Cambridge Analytica也用类似的工具为支持特朗普竞选的选民提供支持,这引发了关于在竞选中使用个人选民信息的辩论。
Kosinski说,面部识别也可以用来推断智商,这表明未来学校招生时时可以考虑使用面部扫描的结果。这一应用引发了一系列伦理问题,特别是如果人工智能正在研究某些孩子是否在基因上更聪明的时候,他说:“我们应该考虑如何做,来确保我们不会出现类似于‘一个更好的基因,意味着更好的生活’的论断。”
Kosinski的一些建议让人想起了2002年的科幻电影《Minority Report(少数派报告)》,在这部电影中,警察在根据预测就把那些未来有谋杀可能的人给逮捕起来了。这位教授认为,社会的某些领域已经以类似的方式运作。
他说,当学校的辅导员在观察那些表现出攻击性行为的孩子时,他们会进行干预。他说,如果算法可以用来准确预测哪些学生需要帮助和早期支持,这可能是有益的。“这些技术在表面上听起来很危险,也很吓人,但如果使用得当或合乎伦理,它们真的可以改善我们的生存。”
然而,越来越多的人担心人工智能和面部识别技术实际上是依赖于有偏见的数据和算法,并可能对人们造成巨大的伤害。在刑事司法的背景下,这尤其令人担忧。在刑事司法体系中,机器可以根据法庭和警察系统中的偏颇数据作出审判,比如刑期的长短,或者是否释放某人的保释。这些数据来自法院和警察系统,每一步都带有种族偏见。
Kosinski预测,如果有大量的个人面部图像,算法就可以很容易地检测出这个人是否是精神病患者,或者是否有较高的犯罪倾向。他说,这尤其令人担忧,因为犯罪倾向并不会转化为犯罪行为:“即使是有高度犯罪倾向的人也不太可能犯罪。”
他还引用了《经济学人》中提到的一个例子,在人工智能用于性取向研究被报道出来之后,夜总会和体育场馆可能会面临压力,要求人们在进入之前扫描面部,以发现可能存在的暴力威胁。
Kosinski指出,在某些方面,这与人类安全警卫对他们认为危险的人做出主观决定并没有太大不同。
卡尔加里大学环境设计和计算机科学教授Thomas Keenan说,法律通常认为人们的面孔是“公共信息”,并指出法规并没有跟上技术的发展:“当使用某人的面部来产生新信息时,没有任何法律认为这是建立在侵犯隐私的情况上。”
Keenan说,可能需要发生一场悲剧来引发改革,比如一个同性恋青年被殴打致死,因为恶霸用一种算法来攻击他:“现在,你把人们的生命置于危险之中。”
即使人工智能能够做出准确的预测,也有一定比例的预测是不正确的。
Keenan说:“你正沿着一个非常滑的斜坡走下去,不管是二十分之一,还是一百分之一……预测都不是完全准确的。”
原文链接:https://www.theguardian.com/technology/2017/sep/12/artificial-intelligence-face-recognition-michal-kosinski