从性别歧视到不公平招聘,AI如何公平待人??
2014年,亚马逊的工程师着手研究开发设计一款基于人工智能企业招聘系统软件,利用网络算法和数据分析来筛选候选人,以此可以避免我们人类社会招聘官身上特有的“感情用事”问题。事与愿违,这款应用软件虽避免了“感情用事”问题,却在“偏见”上犯下更大的错误——软件编写者将人类通过招聘官的筛选教学模式写入数据算法,现实生活世界中无意识的偏见也带进了中国机器。
随着智能技术的普及,算法决策是一种趋势。 避免人类社会向算法世界映射的偏见是当前数字生存的一个重要命题。
此前,AI与社会公布栏“算法偏见:看不见的”仲裁者“”试析造成损害的算法问题,本文着重梳理了当前算法偏见一些解决方案。
在机器进行学习发展过程中,算法偏见会从三个重要环节中被渗透:数据集的构成企业缺乏具有代表性,工程师制定相关算法规则时、打标者处理非结构化素材,都有自己可能混入偏见。
当今机器学习工程师最大的问题之一是他们知道有些事情不对劲,但他们不知道它到底在哪里,也不知道为什么在哪里。” 微软前执行副总裁沈向洋指出。
由于算法无关的偏见,不检查,从而使反偏工作变得困难。为了应对现有的系统,无论政策和制度,创新的技术突破或柜台,也开始尝试解决这个问题已经超越了技术从不同的角度。
举报/反馈

乐活资讯客

89获赞 4.7万粉丝
这里有优质、有趣 、有料的资讯..
关注
0
0
收藏
分享