使用一套开发人工智能的原则真的有用吗?
我们如何创造“好的”人工智能,机器合乎道德意味着什么,我们如何在道德的基础之上使用人工智能?Good in the Machine——2019年SCINEMA国际科学电影节的参赛作品——深入研究了这些问题,我们道德的起源,以及人工智能和我们自己的道德指引之间的相互作用。
鉴于过去几年有言论对人工智能的未来发出可怕的警告,人工智能伦理学领域已成为研究的重中之重。
这些警告来自牛津大学的尼克·博斯特罗姆等各种专家,也有来自埃隆·马斯克和已故斯蒂芬·霍金等更多公众人物的警告。
作为回应,有些人制定了一套原则来指导人工智能研究人员,并帮助他们谈判人类道德和伦理的难题。
AI伦理领域通常分为两个领域:一个涉及指导开发人工智能的人类的伦理学,另一个涉及指导人工智能或机器人自身道德行为的机器伦理学。然而,这两个领域并不是那么容易分得开。
机器伦理学历史悠久。1950年,伟大的科幻作家Isaac Asimov在他的作品《机器人》中明确阐述了他著名的“机器人三定律”,并提出了这样的建议:
机器人不得伤害人,或通过不作为允许人受到伤害。
机器人必须服从人类赋予它的命令,除非此类命令与第一定律相冲突。
只要这种保护不与第一或第二定律冲突,机器人必须保护自己的存在。
这些法律标准加在一起是阿西莫夫(和编辑约翰·W·坎贝尔)思考如何确保人工智能系统不会让其创建者过于兴奋(避免生产不安全或不受控制的人工智能)。
2004年,改编自《I, Robot》的电影上映,以人工智能为特色,该人工智能对三条法律的解释导致了一项统治人类的计划。
近几年大火的西部世界也是如此。(注:本人最喜欢的美剧之一)。
为了突出这三条法律的道德原则的缺陷,一个由美国人工智能研究员Eliezer Yudkowsky领导的名为人工智能奇点研究所(现为机器智能研究所)的组织启动了一个名为“三法不安全”的在线项目。
艾萨克·阿西莫夫在1950年阐述了他的“机器人三定律”。
Yudkowsky是超级智能人工智能的早期理论家,也是友好人工智能思想的支持者,他认为,如果人工智能发展到阿西莫夫小说中描绘的阶段,这些原则将毫无希望地简单化了。
尽管这三项法律的缺点得到了广泛承认,但从私营企业到政府,许多组织仍然坚持实施开发基于原则的人工智能道德系统的项目,其中一份文件列出了迄今为止发布的“84份包含人工智能道德原则或准则的文件”。
这种对伦理原则的持续关注的部分原因是,虽然这三条法律旨在仅管理人工智能行为,但人工智能伦理原则上适用于人工智能研究人员以及他们开发的智能。AI的道德行为部分反映了设计和实施它们的人的道德行为,正因为如此,AI道德的两个领域密不可分。
如果我们要避免人工智能批评者设想的一些更灾难性的情况,人工智能开发需要强有力的道德指导。
国际非营利组织Atomium-欧洲科学、媒体和民主研究所发起的AI4People于2018年发表的一份评论报告称,其中许多项目制定了与医学伦理学非常相似的一套原则:慈善(只做好事)、非恶意(不伤害)、自治(人类做出个人决定的权力)和正义。
对一些人来说,这种趋同为这些作为未来发展人工智能的可能指导原则提供了极大的可信度。
然而,牛津互联网研究所和英国政府艾伦·图灵研究所的布伦特·米特尔施塔特(Alan Turing Institute)认为,这种方法被称为“原则主义”,并不像看起来那么有希望。
医学和人工智能研究领域之间存在显著差异,这可能会破坏前者在后者背景下的道德原则的有效性。
他的第一个论点涉及共同的目标和信托义务,即医生等值得信赖的专业人士将他人利益置于自身利益之上的职责。医学显然与促进患者健康和福祉的共同目标联系在一起,这是“一个职业质量的定义,使其从业者成为具有共同目标、价值观和培训的‘道德社区’的一部分”。
然而,对于人工智能研究领域来说,情况并非如此。“人工智能主要由私营部门开发,用于公共(例如刑事判决)和私人(例如保险)等”。“开发人员、用户和受影响方的基本目标不一定一致。”
同样,私人人工智能研究中不存在职业的信托义务及其治理机制。
“人工智能开发人员不致力于公共服务,在其他职业中,公共服务要求从业者在竞争的业务或管理利益面前维护公共利益”。在人工智能研究中,“公共利益不优先于商业利益”。
在一个相关点上,虽然医学的专业文化规定了可以追溯到古希腊医生的必要道德义务和美德,但“人工智能的发展没有可比的历史、同质的职业文化和身份,也没有类似的职业道德框架”。
医学已经很久没有时间从希波克拉底传统提供的最低限度指导的缺点中吸取教训。作为回应,它将适当行为编纂为现代原则主义,为更全面、更令人满意的道德指导提供了指导。
人工智能研究显然是一个年轻得多的领域,缺乏这些丰富的历史学习机会。使问题进一步复杂的是,医学的应用背景相对较窄,而“人工智能原则上可以在涉及人类专业知识的任何背景下部署”,导致其具有根本性的多学科和跨学科性,研究人员来自“不同的学科和专业背景,具有不协调的历史、文化、激励结构和道德义务”。
这使得制定除了“广泛接受的原则来指导负责人工智能开发、部署和治理的人和流程跨越截然不同的使用环境”外,非常困难。问题在于将这些转化为实际的良好做法。“在这个抽象的层面上,“有意义的指导可能是不可能的。”
最后,人工智能研究中“相对缺乏法律和专业问责机制”。在医学有多层次的法律和专业保护来维护专业标准的地方,人工智能开发中基本上不存在此类东西。研究表明,道德守则本身不会导致道德行为,这些守则不会“嵌入组织文化并得到积极的执行”。
“不能认为对自我监管框架的严肃和长期承诺是理所当然的”。
人工智能研究需要在组织层面建立“具有约束力和高度可见的问责结构”,并鼓励该领域的实际道德实践为更高级别的原则提供信息,而不仅仅是依赖自上而下的原则主义。同样,关注组织道德而不是职业道德,同时呼吁人工智能开发专业化(部分领域通过向高风险的人工智能开发人员发放许可证)。
对人工智能伦理学未来的最终建议是敦促人工智能研究人员不要将伦理问题视为需要“解决”的设计问题。“假设非常古老和复杂的规范问题仅靠技术修复或良好的设计就可以解决,那就是太天真了”。
相反,“应该期待和欢迎棘手的原则分歧,因为它们既反映了严肃的道德考虑,也反映了思想的多样性。它们不代表失败,也不需要“解决”。道德是一个过程,而不是目的地。人工智能伦理的真正工作现在才刚刚开始,实施我们的最崇高的原则,未来任重道远。