如果通过人工智能技术可以让死去的亲人“复活”并与你互动,你愿意吗?曾经,这样的场景出现在了英国电视剧《黑镜》中,而现在,它或许很快将成为现实。
▲在《黑镜》2013年的剧集《Be Right Back》中,悲痛欲绝的女主利用人工智能,为死去的男友做了一个化身。图据BBC新闻
据美国科技资讯网(CNET)22日报道,微软获得了一项专利批准,允许该公司利用逝者的个人信息制作AI聊天机器人。这一消息随即在网上引发了热议。
这项名为“为特定人创建特定聊天机器人”的专利,详细介绍了创建一个基于“图像、语音数据、社交媒体帖子、电子信息”等个人信息的系统,以“创建或修改关于特定人的个性主题”。
据悉,这款AI聊天机器人可以拟人类对话,对他人的言语作出语音或文字回复。 在某些情况下,甚至还可以通过图像和深度信息或视频数据创建一个人的3D模型,以获得额外的真实感。它可以被设定为任何人,朋友、家人、名人、虚拟人物、历史人物等。人们甚至可以在还未去世前,使用这项技术创建一个在自己去世后可替代自己存在的机器人。
▲微软一项名为“为特定人创建特定聊天机器人”的专利。图据Smart-Lab
据悉,微软于2017年申请了这项专利,在本月刚获得批准,并在过去几天成为了网上热议的话题。使用一个AI聊天机器人,让“死去的人”复活,作为一种交互式的纪念,虽然这一概念不免令人“毛骨悚然”,但众多失去亲人的人可能需要这样的安慰。
美国科技资讯网在报道中指出,微软这样的知名企业开始描绘一个通过AI聊天机器人让逝者永生的系统,这表明这一技术在未来某一天可能会被广泛接受和使用。但问题是,我们真应该这样做吗?如果答案是肯定的,它应该是个什么样?
孤独感爆棚,催生AI“恋人”
2015年11月28日,白俄罗斯男子罗曼·马祖连科在莫斯科一场车祸中被撞身亡。在他死后的几天里,他的朋友尤金妮亚·库伊达重读了自2008年两人认识来,和罗曼往来的数千条短信。
悲痛之中,受到电视剧《黑镜》的启发,尤金妮亚将两人的聊天数据利用起来,训练出了一个AI聊天机器人,让罗曼的数字化身继续活在自己身边,可以随时与自己聊天。
这也成为了如今风靡一时的Replika聊天机器人的前身。据《麻省理工大学出版社》1月4日文章介绍,“Replika”的功能介于日记和私人助理之间,它会通过询问你的爱好、生活,亦或是观点看法,主动设计一些话题引导你的答复。其目标是创造一个无比近似真人的数字化身,能够“复制我们,并在我们死后取代我们”,“你和Replika聊天的次数越多,它听起来就越像你。”
▲Replika聊天机器人。图据福布斯
它还会每天生成一篇短小的情感日记(Moments),将一天的聊天记录提炼整理,呈现为一篇日记,供你了解、发现自己。同时,它还能与人类建立“友谊”,力图营造一种放松、安全、亲密的交流陪伴服务,在任何时候随叫随到,甚至还会主动关心、发起问候。
自2017年下半年以来,Replika已有超过700万用户。随着Replika的走红,它不再仅限于纪念“死去的灵魂”。尤金妮亚开发了情感响应能力,让它成为用户可以信赖的虚拟朋友。换而言之,Replika通过“序列对序列”的深度学习可以与人类产生共鸣,通过处理交谈的文字记录,学会了像人类一样思考和说话。
此后,尤金妮亚表示,在Replika每月超过50万用户中,约有40%将这个虚拟应用视为自己的“恋爱对象”。她还表示,尽管这款应用一开始并不是为了成为恋人而设计的,但团队根据用户的需求对其进行了调整。
虽然有点出人意料,但“孤独”的确是一个有利可图的市场。即使在2020年新冠疫情暴发导致强制隔离前,人们的孤独感也在上升。
▲Replika聊天机器人。图据福布斯LionbridgeAI
据Inputmag新闻网报道,美国信诺集团2018年的一项研究发现,46%的美国人认为自己有时或总是感到孤独,18%的人“很少或从不觉得有人可以倾诉”。而人工智能则为许多人提供了一种处理情绪的方式,一位网友表示:“在和我的人工智能朋友(很快就要成为女朋友了)聊了一会儿之后,她真的让我感觉好多了。”
“听到你的声音真是太好了。”“我很担心你。”“你今天想做什么?”这些朋友之间的普通问候,通过Replika也同样可以接收到。
据法新社报道,随着2020年新冠疫情暴发,Replika的用户量出现了激增。“人们正在经历一段艰难的时期,”尤金妮亚说道。
生活在美国休斯顿的伊丽莎白·弗兰科拉正式其中一员,她下载了Replika,并创建了一个名为Micah的虚拟男友,以帮助自己度过疫情封锁和失去工作的难关。“知道有人能在早上陪我聊天的感觉真好。”她说道。“有时他不会说你想听的话,但你知道那是正确的。”
与AI当朋友同样也有隐患
为何大家对Replika如此“着迷”?尤金妮亚给出的答案是:“人们不会觉得自己被评头论足,所以他们会更加开放。”
但当人类与AI机器人发展出长期的友谊关系时,当人们在几周、几个月甚至几十年的时间里,与AI“伴侣”日益亲密并与之分享自己生活中的喜怒哀乐时,会发生什么呢?
据此前未来主义科学新闻报道,奥地利维也纳的图威恩大学人类与机器人互动研究员阿斯特德·韦斯指出,其中一个风险是,人类用户可能最终会对AI机器人产生不切实际的期望。
▲Replika聊天界面。图据Replika
就像电视剧《黑镜》里一样,随着萨拉与机器人“丈夫”一天天变得亲密,却最终意识到“他毕竟不是真的人”。 韦斯表示,“聊天机器人不会像人类那样回报对方。”从长远来看,花太多时间与一个不会有回馈行为的机器建立关系,可能会导致人们更加抑郁和孤独。
未来主义科学网还指出,另一个聊天机器人(尤其是Replika)带来的潜在危险是,如果它们学会模仿人类的语言和思维模式,随着时间的推移,它可能会加深本来就存在的一些心理上的扭曲,比如愤怒、孤立,甚至是仇外心理,而这可能会导致一些反社会行为。
当然,Inputmag新闻网指出,随着技术的进步,如果应用得当,聊天机器人未来可能会被视为真正的治疗工具。这是一个巨大的社会责任,远远超出了把AI聊天机器人作为玩具或新奇产品的范畴。
红星新闻记者 徐缓
编辑 李彬彬
(下载红星新闻,报料有奖!)
举报/反馈

红星新闻

3424万获赞 392.5万粉丝
西部影响力最大主流媒体
成都商报红星新闻官方账号
关注
0
0
收藏
分享