最近,以ChatGPT为代表的人工智能技术风靡全球,它不仅能流畅地与用户对话,还能写诗、写文章、编码。今年全国两会上,ChatGPT同样引起了委员和代表们的关注与讨论。ChatGPT是人类的助手还是对手?如何注意科技伦理、趋利避害?
新京报记者邀请全国政协委员、中科院自动化所研究员赵晓光,清华大学计算机系教授、清华大学人工智能研究院视觉智能研究中心主任邓志东,国家新一代人工智能治理专业委员会委员、中科院自动化所研究员、人工智能伦理与治理研究中心主任曾毅,做客《两会三人谈》栏目进行解读。
新京报《两会三人谈》栏目邀请全国政协委员、人工智能专家,共同聊聊以ChatGPT为代表的人工智能技术。制图/许骁
关注1:ChatGPT意味着人工智能技术发展到了什么程度?
ChatGPT近期引发了公众的广泛关注,有人觉得它具有颠覆性,也有人觉得它被“神话”了,这个语言大模型的出现意味着人工智能技术发展到哪一步了?
“这几天,全国政协科技界别很多委员特别关注ChatGPT的技术,尤其是这项技术在我国的发展和未来会给我们带来哪些启示。”赵晓光说,从技术角度来看,ChatGPT是一个自然语言处理模型,让计算机能跟人聊天。我国有很多研究机构也做了相关的技术,并一直在应用,比如大家熟悉的银行自动语音服务等。ChatGPT之所以受到广泛关注,是由于微软把ChatGPT的技术嵌入到搜索引擎“必应”中,受到巨大的用户人群欢迎并愿意为其付费。ChatGPT带来了在商业上应用的巨大前景。
全国政协委员、中科院自动化所研究员赵晓光。受访者供图
“我国此前没有大力发展通用大模型的研究,是因为目前还没找到很适合的应用场景。人工智能技术本身就要跟场景密切结合,这项技术给我们带来的启发就是未来如何跟场景更好地落地结合,如何培养更大的市场、挖掘更多的需求,通过满足用户的需求产生新应用,带来更多效益。”
她认为,ChatGPT的出现和应用并不代表着通用人工智能时代的到来。“一些新闻报道称它会理解人类的语言,我认为理解应该打个引号。要模仿人类的理解恐怕还要走很多的路。”
邓志东认为,ChatGPT作为大型生成式语言模型,是NLP(自然语言处理)领域中某种意义上的通用人工智能,而且是颠覆性的。2012年以来,以深度学习为代表的人工智能在全球范围内得到迅猛发展,但都属于弱人工智能,对于人类而言是赋能的工具。ChatGPT则不同,它利用单一模型就能完成NLP领域中的多个任务,比如对话、翻译、生成、搜索、编程与调试等,这就有了文本语言领域中通用人工智能的主要特点。同时,它在完成多个任务时还接近人类的水平,与以前根据特征进行匹配或搜索的方法完全不同。
他说,随着ChatGPT的版本不断更新,全球上亿用户与其高频度交互,且其具有持续的学习能力,它的NLP多任务完成能力还将提升,可能会在较短时间内达到专家的水平,将非常具有颠覆性,给人类带来巨大进步。
在曾毅看来,ChatGPT是一个人工智能领域现有工程技术的组合创新,在用户体验上有显著提升,但并非科学的突破。它使用自然语言处理领域的几项关键技术,都是几年前学术界已验证有效、相对比较成熟的技术。但ChatGPT有数亿用户的反馈,其输出不是提供最优化的结果,而是最接近人类需求、合乎人类期望的结果。
ChatGPT不能真正像人类一样理解和应用语言,离1956年达特茅斯会议上提出的“人工智能”实现智能的各个方面达到人类水平的畅想还有很大距离。
新京报“知道视频”出品
关注2:未来哪些职业可能会被人工智能取代?
一些网友在和ChatGPT聊天之后,担心自己的工作未来会被取代。那么,ChatGPT是人类的助手还是对手?未来哪些职业可能会被取代?
赵晓光称,人工智能确实取代了一些工作,是人类不愿意从事的艰苦、枯燥、繁重、有危险的工作。比如速记员的工作,现在很多可以通过自然语言识别将语言转变成文字,但计算机完成的工作依然需要人类校正,因为会存在一些错误。她以法律系统举例,ChatGPT可以审阅诉状,进行简单分类,做一些需要具备文化功底的简单的体力劳动,但不能替代法官做更多判断。所以目前来说,ChatGPT更多是提供了“方便”。
邓志东认为,ChatGPT不仅有文本理解能力,也有文本生成能力。“它的理解能力已经达到了相当高的水平,比如一些弯弯绕绕的表述,它都能理解,且给出合乎常识或价值观的回答。随着以ChatGPT为代表的生成式人工智能在短期之内大规模商业化落地,以及对各行各业全面渗透,在大幅度提高生产力和生产效率的同时,也将对就业市场带来影响,文案、新闻、翻译、会计、律师、教师、程序员、艺术创作等职业中的中低端岗位会受到冲击,尤其是不需要深入思考,仅完成简单重复性文字整理的岗位。
清华大学计算机系教授、清华大学人工智能研究院视觉智能研究中心主任邓志东。受访者供图
曾毅称,科学技术的发明创造以及在社会上的应用,最初的目的就是部分替代人类劳动。信息技术与人工智能发明的初衷,不是让绝大多数人失业。但确实需要思考的是,人类在所从事的职业中发挥的不可替代作用是什么。
他以记者举例,记者要追求真相,但目前人工智能对于“真相”的了解还存在很大困难的。相比人工智能写的稿件,媒体工作人员的作品中更能呈现人类对于世界的真正理解,也有背后的故事。
长期来看,必然会有一部分工作会被暂时替代,此时需要人类重新思考工作的意义。比如做社会服务、养老助残等需要以情感出发去关怀他人的工作,很难被机器替代。如果你哭了,机器人也可以安慰你,但这是基于数据的情感分析,而不是对情感的真正理解。即使机器有能力去替代人类时,人类也未必相信机器。“这样的工作使得人类反思,人之所以为人,与其他没有情感的物体之间的差异,让人类回归本该回到的地方。对于人类反思的能力,机器人和人工智能暂时难以达到同样的高度。”
总体上,曾毅持乐观态度,认为真正需要和值得人投入精力的工作不会被替代,但他仍认为,人类应该为可能出现的部分领域的劳动替代做好准备。
新京报“知道视频”出品
关注3:ChatGPT会对教育产生什么影响?
近期出现了学生利用ChatGPT做作业、写论文、考试作弊的情况,教育界人士担心这将使孩子们丧失思考能力。ChatGPT对教育会产生什么影响?
赵晓光认为,人类在学习的过程当中,学习前人的经验非常重要,这就需要阅读大量的文献,并将其中的中心思想提炼出来,即文献综述。ChatGPT可以做这件事,并生成一篇新的文章。“但它做得再好,也只是把已有的思想拼接起来,目前不会产生新的思想。总体上讲,我坚信人类能够把控自己发明创造出来的人工智能技术。”
她说,研究生写论文之前阅读大量的文献,花了很多时间,ChatGPT这样的工具能有效节约时间和体力,让学生把精力更专注地放在科研创新和写自己论文的思考上。但它确实带来了巨大的挑战,让人类的智能向更高层级发展,而不是局限于从事简单枯燥的工作赚钱。
邓志东称,去年11月30日OpenAI公司发布ChatGPT,目前还称不上1.0版本,但三个多月来已经带给我们很多改变,对教育的影响也将逐渐显现出来。一方面会带来挑战与冲击,另一方面,也会让人类重新思考教育的本质,找到路径去思考真正有用的知识,学习真正对经济社会发展和人类文明进步有价值的内容,而不是把大量时间花在死记硬背上。
曾毅认为,ChatGPT的输出跨越了学的阶段,直接给出结果。短期内,一些人通过偷懒会尝到甜头,但很快将被负面作用影响。统计生成模型主要关注输出结果的统计显著性,过度依赖于类ChatGPT技术与服务会使人失去自我的视角,难以彰显人的个性化、差异性。
知识获取最重要的部分就是理解的过程,而不是结果。长远来看,人类会明白利用辅助工具和让工具帮自己做决策是两回事。“比如小朋友背别人写的诗很快会忘记,但自己写的诗很难忘记,且自己会很珍视并由衷地快乐。”他认为,愿意用ChatGPT写综述的同学,失去的是学习的机会,以及获得研究灵感的快乐与洞见。
国家新一代人工智能治理专业委员会委员、中科院自动化所研究员、人工智能伦理与治理研究中心主任曾毅。受访者供图
关注4:中国何时有自己的ChatGPT?
今年2月,北京市经信局表示,北京将支持头部企业打造对标ChatGPT的大模型。现在很多人关心,中国何时才能有自己的ChatGPT?目前的差距在哪里?这次ChatGPT受到关注,对我国智能大模型发展是否是一个机遇?我国要如何推进智能大模型的研发?
赵晓光称,我国很多研究机构在研究大模型方面做了很多工作,并取得了非常好的成绩。北京市的政策将支持人工智能技术更好地落地应用,使其和应用场景结合。北京人工智能企业众多,技术人才聚集,在发展技术和挖掘市场需求上有很大优势。目前,企业要进行数字化、智能化转型,ChatGPT带来的启示就是去思考需求、市场和用户在哪里,把这些变成技术进步的动力。
“我们很早就呼吁,高度重视发展中国的人工智能多模态大模型。”邓志东称,ChatGPT的出现,也让全社会期待并支持中国发展自己的生成式人工智能大模型,这确实是一个机遇。以往中国也有对话机器人,但用户体验并不理想。百度宣布3月16日围绕“文心一言”召开发布会,这个生成式对话产品被外界誉为“中国版ChatGPT”。所以说不是“有没有”的问题,而是中国的ChatGPT可以多大程度上接近人类水平。
他说,类似的大模型都需要基于人类反馈的强化学习、全球数据和人工智能算力的支撑。ChatGPT有上亿用户级别的人类调教,后期很难有产品能达到类似规模,所以短期内打造完全对标ChatGPT的大模型,仍然存在挑战。
曾毅说,目前很多人工智能头部企业宣布投入类ChatGPT技术和平台研究,同一个研究机构甚至诞生不止一个大语言模型。作为语言服务的工具,语言大模型可以赋能千行百业,每个国家都需要有自己的基础大模型。但需要注意的是,如果中国诞生太多版本的基础大模型,而各个企业没有将重点放在发展垂直领域应用的话,不必要的能耗会非常大。
根据研究,2020年,全球信息与通信技术的碳排放只占在整个碳排放总量的2%,但在十年之内会上升到15%。大模型每一次训练的碳排放将近150人一年内生活的碳排放量。他认为,有共性技术的国家级基础大模型没有必要重复建设,应该有体系化地组织。在数据和知识引擎部分,产业和学术界应该最大可能共享。但在大模型创新算法、垂直领域微调算法方面,应该各自发挥优势。
他也认为,目前其他国家在人工智能领域取得突破进展后,我国人工智能产业才会迅速跟进,却没有原始创新能力,并复制学术与产业组合创新模式,而是当别人的“放大器”。科学突破途径不唯一,未来中国要想赢得机会需要前瞻布局、换道超车,使下一次的突破有机会从中国诞生。
新京报“知道视频”出品
关注5:如何注意科技伦理、趋利避害?
科技部部长王志刚日前在“部长通道”上表示,对人工智能的研究与运用,需要注意科技伦理、趋利避害。哪些科技伦理问题已经显现并值得我们关注?如何防范?
曾毅说,ChatGPT没有带来新的伦理挑战,但它在很多领域无限放大了大家认为可能还需很长时间才会到来的伦理挑战。比如统计生成模型需要发现大规模语料的统计显著性,但全球200多个国家和地区文化具有多样性,是不可以被统计的显著性吞噬的。这就是科技伦理中非常重要的一个维度。
另外,ChatGPT的责任和问责也值得关注,它对于所有的输出无法担责,权利和义务是相伴相生的,所以何谈版权问题。目前,人类构造看似智能的信息处理工具,人仍然是责任主体。同时,人工智能生成技术也需要关注用户知情同意的问题,研发方和服务方不能混淆它和人之间的边界,需要明确告诉用户是人工智能在服务,所带来的后果是人工智能没有办法承担的。
“我不同意让人工智能无处不在,它有适用领域,很多领域无需人工智能赋能。所以我们参与撰写的联合国教科文组织《全球人工智能伦理建议书》,其中明确指出人工智能的适度使用。”曾毅说。
邓志东认为,ChatGPT利用了全球约三分之二的海量文本数据,其中涉及数据安全、知识产权、隐私保护等问题。这些数据有可能还会存在种族和性别歧视、认知偏见、道德、伦理与价值导向等问题,甚至有违法数据,所以必须设立安全门。要通过全球合作的方式,提前采取有效的预防措施,制定相关国际伦理规范,而不是等问题发生了再去应对。目前,ChatGPT对人类还无法形成真正的威胁,在发展之初要以开放的心态看待新生事物,紧抓机遇,发展中国人工智能产业,赋能经济和社会的发展。
作为全国政协委员,赵晓光表示,自己是科技界的委员,也进行了机器人和人工智能的研究,未来将在这一领域提出意见和建议,希望人工智能在我国数字经济的发展中和数据融通处理中发挥作用,为实体经济发展赋能,带来新的经济增长点和新的业态。“未来五年,我将着重关注人工智能技术的落地应用、新技术领域的创新,并在这些方面做更多调查研究工作。”
新京报记者 张璐 郭薇 王方杰
编辑 刘梦婕 校对 李立军
举报/反馈

新京报

6467万获赞 679万粉丝
新京报由北京市委宣传部主管主办,2003年11月11日创刊。新京报社已经发展成为兼具新闻采编、社会调查、舆情分析、政务服务、金融信息、智库研究、教育培训、品牌推广、公益文创、活动会展等功能,集“报、刊、网、端、微、屏”传播于一体、媒体融合转型下的现代综合性主流传媒机构。
新京报社官方账号
关注
0
0
收藏
分享