AI智能时代来临,我们面临最艰巨的挑战,千万要注意的重点

发布时间:18-12-1017:40

AI智能时代来临,我们面临最艰巨的挑战,千万要注意的重点

几年前我们不应该做任何事情的论点可能是有道理的,现在应该考虑开发和设计安全且有益的AI系统的方法,无论组件的智能程度如何,只要组件以正确的方式进行定义,培训和连接,这是很棒的。

实际上这真是我们应该做的事情,在AGI和ASI出现之前我们将不得不应对更基本,更窄的AI所带来的威胁,这种AI已经开始出现在我们的基础设施中,通过解决当前人工AI带来的问题,我们可以学到一些宝贵的经验教训,并设置一些重要的先例,可以为将来建立安全但更强大的AI铺平道路。

以自主行驶汽车为例,一旦整体部署自主行驶汽车将受到中央情报的监控,并在一定程度上受到控制,这个监督“大脑”的人将向其车队发送软件更新,在交通状况下为汽车提供建议,并作为总体网络的通信枢纽,但想象一下如果有人入侵这个系统并向舰队发送恶意指令,这将是一场史诗般的灾难,这就是AI的威胁。

AI系统的网络安全是一个主要漏洞,自主系统,如自主行驶汽车,个人助理机器人,AI玩具,无人驾驶飞机,甚至武器化系统都受到网络攻击和黑客攻击,间谍,窃取,删除或更改信息或数据,停止或中断服务,甚至劫持,与此同时,政府和公司之间的网络安全人才短缺。

另一个主要风险是用于机器学习数据存在的偏差,由此产生的模型不适合每个人,导致包容,平等,公平,甚至身体伤害的可能性问题, 例如自主车辆或手术机器人可能没有在足够的图像上被充分训练以辨别具有不同肤色或大小的人,将其扩展到ASI的水平,问题变得呈指数级变差。

例如商业面部识别软件反复被证明对皮肤较深的人不太准确,同时一种名为PredPol的预测性监管算法被证明不公平地针对某些社区,在一个真正令人不安的案例中,COMPAS算法预测了重犯的可能性,以指导量刑,被发现具有种族偏见,这种情况想象一下ASI可能造成的破坏和伤害更大的力量,范围和社会影响力。

对人类而言留在理解循环中也很重要,这意味着我们需要保持对AI决策理论的理解,由于AI不断侵入超人的境界,这就是所谓的“黑匣子”问题,当开发人员无法解释他们的创作行为时就会发生这种情况,当我们不完全了解它是如何工作的时候做一些安全的事情充其量是一个不稳定的主张,因此需要努力创建能够以人类可以理解的方式解释自己的AI。

我们还需要围绕AI的发展改变企业文化,特别是在硅谷,那里普遍存在的态度是难以快速或快速地失败,这种心态不适用于强大的AI,这将需要极端谨慎,考虑和远见,偷工减料和释放思想不周的系统可能会以灾难告终。

通过更多的合作,例如AGI研究人员汇集他们的资源以形成财团,行业主导的指导方针和标准,或技术标准和规范,我们有希望在安全标准中重新设计这种竞争到底,公司需要时间来维护道德和安全标准,同时竞争是有益的,因为它可以加快实现有益创新的进程。

同时企业应该考虑信息共享,特别是如果研究实验室偶然发现了一个特别讨厌的漏洞,比如可以偷偷通过加密方案,传播到预定领域之外的域或者很容易被武器化的算法。改变企业文化并不容易,但需要从顶端开始,为了促进这一点公司应该建立一个新的行政职位,首席安全官(CSO)或类似的东西,以监督可能是灾难性的AI以及其他危险的新兴技术的发展。

国际一级也需要采取行动,AI带来的存在危险可能比气候变化更严重,但我们仍然没有专门的委员会,国际AI小组怎么样?除了制定和执行标准和法规之外,该小组还可以作为AI开发人员的安全空间,他们认为他们正在开展特别危险的工作,一个好的经验法则是停止发展,并与该小组一起寻求理事会。

在类似的说明中正如生物技术的一些先前发展所表明的那样,一些研究结果太危险而无法与公众分享(例如“ 病毒获取 ”研究,其中病毒是故意变异的感染人类)。由于国际安全的原因,国际AI小组可以决定哪些技术突破应该保密。相反根据功能获得研究的基本原理,公开分享知识可能会导致主动安全措施的发展。

不要以为风险的讨论是反AI,这是人工智能的补充,人工智能有可能影响世界,正如生物学已经成长起来,物理学已经成长并承担了对世界影响的责任,现在是AI成长的时候了。

返回顶部