联合国特定常规武器大会11月13日在瑞士日内瓦召开,为期五天,大会讨论的重要议题之一就是,是否应该禁止对“杀人机器人”的研发工作。
所谓的“杀人机器人”,指的是给人工智能装备配上杀伤性武器,他们将像杀手一样,能够独立行使伤害甚至摧毁人类的任务。更重要的是,它们在被激活后无需人类干预,完全由电脑系统做出决定,便可自动选择目标、采取行动。一些研发人员担心,未来如果电脑系统落入恐怖分子的究竟什么是杀人机器人?研究人员给出了场景展示。
小型无人机对人脸识别可准确攻击人类要害
模拟机器人集群作战
一家公司的研发者正在一场科技大会上展示新型武器——一个小型无人机。它内置摄像头和传感器,具有人脸识别、自动定位等多项功能。然而,与普通的无人机不同,它还能携带爆炸物,转眼间将人置于死地。这名研发者还表示,这种小型无人机可以集群作战,发动大规模战争。
模拟机器人落入恐怖分子之手
接下来,进一步模拟了它落入了恐怖分子之手的可怕场景。
随后,恐怖分子还操控这种小型无人机潜入一个会场,对参会人员进行“定点清除”
视频最后,从噩梦回到现实。来自美国加州大学伯克利分校的人工智能领域专家鲁塞尔呼吁联合国像类似的“杀人机器人”说不。
人工智能专家鲁塞尔说,让机器人有选择地杀人,对我们的安全和自由来说是毁灭性的打击,上千名和我一样的研究人员达成共识,我们能够避免类似的场景变成现实,但留给我们的时间不多了。
今年8月,包括特斯拉汽车公司首席执行官埃隆·马斯克等人工智能领域的100多名企业家向联合国发出了一封公开信,号召联合国关注“杀人机器人”带来的潜在威胁,并呼吁各国冻结“杀人机器人”技术的研发、生产和使用。
不过,也有人对研发类似的自主武器系统持肯定态度。他们认为,这类系统采用了先进的传感器和人工智能技术,这意味着它们将比士兵更能准确的识别和攻击军事目标,从而避免平民意外伤亡。他们认为,自主武器系统的研发不是问题,问题是如何保证武器安全,避免落入恐怖分子的手中。
请输入验证码