近期,有一个可怕的词频繁的出现,那就是杀人机器人,并且据悉印度正在研究杀人机器人,据悉智能程度将达到全球第一,然而,当所谓的智能武器遭到滥用,在未来的发展也必将会对人类产生很大的威胁!
1000多名人工智能研究员已经签署公开信,呼吁禁止“杀人机器人”(或称自主武器)。此外,还有数以百计业外人士在公开信上签名,包括特斯拉电动汽车首席执行官伊隆·马斯克(Elon Musk)、著名科学家史蒂芬·霍金(Stephen Hawking)以及社会理论学家诺姆·乔姆斯基(Noam Chomsky)等。
无需人类干预就能袭击目标的自主武器现在还未出现,但这无法阻止有关其被创造或使用潜力的激烈辩论。反对者担心自主武器出现后若遭到滥用,将对人类产生巨大威胁,包括难以解决的道德问题。
未来生命研究所发布的这封公开信中称:“人工智能技术已经达到临界点,部署这样的武器实际上是不合法的,在未来数年甚至数十年都是不可行的,危险性太高。自主武器被视为继火药和核武之后的第三次战争革命。”
科学家们还在公开信中将自主武器称为“未来的卡拉什尼科夫步枪”,警告“它们将无所不在,其生产成本低廉,所有军事力量都可以大规模制造。”这种假设的后果令人感到恐惧:“它们出现在黑市中,落入恐怖分子、军阀、独裁者手中只是时间问题。对于执行暗杀、令国家陷入动荡、征服人口以及有选择性地屠杀特定种族等任务,自主武器将非常理想。”
科学家们在公开信中警告称:“如果有军事力量在人工智能武器开发领域占据优势,全球性军备竞赛几乎将不可避免。”有鉴于此,科学家们呼吁各国采取“先发制人”行动,反对自主武器技术。他们在公开信中得出结论称:“我们认为人工智能技术在很多方面都将让人类获益,我们应该继续沿着这个方向前进。开始人工智能武器军备竞赛是个糟糕的主意,应该禁止人类控制之外的攻击性自主武器的出现。”