【中国智能制造网 智造快讯】核武器的威胁还未解决,人类又将面临另一个自己制造出来的生存威胁。近日,一批机器人和AI领域的专家、企业家以及技术,呼吁联合国禁止“杀人机器人”的开发和使用。
“杀人机器人”,似乎已被公认是下一轮军用技术的制高点。中美俄英法韩等主要军事大国,纷纷加大研发投入,争相打造无需人类驾驶员、操纵者的“钢铁雄师”。但同时,这引发的伦理争议与安全担忧日渐升温。近日,来自26个国家的116名专家,由马斯克和DeepMind联合创始人Mustafa Suleyman领头,发布公开信号召全面禁止自主武器。
联合国近已投票通过开启对此类军用武器的正式讨论,这包括自主化的无人机、坦克、机关枪。马斯克等这批人已向联合国提交一份公开信——希望在此时,即正式讨论开始前进行呼吁,推动联合国制定决议制止这波已经开启的“杀人机器人”军备竞赛。
在公开信中,这批技术们对将主持该讨论的联合国常规武器会议警告称,这轮军备竞赛极有可能导致“人类战争形式发生第三次革命”,前两次分别由火药和核武器引发。他们写道:“一旦研发出来,致命自主武器将使未来战争扩大到的规模,战争进展的速度也将超过人类对时间的理解。 这类武器很有可能成为恐怖的代名词,独裁者、恐怖分子能把它们用到无辜平民上,也有可能被黑客利用,让自主武器做出我们不希望看到的行为。留给我们做出行动的时间并不多。一旦这个潘多拉魔盒开启,关上就难了。”
此前,AI专家曾警告,以现在的人工智能技术和发展速度,部署全自主武器将在几年内变得可行。虽然,AI武器能让战场对军队服役人员来说变得更安全——更多人不需要上前线;但专家们担心能自主行动的进攻性武器,将极大降低战争的门槛,导致更大量的人类伤亡。
该公开信在今天IJCAI的开幕致辞上公布,得到了机器人以及AI不少专家学者的支持。公开信全文以及署名者名单见此。他们强调做出紧急行动的重要性,尤其联合国把讨论该问题的会议时间推迟到了今年11月,原计划是今天。
这批联合署名公开信的专家,呼吁把“在道德伦理上站不住脚”的致命自主武器系统,加入联合国自 1983 年生效的特殊常规武器大会 (CCW) 武器禁用名录。 后者包括化学武器以及蓄意以致盲为目的的激光武器。
新南威尔士大学人工智能教授Toby Walsh对此表示:“几乎所有技术都有两面性,AI 同样如此。它能帮助我们解决许多当前面临的社会问题:不平等、贫困、气候变化带来的挑战以及仍未消退的金融危机。但是,同样的技术也能用到自主武器上,让战争(进一步)工业化。我们需要在今天做出决定,到底什么样的未来才是我们想要的。”
大家很熟悉的马斯克是该领域的活跃人物。他很早就对前瞻性的 AI 政策立法进行了多次呼吁,把人工智能说成是人类的头号生存威胁。马斯克的说法造成很大争议,不少学者以及意见表达了不同观点,包括Ray Kurzweil与扎克伯格。不少公众可能认可AI对人类社会有很大破坏潜力这一说法,但同时认为真正造成“破坏”还离得远。
Clearpath Robotics创始人Ryan Gariepy表示:“与其它科幻小说里的AI潜在应用不一样,自主武器系统研发正处在一个拐点,它对无辜平民造成杀伤的威胁非常现实,也有可能造成不稳定。”
AI顶会IJCAI被专家们用作讨论致命自主武器系统的论坛,已经不是次了。两年前,包括马斯克和霍金在内的数千名AI、机器人专家以及行业在该大会上签署了另一封公开信,呼吁与今天相似的武器禁令。这推动了联合国对致命自主武器开启正式讨论。
核武器的威胁还未解决,人类又将面临另一个自己制造出来的生存威胁。
原标题:马斯克等26国AI上书:联合国禁止杀人机器人
版权与免责声明:
凡本站注明“来源:智能制造网”的所有作品,均为浙江兴旺宝明通网络有限公司-智能制造网合法拥有版权或有权使用的作品,未经本站授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:智能制造网”。违反上述声明者,本站将追究其相关法律责任。
本站转载并注明自其它来源(非智能制造网)的作品,目的在于传递更多信息,并不代表本站赞同其观点或和对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。如其他媒体、平台或个人从本站转载时,必须保留本站注明的作品第一来源,并自负版权等法律责任。如擅自篡改为“稿件来源:智能制造网”,本站将依法追究责任。
鉴于本站稿件来源广泛、数量较多,如涉及作品内容、版权等问题,请与本站联系并提供相关证明材料:联系电话:0571-89719789;邮箱:1271141964@qq.com。