一些科学家呼吁禁止研发人工智能武器,并呼吁在战争中使用,因为AI武器可能在一些不可预测的故障中杀死无辜的人。道德专家还认为,AI武器在没有任何人为干预情况下进行杀戮是一种不道德的行为。

早在前两年,来自26个国家在机器人技术和人工智能方面具有影响的专家共同签署了一封公开信,呼吁联合国禁止在国际上使用“战争机器人”。

目前,来自50个国家的89个非政府组成的人权观察团(HRW)已经组成了呼吁禁用杀手机器人的运动,还在推动国际相关条约的制定。AI武器目前正逐渐进入公众视野,无人机就是典型的例子,能够自行起飞、飞行和着落,还有机器哨兵,这些都是AI武器的例子。

加拿大公司Clearpath Robotics的首席执行官Ryan Gariepy也表示支持相关禁令提案,他的公司与军事签订了武器合同,但他已经谴责人工智能系统用于战争中,并声称他们不会发展AI武器。

如果AI武器系统非法杀人,这种情况会引发法律责任问题。对于AI机器来说,如果进行杀戮的话是对人权的侵犯。又因为机器是不道德的主体,不能对生死决定负责,而制造AI武器的人可能是负责人。

AI武器具有指挥高效性、精确的打击化、操作自动化、行为自动化等特征,在很多国家军事领域目前占有很重要的地位。这种可以有意识地寻找、辨别需要打击的目标,具有辨别自然语言的能力和会思考的系统在未来的战争中有绝对的优势。

目前美国已经列了多达100多种的据用AI机器人,并在一些部队装备了一些型号的AI武器。这些武器装备的确能提升军队的军事能力,但如果被滥用和恶意使用,将是人类的最大灾难。

相关文章