央广网北京8月24日消息(记者张奥 实习记者于洋)据经济之声《天下公司》报道,硅谷钢铁侠伊隆·马斯克和十几位美国人工智能公司共同向联合国发了一封公开信,认为应该禁止人工智能在武器领域的应用。原计划,联合国将于周一进行致命性自主武器系统专家小组讨论,研究如何保护平民免遭滥用的自动化武器的伤害,收到这封信后,他们决定增加调研,会议推迟11月份再开。
人工智能科技公司的创始人们在信中这样写道,“人工智能本应该为人来造福,掀起第三次工业革命,但这个技术的突破会像打开潘多拉魔盒一样,也许有人会使用它作恶,比如杀手机器人。因此,我们恳请通过联合缔约的方式,能让人类免除潜在的伤害。”
大概,两年多前马斯克与3000多名人工智能研究人员,以及与物理学家霍金和苹果联合创始人沃兹尼亚克发布过一封公开信。在2015年的信中,签署人警告人工智能武器的危险性,它可用于“暗杀、破坏国家稳定、选择性地伤害一个特定的族群”。如今人工智能技术已经发展到了一定程度,但这些系统的风险很高。如果它们出现在黑市、恐怖分子、独裁者和军阀手中,后果将是灾难性的。”
人工智能研发如火如荼,到底在业界是否有使用上的边界共识?北京航空航天大学计算机学院教授朱皞罡说:“国际上公认的边界应该是没有的。人工智能从之前的逻辑方法到后来的数据驱动、知识驱动再到现在知识数据双驱动,都一直在找应用领域。在此过程中,我们关注的仅仅是技术层面,不论是什么领域,只要技术能用得上,都会去使用。所以没有边界,也没有规定哪一领域不能碰。
军事领域包括武器,是人工智能的很大动力,很多先进的互联网底层技术,最初都是从卫星制导这些领域出来的,然后才军转民。所以,它很大的驱动力是在军事和武器领域。”
问及对人工智能在武器和军事上应用的看法,朱皞罡认为:“到目前为止,人工智能达到人的智能水平还很难。但是,如果在新的极端架构下,比如量子极端架构下,能达到什么程度不是好界定的。类比金融科技,FinTech当时问世时经历各种各样的高频交易,后来发现高频交易会摧毁股市的稳定性,于是大家决定做一个技术对手——RegTech,进入监管技术,然后对FinTech进行监管,也就是一个技术做另一个技术的监管。我认为,人工智能也可能会向这个方向发展,先有人工智能技术,再有人工智能监管技术,用人工智能管人工智能也是有可能的。
马斯克不仅创办了新能电动车公司特斯拉,太空探索公司SpaceX,他还是一家人工智能研发机构openAI的主要赞助人,同时他还创办了Neuralink,希望连接人脑和电脑之间建立联系。他曾在多种场合警告“人工智能存在的风险”,甚至用《终结者》电影举例,影片中世界由电脑系统“天网”统治,机器人组成了它的军队,人类在领袖康纳的领导下与天网英勇作战,而“天网”则派出机器人穿越时空回到1984年,去杀死约翰的母亲莎拉,以阻止康纳的出生。





