数百名AI专家力挺马斯克霍金:呼吁禁杀人机器人

导读,了解人工智能潜力的科学家对杀手机器人深感恐惧。今年8月份,包括特斯拉电动汽车公司和美国太空探索技术公司SpaceX首席执行官伊

11月9日消息,据CNBC报道,了解人工智能(AI)潜力的科学家对杀手机器人(也被称为自主武器)深感恐惧。今年8月份,包括特斯拉电动汽车公司(Tesla)和美国太空探索技术公司SpaceX首席执行官伊隆·马斯克(Elon Musk)在内的100多名科技界领袖签署了一封公开信,呼吁联合国禁止开发和使用人工智能武器。马斯克也数次在推特上强调,他担心AI全球军备竞赛会导致第三次世界大战。

图:2009年3月18日,在日本东京举行的Terminator Exhibition展览上,电影《终结者2》(terminator 2)中出现的机器人T-800全尺寸图像

不久前,著名物理学家斯蒂芬·霍金(Stephen Hawking)也发出警告,强调监管AI的重要性。他在里斯本举行的网络峰会上说:“除非我们学会如何为应对和避免潜在风险做好准备,否则AI可能是人类文明历史上最糟糕的事件。它带来了危险,比如强大的自主武器,或者是少数人压迫绝大多数人的新方法。”

11月2日,来自加拿大和澳大利亚的数百名AI专家加入了马斯克和霍金的行列,向各自的政府提交了公开信,敦促他们支持联合国禁止自主武器的行动。加拿大社区给加拿大总理贾斯汀·特鲁多(Justin Trudeau)的信中写道:“正如你所知道的,AI研究(包括研发能够执行智能任务机器的尝试)在过去十年里取得了惊人的进步。传统AI得益于机器学习的迅速发展,使AI社区的雄心重新燃起,它们希望制造出能够在人类监督或干预下进行复杂操作的机器。”

这封信指出,AI技术的发展有可能在许多领域帮助社会进步,包括交通、教育、卫生、艺术、军事以及医学等。但同样的技术被应用于武器上,可能产生令人恐怖的后果。信中写道:“AI具有革命性的意义。这些转变(无论是实际还是潜在情况下)要求我们的理解,以及越来越多的道德关注。正是出于这些原因,加拿大AI研究团体呼吁你和你的政府让加拿大成为世界上第20个反对AI武器化的国家。致命的自主武器系统,从决定目标的合法性和部署致命武力的角度,都在消除有意义的人类控制,这显然违背了我们的道德底线。”

澳大利亚AI社区在给国家领导人的公开信中,也以类似的语气和措辞表达了同样的担忧。信中称:“正如许多AI和机器人公司(包括澳大利亚公司)最近敦促的那样,自主武器系统可能会成为战争的第三次革命。如果它们发展起来,将会导致武装冲突的规模以比以往任何时候都更大,而且在时间上比人类能理解得更快。致命的后果是,机器(而不是人类)将决定目标的生死。澳大利亚AI社区无法容忍AI被用于这种用途,我们只是想要研究、创造和促进其有益的用途。”(小小)

免责声明:本文章由会员“丁熙”发布如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务如因作品内容、版权和其他问题请于本站联系