新闻发布
计算职业

反自主杀机

贴上
机器人7吨半自主机带传感器和枪
用于自动战场决策的算法应否接受审查和检验

从棒石到大炮弹和激光制导导弹,战争始终取决于获取竞争优势。数字时代,征服敌人正冒新维度和风险,人工智能、机器人士兵和致命自主武器系统快速行进上战场

系统不单改变战争, 改变我们思考武装冲突的方式 并改变周围的伦理道德Machines在战争中自动决策已有一段时间当决策涉及人命时, 伦理道德顾虑会放大,彼得阿萨罗新学院副教授斯坦福大学网络与社会中心附属学者机器人军备控制国际委员会.

问题比答案多致命自主武器系统应编程在没有直接人监督下攻击杀果真如此,时间和方式用于自动战场决策的算法应否接受审查和检验由谁执行国家如何防止这种武器落入流氓国家和恐怖分子之手?

不友好火

自主智能武器和AI不难理解.追求军事优越性越来越注重数字技术从控制喷气机到计算机引导导弹系统等许多现有系统都已经依赖算法从决策圈清除人

人疲劳 判断问题 报上报上报报仇 有时不守接战规则约翰阿奎亚德高望重的教授 美国国防分析海军研究生院自动机可能造成比士兵少附带损害

Arquilla不单相信我们已经到达自主攻势点,利害关系将大得多。机器人、无人机甚至是昆虫尺寸设备使用残杀能力正在快速成形机器人大军和无人机群的一度虚构思想 现已超出科幻小说范畴

问题不在于我们是否应该使用AI和自动化何时何地使用观察MosheVardi赖斯大学计算机科学教授“我们真的需要理解自主意味着什么初始指令来自人,但攻击由机器执行, 分时令何为自主性5分50分5天概念现在极含混性

杀开关

难免难以想象未来会自动无人机攻击成为规范-并自主暗杀高层军事和政治领导人也有一种恐惧 机器人化军队可能导致更多冲突 和更多攻击性冲突并攻击错误目标, 包括平民。Asaro说,“我们谈论生死,所以精度一定高得离谱”。

引出另一组问题:当战斗人员穿便服时,你如何区分平民和叛乱分子?如何区分坦克和总线如何防止人类偏见嵌入人工智能系统,包括性别、年龄、种族特征和服装类型等双方使用自动升级时如何预防?Asaro表示:「这些系统不是道德或法律代理,

公众关注清晰度:a2019ss民调26个国家中61%的人反对LASS系统, 66%的人相信他们跨过道德线 机器不应该杀人并发联合国正推向更新国际法并正在考虑条约禁止至今为止28国政府支持完全禁止中俄美仍然明显缺位4 500多位AI专业人员公开表示支持禁止攻击自主武器,130多个非政府组织公开表示支持表示反对完全自主式武器

自主武器技术正在进步Arquilla表示:「没有实用方法避免人工智能和机器人在军事环境或流氓集团中的研发使用问题在于技术超越当前道德和国际法归根结底,我们必须理解机器和人类在战争中协同工作的最佳作用。”

Vardi认为辩论归根结底必须超越简单化的利同论题并解决自人民开战以来存在的道德问题和实际问题人都同意有红线,表示我们可以完美编程 机器人可以从道德上杀人定义精度、自主性及可接受性是非常复杂的任务

塞缪尔格林加德作者与记者基地西林南

加入讨论(0)

加入或签名发布注释

CACM最新消息

形状计算未来

ACM鼓励成员直接决定协会的未来有比以往更多方式参与

获取卷积

ACM通讯现为完全开放存取出版物

通过向世界开放CACM,我们希望加强广大计算机科学界的参与并鼓励非成员发现ACM提供的丰富资源

学习更多
Baidu
map