实时警报通知:微信告警通知的重要性解析
656
2023-01-28
假如 “人工智能” 参与刺杀
假如 “人工智能” 参与刺杀
需要说明的是,以下内容仅是摄星智能公司的推演,不代表美军真的使用或未使用这些技术。
1. 情报获取
2. 战法制定
以 “斩首” 苏莱曼尼为目的进行策略生成。
因为事发地点位于伊拉克,属美军势力范围,所以可以直接从科威特基地(距事发地点 530 公里)派出无人机进行事前的侦查行动,配合卫星数据进行拟态环境构建,确认“战场约束空间”。
图 | 拟态环境构建
使用 AI 系统分析敌我、战场信息,根据预定时间制定具体的策略,包括出发时间、无人机型号、数量、分工、搭载弹量以及路径规划等等。
3. 方案执行
无人机于预定的时间到达指定地点,实时监测战场环境变化(温度、风力、亮度等),根据内线和生物识别等手段确认苏莱曼尼位置,并锁定其乘坐汽车。
通过 AI 系统实时生成计算无人机导弹发射策略,包括发射时间、角度、导弹数量等。使用人工智能技术协同激光制导、毫米波雷达制导,实施精准打击。
图 | 苏莱曼尼所乘坐的车辆,可以看到车头部分完好,导弹精准命中了车身
4. 效果评估
AI 系统控制无人机再次勘察现场,如出现生命迹象则再次实施打击,确认目标死亡之后自动返航,顺便生成一份详实的行动报告,包含了对关键行为的解释和影像声音记录等。
整个推演过程,人工智能深度参与到了整个 OODA 循环(观察、调整、决策、行动)之中,它不带任何感情地完成了交代的任务,就像送了一次快递。
略显 “骨感” 的现实
当被问及人工智能技术应用在军事领域有何特点时,她这样说。
“军事领域所使用 AI 技术的内核同民用相比并没有本质区别,但 AI 想要在军事领域成功应用,所面临的挑战更多,要求更高”。
一方面,在军事领域没有那么多的数据可以供给模型训练。比如当只有几张模糊的图片时,如何提高识别的准确度是非常重要的工作和很大的挑战。
最后,由于军事的特殊性,人工智能犯错的成本极高,这不是民用能够相提并论的。总的来说,民用领域的 AI 是大数据,小应用。但军用领域是小数据,大应用。
以上,是人工智能在信息获取方面的技术特点,而在信息加工如决策方面,人工智能目前还比较弱。
张亚琦说,由于人工智能技术真正兴起时间尚短,所以我国积累的真实作战数据几乎为零。而想要让人工智能参与到决策之中,需要海量的数据进行训练。
举个例子,在实验室中,我们可以设定有限的边界,然后给出相应的参数,计算机可以给到我们满意的结果,类似于红色警戒等策略型游戏中的 AI 模式。
但现实是非常复杂的,战场也是瞬息万变,一方面武器装备不可计算,另一方面人 / 人心更不可计算,我方不可计算,敌方更不可计算。以目前的水平,计算机所能给出的战法其实仅供参考,只有当战场棋盘上的所有棋子都支持 AI,计算机才能给出最优解。而这种情况的出现,需要现有科技水平有一个质变。
2019 年发布的《人工智能安全标准化白皮书》中得出了同样的结论:
当前人工智能产生突破的领域主要是专用人工智能,即弱人工智能。它缺乏自主意识,不能真正实现概念抽象、推理决策和解决问题。
人工智能正处于 “不能实用” 到“可以实用”的技术拐点,距离 “很好用” 还存在可解释性、泛化、能耗、可靠性、鲁棒性(健壮性)等诸多瓶颈。
“人工智能”+ 武器
目前,在将武器智能化这条路上,已经引发了大国间的军备竞赛。
这类武器一般称为自主武器,也称“杀手机器人”,指在无人干预的情况下独立搜索、识别并攻击目标的一种武器。能够拦截来袭导弹、炮弹的防御类武器可以看作自主武器的雏形。
读到这里,也许你的脑中会浮现出一些科幻片中的角色,如变形金刚、终结者、奥创等等。
但现实中,碍于种种因素,这些杀手机器人的样子可能并不像人,但杀起人来毫不逊色。
对于自主武器,国际上存在很大的争议。
美国陆军训练及战略思想司令部长肯尼斯 · 罗斯列举了自主武器的优势:“机器不会劳累,它们不会闭眼,不需要在下雨时躲在树下或和朋友交谈…… 人类在 30 分钟后注意力就会急剧下降,但机器从来不会感到害怕”。
但显然并不是所有人都认同其观点。
2018 年 5 月,Google 员工得知公司正与美国国防部合作,决定向一个名为 Maven 计划的军事项目提供人工智能支持。为表抗议,近 4000 人联署请愿书,多人辞职,他们认为:这些致命的工作应该交由人类,而不是算法。此后不久 Google 发布了 AI 七原则,宣布放弃将 AI 技术用于致命性武器。
2019 年 3 月,联合国发起了一项在法律层面 “禁止全自主武器” 的讨论,但包括俄罗斯、美国、英国、澳大利亚、以色列在内的五国政府均反对这一提案。
致命的吸引力
尽管国际舆论禁止自主武器的声音不绝于耳,但开发自主武器所带来的好处却让个别国家难以割舍。
假如一支步枪,每秒钟可以发射 10 发子弹。那么它由人类控制和 AI 控制将完全不具备可比性,AI 一秒内可以朝 10 个不同的方向分别开一枪,并且精准命中。而人类……
对于 AI 来说,这不过是一场游戏,而对于人类来说却是流血牺牲。
想象一下有机器士兵参与的未来战争吧。
他们是训练有素的士兵,是最高效的杀人机器,是最负隅顽抗的敌人
他们没有父母妻儿,没有伦理观念,他们无须动员,是最纯粹的战士
他们去中心化,任何单兵都能成为临时的指挥,想要打倒他们必须全部消灭
当这样一群杀人机器出现在科技水平没那么高的敌人面前,会发生什么呢?未来可能不会再有枪战、炮战、白刃战了。因为一切 “传统热武器” 在 AI 面前都不得不屈服。
AI 武器如此重要,没有国家愿意被落在后面,既然无法全面禁止,就只能选择全面开发。
美国兰德公司一份 2018 年的报告中举了一个例子,认为 AI 技术的发展甚至可能动摇大国之间的核战略平衡。
例如,一个国家要发展出定位和锁定敌方所有核武发射器的能力,在技术上极具挑战性,但这项能力却能产生出巨大的战略优势。
这个例子中针对核武的实现难度可能较高,但如果将 “核武” 换成敌方防御薄弱军事设施或作战部队,这不仅是一个可行方案,而且是多少国家梦寐以求的能力。
不管如何,人工智能技术的发展早已引发了新一轮的军备竞赛,并且其成果将在下一次大范围战争中展露。
原文标题:当人工智能走上战场,“苏莱曼尼事件”或成常态
发表评论
暂时没有评论,来抢沙发吧~