美国发布最新《人工智能报告》
文章出处: plus评论员 学术plus |文章作者: |发布时间: 2019-04-15 |浏览次数: 33

   美国“防务一号”网站3月底发布最新《人工智能报告》称,美国国防部在2019年,将让人工智能真正成为现实。该报告分为六个部分,详细介绍分析了美国在人工智能上的最新战略进展;俄罗斯和中国在人工智能策略上的发展与弱点;AI技术上的重大突破;以及美国国防部应如何应对日益凸显的AI伦理问题等最新的重要议题。

      

报告主要观点一览


1. 人工智能投入军用仍长路漫漫,美国为此成立联合人工智能中心,统筹全军AI力量。

2.俄罗斯在制定国家人工智能战略上慢半拍,成为该国AI发展硬伤。

3. 美国国防部《人工智能战略》三个重点:(1)如何将AI技术转化为决策;(2)军用AI的伦理与安全问题;(3)加强AI人才培训。

4. 中国人工智能发展势头很猛,但其缺点亦十分明显,包括:硬件和算法开发、人才流失和技术标准较低;创新人工智能框架方面发展薄弱。

5. AI技术关键突破:不用人脸识别,也能找到目标。

6. 战争中的AI道德标准问题,日益凸显。

第一部分


欲加快AI军用

五角大楼困难重重


“国防官员希望尽快将人工智能从实验室应用于战场,但要获得让AI发挥作用的海量数据流,很困难。”——Patrick Tucker(防务一号技术编辑)


五角大楼发布《人工智能战略》旨在让人工智能走出研究实验室。但真正将国防部转变为一个“人工智能优先”机构,将需要科技公司的帮助,军方也需要重新考虑其处理人工智能所需的海量数据流的方法。


 

1.1 联合人工智能中心


2月12日,美国国防部首席信息官达纳•迪希(Dana Deasy)联合人工智能中心(JAIC)的负责人杰克•沙纳汉中将(Lt. Gen. Jack Shanahan)在接受记者采访时说,JAIC将开发人工智能工具和程序以协助五角大楼所做的一切。这最终将包括作战行动,不过双方都表示,军方不会偏离其核心原则,即人类如何对自主系统拥有权力。近期的项目包括预测森林火灾,更好地发现网络异常,以显示网络攻击。


1.2 行动中:预测维护


另外一个重要的项目为“预测维护”目前已经又一些小型科技公司与五角大楼合作。


由通用电气校友Ganesh Bell运营的Uptake公司,与国防创新部门签订了一份合同,旨在更好地预测和加速发展修理布拉德利战车(Bradley Fighting Vehicles)。该公司使用来自战场上真实布拉德利传感器的数据流(称之为“学习的数字孪生”)建造一个虚拟的布拉德利。Bell说:“仅仅从一辆车里,我们就能提取出TB级的数据。”此外还整合来自外部传感器的数据,并使用它来数字化形式重建车辆的运行环境。


第二部分


普京下令制定

俄罗斯国家人工智能战略



根据俄罗斯媒体报道,俄罗斯总统普京指示他的政府制定一项研究和发展人工智能的国家战略,该命令于1月17日交付,并指出,“俄罗斯联邦政府俄罗斯联邦储蓄银行(Sberbank of Russia)和其他感兴趣的组织的参与下,应共同为人工智能发展的国家战略制定方法,并提交适当的建议”。


这一对人工智能国家战略的官方呼吁旨在将私营和公共部门的努力统一起来,推动国内人工智能的发展。虽然俄罗斯的私营部门在图像和语音识别方面取得了成功,但军方一直在为各种武器开发自己的人工智能,比如飞机、导弹、电子战、雷达和无人系统。


 2.1 AI评估与指导原则 


 2018年3月,俄罗斯国防部俄罗斯科学院共同举办了评估国内人工智能发展状况的会议。会议聚集了来自私营和公共部门的代表以及国际与会者。其主要成果是一份路线图草案,提出了国家人工智能发展的步骤,包括创建一个国家人工智能中心、改善教育、在战争游戏中使用人工智能,并建立人工智能标准。这份“路线图”并不是一份官方文件,相反,它是一份“路线图”一套指导原则,让参加者更好地参与人工智能。


2.2 AI 路线图


2018年10月,俄罗斯私营部门团体宣布发布一个AI路线图,该路线图有助于确定和消除端到端技术发展的障碍,以及预测中国人工智能的市场需求。正式路线图计划将于2019年年中公布。


 2.3 硬伤:缺少官方文件 


然而,这个国家缺乏一个统一的官方文件——由总统批准、明确努力方向以及相应资源。虽然普京1月15日的指示改变了这一状况,但目前仍不清楚俄罗斯政府将会如何决策。普京的国家战略很可能会成为阐明公私合作的首要文件,以及俄罗斯向国内人工智能迈出的重要一步。



第三部分


五角大楼第一个《人工智能战略

将着眼于近期的行动和安全


3.1 将技术转化为决策


国防部高级官员表示,国防部最早可能在本周公布一项新的人工智能战略。该战略将首次强调为特定的指挥部和军种分支创建和定制工具,让他们尽早进入人工智能领域。


一位直接了解该战略的官员表示,“过去50年,国防部一直将人工智能视为科学和技术问题。但该战略明确了另一项紧迫的任务,那就是将技术转化为决策,并在行动中产生影响,一位官员称,就像新的联合人工智能中心一样,军事人工智能的未来也将受到Maven项目的启发,但这一战略远不止一个项目。这位官员表示,在人工智能开发方面,军方长期以来一直扮演着关键角色,比如:通过资助苹果Siri等程序的设计,国防部正在向私营企业取经。


3.2 战略千万条,安全第一条


这位官员说,新战略不会改变军方在战斗中使用自主系统的理念。新战略侧重更直接、操作性更强的应用的一个原因就是,人工智能将迫使操作人员和指挥官在考虑自己想要从AI得到什么的同时,考虑安全与伦理方面的影响。“当你转化技术的时候,要想对行动产生影响,你必须更认真地考虑道德和安全问题,”该战略中特别强调“安全”这个主要焦点的重要性。


2018年12月,纽约大学人工智能研究所的一组伦理学家发表了一份白皮书,阐明了许多程序员和技术人员对人工智能在军事上的使用所持的保留意见。“只有真正融入人工智能发展过程,并有大众利益负责的问责机制的支持,道德准则才能真正有助于弥合人工智能问责制的差距。”参与Maven项目抗议活动的一名谷歌员工告诉“国防一号”记者,一份道德原则清单远不足以令人信服与军方合作是个好主意。


换句话说,国防部仍有许多工作要做。




3.3 加强AI人才培训


此外,该战略还重点关注“AI人才培训”。如:大规模在线公开课程(辅以现场课堂教学)和人工智能训练营(如谷歌的机器学习忍者训练营)等,都是对员工进行机器学习培训的案例。

  

第四部分


中国人工智能快速发展?

局限性很明显


4.1 自知之明


新美国安全中心(Center for a new American Security)一份最新报告提出,中国人工智能研究人员意识到他们落后于美国的工作方式,中国科学家和决策者也意识到,要实现政府在2030年前实现“人工智能主导”的宏伟目标存在障碍,研发项目也落后于美国,但中国正在努力解决这些问题。


该报告作者格雷戈里•艾伦(Gregory C. Allen)是美国国家航空航天局技术和国家安全项目的兼职高级研究员,这份报告基于她参加的四次中国“外交、军事和私营部门”的人工智能会议,以及与行业高管和科学家的讨论。

该报告还称:

(1)中国政府和军方对人工智能监视技术和致命自主武器的研究非常感兴趣,尽管后者与中国宣称的避免人工智能军备竞赛的目标背道而驰。

(2)中国将军事人工智能研发视为威胁美国军事力量来源的更廉价、更容易的途径,而不是开发与美国类似的系统。

(3)中国认为自己在AI研究和发展、以及商业AI方面与美国地位同等,中国已经实现了2020年达到全球人工智能“第一梯队”的目标。

4.2 业界警惕


中国的努力引起了美国科技行业高管、议员和特朗普政府官员的警惕。


两年前,谷歌前执行董事长埃里克•施密特(Eric Schmidt)预测,“到2020年,他们将迎头赶上。到2025年,他们会比我们更好。到2030年,他们会主导整个行业。去年,爱荷华州共和党参议员乔尼•恩斯特(Joni Ernst)和凯瑟琳•科尔特斯-马斯托(Catherine Cortez-Masto)提出了一项法案,希望创建一个委员会,“以帮助确保我们领先于中国等国家。”


尽管如此,报告认为,在某些方面竞争可能没有想象中那么激烈。尽管中国领导层中大多数同意中国是人工智能领域的两大“巨头”之一,但人们也普遍认为,中国并非在所有领域都很强大。


4.3 弱点明显


弱点包括:硬件和算法开发、人才流失和技术标准较低。因此,中国建立了培养和留住顶尖计算机科学家的教育项目,并申请了更多的专利——例如,5G蜂窝技术。


同时,在创新人工智能框架方面尤其薄弱。


在与中国科技行业高管的几次谈话中艾伦发现,在主要的人工智能框架的开发者和开源人工智能软件社区中,没有中国的人工智能公司,这是中国人工智能生态系统的一个明显弱点。


中国正试图在学习、使用和超越外国技术之间取得平衡。尤其在人工智能创新的基础“人工智能半导体”和“电脑芯片”方面,中国的发展潜力仍不可限量。

第五部分


不用人脸识别

不用众里寻他千百度

AI 也能一眼找到你


媒体和隐私倡导者已经将人脸识别作为在公共场合识别、监视特定个人的手段。但是面部识别受到环境光线、相机角度影响很大。最近一项研究中,葡萄牙研究人员通认为即使没有人脸识别,AI也可以进行识别和探测。


这种名为idtracker.ai的方法使用卷积神经网络(CNN),是一种深度学习的方法,某种程度上模仿了人类和其他哺乳动物大脑理解周围世界的方式。研究人员目前已经证明了该网络可以进行自学,并识别个体运动。其识别斑马鱼和苍蝇的准确率都在99%以上。目前还没有将神经网络应用到人脸上,但为时不远。



第六部分


战争中的

AI 道德准则


国防官员要求国防创新委员会遵循一套伦理原则,为在战争中使用人工智能提供保障。这些原则旨在指导联合人工智能中心,并向硅谷等合作伙伴保证,其人工智能产品的使用均有一套伦理规范。


2012原则过于简单

如今,军用人工智能的主要指导文件是2012年颁布的一项原则,该原则规定:战斗中,人必须有否决自治系统行动的权利。该原则很简短,只有四页,且没有涉及任何人工智能在决策支持、预测分析等方面的应用,而谷歌、微软、亚马逊等公司正在商业环境中取得快速进展。


科学家们的担忧


《无人军队:自主武器与战争的未来》(Army of None: Autonomous Weapons and the Future of War)一书作者保罗•沙雷(Paul Scharre)认为“人工智能科学家十分担忧国防部将如何使用人工智能。虽然国防部有关于武器自主作用的政策,但目前仍缺乏一个普适的政策,即如何在更大范围内使用人工智能。


国防部领导们:正在考虑


美国国防创新委员会执行董事乔什•马尔库塞(Josh Marcuse)表示,制定这些原则将有助于国防部“安全和负责任地”使用新技术。前谷歌和Alphabet董事长埃里克•施密特的董事会将在6月份的会议上公布这份清单,届时国防部领导人将考虑这些建议。马尔库塞认为,五角大楼应该像军方率先制定航空安全标准一样,在制定AI安全使用指南上同样发挥领导作用。


Maven项目的回应


同时,国防部应遵循一份公开的的道德准则清单,这种努力一定程度代表军方对Maven项目的回应,希望减轻硅谷的疑虑。该程序于1月23日在哈佛公开听证会中启动,就是为了吸引那些对国防部持怀疑态度的学者和伦理学家。


而这一清单也不是为军方的单一用户设计的。一旦公布,希望作战指挥官、各军种首长、各种不同的参与者在起草未来的策略、行动概念以及训练指导等时找到对他们有用的东西。


马尔库塞认为“至关重要的是,即将提交给国防部建议符合道德第一的做法,也坚持了现有关于战争和人权的法律规范,同时继续执行维持和平、制止战争的国防部长期使命。在未来几个月里,当国防创新委员会成员起草这些人工智能原则时,他们将收集并审查所有的评论,以供考虑。”