人工智能作战的5大原则

这五个原则适用于AI技术的战斗和非战斗使用。

  美国国防部现在拥有广泛的原则,概述了军队对人工智能的道德使用。国防部首席信息官Dana Deasy和联合人工智能中心主任John Shanahan中将宣布,于2月24日正式采用了五个符合道德规范的AI使用原则。


  这五个原则适用于AI技术的战斗和非战斗使用。

  五项原则如下:

  1、负责任的。国防部人员将行使适当的判断和谨慎水平,同时还要负责AI功能的开发,部署和使用。

  2、公平的。该部门将采取有步骤的措施,以最大程度地减少人工智能功能中的意外偏差。

  3、可追溯的。该部门的AI功能将得到开发和部署,以便员工对适用于AI的技术,开发流程和操作方法有适当的了解。这包括透明且可审核的方法,数据源以及设计过程和文档。

  4、可靠。该部门的AI功能将具有明确定义的用途,并且此类功能的安全性,安全性和有效性将受到测试。

  5、可治的。该部门将设计和设计AI功能,以实现其预期的功能,同时具有检测和避免意外后果的能力,以及使表现出意外行为的已部署系统脱离或停用的能力。

  对于那些关注军事AI发展的人来说,其中一些原则可能会引起争议。

  例如,在董事会制定的“可管理”原则中,是否包括明确要求AI系统具有使人类停用或脱离系统的方法。DIB的最终建议包括一个折中方案,即“人为或自动脱离或停用已部署的系统,这些系统表现出意外的升级或其他行为。”但是,最终的DoD语言删除了该措辞,并要求AI系统具有“使显示出意想不到的行为的已部署系统脱离或停用的能力”。

  但是,Shanahan强调了五角大楼的最终语言比董事会的建议还要进一步。他指出了“可追溯的”原则,在该原则中,所有“相关人员”都采用了苹果公司的措辞,这比董事会使用的“技术专家”措辞更为广泛。

  谷歌董事会主席,前负责人埃里克·施密特(Eric Schmidt)在一份声明中对这一举动表示赞赏。

  “埃斯珀秘书长在AI方面的领导能力以及他为国防部发布AI原则的决定不仅向国防部证明,而且向世界各国表明,美国和国防部致力于道德操守,并将在确保民主国家采用新兴技术方面发挥领导作用。负责任地。”他说。

  预期JAIC将领导实施这些原则。Shanahan表示,他已兑现了他先前在JAIC内聘请AI伦理学家的承诺,她和JAIC的其他工作人员将邀请整个部门的AI领导者来讨论实施。

  “这将是一个严格的过程,旨在创建一个持续的反馈循环,以确保该部门保持最新的人工智能技术和创新。我们的团队还将制定采购指导,技术保障,组织控制,降低风险的战略和培训措施。”Shanahan说。


点 赞

分享:

其他媒介

针对性更强,满足行业在实际应用的各种专业化的需求,传感器专家网为您提供方便快捷的传感器产品及相关资讯垂直搜索服务。

参与评论已发布评论0

0/500

发表评论

评论区

加载更多

传感器大佬

比易烊千玺帅一点点的传感器从业者。