美国五角大楼(Getty Images)
【williamhill官网 2024年2月22日讯】随着人工智能(AI)新技术的惊人进展,有望改写军队准备和战争规则,美国国防部首席数位和人工智能官克雷格.马泰尔(Craig Martell)本周承认,五角大楼未能充分传达军方AI问题和所需的解决方案。他坦率地说:“我们真的需要你们的帮助。”
据《华盛顿时报》报导,2月20日国防部在华盛顿召集了来自世界各地的顶尖人工智能人才,马泰尔先生参加了一场头脑风暴会议,他告诉技术专家:“我们应该大声一点让你们知道,我们将在未来解决这个问题,我们将从本次研讨会开始。”
国防部的研讨会将大型科技公司和小公司的创办人与国防和情报官员聚集在一起,共同应对AI武器带来的复杂挑战。首先,马泰尔先生承诺明年向私人企业开放政府资料。
他说,国防部将为AI开发人员创造机会,让他们与政府用户坐在一起,以获得有关他们如何帮助军队做得更好的即时回馈。
这项措施将包括收集新的测试和评估工具,以便开发人员能够为复制器(Replicator)等项目创建负责任的AI演算法,Replicator是国防部的一项计划,旨在将AI产品注入枪支、炸弹和其他武器中。
美国国防部副部长希克斯(Kathleen H.Hicks)去年指出,国防部发现了180多个生成式AI工具,可以为美国军事行动增加价值的实例。但她指出,大多数商用AI系统还不够成熟,无法遵守政府的道德规则。
国防创新部门副主任库马尔(Aditi Kumar)表示,该部门AI的发展是由去年颁布的自主武器新政策所推动的。
库马尔上周在硅谷表示,该政策意味着各种武器系统不再需要人类参与,但政府需要“在部署这些武器系统时进行人类判断”。
军队究竟如何AI取代人类和人类判断仍然是一个主要问号,但五角大楼正在与Scale AI的技术专家建立合作伙伴关系,以测试和评估其AI系统。
由27岁企业家王(Alexandr Wang)领导的Scale AI周二表示,将为国防部建立基准测试,以审查所谓的大型语言模型,或能够快速处理和分析海量数据流的强大演算法,以及以前从未想像过的复杂情况。
Scale AI在其部落格上表示:“评估指标将有助于确定生成式AI模型,这些模型已准备好使用国防部术语和知识库,提供准确且相关的结果来支持军事应用。”“严格的[测试和评估]流程旨在增强AI系统在分类环境中的稳健性和弹性,从而使法学硕士技术能够在安全环境中得到采用。”
国防部利马特遣部门正在努力弄清楚,在国防部内的哪些大型语言模型可以使用。该工作小组任务指挥官卢戈上尉(Manuel Xavier Lugo0表示,该部门已责成替代“红队”测试AI模型的漏洞。
当研讨会上被问及大型语言模型,是否可以控制军用无人机等自主武器系统时,卢戈上尉表示异议,理由是需要保护敏感资讯。他解释说,无人机是可以接受AI模型命令的机器之一。
“你想一想,这些东西最基本的事例,就是与机器对话的简单语言,”卢戈上尉说,“这不是特定于无人机,而是任何事物的事例。”
马泰尔表示,他并不赞成国防部建立自己的AI模型。他认为,付钱给私人企业来制作模型更好、更有效率,因为企业将始终处于先进技术的前沿。
美国的对手,尤其是中国,正急于将AI方法应用于自己的军队,一些分析师表示,五角大楼已经落在了后面。华盛顿研讨会计划于周五举行一次机密会议,其中将包括国家安全局和国家地理空间情报局。五角大楼的AI官员也致力于加快脚步。
虽然马泰尔和卢戈上尉详细介绍了五角大楼在未来一年采用尖端AI的雄心勃勃的计划,但两人都承认在维护面向公众的工作网站方面面临着挑战。
马泰尔在研讨会上表示,一年来他一直试图让国防部更改组织的网站,“政府的事情进展缓慢。”
来源:看完这篇文章觉得
排序