【信息安全等级保护资讯网】专注网络安全等级保护,欢迎您的光临!
等级保护咨询电话:13865983726
信息安全等级保护资讯网
了解最新等级保护动态及等保资讯
等保资讯
等保资讯 您的位置:首页>等保资讯 >
美国多措并举加强人工智能安全风险管控研究
时间:2024-06-27阅读量:497来源:转载关键词:网络安全 返回列表


摘 要:近年来,人工智能技术的快速发展使其在社会多领域得到广泛应用,但是随之而来的安全风险也在不断增多。为此,人工智能安全风险管控问题普遍受到各国政府的高度重视。目前,美国通过加强顶层设计、设置专门机构、加强人才培养和深化国际合作等方式,不断强化人工智能安全风险管控,正逐步构建政府主导多方参与的治理体系,值得我国参考借鉴。

 

内容目录:
1 美国人工智能安全风险管控背景动因分析
2 美国人工智能安全风险管控措施分析
2.1 注重顶层设计,强化人工智能安全风险政策标准制定
2.2 设置专门机构,以“负责任和安全”的方式应用人工智能
2.3 注重数字化人才管理,加强人工智能相关岗位的招聘、培训和留用
2.4 进一步深化国际合作,构筑人工智能国际同盟和国际秩序
3 美国加强人工智能安全风险管控的几点认识
3.1 美国将集全国之力,全面推进人工智能安全管控
3.2 美国注重标准引领,通过规范化流程,应对人工智能国防与军事应用过程中的安全风险
3.3 美国高度重视人工智能全球治理问题,将对全球人工智能安全管控话语权产生重大影响
4 结 语

人工智能技术正在社会多个领域,特别是国防与军事领域得到快速应用。美国高度关注人工智能应用带来的系列安全风险,近期密集发布战略文件,多措并举加强人工智能安全风险管控。本文系统研究了美国加强人工智能安全风险管控的背景动因、具体管控措施,就美国的做法进行了进一步分析,希望为我国推进人工智能技术应用提供借鉴参考。

 

 

 

1美国人工智能安全风险管控背景动因分析

 

近年来,人工智能作为一项战略性、颠覆性技术在军事领域展现出巨大的应用潜力,全球主要国家和组织均加快人工智能赋能国防的建设步伐,以推动人工智能技术快速赋能武器装备系统。然而,人工智能大规模军事应用仍存在诸多安全隐患:一是人工智能自身存在算法脆弱性、可解释性差和透明度低等问题。例如,在武器系统大规模使用人工智能,易导致黑客攻击和数据中毒等。二是人工智能应用存在法理风险,易引起法律问题。例如,违背国际人道主义法、缺乏问责制和侵犯人权隐私等。三是人工智能在战场应用,会造成战争升级、加剧地区冲突、破坏区域战略稳定等问题。例如,在俄乌冲突中,乌军利用智能面部识别技术识别俄军阵亡和被俘人员,并挖掘其家庭和社会关系,将照片发给其亲友,造成心理震慑等系列行为,引发较大争议。针对以上问题,美国正在从加强顶层政策指导、成立专门机构、加强数字化人才队伍建设,以及强化国际合作等方面加强人工智能安全风险管控。

 

 

2美国人工智能安全风险管控措施分析

 

作为全球科技的领军者,美国深知人工智能的价值,将其视为未来大国战略竞争的重点领域。同时为解决上述风险,美国对外号称以“负责任的人工智能”理念为核心,多措并举加强人工智能风险管控。

2.1 注重顶层设计,强化人工智能安全风险政策标准制定

早在 2019 年 2 月,美国时任总统特朗普就签署第 13859 号行政令《美国人工智能倡议》,提升美国在人工智能领域的领导地位,加强人工智能创新,增强国家安全。拜登政府上台后,更是将人工智能视作技术力量对决的中心,同时更加重视人工智能技术的安全部署应用。

2023 年 10 月,拜登签署第 14110 号行政令《关于安全、可靠和值得信赖的人工智能》。该行政令是拜登签发的首份关于人工智能安全发展的监管规定,旨在确保美国在把握人工智能前景、管理人工智能风险等方面处于世界领先地位,该行政令主要从 8 个方面采取行动。一是加快制定人工智能安全标准。要求人工智能系统开发者与美国政府分享关键信息及安全测试结果;制定标准、开发工具和测试方法,以确保人工智能安全可靠;制定检测人工智能生成内容的标准,保护美国免受人工智能带来的欺骗;实施网络安全计划,开发智能化工具,以发现和修复关键软件中的漏洞;由国家安全委员会和白宫协调制定国家安全备忘录,以指导人工智能和安全方面的行动。二是保护隐私。加强数据隐私保护,为联邦机构制定指导方针,评估隐私保护技术的有效性。三是促进公平与美国公民权利。通过培训、技术援助等手段协调司法部门等机构调查和起诉与人工智能有关的侵权问题。四是维护消费者、患者和学生权益。加强人工智能在医疗领域应用的风险评估,支持人工智能技术在教育领域的广泛应用。五是支持劳动者。编制人工智能对劳动力市场潜在影响的报告,加强对因人工智能而面临失业的劳动者支持。六是推动创新和竞争。加速人工智能商业化进程,促进公平、开放和竞争的人工智能生态系统。七是提升美国海外领导力。加强与国际合作伙伴和标准组织合作,推进可持续发展,减轻关键基础设施危险。八是确保政府负责任和有效使用人工智能。改善采购流程,建立高效、快速的签约模式 。

为落实上述行政令要求,美国国防部和国土安全部网络安全与基础设施安全局(Cybersecurity and Infrastructure Security Agency,CISA)先后发布战略文件,推动各自职责范围内领域人工智能安全管控。2023 年 11 月,美国国防部发布《数据、分析与人工智能采用战略》,通过强化风险分析,提高人工智能应用过程中数据治理与数据质量,降低各类突发安全风险,同时加强数据管理,提升先进分析能力,推进人工智能在国防领域的部署应用 。该战略指出,美国国防部将加强数据管理、网络安全、情报和信息共享等方面的管理,加快政策制修订,以不断提高政策适用性与灵活性。此外,美国国防部还将着力构建良好的人工智能生态系统,通过与政府部门、学术界和工业界合作,加强数据分析共享,构建促进竞争与协作的生态系统。

2023 年 11 月,美国国土安全部 CISA 发布《人工智能路线图》,指导人工智能的安全开发和应用。该路线图提出 5 项重点工作。一是负责任地使用人工智能来支持工作。使用人工智能加强网络防御,支持关键基础设施保护,在符合法律和政策要求的基础上,负责任地安全使用人工智能。二是评估和测试人工智能系统。协助联邦政府、私营部门,以及州、地方政府机构制定安全、有弹性的人工智能开发和实施指南,包括生成式人工智能红队计划。三是保护关键基础设施,防止恶意使用人工智能。美国国土安全部 CISA 将与开发、测试和评估人工智能工具的机构或组织合作,评估美国关键基础设施面临的人工智能威胁,围绕与人工智能系统相关的威胁、漏洞和缓解措施的工作协同沟通。四是加强国际合作。与国际组织和机构就关键的人工智能工作进行协作和沟通,推进全球人工智能安全最佳实践和应用。五是建设具有人工智能专业知识的人才队伍。继续加强员工培训,使其具备招聘具有专业知识的技术人员和专业人才的能力。

2.2 设置专门机构,以“负责任和安全”的方式应用人工智能

在国家层面,美国国土安全部于 2023 年4 月成立了人工智能工作组,推动人工智能具体应用,制定人工智能技术应用及人脸识别技术指南,审查人工智能的潜在安全风险和可利用之处,如分析 ChatGPT 等生成式人工智能系统的不利影响及新兴技术的潜在用途,重点包括供应链管理,采用人工智能技术对犯罪行为进行取证等。2023 年 11 月,CISA 发布第一版《人工智能路线图》,旨在保障人工智能的安全开发和落地实施 。

在国防层面,美国国防部于 2023 年 8 月成“利马”生成式人工智能工作组,帮助美军改善情报和作战规划,重点是确保国家安全、最大幅度降低风险及负责任地整合人工智能技术。其主要职责:评估、同步和利用国防部的生成式人工智能能力;充分利用国防部与情报界和其他政府机构间的合作伙伴关系;在分析和集成国防部大型语言模型等生成式人工智能工具方面发挥关键作用。

2.3 注重数字化人才管理,加强人工智能相关岗位的招聘、培训和留用

美国长期注重人才队伍建设,一直将专业人才培养和人才队伍打造作为重点任务。在政府层面,进一步加强跨学科、跨技能类别人才培养,注重打造人工智能与其他行业的复合型人才。拜登政府第 14110 号行政令对吸引人工智能人才也作了具体要求,要求人事管理办公室与国防数字服务局等机构联合加快大规模招募人工智能专业人才,同时,各机构将为相关领域的员工提供人工智能及安全应用培训,吸引全球人工智能人才来美国,并自上而下协调联邦和州,加强人工智能领域人才就业。在国防部层面,加快引进数字化人才相关管理岗位,加强具有领域知识和数字技能的军人、文职人员的培训和实践机会,同时改革当前招聘制度,吸引数字化人才。2023 年 11 月,美国国防部首席数字和人工智能办公室启动“数字点播”服务,通过与麻省理工学院共享数字图书馆资源,加速国防领域人工智能人才培养,促进美军人员了解人工智能系统和其他新兴技术,以更好地适应未来国防发展趋势,进一步推动新技术在整个国防部门的应用 。

2.4 进一步深化国际合作,构筑人工智能国际同盟和国际秩序

美国一直通过率先和领导制定人工智能相关政策标准、扩大多双边合作等方式,试图主导人工智能国际规则制定。在规则制定方面,利用其影响力主导国际规则制定进程,影响和促进各国达成其所想要的共识,基于美国立场规范人工智能发展和安全应用。2023 年 11 月,美国 CISA 和英国国家网络安全中心联合发布《安全人工智能系统开发指南》。该指南为人工智能系统开发提供了重要建议,并强调遵守设计安全原则的重要性。指南从安全设计、安全开发、安全部署及安全运行与维护 4 个方面提出降低人工智能系统开发流程整体风险的注意事项和缓解措施。

在国际合作方面,倡导以构筑同盟为核心的多边体系开展人工智能国际合作。2023年12 月,“美英澳三边安全伙伴关系”举行部长级会议,联合测试新的人工智能算法系统,以更快、更准确地探测跟踪太平洋水下舰艇,三国将在2024年举行联合海上无人机演习,将人工智能整合到包括海上巡逻机在内的军事系统中 。

 

 

 

3美国加强人工智能安全风险管控的几点认识

 

随着人工智能技术的快速发展和在国防领域的广泛应用,如何科学有效地治理人工智能安全风险已成为各国面临的重要问题,美国将集全国之力,致力于营造良好的人工智能发展应用生态系统。

3.1 美国将集全国之力,全面推进人工智能安全管控

美国除从政府层面发布系列行政令、政策文件,从顶层加强人工智能安全管控引导外,开始注重全社会发力,形成政府主导、多方参与的治理体系,全面推进人工智能安全治理,使人工智能技术能够成为助力美国经济发展和国家安全的硬实力。2024 年 2 月,白宫表示正在招募工业界、学术界、非营利组织等成立人工 智 能 安 全 研 究 所 联 盟(Artificial Intelligence Safety Institute Consortium,AISIC)。ChatGPT的制造商 OpenAI、谷歌、微软,以及南卡罗来纳大学人工智能研究所都是 AISIC 成员。AISIC隶属于美国国家标准与技术研究院(National Institute of Standards and Technology,NIST)的人工智能安全研究所,其将致力于人工智能保障措施和安全标准等方面的研究,以期为政府、工业界和学术界交流提供平台。

3.2 美国注重标准引领,通过规范化流程,应对人工智能国防与军事应用过程中的安全风险

早在 2019 年,美国时任总统特朗普就在签署的第 13859 号行政令《美国人工智能倡议》中明确要求,标准先行,要求 NIST 制定人工智能领域适当操作标准与规程,使其能够安全、可信、可靠发展。通过制定标准尽量减少恶意攻击,同时还要制定国际标准,通过国际标准促进和保护美国的优先事项。2023 年 1 月,NIST 正式发布《人工智能风险管理框架》,明确人工智能相关风险的梳理构建方法。通过完善问责机制、成立风险预警团队、完善危机解决机制等强化治理功能;通过明确系统运行所需的环境要求,明确系统功能目标,评估对组织、社会、个人等的影响,强化影射功能;通过完善风险跟踪识别机制,定期评估反馈等强化测量功能;通过加强对人工智能安全事件事故响应、补救、恢复机制强化管理功能。

3.3 美国高度重视人工智能全球治理问题,将对全球人工智能安全管控话语权产生重大影响

从美国近期的动作可以看出,其通过结盟,构筑多边合作,掌控全球人工智能管控话语权意图明显。美国通过迅速占领网络高地,导致他国发展受限,削弱他国国际话语权,排挤同盟国以外的国家,试图最大限度地影响人工智能管控国际规则的制定。美国希望通过此举维护西方国家在国际规则制定中的主导权,与此同时继续深化与盟国合作提升其海外影响力。

 

 

4结 语

 

面对人工智能技术发展及应用带来的新机遇和新挑战,美国通过政策引领、机构协同、人才培养和加强国际合作等手段加强人工智能安全风险管控,确保其全球竞争优势。美国的这些重要举措对我国人工智能安全风险管控具有重要借鉴意义,我国亟须进行全面且体系化、系统化的论证与研究。

 

 

文章选自《信息安全与通信保密》2024年第4期


Copyright © 2020-2021 信息安全等级保护资讯网 All Rights Reserved. 备案号码:皖ICP备19012162号-3
本站文章内容部分来源于网络转载,版权归作者所有。文章内容仅代表作者独立观点,不代表本站立场,转载目的在于传递更多信息。如有侵权,请联系删除。