文 | 中国科学院信息工程研究所技术副总师 刘宝旭;中国科学院信息工程研究所 姜政伟;中国科学院网络空间安全学院 陈奕任
2025年4月,习近平总书记在中共中央政治局第二十次集体学习时强调,要正视差距、加倍努力,全面推进人工智能科技创新、产业发展和赋能应用。同月,教育部等九部门联合印发的《关于加快推进教育数字化的意见》凸显了人才培养在产业升级中的核心作用,提出要强化人工智能(AI)安全保障,构建新型人才支撑体系,推动人工智能赋能教育模式变革。在此背景下,本文将探讨大模型技术对网络安全生态的关键影响,并以此聚焦网络安全人才培养所面临的机遇与挑战,剖析大模型对网络安全人才能力结构与成长机制的深远影响,最终构建适配的人才培养新路径。
一、大模型重塑网络安全生态之关键要素:技术范式跃迁、业态模式变革与人才格局转向
当前,各类大模型正在重塑网络空间的攻防逻辑、安全工具体系以及产业链协作模式。这一变革不仅体现在网络安全自动化与智能化能力的显著提升,更体现为对整个网络安全的技术体系、业态模式与人才格局的系统性冲击。
(一)网络安全技术体系重构,进入“泛在智能”主导的新阶段
国际云安全联盟(CSA)大中华区发布的《AI安全白皮书》指出,大模型在网络安全中扮演了典型的“双刃剑”角色。一方面,大模型显著降低了网络攻击的门槛与成本,加速了攻击面扩张与攻击模式演进。例如,大模型被广泛应用于网络钓鱼、社会工程学攻击、软件武器制作、攻击链构造等过程,提升了攻击的智能化水平和欺骗能力。另一方面,大模型也在成为安全运营的新引擎,广泛赋能漏洞挖掘、威胁检测、威胁情报处理、安全决策等关键任务。同时,现有大模型初步具备了“感知—认知—决策—行动”一体化的能力,正被网络安全团队用于构建复杂的网络安全智能体。例如,微软研发的Security Copilot可实现事件分析、威胁溯源与响应建议自动生成,奇安信推出的Q-GPT也能自动执行威胁建模、高级持续性威胁(APT)检测与智能响应。整体来看,大模型正引领网络安全技术体系从“规则驱动+人力执行”向“模型驱动+人机协同”模式转变。
(二)平台化与协同化并进,网络安全产业呈现三大变局
除了技术层面影响,大模型还对网络安全的产业链条、供需服务、生态协作方式形成了深层冲击。首先,产业分工形式正在洗牌。随着大模型逐步成为企业级基础设施,头部厂商利用自身资源优势在AI+安全方向布局大量私有模型、网络安全知识图谱与端到端服务整合;而中小型公司的计算资源相对匮乏,主要聚焦于网络安全大模型应用或垂直场景优化。这种现象促使网络安全产业从“点状工具竞争”向“平台级能力竞争”演进。其次,网络安全服务的交付模式正在裂变。以托管安全服务(MSS)为例,传统模式依赖大量人工操作与流程固化,但大模型使得安全即服务(SECaaS)的边界被重新定义。AI问答助手、AI安全客服、模型上下文协议(MCP)驱动的安全自主开发等技术正在快速替代部分安全人工环节,催生“智能MSS”等服务模式。同时,大模型也推动了网络安全与其他行业的交叉融合。特别是在政务、金融、能源等领域,“AI赋能安全”与“安全保障AI”成为双向命题,促使原本独立的安全厂商、云计算企业与AI机构形成更复杂的协同关系,生态界限日益模糊。
(三)网络安全人才格局转向,角色边界、能力结构与供需逻辑重新定义
网络安全技术与产业的生态重塑,也关乎网络安全人才未来走向何处的战略抉择,更决定了其发展所需的能力结构与成长路径。首先,人才的角色边界正从传统的“人—人”迈向“人—机”,甚至是“机—机”的方向发展。随着大模型成为众多安全任务的核心引擎,以及人机协同技术的持续演进,网络安全智能体呈现替代安全人员的趋势,可能成为安全能力集合的承载者和操控者。网络安全人才的主要职责也正由传统的安全操作任务转向安全语料设计、语义决策与模型优化。其次,随着AI检索的日益成熟,过去网络安全人才强调的“深”“专”型单点技能正在让位于跨域整合与有效创新、反馈调优等AI高阶能力。未来,网络安全人才的个人经验与知识体系,以及对AI工程与数据科学的整合能力,在搭建认知层面与技术层面之间的链接桥梁将发挥至关重要的作用。最后,行业分工呈现“高端复合化、基层自动化”的发展趋势,既会增加行业对智能协同型安全专家、安全模型运维师的需求,也会持续降低对传统低技术、高重复性技能岗位的需求。这要求人才供给侧必须及时通过教育与培训体系的改革,构建适应智能安全时代需求的新型能力培养体系,以应对市场供需失衡及关键岗位人才短缺的挑战。
二、大模型驱动网络安全人才培养的新机遇:场景牵引、数据驱动与人机协同
基于以上分析,网络安全人才原有的供需结构与培养逻辑正在面临系统性重塑,大模型为网络安全人才的培养带来了多维度的创新。
(一)培养范式革新:从填鸭式教学走向智能场景交互
大模型凭借其强大的知识组织与语境理解能力,为传统网络安全教学体系注入了新动能,为实战型人才的培养与评估提供了高效工具。首先,通过自我提示学习、上下文案例驱动、多智能体交互等策略,学习者在持续与大模型进行交互或观察模型间博弈的过程中,能够更高效地优化个人知识结构,并掌握目标知识的关键细节与应用逻辑。例如,大模型可实时评估Web安全学习者的能力表现,并自动生成难度适中的渗透测试任务、配置审计清单等实战教学内容。这既降低了初学者的入门门槛,也提高了进阶者的策略思维与问题建模能力。其次,大模型也在改变网络安全学习者的信息检索模式,提高了信息生成效率。学习者能够显著降低查询式知识检索和重复学习的成本,在AI检索与结构补全的过程中发现自己的认知盲区,精准聚焦核心问题,实现“以场景促理解,以反馈带进步”的能力持续提高。同时,通过增强式检索、知识图谱等技术,大模型能够结合学习者的需求与目标知识库,定制出科学且人性化的成长路径。这不仅能够进一步降低教学成本与学习者的入门门槛,而且能够增强对实战型人才的定向发现和筛选能力。
(二)学习方式革新:从知识静态积累走向实时数据汇聚
依托海量预训练数据与在线检索能力,大模型打破了传统教学中“教材有限、案例滞后”的知识供给瓶颈,构建了“动态数据—即时理解—结构化输出—二次追问”的闭环机制,从根本上改变了网络安全人才的认知模式。由于大模型可以筛选并整合经典或最新的网络安全知识图谱、威胁情报库以及开源策略规则集等异构数据源的信息,动态生成与真实业务背景相契合的案例、风险推理过程与解决方案摘要,从而确保了教学内容具有高度的结构性并能够与时俱进。
同时,大模型也能够帮助学习者在成长过程中实现自我监督。大模型可以追踪学习者在执行多样化的网络安全任务过程中的推理逻辑、错误类型以及应对策略,并以数据化形式生成能力画像,从而实现对网络安全专业人才的动态建模与个性化指导。相较于以考核为最终目标的传统认证模式,基于数据驱动的能力成长体系更加注重过程反馈、行为记录以及能力的演进,有助于学习者从知识掌握到问题建构与策略迁移的高阶认知跃升。最终,大模型构建起以数据为核心枢纽、以语义理解为桥梁、以任务驱动为牵引的智能化学习结构,推动安全人才培养从“静态学科体系”向“动态知识演化生态”转变。
(三)成长模式革新:从单向学习走向人机共塑的协同演化
大模型不仅是知识提供者,也是能够培养个性化网络安全人才的“能力共生体”。大模型展现了基于人类反馈的强化学习能力,学习者可以通过软提示更新与小样本记忆策略,对模型行为进行轻量定制,从而构建符合个人偏好和认知习惯的“专属安全助手”。例如,在实际操作演练中,学习者能够持续累积操作记录、偏好模板和策略经验,逐步训练出更符合目标需求的模型副本,构建起“个体—私有模型”之间的深度协同关系。同时,“个体—私有模型”可以联动“私有模型—主模型”,实现同步监督、偏见削弱与知识防毒,避免私有模型被注入“毒性数据”导致失效,确保“自定义不越界”的协同共育。在此基础上,网络安全人才的内涵从“自然人”拓展至“人与人所塑造的智能体”。一方面,“人—机”协同作用将网络安全人才由知识接受者转变为网络安全认知系统的构建者与塑造者,这意味着未来可以通过复制“私有模型”的方式有效继承并利用个体专家的特殊能力。另一方面,通过人与模型的共同优化过程,也构建起了“人—人”(知识体系分享)、“机—机”(模型共训)等新型交互网络,催生出一种以智能体为基本单元的协作式成长生态。最终,由大模型推动的人机协同范式,有望突破传统的个体式学习与标准化教学框架的局限,为高级网络安全人才培养提供一条“自优化、自监督、可拓展”的新型成长路径。
三、大模型驱动网络安全人才培养面临的挑战:结构错位、能力滞后与信任风险
风险往往与机遇并存,大模型赋能网络安全人才培养目前仍存在诸多现实难题。
(一)结构错配:教育评价体系与岗位功能重构脱节
当前,网络安全人才供给体系仍局限于“岗位名称对应能力模块”的阶段,难以满足综合能力诉求。一方面,高校和培训机构在人才培养过程中,仍大量聚焦于通用网络架构、安全设备配置、日志分析等旧版内容,缺乏针对AI驾驶安全、AI安全、大模型前沿技术探索等课程体系建设。另一方面,产业侧对AI复合型安全人才的需求激增,但相应的能力认证、实践平台和评价标准尚未成熟,导致“有需无育”“育成难配”矛盾日益凸显。同时,近几年网络安全市场增速趋缓,短期内难以支撑大规模模型赋能型职位体系的构建,导致教育侧虽具有转型动力,但缺乏清晰、稳定的市场反馈机制。尤其是在大量安全岗位职能被重新定义的阶段,该现象更加明显。例如,“安全分析师”不再只是日志审查和规则设定的执行者,更需要具备模型调参、知识注入、结果判断等复合能力;“红队工程师”除了具备渗透能力,也要掌握如何规避AI辅助检测与策略逆用。然而,这些能力未被纳入主流岗位或职业晋升考核范围内,导致关键岗位空转、评价失效、结构性短缺等问题愈加严峻。
(二)体系滞后:人才培养关联的基础设施难以适配人机协同逻辑
大模型赋能背景下,网络安全实践正从“手工技能堆叠”向“策略定义+模型协同”的模式转变,传统人才发现、培养与选拔的基础设施面临失效风险。一方面,现有教育基础设施多数围绕工具操作与静态知识传播服务,难以支撑大模型驱动的动态教育系统。另一方面,提示设计能力、语义风险判断、跨模态理解等关键能力尚未纳入课程体系与实训过程,导致大量从业者看得懂AI却用不好、用不对。以大模型驱动漏洞挖掘为例,安全人员不再单纯依赖个体的逆向技术和调试经验,而是要基于模型的语义理解构建攻击路径,评估AI生成代码的逻辑风险或设计可对抗模型检测的策略。然而,当前大多数安全课程与培训仍停留在“工具使用”“案例背诵”等浅层操作阶段,缺乏对AI安全能力的培养。目前主流的网络安全人才考核仍以“高效率、低成本”的应试筛选为导向,聚焦基础命令、设备配置、漏洞写作等可量化指标,缺乏对从业者使用AI解决复杂安全问题能力的考核,也无从识别那些具备模型反向优化、知识注入调优等潜在价值的高级人才。AI安全人才培养基础设施滞后,容易延长新型人才的成长周期,导致“机制难识才、系统难育才”的困局。
(三)信任风险:能力边界模糊引发的过度依赖或认知侵蚀
随着基座模型能力进化,越来越多的学习者将大模型视为“权威知识体”或“标准答案源”。尽管这在一定程度上提高了知识规范性与共识效率,但也带来了大模型过度依赖与认知侵蚀的风险。一方面,大模型幻觉、语义偏差与模型偏见问题尚未被完全解决,学习者在频繁使用中可能逐步接受甚至内化模型输出的不准确、不完整甚至有害结论。特别是在安全决策、漏洞研判、威胁分析等高敏感场景下,若缺乏专家知识与多源交叉验证机制,可能被大模型误导。另一方面,模型的便利性容易造成学习者对AI检索的学习模式产生路径依赖,进而弱化自身的问题建模能力、策略推演能力与系统性思维能力,形成“思维退化→模型依赖→判断失效”的负向认知闭环。这不仅影响网络安全人才的创新能力,也可能限制其在面对未知场景时的独立思考能力。同时,目前尚未建立面向“人—机”共育过程的信任校验与认知监督机制。“认知封闭+偏见循环”的模式陷阱,可能加剧人才发展过程中的“弱专家化”趋势,最终导致知识结构单一化、认知判断表面化,成为智能安全教育体系中的潜在风险。
四、大模型时代网络安全人才培养路径重塑
为了更好地应对大模型对网络安全生态形成的深层冲击,应从教育框架、能力体系、系统机制与社会生态方面,构建适配AI时代的网络安全人才培养路径。
(一)教育框架重塑:融模型于课纲,嵌智能于实践
未来,网络安全人才队伍应主动纳入AI型安全人才,并在培养过程中贯彻“双嵌融合”原则。在教学设计上,嵌入基于大模型的动态教学基础设施或轻量化模块,引导学习者在安全任务建模、提示词构造、模型输出研判等过程中掌握与大模型协同解决安全问题的能力。在教学资源上,嵌入“动态演化+标准校验”的体系:一方面,构建跨领域、可迭代、难度递进的案例语料库,破除“教材滞后”难题;另一方面,建立网络安全的可信语料标准和权威知识图谱,为模型输出提供稳固锚点,提高知识输入的可控性与学习路径的系统性。同时,教育改革不应“一刀切”地推进,需遵循“重点突破、梯次演进”的策略。可优先聚焦AI安全、网络攻防、数据治理等国家急需、公众关切的领域,以及教育资源丰沛、产业基础雄厚的区域,率先开展大模型嵌入式教学试点。在取得可复制、可评价、可迁移经验的基础上,逐步向更大范围的教育系统推广。
这种“先行试验→局部引领→梯度扩展”的路径,有助于打破“新框架下无旧支撑”的改革困境,实现从点状创新向体系演进的稳步过渡,最终推动整个网络安全人才培养体系向智能化、个性化、协同化方向升级。
(二)能力体系重建:从静态知识使用者迈向信息系统构造者
未来,网络安全人才所需的核心能力将从“掌握多少命令、了解多少漏洞”转向“能否构建自主知识系统、主导模型持续进化”,这意味着网络安全人才将从“静态知识使用者”转向“信息系统构造者”角色。在能力广度上,网络安全人才应具备跨域整合能力,能够将AI安全、网络安全、跨模态感知等知识融会贯通,构建支撑人机协同的复合型知识底座;在能力深度上,网络安全人才对基础知识的细节考察可能弱化,但需对特定领域有充足的实践理解,掌握大量经验性知识,并能基于大模型有效执行“发现问题→拆分问题→引导模型→研判反馈→发现新问题”的行为链,成为个人职业发展路径与大模型能力成长的深度参与者。
为适配能力结构变化,安全人才的评估体系也需与时俱进。未来,在考察人才基础知识能力的同时,应发展基于行为过程的数据化评估机制,通过分析学习者在安全任务中的提示设计逻辑、模型控制能力、风险判断表现等过程性指标,构建动态化、场景化、多维度的能力评价体系。例如,可以在实训平台上引入“大模型协同安全解决方案”“提供超越AI默认生成内容之外的解决方案”等任务场景,将引导模型解决安全问题、对输出纠偏和改进等能力作为核心指标,推动评估体系从静态考查走向动态追踪,从知识测量走向安全智能能力建模。最终,能力标准的革新将倒逼人才培养链条的升级,推动课程设计、安全实训与任务评价体系的协同作用,从而实现“以需定训、以训促评、以评促学”的健康发展模式。
(三)系统机制重构:从人本教育走向人机共育的智能生态构建
长期来看,未来网络安全专业人才的界定可能将超越人类个体的界限,延伸至经过安全专家调整训练、具备特定安全功能的模型副本或智能体系统。这类“智能体人才”成为安全生态中不可或缺的新单元,也将对人才培养机制提出系统性重构要求。首先,应构建“人—机”共育的价值确认机制,通过训练映射、行为关联与权属标记,保障模型训练者对智能体能力成果的基本权益,防止“高质量模型被复制、训练劳动被剥夺”的现象出现。其次,建立“清洁可信”的模型演化通道,以主模型监督、语料可信化与行为审计机制为支撑,规范模型个性化演化路径,防止认知偏见、语义毒性等风险在教育实践中隐蔽扩散。最后,设立“人格防护”与“数据信托”制度,旨在保护训练者的隐私与知识产权,同时对具有连续演化能力的智能体人才进行身份识别与行为监管,为未来的安全合作奠定制度基础。从培养人才到培育智能体,大模型将构建一个“人机共育、清洁可信、文明和谐”的网络安全人才新生态。
(四)社会生态重组:从专业闭环走向全民参与的协同安全
大模型不仅改变了“如何学”“学什么”,也正在重塑“谁来育”“谁能教”的人才生态版图。网络安全人才的培养不再只是高校与企业间的专业闭环,而是走向政府引导、企业支持、院校响应、公众参与的多方协作网络。一方面,在政府引导下,持续完善产学研用一体化协同机制,鼓励企业开放AI型安全实训平台与优质行业情报,推动高校联合行业标准机构共建AI型安全人才成长新路径,弥合教育与产业间的结构断层。另一方面,大模型与低门槛安全工具的普及使得网络安全知识的垄断现象得以有效缓解,公众参与网络安全事务的障碍显著降低。借助具备高可读性的自然语言交互和自定义安全助手,一般员工、青少年、自由研究者以及中小企业技术人员,均具有成为网络安全人才的潜力。在此基础上,构建和维护相对可靠的“社会共享经验池”将成为未来网络安全生态的新支柱。大模型可汇聚各类学习者在实战中产生的提示策略、防御路径与应急经验,经过可信校验后沉淀为结构化语料,为全民提供“可用、可学、可演化”的知识共享体。同时,可以为每位有效贡献者发放“AI安全货币”或“AI安全股”,激励其成为网络安全协同过程的知识共建者、能力共生者与价值享有者。最终,通过政府主导、企业共建、公众参与的开放协作机制,网络安全人才培养或将走出封闭输送、分散使用的旧范式,迈向一个全域赋能、共同治理、全民参与的智能生态闭环。
(本文刊登于《中国信息安全》杂志2025年第12期)