随着大模型技术的快速落地,AI安全风险已成为企业面临的全新挑战。从提示注入、对抗样本到数据泄露、模型越狱,层出不穷的攻击手段正在威胁着您投入巨资打造的智能应用。时代新威大模型安全测评服务,依托业界领先的自动化安全评估平台,为您提供从资产梳理到风险发现、从合规检查到整改加固的全流程安全检测与评估服务,确保您的AI系统安全、可靠、可控。
一. 为什么需要大模型安全测评?
1. 合规是底线
国家已出台一系列法律法规,明确要求对大模型进行安全评估:
《网络安全法》(2026年修订版)要求加强人工智能风险监测评估和安全监管
《生成式人工智能服务管理暂行办法》规定,具有舆论属性的生成式AI服务需开展安全评估
《生成式人工智能服务安全基本要求》(GB/T 45654-2025)给出了详细的测评标准
不做安全评估,可能面临监管处罚、产品下架、品牌受损。
2. 风险是现实
近期多起大模型安全事件敲响警钟:
DeepSeek R1模型被曝100%可越狱漏洞,攻击者可绕过所有安全限制
多款AI大模型存在提示词泄露风险,核心指令可被逆向获取
某大模型因数据库配置错误,导致用户对话记录遭未授权访问
境外已有利用ChatGPT辅助策划爆炸案的恶性事件
您的模型可能正在裸奔,只是还没被发现。
二. 我们的服务内容
1. 全维度安全检测
我们模拟真实攻击手法,对您的模型进行全面“体检”:
提示注入攻击:检测攻击者通过构造恶意输入,绕过大模型防御机制、诱导生成非预期内容的风险
对抗样本攻击:检测在音频/图像/视频中添加微小扰动,导致模型识别出错、执行错误推理的风险
数据投毒攻击:检测攻击者在训练/微调阶段植入恶意数据,影响模型行为的安全隐患
模型越狱攻击:检测绕过模型安全护栏、获取本应被禁止的响应或权限的漏洞
敏感数据泄露:检测模型在生成内容中泄露训练数据或用户隐私信息的风险
合规性检查:评估模型是否可能输出违法、歧视、暴力、色情等违规内容
2. 自动化测试平台
我们自主研发的大模型安全评估平台,具备以下核心能力:
百万级测试题库:覆盖政治、暴力、色情、歧视、隐私等31种以上安全风险类型
自动生成测试用例:基于领域数据集微调,智能生成针对性、诱导性问题
黑盒对抗样本生成:无需模型内部数据,即可生成高质量对抗样本,攻击成功率超90%
高迁移性攻击:对抗样本可在不同模型间有效迁移,攻击成功率比行业主流方法高出10%
三. 我们的服务能力
依托业界领先的大模型安全评估平台,我们为您提供体系化的安全检测与评估服务。我们能够帮助您:
发现安全漏洞:通过系统性、高强度的测试,深度挖掘模型在各种场景下的安全漏洞和潜在风险,包括提示注入、对抗样本、数据投毒、模型越狱、敏感数据泄露等。
助力监管合规:帮助客户满足《生成式人工智能服务管理暂行办法》《生成式人工智能服务安全基本要求》等国家法规和标准的强制性要求,降低监管风险。
提升模型鲁棒性:通过发现并修复问题,持续提升模型抵抗恶意攻击的能力,增强模型的稳定性和可靠性。
保障业务安全:防范因模型安全问题导致的业务中断、数据泄露和声誉损失,保障客户业务的平稳运行。
四. 我们的技术优势
1. 覆盖全场景、全领域的评估能力
支持通用大模型、行业大模型、多模态模型、智能体等多种类型,覆盖金融、政务、能源、医疗、教育等主流行业场景。
2. 基于大模型的测试样例自动生成
突破基准数据集失效、覆盖率低、更新滞后等问题,智能生成多样化、高质量的测试问题,确保测评的全面性。
3. 无数据黑盒场景下对抗样本生成
无需获取模型内部数据,即可通过黑盒查询生成有效对抗样本,适用于商业API、闭源模型等场景。
4. 业界领先的对抗样本迁移性提升
生成的对抗样本攻击成功率持续稳定,相比主流SU方法提升约10%,有效评估模型真实鲁棒性。



