四级风险分类体系
EU AI Act 的核心框架:根据AI系统对人权和安全的潜在影响,将所有AI应用划分为四个风险等级,不同等级对应不同的合规义务。
交互式风险金字塔
点击每个层级查看详细说明、中国企业案例和合规要求。
点击金字塔层级查看详情 ↑
完全禁止的AI实践
这些AI应用对基本权利和安全构成不可接受的威胁,在欧盟境内完全禁止部署和使用。
基于社会行为或个人特征对公民进行分类评分,影响其权利和机会的AI系统。
芝麻信用 城市信用分在公共场所进行实时人脸识别监控(执法例外需司法批准)。
旷视科技 商汤科技在工作场所和教育机构中通过AI推断员工或学生的情绪状态。
课堂注意力监测 员工情绪分析利用潜意识技术或针对弱势群体的欺骗性AI,操纵用户行为造成重大损害。
暗黑模式AIEU AI Act 直接点名了社会信用评分系统。这意味着:
- 涉及公共监控的人脸识别产品无法在欧盟市场销售
- 出口到欧盟的安防设备需要移除实时生物识别功能或进行功能改造
- 课堂监控、员工情绪分析等产品必须下架或彻底改造
- 已部署的系统需在截止日期前完成退出
需要严格合规的AI系统
这些AI系统允许在欧盟使用,但必须满足一系列严格的合规要求,包括风险管理、数据治理、技术文档、透明度、人类监督等。
用于筛选简历、评估候选人、决定晋升或解雇的AI系统。
BOSS直聘AI推荐 猎聘AI筛选用于评估个人信用、决定贷款和保险的AI评分系统。
蚂蚁集团 京东金融辅助医疗诊断、手术规划、药物推荐的AI系统。
科大讯飞医疗 依图医疗涉及车辆安全控制和自主导航的AI系统。
百度Apollo 小鹏汽车决定教育机会、评估学习成果的AI系统。
AI阅卷系统用于水、电、交通等关键基础设施管理的AI系统。
华为智慧城市高风险类别是中国出海企业受影响最广泛的领域,需要投入大量资源进行合规改造:
- 建立完整的风险管理体系和质量管理体系
- 准备技术文档:训练数据说明、模型架构、测试结果
- 实现日志记录功能,确保系统运行可追溯
- 确保人类监督机制,关键决策需人类参与
- 通过合规评估(自评或第三方评估)
- 注册到欧盟AI数据库
透明度义务
这些AI系统的合规要求相对简单,核心在于透明度——确保用户知道他们正在与AI交互。
客服机器人、虚拟助手等与用户直接对话的AI系统。
智能客服 ChatBot新闻、视频、商品推荐等基于AI的内容分发系统。
TikTok推荐 AliExpress推荐Deepfake、AI绘画、AI写作等生成式内容系统。
通义万相 MidJourney类工具在非禁止场景下的情绪识别系统(需告知用户)。
营销情绪分析合规成本相对较低,但必须确保透明度:
- 在用户界面清晰标注"您正在与AI交互"
- AI生成的内容必须标记为机器生成
- Deepfake内容必须添加明确的AI生成标识
- 推荐算法需要提供推荐逻辑说明(如TikTok已在欧盟版做到)
基本无合规要求
绝大多数AI应用属于此类。EU AI Act 鼓励(但不强制)遵守自愿性行为准则。
用于检测和过滤垃圾邮件的AI系统。
邮件过滤游戏中的AI角色、NPC行为、游戏匹配算法等。
米哈游 网易游戏文字校对、搜索优化、库存管理等辅助性AI。
搜索引擎优化非安全关键的工业流程优化AI。
智能排产好消息——大部分AI产品属于这个类别:
- 无强制合规要求,可以自由在欧盟市场销售
- 建议自愿遵守AI伦理准则,有助于提升品牌形象
- 建议主动标注AI功能的使用,提升用户信任
风险等级对比速查表
一图看懂四个风险等级的关键差异。
| 风险等级 | 合规要求 | 合规成本 | 截止时间 | 中国企业数量 |
|---|---|---|---|---|
| 不可接受 | 完全禁止 | 下架/改造 | 2025.02 | 约 50+ 家直接受影响 |
| 高风险 | 风险管理 + 文档 + 评估 + 监督 | ¥30万~1000万+ | 2026.08 | 约 200+ 家 |
| 有限风险 | 透明度告知 | ¥5万~30万 | 2025.08 | 约 500+ 家 |
| 最低风险 | 自愿准则 | 基本为零 | 无 | 数千家 |
如何判断你的产品属于哪个风险等级?
快速判断三步法:
- Step 1:你的AI产品是否涉及生物识别、社会评分、情绪识别?→ 可能是不可接受风险
- Step 2:是否涉及招聘、信用、医疗、安防、教育、关键基础设施?→ 可能是高风险
- Step 3:是否与用户直接交互或生成内容?→ 可能是有限风险
- 以上都不是?→ 大概率是最低风险
如果不确定,建议进行专业的风险评估,避免误判导致的合规风险。
需要专业合规咨询?
欧盟AI Act合规顾问,专注中国出海企业
预约免费评估