8类禁止AI系统详解
点击「我的产品有这个吗?」按钮,通过简单的是/否问题快速自测。
01
完全禁止
潜意识操控技术
Art. 5(1)(a) — Subliminal Manipulation
部署超出人的意识范围的技术,通过潜意识手段实质性地扭曲个人行为,导致或可能导致该人或他人的重大损害。这包括利用暗黑模式、隐蔽的心理操控手段等AI技术。
暗黑模式UI
隐蔽诱导消费
潜意识广告AI
上瘾性推荐引擎
Q1: 你的产品是否使用AI技术影响用户决策(购买、点击、分享等)?
Q2: 这些影响手段是否在用户不知情的情况下运作(非明确推荐)?
Q3: 这些手段是否可能导致用户做出违背其利益的决定(如过度消费、上瘾)?
⚠️ 高风险!你的产品可能涉及潜意识操控,属于被禁止的AI实践。建议立即咨询合规专家,在进入欧盟市场前进行功能改造。
✅ 暂时安全。你的产品可能不涉及此项禁止条款,但建议确保用户影响机制具有充分透明度。
02
完全禁止
利用弱势群体漏洞
Art. 5(1)(b) — Exploiting Vulnerabilities
利用特定人群的年龄、残疾或社会经济状况等弱点,通过AI技术实质性地扭曲其行为,导致重大损害。例如针对老年人、儿童或低收入群体的操控性AI营销。
针对儿童的诱导消费
老年人AI诈骗
利用心理弱点的AI
弱势群体定向营销
Q1: 你的产品是否专门面向儿童、老年人或残障人士等弱势群体?
Q2: 产品是否利用这些群体的认知/身体限制来促进特定行为(如消费、分享数据)?
⚠️ 高风险!利用弱势群体漏洞的AI系统被明确禁止。必须移除操控性功能,并加入针对弱势群体的保护机制。
✅ 暂时安全。但如果你的产品可被弱势群体使用,建议加入适当的保护措施。
03
完全禁止
公共机构社会评分
Art. 5(1)(c) — Social Scoring by Public Authorities
由公共机构或代表公共机构实施的社会评分系统:基于社会行为或已知/预测的个人特征对自然人进行评估或分类,导致不公平或不相称的待遇。这一条款直接指向了中国式社会信用体系模型。
社会信用评分
市民积分系统
公共行为评分
跨场景信用联评
Q1: 你的系统是否对个人进行综合性的行为评分或信用评分?
Q2: 该评分是否会影响个人获取公共服务、出行或其他社会权利?
⚠️ 高风险!社会评分系统在欧盟被明确禁止。如果你的产品在国内用于社会评分,出海版本必须完全移除该功能。
✅ 暂时安全。纯商业信用评分(如电商信用分)不在此禁止范围内,但可能属于高风险系统。
04
完全禁止
实时远程生物特征识别(公共场所)
Art. 5(1)(h) — Real-time Remote Biometric Identification in Public Spaces
在公共可及的空间中使用实时远程生物特征识别系统用于执法目的。这意味着城市级的人脸识别监控系统在欧盟公共场所被禁止。仅在极少数严格限定的执法场景下(如搜索失踪儿童、防止恐怖袭击),在司法或行政授权后方可使用。
城市级人脸识别
公共场所实时监控
智慧城市安防
海康威视/大华
Q1: 你的产品是否具有人脸识别/生物特征识别功能?
Q2: 该功能是否可在公共场所进行实时(非录像回放)远程识别?
⚠️ 高风险!公共场所的实时远程生物特征识别在欧盟被禁止。出口到欧盟的安防设备必须移除此功能或限制使用场景。
✅ 暂时安全。非公共场所(如企业门禁)或非实时的生物识别可能不在此项禁止范围内,但可能属于高风险系统。
05
原则禁止(有限例外)
事后远程生物特征识别
Art. 5(1)(h) — Post Remote Biometric Identification (with limited exceptions)
对已录制的视频/图像进行远程生物特征识别,用于执法目的。原则上被禁止,但在针对严重刑事犯罪(最高刑期3年以上)的调查中,经司法授权后可使用。这是8类禁止中唯一存在例外情形的。
视频回放人脸搜索
嫌疑人轨迹追踪
事后生物特征匹配
Q1: 你的产品是否可以对已录制的视频进行人脸/生物特征搜索和匹配?
Q2: 该产品的目标客户是否包含执法/安防机构?
⚠️ 高风险!面向执法的事后生物特征识别原则上被禁止,仅在极严格的司法授权下有限例外。商业产品不应提供此功能。
✅ 暂时安全。非执法用途的视频分析可能不在此禁止范围,但请确认是否属于高风险类别。
06
完全禁止
情绪识别(工作/教育场景)
Art. 5(1)(f) — Emotion Recognition in Workplace & Education
在工作场所和教育机构中使用AI系统推断自然人的情绪。这意味着基于面部表情、声音、肢体语言等分析员工工作状态或学生课堂注意力的系统被完全禁止(医疗和安全目的除外)。
课堂注意力监测
员工情绪分析
工位疲劳检测
学习专注度AI
Q1: 你的产品是否通过AI分析人的情绪、注意力或心理状态?
Q2: 该产品是否用于工作场所或教育机构?
⚠️ 高风险!工作和教育场景的情绪识别被完全禁止。你必须在欧盟版本中移除此功能。
✅ 暂时安全。非工作/教育场景的情绪识别(如营销分析)不在此项禁止范围,但需满足透明度要求。
07
完全禁止
基于生物特征的预测分类
Art. 5(1)(g) — Biometric Categorisation for Inferring Sensitive Attributes
使用生物特征数据对自然人进行分类,以推断其种族、政治观点、工会成员身份、宗教或哲学信仰、性生活或性取向等敏感信息。简单来说,不能用人脸来猜测一个人的政治倾向、信仰或性取向。
面部特征种族分类
AI相面/面相分析
基于外貌的偏好预测
生物特征画像
Q1: 你的产品是否使用面部/身体等生物特征数据进行用户分类?
Q2: 分类结果是否涉及种族、民族、宗教、政治观点或性取向等敏感属性?
⚠️ 高风险!基于生物特征推断敏感属性被明确禁止。此功能必须从产品中完全移除。
✅ 暂时安全。基于生物特征的非敏感分类(如年龄段估计用于内容过滤)可能不在此范围,但需谨慎评估。
08
完全禁止
面部识别数据库爬取
Art. 5(1)(e) — Untargeted Scraping of Facial Images
通过无差别地从互联网或监控录像中爬取面部图像来创建或扩充面部识别数据库。这一条款直接回应了 Clearview AI 等公司的争议做法。任何以无目标方式收集面部数据的行为都将被禁止。
社交媒体人脸爬取
互联网人脸采集
CCTV人脸数据库
Clearview AI模式
Q1: 你的产品或服务是否维护面部识别/人脸图像数据库?
Q2: 数据库中的面部数据是否来源于网络爬取或无差别收集(非用户主动提供)?
⚠️ 高风险!无差别爬取面部图像建库被完全禁止。你必须销毁通过爬取获得的面部数据,并转向基于用户知情同意的数据收集方式。
✅ 暂时安全。基于用户知情同意收集的面部数据不在此项禁止范围内,但需遵守GDPR及相关数据保护规定。