以前在YouTube上被AI换脸了,你可能压根不知道。现在不一样了——只要你年满18岁,就能让自己的脸在YouTube上「站岗」,一旦发现相似内容,平台第一时间通知你。
YouTube本周宣布,把原本只开放给网红、政客、记者和娱乐明星的「面容检测」工具,向所有18岁以上用户全面开放。这件事听起来简单,背后牵扯的东西远比表面上复杂。
怎么用?拍张自拍,然后等通知
具体流程不复杂:用户上传一张自拍,YouTube的AI系统会对这张脸建立特征档案,然后扫描平台上的视频内容,看有没有「撞脸」的。
发现了不等于立刻删。系统会先通知「被撞脸」的用户,由用户决定要不要向YouTube申请删除。申请通过后,YouTube会根据隐私政策评估,标准包括:内容是否逼真、是否标注了AI生成、能否单独识别出这个人。
当然也有例外: parody(恶搞)和 satire(讽刺)不在删除范围内。另外,这套系统目前只识别面部,不识别声音——所以AI克隆你声音的视频,暂时不在保护范围内。
门槛从高到低,走了四年
YouTube的面容检测不是一夜冒出来的。
最早一批用的是内容创作者,2023年开始测试;随后扩展到政府官员和政客;再然后是新闻记者;接着是好莱坞明星。现在,普通用户终于也能用了。
这个扩展路径很有意思:平台先把工具给最容易受到deepfake伤害的群体——名人和公职人员——等系统跑稳了、数据积累够了,再向大众开放。这套逻辑本身没问题,但也在某种程度上说明,早期普通用户其实也有这个需求,只是平台一直没顾上。
YouTube的发言人在声明里说了一句:「不管你是上传了十年的老创作者,还是刚起步的新人,都享受同等级别的保护。」——听起来像公关话术,但确实是第一次把话挑明了。
普通人的deepfake风险,被低估了
deepfake最常被讨论的场景是名人换脸——某明星被合成到成人视频里,或者政客说从未说过的话。但实际上,普通人面临的风险同样存在,而且往往更隐蔽、更难维权。
比如:
(1) 伪造证据——一段「你」在某个场合出现的视频,可能被用来制造不在场证明
(2) 诈骗素材——用你孩子的脸合成视频向老人索要赎金,已经有真实案例
(3) 职场抹黑——同事或竞争对手合成你发表歧视言论的视频
这些场景听起来极端,但随着AI生成工具门槛降到几乎为零,任何人都可能成为目标。YouTube把检测权交给个人,本质上是在承认:平台自己管不过来,得发动用户一起管。
但检测和删除是两码事
需要泼一盆冷水:YouTube这次开放的只是「检测」能力,不是「自动删除」权限。
用户收到通知后,还需要主动发起申请,YouTube才会介入审核。而审核的结果取决于多个因素,包括内容是否被标注为AI生成、是否构成合理使用等。
换句话说:工具给你了,但你得自己判断、主动出击,平台只负责「收到你的请求后考虑处理」。这对有精力、有维权意识的用户是好消息,但对于不知道deepfake是什么、不知道怎么申诉的人来说,门槛依然存在。
更大的问题:声音还不在保护范围
面部能被保护了,声音呢?抱歉,暂时不在。
目前YouTube的检测维度仅限于面部。AI合成语音的技术成熟度已经非常高,市面上有大量工具可以在几秒钟内用15秒录音克隆一个人的声音,而且逼真度足以骗过家人。
所以现在的局面是:你可以在YouTube上保护你的脸,但保护不了你的声音。一个骗子完全可以只克隆你的声音、配上一个完全虚构的画面,继续行骗。
技术跑得比监管快,比平台规则更快。这不是YouTube一家的问题,是整个行业的现状。
你会去「登记」自己的脸吗?
这件事有个有趣的社会学问题:让普通人主动去「登记」自己的面部信息来获得保护,到底是赋能用户,还是在把责任推给个人?
平台掌握着内容,平台有技术能力,平台收了创作者的分成——但在deepfake这件事上,YouTube选择让用户自己发现、自己申请、自己维权。
你可以选择不注册,反正没人强迫你。但不注册的后果是:如果有一天你的脸被用了,你可能永远不知道。
这大概就是数字时代的「隐私悖论」——你知道风险在,但主动去防御的人永远是少数。