最近几年,全球范围内掀起了一股要求在线服务实施年龄验证机制的风潮。表面上看,这似乎是个"常识性"的安全措施——就像在酒吧出示身份证那样简单。但作为一名长期关注数字隐私和公民自由的技术从业者,我必须指出这种机制背后隐藏着更深层次的问题。
当前澳大利亚已经率先实施了"16岁以下社交媒体账户禁令",要求平台采取"合理措施"阻止未成年人创建或保留账户。欧盟委员会也发布了"年龄验证蓝图",计划与未来的欧盟数字身份钱包系统实现互操作。美国多个州则试图通过应用商店层面的验证来强制执行。这些政策表面上是为了保护未成年人免受不良内容影响,但实际上正在构建一个需要身份认证才能参与数字生活的世界。
线下年龄验证(如购买酒精)是临时性的、有限的交互。但线上验证完全不同——它会创建永久记录,涉及数据共享,并引入新的泄露风险。电子前沿基金会(EFF)明确指出:一旦考虑规模、数据流和第三方中介的现实,这种类比就站不住脚了。
更令人担忧的是,这种机制必然会导致功能蔓延(Function Creep)。最初可能只针对"明显成人内容",但很快会扩展到"自残内容"、"饮食失调内容"、"错误信息",最终到"政治敏感内容"。每个司法管辖区对"有害内容"的定义都不同,但凭证系统会一直存在。
欧盟的方案看似更"隐私友好"——允许用户证明自己年满18岁而不分享其他个人信息。但即便如此,它仍然在危险地常态化一个理念:使用在线服务(包括表达平台)需要身份凭证。
Character.AI和OpenAI等AI公司已经开始构建内部年龄检测模型。虽然它们声称是为了儿童安全,但实际上正在创建一个系统:如果你被标记为未成年人并对此有异议,就可能需要提交自拍验证甚至上传身份证件。
通用AI系统不同于酒类商店——它们更像是文字处理器、私人日记、创意合作伙伴或解决生活问题的工具。当我们对这类工具实施身份检查时,实际上不是在保护儿童,而是在改写成人匿名的规范。
以AI生成内容为例,最初可能只针对色情内容进行限制,但功能蔓延意味着系统最终会要求人们验证身份才能创作关于创伤、性取向、宗教或政治的内容。LGBTQ+青少年在无法出柜的家庭环境中,可能因为探索自我认同而被错误标记为"成人内容"。
AI公司面临真实的儿童安全担忧、政治审查和诉讼风险。但接受年龄验证要求就意味着帮助建立一个难以逆转的身份制度。我们已经在澳大利亚看到针对16岁以下社交媒体禁令的宪法挑战,美国也有多起针对州年龄验证法的诉讼。
作为妥协方案,我们建议采用零知识证明(ZKP)和选择性披露的可验证凭证。这类系统允许用户证明"我年满18岁"而不透露姓名、地址、身份证号或完整出生日期。Google已经开源了相关ZKP库,为开发者提供了工具。
即使必须验证,也应设计为AI实验室不保留证件、生物特征或识别数据,仅存储一个最小化的"18岁以上"标志。系统架构应包含严格的保留期限,且不与聊天内容关联。
对于AI行业从业者,我建议采取以下立场和行动:
技术社区需要明白:年龄验证看似是阻力最小的路径——短期内降低法律风险,长期却会用许可制互联网取代开放互联网。AI正在成为连接一切的接口,我们没有第二次机会来决定这个接口是否需要"证件"。
关键提示:任何要求成年人必须验证身份才能使用通用语言接口的系统,本质上都是监控系统,与人权、法治和民主本身直接冲突。
数字世界正处于十字路口。我们可以选择建立一个需要凭证才能使用基本AI工具的未来,也可以捍卫隐私和匿名权——即使这意味着要承担更多技术挑战。作为技术人员,我们的选择将决定下一代互联网的本质。