文章作者、来源:AIBase
OpenAI 近日宣布推出一款前沿的个人身份信息(PII)脱敏模型——Privacy Filter。该模型目前已通过 Apache2.0协议在 Hugging Face 和 GitHub 同步开源,旨在为开发者提供一个可本地运行、支持高度定制的隐私保护工具。
区别于传统的规则匹配工具,Privacy Filter 具备深层的语言理解能力。它能根据上下文语境,精准识别非结构化文本中的敏感信息。这意味着它在有效遮盖个体私密数据的同时,能够最大限度地保留文本中的公开有用信息。
在技术架构上,该模型展现了极高的灵活性与效率:
Privacy Filter 能够精准识别并标注八类核心敏感信息:
OpenAI 将其定位为预过滤层。用户在将文本发送至云端大模型前,数据可先在本地完成 PII 检测与脱敏。这种“数据不离设备”的处理方式,有效解决了用户误将隐私信息粘贴至 AI 工具的风险。
虽然该工具功能强大且支持微调,但 OpenAI 同时也提醒,在医疗、法律、金融等高敏感领域,人工审核与领域特定的微调依然不可或缺。


