OpenAI запускает Privacy Filter для обнаружения и редактирования персональных данных (PII)
Caroline Bishop 24 апр. 2026 18:27
OpenAI представляет Privacy Filter — модель для обнаружения и редактирования персональных данных (PII) с передовой точностью. Уже доступна для разработчиков.
OpenAI представила Privacy Filter — новую ИИ-модель с открытыми весами, предназначенную для обнаружения и редактирования персональных данных (PII) в тексте. Выпущенный 23 апреля 2026 года инструмент обеспечивает передовую точность для рабочих процессов в области конфиденциальности, устанавливая новый ориентир для защиты чувствительных данных.
Privacy Filter призван решить давние проблемы в обнаружении PII, выходя за рамки традиционных систем на основе правил. В отличие от старых инструментов, опирающихся на детерминированные шаблоны для форматов вроде телефонных номеров или электронных адресов, эта модель использует продвинутое понимание языка для анализа неструктурированного текста и принятия решений с учётом контекста. Например, она способна разграничивать публичную и частную информацию — ключевая возможность в сложных сценариях обеспечения конфиденциальности.
Одна из ключевых особенностей — возможность работы локально, то есть чувствительные данные обрабатываются непосредственно на устройстве пользователя без отправки на внешние серверы. Такой подход снижает риск утечки данных и особенно ценен для приложений, требующих высокого уровня конфиденциальности, в таких отраслях, как здравоохранение, финансы и юридические услуги.
Модель оптимизирована для производственного использования с упором на эффективность. Она способна обрабатывать до 128 000 токенов контекста за один проход, сохраняя высокие показатели точности и отзыва. На широко используемом тесте PII-Masking-300k Privacy Filter достиг показателя F1 в 96%, поднявшись до 97,43% на исправленной версии набора данных. Эти результаты подчёркивают способность модели выявлять тонкие и сложные нарушения конфиденциальности при минимальном числе ложных срабатываний.
OpenAI сделала модель доступной по лицензии Apache 2.0 через такие платформы, как Hugging Face и GitHub, поощряя разработчиков экспериментировать, дообучать и внедрять её под свои нужды. Модель поддерживает восемь категорий PII, включая private_person, private_address, private_email и account_number. Она настраивается для различных рабочих процессов, позволяя пользователям балансировать между точностью и отзывом в соответствии с их операционными приоритетами.
Несмотря на широкие возможности, OpenAI признаёт, что Privacy Filter не является самостоятельным решением для соответствия нормативным требованиям или проверки политик. Это инструмент, предназначенный для дополнения более широких стратегий конфиденциальности по умолчанию. Модель может потребовать дополнительной оценки или дообучения для адаптации к различным отраслям, языкам и соглашениям об именовании.
Этот выпуск является частью более широких усилий OpenAI по расширению защиты конфиденциальности на основе управляемого ИИ. Компания подчеркнула, что цель состоит в том, чтобы ИИ-системы обучались на данных, не нарушая конфиденциальность отдельных пользователей. Открывая исходный код Privacy Filter, OpenAI стремится дать разработчикам и организациям возможность интегрировать надёжные средства защиты конфиденциальности в свои рабочие процессы.
Privacy Filter представляет собой значительный шаг вперёд в области технологий защиты конфиденциальности, особенно на фоне усиливающегося внимания к безопасности данных и этическим практикам в индустрии ИИ. Для разработчиков и компаний, стремящихся усилить свои возможности по работе с PII, доступность модели открывает важную возможность внедрить передовые инструменты, ставящие конфиденциальность пользователей на первое место.
Источник изображения: Shutterstock- ai
- конфиденциальность
- openai
- pii
- безопасность данных








