OpenAI lanza Privacy Filter para la detección y eliminación de PII
Caroline Bishop 24 de abril de 2026 15:27
OpenAI presenta Privacy Filter, un modelo para detectar y eliminar PII con precisión de vanguardia. Disponible ahora para desarrolladores.
OpenAI ha presentado Privacy Filter, un nuevo modelo de IA de pesos abiertos diseñado para detectar y eliminar información de identificación personal (PII) en texto. Publicado el 23 de abril de 2026, la herramienta ofrece precisión de vanguardia para flujos de trabajo de privacidad, estableciendo un nuevo estándar para la protección de datos sensibles.
Privacy Filter tiene como objetivo abordar los desafíos históricos en la detección de PII yendo más allá de los sistemas tradicionales basados en reglas. A diferencia de las herramientas más antiguas que dependen de patrones deterministas para formatos como números de teléfono o direcciones de correo electrónico, este modelo utiliza una comprensión avanzada del lenguaje para analizar texto no estructurado y tomar decisiones contextuales. Por ejemplo, puede diferenciar entre información pública y privada, una capacidad crucial en escenarios de privacidad complejos.
Una de sus características destacadas es la capacidad de operar localmente, lo que significa que los datos sensibles pueden procesarse directamente en el equipo del usuario sin ser enviados a servidores externos. Este diseño reduce el riesgo de exposición de datos y es especialmente valioso para aplicaciones con requisitos de privacidad elevados en sectores como la sanidad, las finanzas y los servicios jurídicos.
El modelo está optimizado para uso en producción, con la eficiencia como eje central. Puede procesar hasta 128.000 tokens de contexto en un solo paso manteniendo altas tasas de precisión y recall. En el ampliamente utilizado benchmark PII-Masking-300k, Privacy Filter alcanzó una puntuación F1 del 96%, llegando al 97,43% en una versión corregida del conjunto de datos. Estas puntuaciones destacan su capacidad para detectar brechas de privacidad sutiles y complejas minimizando los falsos positivos.
OpenAI ha puesto el modelo a disposición bajo una licencia Apache 2.0 a través de plataformas como Hugging Face y GitHub, animando a los desarrolladores a experimentar, ajustar y desplegarlo según sus necesidades específicas. El modelo es compatible con ocho categorías de PII, incluyendo private_person, private_address, private_email y account_number. Es configurable para diversos flujos de trabajo, lo que permite a los usuarios equilibrar la precisión y el recall según sus prioridades operativas.
A pesar de sus capacidades, OpenAI reconoce que Privacy Filter no es una solución autónoma para el cumplimiento normativo o la revisión de políticas. Es una herramienta diseñada para complementar estrategias más amplias de privacidad desde el diseño. El modelo puede requerir una evaluación o ajuste adicional específico del dominio para adaptarse a diferentes sectores, idiomas y convenciones de nomenclatura.
Esta publicación forma parte del impulso más amplio de OpenAI para mejorar las protecciones de privacidad impulsadas por IA. La empresa ha subrayado que el objetivo es que los sistemas de IA aprendan de los datos sin comprometer la privacidad individual. Al publicar Privacy Filter como código abierto, OpenAI pretende capacitar a desarrolladores y organizaciones para integrar sólidas salvaguardas de privacidad en sus flujos de trabajo.
Privacy Filter representa un avance significativo en tecnología de privacidad, especialmente a medida que el sector de la IA enfrenta un escrutinio creciente en torno a la seguridad de los datos y las prácticas éticas. Para los desarrolladores y empresas que buscan reforzar sus capacidades de gestión de PII, la disponibilidad del modelo supone una oportunidad clave para adoptar herramientas de vanguardia que priorizan la privacidad del usuario.
Fuente de la imagen: Shutterstock- ai
- privacidad
- openai
- pii
- seguridad de datos








