BLOG

Principales inquietudes sobre IA y privacidad de datos

Miniatura del personal de la sala de prensa de F5
Personal de la sala de prensa de F5
Publicado el 16 de julio de 2025

Ha llegado la inteligencia artificial: El 96 % de las organizaciones encuestadas para el Informe Estado de la Estrategia de Aplicaciones F5 2025 ya están desplegando modelos de IA.

Aunque la IA promete ayudarte a trabajar de forma más inteligente, rápida y eficiente, también genera preocupaciones y riesgos. Los sistemas de IA, especialmente los basados en aprendizaje automático y grandes modelos de lenguaje (LLM), se alimentan de enormes volúmenes de datos para entrenar y ajustar los modelos y alimentar los motores de IA. Estos datos pueden contener información sensible como identificadores personales, patrones de comportamiento, datos de ubicación y registros financieros o médicos. A medida que integras la IA cada vez más en aplicaciones diarias, aumenta el riesgo de exposición o mal uso de datos personales: La privacidad de los datos en IA se ha convertido en una preocupación clave.

Este blog analiza el concepto de privacidad en IA y cómo la IA genera riesgos y preocupaciones sobre la privacidad de los datos. También revisa las leyes de privacidad relacionadas con la IA y te muestra cómo proteger la privacidad de datos en aplicaciones de IA.

¿Qué significa la privacidad en la IA?

La privacidad en IA abarca las prácticas que protegen los datos recogidos, almacenados y procesados por sistemas de IA. Aunque está relacionada con la privacidad de datos, que defiende que tengas control sobre tus datos personales, la privacidad en IA es un concepto distinto que presenta diferencias clave.

Los sistemas de IA utilizan enormes cantidades de datos. Cuantos más datos procesan, más precisos y eficientes se vuelven.  Por ejemplo, se estima que ChatGPT-4 cuenta con aproximadamente 1,8 billones de parámetros, y la gran cantidad de datos recolectados plantea preocupaciones sobre la privacidad. Dado que estos sistemas se entrenan con conjuntos de datos tan extensos—frecuentemente extraídos de Internet u otros repositorios masivos—resulta complejo asegurar que no se haya incluido información privada o personal, y en caso afirmativo, si se contó con el consentimiento para utilizarla.

Además, las canalizaciones de IA, desde la recopilación de datos hasta la entrega de aplicaciones, están mayormente automatizadas, lo que dificulta identificar problemas de privacidad a menos que incorpores protecciones desde el diseño del sistema. Debes prever posibles problemas con antelación, porque un descuido puede tener consecuencias relevantes en la privacidad que resultan complicadas de corregir después. Si se usaron datos personales en un conjunto de entrenamiento y la persona solicita borrarlos, ¿qué implica eso para el modelo de IA?

La IA, por naturaleza, identifica patrones con gran precisión, por lo que un sistema de IA puede combinar datos no relacionados para hacer inferencias muy exactas sobre la información privada de una persona. La IA no se limita a memorizar, sino que aprende las correlaciones, lo que incrementa el riesgo de que el modelo pueda deducir la identidad de alguien a partir de una combinación de características o reconstruir datos fragmentados para recuperar información sensible.

Estos problemas generan preocupaciones éticas y regulatorias importantes, incluso si los datos del sistema de IA están anonimizados.

Problemas de privacidad en datos de IA

La sociedad está muy preocupada por la privacidad, pero desconoce cómo protegerse efectivamente. Según Pew Research, el 70% de los estadounidenses no confía en que las empresas usen la IA de forma responsable, y el 81% cree que las organizaciones emplearán su información personal de maneras que les causarían incomodidad. La encuesta revela que el 78% confía en su propio criterio para proteger su información personal, aunque el 56% suele aceptar políticas de privacidad en línea sin leerlas previamente.

Las opiniones públicas sobre el uso de datos personales por IA varían mucho según el contexto. De acuerdo con el mismo informe de Pew Research, solo el 28% acepta que la IA decida la elegibilidad para asistencia pública, mientras que un 42% no ve problema en que un altavoz inteligente analice voces para identificar a cada usuario.

Las organizaciones deben tener en cuenta tanto los requisitos regulatorios sobre IA y privacidad de datos como la percepción y confianza del público respecto al uso de datos personales.

Cómo la IA genera riesgos en la privacidad

Los sistemas de IA enfrentan riesgos de privacidad de datos en todo su ciclo de vida, y debes comprender y abordar estos riesgos en cada etapa de desarrollo e implementación para garantizar un uso ético y seguro de los datos de IA.

  • Captura de datos.  Los modelos de IA necesitan conjuntos de datos masivos para entrenarse, y la recolección de datos suele ser el momento de mayor riesgo para la privacidad, sobre todo cuando manejamos datos sensibles como información médica, financiera personal o biométrica. Es posible que los datos personales se hayan obtenido sin el consentimiento adecuado o de manera poco transparente para las personas.
  • Entrenamiento del modelo de IA. Durante el entrenamiento, un modelo de IA aprende patrones a partir de los datos que recibe.  Aunque se recopilen datos personales con consentimiento, los modelos de IA pueden usar esos datos para fines distintos a los originales. Esta etapa plantea inquietudes sobre la confianza y la transparencia, especialmente si siente que le han informado mal o no le han explicado cómo los sistemas de IA usan sus datos. Por ejemplo, puede estar de acuerdo en que una organización acceda a sus datos para la gestión de cuentas, pero no habría consentido compartir su información si supiera que se utiliza para entrenar un sistema de IA.
  • Motor de inferencia. La etapa de inferencia es cuando el modelo de IA entrenado se utiliza para generar información o predicciones a partir de nuevos datos. Los riesgos para la privacidad surgen aquí porque Los sistemas de IA pueden realizar inferencias muy precisas sobre individuos basándose en información anónima y aparentemente inofensiva, o pueden revelar o amplificar sesgos que existían en los datos de entrenamiento. Esta situación es similar a la inteligencia de fuentes abiertas (OSINT), la práctica de recopilar inteligencia de fuentes disponibles públicamente. OSINT desempeña un papel vital en la ciberseguridad, la detección de amenazas, las investigaciones y la investigación competitiva al convertir datos abiertos en información estratégica. Sin embargo, OSINT no implica acceso no autorizado ni piratería, solo la recopilación de datos que estén legalmente y públicamente disponibles.
  • Capa de aplicación. Las aplicaciones de IA son un objetivo atractivo para hackers, ya que constituyen la parte más visible y accesible de un sistema de IA. Los atacantes pueden aprovechar las API o servicios web para acceder a grandes volúmenes de datos sensibles. Las aplicaciones de IA también pueden revelar datos sensibles a usuarios legítimos por una gestión deficiente de los accesos, mensajes de error demasiado explícitos o respuestas de IA excesivamente detalladas.

Riesgos para la privacidad de la IA generativa

Los sistemas de IA generativa, como los LLM usados para crear texto, imágenes, código o audio, conllevan niveles especialmente altos de riesgo para la privacidad de los datos. La mayoría de los modelos de IA se entrenan con conjuntos de datos recopilados de internet público, muchas veces sin contar con permiso explícito ni consentimiento informado de sus fuentes o creadores de contenido. Además, esos datos recopilados pueden incluir información personal identificable, que el sistema de IA generativa podría divulgar durante su proceso de inferencia.

Las aplicaciones de IA generativa, especialmente los asistentes de escritura públicos, chatbots y generadores de imágenes, suelen ser interactivas y accesibles a través de la web. Esto las hace vulnerables a las inyecciones de prompt, donde atacantes crean entradas para manipular el comportamiento del modelo, evitar controles o engañar a la IA para que genere contenido restringido, ofensivo o confidencial. Además, los usuarios pueden introducir información personal o sensible en herramientas de IA sin darse cuenta de que esos datos pueden almacenarse en el sistema y usarse para entrenar o ajustar futuros modelos, lo que expone la información a posibles fugas accidentales.

Estos dos factores generan escenarios de alto riesgo, donde un LLM entrenado con contenido sin consentimiento o sensible podría reproducir esa información y revelar datos personales, o donde tú podrías enviar sin querer datos sensibles en los indicios, exponiéndolos a accesos no autorizados o usos indebidos.

Leyes sobre la privacidad de la IA

Con la aceleración en la adopción de IA, los gobiernos crean o modifican leyes para gestionar los riesgos de privacidad de datos vinculados a los sistemas de IA, especialmente los que utilizan o almacenan datos personales o sensibles. Actualmente, 144 países han aprobado leyes nacionales de privacidad de datos, mientras que otros países, como Estados Unidos, cuentan con una variedad de leyes locales sobre privacidad de datos. No todas estas regulaciones de privacidad de datos son específicas para IA, pero la mayoría de los sistemas de IA deben cumplir con ellas.

Ejemplos de leyes de privacidad de datos incluyen los siguientes.

  • Reglamento General de Protección de Datos de la Unión Europea (RGPD)
    El RGPD exige que recojas y uses los datos personales de forma justa, transparente y para fines claramente definidos en el momento de la recogida. Debes limitar la recogida de datos a lo estrictamente necesario, asegurarte de conservarlos solo el tiempo imprescindible y establecer medidas rigurosas para mantenerlos seguros y confidenciales. Aunque el RGPD no menciona explícitamente la inteligencia artificial, cualquier sistema de IA que recoja, procese o almacene datos personales debe cumplir estrictamente sus principios, garantizando un manejo responsable de los datos durante todo el ciclo de vida de la IA.
  • Ley de Inteligencia Artificial de la Unión Europea
    La Ley de IA de la UE es el primer marco regulatorio integral del mundo para la inteligencia artificial creado por un organismo gobernante de gran relevancia. Prohíbe las aplicaciones de IA que representan un "riesgo inaceptable", como la puntuación social gestionada por gobiernos o la recopilación indiscriminada de imágenes faciales mediante grabaciones de CCTV. Además, impone estrictas obligaciones legales a los sistemas de IA "de alto riesgo", incluidas las herramientas usadas para revisar CVs durante procesos de selección. Quienes desarrollan sistemas de IA de alto riesgo deben aplicar prácticas rigurosas de gobernanza de datos, asegurando que los conjuntos de datos para entrenamiento, validación y pruebas cumplan estándares de calidad establecidos.
  • Regulaciones estatales de EE. UU.
    La Ley de Privacidad del Consumidor de California (CCPA) y la Ley de Privacidad y Seguridad de Datos de Texas otorgan a las personas mayor control sobre sus datos personales. Estas leyes consagran derechos clave, como saber cómo las organizaciones recopilan, usan y comparten sus datos, solicitar la eliminación de información personal y rechazar la venta o compartición de esa información.

    La Ley de Política e Inteligencia Artificial de Utah aborda específicamente las aplicaciones generativas de IA de alto riesgo. Exige que los sistemas de IA ofrezcan divulgaciones claras cuando los usuarios interactúan con IA generativa, garantizando transparencia y una experiencia informada en entornos impulsados por IA.

El despacho White & Case publica AI Watch: Seguimiento global de regulación, un recurso útil para estar al día con las normativas de privacidad sobre IA.

Buenas prácticas para la privacidad en IA

A medida que los sistemas de IA aumentan en complejidad y alcance, resulta esencial proteger la privacidad de los datos durante todo su ciclo de vida. Estas prácticas recomendadas te ayudarán a cumplir normativas, mantener la confianza de los usuarios y minimizar riesgos.

  • Desarrolla políticas sólidas de gobernanza de datos. Las directrices completas deben abarcar la clasificación de datos, controles de acceso basados en roles, estrategias de seguridad de datos como la tecnología de cifrado y la seudonimización, auditorías regulares y cumplimiento con las normativas de privacidad de datos relevantes como el GDPR y la CCPA.
  • Limita la recopilación de datos. Recoge solo los datos necesarios para que el sistema de IA funcione según lo previsto. Reducir la cantidad de datos disminuye el riesgo de seguridad y cumple con numerosos requisitos legales de privacidad.
  • Solicita consentimiento explícito. Informa a los usuarios con claridad sobre cómo recopilaremos, usaremos y almacenaremos sus datos. Consigue siempre su consentimiento explícito e informado antes de tratar datos personales. Esta transparencia no solo es un requisito legal en muchas jurisdicciones, sino que también potencia la confianza de los usuarios.
  • Verifique la cadena de suministro de datos de entrenamiento. Confíe en que los conjuntos de datos de terceros empleados para entrenar modelos de IA sean confiables y cumplan con prácticas sólidas de privacidad de datos.
  • Sigue las mejores prácticas generales de seguridad de aplicaciones. Refuerza la base de tus sistemas de IA aplicando medidas comprobadas de seguridad de datos, que incluyen una gestión sólida de identidad y acceso, cifrado de datos en tránsito y almacenamiento, y anonimización para proteger la información personal.
  • Lleva a cabo evaluaciones de riesgo constantes. La gestión de riesgos no es un proceso puntual, y aún menos en IA, que evoluciona rápido y exige reevaluar periódicamente los riesgos sobre la privacidad. Evalúa de forma continua para detectar amenazas emergentes, asegurar el cumplimiento y actualizar las políticas de gobernanza cuando sea necesario.
  • Aprovecha el software para mejorar la protección de datos. Emplea herramientas inteligentes como la Plataforma de Prestación y Seguridad de Aplicaciones F5 para aumentar la visibilidad, reforzar el cumplimiento de la normativa de privacidad y supervisar en tiempo real los flujos de datos sensibles mediante aplicaciones de IA.
  • Evalúe las políticas de privacidad de proveedores y socios. Compruebe que todos sus socios tecnológicos y proveedores de servicios sigan prácticas sólidas de privacidad y seguridad de datos. Los datos de IA suelen circular en ecosistemas compartidos, por lo que la gobernanza de terceros resulta clave para reducir riesgos; consulte las declaraciones de privacidad de datos de F5.

Marcos para la gestión de riesgos de IA

Una característica común en las regulaciones específicas de IA es que exigen clasificar las aplicaciones de IA según sus niveles de riesgo. Este enfoque basado en riesgos permite a las organizaciones implementar las medidas de protección y supervisión adecuadas según el impacto potencial del sistema de IA.

Las aplicaciones de IA con alto riesgo pueden incluir:

  • Sistemas críticos para la seguridad, que usan la función de IA en infraestructura crítica, transporte o dispositivos médicos, donde un fallo puede poner en riesgo vidas o bienes.
  • Sistemas de empleo y educación, que utilizan herramientas de IA para la contratación, admisiones, evaluaciones de rendimiento o acceso a oportunidades educativas, donde los sesgos o errores pueden afectar de forma significativa los derechos y las expectativas de las personas.
  • Seguridad pública y aplicación de la ley, donde el uso de sistemas para reconocimiento facial, policías predictivos, vigilancia o valoración de riesgos puede generar dudas sobre libertades civiles y discriminación.
  • IA generativa accesible al público, cuando las aplicaciones que generan texto, imágenes o videos están abiertas directamente a los usuarios, especialmente en situaciones donde los resultados pueden influir en el comportamiento, propagar desinformación o revelar sin querer información sensible.

Estados Unidos El Instituto Nacional de Estándares y Tecnología (NIST) publicó en 2023 un Marco de Gestión de Riesgos de Inteligencia Artificial (AI RMF) que ofrece una guía práctica general para diversos sectores e casos de uso. Este marco puede resultar valioso para desarrolladores de aplicaciones de IA porque, en lugar de clasificar de manera amplia las categorías de alto riesgo, te orienta sobre cómo identificar el riesgo y cómo mitigarlo.

El núcleo del AI RMF se divide en cuatro funciones principales que reflejan un enfoque continuo y cíclico para gestionar los riesgos de la IA:

  1. Gobernar. Establece y supervisa las políticas, procesos, procedimientos y prácticas de la organización para fomentar un desarrollo responsable de la IA, garantizando transparencia y una implementación efectiva.
  2. Mapa. Analiza el contexto en el que operará el sistema de IA y valora todo el ciclo de vida de la IA para identificar riesgos e impactos potenciales en cada fase de su desarrollo.
  3. Medir. Evalúa, supervisa y cuantifica los riesgos e impactos de la IA con las herramientas, métricas y técnicas de evaluación adecuadas.
  4. Gestiona. Prioriza y actúa ante los riesgos, aplicando mitigaciones y controles para minimizar daños y maximizar resultados. Destina recursos para supervisar sistemas de IA, y para responder, recuperarte y comunicar incidentes.

Equilibramos innovación en IA y protección de datos

Con la rápida innovación en IA, lograr un equilibrio entre el avance tecnológico y la protección firme de la privacidad de los datos es fundamental. Las normativas actuales de privacidad entienden que es esencial permitir la innovación continua sin comprometer las garantías de seguridad y privacidad de tus datos.

Las leyes generales sobre privacidad de datos—como el RGPD y la CCPA—establecen un marco básico para gestionar la privacidad, incluso con la aparición de nuevas normativas específicas para la IA. Debes evaluar de forma constante cómo afectan a la privacidad tus sistemas de IA, especialmente cuando se desarrollan nuevas capacidades o aparecen casos de uso.

Evalúa constantemente las consideraciones de privacidad de la IA en tu organización y actualiza las políticas de gobernanza de datos regularmente para que se mantengan alineadas con las nuevas tecnologías, requisitos regulatorios y expectativas culturales.