Casi todas las encuestas que buscan comprender las preocupaciones de la industria con respecto a la IA agrupan todo bajo el título de “seguridad”. Desde las preocupaciones por la fuga de datos sensibles hasta las alucinaciones y los sesgos , desde la explotación mediante inyección rápida hasta la transparencia y la explicabilidad, parece que todo es responsabilidad de la seguridad cuando se trata de IA.
Cada una de estas preocupaciones es válida e importante, pero son todas muy diferentes y la mayoría de ellas no son responsabilidad de la seguridad.
Hoy vamos a profundizar en la transparencia y la explicabilidad, dos conceptos cruciales para comprender y poner en práctica cuando se trata de usar IA en su negocio. Esto no se debe sólo a que son formas de establecer confianza en el sistema y los resultados; ambos también respaldan la resolución de problemas y la depuración de los sistemas, especialmente durante el desarrollo.
La transparencia y la explicabilidad son conceptos fundamentales en general, pero especialmente aplicables a la IA, dado que la mayoría de los profesionales, incluso dentro de TI, no están familiarizados con el funcionamiento de estos sistemas. Ambos conceptos se discuten a menudo en el contexto de la IA ética, la IA responsable y la gobernanza de la IA. Aunque están estrechamente relacionados, tienen significados distintos y cumplen distintas funciones para comprender y gobernar los sistemas de IA.
La transparencia se centra en proporcionar información general a una audiencia amplia, incluidas las partes interesadas y el público, sobre el sistema de IA. La explicabilidad es más específica y busca aclarar decisiones o resultados individuales a los usuarios, desarrolladores y partes interesadas que necesitan comprender su comportamiento.
La transparencia se centra en promover la confianza en el sistema, mientras que la explicabilidad se ocupa de establecer confianza en resultados específicos. Para lograr esto, la transparencia y la explicabilidad se centran en diferentes elementos.
La transparencia en IA se refiere al grado en que la información sobre el diseño, el funcionamiento y los procesos de toma de decisiones de un sistema de IA son abiertos, accesibles y comprensibles para las partes interesadas. Se enfatiza la comunicación clara y la visibilidad de cómo funcionan los sistemas de IA, lo que permite a las partes interesadas comprender varios aspectos del sistema.
Los elementos clave de la transparencia de la IA incluyen:
La explicabilidad en IA se refiere a la capacidad de proporcionar razones o justificaciones comprensibles para las decisiones, los resultados o el comportamiento de los sistemas. Se enfatiza en explicar por qué se tomó una decisión particular, centrándose en hacer que los resultados de IA sean comprensibles para los usuarios y las partes interesadas.
Los elementos clave de la explicabilidad de la IA incluyen:
Cada nueva tecnología requiere tiempo para generar confianza. Hace quince años, nadie confiaba en el escalamiento automático de aplicações críticas, pero hoy se espera que sea una capacidad fundamental. La automatización de cualquier tipo, ya sea resolver problemas matemáticos complejos, conducir su automóvil o pagar sus facturas, requiere tiempo para que los usuarios confíen. La transparencia sobre el proceso y la explicación de cómo funciona el sistema pueden contribuir en gran medida a acortar la brecha entre la introducción y la adopción.
La transparencia proporciona una visión amplia del funcionamiento del sistema de IA, mientras que la explicabilidad profundiza en las razones detrás de decisiones o resultados específicos. Ambos son fundamentales para que la IA tenga éxito y las empresas obtengan sus beneficios para un mejor servicio al cliente, una mayor productividad y una toma de decisiones más rápida.
Y tampoco son competencia de la seguridad.