Obsérvese que no hay duda de que el sesgo existe: existe. Pero la pregunta más bien es: ¿cómo se introduce y por qué debería importarle al departamento de TI?
El revuelo en torno a la IA no podría ser mayor en estos momentos. El interés ha despertado, la demanda es abrumadora y todos se esfuerzan por encontrar “la aplicación estrella” para su mercado.
Pero debajo de toda esa propaganda se expresan también preocupaciones, y con razón. Es bastante sencillo introducir sesgos en la IA, y esos sesgos están generando alarmas en algunos círculos.
Para comprender cómo se introduce el sesgo en la IA, es necesario tener una comprensión básica de cómo se entrenan los modelos de IA.
Dependiendo de a quién le preguntes y de lo pedantes que quieran ser, obtendrás respuestas diferentes sobre la cantidad de métodos de aprendizaje diferentes que existen. Y, de hecho, los métodos, algoritmos y modelos que se utilizan hoy en día son amplios y, en muchos casos, incomprensibles para quienes no están profundamente familiarizados con ese campo. Pero es importante entender, a un alto nivel, cómo se entrenan los modelos porque en última instancia así es como se introduce el sesgo. Teniendo esto en mente, hay tres formas básicas de entrenar modelos de IA:
Bien, ahora vamos al verdadero tema: cómo se pueden introducir sesgos en estos sistemas.
La respuesta, y estoy seguro que ya la has descubierto, se basa en el hecho de que los humanos a menudo están involucrados en el proceso de entrenamiento.
La forma más fácil de sesgar el aprendizaje supervisado es envenenar los datos, por así decirlo, etiquetándolos incorrectamente. Por ejemplo, si estoy clasificando animales, etiquetar erróneamente un “perro” como “gato” puede resultar en una identificación errónea a una escala suficientemente alta. Un riesgo con el etiquetado es el etiquetado incorrecto intencional con el objetivo de corromper el resultado. Algunos errores de etiquetado son simplemente producto del juicio humano, como por ejemplo decidir si una pantera es un gato o si una estatua de un gato cuenta como un gato. Con el aprendizaje de refuerzo , recompensar positivamente la respuesta o el movimiento “incorrecto” en un juego podría potencialmente resultar en un sistema que dé intencionalmente respuestas incorrectas o siempre pierda.
Lo cual para algunas personas podría ser una opción atractiva.
Obviamente, esto tiene implicaciones para la IA conversacional (generativa) como ChatGPT, que, según su sitio, se afinó mediante “aprendizaje supervisado y aprendizaje de refuerzo” que “utilizó entrenadores humanos para mejorar el rendimiento del modelo”. Cuando elige la opción “arriba” o “abajo” para clasificar las respuestas, esos datos pueden usarse potencialmente para ajustar aún más su modelo. Tú, querido lector, supongo que eres humano. Por tanto, existe el potencial de sesgar aún más el sistema. La realidad es que ChatGPT a menudo se equivoca rotundamente en sus respuestas. La retroalimentación es necesaria para entrenar aún más el sistema para que pueda generar la respuesta correcta con mayor frecuencia.
Eso es interesante (podríamos tener una conversación fascinante sobre las formas en que podríamos manipular esos sistemas y las consecuencias), pero la verdadera razón por la que quería explorar este tema es porque el problema del sesgo se extiende a la telemetría, los datos operativos que todos queremos usar para impulsar la automatización de los sistemas y servicios que brindan y protegen los servicios digitales.
Quizás recuerdes que he escrito sobre el tema del sesgo de datos en relación con la telemetría y los conocimientos que el 98 % de las organizaciones carecen.
En la mayoría de los casos relacionados con el análisis de telemetría, los modelos se entrenan utilizando datos etiquetados. Se puede introducir un sesgo en ese sistema por (a) etiquetar incorrectamente los datos o (b) no tener suficiente diversidad de datos en una categoría específica o (c) el método utilizado para introducir nuevos datos. La razón por la que el etiquetado incorrecto de los datos resulta problemático debería ser obvia: en cantidades suficientemente grandes, puede dar lugar a una identificación errónea. El problema con la diversidad de datos es que los datos que quedan fuera de un conjunto de entrenamiento tan estrecho inevitablemente se clasificarán erróneamente.
Un ejemplo clásico de esto fue un modelo de IA entrenado para reconocer tanques frente a otros tipos de transporte. Resulta que todos los tanques fueron fotografiados a la luz del día, pero los demás vehículos no. Como resultado, la IA hizo un gran trabajo comparando tanque versus no tanque, pero en realidad estaba correlacionando día versus noche. La falta de diversidad en el conjunto de entrada provocó una correlación sesgada.
Incluso si una IA operativa se basa en el aprendizaje de refuerzo, la falta de diversidad de datos es problemática porque el sistema no tiene todas las “variables” necesarias para determinar el “próximo movimiento”, por así decirlo.
La razón por la que una IA podría no tener un conjunto diverso de datos o todas las variables que necesita es, como ya habrás adivinado, el sesgo de datos. En concreto, el sesgo de datos introducido por la monitorización selectiva, en la que sólo *algo* de telemetría se incorpora para su análisis. Por ejemplo, el impacto del rendimiento del DNS en la experiencia del usuario es bien comprendido. Pero si un modelo se entrena para analizar el rendimiento de una aplicação sin telemetría del DNS, podría afirmar que el rendimiento es correcto incluso si hay un problema con el DNS, ya que desconoce que el DNS esté relacionado de alguna manera con el rendimiento integral de la aplicación. Si el siguiente paso es alertar a alguien sobre una degradación del rendimiento, el sistema fallará debido a un sesgo en la selección de datos.
No le sorprenderá si le digo que nuestra investigación anual descubrió que más de la mitad de todas las organizaciones citan los “datos faltantes” como uno de los principales desafíos para descubrir la información que necesitan.
Por lo tanto, incluso si todas las organizaciones se comprometieran a aprovechar la IA para impulsar decisiones operativas, esto presentaría un desafío. Sin un conjunto de datos diverso con el cual entrenar dicho sistema, existe la posibilidad de que se produzcan sesgos.
Una tercera forma en que se puede introducir sesgo es en los métodos utilizados para introducir datos en el modelo. El ejemplo operativo más común de esto es utilizar los resultados de pruebas sintéticas para determinar el rendimiento promedio de una aplicação y luego utilizar el modelo resultante para analizar el tráfico real. Dependiendo de la amplitud de las ubicaciones, dispositivos, congestión de la red, etc. que forman el conjunto de datos de las pruebas sintéticas, un rendimiento perfectamente aceptable para usuarios reales podría identificarse como una falla, o viceversa.
El riesgo es una erosión de la confianza en la tecnología para actuar como multiplicador de fuerza y permitir la escala y la eficiencia necesarias para que las organizaciones operen como un negocio digital. Porque si la IA sigue dando respuestas “incorrectas” o sugiriendo soluciones “incorrectas”, bueno, nadie va a confiar en ella.
Es por esto que la observabilidad de pila completa no solo es importante, sino una de las seis capacidades técnicas clave necesarias para que las organizaciones progresen a la tercera fase de la transformación digital : Negocios asistidos por IA.
La falta de datos, ya sea debido a un monitoreo selectivo o a una selección arbitraria de métricas, tiene el potencial de sesgar los modelos de IA que se utilizan para impulsar decisiones operativas.
Una atención cuidadosa a las fuentes y tipos de datos, junto con una estrategia integral de datos y observabilidad, contribuirá en gran medida a eliminar sesgos y producir resultados más precisos y confiables.