
Sin duda estamos saboreando la nueva forma de aprender y explorar el conocimiento con las versiones de inteligencia artificial (IA) que empiezan a tenerse a la mano en los buscadores de internet. Como es lo común, estamos en la fase de altas expectativas y muchas personas pueden estar considerando como un sustituto a su forma tradicional de investigación el simplemente preguntar sus inquietudes en lenguaje natural a estos modelos y tomar como un hecho la información que nos responden.
La realidad es que esta es sin duda uno de los riesgos más delicados hoy en día, ya que pueden provocar malas tomas de decisiones, errores muy graves y hasta pérdidas económicas si se toma como la verdad más pura todo lo que es un resultado a nuestras preguntas. El tema que más me preocupa es el de las comúnmente llamadas “alucinaciones”.
¿Cuándo ocurre una alucinación en IA?
Esto sucede de forma muy simple, cuando el resultado que nos da la IA es muy diferente a lo esperado. Sucede cuando solicitamos por ejemplo una imagen con ciertas características y el sistema nos arroja algo dramáticamente raro y diferente. O cuando preguntamos algo y nos dice algo que no hace gran sentido. Esos son los casos fáciles… Pero hay ocasiones en las que preguntamos y la respuesta es muy clara, pero está equivocada.
A mí me sucedió por ejemplo cuando le pedí la elaboración de un menú de 7 días de diferentes comidas que tenían ciertas restricciones alimenticias y la IA no consideró el contexto de mi caso, arrojando un menú con ingredientes no permitidos. Cuando “confronté a la IA” el resultado fue una disculpa, que tenía razón y entonces cambió los ingredientes para usar los permitidos. El problema es que, si no me daba cuenta de esto o simplemente no sabía que esos ingredientes no se permiten en mi caso, simplemente no lo hubiera sabido y hubiera sido catastrófico el resultado.
En conclusión, una alucinación es una respuesta muy asertiva que no es correcta y si se toma como real, puede provocar problemas desde muy simples a catastróficos. En otras palabras, las alucinaciones son resultados erróneos que están muy alejados de la realidad o no hacen sentido con el contexto de lo que se está solicitando.
¿Por qué suceden las alucinaciones?
La palabra clave aquí es distorsión. Sea en imágenes o datos, en el proceso de aprendizaje se le enseñó a la IA a considerar un dato que de origen no era adecuado y al procesarlo en el aprendizaje la IA lo tomó como algo válido. En otras ocasiones, hay imprecisiones en la forma de procesar la información en el aprendizaje de máquina (machine learning) y se establece un conocimiento que es equivocado.
En general, si un sistema de IA es entrenado con fuentes de datos insuficientes o imprecisas se puede garantizar que tratará de construir información con esas fuentes y sus conclusiones no serán adecuadas.
¿Se pueden identificar las alucinaciones en la IA?
En general, pueden verse errores gramaticales o que al leerse no está bien escrito en términos gramaticales, o no es consistente con lo que se preguntó son algunos indicadores que pueden dejarnos saber que la IA está alucinando.
En el caso de imágenes simplemente los componentes esperados no están incluidos y claramente tuvo la IA que presentar algo que en su lógica era “parecido” pero está fuera de todo contexto.
Si se trata de vehículos con la capacidad de conducción autónoma el panorama es más delicado. Normalmente la IA de un vehículo alucina cuando frena o acelera sin razón o se empieza a mover a un lugar que no hace sentido.
Conclusión: ¿Como reducir las alucinaciones?
En estas etapas tempranas de la incorporación de la IA a nuestras vidas, debemos de ser cuidadosos pues al ofrecer este tipo de sistemas a nuestros clientes, proveedores o internos puede incurrirse en riesgos legales, de cumplimiento o peor aún catástrofes médicas o riesgos personales. Una de las formas más simples de evitar alucinaciones es que, al formular nuestra duda se le asigne un rol a la IA. No es lo mismo pedirle, por ejemplo, preguntar por la vida de una persona y que la IA nos responda lo que “tenga” a decirle: “eres el biógrafo de tal persona, ¿Qué me puedes decir de su vida? Y en este caso, si no tiene información nos lo hará saber, por dar un ejemplo.
En otros casos simplemente aclarar lo que se desea y en la misma consulta indicar lo que NO se desea puede evitar alucinaciones
Finalmente, es importante emplear el sentido común. Si algo no suena lógico o correcto, es por que no lo es, y entonces debemos de buscar de manera tradicional la información y usar nuestra propia inteligencia.