Aspectos peligrosos de la inteligencia artificial

Es claro que 2023 es el año en el que una buena cantidad de usos prácticos de inteligencia artificial (IA) está en la mente de empresarios, ejecutivos y especialistas de tecnología.

Sin duda nos está haciendo más productivos y nos está a la vez simplificando labores que antes consumían mucho tiempo y esfuerzo y además eran situaciones monótonas o muy repetitivas.

Sin embargo, como cualquier tecnología, la IA puede tener ciertos riesgos y problemas, por lo que considero importante desde una perspectiva funcional para una persona con trabajo ejecutivo o empresarial el cuando menos conocer formas en las que la IA puede ser de uso delicado.

Sesgo por confianza

Muchas personas consideran que si algo es producto de IA ya tiene embebido el ser preciso y profesional. Y al igual que fue en su tiempo el caso con cualquier información proveniente de internet, sucedía que las personas tomaban como cierto lo que se consultara en internet o sus buscadores, ahora la IA es una nueva versión de certeza injustificada.

Mi recomendación es que, si se consultan herramientas de IA para crear fuentes de conocimiento, éstas no deben de tomarse como ciertas sin ningún tipo de demostración, por el contrario, debe de ser meramente una referencia más y hacer un ejercicio comparativo con otras fuentes de conocimiento.

Privacidad en riesgo

¿Recuerdas esas aplicaciones que modifican tu cara para convertirte en imágenes de tu persona siendo un super héroe, astronauta o simplemente embellecerte? La mayoría no lee lo que estás permitiendo al emplear estas aplicaciones o filtros. Lo normal es que este es el mejor mecanismo para estos sistemas de recolectar una inmensa cantidad de rostros humanos, para posteriormente interpretarlos y generar otro tipo de aplicaciones con tu cara como una de las muchas otras muestras. Ahora piensa que, tu cara en paralelo es empleada para sistemas biométricos de reconocimiento facial. Si por alguna razón se pierde tu información y/o esta se comercializa y vende a terceros, pueden vulnerar tu privacidad e incluso tu seguridad personal.

Resultados inesperados

En ciertos casos y en especial en aprendizaje de máquina o “machine learning” pueden empezar a resolver situaciones que carezcan del sentimiento humano, sin emociones o sentido común, lo cual puede producir resultados inesperados o tomar decisiones que sean socialmente inaceptables. De allí que parte de lo que debe de incluirse en este tipo de sistemas es una disciplina metódica de pruebas, validaciones y monitoreo constante mucho antes de ser liberados al público en general para entonces hacer correcciones antes de que salgan fuera de control y provoquen daños irreversibles.

Manipulación y desinformación

En este episodio toqué en detalle cómo la inteligencia artificial mediante el “Deep fake” ha ayudado a los estafadores a lograr su trabajo más fácil (presiona aquí si deseas leer ese post). Podemos ver que este tipo de tácticas facilitan la generación de contenido falso y por consecuencia la manipulación de la opinión pública.

Tenemos que entender que la desinformación es un gran negocio y gracias a estas herramientas está creciendo muy rápido. Hoy vemos como ciertos bots pueden responder a información publicada o incluso sembrar información que desbalancea las noticias reales, pudiendo provocar pánico, reacciones financieras drásticas y hasta el levantamiento de segmentos de la población para hacer actos violentos.

Armamento con IA

Ya desde mediados de los años 80 la IA permitía a sistemas de cohetes identificar objetivos y asegurarse de que se debía de destruir a pesar de emplear señuelos y distractores. Peor aún son los sistemas pensados para tomar una acción de destrucción si se considera que las personas que debían de tomar esa orden ya están muertas. En general, en los sistemas de guerra, la IA se emplea en sistemas autónomos de combate casi siempre en drones y pueden tomar acciones por si mismos.

Asimismo, la IA analiza una inmensa cantidad de imágenes e información para buscar coincidencias y decidir el mejor sitio a atacar.

De manera defensiva la IA puede funcionar para identificar amenazas y decidir medidas de protección incluso antes de que se geste una oportunidad.

Si esto evoluciona, puede optarse por liberar cada vez más decisiones a la IA, lo cual puede provocar acciones violentas preventivas que no deben de ser la última alternativa.

Conclusiones

Definitivamente no solo la IA, cualquier tecnología mal empleada puede ser muy peligrosa. La clave está en las personas que programan estas tecnologías. En la medida en la que las definiciones de la aplicación sean coherentes y se potencie el trabajo, podremos ver muchos y mejores resultados en lo referente a productividad y precisión.

Muchos empleos desaparecerán, pero más empleaos se crearán para dar soporte y servicio a la tecnología. La clave siempre estará en adaptarlos para un mejor futuro e impacto para la sociedad.


Deja un comentario