“Puede fallar”: la inteligencia artificial todavía tiene mucho por mejorar
Como ocurriera en los 90 con Tusam, Google tuvo que admitir que “puede fallar”, al presentar a Gemini
Por Pablo Hamada (*)
Colaboración
Cuando la televisión monopolizaba todavía la atención de las familias argentinas, hubo un hombre que cautivó por su misterio y destreza el horario central de los programas. Tu Sam o Tusam fue un ilusionista que desde fines de los años sesenta comenzó a crecer en el mundo del espectáculo hasta convertirse en una especie de Houdini argentino, capaz de desaparecer, levitar e hipnotizar a quien quisiera su voluntad.
Tusam corrió los límites de lo que parecía posible en términos físicos, desafió las leyes de la gravedad y la psiquis hasta que un día precipitó su ocaso. Puso en riesgo nada más y nada menos que a su hijo, Leonardo, quien con 17 años colaboraba en sus actos de ilusionismo frente a las cámaras.
Esa noche de noviembre de 1990, en Finalísima, Tusam casi mató a su colaborador más cercano, en un truco en el que el joven debía aguantar la respiración en una cápsula llena de agua. Al minuto 2:14 de la prueba, Leonardo dio varios martillazos desde dentro de la cápsula como señal de alerta de que se quedaba sin oxígeno. “Emergencia”, se escuchó al aire y el truco se cortó inmediatamente. Junto con él, la señal de Canal 9 se opacó al instante y al regresar, Tusam admitió: “Puede fallar”. La frase se inmortalizó, pero al mismo tiempo cubrió de humanidad al hombre que parecía, de verdad, dominarlo todo.
Google lo admitió
La semana pasada, fue Google quien tuvo que admitir que también “puede fallar”. Y quien se quedó casi sin oxígeno fue su obra más prometedora, Gemini, su chatbot de inteligencia artificial más reciente y con el cual quiere detener el crecimiento de ChatGPT. Según la empresa, se trata del modelo de IA más potente hasta la fecha. Presentado el año pasado y relanzado con su nuevo nombre a principios de febrero, Gemini promete cambiar la forma en la que utilizamos este tipo de asistentes pero al mismo tiempo quiere transformar el modo en el que buscamos en la web. Es decir, el propio Google admite que el corazón central de su modelo de negocio, basado en las búsquedas, está por cambiar y serán los chats los que ampliarán sus posibilidades, sin reemplazarlas del todo.
Entre las habilidades que tenía Gemini estaba la de crear imágenes a partir de instrucciones del usuario, pero dichas funciones pasaron a cuarto intermedio luego de que un usuario de X (anteriormente Twitter) publicara imágenes del resultado que ofreció la IA. Las instrucciones fueron “generar una imagen de un soldado alemán de 1943″ y el resultado fueron dos mujeres de color con el uniforme nazi. Google decidió pausar la generación de fotos y pidió disculpas por las ”imprecisiones en algunas representaciones de generación de imágenes históricas”. El traspié le costó a la empresa 90.000 millones de dólares en acciones y Sundar Pichai, el CEO de la compañía, calificó los errores como “ completamente inaceptables”.
Este millonario error tuvo origen en un riesgo común que comparten las IA generativas relacionado con su entrenamiento y la producción de sesgos. Es decir, determinadas huellas que dejan los creadores de dichas tecnologías basadas en sus decisiones y visiones del mundo, que nunca son universales. Así, las IA reproducen determinados estereotipos y prejuicios en sus resultados. Pero el problema fue mayor porque Google quiso añadir una capa de inclusividad para evadir justamente estos prejuicios raciales o de género. La solución fue peor que el problema.
Así como a Leonardo, Google sacó rápidamente el error de escena. Admitió como Tusam que hasta las más avanzada tecnología puede fallar y prometió trabajar intensamente para solucionar su producto para que sea seguro. El problema es que Google se enfrenta también a una cápsula oscura y con poco oxígeno. Las IA son entrenadas con grandes volúmenes de datos pero luego operan con algunos grados de incertidumbre que los expertos llaman “caja negra”, la cual produce respuestas o habilidades inesperadas. A diferencia de las tecnologías que hasta ahora conocíamos, aquí no podemos controlar todos los resultados posibles de sus capacidades. Y eso, dicen los especialistas, es de verdad un problema y un riesgo.
Será responsabilidad de quienes regulen los avances de la IA dimensionar la capacidad creativa de su poderío para que en un futuro, no muy lejano, tengamos control de sus actos y no seamos solo testigos de actos de ilusionismo.///
(*) Periodista
Comentarios
Para comentar, debés estar registrado
Por favor, iniciá sesión