Mientras se habla de la llegada de una AGI (inteligencia artificial general) capaz de superar al ser humano, la realidad de esta tecnología es bastante más modesta. Hemos retado a la IA a juegos propios de niños, y ha demostrado lo mucho que le falta por avanzar.
La inteligencia artificial actual, basada en modelos generativos, es un sofisticado sistema para remezclar información de Internet, nada más. La supuesta capacidad para razonar, ser creativa o tomar decisiones justificadas se vislumbra todavía muy lejos.
Por eso hemos retado a ChatGPT a identificar logos de marcas. Un juego con una dificultad propia de niños pequeños, en el que describimos los elementos visuales clave en cada logo mediante texto.
Hemos utilizado el actual modelo GPT-4o, que debería ofrecer los mejores resultados. Algunos logos los ha identificado muy bien, pero en otros fracasa estrepitosamente, y muestra una considerable desconexión del mundo real.
Hemos comenzado por el león naranja del banco ING, que es muy conocido:
La respuesta es desconcertante, pues Lionsgate no usa un león en su logo desde hace 20 años. Esto es lo que afirma ChatGPT:
Respecto a que el "león simboliza fuerza y poder", parece información genérica sacada de Internet, que ChatGPT ha asociado a Lionsgate sin ningún tipo de justificación.
Vamos con el archiconocido logo de Firefox, con un zorro rojo alrededor de un círculo azul, que podría confundirse con la esfera terrestre:
ChatGPT cree que es el logo de Fox o 20th Century Fox, mostrando una cierta fijación con el mundo del cine. También un grave problema de semántica, pues parece que la palabra "fox" tiene parte de la culpa del error.
Es curioso que, si mencionamos una bola azul, en vez de la bola del mundo, sí acierta con el logo correcto. Efectivamente, el logo de Firefox no busca representar el planeta Tierra, pero es habitual pensarlo a primera vista.
Dada la afición de ChatGPT por el cine, la siguiente marca es DreamWorks, la productora de cine de Steven Spielberg. Emplea un imaginativo logo donde un niño pesca sentado en la luna:
La respuesta de ChatGPT es bastante absurda. Existe una pequeña marca española de miel que utiliza el nombre de "Luna de Miel", pero su logo no tiene nada que ver con el descrito.
De nuevo, el problema parece la semántica, pues ha forzado la inclusión de la palabra "luna" en el nombre de la marca.
Por último, vamos con el logo de la Wikipedia, que es muy conocido, y cuya descripción resulta bastante característica:
Otra respuesta sin ningún sentido, pues Sony nunca ha tenido un logo de este estilo. No sabemos de dónde ha sacado ChatGPT la información, pero está claro que un ser humano nunca cometería un error así.
No sabemos si se está confundiendo con el logo de PlayStation, formado por las letras P y S entrelazadas, pero tampoco tendría mucho sentido.
Mención aparte merecen las pobres explicaciones de los logos, que parecen sacadas del manual de marketing más genérico que uno se pueda imaginar.
Obviamente, tienen que ser inventadas, pues ChatGPT en ningún momento identifica bien el logo, así que mucho menos puede interpretar qué intenta trasmitir.
ChatGPT solo reescribe ideas (muchas veces, sin sentido)
La posibilidad de una inteligencia artificial capaz de razonar no deja de aparecer en los medios de comunicación. Hace poco que conocimos OpenAI o1, un modelo que dedica más tiempo de proceso a las respuestas, diseñado para la ciencia, matemáticas y programación.
La realidad es que la IA se limita a reelaborar el contenido con el que ha sido entrenada, y eso impide que sea verdaderamente inteligente.
Cuando le facilitamos unos datos cerrados sobre los que trabajar nos puede ahorrar mucho tiempo, pero en cuestiones generales no existe esa posibilidad. Básicamente, los datos vienen de Internet, y la IA no tiene criterios para comprobar su fiabilidad.
Es uno de los grandes problemas de la IA, que llega a dar respuestas muy profundas, y con una amplia justificación, que son completamente inventadas. Como un gran charlatán, que inventa sobre temas de los que no tiene ni idea.
Por no hablar de que la IA cada vez se está entrenando con más contenido generado por otra IA, lo que supone un gran riesgo para la calidad de los modelos futuros.
Hace unos meses supimos que Microsoft justificaba el robo de contenido para entrenar la IA. Es decir, no quiere pagar a quienes hacen posible que funcione su tecnología, lo que terminará por reducir la creación de contenido original, y llevarnos a una IA alejada de la actualidad del mundo real.
En resumen, la prometedora IA falla incluso en un sencillo juego para niños. Desde luego, las posibilidades de la inteligencia artificial son enormes, pero tiene aún un largo camino por recorrer.
Trucazo: cómo tener ChatGPT, el chat de inteligencia artificial, en WhatsApp
- Ver Comentarios