No te fíes de ChatGPT: cada vez alucina más

No te fíes de ChatGPT: cada vez alucina más

Las respuestas de ChatGPT sorprenden cada vez más con sus nuevos modelos de razonamiento, pero hay un dato preocupante que mancha este progreso, y es que la frecuencia con la que el asistente "alucina" ha aumentado con cada salto de modelo.

No obstante, antes de empezar, debes saber que "alucinar" en el contexto de las inteligencias artificiales significa básicamente que te da como verdadero un dato inexistente.

Lo que hace el modelo exactamente es rellenar lagunas con afirmaciones que parecen correctas a partir de estadísticas, no de hechos contrastados. Sin embargo, es posible que te preguntes cómo puede pasar eso, si se supone que estos modelos son entrenados previamente, y ahí justo está el problema.

En los entrenamientos por refuerzo que se realizan a los modelos de IA, este recibe recompensas si su discurso parece útil, coherente o convincente, no necesariamente veraz.

Los nuevos modelos con razonamiento encadenado, como el reciente o3, producen cadenas internas de pasos lógicos antes de responder, los cuales puedes ver en la interfaz de ChatGPT.

Pues bien, cuantos más pasos haya, mayor es la probabilidad de que haya alucinaciones, ya que el sistema de recompensas comienza a alimentar hipótesis atractivas, pero falsas, como si de un efecto dominó se tratase.

Esto hasta 2024 no ocurría. Cada nueva versión de ChatGPT contenía menos alucinaciones, pero eso ha cambiado con los modelos o3 y o4-mini, en los que, lejos de bajar, han aumentado. Estos son los datos exactos:

  1. o3 alucina en el 33% de las preguntas, más del doble que o1 (16%) y o3-mini (14,8%).
  2. o4-mini alcanza el 48% de alucinaciones, casi la mitad de las respuestas.

OpenAI ha admitido que "se necesita más investigación" al respecto, y las soluciones sobre la mesa son las siguientes:

  1. Que los modelos de razonamiento integren un motor de búsqueda en todo momento para aumentar la precisión, aunque su rendimiento bajaría.
  2. Que se vincule la respuesta a fuentes verificadas antes de generarla. Así, el modelo tiene que citar evidencia y eso reduce la especulación.
  3. OpenAI ya filtra cadenas internas que puedan desembocar en contenido peligroso. Extender ese filtro a la veracidad podría ser la solución definitiva, aunque el coste computacional sería más alto.

Como puedes ver, no hay una solución clara por el momento para este problema, así que solo queda esperar a que OpenAI siga investigando.

Mientras tanto, si vas a usar modelos de razonamiento de ChatGPT y quieres evitar ser víctima de estas alucinaciones, te recomendamos que siempre pidas referencias del texto que te da para que puedas verificar la información.

Cómo crear stickers de WhatsApp con ChatGPT

Vía: TechCrunch

El Grupo Informático es un medio de comunicación digital especializado en tecnología, con análisis y noticias sobre móviles, informática y el mundo digital desde 2006. Conoce más sobre el equipo de El Grupo Informático y nuestra política editorial. Puedes seguirnos en Facebook, X, Instagram, WhatsApp, Telegram o recibirnos en tu correo para no perderte las últimas noticias de tecnología.
  • Ver Comentarios
Sobre el autor
Francisco Vicente
@fran_an_97 | LinkedIn

Amante a partes iguales de la escritura y la tecnología, la cual nunca para de avanzar y sorprendernos a un ritmo vertiginoso. ¡En 30 años hemos avanzado más que en un siglo entero! Cursé un Grado Superior en Desarrollo de Aplicaciones Multiplataforma (DAM). A nivel profesional, he trabajado como copywriter, revisor de calidad y especialista SEO. Poseo un amplio conocimiento informático, destacando en áreas como plataformas de streaming, aplicaciones y Android.