Cuidado con ChatGPT: OpenAI reconoce que es persuasivo y puede generar dependencia emocional
OpenAI ha lanzado recientemente un informe de seguridad en el que, entre otros temas, ha sacado a la luz una cuestión que quizá hayamos intuido alguna vez, pero que no nos hemos llegado a plantear, y es la persuasión de ChatGPT y la dependencia emocional que nos puede causar como usuarios.
Esta cada vez menos hipotética dependencia podría llegar a hacerse más palpable cuando se lance el modo avanzado de voz de ChatGPT, el cual lo hace sonar más humano.
Además, este modo de voz interactúa con los humanos de una manera más natural y fluida, casi como si estuvieran conversando con otra persona, y aunque esto es motivo de entusiasmo por la innovación que supone, también lo es de preocupación.
Según el informe de OpenAI, durante las pruebas iniciales, se observó que algunos usuarios empezaron a emplear un lenguaje que sugiere la formación de vínculos emocionales con el chatbot.
Se menciona concretamente la frase "Este es nuestro último día juntos" y similares. Obviamente, al leer esto, uno podría tomárselo a broma y no darle demasiada importancia, pero OpenAI no ve broma alguna en este asunto.
La preocupación de la compañía radica en que estos vínculos, aunque puedan parecer inofensivos a corto plazo, podrían tener efectos a largo plazo en la forma en que los usuarios interactúan con otras personas.
Un ejemplo de ello es que los usuarios pueden interrumpir y "tomar el micrófono" en cualquier momento, una conducta que, aunque es esperada de un chatbot, sería considerada de mala educación entre humanos.
Este, junto con otras decenas y decenas de casos, podrían erosionar las normas sociales tradicionales con las que las personas interactúan entre sí fuera de un entorno digital.
Otro riesgo que también contempla OpenAI es que los usuarios prefieran la compañía de la IA a la interacción humana, y es que, aunque esto podría ser beneficioso para aquellos que sienten soledad, también podría tener un efecto negativo a la hora de socializar de forma genuina.
Asimismo, esta dependencia podría llevar a los usuarios a confiar en la IA para tareas que antes habrían requerido interacción humana, lo cual vuelve a afectar en la forma de relacionarse de las personas.
Por estos motivos, además de otros que conllevan peligros para la raza humana, no son pocos los expertos que, al igual que ocurre con los coches y los aviones, afirman que debería haber controles y estándares más estrictos para la inteligencia artificial.
Por su parte, OpenAI se ha comprometido a seguir investigando esta dependencia emocional a ChatGPT por parte de los usuarios, tanto a través de estudios propios como de estudios de terceros.
Cómo subir un PDF a ChatGPT: usos y prompts para utilizar
- Ver Comentarios