Comienzan las denuncias contra ChatGPT: a juicio por una acusación falsa de corrupción

Comienzan las denuncias contra ChatGPT: a juicio por una acusación falsa de corrupción

La inteligencia artificial generativa está provocando muchos debates éticos, y ahora también comienzan los legales. La empresa detrás ChatGPT ha sido denunciada por información falsa, concretamente por difamar a un político australiano.

En pleno debate sobre si ChatGPT resulta seguro y fiable, ahora los jueces tendrán que determinar quién es responsable cuando la inteligencia artificial (AI) se equivoca. En concreto, la denuncia va contra OpenAI, la compañía creadora de ChatGPT.

La denuncia ha sido interpuesta por Brian Hood, alcalde de un pequeño municipio australiano, que considera que ha sido difamado. No es para menos, porque ChatGPT cree que es partícipe de una red de corrupción, cuando fue realmente el denunciante, que ayudó a destapar los delitos.

Hood ayudó a destapar el escándalo de Securency, una empresa propiedad de la Reserva Federal de Australia, donde algunos empleados recibieron pagos del extranjero para obtener contratos amañados.

Por lo tanto, supone un problema que ChatGPT lo considere uno de los responsables, y también le preocupa la manera en que la inteligencia artificial mezcla hechos ciertos e información falsa.

El político ha enviado una queja a OpenAI, de la que no tiene respuesta más de 2 semanas después, así que se plantea que su caso siga en los juzgados. Su abogado considera que es un tema muy novedoso, pero que resulta necesario dilucidar las responsabilidades de la inteligencia artificial.

Es llamativo que el error aparecía en ChatGPT 3.5, pero el nuevo ChatGPT 4.0 sí indica correctamente que Hood fue el denunciante. OpenAI indica en todo momento que el sistema está en pruebas, y que puede proporcionar información inexacta, pero quizá los jueces no estén de acuerdo con sus políticas.

El abogado de Hood considera grave que haya una versión del software divulgando datos falsos de sus clientes, y cree que los responsables de las inteligencias artificiales no pueden desvincularse de los resultados erróneos.

Tras la prohibición de ChatGPT en Italia por los problemas de privacidad, más países están mostrando preocupación por sus inexactitudes. Por no hablar de los generadores de imágenes basados en inteligencia artificial, que están debilitando las bases del periodismo.

Desde luego, determinar las responsabilidades legales de ChatGPT y la inteligencia artificial será clave, porque estos sistemas tienen el potencial de revolucionar nuestro día a día, así que necesitan una regulación clara que nos proteja de posibles abusos.

8 alternativas gratis a Midjourney

Vía: The Sydney Morning Herald

Conoce más sobre el equipo de El Grupo Informático y nuestra política editorial. Puedes seguirnos en Facebook, X, Instagram, WhatsApp, Telegram o recibirnos en tu correo para no perderte las últimas noticias de tecnología.
  • Ver Comentarios