Aunque los bots de Inteligencia Artificial se han vuelto muy populares últimamente, hay que preguntarse si realmente ChatGPT seguro y fiable. Esta herramienta de interacción brinda mucha información y con la que es posible sostener una conversación, pero ¿realmente podemos creer ciegamente en lo que nos dice?
El problema de la Inteligencia Artificial es que su conocimiento está basado en la información con la que es entrenada, lo que ya deja mucho que desear, ya que en Internet es mucha la información falsa que circula y se propaga. De hecho, hasta ahora, grandes empresas de tecnología han mantenido su Inteligencia Artificial en uso interno y todo ello tiene una razón.
Aunque podamos ver que la Inteligencia artificial tiene la capacidad de construir discursos y generar textos muy coherentes, con la mejor sintaxis posible y sin problemas de procesamiento, lo cierto es que su cerebro equivale probablemente al de un niño. Si tú le dices a un pequeño que la tierra es plana, probablemente es lo que dirá a quien le haga la misma pregunta.
ChatGPT va a estancar Internet: cada vez más servicios se unen
Cómo funciona ChatGPT y por qué es un riesgo
La Inteligencia Artificial, en especial ChatGPT, no tiene la capacidad de razonar, investigar o de identificar datos incorrectos, simplemente se alimenta de la información que le suministran y con base a eso construye los mejores discursos posibles.
Esto crea un grave problema y es que es el método perfecto para la difusión de información falsa. Una pequeña brecha de seguridad podría permitir que se ingresen datos falsos sobre cualquier tema y en cuestión de horas esa información podría distribuirse de forma orgánica, lo que daría como resultado toda una campaña de desinformación con rápida acción y sin mayores esfuerzos.
En el caso de ChatGPT, hasta ahora, era un sistema cerrado, en el que había un banco de información para el bot, del que tomaba los datos para producir ar las conversaciones que sostenía con sus usuarios, con una limitación clara: información hasta el año 2021. Ahora, se anuncia que ChatGPT tendrá acceso a Internet, eso significa que, si bien puede consultar información, no hay una razón para no pensar que pueda también escribirla.
Un ejemplo de esto podría ser, que pueda editar datos de Wikipedia con información incorrecta, o servir de herramienta para los cibercriminales que intentan obtener datos, ya que podría ofrecer cualquier tipo de información que esté disponible de forma pública.
Riesgos de seguridad de ChatGPT
Son varios los escenarios en los que podría ser utilizado ChatGPT como herramienta para los cibercriminales y aquí te contamos algunos de ellos:
- Ataques phishing: el éxito de una campaña de phishing es que la víctima pueda creer realmente la información que se le está enviando, que sea convincente y entonces se vea en la necesidad de ejecutar la acción solicitada. Los criminales podrían utilizar ChatGPT para el desarrollo de correos electrónicos que puedan copiar perfectamente las comunicaciones de bancos, instituciones y empresas, que luego son utilizados para las campañas.
- Modificar el bot intencionalmente: en GitHub está disponible el modelo de ChatGPT para que cualquiera con interés en Inteligencia Artificial pueda tomarlo y estudiarlo. El problema que se presenta es que al estar disponible de esta forma, cualquiera podría modificarlo y luego difundirlo de forma maliciosa a través de herramientas de terceros.
- Información falsa: Al estar conectado ChatGPT a Internet, alguna persona u organización criminal podría tener interés en ofrecer información falsa para producir caos y esta IA es una buena alternativa. Si se conoce el funcionamiento de su algoritmo, podría entonces tener la capacidad de crear bancos de información que estén dispuestos para que el bot pueda reconocerlos y así suministrar la información falsa.
- Filtración de información: También se ha visto como ChatGPT, por error o no, ha filtrado información de sus propios clientes, vimos cómo se filtró información de facturación de usuarios, también se filtró el historial de búsquedas, lo que acabaría por poner en riesgo la privacidad al emplear alguna de estas herramientas, algo que definitivamente la gente no quiere.
Además de todo ello, el gran problema que presenta ChatGPT, hasta ahora, es que al tener información actualizada hasta 2021 no contiene mucha información de fiar. Desde nombres de instituciones, organizaciones, representantes de diferentes sectores, datos demográficos, información estadística… todo tipo de dato que sea actualizable, probablemente tenga un error en ChatGPT.
Todo esto deja claro que ChatGPT como aproximación a lo que puede lograr la Inteligencia Artificial es una excelente iniciativa, pero en esta primera fase de existencia no queda claro cuáles son sus alcances en materia de protección a los usuarios y de fiabilidad de sus datos.
Cómo tener ChatGPT en WhatsApp
- Ver Comentarios