El uso de ChatGPT que no esperabas: lo usan para crear código malicioso con el que hackear equipos fácilmente
Tus dispositivos podrían estar ahora mismo en riesgo y es que realizaron pruebas con ChatGPT para crear códigos maliciosos, lo que permite que puedan producir toda una cadena de infección con capacidad para acceder forma remota a ordenadores y así tener acceso a todo tipo de información privada.
ChatGPT es una herramienta de Inteligencia Artificial que puede ser un verdadero peligro en las manos equivocadas, así lo demostró una reciente investigación de Check Point, en la que recrearon todo un proceso de fallos de seguridad para demostrar la exposición que pueden tener los usuarios.
Este chat está basado en el modelo de lenguaje por Inteligencia Artificial GPT-3, cuenta con más de 175 millones de parámetros, además está entrenado con una extensa colección de textos que le permiten realizar tareas vinculadas con el lenguaje, que pueden ser traducciones, hasta generación de textos a partir de ciertas instrucciones.
Expuestos al phishing
La herramienta ChatGPT de Open AI, permitió que la firma de seguridad pudiera recrear un correo phishing, con un documento Excel adjunto, en el que se insertaron códigos maliciosos para descargar shells inversos en el ordenador que lo ejecuta.
El objetivo de este tipo de ataques es permitir que el cibercriminal pueda ingresar de forma remota al dispositivo para redirigir las conexiones de entrada y salida del sistema objetivo y así ingresar sin estar presente de forma física.
Con un ataque usando ChatGPT, los atacantes podrían realizar las siguientes acciones sin que el usuario apenas pueda sospecharlo:
- Suplantar la identidad de una empresa de alojamiento web.
- Crear un correo phishing con archivo malicioso adjunto.
- Crear códigos maliciosos Codex para hacer peticiones al sistema operativo, como la ejecución de scripts y conexiones a direcciones IP específicas.
El grave problema es que para cualquier cibercriminal puede resultar muy fácil recrear un correo electrónico malicioso empleando estas herramientas, integrando códigos que les permitan robar todo tipo de información sin que el atacado pueda sospecharlo.
La firma de seguridad quiso demostrar que el ChatGPT es una herramienta muy vulnerable, que puede ser explotada por cualquier persona con recursos mínimos y sin mayores conocimientos de código. Queda en evidencia, que a medida que evoluciona la tecnología, al mismo ritmo crecen las amenazas para los usuarios.
- Ver Comentarios