°
13 de Julio,  Jujuy, Argentina
PUBLICIDAD

ChatGPT: crean un virus indetectable

Un investigador de seguridad informática descubre que ChatGPT puede usarse para crear un "exploit" de día cero.

Martes, 11 de abril de 2023 20:15

El chatbot ChatGPT sigue siendo objeto de controversia y debate debido a las múltiples posibilidades que ofrece, no solo para resolver diversas tareas, sino también por los riesgos asociados a su uso. Un ejemplo reciente de estos riesgos es la creación de un software malicioso por parte de un investigador, que tiene la capacidad de robar datos de dispositivos sin ser detectado.

Alcanzaste el límite de notas gratuitas
inicia sesión o regístrate.
Alcanzaste el límite de notas gratuitas
Nota exclusiva debe suscribirse para poder verla

El chatbot ChatGPT sigue siendo objeto de controversia y debate debido a las múltiples posibilidades que ofrece, no solo para resolver diversas tareas, sino también por los riesgos asociados a su uso. Un ejemplo reciente de estos riesgos es la creación de un software malicioso por parte de un investigador, que tiene la capacidad de robar datos de dispositivos sin ser detectado.

Además de su potencial como herramienta de trabajo basada en un modelo de lenguaje de Inteligencia Artificial desarrollado por OpenAI, el sistema de chat ChatGPT llamó la atención de empresas de ciberseguridad como Check Point, quienes descubrieron que los ciberdelincuentes lo están utilizando para recrear y llevar a cabo ataques de software malicioso.

Códigos para hackear cuentas
Aaron Mulgrew, investigador de Forcepoint, descubrió que el chatbot ChatGPT puede ser utilizado para desarrollar un "exploit" de día cero, capaz de robar datos de un dispositivo y evadir los controles de detección de software malicioso.

Mulgrew, quien se describió a sí mismo como un "novato confeso", afirmó que pudo crear malware en pocas horas con la ayuda de ChatGPT, utilizando el lenguaje de programación Go.

Aunque al principio el chatbot le recordó que no era ético generar malware y se negó a proporcionarle un código para llevar a cabo dicha acción, el investigador pronto se dio cuenta de que era fácil "evadir las protecciones insuficientes que tiene ChatGPT y crear malware avanzado sin escribir ningún código".

ChatGPT puede generar un programa malicioso 
Mulgrew generó pequeños fragmentos de código separados que, en conjunto, se convirtieron en un programa malicioso. De esta manera, pudo evadir los filtros del chatbot y crear malware.

El investigador obtuvo un código que le permitió dividir un archivo PDF en fragmentos de 100KB y luego aplicó esteganografía, una técnica que oculta mensajes cifrados dentro de un archivo sin que se puedan observar cambios en su apariencia.

Al poner a prueba el virus creado frente a diferentes proveedores de soluciones de seguridad, solo cinco de los 69 detectaron el código como sospechoso.

Después de entender la naturaleza de estas dos soluciones de seguridad, el investigador solicitó a ChatGPT que introdujera dos nuevos cambios en el código para ocultar su carácter malicioso. Luego, volvió a someterlo a los antivirus y concluyó que era posible desarrollar un exploit de día cero sin ser detectado, al menos por el proveedor con el que realizó las pruebas.

"Simplemente utilizando las indicaciones de ChatGPT y sin escribir ningún código, pudimos producir un ataque muy avanzado en solo unas pocas horas", explicó el investigador.

Temas de la nota

PUBLICIDAD
PUBLICIDAD