Aunque vivamos en una situación de relativa seguridad en las redes, los ataques de hackers suelen ser bastante habituales. Por muy seguro que sea un sistema o un programa, los hackers suelen encontrar una brecha de seguridad por la cual pueden acceder. Ahora cuentan con un increíble aliado, la IA, pues según informa el FBI esta se emplea para desarrollar malware.

Los usos de la inteligencia artificial cada vez son más amplios y variados, expandiéndose en muchos sectores. Tenemos la IA generativa como Midjourney que nos permite generar imágenes a partir de texto. Otras como ChatGPT, directamente nos va a responder cualquier pregunta que le hagamos. Esto implica que podamos aprender sobre casi cualquier cosa y como no, también le podemos mandar órdenes. La capacidad de este chatbot ha excedido todo lo que la gente esperaba inicialmente de él, pudiendo ser útil en más cosas de lo que creíamos.

El FBI advierte que IA como ChatGPT se usan por los hackers para crear malware

ChatGPT trae una serie de filtros que impiden que la IA dé respuesta a ciertas preguntas. Aquí entran temas que se consideran como prohibidos o no aptos, para así evitar que la IA revele información que no debe. Sin embargo, ha habido personas que se han saltado estas medidas de protección y han acabado consiguiendo que la inteligencia artificial les revele lo que buscan. En esos casos, los hackers pueden emplear la IA como asistente y ayuda para realizar ataques de phishing por correo bastante efectivos.

En estos últimos meses hemos visto casos así, donde la inteligencia artificial lograba suplantar la identidad de otros. También se han observado casos donde se ha creado malware con su ayuda. Ahora el FBI afirma que todo esto es un problema actual, ya que la IA se está encargando de facilitar a los hackers sus tareas, tanto en la realización de malware como en estafas y ciberataques. Tal y como avisamos hace un par de meses, con ChatGPT es posible crear malware mutante. Este es muy peligroso, debido a que puede evadir los sistemas de seguridad y resulta casi imposible de detectar y eliminar.

Alternativas como WormGPT ya existen y habrá que imponer medidas

En el caso de ChatGPT, es posible que OpenAI pueda llegar a bloquear a los hackers y todos aquellos que quieran usar la IA para este tipo de actividades dañinas. Es por ello, que ya se están buscando alternativas y precisamente hace unos días ya vimos una de ellas. Habían desarrollado WormGPT, el que podría ser considerado el “gemelo malvado” de ChatGPT. Su función es la misma, responder a nuestras preguntas y cumplir nuestras órdenes. La principal diferencia con ChatGPT es que en este caso no hay limitaciones.

Aquí se puede hacer de todo, pues con WormGPT pueden pedir ayuda para crear malware, pues de hecho se ha entrenado con este tipo de datos. También es posible generar plantillas de correo de phishing, por lo que se convierte en una herramienta ideal. Por un precio de 60 euros al mes y disponible en la dark web, muchos hackers y piratas informáticos mostrarán su interés en adquirirlo. Ahora falta ver como OpenAI, Microsoft, Google y Meta se encargan de impedir esto. Recordemos que estas empresas se unieron para imponer una serie de normas para la inteligencia artificial, como la esperada marca de agua.