Tarde o temprano tenía que pasar. Si alguien ya había conseguido engañar a ChatGPT para crear malware o para generar claves de activación de Windows, aún faltaba menos para que creasen un modelo generativo de IA sin restricciones éticas. Esto quiere decir que se le podría pedir cualquier cosa, sin importar lo ilegal que fuese, que esta IA nos la daría.
Al menos eso es lo que nos cuentan desde PCMag. La Ia maligna en cuestión recibe por nombre WormGPT y, tal y como adelantábamos algo más arriba, no tiene ningún tipo de restricción a la hora de atender peticiones maliciosas.
¿Una IA para script kiddies?
En la jerga del mundo hacker se llama script kiddies a los novatos que confían en un script para poder acceder a los datos que estén buscando, grosso modo. Normalmente estos scripts se compran online, pero con WormGPT se abre la peligrosa puerta de generarlos uno mismo. Según el medio, cuesta muy poco hacer que nos de código a medida para una acción concreta.
El desarrollador de WormGPT dice que su IA se trata de una alternativa a ChatGPT, pero que te permitirá "hacer toda clase de cosas ilegales que vender online en el futuro". Cualquier cosa que los black hat hagan, WormGPT mostrará cómo se hace de manera rápida y eficiente.
Para crear esta IA generativa tan particular, el creador de WormGPT dice que se ha basado en un lenguaje algo antiguo y de código abierto llamado GPT-J, que data de 2021. Después se entrenó al modelo en creación de malware, y así hemos llegado a donde estamos hoy.
Aquí debajo os dejamos una captura de pantalla en la que se le pide a la IA un ejemplo de malware escrito en Python, y lo entrega sin ninguna cortapisa:
Según el medio, también es posible pedirle a WormGPT que cree un email convincente para iniciar una campaña de phishing, cosa que ha hecho de manera sorprendente. Los resultados, al parecer, son altamente iquietantes: no sólo el correo electrónico era lo bastante persuasivo, sino que también mostraba mucho potencial para realizar ataques sofisticados de este tipo.
No hay comentarios:
Publicar un comentario