Con lo sorprendente que ha demostrado ser ChatGPT y sus respuestas, ¿podemos esperar que este chatbot sea utilizado para crear malware sofisticado?

ChatGPT ha demostrado ser lo suficientemente bueno como para producir las respuestas de tareas, trabajos de investigación, respuestas legales, diagnósticos médicos y una serie de otras cosas que han pasado la “prueba del olfato” cuando se tratan como si fueran el trabajo de actores humanos. Incluso hemos visto varios ejemplos de cómo podría ser aprovechada este chatbot por actores maliciosos. Pero, ¿tendrá algún impacto significativo en los cientos de miles de muestras de malware que vemos y procesamos a diario, o será una falsificación fácil de detectar?

Si bien los modelos de ML se han utilizado para tareas de análisis complejos, no llegan a ser un gran botón rojo que al ser presionado permite “matar malware”. El malware no es tan simple. Pero para estar seguro, contacté a algunos de los gurús de ML de ESET y les hice algunas preguntas:

¿Es posible que ChatGPT se utilice para generar malware? Y en tal caso, ¿qué tan bueno podría llegar a ser?

No estamos realmente cerca de la creación de malware mediante Inteligencia Artificial, aunque ChatGPT es bastante bueno a la hora de sugerir código, generar ejemplos y fragmentos de código, la depuración y optimización del código, o incluso para la automatización de la documentación.

¿Qué sucede con las funciones más avanzadas?

No sabemos qué tan bueno es para ofuscar código malicioso. Algunos de los ejemplos se relacionan con lenguajes de secuencias de comandos, como Python. Pero vimos a ChatGPT “reverseando” el significado del código desensamblado conectado a IDA Pro, lo cual es interesante. Dicho esto, es probable que sea una herramienta útil para ayudar a un programador, y tal vez ese sea un primer paso hacia la creación de malware con más funciones completas, pero todavía no.

¿Qué tan bueno es en este momento?

ChatGPT es muy impresionante, considerando que es un gran modelo de lenguaje y que sus capacidades sorprenden incluso a los creadores de dichos modelos. Sin embargo, actualmente es muy superficial, comete errores, crea respuestas más cercanas a las alucinaciones (es decir, respuestas fabricadas) y no es realmente confiable para propósitos serios. Pero, a juzgar por la cantidad de técnicos que están realizando pruebas con esta tecnología, parece estar ganando terreno rápidamente.

¿Qué es lo que puede hacer en este momento? ¿Para qué cosas está madura la plataforma?

Por ahora vemos tres áreas en las que puede ser adoptada para fines maliciosos:

  • Mejoras en los ataques de phishing

Si cree que el phishing como técnica parecía ofrecer resultados convincentes en el pasado, espere. ChatGPT permite probar más fuentes de datos y combinarlos sin problemas para dar como resultado correos electrónicos específicamente diseñados que serán muy difíciles de detectar en función de su contenido, y además las tasas de éxito prometen ser más eficaces en términos de la cantidad de clics que pueden generar. Por otra parte, no podrá eliminarlos rápidamente debido a los errores gramaticales, ya que el conocimiento que tiene esta plataforma de idiomas nativos es probablemente mejor que el suyo. Considerando que una gran cantidad de los ataques más desagradables comienzan cuando las víctimas hacen clic en un enlace que llega en un correo de phishing, es esperable que el impacto sea de gran tamaño.

  • Automatización de las notas de rescate

Es poco común que los operadores de ransomware sean hábiles para la comunicación, pero con ChatGPT se abre la posibilidad para los atacantes de mejorar las comunicaciones y que sean más convincentes con las víctimas durante las negociaciones. Esto también significará menos errores que podrían permitir a las víctimas y fuerzas de seguridad las posibilidad de localizar las verdaderas identidades y ubicaciones de los operadores.

  • Se mejoran las estafas telefónicas

Con las mejoras que se vienen dando en la generación de lenguaje para que suene natural, los estafadores podrán mejorar y parecer al teléfono que son compañeros del área que llaman con las mejores intenciones. Esto es clave para los estafadores: intentar hablar como si fueran uno de los suyos.

Si todo esto suena como que puede ser en un futuro lejano, no apueste que esto será así. Tal vez no sucederá todo de una vez, pero los delincuentes están a punto de mejorar mucho. Veremos si la defensa está a la altura.

Fuente noticia: https://www.welivesecurity.com
Fuente foto: freepik.es