FBI reveló que los hackers están utilizando IA para crear nuevos virus

Los hackers están aprovechando la Inteligencia Artificial para aumentar drásticamente la cantidad de virus que crean y así poder realizar más ataques cibernéticos

Hacker

Los hackers cada vez están utilizando más herramientas de IA para llevar acabo sus ataques Crédito: Shutterstock

El FBI informó una preocupante tendencia en el mundo del cibercrimen. Los hackers están utilizando la Inteligencia Artificial generativa, como el chatbot ChatGPT, para crear virus más sofisticados y difíciles de detectar. Esta nueva forma de aprovechar la IA permite a los delincuentes generar rápidamente códigos maliciosos y lanzar oleadas de ataques cibernéticos con mayor eficacia que en el pasado.

Las autoridades advierten que esta tendencia podría aumentar considerablemente a medida que más personas adopten y utilicen la tecnología de Inteligencia Artificial. La adopción y democratización de los modelos de IA brindan a los actores maliciosos una nueva herramienta para complementar sus actividades delictivas, lo que incluye el uso de generadores de voz de IA para estafar a personas haciéndose pasar por personas de confianza.

Esta no es la primera vez que los piratas informáticos han utilizado herramientas de IA para crear malware peligroso. Investigadores de seguridad descubrieron previamente cómo se podía alterar la API de un chatbot para generar código de malware, lo que facilita el acceso a la creación de virus a casi cualquier hacker.

Sin embargo, algunos expertos cibernéticos discrepan con las preocupaciones del FBI, argumentando que la amenaza de los chatbots de IA ha sido exagerada. Argumentan que la mayoría de los hackers aún encuentran vulnerabilidades de código a partir de métodos tradicionales como filtraciones de datos y código abierto. Además, aseguran que la calidad del código de malware producido por los chatbots tiende a ser baja y que muchos piratas informáticos novatos carecen de las habilidades necesarias para eludir las barreras antimalware.

A pesar de las opiniones divergentes, la situación se torna más compleja debido a la discontinuación de herramientas diseñadas para detectar el plagio generado por chatbots, lo que podría dificultar la lucha contra el cibercrimen impulsado por la Inteligencia Artificial.

La IA es capaz de programar

Es importante resaltar que herramientas de Inteligencia Artificial como ChatGPT han demostrado una impresionante capacidad para programar en distintos lenguajes de programación. Estos modelos de lenguaje pueden entender y generar código a partir de los prompts o instrucciones que les proporcionan los usuarios.

Por ejemplo, con solo un breve fragmento de código o una descripción del programa deseado, el chatbot puede completar y generar el código necesario en lenguajes populares como Python, JavaScript, Java, C++, entre otros. Esta funcionalidad ha demostrado ser valiosa para los desarrolladores, especialmente cuando necesitan una ayuda rápida o un esbozo inicial para sus proyectos.

Sigue leyendo: 
El atraco de Lazarus: el robo de $14 millones de dólares que hackers llevaron a cabo en dos horas en cajeros automáticos alrededor del mundo
Arrestan a hacker ruso acusado de extorsionar millones de dólares a empresas estadounidenses
¿Por qué solo se habla del hackeo sistemático de Rusia, China o Irán y no del de EE.UU. y el resto de Occidente?

En esta nota

hackers Inteligencia artificial
Contenido Patrocinado
Enlaces patrocinados por Outbrain