El asistente perfecto: cómo hackers usan inteligencia artificial para que los ayuden a cometer delitos

34

El avance imparable de la IA es claro y no todo son beneficios. Los cyber delincuentes, a la orden del día, están usando cada vez más estos sistemas para que los ayuden.

El asistente perfecto: cómo hackers usan inteligencia artificial para que los ayuden a cometer delitosLas IA potencias los cibrdelitos .

La inteligencia artificial llegó para quedarse. La intención de los popes del mundo tecnológico que están trabajando e impulsando su uso es clara: que se conviertan en nuestros asistentes diarios para que hagan las tareas más tediosas, aburridas y dejarnos tranquilos a nosotros para que nos enfoquemos en las cosas más importantes. No suena mal, pero eso no significa que no haya otras personas que estén utilizando estos nuevos desarrollos para hacer el mal.

Durante el último año estuvimos viendo cómo cada vez más actores con malas intenciones buscan utilizar los nuevos modelos de inteligencia artificial para realizar ataques, robar información y, sobre todo, dinero.

Pero ¿cómo lo hacen y cuáles son las técnicas que utilizan? Veamos…

Phishing

El phishing es, sin duda, una de las técnicas más utilizadas para robar información. No solo ahora con la llegada de las inteligencias artificiales generativas, sino desde hace años. Esta técnica consiste en montar una página falsa o enviar un correo electrónico haciéndose pasar por un tercero, como de bancos o billeteras virtuales, para robar información sensible. Si el usuario no se da cuenta de que esa página o correo es falso e ingresa sus datos, son capturados por el delincuente.

Con la inteligencia artificial, el phishing alcanzó un nuevo nivel de sofisticación porque los algoritmos pueden generar correos electrónicos y sitios web falsos con una precisión inmensa, sin faltas de ortografía y todos pequeños detalles que a los hackers podían escapárseles y que ayudaban a los usuarios a darse cuenta de la estafa.

El crecimiento de los ataques de phishing en los últimos tiempos fue notable. Kaspersky, una de las compañías de seguridad informática más importantes del mundo, reveló que, en 2023, que fue el año en el que empezaron a aparecer estas tecnologías de inteligencia artificial, los ataques de phishing aumentaron un 617% en América Latina.

Deepfakes

A medida que pasa el tiempo se observa cómo cada vez es más fácil hacer un deepfake, que se trata de un video, imagen o audio creado con inteligencia artificial. De hecho, ya se vio en varias oportunidades, sobre todo durante diferentes elecciones, que aparecen en redes sociales videos falsos de políticos diciendo cosas que nunca dijeron. Esos clips, justamente, se tratan de deepfakes.

Y los delincuentes están utilizando esta tecnología para crear audios o videos para hacerse pasar por terceros y así cometer sus fraudes.

Uno de los casos que más resonaron en los últimos tiempos fue el de un empleado del sector de finanzas de una multinacional que hizo una transferencia de u$s 25 millones después que uno de sus jefes lo solicitara. Había un problema: quien le había dado la orden no era su jefe, sino un deepfake.

Expertos en seguridad informática aseguran que este tipo de servicios se ofrecen sin más a través de la web: una imagen falsa creada con IA puede costar alrededor de US$ 10 mientras que un video de un minuto unos U$S 500.

GPT sin restricciones

Todos los modelos que hay dando vueltas por la red, como ChatGPT, Gemini o Claude, tienen barreras de seguridad. Si le preguntamos cómo hacer una bomba, por ejemplo, nos responderá que, como lo que le estoy preguntando se trata de algo “ilegal” y “extremadamente peligroso”, no puede decírmelo. Así sucede, en general, con todos los temas sensibles.

Acá es donde entran los delincuentes. Hay expertos en seguridad informática vendiendo acceso a este tipo de tecnologías no solo de manera anónima sino también sin restricciones. ¿Cómo? Ofrecen prompts diseñados especialmente para saltear los sistemas de seguridad.

Así es como logran que diferentes modelos les digan, por ejemplo, cómo escribir código para crear virus o generar un texto para correos electrónicos fraudulentos para, como vimos más arriba, hacer ataques de phishing.

Recolección de información

Hay una técnica en el mundo de la seguridad informática que se llama doxxing, que es la práctica de investigar información privada de las personas para, después, aprovecharse de eso.

Los modelos de lenguaje, al ser entrenados con tantos datos, son muy buenos para hacer inferencias. Por ese motivo hay criminales que le piden a este tipo de tecnologías que actúen como investigadores privados, le pasan textos e información de las personas y les piden que hagan deducciones sobre dónde podría vivir, cuál podría ser su edad, su área de estudio y más.

Una investigación que se realizó a fines del año pasado reveló que un chatbot puede deducir datos como el origen étnico, la ubicación y la ocupación de las personas a partir de una simple conversación.

Déjanos tu comentario