FraudGPT: El hermano “malvado” de ChatGPT usado para cometer crímenesInteligencia Artificial

FraudGPT: El hermano “malvado” de ChatGPT usado para cometer crímenes

El uso de esta tecnología podría permitir delitos como estafas, creación de deep fakes e incluso armamento bioquímico

Javier Neri

Por: Javier Neri  

Con la llegada de la inteligencia artificial a diversas empresas y al público general, muchos se preguntan cómo impactará el uso de esta tecnología en el mundo del ciberdelito.

Parte de esta respuesta podría ser la existencia de programas como “FraudGPT”, bautizado como el “hermano maligno” de ChatGPT, famoso chatbot desarrollado por la empresa OpenAI que se ha convertido en uno de los rostros de la ola de tecnología IA.

FraudGPT es promocionado en la dark web como un programa capaz de escribir mensajes a las personas haciéndose pasar por bancos; ser utilizado para generar malware o para señalar cuáles sitios web pueden ser víctimas fáciles de estafas.

La plataforma de análisis de datos Netenrich ha establecido que este tipo de inteligencia artificial generativa puede ser usada con fines ilícitos por ciberdelincuentes, desde fraudes monetarios hasta la creación de deepfakes pornográficos, impulsar campañas de desinformación o incluso, elaborar armas bioquímicas.

Crímenes cometidos con inteligencia artificial

Según Josep Albors, experto en seguridad informática ESET en España y entrevistado por El País, el mundo criminal no ha tardado en utilizar las capacidades generativas de la IA para potencializar sus negocios criminales en internet y redes sociales.

Algunas de las aportaciones de la IA al mundo del ciberdelito, mencionadas en el artículo, son:

  1. Creación de correos electrónicos en varios idiomas, sin faltas de ortografía (lo cual legitima los intentos por convencer a las víctimas de su autenticidad).
  2. Generar desinformación por medio de campañas o deepfakes
  3. Rapidez para cumplir toda clase de tareas ilícitas, diversificando y aumentando así sus ataques.
  4. Creación de malware cada vez más difícils de detectar y capaz de vulnerar sistemas de manera más precisa

Por fortuna, expertos como Phillip Hacker sostienen que las técnicas de estos bots maliciosos aún no se ha generalizado entre grupos de ciberdelincuentes, pero su existencia supone retos importantes para el futuro de la seguridad en línea.

Tan es así, que un artículo de la revista científica Nature Machine Intelligence sostiene que algunos modelos de IA avanzados podrían ser usados en la creación de armas bioquímicas, representando así un peligro de escala mundial.

Te puede interesar: Conoce los robots humanoides con inteligencia artificial que BMW contrató para trabajar en su fábrica

Temas

Más Noticias