¿Qué es la IA oscura?
La IA oscura, también conocida como IA maligna, hace referencia al uso de inteligencia artificial con fines malintencionados, como ciberataques, fraude, estafas, campañas de distribución de información errónea y filtraciones de datos. En algunos casos, los programas de IA oscura se crean con el objetivo concreto de cometer actos malintencionados, mientras que, otras veces, algunos programas de IA neutrales o beneficiosos se modifican para provocar daños.
La IA oscura se suele asociar con los ciberdelincuentes, como hackers, estafadores y de otro tipo, que usan inteligencia artificial para crear o usar sus técnicas. Esto les permite perpetrar estafas o ataques más sofisticados de una manera más sencilla y rápida que nunca.
Sin embargo, en algunas definiciones, la IA que se usa en los conflictos armados también se considera IA oscura. Por ejemplo, Israel ha utilizado programas de IA para seleccionar objetivos en Gaza. Y en la guerra rusa contra Ucrania, ambos bandos han empleado IA para algunos fines, como analizar los datos del campo de batalla.
Las preocupaciones sobre el papel de la IA en los conflictos bélicos aumentaron aún más en febrero de 2025, cuando Google retiró la prohibición de usar la IA para desarrollar herramientas y armas de vigilancia.
Ejemplos de IA oscura
Algunos ejemplos de IA oscura son los deepfakes que se usan para manipular y provocar daños en la reputación de las personas, los programas de IA generativa diseñados para redactar mensajes fraudulentos y el software con IA creado para facilitar los ciberataques.
La IA se puede usar en muchos tipos de actividades malintencionadas, desde crear deepfakes hasta cometer fraude.
IA de deepfake
Los deepfakes son contenido multimedia creado con IA para imitar a una persona, ya sea con su rostro, su voz u otras particularidades. Los vídeos deepfake se suelen usar para crear clips de humor sobre políticos, atletas y personas famosas, pero también se pueden usar para dañar la reputación de alguien o difundir bulos.
La pornografía deepfake es un tema que cada vez adquiere más atención y se relaciona con el potencial de esta tecnología para hacer daño. Por ejemplo, en colegios de Corea del Sur y España se han producido epidemias de deepfake durante las cuales los alumnos creaban y compartían vídeos deepfake de contenido sexual explícito de sus compañeros de clase.
Muchas personalidades públicas, como la cantante Taylor Swift, el twitcher Pokimane y la política estadounidense Alexandria Ocasio-Cortez, también han sido víctimas de deepfakes.
Información errónea creada con IA
Este tipo de práctica implica el uso de IA para crear y compartir noticias falsas, confusas o sin contrastar, además de otros recursos. Este tipo de información errónea se suele difundir mediante deepfakes. Durante la guerra de Rusia contra Ucrania, por ejemplo, partidarios de la guerra y personalidades importantes del país han utilizado deepfakes en muchas ocasiones para difundir información errónea y propaganda.
Aunque es probable que algunas personas puedan distinguir que estos vídeos son falsos, a medida que la tecnología avanza, los deepfakes se vuelven más realistas. Esto podría dar pie a que triunfaran más campañas de información falsa por parte de países e individuos en el futuro.
Ahora también aparecen en internet sitios de noticias falsas generadas por IA que a menudo tienen URL similares a las reales de organizaciones populares, como CBS, la BBC, ESPN y NBC. En algunos casos, estos sitios emplean IA para resumir y replicar historias de los sitios por los que se hacen pasar. Esto puede generar estructuras de artículos y narraciones mal redactadas que introducen datos erróneos y testimonios confusos.
Otros sitios web con IA oscura están diseñados para difundir bulos. Por ejemplo, USNewsper.com se hace pasar por una fuente informativa legítima de EE. UU., pero ha recibido acusaciones por ser un sitio generado por IA registrado en Lituania. El sitio web adquirió notoriedad por difundir la noticia falsa de que la retirada de Joe Biden de las elecciones a presidente de los EE. UU. de 2024 fue en realidad un engaño.
IA para phishing
Los estafadores pueden usar la IA oscura para perfeccionar y optimizar sus campañas de phishing, que consiste en enviar mensajes de fuentes que parecen reales para difundir malware o engañar a las víctimas de forma que proporcionen información confidencial o envíen dinero.
Los ciberdelincuentes pueden emplear grandes modelos de lenguaje (LLM) totalmente legales para crear correos electrónicos falsos con el fin de que parezcan más realistas. Aunque ChatGPT y otros LLM populares tienen restricciones, como filtros de moderación del contenido, restricciones de datos en tiempo real, detalles técnicos limitados y políticas de uso éticas y legales, todo esto se puede omitir con las tácticas adecuadas. No obstante, los estafadores también pueden usar GPT oscuros, que son programas que funcionan como ChatGPT, pero sin esas protecciones.
Además, los estafadores pueden usar la IA oscura para buscar y elegir a sus víctimas, exprimiendo así la capacidad de la IA de procesar rápidamente grandes cantidades de información pública. La IA les permite extraer rápidamente estos datos de fuentes como redes sociales y sitios de búsqueda de personas para determinar quién podría ser un objetivo vulnerable y cuál sería la mejor táctica para engañarlo.
Después de elegir un objetivo, también tienen la opción de cargar sus datos en un GPT oscuro y usar IA para generar mensajes de phishing personalizados y convincentes. Esto podría permitir a los estafadores generar ataques mediante mensajes o correos de forma mucho más rápida.
Fraude con IA
Fraude con IA hace referencia al uso de IA oscura para manipular a personas, sistemas o empresas con el fin de obtener dinero u otros beneficios de forma injusta. Por ejemplo, los estafadores usaron imágenes deepfake del actor Brad Pitt para engañar a una mujer de Francia haciéndole creer que tenía una relación romántica con él y estafarle más de 800 000 $.
Esa no es la única vez que se ha empleado a famosos en casos de fraude con IA para engañar a las víctimas. Muchas empresas fraudulentas han utilizado imitaciones de famosos generadas por IA para anunciar sus productos, como el falso Tom Hanks que promociona un plan dental, la falsa Jennifer Anistor que es imagen de un suplemento saludable y la falsa Taylor Swift que anuncia un sorteo falso de productos de cocina Le Creuset.
También se ha usado IA para cometer fraudes en inversiones, lo que ha obligado a FINRA (Financial Industry Regulatory Authority), en EE. UU., a enviar avisos a los inversores. Por ejemplo, los anuncios con deepfakes de famosos y los sitios web de empresas falsas han empezado a usar tácticas con las que inflan los precios de una acción y luego la venden a ese precio inflado, haciendo que los inversores pierdan su dinero.
Los estafadores que emplean IA también son conocidos por usar IA oscura para tácticas de manipulación en redes sociales. Utilizan IA para crear y mantener cientos de cuentas falsas en plataformas como X, y hacer que las estafas parezcan más creíbles.
Hackeo con IA
Uno de los usos de la IA oscura que implica más consecuencias es el hackeo. Los hackers pueden usar programas de IA para acelerar el robo de contraseñas, evadir sistemas de seguridad, automatizar hackeos y minar datos. Es importante recordar que la IA no es infalible, y que hay formas de defenderse contra este tipo de hackeos. Por ejemplo, contar con contraseñas seguras y exclusivas permite mitigar el riesgo de ser víctima de técnicas de robo de contraseñas.
Ejemplos de GPT oscuros
Los GPT oscuros son grandes modelos de lenguaje (LLM) que se usan con fines malintencionados. Estos emplean un tipo de IA conocido como inteligencia artificial débil (IAD) para crear bots de chat. Estos GPT suelen ser versiones hackeadas o modificadas de LLM legítimos, como ChatGPT, pero, en algunos casos, se diseñan con fines malintencionados.
FraudGPT
FraudGPT, quizás el GPT oscuro más conocido por ahora, está disponible en la web oscura y se anuncia como una solución todo en uno para los ciberdelincuentes. Se puede utilizar para realizar diversas tareas, como escribir malware, mensajes fraudulentos y páginas web fraudulentas. Además, FraudGPT es capaz de detectar filtraciones y vulnerabilidades en redes, sistemas y aplicaciones, así como supervisar sitios, mercados y grupos específicos.
WormGPT
WormGPT es un GPT oscuro especializado en crear malware y otros tipos de código malicioso. Solo está disponible en la web oscura y se ha usado especialmente para perpetrar ataques al correo electrónico empresarial (BEC). WomGPT se entrenó con datos diseñados para simular técnicas de hackeo reales, y esto lo convierte en una de las herramientas de creación de malware más peligrosas del mundo.
PoisonGPT
PoisonGPT se diseñó para ser un ejemplo ilustrativo de la IA oscura. Creado por una empresa de ciberseguridad francesa, PoisonGPT se diseñó para demostrar lo rápido que podía introducirse información errónea en los LLM de código abierto.
Cómo protegerte contra las amenazas relacionadas con la IA
Para protegerte frente a las amenazas relacionadas con la IA oscura, te recomendamos usar contraseñas seguras y la autenticación en varios pasos, limitar tu presencia en internet, examinar los correos y los mensajes, y limitarte a seguir fuentes informativas verificadas. Te dejamos un resumen más detallado de las principales acciones que puedes realizar para defenderte contra los ataques de IA:
-
Ten cuidado con las comunicaciones: tómate el tiempo necesario para examinar bien los correos y los mensajes antes de responder, incluso aunque parezcan de un amigo, un familiar, un compañero o una empresa de confianza.
-
Comprueba las fuentes: asegúrate de confirmar la validez de la información que lees en internet para evitar caer en información errónea creada con inteligencia artificial. Por ejemplo, si lees algo sobre lo que parece ser una noticia importante, comprueba si otras fuentes informativas conocidas están hablando de ello antes de creértelo.
-
Busca discrepancias: si sospechas que estás viendo un vídeo deepfake, presta especial atención a los detalles como el rostro y el cuello, así como a fallos de audio, para determinar si el vídeo es falso. Si algo te resulta extraño, suele ser por un buen motivo.
-
Usa contraseñas seguras: utiliza siempre contraseñas exclusivas y complejas para tus cuentas en línea. De esa forma, aunque alguna de ellas esté en peligro por un ataque de robo de contraseñas con IA oscura, el resto de las cuentas no estarán en riesgo de inmediato.
-
Activa la autenticación en dos pasos: usar la autenticación en dos pasos añade otra capa de seguridad a tus cuentas, y esto te ayuda a impedir que los hackers puedan acceder a ellas aunque obtengan tu contraseña.
-
Utiliza medidas estrictas de seguridad en internet: un buen programa antivirus puede ayudarte a proteger el sistema y eliminar virus y otro tipo de malware que pueda haberse instalado si eres víctima de algún ataque de phishing o haces clic en un sitio web falso.
-
Limita tu presencia en línea: para crear deepfakes, se necesita material a partir del cual crear los parecidos. Para reducir el riesgo de que te roben rus rasgos físicos, limita la cantidad de fotos y vídeos que compartes en internet, o al menos aplica algunos ajustes de privacidad en tu perfil de Facebook y el resto de cuentas de redes sociales que uses.
-
Limita al mínimo los datos que compartes en internet: intenta limitar la información que haces pública, como tu fecha de nacimiento, tu lugar de trabajo, tu familia más cercana, etc. De esta forma, podrás limitar los detalles que pueden usar los estafadores o hackers para crear correos de phishing convincentes u otras estafas.
Protégete contra la IA oscura
La IA oscura no para de evolucionar, y esto hace que las ciberamenazas sean más peligrosas y engañosas que nunca. Desde deepfakes y ataques de phishing con IA hasta herramientas de hackeo sofisticadas, los ciberdelincuentes usan inteligencia artificial para explotar vulnerabilidades y manipular información con fines malintencionados.
Descarga Avast Free Antivirus, la solución de seguridad todo en uno que identifica y bloquea estafas, malware e intentos de phishing, para protegerte.