196948825747
academy
Seguridad
Privacidad
Rendimiento
Español

¿Qué es la IA oscura? GPT oscuros, deepfakes de IA y otras ciberamenazas

La IA está transformando la forma en que trabajamos y vivimos, pero no siempre para mejor. La IA oscura representa una importante amenaza, porque puede usarse para distribuir información errónea, cometer fraude o crear deepfakes. Descubre cómo se puede usar la IA para fines malintencionados y lo que puedes hacer para protegerte. Luego, descarga una app de seguridad galardonada para protegerte frente a los hackers, las estafas y mucho más.

award_av_comparatives_advanced_2025
2025
3 Stars
Advanced+
av_lab_2025
2025
Excellent
av_test_top_product_2025

2025
Top Rated
Product

What-is-Dark-AI-hero
Escrito por Jeremy Coppock
Fecha de publicación octubre 3, 2025
Este artículo contiene
Este artículo contiene

    ¿Qué es la IA oscura?

    La IA oscura, también conocida como IA maligna, hace referencia al uso de inteligencia artificial con fines malintencionados, como ciberataques, fraude, estafas, campañas de distribución de información errónea y filtraciones de datos. En algunos casos, los programas de IA oscura se crean con el objetivo concreto de cometer actos malintencionados, mientras que, otras veces, algunos programas de IA neutrales o beneficiosos se modifican para provocar daños.

    La IA oscura se suele asociar con los ciberdelincuentes, como hackers, estafadores y de otro tipo, que usan inteligencia artificial para crear o usar sus técnicas. Esto les permite perpetrar estafas o ataques más sofisticados de una manera más sencilla y rápida que nunca.

    Sin embargo, en algunas definiciones, la IA que se usa en los conflictos armados también se considera IA oscura. Por ejemplo, Israel ha utilizado programas de IA para seleccionar objetivos en Gaza. Y en la guerra rusa contra Ucrania, ambos bandos han empleado IA para algunos fines, como analizar los datos del campo de batalla.

    Las preocupaciones sobre el papel de la IA en los conflictos bélicos aumentaron aún más en febrero de 2025, cuando Google retiró la prohibición de usar la IA para desarrollar herramientas y armas de vigilancia.

    Ejemplos de IA oscura

    Algunos ejemplos de IA oscura son los deepfakes que se usan para manipular y provocar daños en la reputación de las personas, los programas de IA generativa diseñados para redactar mensajes fraudulentos y el software con IA creado para facilitar los ciberataques.

    Una ilustración donde vemos ejemplos de cómo se puede usar la IA oscura, desde daños en la reputación o mensajes de phishing hasta fraude financiero.La IA se puede usar en muchos tipos de actividades malintencionadas, desde crear deepfakes hasta cometer fraude.

    IA de deepfake

    Los deepfakes son contenido multimedia creado con IA para imitar a una persona, ya sea con su rostro, su voz u otras particularidades. Los vídeos deepfake se suelen usar para crear clips de humor sobre políticos, atletas y personas famosas, pero también se pueden usar para dañar la reputación de alguien o difundir bulos.

    La pornografía deepfake es un tema que cada vez adquiere más atención y se relaciona con el potencial de esta tecnología para hacer daño. Por ejemplo, en colegios de Corea del Sur y España se han producido epidemias de deepfake durante las cuales los alumnos creaban y compartían vídeos deepfake de contenido sexual explícito de sus compañeros de clase.

    Muchas personalidades públicas, como la cantante Taylor Swift, el twitcher Pokimane y la política estadounidense Alexandria Ocasio-Cortez, también han sido víctimas de deepfakes.

    Información errónea creada con IA

    Este tipo de práctica implica el uso de IA para crear y compartir noticias falsas, confusas o sin contrastar, además de otros recursos. Este tipo de información errónea se suele difundir mediante deepfakes. Durante la guerra de Rusia contra Ucrania, por ejemplo, partidarios de la guerra y personalidades importantes del país han utilizado deepfakes en muchas ocasiones para difundir información errónea y propaganda.

    Aunque es probable que algunas personas puedan distinguir que estos vídeos son falsos, a medida que la tecnología avanza, los deepfakes se vuelven más realistas. Esto podría dar pie a que triunfaran más campañas de información falsa por parte de países e individuos en el futuro.

    Ahora también aparecen en internet sitios de noticias falsas generadas por IA que a menudo tienen URL similares a las reales de organizaciones populares, como CBS, la BBC, ESPN y NBC. En algunos casos, estos sitios emplean IA para resumir y replicar historias de los sitios por los que se hacen pasar. Esto puede generar estructuras de artículos y narraciones mal redactadas que introducen datos erróneos y testimonios confusos.

    Otros sitios web con IA oscura están diseñados para difundir bulos. Por ejemplo, USNewsper.com se hace pasar por una fuente informativa legítima de EE. UU., pero ha recibido acusaciones por ser un sitio generado por IA registrado en Lituania. El sitio web adquirió notoriedad por difundir la noticia falsa de que la retirada de Joe Biden de las elecciones a presidente de los EE. UU. de 2024 fue en realidad un engaño.

    IA para phishing

    Los estafadores pueden usar la IA oscura para perfeccionar y optimizar sus campañas de phishing, que consiste en enviar mensajes de fuentes que parecen reales para difundir malware o engañar a las víctimas de forma que proporcionen información confidencial o envíen dinero.

    Los ciberdelincuentes pueden emplear grandes modelos de lenguaje (LLM) totalmente legales para crear correos electrónicos falsos con el fin de que parezcan más realistas. Aunque ChatGPT y otros LLM populares tienen restricciones, como filtros de moderación del contenido, restricciones de datos en tiempo real, detalles técnicos limitados y políticas de uso éticas y legales, todo esto se puede omitir con las tácticas adecuadas. No obstante, los estafadores también pueden usar GPT oscuros, que son programas que funcionan como ChatGPT, pero sin esas protecciones.

    Además, los estafadores pueden usar la IA oscura para buscar y elegir a sus víctimas, exprimiendo así la capacidad de la IA de procesar rápidamente grandes cantidades de información pública. La IA les permite extraer rápidamente estos datos de fuentes como redes sociales y sitios de búsqueda de personas para determinar quién podría ser un objetivo vulnerable y cuál sería la mejor táctica para engañarlo.

    Después de elegir un objetivo, también tienen la opción de cargar sus datos en un GPT oscuro y usar IA para generar mensajes de phishing personalizados y convincentes. Esto podría permitir a los estafadores generar ataques mediante mensajes o correos de forma mucho más rápida.

    Fraude con IA

    Fraude con IA hace referencia al uso de IA oscura para manipular a personas, sistemas o empresas con el fin de obtener dinero u otros beneficios de forma injusta. Por ejemplo, los estafadores usaron imágenes deepfake del actor Brad Pitt para engañar a una mujer de Francia haciéndole creer que tenía una relación romántica con él y estafarle más de 800 000 $.

    Esa no es la única vez que se ha empleado a famosos en casos de fraude con IA para engañar a las víctimas. Muchas empresas fraudulentas han utilizado imitaciones de famosos generadas por IA para anunciar sus productos, como el falso Tom Hanks que promociona un plan dental, la falsa Jennifer Anistor que es imagen de un suplemento saludable y la falsa Taylor Swift que anuncia un sorteo falso de productos de cocina Le Creuset.

    También se ha usado IA para cometer fraudes en inversiones, lo que ha obligado a FINRA (Financial Industry Regulatory Authority), en EE. UU., a enviar avisos a los inversores. Por ejemplo, los anuncios con deepfakes de famosos y los sitios web de empresas falsas han empezado a usar tácticas con las que inflan los precios de una acción y luego la venden a ese precio inflado, haciendo que los inversores pierdan su dinero.

    Los estafadores que emplean IA también son conocidos por usar IA oscura para tácticas de manipulación en redes sociales. Utilizan IA para crear y mantener cientos de cuentas falsas en plataformas como X, y hacer que las estafas parezcan más creíbles.

    Hackeo con IA

    Uno de los usos de la IA oscura que implica más consecuencias es el hackeo. Los hackers pueden usar programas de IA para acelerar el robo de contraseñas, evadir sistemas de seguridad, automatizar hackeos y minar datos. Es importante recordar que la IA no es infalible, y que hay formas de defenderse contra este tipo de hackeos. Por ejemplo, contar con contraseñas seguras y exclusivas permite mitigar el riesgo de ser víctima de técnicas de robo de contraseñas.

    Ejemplos de GPT oscuros

    Los GPT oscuros son grandes modelos de lenguaje (LLM) que se usan con fines malintencionados. Estos emplean un tipo de IA conocido como inteligencia artificial débil (IAD) para crear bots de chat. Estos GPT suelen ser versiones hackeadas o modificadas de LLM legítimos, como ChatGPT, pero, en algunos casos, se diseñan con fines malintencionados.

    FraudGPT

    FraudGPT, quizás el GPT oscuro más conocido por ahora, está disponible en la web oscura y se anuncia como una solución todo en uno para los ciberdelincuentes. Se puede utilizar para realizar diversas tareas, como escribir malware, mensajes fraudulentos y páginas web fraudulentas. Además, FraudGPT es capaz de detectar filtraciones y vulnerabilidades en redes, sistemas y aplicaciones, así como supervisar sitios, mercados y grupos específicos.

    WormGPT

    WormGPT es un GPT oscuro especializado en crear malware y otros tipos de código malicioso. Solo está disponible en la web oscura y se ha usado especialmente para perpetrar ataques al correo electrónico empresarial (BEC). WomGPT se entrenó con datos diseñados para simular técnicas de hackeo reales, y esto lo convierte en una de las herramientas de creación de malware más peligrosas del mundo.

    PoisonGPT

    PoisonGPT se diseñó para ser un ejemplo ilustrativo de la IA oscura. Creado por una empresa de ciberseguridad francesa, PoisonGPT se diseñó para demostrar lo rápido que podía introducirse información errónea en los LLM de código abierto.

    Cómo protegerte contra las amenazas relacionadas con la IA

    Para protegerte frente a las amenazas relacionadas con la IA oscura, te recomendamos usar contraseñas seguras y la autenticación en varios pasos, limitar tu presencia en internet, examinar los correos y los mensajes, y limitarte a seguir fuentes informativas verificadas. Te dejamos un resumen más detallado de las principales acciones que puedes realizar para defenderte contra los ataques de IA:

    • Ten cuidado con las comunicaciones: tómate el tiempo necesario para examinar bien los correos y los mensajes antes de responder, incluso aunque parezcan de un amigo, un familiar, un compañero o una empresa de confianza.

    • Comprueba las fuentes: asegúrate de confirmar la validez de la información que lees en internet para evitar caer en información errónea creada con inteligencia artificial. Por ejemplo, si lees algo sobre lo que parece ser una noticia importante, comprueba si otras fuentes informativas conocidas están hablando de ello antes de creértelo.

    • Busca discrepancias: si sospechas que estás viendo un vídeo deepfake, presta especial atención a los detalles como el rostro y el cuello, así como a fallos de audio, para determinar si el vídeo es falso. Si algo te resulta extraño, suele ser por un buen motivo.

    • Usa contraseñas seguras: utiliza siempre contraseñas exclusivas y complejas para tus cuentas en línea. De esa forma, aunque alguna de ellas esté en peligro por un ataque de robo de contraseñas con IA oscura, el resto de las cuentas no estarán en riesgo de inmediato.

    • Activa la autenticación en dos pasos: usar la autenticación en dos pasos añade otra capa de seguridad a tus cuentas, y esto te ayuda a impedir que los hackers puedan acceder a ellas aunque obtengan tu contraseña.

    • Utiliza medidas estrictas de seguridad en internet: un buen programa antivirus puede ayudarte a proteger el sistema y eliminar virus y otro tipo de malware que pueda haberse instalado si eres víctima de algún ataque de phishing o haces clic en un sitio web falso.

    • Limita tu presencia en línea: para crear deepfakes, se necesita material a partir del cual crear los parecidos. Para reducir el riesgo de que te roben rus rasgos físicos, limita la cantidad de fotos y vídeos que compartes en internet, o al menos aplica algunos ajustes de privacidad en tu perfil de Facebook y el resto de cuentas de redes sociales que uses.

    • Limita al mínimo los datos que compartes en internet: intenta limitar la información que haces pública, como tu fecha de nacimiento, tu lugar de trabajo, tu familia más cercana, etc. De esta forma, podrás limitar los detalles que pueden usar los estafadores o hackers para crear correos de phishing convincentes u otras estafas.

    Protégete contra la IA oscura

    La IA oscura no para de evolucionar, y esto hace que las ciberamenazas sean más peligrosas y engañosas que nunca. Desde deepfakes y ataques de phishing con IA hasta herramientas de hackeo sofisticadas, los ciberdelincuentes usan inteligencia artificial para explotar vulnerabilidades y manipular información con fines malintencionados.

    Descarga Avast Free Antivirus, la solución de seguridad todo en uno que identifica y bloquea estafas, malware e intentos de phishing, para protegerte.

    Más artículos sobre seguridad

    ¿La IA se puede usar de forma malintencionada?

    ¿Qué es una red informática? Definición, ejemplos y funcionamiento

    Cómo desbloquear un número en un dispositivo Android

    ¿Qué es Cash App? ¿Es seguro?

    Cómo encontrar y recuperar mensajes de texto eliminados en Android

    Cómo comprobar la calificación crediticia

    TLS: ¿qué es la seguridad de la capa de transporte y cómo funciona?

    NFT para principiantes: cómo crear su propio NFT

    ¿Qué es «rootear»? Los riesgos de rootear su dispositivo Android

    Cómo encontrar un teléfono Android perdido o robado

    El mejor software de seguridad en Internet en 2024

    Seguridad de Internet: ¿qué es y cómo protegerse en línea?

    Combate las estafas, bloquea a los hackers y evita amenazas con Avast Mobile Security

    Avast
    Mobile Security

    Instalación gratuita

    Combate las estafas, bloquea a los hackers y evita amenazas con Avast Mobile Security

    Avast
    Mobile Security

    Instalación gratuita
    Consejos de seguridad
    Seguridad
    Jeremy Coppock
    3-10-2025