¿Puedes reconocer un deepfake? Esto es lo que debes saber
Hablemos de qué son los deepfakes, cómo reconocer las estafas más comunes y qué técnicas de detección puedes aplicar para mantenerte siempre un paso por delante.
¿Qué son los deepfakes?
Los deepfakes son videos, audios o imágenes generados con inteligencia artificial que parecen reales y hacen que una persona parezca decir o hacer cosas que nunca hizo. Su realismo los convierte en una herramienta peligrosa para el fraude, la manipulación y el descrédito.
Seguro has visto casos en las noticias. Por ejemplo, una mujer francesa de 53 años, conocida como Anne, creyó mantener una relación sentimental con Brad Pitt tras recibir mensajes de estafadores que se hicieron pasar primero por su madre y luego por él. Se divorció de su acaudalado esposo, envió 9000 dólares por supuestas tasas de aduana en regalos y acabó perdiendo más de 800000 dólares del acuerdo de divorcio [1].
En otro caso, una profesora jubilada de Edimburgo, Nikki MacLeod, fue engañada con 17000 libras en una estafa romántica que usaba videos deepfake de una mujer con la que pensaba estar saliendo [2].
El lado oscuro: estafas comunes con deepfakes
1. Estafas de inversión. Los estafadores se hacen pasar por celebridades o directivos para promocionar oportunidades falsas con altos rendimientos. Steve Beauchamp, jubilado de 82 años, vio un video de Elon Musk promocionando una inversión en criptomonedas; convencido de que era real, invirtió más de 690000 dólares de sus ahorros y los estafadores desaparecieron. Estas farsas explotan la confianza y la avaricia, provocando pérdidas enormes.
2. Estafas románticas. Personas que conocen a alguien en línea y viven un romance acelerado descubren después que todo era un engaño. Como en el caso de Brad Pitt mencionado, los estafadores se aprovechan de la soledad para conseguir transferencias, incluso provocar divorcios. La historia de Edimburgo muestra cómo los videos con IA hacen que la estafa parezca dolorosamente auténtica.
3. Estafas políticas. Los deepfakes pueden dañar reputaciones, difundir mentiras e incitar al caos. En Eslovaquia, un audio falso de un líder político hablando de manipular votos apareció poco antes de las elecciones parlamentarias de 2023, con potencial para influir en la opinión pública y erosionar la confianza en las instituciones.
4. Extorsión y suplantación en tiempo real. Mediante llamadas o videollamadas, los estafadores imitan a seres queridos o figuras de autoridad para exigir pagos urgentes. Un caso estremecedor: un empleado de finanzas en una multinacional de Hong Kong transfirió 25 millones de dólares tras una videollamada con versiones deepfake del CFO y colegas, quienes ordenaron la transferencia para una supuesta operación confidencial.
Guía simple para detectar deepfakes
En videos
- Posturas corporales o gestos faciales poco naturales, como parpadeo extraño o rigidez en los labios.
- Reflejos o sombras inconsistentes, sobre todo en ojos y gafas.
- Audio desincronizado con el movimiento de la boca.
- Zonas borrosas alrededor de la boca o el mentón y bordes irregulares.
- Saltos o discontinuidades, como cambios súbitos de color en la ropa o del fondo.
En fotos
- Apariencia excesivamente pulida o demasiado perfecta.
- Rasgos fuera de lugar: dedos de más, extremidades deformadas, asimetrías raras o piel con textura incoherente.
- Texto y números distorsionados o ilegibles en carteles, etiquetas o camisetas.
- Tono de piel que no coincide entre cara y cuello o manos.
En audio
- Tono robótico o plano sin las variaciones naturales de la voz.
- Ausencia de ambiente o ruidos de fondo inverosímiles para el contexto.
Además de estas señales, contrasta detalles clave: ¿la iluminación y las sombras son coherentes?, ¿los reflejos en los ojos coinciden con el entorno?, ¿el reloj o el fondo cambian de forma inexplicable? Verifica la fuente original, realiza búsquedas inversas de imagen y video, y pide pruebas en vivo imposibles de automatizar, como mencionar detalles contextuales únicos o realizar gestos espontáneos.
Existen herramientas que pueden ayudar en el análisis, como Sensity AI, Reality Defender, Truepic Lens y DuckDuckGoose. Úsalas como apoyo, pero recuerda que tu escepticismo y verificación manual son la primera línea de defensa.
Cómo te ayuda Q2BSTUDIO
En Q2BSTUDIO somos una empresa de desarrollo de software especializada en aplicaciones a medida y software a medida, con soluciones de inteligencia artificial y ciberseguridad para blindar tu negocio frente a amenazas como los deepfakes. Diseñamos e integramos agentes IA, automatización de procesos, servicios inteligencia de negocio y cuadros de mando con power bi, y desplegamos infraestructuras escalables con servicios cloud aws y azure. Si buscas reforzar tus defensas, nuestros servicios de ciberseguridad y pentesting evalúan vulnerabilidades, verifican flujos críticos y protegen tus canales de comunicación. Y si quieres incorporar capacidades avanzadas de detección y verificación, te acompañamos con soluciones de inteligencia artificial para empresas adaptadas a tu contexto.
Conclusión: mantén la mirada crítica y una dosis saludable de escepticismo. Detectarás muchas señales de falsificación si prestas atención a movimientos antinaturales, detalles incoherentes, distorsiones visuales o voces poco creíbles. Las herramientas son un gran apoyo, pero tu criterio es la primera defensa. No te dejes apresurar ni silenciar.
Referencias
[1] Newsweek
[2] BBC
[3] MIT Media Lab
[4] ManualByte
[5] NCOA
[6] TechTarget