
El objetivo es que no seas víctima de ataques de este tipo. Podrían usar vídeos falsos simplemente para obtener información personal, contraseñas o poner en riesgo tus dispositivos. Pueden llegar por medios muy variados, como WhatsApp, redes sociales como Facebook o Instagram, el correo electrónico, etc.
El problema de los vídeos falsos generados por IA
Podemos decir que los vídeos generados a través de Inteligencia Artificial, están presentes en plataformas de todo tipo hoy en día. En ocasiones, puede ser bastante sencillo identificar si es o no una estafa. En otras, en cambio, resulta muy complicado. Esto último hace que sean muy peligrosos.
Por ejemplo, los vídeos falsos generados por IA pueden ser utilizados para desinformar. Podrían mostrar a una persona reconocida, como podría ser un político, un deportista de élite o cualquier otro que pueda tener una gran repercusión, y mostrar un mensaje que nada tiene que ver con la realidad.
Pero también los pueden utilizar para generar fraudes y estafas en Internet. Hemos visto que utilizan vídeos de famosos para provocar que la víctima invierta dinero en una página falsa, que compre un producto que no es oficial o que instale algún programa que, en realidad, va a contener malware. Pueden clonar muy bien la voz y que parezca que esa persona famosa está dando realmente instrucciones.
Este problema, conocido también como Deepfake, es uno de los grandes riesgos que hay en Internet actualmente. Así lo indican desde INCIBE, el Instituto Nacional de Ciberseguridad de España. Estos vídeos manipulados pueden invitar a hacer clic en un enlace malicioso, poner datos donde no debes o descargar algún archivo que va a suponer un riesgo importante.
Cómo detectarlos
Entonces, ¿qué puedes hacer para detectar estos vídeos falsos generados por Inteligencia Artificial? Lo primero que debes revisar, son señales que puedan demostrar que se trata de una estafa. Por ejemplo, en un vídeo, podrías ver sombras donde no debería haberlas, gestos faciales extraños en las personas, sincronización rara entre el habla y los movimientos de la boca o transiciones de vídeo que no cuadran con lo que debería ser. Todo esto puede indicar que se trata de una manipulación.
También debes observar el audio. Por ejemplo, en el caso de una persona hablando, podrías notar que es un tono robótico, que no es natural y que puede significar que está claramente creado a través de IA. Especialmente, esto lo puedes ver en vídeos en los que suplantan la identidad de famosos. Eso sí, cada vez lo hacen mejor y cuesta más detectarlo.
Otro detalle que puede ayudarte a detectar si es o no un vídeo generado por IA, es la calidad de imagen. Hoy en día, los móviles y cámaras actuales tienen una gran calidad de grabación, con el 4K y 1080p como algo generalizado. Sin embargo, muchos vídeos generados por Inteligencia Artificial, tienen una calidad pobre. Están hechos a través de programas informáticos y es frecuente ver que la imagen no es completamente nítida o no tiene la misma calidad que si hubiera sido grabado realmente.
Por supuesto, es importante mantener el sentido común y tener en cuenta la fuente. Si te encuentras con un vídeo de este tipo por redes sociales, publicado por perfiles desconocidos, o bien que te llega a través de un grupo de WhatsApp, no es lo mismo que si has visto ese vídeo a través de un medio reconocido, fiable y verificado.
Detectar vídeos creados por IA
| Tipo de Señal | Detalle a Observar | Ejemplo Práctico |
|---|---|---|
| Visual – Rostro | Parpadeo poco natural o ausente, gestos faciales extraños o limitados. | La persona en el vídeo no parpadea durante un largo periodo de tiempo. |
| Visual – Sincronización | Mala sincronización entre el movimiento de los labios y el audio. | Las palabras suenan ligeramente antes o después de que la boca se mueva. |
| Visual – Entorno | Sombras o iluminación inconsistentes en el rostro o el fondo. | Una sombra en la cara no corresponde con la fuente de luz principal de la escena. |
| Calidad de Imagen | Zonas borrosas o pixeladas, especialmente en los bordes del rostro o el pelo. | El vídeo tiene una calidad general aceptable (1080p) pero el contorno de la cara parece difuminado. |
| Audio | Voz monótona, robótica, con entonación extraña o sin ruidos de fondo naturales. | La voz carece de las pausas y cambios de tono típicos de una conversación humana. |
Qué hacer tras un Deepfake
En caso de que hayas sido víctima de una estafa a través de un vídeo falso hecho por IA, es importante que actúes lo antes posible. Por ejemplo, si esa estafa consiste en que has iniciado sesión o has descargado algún archivo malicioso, es importante que cambies cuanto antes la contraseña y analices tu equipo para eliminar posible malware.
También es clave que cortes la cadena de estafa. En muchos casos, los atacantes lo que buscan es viralizar un vídeo falso para llegar a más y más gente. Intenta contactar con tus amigos y familiares a los que hayas enviado, por error, ese vídeo, para cortar así la cadena y evitar más posibles víctimas.
Además, es importante que reportes este vídeo fraudulento. Puedes hacerlo en la propia plataforma, como podría ser Facebook o Instagram, por ejemplo. También tienes la opción de llamar al 017, el número de teléfono oficial de España para obtener información sobre ciberestafas y poder actuar lo antes posible.
Actuar ante un Deepfake
| Nº | Acción Esencial | Detalles Importantes | Completado |
|---|---|---|---|
| 1 | Documentar y Guardar Pruebas | Capturas de pantalla, URL, copia del vídeo. | ☐ |
| 2 | Reportar en la Plataforma Original | Usar la opción ‘Denunciar’ por fraude o suplantación. | ☐ |
| 3 | Alertar a Afectados | Avisar a tus contactos si te suplanta a ti o a conocidos. | ☐ |
| 4 | Presentar Denuncia Oficial | Acudir a Policía Nacional o Guardia Civil con las pruebas. | ☐ |
| 5 | Solicitar Asesoramiento Experto | Contactar con la Línea de Ayuda en Ciberseguridad de INCIBE (017). | ☐ |
En definitiva, debes tener cuidado con los vídeos falsos generados por IA, ya que los pueden usar para robar información, contraseñas, distribuir malware o simplemente desinformar. Aunque no siempre es sencillo de detectar, puedes seguir estos consejos.
Preguntas frecuentes
¿Por dónde pueden llegar vídeos falsos generados por IA?
Podrían llegarte estos vídeos a través de WhatsApp, redes sociales o correo electrónico, además de verlos en páginas de todo tipo.
¿Puede contener virus un vídeo falso?
Los vídeos falsos podrían provocar que te infectes con malware, ya que podrían invitarte a hacer clic en un enlace o a descargar un determinado archivo malicioso.
¿Hay algún tipo de marca que indique que un vídeo está generado por IA?
En ocasiones, los vídeos generados por Inteligencia Artificial sí que llevan una marca indicando este hecho. En otras, en cambio, van a parecer un vídeo normal, sin ninguna señal.


































