México al minuto

Información al instante

Deepfakes: la nueva arma de los estafadores digitales impulsada por la inteligencia artificial

Por Juan Pablo Ojeda

 

La inteligencia artificial está revolucionando la forma en que trabajamos, aprendemos y nos comunicamos… pero también cómo nos engañan. Hoy, con un par de clics, cualquier persona puede crear un video, una voz o una foto tan realista que resulta casi imposible distinguirla de la realidad. Estos montajes digitales, conocidos como deepfakes, se han convertido en la herramienta favorita de los ciberdelincuentes para realizar fraudes y suplantaciones de identidad en línea.

Hasta hace poco, los intentos de estafa eran fáciles de detectar: correos con faltas de ortografía o mensajes mal traducidos. Pero eso quedó atrás. La inteligencia artificial generativa ha cambiado las reglas del juego. Ahora, un delincuente puede imitar la voz de un familiar, recrear el rostro de un jefe o inventar una videollamada completamente falsa para pedir dinero o información sensible.

Un estudio reciente de la Universidad de Carolina del Norte advierte que estos engaños están creciendo a una velocidad alarmante. Lo que antes requería horas de edición y conocimientos avanzados, hoy se logra en minutos desde un celular. En algunos países ya se han reportado fraudes millonarios con audios o videos falsos de directivos pidiendo transferencias urgentes.

El llamado “fraude del CEO” es un ejemplo claro: los delincuentes crean una copia de la voz o imagen de un jefe y, con ella, engañan a empleados para que realicen movimientos financieros o compartan datos confidenciales. Y lo peor es que los resultados son tan realistas que incluso expertos en tecnología pueden dudar.

La inteligencia artificial permite personalizar estos engaños al extremo. Los estafadores cruzan información pública —como redes sociales, correos filtrados o grabaciones previas— con modelos de voz o texto para construir trampas hechas a la medida. En cuestión de segundos pueden replicar el tono, las palabras o hasta las pausas características de una persona.

La velocidad y el realismo de estas falsificaciones hacen que los métodos tradicionales de detección ya no sean suficientes. Un video o audio manipulado puede difundirse en redes y volverse viral antes de que alguien logre verificarlo, amplificando el daño.

Frente a este panorama, los expertos recomiendan algo tan simple como poderoso: detenerse antes de reaccionar. Si un mensaje o llamada genera presión o urgencia —por ejemplo, “haz esta transferencia ya” o “no le digas a nadie”—, lo más probable es que sea una trampa. Verificar la información por un segundo canal, como una llamada directa o un mensaje independiente, puede evitar pérdidas graves.

También es importante prestar atención a los detalles: un acento ligeramente distinto, una expresión poco común o un entorno visual extraño pueden ser señales de alerta. Complementar esto con herramientas como la autenticación en dos pasos o filtros de seguridad ayuda a blindar cuentas y comunicaciones.

En un mundo donde la inteligencia artificial puede crear realidades falsas con facilidad, la nueva habilidad esencial no es tecnológica, sino humana: aprender a dudar antes de confiar.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *