San Valentín y la nueva era de las estafas románticas con IA
Los fraudes amorosos evolucionaron con deepfakes, clonación de voz y chatbots. Generan pérdidas millonarias y un fuerte impacto emocional, mientras su detección se vuelve cada vez más compleja.
El costado más oscuro del romance digital se potencia cada año en la previa de San Valentín. Lo que antes podía reducirse a una foto robada o a un perfil dudoso en redes sociales hoy se convirtió en un esquema sofisticado de manipulación apoyado en inteligencia artificial, con miles de víctimas en todo el mundo.
Según el último Informe Global de Crímenes Financieros, las estafas románticas y los fraudes basados en la construcción de confianza generan pérdidas cercanas a los US$3.800 millones anuales a nivel global. Pero el daño no es únicamente económico: muchas víctimas atraviesan consecuencias psicológicas profundas, marcadas por la sensación de traición y la revictimización.
Uno de los casos más emblemáticos fue el de Cecilie Fjellhoy, cuya historia se popularizó en el documental El estafador de Tinder. Tras ser engañada por un hombre que simulaba ser un empresario millonario, perdió alrededor de 200.000 libras, su vivienda y terminó en bancarrota. Su testimonio expuso la magnitud emocional de este tipo de delitos, que hoy, con nuevas herramientas tecnológicas, resultan aún más difíciles de detectar.
Identidades fabricadas desde cero
El salto cualitativo en estas maniobras está vinculado al uso de IA generativa. Ya no se trata simplemente de suplantar a una persona real, sino de crear perfiles completamente ficticios, con imágenes, voz y comportamiento coherentes.
Josué Martínez, Global Advisor para Latinoamérica de BioCatch, explicó que el auge de las aplicaciones de citas y redes sociales facilita el terreno para estos engaños. La tecnología permite construir personajes creíbles, capaces de sostener conversaciones prolongadas y convincentes.
Entre las herramientas más utilizadas aparecen los deepfakes -videos manipulados que simulan gestos y movimientos en tiempo real-, la clonación de voz para fingir emergencias y solicitar dinero urgente, y chatbots basados en modelos de lenguaje que mantienen diálogos afectivos las 24 horas, adaptándose a las vulnerabilidades emocionales de la víctima.
Por qué cuesta tanto detectarlas
A diferencia de otros ciberdelitos, en estas estafas la transferencia de dinero es realizada voluntariamente por la propia víctima. Según Martínez, al utilizar sus dispositivos habituales y métodos de autenticación tradicionales, no siempre se generan alertas automáticas en los sistemas bancarios.
Además, los fondos suelen canalizarse a través de cuentas "mulas" creadas específicamente para dispersar el dinero y dificultar su rastreo. Esto complica la intervención temprana de las entidades financieras.
Como respuesta, algunas instituciones avanzan en tecnologías de biometría conductual, que analizan la forma en que una persona interactúa con su dispositivo -velocidad de tipeo, movimientos del mouse o pausas inusuales- para detectar patrones de estrés o coerción al momento de realizar una operación.
Cómo evitar caer en el engaño
Los especialistas recomiendan adoptar medidas básicas de prevención:
-
-No enviar dinero, criptomonedas ni tarjetas de regalo a personas que no se hayan conocido personalmente. Las historias de urgencias médicas o problemas aduaneros son frecuentes en estos fraudes.
-
-No compartir información sensible, como ingresos, ahorros o documentación personal, aunque la relación virtual parezca sólida.
-
-Desconfiar de contactos inesperados que inician conversaciones con excusas triviales y luego intentan generar un vínculo emocional rápido.
- En tiempos donde la inteligencia artificial puede fabricar rostros, voces y relatos creíbles, la principal defensa sigue siendo la prudencia. La sofisticación tecnológica crece, pero también la necesidad de educación digital y alerta temprana frente a promesas demasiado perfectas.