El aumento de los fraudes financieros en Brasil está estrechamente ligado al creciente uso de herramientas de inteligencia artificial (IA) por parte de delincuentes. Según datos de la Policía Federal, estas estafas ya representan el 42,5% de los fraudes financieros en el país, lo que ha puesto en alerta al Ministerio de Justicia y Seguridad Pública. La gravedad de la situación evidencia un cambio en el perfil de la actividad criminal, aprovechando las oportunidades que ofrece el entorno virtual para multiplicar y ocultar sus acciones.
Brasil se ha convertido en uno de los mayores productores de *malwarea nivel mundial, programas diseñados para robar datos bancarios de clientes. Este panorama se detalla en un informe elaborado por Signicat, especializada en prevención de fraudes digitales, en colaboración con Consult Hyperion, experta en sistemas de pago e identidad digital.
Los estafadores no solo utilizan la IA, sino también el *machine learning(aprendizaje automático) para automatizar los ataques y darles una apariencia más realista. Datos de Serasa Experian revelan que se registra una tentativa de fraude digital cada 2,2 segundos en Brasil. En 2023, se proyectaron alrededor de 14 millones de intentos de fraude, con cerca de 11 millones de casos confirmados hasta septiembre.
Una de las tácticas más recientes y preocupantes es el uso de *deepfakesde video e imagen. Los delincuentes crean videos de figuras públicas, influencers o personas comunes para promocionar productos falsos o solicitar donaciones para causas inexistentes. Los softwares avanzados no solo replican rostros, sino que también sincronizan los movimientos labiales para reproducir el habla con precisión, haciendo que las falsificaciones sean cada vez más difíciles de detectar.
La IA también se utiliza para replicar voces de familiares y amigos, capturadas de publicaciones en redes sociales, para realizar llamadas y solicitar transferencias urgentes a través de Pix, aprovechando el factor emocional. Los delincuentes simulan situaciones de emergencia, como accidentes o secuestros relámpago, para presionar a las víctimas a actuar rápidamente.
Además, la inteligencia artificial facilita la creación de documentos falsos realistas, como licencias de conducir, comprobantes bancarios y de domicilio, lo que permite a los estafadores abrir cuentas ficticias y solicitar préstamos a nombre de las víctimas.
"La IA es la forma más barata y fácil de aplicar estafas a muchas personas. Puede generar textos y audios más convincentes, así como sitios web engañosos", explica Fabro Steibel, director ejecutivo del Instituto de Tecnología y Sociedad (ITS) de Río de Janeiro.
Steibel enfatiza que el usuario final no se protege directamente de la IA, sino de los fraudes en general, que se vuelven más sofisticados y se aplican a mayor escala gracias a la tecnología. "La IA simplemente facilita la escalabilidad de la estafa".
Para evitar ser víctima de estos fraudes, los expertos recomiendan desconfiar de las ofertas demasiado buenas para ser verdad y activar la autenticación en dos factores. Steibel compara la situación con la precaución que se tomaba en el pasado al interactuar con extraños en la calle: "De la misma manera que desconfiábamos de los extraños en la calle, debemos desconfiar de todo en línea".
Algunas señales de alerta incluyen la indicación de una fuente de contacto para generar credibilidad y la solicitud de datos personales. "Quien te contacta no debería necesitar tus datos", afirma Steibel, sugiriendo que solo se confirmen las informaciones existentes y se evite proporcionar datos nuevos a menos que se haya iniciado el contacto.
Estos cuidados deben redoblarse en interacciones que involucren dinero y en nombre de instituciones como bancos o aseguradoras. Se recomienda acceder al aplicativo habitual para verificar la autenticidad de boletos o claves Pix antes de realizar cualquier pago.
Julia Baroli Sadalla, profesora de Derecho en la Universidad Santo Amaro (Unisa) e investigadora de la PUC-SP, añade que, además de no compartir información personal y desconfiar de contactos desconocidos, es importante verificar la identidad por otros canales.
"Hoy en día, la estafa no depende solo de enlaces sospechosos. Puede llegar a través de voces clonadas, videos falsos, mensajes convincentes y enfoques personalizados con datos reales filtrados", advierte Sadalla.
Entre las medidas de protección recomendadas, destaca la creación de contraseñas verbales con familiares y amigos cercanos, ya que la IA puede reproducir incluso la voz de las personas, lo que hace que el golpe del falso secuestro sea aún más sofisticado.
Además, es fundamental revisar los permisos de las aplicaciones y la configuración de privacidad para limitar el acceso a la ubicación, contactos, micrófono y cámara, reduciendo así la recopilación excesiva de datos.
El monitoreo constante de las señales de fraude, como movimientos bancarios extraños, intentos de inicio de sesión, chips sin señal y cobros indebidos, también es crucial. En caso de detectar alguna anomalía, se debe actuar rápidamente, comunicando el banco y solicitando la contestación de la transacción y el bloqueo cautelar del valor.
Finalmente, se debe desconfiar de nuevas cuentas para realizar pagos, especialmente en casos como el del falso abogado, en el que los delincuentes se hacen pasar por representantes legales para exigir pagos anticipados. Se recomienda no realizar depósitos solicitados por WhatsApp que no hayan sido previamente acordados en una consulta.
En caso de ser víctima de una estafa, es importante reunir pruebas, registrar una denuncia policial, avisar al banco o a la plataforma involucrada y cambiar las contraseñas lo antes posible. La protección de datos se ha convertido en una necesidad imperiosa para salvaguardar el patrimonio, la reputación y la estabilidad emocional.










