
La justicia de Chubut investiga una estafa orquestada con inteligencia artificial que tuvo como víctima a un vecino de Rawson. El fraude se perpetró mediante anuncios en internet donde se utilizó, de forma engañosa, la imagen y la voz del conductor Alejandro Fantino, generadas digitalmente para promocionar una falsa plataforma de inversiones en divisas.
Según informaron fuentes judiciales a Infobae, la víctima fue convencida de transferir dinero a una cuenta bancaria luego de interactuar con la promoción, bajo la creencia de que se trataba de una inversión legítima. Posteriormente, los fondos fueron convertidos en criptomonedas y redirigidos a otras cuentas, que permanecen bajo análisis de los investigadores.
A raíz de la denuncia presentada, la jueza de Garantías Eve Ponce habilitó la apertura formal de una causa. El expediente está a cargo de la Unidad Fiscal Especializada en Cibercrimen y Evidencia Digital de la provincia. Por el momento, hay un imputado identificado como R.S., domiciliado en la ciudad de Santa Fe, titular de la cuenta receptora del dinero.
El engaño se concretó el 25 de mayo, cuando la víctima, D.M., contactó con la aplicación de inversiones promocionada mediante inteligencia artificial con la imagen y voz de Fantino. Ese día, D.M. transfirió 166.000 pesos en una primera operación y, más tarde, realizó un segundo envío de 70.000 pesos, ambos dirigidos a la cuenta de R.S.. Las pericias determinaron que las sumas fueron rápidamente cambiadas por criptomonedas y remitidas a otros destinos todavía bajo investigación.
Las autoridades detectaron que el ardid se apoyó en videos y recursos digitales modificados con inteligencia artificial para simular presentaciones de Fantino, una maniobra clave para ganar la confianza de la víctima y persuadirla de invertir. La causa fue calificada como delito de estafa en carácter de autor y/o partícipe necesario y ya tuvo una audiencia preliminar, donde Pablo Sánchez, defensor del principal acusado se presentó y no objetó la carátula.
No obstante, desde el Ministerio Público Fiscal, representado por el fiscal general Fernando Rivarola, remarcaron la dificultad para rastrear los fondos que fueron transformados en criptomonedas y transferidos entre cuentas virtuales en diferentes jurisdicciones. Por este motivo, señalaron que la Unidad Fiscal Especializada en Cibercrimen mantiene el análisis de la trazabilidad de los movimientos digitales para reconstruir el circuito del dinero y determinar si existen más personas involucradas.
Cómo identificar que personas hechas con IA en un video o una foto para evitar estafas
Diversas señales pueden alertar sobre la manipulación digital en materiales audiovisuales. El Instituto Nacional de Ciberseguridad de España (INCIBE) aconseja desconfiar de videos o imágenes que utilicen titulares alarmantes o que busquen apelar a las emociones para provocar una reacción inmediata.
Elementos extraños en el espacio, como sombras que no coinciden con la dirección de la luz, iluminación artificial o fondos desproporcionados, suelen ser indicadores de edición con IA.
Además, la examinación atenta del rostro, la piel y la coherencia de los rasgos resulta clave. Según el INCIBE, “el desenfoque alrededor del personaje o los movimientos poco naturales son pistas para sospechar un deepfake”.
También, el audio es un componente clave en los deepfakes. El INCIBE sugiere dudar de videos donde la voz no concuerda con el movimiento de los labios o en los que la sincronización entre audio e imagen resulta incoherente.
El análisis manual es indispensable, pero existen soluciones tecnológicas efectivas. Herramientas de detección apoyadas en IA pueden analizar el lenguaje, el tono, los patrones y la veracidad de imágenes, videos y mensajes.
Por ejemplo, la suite de Norton Scam Protection utiliza inteligencia artificial para marcar correos sospechosos, analizar dominios y bloquear llamadas potencialmente peligrosas, ofreciendo a los usuarios alertas inmediatas ante posibles fraudes.
Asimismo, el asistente virtual Genie de la empresa puede leer mensajes, analizar videos y sugerir si un contenido es una estafa, señalando los factores que llevaron a esa conclusión.



