Conforme avanza la tecnología, diversas actividades de la humanidad se realizan de una manera más sencilla, sin embargo, al mismo ritmo surgen nuevas herramientas que permiten a los delincuentes cometer crímenes sin ser detectados, tal es el caso de la Inteligencia Artificial (IA), que no ha quedado exenta de ser utilizada para la realización de videollamadas falsas.
Y es que tiempo atrás una de las prácticas más comunes era recibir llamadas asegurando que se trataba de una institución bancaria o ente gubernamental requiriendo de un pago inmediato e incluso en otros casos se decía que eran familiares presuntamente en apuros los que realizaban las llamadas para pedir ayuda, pero ahora para darle más realismo incluso utilizan el video.
¿Cómo utilizan la Inteligencia Artificial para cometer robos?
Esta tecnología es utilizada para estafar a las personas mediante la suplantación de la identidad de familiares o amigos, pues mientras antes la innovación era la clonación de voz, ahora los ciberdelincuentes van más allá con la clonación de la imagen en movimiento de un ser humano, lo cual ya le sucedió a un hombre en China que recibió una llamada de quien pensaba era su esposa.
La comunicación se dio a través de la plataforma de WeChat, la cual es sumamente popular en el país oriental, durante la charla la mujer le pidió cerca e 3 mil 600 dólares, es decir poco más de 63 mil pesos, bajo el pretexto de que había sufrido un accidente automovilístico, por lo que requería del efectivo para encontrar una solución al conflicto con el otro conductor.
Cabe puntualizar que, pese a que la llamada se realizó desde una cuenta diferente a la original de la mujer, fue debido al parecido físico que el hombre de 73 no dudó ni un segundo que el hecho fuera real, por lo que entregó el recurso sin cuestionar nada, sin pensar que se trataba de una imagen creada a través de esta tecnología de generación de imágenes hiperrealistas.
¿Cómo lograron identificar a la esposa de su víctima?
De acuerdo a los resultados que hasta el momento han obtenido las autoridades con sus investigaciones, los responsables siguieron a la pareja durante un determinado periodo de tiempo y fue debido a que la mujer tiene un canal de creación de contenido sobre cocina que pudieron obtener los datos para poder generar la deepfake utilizada para cometer el delito.
- Leer más: Seis de cada 10 mexicanos usan la IA
Pero todo parece indicar que este no es el único caso que se ha dado alrededor del mundo, pues de acuerdo con un reciente reporte del diario estadounidense The Washington Post, tan sólo a lo largo del 2022 se tuvo registro de 36 mil denuncias en el país del norte de América por parte de personas que fueron engañadas a través de la clonación de voz, pues este es el principal método de estafa.
Finalmente, respecto al más reciente caso, las autoridades chinas externaron su preocupación por lo que la comenzaron a hacer uso de la red social de Weibo para dar a conocer lo sucedido a manera de advertencia, acompañado del mensaje “Sean cautelosos al dar información biométrica y que se abstenga de compartir videos y otras imágenes de sí mismos en Internet”.