Cualquier persona de la que exista material gráfico o audiovisual en redes sociales, puede ser víctima de algún ciberdelito mediante el uso de la Inteligencia Artificial (IA); aunque las personas más expuestas son políticos y figuras públicas, la comunidad en general puede resultar agraviada a través de diversas estafas como falsas inversiones, cuya publicidad se basa en usar la voz precisamente de políticos e incluso comunicadores reconocidos, dio a conocer un especialista en la materia.
Tan solo de 2023 a la fecha, la Policía Cibernética de Puebla (PCP) ha atendido 14 reportes por esta modalidad de fraude.
Jesús Alfredo Páez San Martín, jefe del Departamento de Prevención y Atención de Ciberdelitos de la Policía Estatal, explicó que la Inteligencia Artificial (IA) es cuando un computador, ordenador o máquina tiene la capacidad de tomar decisiones.
“Es un proceso en el que mediante aprendizaje una computadora va aprendiendo a tomar acciones, dependiendo las circunstancias que se le pongan enfrente”, detalló.
El especialista refirió que actualmente la IA se está usando para el procesamiento del lenguaje natural, es decir, que una computadora puede aprender el lenguaje humano tal y como sucede con algunos programas con los que se puede interactuar con estos “entes inteligentes” que entienden el lenguaje humano, procesarlo y darnos una respuesta.
Jesús Alfredo puntualizó que hay herramientas con las que se pueden crear montajes de una persona; incluso, hacer que la misma aparezca desnuda para después extorsionarla. Esto se debe a que a través de una simulación se puede cambiar un rostro, usar voces y crear un video, pero se tiene que entrenar a la Inteligencia Artificial.
El funcionario descartó que la gente de a pie, con un solo audio, pueda ser víctima de la clonación de voz para pedir dinero prestado, ya que se trata de un proceso complicado no redituable para el delincuente.
“No es muy común porque muchas veces la gente piensa que con un solo audio tuyo ya se puede clonar tu voz y hacer que pidas préstamos o algún tema de extorsión, no es tal fácil como parece”.
“Vemos que muchas veces clonan la voz de los famosos porque tienen mucho material para entrenar a las inteligencias artificiales y sí se puede dar que usen la voz de políticos, deportistas y gente de la farándula, pero para hacer ciertos videos, entonces sí se puede incurrir en ciertos delitos como fraude”, aseveró.
El entrevistado admitió que con la Inteligencia Artificial se está dando, por ejemplo, el uso y cambio de la voz del presidente de la República para invitar a los mexicanos a que inviertan en Pemex, tratándose de páginas apócrifas en las que te dan instrucciones de dónde o cómo depositar dinero desde 300 pesos a cambio de recibir mil, por bonanzas petroleras.
Policía Cibernética atendió 12 reportes
Añadió que con Inteligencia Artificial, clonan las voces de comunicadores para decir que salió una nota sobre los beneficios de esas inversiones.
En este sentido, el declarante compartió con tan solo en 2023, la Policía Cibernética de la Policía Estatal recibió 12 reportes por fraudes vinculados precisamente al tema de las falsas inversiones en Pemex; la mayoría de los casos, indicó, se dio en la recta final del año.
Para este 2024, solo hay registro de dos eventos de esta índole.
Ante esta situación y con el fin de evitar que más gente caiga en este tipo de engaños, Jesús Alfredo Páez llamó a no creer en inversiones que parecen tan accesibles y con ganancias elevadas.
Recalcó que cualquier publicación en internet, ya sea en plataformas como YouTube, Facebook, entre otras, en las que se invite a invertir en Pemex o empresas de renombre, puede ser fraude, pues muchas de ellas no cuentan con un esquema de inversiones.
Por lo anterior, el entrevistado invitó a reportar a este tipo de anuncios o videos a la Policía Cibernética; buscar más información del sitio web o empresa con la que desee invertir.
Para evitar el mal uso de la Inteligencia Artificial y de que llegue el momento en el que la gente “común” sea víctima de la comisión de un delito de forma directa con la clonación de voz o imágenes, el especialista pide a la gente no subir a las redes sociales fotografías personales o de algún familiar al igual que compartir audios.
Destacó que la Secretaría de Seguridad Pública pone a disposición de la población el número 22 22 13 81 11, línea abierta 24 horas, para recibir orientación por parte de la Policía Estatal Cibernética.