La abogada especializada en tecnología, Agustina Pérez Comenale, dio recomendaciones de cómo actuar para evitar ser víctimas de estafas, principalmente, mediante el uso de inteligencia artificial.
Abogada experta en tecnología dio recomendaciones para evitar ser víctimas de estafas con inteligencia artificial
Pérez Comenale sugirió aplicar un pensamiento crítico, tener dudas y hacer preguntas para corroborar la identidad de la persona. Además, prestar atención en imágenes y voces en los videos.
Este lunes, una mujer denunció que delincuentes recrearon la voz de su hermano mediante inteligencia artificial y llamaron a sus familiares para decirles que estaba secuestrado y necesitaba dinero.
Como primer consejo, Pérez Comenale sugiere aplicar un pensamiento y espíritu crítico; “tener dudas”, sin importar si el acercamiento proviene de alguien que simula ser, con voz e imagen, una persona conocida. “Eso no es ningún tipo de causal como para dejar de desconfiar”, aseguró.
Operaron por tercera vez a niña de 2 años que fue baleada durante el homicidio de su padre; sigue en estado crítico
Más allá de las herramientas disponibles para detectar estos casos, que no son de uso habitual, la experta recomendó hacer preguntas sobre aspectos personales a los efectos de corroborar la identidad del supuesto familiar o conocido y sospechar siempre que se pidan sumas de dinero. En esos casos, se debe contactar a otros familiares o amigos.
La manipulación digital mediante inteligencia artificial por la que se modifican videos, audios e imágenes para que parezcan reales con el objetivo de crear un contenido falso es conocida como deepfake. Esa práctica está tipificada en el artículo 347 sobre estafa en el Código Penal, y ahora la suplantación de identidad, en la nueva regulación de la ley 20.327 de prevención y represión de la ciberdelincuencia. Pérez Comenale destacó la salvaguarda jurídica para enfrentar este tipo de casos.
La experta refirió a la dificultad para llegar al fondo del asunto y al elevar los riesgos por la triangulación internacional que realizan los ciberdelincuentes, muchas veces desde otros países o utilizando una IP de otro país.
A los efectos de chequear la veracidad del relato, la imagen o el audio, la especialista instó a prestar atención a ciertas alarmas dentro del contenido digital como anomalías en la voz o en el video, como la forma de mover los ojos. Esas pueden ser señales para despertar la duda, indicó.
Dejá tu comentario