sábado 18 de mayo de 2024
Las víctimas son corporaciones empresariales

Advierten que se usa inteligencia artificial para ciberestafas

El Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales de la Universidad Austral (OCEDIC) advirtió en las últimas horas sobre el uso de inteligencia artificial para generar deepfakes y ciberestafas, cuyas víctimas suelen ser las corporaciones empresariales.

Se trata de contenido multimedia sintético generado por Inteligencia Artificial (IA) que se encuentra disponible a través de aplicaciones como FaceApp o Deep Face Lab, entre otras.

La tecnología deepfake, según se explicó, puede producir un video o audio falso de una persona, que se percibe como verdadero, expresando algo que en realidad nunca dijo. Estas falsificaciones generan, sistemáticamente, amenazas de fraudes en línea, cuyas víctimas suelen ser las corporaciones empresariales.

En el marco de la presentación del libro "Ciberfraudes: Criptoactivos y Blockchain" que forma parte de una colección de materiales sobre el tema a cargo de la fiscal Daniela Dupuy, directora de OCEDIC, se profundizó acerca de esta modalidad que impacta a nivel internacional, debido a la transnacionalidad de la comisión de estas conductas delictivas, cuyos autores pueden operar desde cualquier parte del mundo.

"Los resultados de un estudio reciente mostraron que la amenaza más significativa de la IA ofensiva es su capacidad para mejorar algunos de los ataques de ingeniería social, como por ejemplo utilizar deepfakes para clonar la voz de directores ejecutivos o la imagen de ciudadanos respetables", explicó Dupuy.

En tanto, un informe de la Fundación Carnegie para la Paz Internacional sobre la amenaza que suponen las deepfakes resalta su posible intervención en diferentes formas de fraudes de identidad, permitiendo a los atacantes mejorar su capacidad para engañar a los humanos añadiendo un plus de autenticidad.

El uso de chatbots de IA, como ChatGPT, también puede fomentar las actividades fraudulentas, pudiendo ayudar a los posibles estafadores a superar errores de lenguaje que se suelen encontrar en mensajes de phishing (ejemplo de ello es una petición y respuesta de ChatGPT en cualquier idioma).

Seguí leyendo

Te Puede Interesar