Empleo, asistencia técnica y comercio electrónico: así son los principales fraudes basados en IA

Archivo - Código informático, ciberseguridad. | CHARLES DELUVIO / UNSPLASH - Archivo

TW
0

Microsoft ha llamado la atención sobre el papel que la inteligencia artificial (IA) tiene en el cibercrimen, poniendo el foco en tres fraudes habituales, como son los relativos al empleo, la asistencia técnica y el comercio electrónico.

En el último año, Microsoft ha bloqueado en torno a 1,6 millones de intentos de registros de 'bots' por hora, una cifra que forma parte de sus esfuerzos por proteger a los usuarios de sus servicios y sistemas.

También frustró intentos de fraude por valor de 4.000 millones de dólares y rechazó 49.000 inscripciones fraudulentas de socios entre abril de 2024 y abril de 2025, como informa en una nota de prensa.

Estos datos se enmarcan en un contexto en el que la IA ha eliminado las barreras técnicas para la creación y despliegue de herramientas que facilitan los ciberataques, e incluso ha ampliado las capacidades de los cibercriminales, que pueden utilizarla para escanear la web en busca de información para los ataques de ingeniería social y para perfeccionar sus fraudes, recurriendo incluso a contenidos generados por IA realistas, lo que se conoce como 'deepfakes'.

Microsoft ha señalado que los ataques fraudulentos impulsados por IA, aunque se producen en todo el mundo, tienen dos orígenes bien identificados: China y Alemania, este último debido a que es uno de los mayores mercados de comercio electrónico y servicios en línea de la Unión Europea. «Cuanto mayor es un mercado digital en cualquier región, más probable es que se produzca un grado proporcional de intentos de fraude», ha explicado.

Estos fraudes están, principalmente, relacionados con el empleo, el comercio electrónico y con el soporte técnico, que el gigante tecnológico ha detallado para alertar a los usuarios.

Así, la estafa de soporte técnico intenta engañar a sus víctimas simulando ser el servicio técnico de un servicio o dispositivo electrónico, alegando un problema que, en realidad, no existe. De los tres citados, es en el que menos se utiliza la IA, aunque Microsoft refiere el caso de grupo Storm-1811 y el empleo de esta tecnología para suplantar la voz (vishing) de personas de organizaciones legítimas.

En el caso del fraude relacionado con el empleo, Microsoft explica que los cibercriminales «generan perfiles falsos con credenciales robadas, ofertas de empleo falsas con descripciones autogeneradas y campañas de correo electrónico basadas en IA para estafar a los solicitantes de empleo».

La IA dificulta a las víctimas identificar que se trata de un fraude, ya que se emplea en entrevistas y correos electrónicos automatizados para «aumentar la credibilidad de las estafas».

Microsoft recomienda sospechar si los estafadores solicitan información personal, como datos bancarios, y de las ofertas que prometen salarios elevados a cambios de cualificaciones mínimas, no han sido solicitadas (especialmente si llegan a través de SMS y correo electrónico) o incluyen un pago.

Por último, la compañía advierte contra el fraude de comercio electrónico, en los que la IA adquiere un mayor papel. Los cibercriminales la utilizan para crear sitios web fraudulentos en unos minutos, en lugar de días o semanas, con conocimientos técnicos mínimos y acabados convincentes.

Estos sitios incluyen descripciones, imágenes e incluso reseñas, todo ello susceptible de haber sido generado por una inteligencia artificial para dar la impresión a la víctima de que está tratando con una empresa auténtica y conocida, a la que han suplantado.

Otro engaño llega a través de los 'chatbots', con los que interactúan las victimas. «Estos bots pueden retrasar las devoluciones de cargos, entreteniendo a los clientes con excusas programadas y manipulando las quejas con respuestas generadas por IA que hacen que los sitios fraudulentos parezcan profesionales», señalan desde Microsoft.