La inteligencia artificial (IA) está aplicándose en varias industrias para mejorar los procesos y, lamentablemente, también está siendo utilizada por los cibercriminales para realizar actividades maliciosas, por lo que es necesario que las personas en el país aumenten sus precauciones.
Para bien, la inteligencia artificial se ha convertido en una herramienta valiosa que complementa las funciones humanas de manera eficaz (…). Para mal, también ha facilitado la expansión de nuevas y ya existentes ciberamenazas a medida que su uso se va generalizando y haciendo más accesible”, advirtió la investigadora de seguridad del equipo global de investigación y análisis de Kaspersky, Isabel Manjarrez.
En un blog, explicó que esta tecnología permite a los piratas informáticos generar código malicioso, evadir medidas de seguridad o realizar ataques de denegación de servicio e, incluso algunos enfocados en la recolección de datos personales de reconocimiento como voz, rostro, huellas dactilares.
A lo que se añade que el desconocimiento de los usuarios y el exceso de información presente en línea hace que estos ataques sigan creciendo y tengan una alta tasa de éxito.
Lo más común
De acuerdo con Manjarrez, los ataques de phishing personalizados son uno de los principales ejemplos de cómo está siendo usada la inteligencia artificial por los cibercriminales.
Datos del estudio Panorama de Amenazas para América Latina de Kaspersky revelan que hubo 286 millones de intentos de ataques de phishing en el último año, lo que representa un aumento del 617% a nivel global, en comparación con el año anterior.
Si bien no se trata de un riesgo reciente, llama la atención que su incremento se debe, entre otros factores, a la aparición de herramientas que utilizan la inteligencia artificial para facilitar la creación de estafas de forma automatizada”, explicó la experta.
Por ejemplo, 42.8% de los mensajes fraudulentos están dirigidos principalmente a robar datos financieros.
Otra amenaza que ha aumentado gracias a esta tecnología son las deepfakes, es decir, contenido en el que texto, imágenes, audio y videos son alterados para mostrar información diferente a la original.
Los investigadores han encontrado deepfakes de audio y texto que utilizan a una persona conocida de la víctima para hacer que caiga y comparta información sensible o dinero.
A lo que se añade que sólo en México cerca del 72 por ciento de la población no sabe qué es un deepfake y 62 por ciento aceptó que no sabría reconocer un contenido de este tipo, haciendo que las personas sean más susceptibles a los fraudes y estafas que usan esta técnica.
Excelsior