Actualmente estamos siendo atravesados por la revolución tecnológica de la Inteligencia Artificial. Hace muchísimos años atrás ya existía algorítmicamente la inteligencia artificial, pero no se tenía el poder de cómputo clave para emplear estos algoritmos. En el contexto actual, la situación es diferente, la tecnología de ML se está utilizando cada vez más en diversas industrias pero hace falta más conciencia sobre las vulnerabilidades que posee el ML. Si bien no soy experta en el desarrollo de IA, me parece interesante que muchos sistemas estén siendo desarrollados, por ejemplo, para verificación de identidades, diagnósticos tempranos en el ámbito de salud, entre otros. ¿Pero qué pasa si estos modelos de datos son vulnerados?, ¿qué consecuencias podrían producirse? Estas son algunas de las preguntas que me llevaron a investigar sobre el funcionamiento de estos modelos. Me encontré con el termino de AML (Adversial Machine Learning) el cual, busca evaluar las vulnerabilidades dentro de los sistemas de ML.
Ya muchos conocen el modelo de MITRE ATTA&CK, el cual es una herramienta que sirve para para identificar las TTP (tácticas comunes, técnicas y procedimientos) que las amenazas persistentes avanzadas (APT) utilizan contra diversos sistemas. En cuanto a MITRE ATLAS, se trata de una herramienta creada en el año 2020 que brinda un panorama de amenazas adversas para sistemas de IA. En otras palabras, a través del modelo de MITRE ATLAS se pueden observar las tácticas adversas y técnicas para sistemas de ML basados en observaciones del mundo real.
En esta charla, se realizará una introducción general al modelado del machine learning, para luego poder adentrarse a los diversos ataques que se pueden producir basándome en el framework de MITRE ATLAS. Por último, para aquellos y aquellas que quieran profundizar en estos conceptos compartiré algunas herramientas que ayudan a evaluar la robustez de los modelos de machine learning, junto con las buenas practicas que deben emplearse en el desarrollo seguro de algoritmos de machine learning.