Autor: Jennifer Morgan
En el marco del Mes de la Ciberseguridad, considero pertinente abordar un tema innovador que ha cobrado una creciente importancia en la industria actual, el de la inteligencia artificial (IA). Su popularidad se ha disparado en los últimos años debido al lanzamiento de herramientas que asombran al mundo entero, capaces de generar código, música, imágenes, texto, video y más, todo con tan sólo recibir una simple instrucción.
Y una pregunta que viene a nuestra mente es si estos desarrollos son seguros, porque como toda tecnología que nos ofrece beneficios, también se convierten una oportunidad más para los ciberatacantes, quienes exploran nuevas formas de alcanzar sus objetivos. Por ello, la conversación sobre la ciberseguridad aplicada a la inteligencia artificial se convierte crucial en medio de toda la ola de innovación que la IA nos presenta.
La inteligencia artificial ya está transformando la forma en la que realizamos diversas tareas y tiene la posibilidad de facilitar numerosos aspectos y sectores, desde el sector médico, el empresarial, el industrial, entre muchos más. Ya son muchas las personas que hace uso e incluso delegan tareas críticas a herramientas de inteligencia artificial. Sin embargo, es importante destacar que a pesar de los innegables beneficios que ofrece la AI, también conlleva vulnerabilidades.
Los métodos de ataques de la IA
Hay muchos métodos de ataques que se han detectado relacionados a los desarrollos AI. Entre los más comunes, podemos mencionar el de manipulación de datos, donde los atacantes pueden introducir datos maliciosos como parte del entrenamiento del sistema para modificar su aprendizaje e influir en los resultados obtenidos, generando modelos no confiables y sesgados con posibles intensiones maliciosas.
Otro método de ataque a sistemas de IA involucra la modificación o extracción de datos de entrada que pueden ser imperceptibles en los modelos de Machine Learning. Por ejemplo, es posible eliminar un par de pixeles en una imagen para evitar que sea reconocida. La intención de los atacantes es que los modelos fallen y realicen predicciones o toma de decisiones incorrectas, a esto se le conoce como, Ataques Adversariales Machine Learning[1].
Otro de los métodos de ataque, de los que se ha ya dado alerta, es del conocido, Ataque de Envenenamiento o Poisoning[2]. Este intenta corromper el modelo AI, al manipular datos durante su fase de entrenamiento, se le conoce como un ataque backdoor, porque se requiere tener acceso al desarrollo de cerca. Este tipo es muy difícil de detectar, porque al estar dirigido a que tome acciones posiblemente maliciosas en específico, mientras que su funcionalidad parece normal.
Estos ejemplos ilustran por qué es necesario abordar la ciberseguridad en el contexto de la inteligencia artificial, así como de las implicaciones de un posible ataque a sus desarrollos y herramientas. A medida que la IA se incorpora más y más a nuestras vidas, y su uso se extiende en tareas críticas, como los vehículos autónomos, es vital considerar los riesgos asociados.
Otro aspecto esencial que requiere atención está en el terreno de la privacidad y la protección de datos. Es fundamental ser muy cautelosos en la forma en la que manejamos usando esas grandes cantidades de información, porque es fácil caer en casos no autorizados y esto puede tener implicaciones para nuestras organizaciones.
La ciberseguridad para la IA
Algo muy positivo a mencionar es que estos métodos de ataque ya están considerados en NIST; marco que ya ha incluido información sobre las mejores prácticas para evaluar los modelos de inteligencia artificial y Maching Learning, para poder prevenir estos ataques.
A pesar de los desafíos en materia de ciberseguridad existen medidas que pueden tomarse para reducir los riesgos en una organización. En Cybolt contamos con expertos que pueden asesorarle en esta tarea si desea hacer un uso seguro de las herramientas disponibles, o desde el momento en el que su organización considera un desarrollo de IA, implementando prácticas de DevSecOps.
Nuestro enfoque en ciberseguridad se basa en el marco propuesto por NIST, el cual ha lanzado un proyecto que incluye los riesgos de seguridad de IA. Lo que nos permite establecer las mejores prácticas como el cifrado de los modelos, reforzamiento de los modelos de control de acceso, o bien, a implementar las mejores estrategias y soluciones de detección de anomalías y gestión para IA.
La convergencia entre ciberseguridad e inteligencia artificial es esencial para asegurar que estaremos protegidos y para disminuir los riesgos, o para estar preparados frente un ataque. Pero también, debemos de concientizar sobre el uso consciente de la IA y considerar sus alcances en violación de los derechos a la privacidad de datos.
Sabemos que este es un reto importante, pero estamos convencidos de que juntos podremos avanzar de la mano de desarrollos de inteligencia artificial seguros.
¡Feliz Mes de la Ciberseguridad, por espacios más espacios de confianza!
[1] https://www.welivesecurity.com/la-es/2022/05/30/adversarial-machine-learning-introduccion-ataques-modelos-ml/
[2] https://datascientest.com/es/el-data-poisoning-una-amenaza-para-los-modelos-de-machine-learning