wmtech logo

El Gobierno de Estados Unidos publica nuevas pautas de seguridad de inteligencia artificial para infraestructuras críticas

Luis Quiles
Luis Quiles
ai
Seguridad Nacional, Machine Learning

El gobierno de Estados Unidos ha presentado nuevas pautas de seguridad destinadas a fortalecer la infraestructura crítica contra las amenazas relacionadas con la inteligencia artificial (IA).

«Estas pautas se basan en el esfuerzo de todo el gobierno para evaluar los riesgos de la IA en los dieciséis sectores de infraestructura crítica, y abordan las amenazas tanto hacia como desde, e involucrando sistemas de IA», dijo el Departamento de Seguridad Nacional (DHS) el lunes.

Además, la agencia dijo que está trabajando para facilitar el uso seguro, responsable y confiable de la tecnología de una manera que no infrinja la privacidad, los derechos civiles y las libertades civiles de las personas.

La nueva guía se refiere al uso de la IA para aumentar y escalar ataques a la infraestructura crítica, la manipulación adversarial de sistemas de IA y deficiencias en dichas herramientas que podrían resultar en consecuencias no deseadas, lo que hace necesario la transparencia y prácticas seguras por diseño para evaluar y mitigar los riesgos de la IA.

Específicamente, esto abarca cuatro funciones diferentes, como gobernar, mapear, medir y gestionar, que cubren diferentes aspectos del ciclo de vida de la IA:

  • Establecer una cultura organizativa de gestión de riesgos de IA.
  • Comprender el contexto individual de uso de IA y el perfil de riesgo.
  • Desarrollar sistemas para evaluar, analizar y rastrear los riesgos de IA.
  • Priorizar y actuar sobre los riesgos de IA para la seguridad y la protección.

 

«Los propietarios y operadores de infraestructura crítica deben tener en cuenta su propio uso específico del sector y del contexto de la IA al evaluar los riesgos de IA y seleccionar las mitigaciones apropiadas», dijo la agencia.

«Los propietarios y operadores de infraestructura crítica deben comprender dónde existen estas dependencias en los proveedores de IA y trabajar para compartir y delinear responsabilidades de mitigación en consecuencia.»

Este desarrollo llega semanas después de que la alianza de inteligencia Five Eyes (FVEY), compuesta por Australia, Canadá, Nueva Zelanda, el Reino Unido y Estados Unidos, publicara una hoja de información sobre ciberseguridad que señalaba la configuración cuidadosa requerida para implementar sistemas de IA.

«La rápida adopción, implementación y uso de capacidades de IA puede hacer que sean objetivos muy valiosos para actores cibernéticos maliciosos», dijeron los gobiernos.

«Los actores, que históricamente han utilizado el robo de datos de información sensible y propiedad intelectual para avanzar en sus intereses, pueden buscar cooptar sistemas de IA desplegados y aplicarlos para fines maliciosos».

Las prácticas recomendadas incluyen tomar medidas para asegurar el entorno de implementación, revisar la fuente de los modelos de IA y la seguridad de la cadena de suministro, garantizar una arquitectura robusta del entorno de implementación, endurecer las configuraciones del entorno de implementación, validar el sistema de IA para garantizar su integridad, proteger los pesos del modelo, aplicar controles de acceso estrictos, realizar auditorías externas e implementar registros robustos.

El incumplimiento de medidas de seguridad sólidas puede tener graves consecuencias, permitiendo que partes malintencionadas lleven a cabo ataques de inversión de modelo y corrompan modelos de IA con el objetivo de alterar deliberadamente el comportamiento esperado de manera que pueda desencadenar impactos descendentes en cascada.

A principios de este mes, el Centro de Coordinación CERT (CERT/CC) detalló una deficiencia en la biblioteca de redes neuronales Keras 2 que podría ser explotada por un atacante para trojanizar un modelo de IA popular y redistribuirlo, envenenando efectivamente la cadena de suministro de aplicaciones dependientes.

Investigaciones recientes también han encontrado que los sistemas de IA son vulnerables a una amplia gama de ataques de inyección de comandos que inducen al modelo de IA a eludir los mecanismos de seguridad y producir resultados perjudiciales.

server

«Los ataques de inyección de comandos a través de contenido envenenado son un importante riesgo de seguridad porque un atacante que lo haga potencialmente puede emitir comandos al sistema de IA como si fuera el usuario», señaló Microsoft en un informe publicado hace dos semanas.

Una técnica de este tipo, llamada Crescendo, ha sido descrita como un jailbreak de modelos de lenguaje grande (LLM) multiturno, que, al igual que el jailbreaking de muchas tomas de Anthropic, engaña al modelo para generar contenido malicioso «haciendo preguntas o solicitudes cuidadosamente elaboradas que gradualmente llevan al LLM a un resultado deseado, en lugar de pedir el objetivo de una vez».

Las solicitudes de jailbreak de LLM se han vuelto populares entre los ciberdelincuentes que buscan crear señuelos de phishing efectivos, incluso cuando actores estatales han comenzado a utilizar la IA generativa para orquestar operaciones de espionaje e influencia.

Aún más preocupante, nuevos estudios de la Universidad de Illinois en Urbana-Champaign han descubierto que los agentes LLM pueden ser utilizados para explotar de manera autónoma vulnerabilidades de día cero en sistemas del mundo real simplemente utilizando sus descripciones de CVE y «hackear sitios web, realizando tareas tan complejas como la extracción de esquemas de bases de datos a ciegas e inyecciones de SQL sin retroalimentación humana».

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Descubre los últimos artículos del blog sobre seguridad cibernética.