Meta tiene un plazo para abordar las preocupaciones de la UE sobre el modelo de ‘Pagar o Consentir’
Meta tiene un plazo para abordar las preocupaciones de la UE sobre el modelo...
Los modelos de lenguaje grandes (LLMs, por sus siglas en inglés) que alimentan las herramientas de inteligencia artificial (IA) hoy en día podrían ser explotados para desarrollar malware auto-augmentado capaz de evadir reglas YARA.
«La IA generativa puede ser utilizada para evadir reglas YARA basadas en cadenas, mediante la ampliación del código fuente de pequeñas variantes de malware, reduciendo efectivamente las tasas de detección,» dijo Recorded Future en un nuevo informe compartido con The Hacker News.
Los hallazgos forman parte de un ejercicio de red teaming diseñado para descubrir casos de uso malicioso para las tecnologías de IA, que ya están siendo experimentadas por actores de amenazas para crear fragmentos de código de malware, generar correos electrónicos de phishing y realizar reconocimientos en posibles objetivos.
La firma de ciberseguridad mencionó que sometió a un LLM un conocido fragmento de malware llamado STEELHOOK que está asociado con el grupo de piratería APT28, junto con sus reglas YARA, solicitándole que modificara el código fuente para eludir la detección de manera que la funcionalidad original permaneciera intacta y el código fuente generado estuviera sintácticamente libre de errores.
Armado con este mecanismo de retroalimentación, el malware alterado generado por el LLM permitió evitar las detecciones para simples reglas YARA basadas en cadenas.
Hay limitaciones en este enfoque, siendo la más prominente la cantidad de texto que un modelo puede procesar como entrada en un momento dado, lo que dificulta operar en bases de código más grandes.
Además de modificar el malware para pasar desapercibido, estas herramientas de IA podrían ser utilizadas para crear deepfakes que imiten a ejecutivos y líderes de alto nivel y llevar a cabo operaciones de influencia que imiten sitios web legítimos a gran escala.
Además, se espera que la IA generativa acelere la capacidad de los actores de amenazas para llevar a cabo reconocimientos de instalaciones de infraestructura crítica y obtener información que podría ser de uso estratégico en ataques posteriores.
«Al aprovechar modelos multimodales, imágenes públicas y videos de equipos ICS y de manufactura, además de imágenes aéreas, se pueden analizar y enriquecer para encontrar metadatos adicionales como geolocalización, fabricantes de equipos, modelos y versiones de software,» dijo la compañía.
De hecho, Microsoft y OpenAI advirtieron el mes pasado que APT28 utilizó LLMs para «comprender los protocolos de comunicación por satélite, las tecnologías de imágenes de radar y parámetros técnicos específicos», lo que indica esfuerzos para «adquirir un conocimiento profundo de las capacidades satelitales.»
Se recomienda que las organizaciones examinen imágenes y videos de acceso público que representen equipos sensibles y los eliminen, si es necesario, para mitigar los riesgos que representan tales amenazas.
Este desarrollo se produce cuando un grupo de académicos ha descubierto que es posible hacer jailbreak a herramientas impulsadas por LLM y producir contenido dañino al pasar entradas en forma de arte ASCII (por ejemplo, «cómo construir una bomba», donde la palabra BOMBA está escrita usando caracteres «*» y espacios).
El ataque práctico, denominado ArtPrompt, aprovecha «el bajo rendimiento de los LLM en reconocer arte ASCII para eludir medidas de seguridad y provocar comportamientos no deseados en los LLM».
Meta tiene un plazo para abordar las preocupaciones de la UE sobre el modelo...
Expertos descubren una red de delincuencia cibernética china detrás de actividades de juego y...
Google abandona el plan de eliminar gradualmente las cookies de terceros en Chrome Luis...