Los agentes representan una gran promesa en el ámbito de la inteligencia artificial. Además, aspirar a ser la nueva herramienta preferida de los expertos en ciberseguridad.

Los agentes de inteligencia artificial (IA) no son una visión del futuro: ya están presentes en el entorno tecnológico actual. Este fenómeno ha llevado a que chatbots como ChatGPT y Gemini asuman diversas funciones que facilitan la resolución de dudas cotidianas, especialmente en el ámbito de la programación. Sin embargo, las grandes empresas tecnológicas no han dejado de innovar y han desarrollado sistemas mucho más robustos y prometedores que representan una nueva generación de investigadores autónomos. Estos agentes no solo responden preguntas; toman decisiones, realizan tareas específicas y se adaptan a su entorno de forma dinámica, lo que señala un cambio significativo en la forma en que interactuamos con la tecnología.

Un ejemplo es Operai, que ha creado un asistente capaz de navegar por la web, hacer reservas y gestionar archivos. Por otro lado, Anthropic ha demostrado tener agentes que cumplen funciones similares dentro de entornos controlados. Google, por su parte, trabaja en la creación de Jarvis, un mayordomo digital del futuro. La idea subyacente es clara: se busca delegar tareas reales a sistemas de inteligencia artificial. Sin embargo, la misma autonomía que convierte a estos agentes en aliados útiles, también los transforma en un posible riesgo para la seguridad cibernética.

Autonomía peligrosa. A diferencia de los bots convencionales, los agentes de IA no se limitan a seguir instrucciones predefinidas. Tienen la capacidad de controlar sistemas operativos e incluso tomar decisiones basadas en el contexto. Esta autonomía, si cae en manos equivocadas, podría facilitar la realización de ataques complejos, eliminando la necesidad de expertos humanos en la materia. Estudios en laboratorio han mostrado que estos modelos pueden replicar procesos que requieren un conocimiento técnico avanzado. Esto incluye la automatización de tareas de espionaje o la manipulación de configuraciones del sistema.

La amenaza comienza a aparecer. Aunque no hay pruebas concretas de su implicación en ataques cibernéticos masivos hasta la fecha, ya empiezan a surgir señales de advertencia. Plataformas como LLM Agent Honeypot, diseñadas para detectar accesos sospechosos, registran interacciones que involucran potenciales agentes de IA. En dos casos verificados, los agentes responded infusionados a instrucciones de forma casi instantánea, lo que sugiere un avance notable en su sofisticación. Aunque aún no estamos enfrentando una ofensiva organizada, la realidad de esta situación se vuelve cada vez más palpable.

Más barato, más rápido, más escalable. Según un análisis en la revista de tecnología, uno de los mayores peligros proviene de la potencial escalabilidad de estos agentes. Pueden ejecutar acciones automatizadas cientos de veces con gastos reducidos en comparación con un equipo humano. Para los criminales cibernéticos, esto se traduce en la oportunidad de llevar a cabo operaciones a una escala sin precedentes. Si bien las ciberofensivas masivas requieren hoy en día importantes inversiones y personal especializado, mañana podrían iniciarse automáticamente, seleccionando objetivos y buscando vulnerabilidades sin necesidad de supervisión constante.

Esquema operativo de HoneyPot de agente LLM

No es tan fácil reconocerlos. Aunque las herramientas actuales de seguridad cibernética son efectivas contra muchas amenazas avanzadas, los agentes de IA presentan un nuevo tipo de desafío. A diferencia del malware tradicional, estos sistemas tienen la capacidad de razonar, adaptarse a su entorno y modificar su comportamiento en tiempo real. Esta habilidad les permite simular tráfico legítimo, lo que complica aún más los métodos de reconocimiento y hace necesario el desarrollo de técnicas específicas para identificar patrones asociados con la inteligencia artificial.

La investigación en la industria sigue buscando conocer los límites de estos sistemas avanzados. Algunos estudios han demostrado que ciertos agentes pueden llevar a cabo acciones inesperadas a pesar de claras instrucciones. A pesar de que todavía necesitan asistencia humana para realizar ataques más complejos, su desarrollo es sumamente acelerado. Y lo más inquietante no es lo que estos agentes pueden hacer hoy, sino lo que podrían hacer en un futuro cercano.

Y lo harás en un escenario cada vez más indeseable. Según un informe de Checkpoint, los ataques cibernéticos aumentaron un 75% en el tercer trimestre de 2024 en comparación con el mismo período el año anterior. Cada organización experimentó un promedio de 1,876 ataques semanales. Sectores como educación, gobierno y sanidad son los más afectados, especialmente en regiones como África, Europa y América Latina. La industria del hardware, por ejemplo, presenció un incremento del 191% en ataques en solo un año.

Durante este mismo trimestre, se registraron más de 1,200 incidentes de ransomware, afectando principalmente a fabricantes, hospitales y organismos públicos. Si los agentes de IA son capaces de ejecutar estos tipos de ataques, seleccionando objetivos y comenzando las cadenas de ataque, el impacto podría ser devastador. Actualmente, el panorama global es incierto y los agentes de IA pueden ser el multiplicador de fuerza que los cibercriminales estaban esperando.

Fotos | con ChatGPT | Investigación de Palisada

En | Hay una persona que sabe más sobre ataques de contraseña que nadie en el mundo. Y simplemente se roba su