Hacia una Taxonomía Conceptual para la Autonomía Artificial

DR. Alejandro Guzmán Mora

 

La inteligencia artificial (IA) ha experimentado una evolución significativa en los últimos años, transitando desde sistemas reactivos y estáticos hacia arquitecturas capaces de operar con distintos grados de autonomía. En este contexto, dos conceptos han emergido con fuerza, pero también con considerable ambigüedad terminológica: los AI Agents (Agentes de IA) y la Agentic AI (IA Agéntica). El artículo «AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenges» de Sapkota et al. (2025) propone un marco taxonómico fundamental para distinguir estos paradigmas, no solo desde una perspectiva técnica, sino también en cuanto a sus aplicaciones, limitaciones e implicaciones futuras. Este ensayo analiza dicha taxonomía, destacando su relevancia para el desarrollo de sistemas autónomos confiables y escalables.

 

Evolución y definición de los paradigmas

 

Los AI Agents son definidos como entidades (software autónomo) diseñadas para ejecutar tareas específicas dentro de entornos digitales delimitados. Se caracterizan por su capacidad para percibir entradas, razonar contextualmente y actuar con un objetivo claro, a menudo integrando modelos de lenguaje grande (LLMs) y modelos de imagen (LIMs) como motores centrales de razonamiento. A diferencia de la IA generativa precursora reactiva y estática como GPT-3 y 4, los AI Agents incorporan herramientas externas (APIs, bases de datos) y bucles de retroalimentación, lo que les permite realizar acciones como programar reuniones o filtrar correos electrónicos con mínima intervención humana (Sapkota et al., 2025; Wu et al., 2023).

 

Por otro lado, los Agentic AI representa un salto cualitativo: se trata de sistemas multiagente donde entidades especializadas colaboran para descomponer metas complejas, coordinar subtareas y adaptarse dinámicamente a entornos inciertos. Aquí, la autonomía ya no es individual sino colectiva, mediada por orquestadores centralizados o protocolos descentralizados que gestionan la comunicación, la memoria compartida y la asignación de roles. Ejemplos ilustrativos incluyen enjambres de drones en agricultura de precisión o equipos de diagnóstico médico virtual que interoperan sincrónicamente.

 

Implicaciones de la taxonomía propuesta

 

La taxonomía de Sapkota trasciende lo académico al ofrecer un marco pragmático para diseñadores y reguladores. Al diferenciar claramente entre AI Agents (autonomía acotada en tareas narrow) y Agentic AI (autonomía colectiva en entornos abiertos), se previene el uso incorrecto de arquitecturas, como emplear un agente simple en un escenario que requiere coordinación multiagente, lo que podría derivar en fallos críticos o sobre ingeniería costosa.

 

Además, la taxonomía enfatiza desafíos específicos para cada paradigma. Los AI Agents enfrentan limitaciones como la falta de razonamiento causal, la propensión a alucinaciones y la incapacidad para planificar a largo plazo (Sapkota et al., 2025; Yao et al., 2023). Los Agentic AI, aunque más potente, amplifica estos problemas: la propagación de errores entre agentes, los cuellos de botella en la comunicación y la emergencia de comportamientos impredecibles son riesgos sistémicos que demandan soluciones en gobernanza y verificación formal (Sapkota et al., 2025; Hammond et al., 2025).

 

Conclusión: Hacia una IA autónoma y responsable

 

La distinción entre AI Agents y Agentic AI no es meramente semántica; refleja la transición de la IA desde herramientas de automatización hacía socios colaborativos en entornos complejos. La taxonomía de Sapkota proporciona agentes dentro de la IA para desarrollar sistemas más robustos, pero también subraya la urgencia de investigar en áreas como el modelado causal, la memoria persistente y los protocolos éticos de coordinación.

  • AI Agents son piezas especializadas y funcionales, diseñadas para tareas específicas y repetitivas con un conjunto de reglas predefinidas. Son como los componentes individuales de un equipo, enfocados en una sola función.
  • Agentic AI, por otro lado, representa la arquitectura o el «cerebro» que orquesta y coordina a múltiples Agentes de IA para lograr objetivos complejos y dinámicos. Su capacidad de planificación, razonamiento y adaptación en tiempo real le confiere un nivel de autonomía mucho mayor.

En resumen, los Agentes de IA son las herramientas, mientras que la IA Agéntica es el sistema que las utiliza de manera inteligente para resolver problemas más grandes.

El futuro de la autonomía artificial dependerá de nuestra capacidad para integrar estos avances en marcos seguros, explicables y alineados con los valores humanos, solo así la IA trasciende su estado actual para convertirse en un ecosistema adaptable y confiable.


Referencias

 

Bornet, P., Wirtz, J., Davenport, T. H., De Cremer, D., Evergreen, B., Fersht, P., Gohel, R., Khiyara, S., Sund, P., & Mullakara, N. (2025). *Agentic Artificial Intelligence: Harnessing AI Agents to Reinvent Business, Work and Life*. Irreplaceable Publishing.

 

Hammond, L., Chan, A., Clifton, J., Hoelscher-Obermaier, J., Khan, A., McLean, E., Smith, C., Barfuss, W., Foerster, J., Gavenčák, T., et al. (2025). *Multi-agent risks from advanced AI*. arXiv preprint arXiv:2502.14143.

 

Miehling, E., Ramamurthy, K. N., Varshney, K. R., Riemer, M., Bouneffouf, D., Richards, J. T., Dhurandhar, A., Daly, E. M., Hind, M., Sattigeri, P., et al. (2025). *Agentic AI needs a systems theory*. arXiv preprint arXiv:2503.00237.

 

Qian, C., Liu, W., Liu, H., Chen, N., Dang, Y., Li, J., Yang, C., Chen, W., Su, Y., Cong, X., et al. (2023). *ChatDev: Communicative agents for software development*. arXiv preprint arXiv:2307.07924.

 

Sapkota, R., Roumeliotis, K. I., & Karkee, M. (2025). *AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenges*. Universidad de Cornell y Universidad del Peloponeso.

 

Wu, Q., Bansal, G., Zhang, J., Wu, Y., Li, B., Zhu, E., Jiang, L., Zhang, X., Zhang, S., Liu, J., et al. (2023). *AutoGen: Enabling next-gen LLM applications via multi-agent conversation*. arXiv preprint arXiv:2308.08155.

 

Yao, S., Zhao, J., Yu, D., Du, N., Shafran, I., Narasimhan, K., & Cao, Y. (2023). *ReAct: Synergizing reasoning and acting in language models*. *International Conference on Learning Representations (ICLR)*.

Deja un comentario