El 90% de las empresas cree que la inteligencia artificial agéntica será una fuente clave de ventaja competitiva antes de 2030. Pero a medida que los agentes autónomos toman decisiones cada vez más complejas por nosotros, optimizando procesos, ajustando estrategias, redefiniendo operaciones, aparece una pregunta más inquietante: ¿quién tomará las decisiones más importantes cuando la singularidad esté cerca?

En las últimas décadas, hemos trasladado enormes cantidades de decisiones desde el plano humano hacia el algorítmico. Desde qué música escuchar hasta cómo estructurar cadenas logísticas globales, una parte creciente de nuestras elecciones está mediada o directamente gestionada por sistemas automáticos. La era de los agentes virtuales, según el World Economic Forum, irá aún más lejos: agentes simples, basados en reglas; agentes modelo, que simulan su entorno; agentes con objetivos, que priorizan rutas posibles; agentes utilitarios, que eligen según el beneficio esperado; agentes que aprenden; e incluso sistemas jerárquicos que coordinan múltiples agentes entre sí.

El problema no es solo técnico. Es filosófico, psicológico, biológico y también espiritual. Porque decidir no es simplemente optimizar. Decidir es elegir entre futuros posibles. Es asumir un riesgo, aceptar una pérdida, abrazar una hipótesis. Y, a veces, hacerlo sin garantía alguna. Durante siglos, los humanos han desarrollado sistemas para tomar decisiones: oráculos, consejos tribales, algoritmos, tableros de ajedrez, modelos probabilísticos, comités éticos, intuiciones profundas. En cada época, esas herramientas reflejaban una visión de mundo. Pero ahora estamos frente a un umbral radical: crear agentes que decidan no con nosotros, sino en nuestro lugar.

¿Qué implica eso? Tomar decisiones es un acto biológico. Lo hacen los humanos, sí, pero también los lobos, las hormigas, los cuervos y los delfines. En manadas de elefantes o en bancos de peces, se toman decisiones complejas sobre migraciones, defensa o alimento. La mayoría no responde a cálculos racionales, sino a circuitos profundos de instinto, aprendizaje colectivo, señales químicas, presión social o memoria genética. En los primates superiores, como los bonobos o los gorilas, se observa incluso deliberación jerárquica, estrategias sociales y formas básicas de negociación. Lo que llamamos instinto no es más que una inteligencia embebida en generaciones de prueba y error, afinada en los ritmos de la supervivencia. ¿Puede una IA captar eso?

La psicología cognitiva ha intentado mapear cómo decidimos los humanos. Daniel Kahneman dividió nuestro pensamiento en dos sistemas: uno rápido, emocional e intuitivo; otro lento, analítico y deliberado. Las mejores decisiones surgen no de elegir uno sobre otro, sino de combinarlos sabiamente. Pero incluso esta dualidad no agota el misterio. Hay decisiones que brotan de una parte no del todo consciente. Un presentimiento. Una imagen. Una resonancia inexplicable. Algo parecido al inconsciente freudiano, o al inconsciente colectivo de Jung, donde laten arquetipos que nos empujan más allá del cálculo. El filósofo Bernard Stiegler propuso que la tecnología es siempre una "prolongación de la memoria", pero también una externalización del juicio. Cuanto más decidimos con máquinas, más delegamos en ellas el proceso mismo de atribuir valor. Y eso nos cambia. No solo como usuarios, sino como especie.

La psicología evolutiva ha explorado durante años cómo el miedo, el deseo, la afiliación y la curiosidad moldean nuestras elecciones. La neurociencia afectiva, por su parte, demuestra que sin emoción no hay decisión funcional. Los pacientes con daños en ciertas regiones cerebrales pueden razonar lógicamente, pero no decidir.

¿Qué ocurre entonces cuando un agente artificial, que no siente, decide? ¿Bajo qué criterios valora? ¿Qué entiende por pérdida? ¿Por esperanza? ¿Por sacrificio? Aquí entra la ética. Porque los agentes están resolviendo dilemas donde hay vidas en juego: en la medicina personalizada, en los sistemas de justicia predictiva, en la conducción autónoma. Y sin embargo, no tienen experiencia. No conocen el dolor. No sufren consecuencias. Como advirtió la filósofa Shannon Vallor, una IA puede operar con datos morales, pero no vivir una vida moral.

La filosofía de la acción, desde Aristóteles hasta Paul Ricoeur, ha insistido en que actuar es siempre interpretar. Y decidir es un tipo de narración. Nos contamos a nosotros mismos por qué hacemos lo que hacemos. Sin relato, no hay agencia. La inteligencia artificial puede elegir, pero ¿puede narrar su elección? La teoría de sistemas ha mostrado que las decisiones nunca ocurren en vacío. Son funciones de un entorno. Pero los entornos cambian. Y los humanos también. Un agente puede optimizar una acción para hoy. ¿Pero puede comprender su impacto en diez años? ¿En generaciones futuras? ¿En términos simbólicos?

Las religiones y mitologías han situado siempre la capacidad de decidir como un acto casi sagrado. El libre albedrío es el núcleo de muchas tradiciones. ¿Qué sucede cuando nuestras elecciones empiezan a ser predichas y optimizadas por modelos que nos conocen mejor que nosotros mismos? ¿Dónde queda la libertad si todo es calculable? Desde la economía conductual, Richard Thaler y Cass Sunstein hablaron de nudge, esos empujones sutiles que cambian nuestras decisiones sin prohibir opciones. Pero en el nuevo ecosistema agéntico, el empujón se convierte en guión. ¿Sabremos cuándo decidimos… o cuándo fuimos decididos?

Todo esto plantea una urgencia radical: si los agentes artificiales están llamados a decidir, nosotros debemos decidir qué tipo de humanos queremos ser. Y qué tipo de humanidad queremos preservar. Quizá la respuesta no esté solo en resistir la IA, sino en profundizar lo que significa decidir desde la conciencia. Recuperar el arte de pensar con lentitud. De preguntar sin prisa. De equivocarse con sentido. De intuir sin pruebas. De juzgar con empatía. De actuar sin saber del todo. Porque ahí, en ese lugar no replicable, habita la diferencia humana.

El filósofo francés Edgar Morin decía que "vivir es navegar en un océano de incertidumbres a través de archipiélagos de certeza". Los agentes artificiales buscan cartografiar el océano. Nosotros, en cambio, seguimos habitando sus corrientes invisibles. Y quizás por eso el verdadero reto no sea hacer más inteligentes a las máquinas, sino más humanos a los humanos. Porque cuando llegue la singularidad, si es que llega, no competiremos con la IA por su capacidad de cálculo, sino por nuestra capacidad de elegir con alma. Esa será nuestra ventaja más profunda. Y también, nuestra responsabilidad más alta.

Para los líderes empresariales, este no es un dilema abstracto. Es una invitación urgente: crear entornos donde la toma de decisiones no sea solo eficiente, sino también consciente, ética y profundamente humana. Porque en ese margen entre lo previsible y lo valiente es donde se define el futuro.

*** Paco Bree es profesor de Deusto Business School, Advantere School of Management y asesor de Innsomnia Business Accelerator.