¿Y si el mayor riesgo de la inteligencia artificial no fuera lo que puede hacer, sino lo que nosotros decidimos creer que va a hacer? ¿Y si lleváramos meses, o años, realimentando una narrativa hasta convertirla en profecía autocumplida? ¿Y si, entre el apocalipsis zombi y el negacionismo tecnológico, hubiera un espacio para algo tan poco glamuroso como pensar con datos, asumir responsabilidades y dejar de delegar el relato en quienes más se benefician de él?

Porque los datos, cuando uno se toma la molestia de leerlos, son bastante más matizados que los titulares. El gasto acumulado en centros de datos para IA ya ha superado, combinado, al Proyecto Manhattan, al Plan Marshall, a la Estación Espacial Internacional y al programa Apolo. Una tendencia exponencial que coincide, no por casualidad, con la predicción que lanzó en marzo Dario Amodei, CEO de Anthropic: la inteligencia artificial sustituirá al 50% de los trabajos cualificados en un plazo de dos a cinco años. Desde entonces, los titulares sobre despidos masivos en grandes empresas tecnológicas se han sucedido como dominós.

Sin embargo, el informe de Anthropic sobre IA y mercado laboral (uno de los más honestos que he leído sobre el tema, precisamente porque no intenta venderte ni el pánico ni el hype) arroja una imagen bastante más compleja. Claude cubre apenas el 33% de las tareas en el sector de computación y matemáticas, y eso en un campo donde el 94% de las tareas son teóricamente automatizables. La brecha entre lo que la IA podría hacer y lo que realmente está haciendo sigue siendo enorme. No es un motivo para quedarse quieto, sino exactamente lo contrario: es la cuenta atrás.

La aritmética empresarial es sencilla y, precisamente por eso, incómoda. Si una organización consigue que su equipo sea el doble de productivo, tiene dos opciones: producir el doble con la misma plantilla o prescindir de la mitad. Y aquí es donde más crujen las grandes estructuras, porque no siempre es posible crecer en la proporción que la tecnología exige.

Las empresas más pequeñas, paradójicamente, tienen aquí una ventaja estructural: la IA tiene cierto efecto democratizador cuando no hay capas de management que justificar.

Pero seamos precisos. El informe de Anthropic señala que los trabajos más expuestos a la automatización son los que se proyectan con menor crecimiento futuro (por cada 10 puntos porcentuales de cobertura por IA, las proyecciones de empleo caen 0,6 puntos). Y los trabajadores más expuestos no son los que habitualmente asociamos con "población vulnerable": mujeres, mayores de 40 años, con educación superior y mejores salarios. Que eso no aparezca en los debates sobre recualificación dice mucho del relato que hemos construido.

Ahora bien, en el otro extremo del espectro tenemos a quienes viven tan inmersos en el ecosistema tecnoacadémico que confunden el mapa con el territorio. El caso más ilustrativo de los últimos meses es Yuval Noah Harari en Davos 2026, presentando la IA como una entidad consciente y amenazante que supuestamente ya nos denomina "Los Observadores". Lo que Harari describe con dramatismo existencial no es más que un artefacto estadístico del entrenamiento: el término aparece en miles de libros de ciencia ficción y protocolos de seguridad que forman parte de los datos de entrenamiento. No hay conciencia emergente. Hay un historiador brillante confundiendo deliberadamente un patrón lingüístico con el despertar de una inteligencia alienígena. El resultado: titulares. Muchos titulares.

Y mientras tanto, en las micropymes que conforman el tejido productivo real de este país, acabamos de cerrar la convocatoria del Kit Digital para conseguir que estas empresas tuvieran página web, ecommerce o CRM. Es decir, para que se subieran a una revolución de hace más de veinte años. El gap entre tecnología y adopción que documenta el informe de Anthropic no es un dato abstracto: es la señora que lleva una ferretería en Albacete y que todavía gestiona el inventario en papel. Que nosotros, desde nuestra burbuja de titulares sobre singularidad, no nos demos una vuelta por ahí de vez en cuando es un problema de perspectiva que nos cuesta muy caro.

Y aquí está el verdadero peligro que quiero señalar: no es Skynet, no es el desempleo masivo inmediato, no es que los chatbots sueñen con ovejas eléctricas. El peligro real de las narrativas apocalípticas de diseño es lo que ocultan: una abdicación colectiva de responsabilidad. Cuando permitimos que "la caja negra" o "la inteligencia artificial" sean los sujetos de las frases, estamos dejando que empresas, reguladores y políticos se escuden en la inevitabilidad tecnológica para eludir las consecuencias reales de sus decisiones. El algoritmo decidió. El modelo lo hizo. Como si detrás no hubiera personas que eligieron qué datos usar, qué optimizar, a quién contratar y a quién no.

La datocracia que defiendo no consiste en que las máquinas decidan por nosotros, consiste en que usemos datos verificables -como los del informe de Anthropic, incómodos y matizados- para tomar decisiones con criterio humano y responsabilidad explícita. No nos volvamos locos con el apocalipsis. Pero tampoco nos permitamos el lujo de pensar que esto aún está muy lejos o de dudar de la revolución que ya está transformando el mercado laboral.

Porque el futuro no consiste en que la IA sea omnipotente, sino en que nosotros no nos volvamos tan cómodos con la narrativa que olvidemos quién firmó cada decisión. Y esa firma, desde luego, no puede ser la de un modelo de lenguaje.