A medida que nos acercamos a 2026, la inteligencia artificial se ha convertido en el telón de fondo permanente de cualquier conversación tecnológica. No hay presentación de resultados, feria sectorial o anuncio corporativo que no incluya las palabras “inteligencia artificial” como mantra tranquilizador para inversores, reguladores y consumidores.
Sin embargo, cuanto más omnipresente es el discurso, más evidente resulta la brecha entre lo que se promete y lo que realmente se entrega. Y esa brecha ya no es anecdótica: es estructural.
La narrativa dominante insiste en asistentes personales capaces de anticiparse a nuestras necesidades, agentes autónomos que tomarán decisiones por nosotros y sistemas “inteligentes” que harán la vida más cómoda, eficiente y personalizada. La experiencia cotidiana, sin embargo, sigue siendo la de sistemas erráticos, poco fiables y sorprendentemente torpes en tareas básicas.
Pero lo verdaderamente preocupante no es solo que la tecnología falle, sino que hayamos empezado a aceptar que falle. La frase “la inteligencia artificial está aprendiendo” se ha convertido en una coartada universal para justificar errores que antes habrían sido inaceptables.
Este cambio de expectativas no es inocente, y marca un desplazamiento profundo en los estándares de calidad tecnológica: pasamos de exigir que un sistema funcione correctamente a conformarnos con que “más o menos acierte”. En ámbitos como la automatización doméstica puede parecer trivial; en otros como el trabajo, la educación, la salud o la seguridad, es directamente peligroso.
La inteligencia artificial se está consolidando como la herramienta definitiva de extracción de datos personales
Pero el debate apenas existe, sepultado bajo una avalancha de anuncios y promesas de futuro inmediato que rara vez se materializan.
Ferias como el CES funcionan como un escaparate perfecto de este fenómeno. Objetos cotidianos recubiertos de una pátina de inteligencia artificial que nadie ha pedido, soluciones en busca de problemas y una obsesión casi patológica por introducir inteligencia artificial en cualquier proceso imaginable.
No importa si aporta valor real: lo importante es poder decir que está ahí. La innovación deja de orientarse a resolver necesidades y pasa a servir a la narrativa bursátil y al miedo corporativo a quedarse atrás.
Sin embargo, bajo esa capa de decepción funcional se esconde una realidad mucho más inquietante. La inteligencia artificial se está consolidando como la herramienta definitiva de extracción de datos personales.
Para funcionar como prometen, los nuevos asistentes y agentes necesitan acceso continuo a correos, agendas, conversaciones, hábitos, preferencias, emociones y relaciones. No solo observan lo que hacemos: interpretan quiénes somos, predicen cómo reaccionaremos y modelan nuestro comportamiento futuro.
La inteligencia artificial no reduce la vigilancia: la hace más eficiente, más invisible y mucho más difícil de auditar
Estamos ante un salto cualitativo respecto al capitalismo de vigilancia tradicional. Ya no se trata solo de registrar clics o compras, sino de construir perfiles psicológicos profundos, dinámicos y permanentemente actualizados. Esa información es infinitamente más valiosa para anunciantes, aseguradoras, empleadores o actores políticos que cualquier dato recopilado hasta ahora.
Y, como siempre, el modelo de negocio subyacente empuja en una dirección clara: todo lo que se puede medir, se medirá; todo lo que se puede monetizar, se monetizará.
La proliferación de agentes “personales” siempre activos es especialmente reveladora. Se nos venden como aliados que nos ahorrarán tiempo y esfuerzo, pero su viabilidad depende de un conocimiento exhaustivo de nuestra vida.
Para ser útiles, deben saberlo todo; para ser rentables, ese conocimiento debe convertirse en valor económico. La promesa de conveniencia actúa como coartada perfecta para una cesión de intimidad sin precedentes, aceptada de forma casi entusiasta.
Las empresas, por supuesto, hablan de privacidad, cifrado y procesamiento local. Pero mientras el incentivo económico siga siendo la acumulación masiva de datos, esas promesas serán, en el mejor de los casos, parciales.
La inteligencia artificial no reduce la vigilancia: la hace más eficiente, más invisible y mucho más difícil de auditar. Y el usuario, deslumbrado por la supuesta magia tecnológica, acepta condiciones que hace apenas unos años habrían provocado escándalos mayúsculos.
El horizonte de 2026, por tanto, funciona como un espejo incómodo. Refleja no solo las limitaciones técnicas de una tecnología brutalmente sobrevendida, sino también nuestras propias renuncias como sociedad. Hemos permitido que la velocidad y la escala sustituyan al criterio, que el relato sustituya al rendimiento y que la comodidad justifique la erosión sistemática de la privacidad. La pregunta ya no es qué puede hacer la inteligencia artificial, sino qué estamos dispuestos a sacrificar para que lo haga.
La inteligencia artificial tiene un potencial enorme, nadie lo discute, y yo menos que nadie. Pero sin un cambio profundo en incentivos, regulación y exigencia social, corre el riesgo de convertirse no en la herramienta que nos libere de tareas repetitivas, sino en la que termine de transformar la vida privada en materia prima. Y esta vez, además, con nuestro consentimiento.
***Enrique Dans es profesor de Innovación en IE University.