En 1950, el novelista estadounidense William Faulkner aceptó el Premio Nobel de Literatura con un discurso en el que defendía algo sencillo y poderoso: la literatura sobreviviría porque nace de la “voz humana inextinguible”. No solo sobreviviría, decía, sino que prevalecería. La razón era profundamente humana: la literatura contiene alma, una capacidad de compasión y sacrificio que ninguna máquina puede poseer.
Setenta y cinco años después, el panorama parece menos optimista. En una entrevista reciente, el escritor irlandés Colm Tóibín respondió con ironía a una pregunta sobre la inteligencia artificial: “La IA será nuestro fin”. Lo que antes parecía una defensa romántica de la singularidad del escritor —esa sensibilidad única, irrepetible, moldeada por la experiencia— hoy empieza a parecer, según Tóibín, una ilusión. Si se alimenta a las máquinas con suficiente material, aprenderán el ritmo de las frases, el tono y las estructuras narrativas. Quizá incluso aprendan a imitar lo que creíamos irrepetible.
Algo parecido intuía el novelista estadounidense Cormac McCarthy en las páginas finales de su novela The Passenger. Tras años de estudiar sistemas complejos, McCarthy escribió una frase inquietante: llegará un momento en que no habrá nada que no pueda simularse. Ese será el mundo que viene.
La pregunta, entonces, ya no es si la inteligencia artificial puede escribir. Es evidente que puede hacerlo. La cuestión es otra: qué significa escribir cuando una máquina también puede hacerlo.
La misma pregunta empieza a surgir en otros ámbitos del trabajo intelectual. En los últimos meses ha ganado popularidad un término dentro del sector tecnológico: vibe coding. La expresión fue popularizada por el investigador en inteligencia artificial Andrej Karpathy y describe una forma de programar en la que el desarrollador no escribe código directamente, sino que da instrucciones a un modelo de lenguaje para que lo genere.
En lugar de horas de programación, basta con describir el objetivo: crear una base de datos, construir una interfaz web, desarrollar una pequeña aplicación. El modelo produce el código, corrige errores y propone mejoras. Lo que antes requería equipos de ingenieros durante meses puede surgir ahora en una tarde.
Hasta hace poco, estas herramientas eran útiles pero torpes. Los resultados eran inestables y necesitaban mucha intervención humana. Sin embargo, en los últimos meses su capacidad ha mejorado de forma notable. Hoy pueden generar aplicaciones completas, diseñadas y funcionales, aunque todavía imperfectas.
El impacto económico potencial es enorme. El desarrollo de software personalizado ha sido tradicionalmente caro porque implica meses de trabajo de diseñadores, programadores y gestores de proyecto. Pero cuando una inteligencia artificial puede producir gran parte del código en minutos, el cálculo cambia radicalmente.
Esto genera una mezcla extraña de entusiasmo y ansiedad dentro de la propia industria tecnológica. Por un lado, muchos programadores descubren que pueden realizar proyectos personales que antes habrían sido demasiado complejos o costosos. Por otro, también empiezan a preguntarse qué ocurrirá con los miles de empleos que hasta ahora sostenían esa industria.
Algunas empresas tecnológicas sostienen que la inteligencia artificial creará nuevas profesiones. Es posible. Pero casi nadie cree que esos empleos serán iguales a los anteriores.
La cuestión no se limita al software. La automatización impulsada por la IA empieza a afectar a sectores tan diversos como el derecho, las finanzas, la arquitectura o la gestión empresarial. Cada nueva herramienta promete aumentar la eficiencia y reducir los costes, pero también plantea interrogantes sobre el futuro del trabajo intelectual.
Hay además un aspecto material que rara vez aparece en el entusiasmo tecnológico. La infraestructura que sostiene los sistemas de inteligencia artificial —centros de datos, unidades de procesamiento, redes en la nube— consume enormes cantidades de energía, agua y minerales raros. El brillo futurista de la IA oculta una huella ecológica considerable.
Pero incluso dejando a un lado la economía y la ecología, queda una cuestión más profunda: el sentido mismo de la creatividad.
Cuando se trata de arte, la reacción social es distinta. Una obra artística nunca se reduce a su resultado final. Parte de su valor reside en la historia de su creación. Nos importa quién la hizo, qué buscaba, qué dudas atravesó, qué sacrificios implicó. Nos importa imaginar al escritor enfrentado a la página en blanco, luchando con una frase hasta encontrar la forma justa.
Ese esfuerzo forma parte del significado de la obra.
Por eso surge una pregunta incómoda: ¿puede tener el mismo valor una obra cuya creación no ha supuesto esfuerzo, riesgo ni conflicto para nadie?
Quizá por eso algunas editoriales empiezan a experimentar con sellos como “escrito por humanos”. Puede parecer un gesto anecdótico, pero apunta a algo más profundo: la posibilidad de que la creación sin inteligencia artificial se convierta en una especie de artesanía cultural.
La tecnología, sin embargo, rara vez se detiene por razones culturales. La historia de internet ofrece muchos precedentes. Hubo un tiempo en que los blogs no se consideraban verdadera publicación, en que la computación en la nube parecía demasiado arriesgada para las grandes empresas o en que el comercio electrónico generaba desconfianza. Con el tiempo, todas esas resistencias desaparecieron.
Algo parecido podría ocurrir con la inteligencia artificial.
Si las herramientas siguen mejorando, millones de personas podrían adquirir la capacidad de crear software o producir contenido digital sin necesidad de una formación técnica especializada. Muchos problemas cotidianos —sistemas burocráticos torpes, procesos manuales interminables, informes imposibles de generar— podrían resolverse con herramientas que hoy ni siquiera existen.
La misma tecnología que amenaza ciertos empleos podría ampliar la capacidad creativa y técnica de millones de personas.
La historia de la innovación está llena de estas ambivalencias. Cada gran avance tecnológico destruye algunas habilidades mientras crea otras nuevas. Lo difícil es prever qué se perderá y qué surgirá en su lugar.
En ese contexto, la advertencia de Faulkner sigue siendo pertinente. La literatura, decía, nace del “corazón humano en conflicto consigo mismo”. Tal vez ese conflicto nunca pueda automatizarse del todo.
El verdadero riesgo no es que las máquinas escriban, programen o diseñen mejor que nosotros. El riesgo es que olvidemos qué parte de todo eso era, en realidad, profundamente humana.