A comienzos de este siglo, internet vivió una mutación profunda. La llamada web 2.0 marcó el paso de una red de lectura pasiva —páginas estáticas, portales cerrados y contenidos producidos por unos pocos— a un ecosistema basado en la participación, la colaboración y el intercambio. Plataformas en lugar de páginas, usuarios en lugar de audiencias. En ese contexto, el 15 de enero de 2001 apareció un sitio web cuya primera frase anunciaba, con extremada sencillez: “¡Esta es la nueva Wikipedia!”.

Veinticinco años después, Wikipedia se ha convertido en uno de los experimentos sociales más influyentes de la historia digital. No porque sea perfecta, sino precisamente porque expone su funcionamiento, sus conflictos y sus límites. Es decir, su imperfección. Tras cada entrada aparentemente neutra se oculta una compleja coreografía de juicios humanos: voluntarios que evalúan fuentes, discuten enfoques, corrigen ambigüedades y aplican normas como la verificabilidad o la neutralidad. La enciclopedia no se presenta como una verdad revelada, sino como un proceso abierto y colaborativo. A veces, asambleario.

El episodio, ya clásico, de Jimmy Wales intentando escribir una entrada sobre una carnicería en Gugulethu, Sudáfrica, ilustra bien este modelo. Sus ediciones fueron revertidas por otros editores que cuestionaban la relevancia del comercio. El resultado final no fue la imposición de la autoridad del fundador, sino una nota que documentaba el desacuerdo. En Wikipedia, incluso el ejercicio del poder, incluso el de su fundador, se somete a debate público.

Esa transparencia es una de sus mayores virtudes. Leer el historial de revisiones de una entrada puede ser más instructivo que el texto final. No es casual que académicos hayan utilizado estos historiales como material de investigación para analizar controversias científicas —como el desarrollo de la tecnología Crispr de edición genética— o procesos políticos complejos, como la revolución egipcia de 2011. Wikipedia no solo almacena conocimiento: documenta cómo se construye.

La escala de este esfuerzo humano es fácil de subestimar. En 2024, según Statista, 4.400 millones de personas accedieron al sitio. Eso sería más de la mitad de la población mundial. Más de 125 millones de personas han editado al menos una entrada alguna vez. Todo ello sin publicidad, sin venta de datos personales y con una fundación —Wikimedia— que se sostiene mediante donaciones y algunos servicios de pago para la reutilización masiva de contenidos, incluidos los usados para entrenar sistemas de inteligencia artificial.

En un internet dominado por plataformas que monetizan la participación mediante la vigilancia, Wikipedia sigue pareciendo un vestigio funcional de los ideales originales de la web 2.0. Pero ese modelo se enfrenta hoy a un desafío distinto: la expansión acelerada de la inteligencia artificial generativa.

La comparación resulta inevitable con Grokipedia, la enciclopedia impulsada por IA asociada a Elon Musk, lanzada a finales de 2025. En pocos meses, ya acumula más de 5,6 millones de entradas, acercándose al volumen de Wikipedia. Muchas de ellas son casi idénticas a las originales, algo permitido por las licencias abiertas, aunque no exento de polémica. A diferencia de Wikipedia, sus artículos no se editan directamente: los usuarios solo pueden sugerir correcciones para que la IA las “considere”.

La pregunta es inquietante: si una enciclopedia generada por máquinas puede igualar o superar en escala a una construida durante décadas por voluntarios, ¿estamos ante el final del sueño colaborativo de la web o ante una nueva adaptación?

La relación entre la IA y el internet creado por humanos siempre ha sido ambigua. El conocimiento compartido voluntariamente se convierte en materia prima para modelos entrenados con consentimiento difuso y atribución limitada. A su vez, estos modelos generan texto que inunda la red, a menudo sin fuentes sólidas: lo que muchos editores llaman ya “basura de IA”.

Wikipedia no es ajena a este problema. Sus voluntarios detectan cada vez más citas plausibles pero falsas, frases genéricas y referencias inexistentes generadas por IA. La respuesta ha sido reforzar la vigilancia comunitaria, con iniciativas como WikiProject AI Cleanup, que ofrece pautas para identificar y corregir este tipo de contenido. Lejos de prohibir totalmente la IA, Jimmy Wales defiende una posible sinergia: herramientas que ayuden, por ejemplo, a incorporar editores no angloparlantes o a reducir el persistente desequilibrio de género en entradas y colaboradores.

La credibilidad de Wikipedia siempre ha estado bajo presión. Casos como el fraude en la biografía de John Seigenthaler Sr., o el escándalo del editor Essjay y sus credenciales inventadas, demostraron sus vulnerabilidades. También lo hicieron los conflictos de intereses pagados, como el caso Wiki-PR de 2012. Estas grietas alimentan acusaciones recurrentes de sesgo ideológico, amplificadas hoy por figuras como Musk, que presenta a Grokipedia como una “purga” necesaria de la supuesta propaganda dominante.

Al cumplir 25 años, Wikipedia parece enfrentarse a una nueva versión de la “tragedia de los comunes”: el conocimiento voluntario sostiene sistemas que pueden, a su vez, degradar la calidad del ecosistema informativo. La diferencia clave sigue siendo la rendición de cuentas. Wikipedia ofrece historiales públicos, debates visibles y reglas compartidas. La IA generativa, en cambio, opera mayoritariamente con modelos cerrados que imitan el conocimiento sin mostrar su proceso. Si los motores de búsqueda comienzan a privilegiar estos resúmenes automáticos, los hábitos informativos podrían cambiar rápidamente.

Wikipedia y la IA están remodelando la circulación del conocimiento desde lógicas opuestas. Una confía en el juicio humano documentado; la otra, en la producción masiva de texto verosímil. Por ahora, la elección sigue siendo colectiva. Y quizá ahí resida, todavía, la lección más importante de Wikipedia.