Sam Altman dejó en Nueva Delhi una imagen que, si somos honestos, da vértigo: que hacia finales de 2028 habrá más capacidad intelectual del mundo dentro de centros de datos que fuera de ellos. Lo planteó como una hipótesis seria y añadió una advertencia igual de importante: la democratización de la IA es la única vía “justa y segura”, porque la concentración en una sola empresa o en un solo país aumenta el riesgo sistémico.
La frase importa por una razón sencilla: si la superinteligencia “cabe” en un centro de datos, entonces también cabe la tentación de concentrarla. Y si la inteligencia queda lejos, física, jurídica y culturalmente, lo que se aleja no es solo el cómputo: se aleja la capacidad de decidir qué se entrena, con qué datos, con qué sesgos, con qué objetivos y bajo qué rendición de cuentas.
Por eso me interesa hablar de inteligencia artificial de proximidad. No como nostalgia de lo local, sino como una estrategia de soberanía práctica: que la IA esté cerca de las personas que la sostienen con sus datos, la legitiman con su confianza y la sufren o disfrutan en forma de políticas públicas, decisiones empresariales y servicios cotidianos.
El encuentro sobre el impacto de la IA 2026, celebrado en Nueva Delhi hace unos días, terminó con un gesto político relevante: la adopción de la New Delhi Declaration on AI Impact, respaldada por 88 países y organizaciones internacionales. El comunicado del Ministerio de Asuntos Exteriores de India no se limita al titular; subraya un marco: cooperación internacional, enfoque multiactor y, a la vez, respeto a la soberanía nacional.
La declaración sobre el impacto de la IA de Nueva Delhi estructura esa cooperación en siete “chakras” (pilares): democratizar recursos de IA; crecimiento económico y bien social; IA segura y confiable; IA para la ciencia; acceso para el empoderamiento social; capital humano; y resiliencia/eficiencia/innovación (incluida la eficiencia energética). Además anuncia entregables voluntarios, no vinculantes que, bien leídos, son una pista de por dónde puede evolucionar la gobernanza global.
Hasta aquí, el marco. Ahora, la pregunta incómoda: ¿Cómo se traduce todo esto en la vida real cuando la inteligencia se concentra en infraestructuras remotas o en pocas empresas?
Ahí es donde la proximidad deja de ser un concepto bonito y se convierte en diseño de sistema. Proximidad es que un hospital comarcal pueda usar modelos entrenados con datos clínicos gobernados (no “extraídos”), auditables y con retorno social. Proximidad es que una ciudad pueda optimizar movilidad o energía sin entregar el control de sus datos urbanos a un tercero opaco.
Proximidad es que una red de pymes pueda acceder a IA sobre infraestructuras comunes (federadas), no solo alquilar inteligencia enlatada. Y proximidad, sobre todo, es que el valor generado por los datos vuelva, en parte, al territorio que los produce y que sea IA kilómetro 0.
La solución es clara: la resiliencia nace de lo distribuido. Además, en este caso, si no será inviable energéticamente. No se trata de negar los grandes modelos, sino de impedir que sean el único centro de gravedad. La alternativa no es aislarse; es federarse: datos descentralizados, estándares abiertos, trazabilidad, auditoría y reglas que permitan compartir sin regalar soberanía.
Porque, si la superinteligencia vive lejos, la democracia corre el riesgo de vivir “en modo cliente”. Y cuando una sociedad se convierte en cliente de su propia inteligencia, lo que aparece no es solo dependencia tecnológica: aparece dependencia cultural, económica y política.
En el fondo, la advertencia de Altman y la declaración de Nueva Delhi hablan del mismo dilema desde ángulos distintos: o construimos un futuro de IA como bien compartido, o aceptamos, por omisión, una concentración de poder sin precedentes y de ahí mi llamada a que nosotros, “las hormigas” en un mundo de zánganos, lideremos nuestro futuro.
La inteligencia artificial de proximidad es una respuesta a esa concentración: que la inteligencia esté cerca de las personas o, como mínimo, que su gobierno, su sentido y su valor lo estén. Porque una IA “para el bien social” solo es creíble si también es una IA con arquitectura social: distribuida, accesible y gobernable, una IA kilómetro cero.