El doctor Pedro Cavadas en El Hormiguero de Antena 3.

El doctor Pedro Cavadas en El Hormiguero de Antena 3.

Ciencia

El Dr. Cavadas, rotundo sobre las pantallas: "Cada generación es un poco más tonta porque está menos estimulada"

Se está abriendo una brecha de velocidades entre sistemas técnicos que mejoran sin descanso y capacidades humanas que avanzan a otro ritmo.

Más información: Una inteligencia artificial del MIT diseña antibióticos que combaten infecciones como la gonorrea resistente

Publicada
Actualizada

"La inteligencia artificial entrará en conflicto con el ser humano en algún momento. Claramente." La advertencia de Pedro Cavadas en el programa Plano General de TVE no es una hipérbole aislada ni una boutade televisiva: es la intuición —cruda— de que estamos abriendo una brecha de velocidades entre sistemas técnicos que mejoran sin descanso y capacidades humanas que avanzan a otro ritmo. Cuando remata con "parece inevitable que en algún momento entrará en conflicto… no veo un futuro brillante", no define el choque, pero sí el vector: una asimetría de progreso que va más allá de lo laboral o lo sanitario y toca lo civilizatorio.

¿Existe evidencia de esa "brecha de velocidades"? Sí. El observatorio independiente Epoch AI documenta que el cómputo usado para entrenar modelos punteros creció 4 o 5 veces por año entre 2010 y mayo de 2024, una aceleración que ningún ciclo de innovación humana individual puede acompañar. A esa ola de hardware se suma otra menos visible: la eficiencia algorítmica; medir la potencia necesaria para alcanzar hitos pasados -como la revolución que supuso el rendimiento de la red neuronal AlexNetsugiere-. Hardware y algoritmos no suman: multiplican. Ahí está el corazón cuantitativo del malestar que Cavadas verbaliza.

Cada vez más dependientes de la tecnología

Además, añade un trazo provocador: "El ser humano hace ya mucho tiempo que dejó de evolucionar. No somos más listos. Es más, cada vez somos más tontos. Cada generación es un poco más tonta porque está menos estimulada". En ciencia, esa tesis encuentra matices. Hay países con inversión del efecto Flynn (descenso de puntuaciones cognitivas tras décadas de subida), como documenta el análisis noruego en PNAS, pero su causa es ambiental (educación, familia, cultura, exposición) y no un destino biológico universal. Es decir, no hay un desplome cognitivo "de especie", sino señales contextuales, y potencialmente reversibles, que conviene no extrapolar sin cautela.

Por el camino, desde 2023, los gobiernos han creado foros y compromisos específicos sobre riesgos de frontera: la Declaración de Bletchley reunió a 28 países para cooperar en evaluación de modelos y reportes "estado del arte" de riesgos; la OMS publicó en 2024–2025 guías sobre ética y gobernanza de modelos multimodales en salud; y la UE convirtió su AI Act en ley, con calendario de obligaciones escalonado. Todo ello no resuelve el conflicto anunciado por Cavadas, pero reconoce, explícitamente, que la tecnología exige contrapesos.

IA pero a costa de reducir la masa laboral

Uno de los frentes más tangibles del "conflicto" será el trabajo. El FMI estima que alrededor del 40% del empleo global está expuesto a la IA, con mayor intensidad en economías avanzadas (hasta el 60% de tareas afectadas). La incógnita no es si habrá impacto, sino cómo: en unos casos la IA sustituirá tareas; en otros aumentará productividad. Y esa dualidad determinará desigualdades nuevas si no se acompaña con políticas de seguridad social, recalificación y acceso. Habrá despidos, pero está en la mano tanto de los empleadores como de la propia regulación de asegurarse reinvención laboral e incluso la creación de nuevas profesiones que antes no existían.

La IA como refuerzo del sector sanitario

Cuando a Cavadas se le pregunta sobre si los robots "suplantarán la humanidad del médico". El doctor no entra al detalle, pero la evidencia actual sugiere sustitución parcial de tareas y refuerzo del clínico más que reemplazo. En un ensayo aleatorizado con 80.000 mujeres, la lectura de mamografías con IA más un radiólogo mantuvo la seguridad diagnóstica y redujo a la mitad la carga de trabajo frente a la doble lectura humana estándar; el NHS ha lanzado el mayor ensayo mundial para validar su despliegue real. Es un ejemplo claro de complementariedad si se hace con controles.

En paralelo, los modelos de lenguaje médicos han cruzado ya umbrales simbólicos. Med-PaLM 2 alcanzó rendimiento de experto en preguntas tipo USMLE, según Nature Medicine; y en NEJM AI GPT-4 logró diagnosticar correctamente el 57% de casos clínicos complejos, superando a la inmensa mayoría de lectores simulados. Son métricas de laboratorio con límites conocidos, pero muestran por qué la sensación de aceleración, esa que describe Cavadas, no es solo mediática.

Ahora bien, la curva ascendente convive con fallos y sesgos. Un estudio en Science mostró que un algoritmo de gestión de pacientes discriminaba a personas negras porque usaba coste sanitario como proxy de necesidad clínica, reproduciendo desigualdades de acceso: a igual "riesgo" calculado, los pacientes negros estaban más enfermos. Sin vigilancia, la IA puede amplificar injusticias en lugar de reducirlas.

Por eso el calendario regulatorio importa. El AI Act europeo entró en vigor el 1 de agosto de 2024: las prohibiciones y la alfabetización en IA empezaron a aplicarse el 2 de febrero de 2025; obligaciones para modelos de propósito general (GPAI) llegan en agosto de 2025; y el grueso de reglas para sistemas de alto riesgo se aplicará en 2026–2027. La UE ha reiterado que no habrá pausas: el reloj corre.

Además, el AI Index 2025 de Stanford retrata un ecosistema que se industrializa: más inversión privada, más modelos originados en industria y más incidentes reportados de uso problemático. No es motivo para parálisis, pero sí para madurar mecanismos de evaluación (robustez, seguridad, costo de inferencia y trazabilidad) a la altura del despliegue. La gobernanza, no el asombro, debería marcar el paso.

Volviendo a la tesis de Cavadas: "El nivel al que avanza, evoluciona y mejora la inteligencia artificial, nunca, jamás, vamos a llegar a esa velocidad." Si ese diferencial es estructural, el riesgo sistémico no es la sustitución robótica al uso, sino una interdependencia opaca en servicios críticos (salud, finanzas, infraestructuras) gobernada por modelos poco auditables. De ahí el énfasis de Bletchley y sus continuaciones (Seúl, París): evaluaciones previas al despliegue, cooperación entre institutos de seguridad y estándares comunes para modelos de frontera.

¿Qué cabe hacer mientras el futuro —brillante o no— llega? Tres líneas pragmáticas: 1) supervisión humana por defecto en ámbitos de alto impacto (la evidencia en cribados oncológicos muestra que suma); 2) transparencia y trazabilidad sobre datos, costes y límites de uso (AI Index y OMS insisten en ello); y 3) política laboral activa para que la productividad no se traduzca en exclusión (lo advierte el FMI). O, dicho en clave Cavadas: si "cada generación está menos estimulada" y la IA corre más, nuestro antídoto es estimular instituciones y personas al ritmo del siglo, con ciencia, ética y reglas, antes de que el "conflicto" deje de ser una metáfora.