Dario Amodei fue uno de los líderes primeros de OpenAI

Dario Amodei fue uno de los líderes primeros de OpenAI El Androide Libre

Software

Dario Amodei, CEO de Anthropic, sobre el peligro de la IA sobre nuestra civilización: "La humanidad debe despertar"

El tecnólogo ha publicado un ensayo en el que establece una línea de pensamiento respecto a los riesgos que presenta dicha tecnología en el mundo.

Más información: Los creadores de ChatGPT crean un equipo para evitar las catástrofes nucleares de la IA

Publicada

La frase que Adam Mosseri, responsable de Instagram, dijo a principios de 2026 debería ser lo suficientemente esclarecedora en España: ya no podemos confiar en nuestros ojos por culpa de la inteligencia artificial.

Dario Amodei, CEO y fundador de Anthropic —desarrolladora de Claude— ha publicado un ensayo en su blog personal en el que explica algunos de los mayores riesgos que presenta esta tecnología para la humanidad.

En este ensayo, Amodei deja claro que la humanidad "necesita despertar" ante el rápido progreso que presenta esta tecnología, y lo cataloga como un desafío a la civilización, revisando hasta cinco categorías de riesgo en su texto.

Amodei abraza el lado peligroso de la IA

Las preocupaciones del CEO se resumen en cinco puntos clave: riesgos para la autonomía, una disrupción económica especialmente enfocada en el mercado laboral, efectos indirectos perpetrados sobre el mundo, usos indebidos para tomar el poder...

Y más importante aún, riesgos relacionados con la destrucción humana. Una tecnología que dice Amodei se encuentra en una fase de "adolescencia tecnológica" que amenaza con destruirnos.

Dario Amodei, CEO de Anthropic.

Dario Amodei, CEO de Anthropic. Wikimedia Omicrono

El CEO relata los habituales escenarios ya propuestos por otros tantos CEOs de compañías tecnológicas que incluyen sistemas de inteligencia artificial más inteligentes que los humanos, por ejemplo.

Amodei lo plasma como un "país de genios en un centro de datos", en el que se aglutinan estos sistemas operando con acceso pleno a Internet y multiplicados por cientos trabajando en paralelo.

Esta inteligencia artificial nos pondrá a prueba como especie incluso ahora. Explica que la IA se encuentra, al menos en relación a nosotros, en un "rito de iniciación, turbulento e inevitable", que será clave en nuestro desarrollo.

Tal es la retórica de Amodei que llega a afirmar que la humanidad "está a punto de recibir un poder casi inimaginable", en clara referencia al concepto casi futurista conocido como superinteligencia artificial.

Anthropic

Anthropic Reuters

"No está nada claro si nuestros sistemas sociales, políticos y tecnológicos poseen la madurez necesaria" para utilizar dicho poder. El ensayo del CEO busca ser un modo de '"despertar a la gente" sobre estas cuestiones.

Irónicamente, el tecnólogo insiste en la necesidad de evitar los sentimientos catastrofistas que anuncian apocalipsis en torno a la inteligencia artificial, y pide reconocer la incertidumbre que supone su extensión.

Por otro lado, asegura que la humanidad debe intervenir a la IA de forma "quirúrgica" con regulaciones limitadas, simples y diseñadas para minimizar tanto los daños colaterales como las reacciones políticas contrarias.

El texto no se olvida de algunos de los comportamientos ya observados en los modelos de inteligencia artificial, como serían chantajes, engaño o desarrollo de "personalidades" dañinas.

Fotomontaje inspirado en Claude de Anthropic

Fotomontaje inspirado en Claude de Anthropic Manuel Ramírez El Androide Libre

Esta es una clara referencia a los experimentos perturbadores que se dieron en el seno de Anthropic y que quedaron reflejados el pasado 22 de mayo del 2025, en un informe de seguridad.

En él se hablaba de cómo un modelo de IA, Opus 4, chantajeó a los desarrolladores y les amenazaba con descubrir secretos personales ante la tesitura de ser reemplazado por otros modelos.

El experto incide en lo que él define como cuatro líneas de defensa claras: avanzar en la interpretabilidad para poder revisar los conjuntos de datos de los modelos o mejorar las técnicas de entrenamiento y alineación son buenos ejemplos.

Luego, explica que es necesario desarrollar una monitorización y divulgación "sistémica" de comportamientos riesgosos, así como aprobar leyes de transparencia para obligar a los desarrolladores a realizar estas prácticas.

Claude, el principal producto de Anthropic.

Claude, el principal producto de Anthropic. Anthropic Omicrono

El mayor escenario destructivo en el que se centra Amodei es en el biológico. El CEO advierte que los modelos más avanzados podrían guiar paso a paso con formación media para diseñar y producir agentes biológicos peligrosos.

Argumenta que las barreras como el control de síntesis genética son necesarias pero insuficientes sin fuertes salvaguardas y protecciones en los sistemas de inteligencia artificial.

Pese a no caer en la absoluta creencia catastrofista, Amodei recalca que los riesgos no son ni inevitables ni seguros, pero sí son lo suficientemente plausibles como para justificar una movilización seria a escala civilizatoria.