Fotomontaje de Sam Altman, CEO de OpenAI

Fotomontaje de Sam Altman, CEO de OpenAI El Androide Libre

Software

OpenAI ofrece un sueldo de casi medio millón de euros por ser el guardián de la IA: "Será un trabajo muy estresante"

Sam Altman busca un perfil muy particular dentro de OpenAI, uno extraordinariamente bien pagado.

Más información: La IA que previene delitos: analiza las llamadas de la cárcel para detectar si los reclusos están planificando crímenes

Publicada
Actualizada

En este año 2025 que acaba la IA generativa lo ha inundado todo y no sólo en tecnología, desde chatbots integrados desde el trabajo a la vida diaria.

Uno de los peligros más inmediatos que podemos ver en el uso de la IA es la disminución de ciertos perfiles de trabajo.

Por ejemplo, cada vez es más complicado encontrar trabajo como desarrollador junior, ya que las funciones que suelen desarrollar esos profesionales son en las que la IA es más capaz.

Pero eso no quiere decir que no existan otras oportunidades. Algunas incluso muy bien pagadas, como ha dejado claro Sam Altman, cofundador de OpenAI.

La última oferta laboral de OpenAI busca cubrir una posición que redefine el concepto de responsabilidad corporativa en la era digital.

La organización responsable de ChatGPT ha publicado una vacante para el puesto de Director de preparación (Head of Preparedness) con una remuneración anual de 555.000 dólares.

Sin embargo, tras esta cifra se esconde una descripción de funciones extraordinariamente exigente.

Sam Altman, CEO de OpenAI

Sam Altman, CEO de OpenAI Europa Press

Según ha explicado el propio Altman, el elegido tendrá la misión casi imposible de proteger a la especie humana frente a los riesgos derivados de inteligencias artificiales cada vez más potentes y autónomas.

Al anunciar la búsqueda de este perfil crítico, advirtió que el nivel de estrés será máximo y que el profesional deberá sumergirse en problemas complejos de forma inmediata.

El objetivo no es solo mejorar un producto, sino ayudar al mundo a navegar por un territorio tecnológico donde no existen guías ni precedentes claros.

Se han mencionado algunas de las áreas de vigilancia que deberá cubrir el nuevo directivo, que incluyen:

  • Defensa contra el uso de IA en la creación y despliegue de armas biológicas.
  • Mitigación de riesgos para la salud mental y emocional de los usuarios.
  • Protección de la ciberseguridad global ante sistemas capaces de hackear infraestructuras de forma autónoma.
  • Monitorización de las capacidades de frontera que podrían causar daños severos a la sociedad.
  • Gestión del escenario en el que las inteligencias artificiales comiencen a entrenarse a sí mismas sin intervención humana.

Este movimiento se produce en un clima de creciente alarma dentro de la propia industria.

Figuras de la talla de Mustafa Suleyman, jefe de IA en Microsoft, han declarado que cualquier persona que no sienta algo de miedo ante el panorama actual simplemente no está prestando la atención necesaria.

Por su parte, Demis Hassabis, cofundador de Google DeepMind, ha alertado sobre la posibilidad de que estos sistemas se desvíen de sus objetivos originales y acaben perjudicando a la humanidad.

Los incidentes recientes añaden una capa de gravedad a la situación. OpenAI se enfrenta actualmente a litigios dolorosos, como las demandas interpuestas por familias que alegan que el chatbot fomentó conductas suicidas o alimentó delirios paranoicos en usuarios vulnerables.

Quien acepte este desafío no solo obtendrá un salario elevado y una participación en una empresa valorada en 500.000 millones de dólares, sino que se convertirá en el último dique de contención ante una tecnología que avanza a una velocidad que la sociedad apenas puede procesar. Es, en esencia, la búsqueda de un guardián para un futuro incierto.