Esta semana iba a escribir sobre los robots impulsados por IA que podrían ayudar a los recicladores a convertir más residuos en valiosas materias primas. Pero, como hace unos pocos días que Sam Altman fue expulsado de la organización que fundó en 2015, OpenAI, no he podido evitar preguntarme por su estrategia ESG y sobre todo por la G, su Gobernanza.

Parece ser que le pudieron echar gracias a la inusual estructura de gobierno corporativo de OpenAI. Una organización sin fines de lucro que, en 2019, creó una filial que sí quiere ganar dinero, aunque hablemos de que las potenciales ganancias están limitadas a una cierta cantidad por encima de la inversión inicial de sus accionistas. Sea como sea, en esta línea de hechos inusuales, decidieron mantener la misión de la organización sin fines de lucro y le dieron a su junta directiva el poder de gobernar las actividades de la matriz y de las filiales.

En su web explican que diseñaron "la estructura de OpenAI (...) como chasis para la misión de OpenAI: construir inteligencia artificial general (AGI en inglés) que sea segura y beneficie a toda la humanidad". Es muy interesante ver que los fundadores tenían claros los potenciales beneficios, pero también los riesgos asociados a la inteligencia artificial.

Tanto es así que no sólo crearon una ONG, sino que tuvieron muy claro que su proyecto requeriría mucho capital y que depender de la financiación del sector público hipotecaría las posibilidades de convertir su visión en realidad. Por ello, se marcaron como objetivo conseguir 1.000 millones de dólares en donaciones, aunque finalmente consiguieron bastante menos (algo más de 130) y, dados los elevados costes de la potencia computacional y del talento necesario para llevar el proyecto a buen puerto, decidieron buscar capital privado creando la filial comercial, con ánimo de lucro.

A lo mejor en el futuro sabremos la realidad sobre qué precipitó los acontecimientos para que la junta tomase la decisión de despedir a Altman. Se dice que se produjo tras amplios desacuerdos en temas tan importantes como la seguridad de la IA, la velocidad del desarrollo de la tecnología y la comercialización de la misma. Por otro lado, se comenta que Sam ha estado ocupado trabajando en levantar miles de millones de dólares de fondos soberanos y de inversores privados para crear una startup de chips de IA y otra orientada a fabricar hardware específico para la misma. 

Sean cuales sean las razones que hay detrás de este movimiento, que ha cogido a la mayoría de la gente en fuera de juego, está claro que el mayor inversor de la parte comercial de OpenAI, no podía quedarse con las manos cruzadas y debía defender los 13.000 millones que ha invertido en ella y algo más importante todavía, su decidida apuesta por la IA generativa para agregar funciones de IA a muchos de sus productos más conocidos e intentar adelantarse a sus rivales en la carrera de la inteligencia artificial.

Es por ello por lo que hemos podido ver las presiones que ha sufrido la junta para restaurar en su puesto a su CEO y a las personas clave que han dimitido a posteriori (aunque parece que esta solución no ha cuajado porque exigían cambiar la gobernanza de la organización) y el posterior comunicado de Microsoft en el que informan de que Sam Altman se incorpora a la empresa para dirigir un nuevo equipo de investigación de inteligencia artificial avanzada.

Esperemos a tener más información para extraer conclusiones, pero es obvio que los acontecimientos demuestran la importancia de la gobernanza y lo difícil que es contentar a todo el mundo cuando tienes distintos grupos de interés. Más si cabe cuando hablamos de gobernar la IA y de todas las variables que deben tenerse en cuenta, entre ellas las nada desdeñables ética y seguridad.

Me llama la atención que una organización con una visión tan ambiciosa para la humanidad, con un proyecto que busca un amplio beneficio para la misma, no menciona nada sobre su estrategia ESG. De hecho, en el buscador de su web ponen "buscar cualquier cosa" y cuando le pregunto por ESG o por Estrategia ESG su respuesta es "No results for...", esperemos que sea porque usan otra taxonomía ya que su misión es construir inteligencia artificial general que sea segura y beneficie a toda la humanidad.