De izquierda a derecha: Júlia Laguna, Albert Gimó, Belén Luengo y Gonzalo Plaza.

De izquierda a derecha: Júlia Laguna, Albert Gimó, Belén Luengo y Gonzalo Plaza. Fundación 'la Caixa'

Referentes

Estos jóvenes españoles quieren desarrollar una IA hecha por y para humanos: "Mientras se utilice con cabeza, irá bien"

Los cuatro becados por Fundación 'la Caixa' para estudiar un posgrado en el extranjero comparten una pasión común: la inteligencia artificial.

Más información: María Cornejo, la 'pionera de la IA en la escuela' que enseña a los niños que la tecnología no solo sirve para la guerra

Raquel Nogueira
Publicada

A Albert Gimó siempre le han gustado las matemáticas. A Belén Luengo, la discapacidad severa de su hermano hizo que soñase con dedicarse a desarrollar tecnología puntera. A Gonzalo Plaza, la biomedicina le robó el corazón. Y en el caso de Júlia Laguna, fue el universo lo que le ha quitado el sueño desde niña.

Ahora, todos ellos forman parte del exclusivo grupo de becados de Fundación 'la Caixa' que seguirán formándose en el extranjero con un objetivo común: desarrollar, como indican, una inteligencia artificial "hecha por y para humanos".

Útil, orientada al bien común y que no acabe convirtiéndose en una suerte de Skynet, como la que toma el control en las películas de Terminator.

Cada uno desde su ámbito (las matemáticas, la ética aplicada, la biomedicina y la astronomía) intentará, en los próximos años, transformar la IA para que sea una herramienta y no un fin en sí mismo.

Cuatro mentes, cuatro campos

Porque, como indica Gimó, cuando se habla de este tipo de tecnología "no basta con no tener mala fe", sino que "hay que pensar activamente en los efectos" que tendrá en los usuarios.

Él, que cursa un máster en Matemáticas, Visión y Aprendizaje en la Universidad de París-Saclay (Francia), busca mitigar esa parte negativa o adversa que se deriva de "entrenar los algoritmos con datos sesgados".

Luengo, fiel creyente de que "la tecnología no es neutral", recuerda que "en el mundo hay gente con buenas y malas intenciones, y la IA es un catalizador de ello".

Por eso, apunta, estamos obligados a "estar constantemente replanteándonos qué sociedad queremos construir y hacia dónde queremos avanzar". Espera poder responder a esta pregunta algún día, en parte gracias al máster en Ética Aplicada y Políticas Públicas que estudia en la Duke University de EEUU.

Los cuatro becados posando junto.

Los cuatro becados posando junto. Fundación 'la Caixa'

Plaza, quien estudia un máster en Inteligencia Artificial Aplicada a la Biomedicina y la Asistencia Sanitaria en el University College de Londres (Reino Unido), reconoce que "una IA de calidad solo puede construirse con datos de calidad".

Los datos, asegura, "están ahí"; lo único que toca hacer ahora es "saber ordenarlos". Y eso es precisamente lo que se propone, aplicado a la información médica que se desaprovecha o pierde. Pues insiste en que la IA puede convertirse en una herramienta que le haga la vida más fácil al personal sanitario.

Y es que, como indica Laguna, "mientras [la inteligencia artificial] se utilice con cabeza, irá bien". Porque puede ayudar a mejorar los servicios médicos, pero también a entender el universo.

"La nueva generación de telescopios generará cantidades astronómicas de datos. La única manera de aprovecharlos es con IA", dice. Y matiza que analizarlos a escala humana ya no sirve. Por eso, ella realiza un doctorado en Astronomía en la Universidad de Cambridge (Reino Unido), donde se propone "no olvidar los riesgos" de esta tecnología.

Confianza humana

"El problema es que tal vez no veamos sus efectos negativos hasta dentro de diez años y, para entonces, puede que ya sea tarde", asegura Laguna quien, como sus compañeros de beca, insiste en que es imprescindible "generar confianza" en esta nueva herramienta.

Para Plaza, el dilema está en que se entienda que la IA "no es un ente responsable ni ética ni jurídicamente. No razona en el sentido en que nosotros lo entendemos". Y admite estar preocupado tanto por el mal uso que se le pueda dar como por el "desperdicio de su potencial".

Para él, la clave de esta revolución tecnológica estaría en que con ella se automaticen tareas para "humanizar la medicina", en su caso, y así "devolverle tiempo y presencia al médico" para que se centre en escuchar y evaluar a su paciente.

Recuperar (o darle) esa confianza a la IA depende de cómo se utilice. Por eso, Luengo apunta a que la clave estaría en "volver a colocar la filosofía en el centro antes de que la velocidad decida por nosotros".

La transformación que está precipitando la inteligencia artificial y el machine learning se está produciendo a una velocidad vertiginosa. Y sin humanidades, corremos el riesgo de salirnos de la carretera.

De ahí que Gimó apueste por una IA en la que "las decisiones técnicas se apoyen también en saberes filosóficos o psicológicos". Porque lo tecnológico no es nada sin la esencia más pura de la humanidad.

Sin esa mirada integral, concluye, "el riesgo de desconexión con el mundo real es demasiado alto".