El algoritmo no vive aislado en una pecera". Que la inteligencia artificial interactúa con el humano, aprendiendo de él, es algo que parece obvio. Pero, ¿funciona a la inversa? ¿Puede la persona cambiar su comportamiento a raíz del contacto con la máquina? Esta es una de las líneas de investigación del ingeniero español Manuel Gómez Rodríguez que, desde el Instituto para Sistemas de Software del Max Planck en Alemania, combina la teoría de juegos con los modelos predictivos para conocer cómo el machine learning puede afectar estratégicamente a la gente.

Lo de Gómez Rodríguez con los números viene de familia. Sus padres, ambos profesores de Matemáticas, le recomendaron que estudiase Ingeniería de Telecomunicaciones. Así entró en la Universidad Carlos III de Madrid, especialmente animado por todo aquello relacionado con la teoría de la señal. Tras un año trabajando en una empresa de diseño de microchips de Irlanda, recibió una beca para cursar un máster en una de las universidades más relevantes del planeta, la de Stanford, en California. 

Cruzó el charco para, dos años después, volver a Europa, aunque solo a medias. Encontró en el Max Planck el mejor lugar para hacer su doctorado. "Hay mucho dinero para investigación, los profesores están más centrados en los proyectos y no en la financiación", comenta a INNOVADORES. Pero no se desvinculó de EEUU. Seguía matriculado en Stanford, donde hacía estancias los veranos, y así pasaron tres años de su vida entre dos de los grandes centros mundiales del conocimiento. 

Al terminar el doctorado, decidió quedarse en el Max Planck, en concreto en el Instituto para Sistemas de Software (MPI-SWS), donde pudo crear su propio grupo de investigación centrado en machine learning, que sigue dirigiendo actualmente. 

¿Cómo llegó hasta esta rama de la inteligencia artificial? "Durante la carrera y el máster en Stanford, lo que más me gustaba era lo que estaba relacionado con la teoría de la señal, con cómo se codifica la información cuando transmites por antenas, que usa mucho de probabilidad", afirma. "En machine learning hay una parte que tiene que ver bastante con eso". 

A partir de ahí se abrió el camino de su investigación hasta acabar centrándose, en estos tres últimos años, en la colaboración entre los humanos y la inteligencia artificial. Todo comenzó al tratar de dar respuesta a la pregunta de cómo asegurar que los algoritmos sean justos. Gómez Rodríguez se empezó a interesar en los que no automáticos, es decir, aquellos que cambian en función de su relación con las personas. Por ejemplo, en el sector médico. "La máquina puede saber con facilidad si no hay una enfermedad, pero en otros casos no es tan fácil, aquí se pueden diseñar algoritmos que, si no están seguros, puedan pasarle la decisión al doctor", explica. 

Estos "sistemas híbridos" son muy útiles cuando se desea conseguir un resultado y hay pocos expertos a disposición. "Es como con la conducción autónoma, en lugar de intentar que la inteligencia artificial lo haga todo, pensar qué pasaría si los algoritmos avisasen al conductor cuando lo necesitaran", puntualiza.

La finalidad de su trabajo es que el algoritmo descubra por sí solo en qué partes del problema es bueno y el resto se lo deje al humano. "Lo interesante a priori es que no sabemos en qué va a ser bueno, se trata de una metadecisión, no hay que probar todas las combinaciones, la máquina decide qué partes tiene que resolver y al mismo tiempo tiene que aprender a solucionarlas", afirma. 

El enfoque de otra de sus líneas de trabajo es a la inversa: investigar cómo las personas que interactúan con los algoritmos pueden comportarse de forma estratégica. "Ahora, por ley, si la inteligencia artificial toma una decisión automática, tiene que dar una explicación y lanzar unas recomendaciones para que la gente sepa qué tiene que cambiar". Pongamos por ejemplo, la concesión de una hipoteca. Si el algoritmo la deniega, le dice al usuario por qué y éste puede modificar su actuación para conseguirla. "Puede ayudar a la gente a mejorar... o que haga trampa", indica. En este campo es donde Gómez Rodríguez está mezclando la teoría de juegos con modelos predictivos para investigar cómo las decisiones de los algoritmos pueden tener un efecto estratégico en las personas con el objetivo de diseñar sistemas que persigan el «bien común». 

Por si fuera poco, el ingeniero español ahora acaba de crear su propia startup, Reasonal, junto a dos estudiantes de doctorado. En este caso, los jóvenes aprovechan el conocimiento que han generado en torno a la desinformación para combatir las fake news. Para ello, abordan los bulos desde dos focos: primero, detectarlos; y segundo, convencer a la gente de que son noticias falsas. ¿Cómo? A través de modelos predictivos basados en los usuarios de las redes sociales. La clave está en "cómo conseguir ser independientes del sesgo de las personas que juzgan eso". 

Supervisar y guiar el aprendizaje

 El conocimiento generado por el grupo de Gómez Rodríguez se plasma en publicaciones científicas y en algoritmos de código libre. Por ejemplo, un sistema abierto que crearon para que la inteligencia artificial fuese capaz de hacer un seguimiento del aprendizaje real de los alumnos se implementó por una startup de Suiza que tiene un software para sacarse el carné de conducir.