El inglés Geoffrey Hinton ha sido galardonado este martescon el Premio Fronteras del Conocimiento de la Fundación BBVA, un prestigioso galardón valorado en 400.000 euros. Asumo que puede que sea la primera vez que lean el nombre de este catedrático emérito en Ciencias de la Computación de la Universidad de Toronto, así que en lugar de contarles quién es voy a explicarles qué ha hecho por nosotros.

Quizá haya intentado usted buscar su nombre en Google, donde Hinton y su equipo trabajan desde 2013 a tiempo parcial. Uno empieza escribiendo "Geoff..." y conforme avanza el tecleo, el buscador ya sabe por quién pregunta.

O puede que no, puede que simplemente haya leído esta noticia mientras venía del supermercado y pudo encontrar los yogures de macedonia que buscaba porque un algoritmo ya advirtió que los martes hay que reponerlos. O quizás la vio en su Facebook porque un algoritmo detectó que usted, a este tipo de temas, un poco frikis, un poco divulgativos, suele darles un generoso me gusta.

Nada de esto sería factible a día de hoy sin las rupturistas contribuciones que Hinton hizo a las ciencias de la computación y la inteligencia artificial. El británico comenzó estudiando psicología experimental en Cambridge, precisamente porque lleva toda la vida tratando de responder a la misma pregunta: ¿cuáles son los fundamentos del aprendizaje humano? A esta cuestión Hinton aprendió, con los años, a sumar otra: ¿cómo pueden aplicarse estos fundamentos a una máquina?

Hinton, en una foto reciente. FBBVA

Que los ordenadores imiten al cerebro parece una idea intuitiva, pero "en los años ochenta estaba muy denostada en el mundo de la inteligencia artificial", afirma Ramón González de Mántaras, director del Instituto de Inteligencia Artificial del CSIC en Barcelona. Fue en aquella época cuando Hinton desarrolló el algoritmo Backpropagation (en español, retro-propagación), una forma de entrenar redes neuronales artificiales y que aprendieran y mejoraran sus errores.

Una década más tarde, en 1999, Hinton dio otro empujón al desarrollo de la inteligencia artificial junto a Radford Neal al crear un nuevo algoritmo, llamado EM (Expectation-Maximization). "Supuso el arranque del deep learning", dice González de Mantarás. A partir de aquí, cosas como el reconocimiento del habla o el procesamiento del lenguaje natural han pasado de ser ciencia ficción a convertirse en el traductor de Google.

Ya no programas, sino que dejas que el ordenador aprenda por sí mismo, como lo hace el cerebro

Hinton, quien se ha manifestado por Skype al conocerse el fallo del premio, ha resumido estos avances en una frase: "Ya no programas, sino que dejas que el ordenador aprenda por sí mismo, justo como lo hace el cerebro".

Hoy, Hinton es el primero en beneficiarse de esos mismos avances que su trabajo ha posibilitado. "En mi vida, las principales herramientas que uso a diario inspiradas por las redes neuronales están en mi teléfono móvil", dice Hinton a una pregunta de EL ESPAÑOL. "El reconocimiento del habla es posible por las redes neuronales, cuando hago una fotografía y no la encuentro, puedo buscarla por categoría porque las redes neuronales saben lo que aparece en las fotos, aún no me he acostumbrado a usar Google Assistant pero lo haré, y lo que sí que uso mucho es el traductor de Google, que recientemente cambió su motor y empezó a usar redes neuronales en las traducciones porque funcionan mucho mejor".

Noticias relacionadas