Los expertos coinciden en que la inteligencia artificial aún está en pañales, pero con un futuro inmediato de lo más prometedor.

Los expertos coinciden en que la inteligencia artificial aún está en pañales, pero con un futuro inmediato de lo más prometedor.

Innovadores

De los años 40 a hoy: así ha madurado la inteligencia artificial

La pugna entre el enfoque simbólico y el conexionista ha marcado la particular evolución de esta tecnología, ahora llamada a explotar al calor de la capacidad de cómputo ilimitada de la nube y el big datarn

2 mayo, 2019 07:00

En la mítica cinta '2001: Odisea en el espacio' ya se introducía un ente inteligente con asistente conversacional y ciertas capacidades autónomas. Corría el año 1968, todavía en los anales de la informática moderna. Algo más tarde, en el 84, el mundo entero se asombraría (y preocuparía a partes iguales) con la irrupción en escena de Skynet, la inteligencia artificial (IA) que controlaba el arsenal nuclear de EEUU en la saga de acción Terminator. Y así podríamos seguir durante párrafos y párrafos, porque las referencias a la IA en la cultura popular llevan con nosotros desde hace décadas, configurando un imaginario colectivo que, sin embargo, apenas ha tenido constatación en la realidad tecnológica hasta este momento.

De hecho, los paralelismos entre el arte y la técnica no coinciden ni tan siquiera en el punto de partida. En el universo de no ficción, hemos de remontarnos hasta Ada Byron (más conocida como Ada Lovelace), quien fuera la primera informática de la historia y creadora del primer algoritmo computacional allá por 1842. Si prefieren  referencias más cercanas a nuestros tiempos, el antecedente lo encontramos en varios trabajos científicos publicados en la década de 1940 y, especialmente, a partir de los realizados por Alan Turing en los 50. Fue este genio británico, considerado como el padre de esta ciencia y autor del famoso test que lleva su apellido, quien se planteó al inicio de esa década la pregunta que aún hoy estamos tratando de responder: "¿Puede pensar una máquina?".

Una reflexión que se incorporó como punto de partida en la Conferencia de Darthmouth de verano del 1956, donde  Marvin Minsky, John McCarthy y Claude Shanon acuñaron formalmente el concepto de "inteligencia artificial" y se aventuraron a una particular -y a la sazón, errónea- predicción: para los años 80, las máquinas harían todos los trabajos de los hombres. Quizás algo (demasiado) adelantados a sus tiempos, pero que significó la consolidación formal de esta tecnología llamada a marcar un antes y un después no sólo en el plano tecnológico, sino también en el económico, social y ético.

Años 60: la precisión

"En esa conferencia hubo gente que se dio cuenta del desafío que se abría por delante y se produce una pelea entre científicos sobre el mejor enfoque para alcanzar la inteligencia artificial", explica José Dorronsoro Ibero, catedrático de Ciencias de la Computación e Inteligencia Artificial en la Universidad Autónoma de Madrid e investigador senior en el Instituto de Ingeniería del Conocimiento. "Algunos defendían la visión simbólica, basada en el cálculo lógico, y otros el foco conexionista, que requería entender cómo funcionan físicamente las neuronas para replicarlas artificialmente. Y como en aquel momento la capacidad de cómputo era muy limitada, el enfoque conexionista estaba condenado al fracaso porque necesitaba demasiados recursos, por lo que todo el trabajo se centró en la línea simbólica".

El objetivo era simple: establecer reglas y más reglas lógicas hasta desarrollar un constructo tan grande de ellas que los sistemas pudieran "pensar" por sí mismos. Una premisa muy simple, basada en modelos de acción-reacción, en los que una información era procesada de acuerdo a un modelo preestablecido y se producía un determinado resultado. Quizás podría hablarse de automatización, pero ni mucho menos de inteligencia como tal. 

Poco a poco estos procesos fueron sofisticándose, de modo que ya a finales de los años 60 la clave era el aprendizaje automático, el aprendizaje de las máquinas. «El machine learning tuvo un gran  avance en esta etapa, pasando de reglas lógicas a algo que aprendiera realmente, era un cambio de foco claro», detalla a su vez Alberto de la Torre, director del Programa Superior de Inteligencia Artificial del ICEMD. «Pero en aquella época los algoritmos no eran lo que se dice precisos, por lo que no podías usarlos para elementos críticos, donde están en juego vidas humanas, y además requerían de constante supervisión humana».

Vuelta al ruedo neuronal

Y en estas llegamos a los años 80 y 90, cuando se produce la enésima vuelta de tuerca a la inteligencia artificial. "El enfoque simbólico, el de estos sistemas basados en reglas, dio resultados hasta los 90. Pero llega un momento en que no da más de sí. Y, al mismo tiempo, la potencia de cómputo era infinitamente mayor que en los 60", sintetiza Dorronsoro. 

"Ahí resurgen las redes neuronales, todavía muy superficiales y limitadas por la disponibilidad de datos y los recursos técnicos, pero que permiten vivir la primera primavera del enfoque neuronal". De la misma opinión es De la Torre, quien añade que "estos nuevos algoritmos para redes neuronales son buenos en lo que los antiguos de machine learning eran malos: en la precisión. Eso sí, a cambio, necesitan muchos más datos para ser entrenados correctamente".

Una vuelta al ruedo neuronal que también tiene su particular plasmación en la concepción de negocio de la inteligencia artificial. En ese sentido, Emilio Castellote, analista de investigación senior en IDC España, comenta que "todo el avance de la inteligencia artificial va muy ligado al desarrollo propio del big data. Al principio todo era muy reactivo, pero luego se fue perfeccionando para poder hacer proyecciones basadas en un histórico. Pero todavía no estamos hablando de inteligencia artificial como tal, ya que aún faltaría superar el actual modelo predictivo -en el que se combinan esos datos con pautas de comportamiento- para llegar a un momento en que los sistemas puedan evaluar variables y autoaprender más allá del dato, sabiendo de dónde viene  cada variable y su tendencia". 

El momento clave

Nuestra particular máquina nos lleva, de este modo, hasta 2010. Con el cambio de tercio, la inteligencia artificial encuentra el entorno perfecto para explotar definitivamente y surge así el actual concepto de deep learning. "Estamos ante otra generación de redes neuronales, ahora sí profundas, que aprovechan los avances en capacidad de cómputo gracias a la nube, los avances científicos y la digitalización masiva de toda la actividad de las personas y empresas", afirma el catedrático de la UAM. "Esto provoca que el deep learning domine definitivamente el machine learning y que, a su vez, el machine learning haya dominado a la inteligencia artificial".

Una auténtica matrioshka terminológica que no oculta el momento clave que vive esta tecnología en la actualidad.  "Se juntan varios factores, como la computación masiva en la nube o el uso de las tarjetas gráficas, antaño reservadas para videojuegos, con el fin de hacer reconocimiento visual", detalla por su parte el docente del ICEMD.

Pero como suele decirse, no es oro todo lo que reluce. A pesar del hype que se ha instalado en el tejido empresarial alrededor de la inteligencia artificial, lo cierto es que los expertos en la materia no se atreven a defender que lo que se está haciendo ahora mismo pueda denominarse realmente como tal. En palabras de Alberto de la Torre, "hace apenas cinco años que hemos empezado con todo ello. Estamos en una etapa embrionaria, aplicando lo que podríamos llamar inteligencia asistida. Las empresas todavía están teniendo problemas para inculcar el big data en sus organizaciones y la IA se está limitando al ahorro de costes y automatización de tareas, como mucho algo en experiencia de cliente con los chatbots. Pero aún queda llegar a la siguiente fase, la de la inteligencia aumentada, que nos permita mejorar nuestras capacidades como humanos y empresas".

En la misma onda retransmite la sintonía de Emilio Castellote. "No existe inteligencia artificial tal y como la entendemos ahora mismo, por una limitación tecnológica clara, no tanto ya por la capacidad computacional, sino por cómo está pensado un sistema inteligente: necesita interacciones y requiere conectar el mundo real con un cerebro que procese esos datos en tiempo casi real en muchas situaciones", adelanta el experto. "La latencia de las redes de comunicaciones añaden en este escenario un retardo que impide llevar la IA a cargas críticas, por lo que la llegada del 5G también va a favorecer directamente al desarrollo de la inteligencia artificial".

El analista de IDC, quien recalca que «un modelo predictivo no es un modelo inteligente», apela además a la necesaria democratización de los algoritmos a través de plataformas o martketplaces públicos para seguir avanzando en esta carrera de fondo, con la estimación de que en seis años podamos estar ante la creación masiva tanto de aplicaciones como de servicios con la IA como sustento.

Inteligencia cuántica

Quizás a estas alturas nuestros queridos lectores puedan sentirse algo desilusionados respecto a la inteligencia artificial, máxime si se esperaban ver robots autónomos pensando completamente como humanos (lo que se conoce como IA general). Nada más lejos de la realidad.

"La inteligencia artificial general dinamitará con el ordenador cuántico, cuando podamos realizar cálculos multidominio. Es algo que sabemos que va a llegar, que físicamente es posible, aunque a lo mejor tenemos que esperar 30 o 40 años", defiende De la Torre.  "La computación cuántica ayudará al desarrollo de la IA, pero también muchas otras tecnologías que hoy no somos capaces ni de imaginarnos", añade Dorronsoro. "Ahora ya se está hablando incluso de la singularidad para el año 2029. Quién sabe. Pero seguro que lo se imaginaba en 1956 todavía va a tardar en llegar".
rn 

De Europa a Estados Unidos y China