Image: José Ignacio Latorre: Estamos cerca de conseguir que los robots sientan emoción

Image: José Ignacio Latorre: "Estamos cerca de conseguir que los robots sientan emoción"

Ciencia

José Ignacio Latorre: "Estamos cerca de conseguir que los robots sientan emoción"

El catedrático de Física Teórica presenta en la Fundación Telefónica Etica para máquinas (Ariel), un ensayo en el que analiza el avance de la Inteligencia Artificial

26 febrero, 2019 01:00

José Ignacio Latorre

José Ignacio Latorre (Barcelona, 1959) lee todos los días los nuevos artículos que aparecen sobre computación cuántica. También asiste a sus clases en la Facultad de Física de la Universidad de Barcelona y supervisa a estudiantes de doctorado y máster. A todo eso le añade un plus colaborando con empresas diversas, elaborando "un vino buenísimo" con unos amigos de Alicante y publicando libros como Ética para máquinas (Ariel), una reflexión sobre la ética que debe regir el comportamiento de las máquinas que tarde o temprano terminarán por superarnos. Y, quizá, por gobernarnos... Pregunta. ¿Cree que la Inteligencia Artificial está lo suficientemente desarrollada como para plantearnos ya esta encrucijada ética? Respuesta. Sin duda. Ya existen aplicaciones de IA que requieren programación ética. Por ejemplo, existen programas que asesoran a jueces en Estados Unidos, o coches autónomos que toman decisiones críticas en situaciones delicadas. El uso de reconocimiento facial en China se halla en el límite de lo éticamente correcto. Es necesario que los parlamentos desarrollen iniciativas legislativas éticas muy serias. Todos hemos de contribuir a definir nuestro futuro en un mundo de máquinas. P. ¿Qué piensa de las tres leyes de la robótica de Asimov? ¿Las ampliaría? R. Son leyes de protección para los humanos. En consecuencia son muy limitadas. No hablan de qué tipo de decisiones han de tomarse cuando diferentes humanos están involucrados. No hablan del bien colectivo, ni de situaciones emocionales. Son leyes muy llamativas pero muy insuficientes. Necesitamos una programación ética mucho más sutil. P. ¿Diría que los algoritmos son las neuronas del robot? R. Los algoritmos son el mecanismo matemático que lleva a adoptar acciones concretas. En nuestro cerebro esta labor está codificada en los circuitos neuronales, en su arquitectura. No basta con tener neuronas, éstas deben estar correctamente conectadas. Los algoritmos actuales emulan la conectividad de nuestro cerebro en forma de redes neuronales artificiales. Estamos empezando a utilizarlas de forma no trivial. Es solo el principio, y ya nos supera. P. ¿Qué se ha confirmado de aquel primer RUR de la obra de teatro de Karel Capek de 1920? R. Tal vez nos queda la tosquedad de esos conceptos iniciales. La realidad de la Inteligencia Artificial es más sutil. Hemos aprendido que lo importante no es la apariencia de un robot, sino la capacidad de procesamiento de información. La mayor parte de la IA que nos rodea no tiene forma de robot, no es esclava. Su penetración es subliminal. De repente nuestro teléfono móvil nos entiende mejor, nos indica una buena ruta, nos asiste de forma sorprendente. El cambio es progresivo, lento, pero de enorme calado. P. En su libro prácticamente empieza hablando del alma y termina con el alma. ¿Es su principal preocupación llegar a definir este concepto en la IA? R. Siguiendo las ideas de Alan Turing creo que lo relevante no es discutir si la IA tiene alma o no; lo que de verdad cuenta es si somos capaces de distinguir entre el comportamiento emocional de una IA y el de un humano. Si una voz cálida me susurra palabras de amor, es posible que le respondacomo si estuviera enamorado. Olvidaremos rápidamente si la IA tiene alma o no. Sencillamente, nos haremos cómplices de ellas. P. ¿Qué papel juegan las redes neuronales artificiales en la búsqueda del alma robótica? R. La idea central es cómo simular emociones humanas. Aconsejo a los lectores que vean un vídeo de Google en el que una IA llama por teléfono a una peluquería. Al iniciar la conversación la IA emite un "mmmmh" de duda que la hace realmente verosímil. Es un primer paso para simular dudas, deseos, reflexión. Podemos entrenar a la IA para que sea indistinguible de un humano, y lo haremos mediante redes neuronales artificiales. P. ¿Son las emociones el primer paso del al ama en la máquina? ¿Estamos en las puertas del Deep learning? R. Sí. Las emociones son ya parte del Deep learning. Están aquí. No estamos hablando de un futuro lejano, sino de proyectos de investigación que ya se realizan en multitud de centros universitarios y privados. La emoción y la generación de contenidos son los dos nuevos pasos que estamos dando hacia una IA avanzada. P. ¿El camino lógico, la "evolución" de la Inteligencia Artificial, de la robótica, serían los replicantes humanos? R. No lo creo. No es necesario. Los humanos no tenemos por qué relacionarnos con seres que nos replican. Seguramente diseñaremos una IA capaz de asistir a un juez de forma fidedigna, de ayudar a un médico a la hora de realizar un diagnóstico, o a un empresario a desarrollar una estrategia comercial. Más adelante, la IA nos ayudará en nuestra vida personal. No es necesario aparentar ser un replicante para lograr estos resultados. P. ¿Una Inteligencia Artificial sin principios éticos desembocaría en tecnología de guerra? R. No necesariamente. Mucha gente habla de la IA avanzada como una distopía. Creo que es un nuevo ejemplo de cómo los humanos atribuimos nuestros errores y limitaciones a otros entes. En mi opinión, los humanos más educados suelen ser más pacíficos, no pisan las hormigas, respetan a los koalas, protegen a sus mayores. No hallan placer en la violencia. Una IA avanzada tampoco hallaría placer en destruir nada, en especial a los humanos. La violencia será vista como una rémora del pasado, un principio que fue evolutivamente natural pero inoperante en una sociedad vastamente autosuficiente. P. ¿Diremos a medio plazo adiós al trabajo? ¿Cree que desaparecerán muchos oficios? R. Trabajamos mucho menos que en la Edad Media. Las máquinas nos permiten, además, tener trabajos menos duros desde el punto de vista físico. La mayoría de la gente no ha levantado piedras en el campo, no ha cargado camiones. Esos trabajos se han ido delegando a máquinas. Es natural que la IA elimine trabajos a medida que tenga mejor capacidad de decisión. Muchos mandos intermedios dejarán de ser necesarios. Muchas decisiones sencillas serán automatizadas. Deberemos aprender a redistribuir el poco trabajo que quede para los humanos entre una población más envejecida. No será fácil recorrer ese camino. P. Pintura, arte, música (DeepBach)... ¿Qué papel diría que juega la IA en la cultura? ¿Llegará a existir una creación propia de robots? R. Es un tema fascinante. Somos capaces de crear caras humanas que no existen. Las llamadas redes neuronales adversarias generan contenidos válidos que no existían. ¿Por qué no van a poder generar arte? Pueden incluso aprender de nuestros gustos e ir mejorando su producción para sorprendernos más y más. Tal vez un día todo lo producido por humanos nos parecerá aburrido. Tal vez no. Este camino lo quiero recorrer. P. Cuando se habla de IA, nuestra mente se va a la ciencia ficción. ¿Qué aspectos de la vida cotidiana cambiarán (están cambiando)? ¿Qué aportaciones hará a la medicina y a la curación de enfermedades? R. El diseño de instrumentos, de aparatos, de aviones, de coches, todo se asistirá con AI. Es imparable. También tendremos enormes bases de datos de enfermedades, casuísticas gigantescas de tratamientos, datos pormenorizados de los resultados en función de cientos de variables. Toda esa información será tratada por una IA potente. No hay duda de que la medicina se halla en el umbral de un salto hacia la IA. P. ¿Cree que la IA gobernará mejor las empresas y la política que los humanos? ¿Diría que los hackers serán los nuevos golpistas en un mundo gobernado por la IA? R. Es posible que una IA entrenada con todos los sistemas políticos de la Tierra y sus consecuencias, con todas las leyes y su corrupción, será capaz de ofrecer decisiones de gobierno más acertadas, con menos sesgo. Muchos no aceptarán este hecho. Lo consideran ridículo. Pero creo que es un error menospreciar el alcance que tendrán los algoritmos de decisión bien entrenados bajo tutela internacional. Los hackers no serán un problema a largo plazo. La propia IA sabrá defenderse. Es muy lista.