Los estudios recientes indican que los humanos serán necesarios en la ecuación con los robots.

Los estudios recientes indican que los humanos serán necesarios en la ecuación con los robots.

Innovadores

Máquinas: no queda otra que colaborar

El trabajo mano a mano con máquinas y software será cada vez más común y necesario, además de conveniente. Entenderlo como algo beneficioso y positivo a nivel individual y social es fundamental para que su integración no sea frustrante

2 enero, 2019 06:00

Este, obviamente, no es un mensaje para las máquinas sino para los humanos: no queda otra que colaborar. Y hay motivos para hacerlo de buen grado. Perdonen que insista pero nos jugamos mucho en ello. ¿Cómo qué? Lo más obvio: el pan. No es que las máquinas vayan a acabar con el empleo, es que tendremos que trabajar con ellas si no queremos perderlo. Los estudios más recientes sobre el futuro del trabajo no hablan ya de su destrucción sino de un efecto de sustitución y cambio de roles.

El último informe de McKinsey al respecto cifra en un 5% de trabajos desplazados por la inteligencia artificial (IA). “La mayoría de los trabajos se verán afectados en parte por la inteligencia artificial, pero los humanos seguirán siendo necesarios en la ecuación. Ello requerirá de asociaciones entre humanos y máquinas para realizar las tareas de forma más eficiente”, señaló Erik Brynjolfsson, director de la Iniciativa del MIT para la Economía Digital, durante un encuentro de directores de innovación en Boston (EE.UU.) el pasado mayo.

El comentario de la eficiencia puede sonar muy mercantilista, ya que a menudo se mira en términos de productividad y beneficios económicos. La promesa es que ello también redunde en una menor carga laboral, en una sustitución de tareas repetitivas por otras más creativas o gratificantes y en que parte de dichos beneficios monetarios repercuta en los trabajadores, ya sea en forma de mayores salarios o de igual retribución por menos horas de trabajo.

La colaboración entre personas y máquinas promete también aumentar las capacidades humanas. En 2016, un equipo de científicos e ingenieros de la Universidad de Harvard desarrolló una técnica para detectar células cancerígenas a partir de muestras de tejido que ayudó a los doctores a detectar un 3,5% más casos de cáncer que sin dicha herramienta. En total, fueron capaces de identificar un 99,5% del total de biopsias cancerosas.

Los expertos pronostican que estas colaboraciones serán cada vez más comunes. A comienzos de este 2018 fue aprobado por la Agencia del Medicamento Estadounidense (la FDA) un programa informático que ayuda a los médicos a diagnosticar infartos cerebrales. Unos meses después la obtuvo otro software que facilita a los especialistas el diagnóstico de muñecas rotas en imágenes de rayos X.

De tú a tú

Incorporar a su práctica clínica el uso de estas tecnologías es un reto que puede ser visto como barrera para los profesionales, no solo en el ámbito sanitario. El desafío aumenta -al menos a priori- si sumamos a la ecuación un robot. Cómo mejorar la interacción con ellos es algo que tratan de averiguar diferentes grupos de investigación, como el que dirige en el MIT Media Lab Rosalind Picard. Su equipo, Computación Afectiva, busca cerrar la brecha entre las emociones humanas y la tecnología informática.

El fin último no es solo mejorar la experiencia del usuario, sino gestionar y comprender mejor cómo las emociones afectan a la salud, la interacción social, el aprendizaje, la memoria y el comportamiento. Por ejemplo, en uno de sus proyectos este año han mostrado que los robots pueden usar grabaciones de video de niños diagnosticados con autismo para determinar algunos aspectos de cómo se están sintiendo. Es decir, que integrar estas máquinas en las terapias para este trastorno puede ayudar a los profesionales a medir el afecto y participación de estos pacientes y a documentar y analizar su evolución, según su estudio publicado en Science el pasado junio.

Para realizar estas mediciones, la máquina debe ser capaz de comprender lo que una persona está experimentando desde su marco de referencia, pero no es fácil. La investigadora de la Universidad Oberta de Cataluña Ágata Lapedriza trabaja con el grupo de Picard en el MIT para tratar de mejorar la estimación robótica de emociones mediante información visual (a partir de la expresión facial o la postura corporal de la persona, por ejemplo). Para ello cree fundamental proporcionar a los robots información contextual del marco en que se producen dichas emociones, algo que muestra en su proyecto EMOTIC.

Actualmente las máquinas están muy limitadas en cuanto a comprender lo que una persona está experimentando. La máquina puede usar cámaras para capturar imágenes o micrófonos para registrar lo que decimos, pero esto no quiere decir que tenga la capacidad de comprenderlo. Lo que sí pueden es detectar cosas concretas, como la presencia de una persona en la imagen o de determinadas expresiones faciales, pero sin conectar ambas con un sentido más elaborado y razonado sobre lo que está experimentando la persona”, explica Lapedriza a INNOVADORES.

Al entrar en terreno emocional -dice la investigadora- todo se complica. “Cada persona expresa sus emociones de una forma diferente. Una máquina puede detectar que alguien está sonriendo, pero no puede saber el por qué (no siempre una sonrisa es sinónimo de felicidad). La expresión de emociones también cambia según el contexto. En el trabajo, por ejemplo, tendemos a ser más comedidos y formales que delante de la familia.

La investigadora reconoce que en los últimos seis años el big data y la inteligencia artificial han ayudado a avanzar mucho en las tecnologías que se usan para entender mejor las emociones, como la visión artificial o el reconocimiento del discurso (con aplicaciones como los asistentes por voz Siri o Alexa, por ejemplo). Cree, no obstante, que para que se note una mejora clara en la interacción de personas y máquinas tiene que haber una integración de todos estos campos que ahora van más por separado, algo que “irá pasando en los próximos años”.

Manipulación y ética

Comprender mejor cómo los humanos interactúan con las máquinas es también el propósito del grupo ‘Robótica Personal’ del MIT Media Lab, aunque con una perspectiva diferente: lo hacen tratando de construir criaturas robóticas con una presencia ‘viva’. Trabajan bajo la premisa de que “las personas interactuarán físicamente, se comunicarán, comprenderán y enseñarán a los robots que, en última instancia, poseerán las habilidades sociales y físicas y el sentido común necesario para participar en la vida diaria de las personas de forma útil y gratificante”.

Gran parte de los proyectos de este equipo se centra en la interacción de niños y máquinas. Su estudio más reciente al respecto reveló que una muñeca que habla puede cambiar los juicios de los más pequeños sobre las transgresiones morales pero no convencerles para desobedecer una instrucción. Esto genera dilemas éticos, dado el hecho de que las máquinas puedan influir en las opiniones, decisiones y comportamientos humanos. ¿Hasta qué punto puede un robot manipularnos? Las mismas investigaciones y desarrollos que sirven para mejorar la interacción humana las hacen precisamente más confiables y convincentes y, por tanto, aumentan su potencial de manipulación.

Disponer de máquinas más ‘humanas’ que conozcan y entiendan nuestras emociones puede ser un arma de doble filo. Si un robot es capaz de detectar nuestras emociones, también puede saber cómo embaucarnos y convencernos para actuar de determinada manera, ¿no? Considerando esta no remota posibilidad, son cada vez más los científicos, ingenieros, filósofos, sociólogos y antropólogos cuyo foco es el desarrollo ético de estas tecnologías y su auditoría posterior.

Conocer los retos y riesgos que esto plantea es fundamental para tener una visión crítica en nuestra relación con las máquinas pero no es excusa para argumentos catastrofistas. Estos solo paralizan y generan posturas extremas, además de frustrantes. El rechazo a colaborar con las máquinas no las hará desaparecer pero sí limitará sus beneficios tanto a nivel individual como social. Suena un poco a perogrullo pero los expertos insisten: dadas las tendencias apocalípticas y distópicas es necesario cambiar el discurso. Pasar de rechazar a entender, valorar y acoger. A adoptarlas de forma voluntaria y no forzosa. Que quede como deseo para el Año Nuevo.

Un apoyo para la calidad de vida

“Los robots tienen un enorme potencial para mejorar la calidad de vida de las personas mayores y discapacitadas. Les ayuda a vivir de forma más independiente”, dice la Guía del Standard de Robótica Personal de Reino Unido. ¿Qué pueden hacer por ellas? Abrir cortinas, puertas o ventanas; aspirar y limpiar; transportar artículos; recoger objetos del suelo; encender o apagar equipos o proporcionar asistencia personal para levantarse de una silla o de la cama, vestirse, entrar y salir de un baño o ducha, peinarse o moverse dentro de su casa o entre ubicaciones predefinidas.

En el arte

La conversación sobre los retos a los que se enfrenta la humanidad ante el desarrollo de la robótica y sus posibilidades para transformar el futuro tiene también ramificaciones artísticas. Es el tema de la exposición ‘Nosotros, Robots’ en el Espacio Fundación Telefónica (Madrid). Cerca de 50 robots acompañados de maquetas, infografías y piezas audiovisuales explicativas buscan familiarizar al espectador con la robótica.