Gideon Lichfield es el editor jefe del 'MIT Technology Review'.

Gideon Lichfield es el editor jefe del 'MIT Technology Review'.

Innovadores

“Prohibiría el término ‘inteligencia artificial”

El editor jefe de 'MIT Tech Review' alerta de consultorías de ‘neuropolítica’ capaces de ‘hackear’ comportamientos con mensajes científicamente muy precisos "neurovasculares" con la vista puesta en erradicar el cáncerrn

4 octubre, 2018 06:00

Si pudiera, yo prohibiría el término 'inteligencia artificial', que se inventó en los años 50, cuando se refería a computadoras capaces de seguir cadenas lógicas: si se da tal caso, entonces, toma tal decisión".

¿Se refiere al típico condicional de programación 'If…Then…'?

"Eso es, exactamente. Todo planificado. Sin ningún proceso de autonomía por parte de la máquina. Más recientemente, el término se empezó a aplicar al machine learning: una computadora, con millones de ejemplos de algo, 'se enseña' a sí misma cómo llegar al resultado correcto. Pero aun así, no es inteligencia para nada. Es la capacidad de implementar una tarea muy específica, muy limitada".

Son sólo palabras. Pero Gideon Lichfield, editor jefe de la publicación MIT Technology Review es una incuestionable autoridad en el universo de las palabras, por su preparación, graduado en física y filosofía y máster en ciencias sociales; por su posición, líder periodista en el templo de la ciencia y la tecnología; y porque es un políglota que habla ocho idiomas. Lichfield pasó por España el pasado fin de semana para participar en una charla sobre robótica e inteligencia artificial en el Hay Festival de Segovia, invitado por la multinacional de software CGI.

"Se puede engañar a estas máquinas de una manera muy fácil con lo que en inglés se llaman adversarial examples", explica, refiriéndose a experimentos con alteraciones que insertan ciertos patrones de puntos prácticamente invisibles. "Cambias unos pixeles en una foto y eso, que no cambia la apariencia de la imagen para nada, la computadora lo ve completamente distinto. Ya no la reconoce".

Lichfield explica a INNOVADORES, en un español estupendo, por qué importa esta consideración: "Estamos muy lejos, muy, muy lejos, de llegar a algo que realmente se pueda llamar inteligencia artificial. Si es que algún día llegamos. Y, sin embargo, hablamos sobre la influencia de los robots, de cómo nos van a superar, o cómo van a apoderarse del mundo. Posiblemente eso nos impide tener conversaciones racionales".

"Muchos de los cambios económicos", prosigue, "de las pérdidas de trabajo en décadas, que ahora se atribuyen a la inteligencia artificial no se deben a eso, sino a la automatización. Simplemente. Por ejemplo, teléfonos en los que marcas directamente, en vez de que una operadora te conecte. Eso se superó hace décadas".

Según estudios que cita, "en un plazo de 20 a 25 años los cambios van a ser más grandes que en la Revolución Industrial. Muchos empleos no se van a reemplazar, sino que cambiarán su naturaleza. Por ejemplo, un médico puede hacer diagnósticos más acertados y más rápidos con bases de datos y máquinas que le ayudan a identificar síntomas".

Cita otros ejemplos. "Lo vimos en una conferencia hace poco: hay experimentos en hospitales con robots que monitorizan lo que las enfermeras tendrían que hacer. Están al tanto de los movimientos de los pacientes, de sus medicamentos, de las condiciones ambientales. Pueden identificar problemas potenciales antes de que surjan".

"En un plazo de 20 a 25 años los cambios van a ser más grandes que en la Revolución Industrial"

¿Quiénes serán los perdedores en esta nueva revolución?  

"Hay un estudio, de Carl Benedikt Frey y Michael A. Osborne, de la Universidad de Oxford, de 2013, que se cita muchísimo. Hicieron una lista de unas 750 profesiones y a cada una le calcularon una probabilidad de ser reemplazada o automatizada en el futuro cercano o mediano. Los que son muy aptos para automatizar son, por ejemplo, los empleos más bajos de bufetes de abogados, agentes de seguros, vendedores de pólizas de cualquier tipo, gente de telemarketing…".

Por el contrario, "los menos vulnerables incluyen muchas de las profesiones médicas, lo que consiste en dar atención humana. Los entrenadores de deportes, también está bastante altos en la lista".

Y qué pasa con la comunicación, que forja la percepción social del fenómeno. "Es un problema más agudo de la sociedad en general, que tiene que ver con el periodismo, pero más con las maneras de comunicar los medios sociales. Se está volviendo cada vez más difícil sostener conversaciones serias sobre política y sobre el futuro a nivel nacional. Se pueden tener en grupos más pequeños, de especialistas, pero es muy difícil profundizar en estos temas para un público general".

"El historiador israelí Yuval Noah Harari ['Sapiens: de animales a dioses'] publicó un artículo en The Guardian en el cual habla del 'hombre hackeable'", subraya Lichfield. "Dice que nuestra concepción de libre albedrío es una ficción inventada por la teología. Que no tenemos el control tan perfecto sobre nuestros deseos, pensamientos y decisiones como nos gusta pensar".

¿Consecuencias? "El punto de Harari es que siempre fue posible manipular a la gente. Los dictadores lo hacían, los propagandistas lo hacían… pero ahora se puede manipular de una manera mucho más exacta y precisa, gracias a los algoritmos y los datos que podemos tener sobre una persona. Dice Harari que estamos entrando en una época en la que las personas son 'hackeables', manipulables de una manera muy precisa y muy científica. Es lo que lo que Cambridge Analytica decía que podía hacer".

Y aunque Lichfield duda de que esa empresa fuera tan capaz, "esto cambia la naturaleza de la comunicación. Podemos dirigir comunicación específica, personalizada para cada uno, para influirle lo más posible en las opiniones. Lo pueden hacer los políticos, lo pueden hacer las empresas, la publicidad…".

La espada de Damocles es que "hay empresas de consultoría política, los neuropolíticos, que se especializan en investigaciones sobre cómo reacciona una persona a imágenes y mensajes, incluso a expresiones faciales, monitorizando microexpresiones en la cara del espectador ante la tele. Así llegan a entender lo que le gusta, o no, y lo que influye a esta persona, que tal vez ella misma no lo sabe".

La consecuencia es que "viendo a un político hablar, estos consultores pueden saber que cuando dice estas palabras, o cuando levanta la ceja así, o cuando sonríe de esta forma y no de otra, produce tal efecto en su audiencia, que ni siquiera es consciente. Esto se puede medir. Y luego ofrecer la información a la campaña política para indicar cómo cambiar su discurso, o sus gestos. Hemos llegado ya a este nivel de precisión en la manipulación y esto va a aumentar".

"La prensa trata a Trump como si fuera presidente…"

Hablar sobre manipulación social con tecnología, fake news, lleva a preguntar sobre la relación de la prensa de EEUU con Donald Trump: "Siguen cubriendo a Trump como si fuera presidente… Quiero decir se trata a sus tuits, a sus dichos en público, a sus acciones, como 'noticias', de la misma manera que con cualquier otro presidente. Pero no lo deben ser. No tienen el mismo peso, el mismo significado. Cuando él dice algo, no implica que la política de Estados Unidos va a cambiar en ese rumbo".