“El verdadero signo de la inteligencia no es el conocimiento sino la imaginación”. Esta famosa cita de Albert Einstein ensalza el poder de la imaginación en estos tiempos en los que las tecnologías exponenciales impactan de tal manera en el concepto del cambio acelerado que muchas personas empiezan a sentir auténtico vértigo por lo que viviremos en los próximos años.

La imaginación se puede definir como el acto o poder de formar una imagen mental de algo que no es accesible a los sentidos o que nunca antes se había percibido por completo en la realidad. Algunos de los conceptos que han surgido de la imaginación de las mentes más creativas incluyen ideas como la telequinesis de las interfaces cerebro-computadoras, cerebros conectados a la nube con inteligencia artificial o la grabación de nuestros sueños. 

En un reciente artículo de Shelly Fan para 'Singularity Hub', la autora explora ciertas tecnologías tan avanzadas que parecen recién salidas de la ciencia ficción. La primera está relacionada con las metasuperficies y los metamateriales. Estos últimos son compuestos artificiales con novedosas propiedades ópticas que pueden interactuar con las ondas electromagnéticas, incluida la luz visible, generando formas que son imposibles para los materiales naturales. Esto les otorga características únicas como, por ejemplo, doblar la luz de diferentes maneras, en lugar de depender de las propiedades de los materiales de los que están hechos.

Diversos experimentos han conectado el mundo de las metasuperficies y los metamateriales con la capacidad de nuestro cerebro de generar ondas electromagnéticas a medida que procesamos información.

En el primer estudio mencionado por Shelly y publicado en 'eLight', un equipo usó un módulo de extracción de ondas cerebrales que permitió a los voluntarios controlar una meta superficie solo con sus mentes. En un segundo estudio un equipo conectó a dos personas a metasuperficies para enviar mensajes de texto con sus mentes. Los científicos imaginan que algún día se podrán usar metamateriales para una gran variedad de propósitos como incorporarlos en interfaces cerebro-máquina no invasivas.

Estas aplicaciones conectan directamente con algunos conceptos que son de máximo interés y prioridad para algunos de los líderes tecnológicos más disruptivos. Elon Musk, quien entre otros cargos es CEO de Neuralink, indicaba hace un par de meses que el lenguaje podría volverse obsoleto en un futuro cercano. Según Elon, por medio de la "telepatía digital" la comunicación de cerebro a cerebro será el futuro de la comunicación. Los humanos ya no solo usarán tecnología digital, como relojes inteligentes y 'fitbits', sino que la llevarán implantada en sus cerebros suponiendo el fin del lenguaje como lo entendemos.

A continuación, ofrecemos una brevísima síntesis de 20 conceptos relacionados con el avance imparable de la tecnología:

  1. Aprendizaje automático. El concepto de aprendizaje automático fue acuñado por Arthur Samuel en 1959. Se trata de una técnica de la inteligencia artificial que proporciona a las computadoras la habilidad de aprender sin que hayan sido explícitamente programadas para ello.

  2. Aprendizaje profundo. El concepto de aprendizaje profundo fue promovido por Rina Dechter en 1986 e Igor Aizenberg en el año 2000. Forma parte de una familia más amplia de métodos de aprendizaje automático basados en redes neuronales artificiales. El aprendizaje profundo modela patrones de datos como redes complejas de múltiples capas y tiene el potencial de resolver problemas difíciles.

  3. Asistentes virtuales. Un asistente virtual es un agente de software que proporciona asistencia a los usuarios entregando información y automatizando tareas. Uno de los primeros proyectos de esta tecnología fue CALO (cognitive assistant that learns and organizes), financiado por DARPA y coordinado por SRI Internacional entre los años 2003 y 2008. En la actualidad, diversos asistentes virtuales como Alexa, Google Assistant, Bixby, Cortana, Sherpa.ai o Aura compiten en un mercado en auge.

  4. Augmentación humana (cíborgs). La augmentación humana o cíborgs es un concepto acuñado por Manfred E. Clynes y Nathan S. Kline en 1960 para definir a un ser humano mejorado que podría sobrevivir en entornos extraterrestres. La augmentación humana en el mundo médico es quizás la más conocida por la sociedad. Las prótesis normalmente suelen suplementar cuerpos dañados o perdidos. Sin embargo, por medio de los implantes biónicos es posible imitar la función originaria de los órganos o partes del cuerpo e incluso aumentarlas.

  5. Automatización. La automatización se puede definir como la tecnología por la cual se puede realizar un proceso o un procedimiento con la mínima asistencia humana. El término se empezó a popularizar desde que la compañía Ford estableció en 1947 un departamento de automatización. Algunas de las aportaciones de la automatización son el incremento de la productividad, reducción de errores y mejora de calidad.

  6. Big data. El término big data se remonta a los años 90 y fue popularizado por John Mashey. Big Data es un concepto relativo a conjuntos de datos a gran escala tan complejos que requieren el uso de aplicaciones informáticas no tradicionales para su procesado. En la actualidad, su uso está muy relacionado con analíticas predictivas y análisis de comportamientos de usuario. Por ejemplo, se crean patrones de comportamiento, anuncios dirigidos, contenidos a la carta y análisis de riesgos.

  7. Biotecnología. La OCDE define la biotecnología como la aplicación de principios de la ciencia y la ingeniería para tratamientos de materiales orgánicos e inorgánicos por sistemas biológicos para producir bienes y servicios. Según estimaciones de Grand View Research del año 2018 publicadas en varios medios, el mercado potencial de la biotecnología podría alcanzar los 727.000 millones de dólares para el 2025. Se desarrollarán productos, servicios y modelos de negocio activados por desafíos de alto impacto como el envejecimiento de las poblaciones y el interés en reducir o detener el proceso de envejecimiento, la capacidad de construir partes humanas para reemplazar los órganos y tejidos defectuosos o evitar enfermedades de nuestros genomas.

  8. Computación cuántica. La computación cuántica se ha construido desde las ideas de Paul Benioff, Richard Feynman y David Deutsch en los años 80 hasta el lanzamiento del primer ordenador cuántico para uso comercial de IBM en 2019. Las computadoras cuánticas aprovechan los fenómenos mecánicos cuánticos para manipular la información por medio de bits cuánticos o cúbits. Pueden considerar todas las posibles soluciones a un problema y descartar aquellas que no funcionan. Las soluciones derivadas de la computación cuántica serán muy útiles para los sectores de salud, química y energía. También impactarán en aplicaciones de uso intensivo de datos como la criptografía y el aprendizaje automático.

  9. Computación en la nube. Sus orígenes se remontan a los trabajos de John McCarthy y Joseph Carl Robnett Licklider en los años 60. El término de computación en la nube se popularizó en 2006 con el producto Elastic Compute Cloud de Amazon. La computación en la nube es la disponibilidad bajo demanda de servicios de computación sin una administración activa directa por parte del usuario. Existen tres tipos: nube privada, pública e híbrida. Incluye categorías como software como servicio (SaaS, por sus siglas en inglés), plataforma como servicio (PaaS), infraestructura como servicio (IaaS).

  10. Convergencia acelerada. Según la 'convergencia acelerada', a medida que la tecnología continúe creciendo de forma exponencial, las interacciones entre los diferentes subgrupos de la tecnología crearán grandes oportunidades de negocio. Jason Ganz publicó un artículo en 2016 en 'Singularity 'Hub' titulado 'No technology thrives alone: progress is all about convergence' (Ninguna tecnología prospera sola: el progreso se trata de convergencia).

  11. Inteligencia artificial. Se puede definir como la ciencia e ingeniería que posibilita desarrollar máquinas y programas informáticos capaces de resolver problemas que normalmente requieren la inteligencia humana. Matemáticos como Charles Babbage o Alan Turing influyeron en su desarrollo. En el año 1956 se asentaron las bases de la IA durante las conferencias de Dartmouth.

  12. Interfaces cerebro-computadora. La interfaz cerebro-computadora es una vía de comunicación directa entre un cerebro mejorado o conectado y un dispositivo externo. La historia de este concepto se inicia con los progresos realizados por Hans Berger con la grabación del primer electroencefalograma en 1924. El científico Kevin Warwick explicaba recientemente que en la actualidad ya es posible mejorar a los seres humanos conectando la mente humana con máquinas. En este sentido, estamos ampliando nuestras capacidades sensoriales, físicas e intelectuales mediante implantes tecnológicos. Esta tecnología, que está en sus inicios, tendrá gran impacto en los sectores de salud, comunicación, entretenimiento, retail y movilidad en general.

  13. Internet de las cosas. El origen del concepto del internet de las cosas (IoT, por sus siglas en inglés) se remonta a los años 80 y las aportaciones de Mark Weiser en 1991. Se puede definir como la interconexión de dispositivos físicos y objetos a través de internet. En este tipo de interacción de máquina a máquina (M2M) cualquier cosa puede estar conectada, desde sensores y dispositivos mecánicos hasta objetos cotidianos.

  14. Ley de rendimientos acelerados. En 1965, Gordon E. Moore señaló que cada dos años se duplica el número de transistores en un microprocesador. Ray Kurzweil propuso la ley de rendimientos acelerados en su libro del año 1999 titulado 'La era de las máquinas espiritualesy en un ensayo posterior del año 2001. Esta ley propone que la tasa de cambio en una amplia variedad de sistemas evolutivos (incluido, entre otros, el crecimiento de las tecnologías) tiende a aumentar exponencialmente. Según Kurzweil, siempre que una tecnología se aproxime a algún tipo de barrera, se inventará una nueva tecnología que nos permita cruzar ese límite que a priori parecía infranqueable.

  15. Nanotecnología. Es la manipulación de la materia en una escala atómica, molecular y supramolecular. El concepto fue discutido en 1959 por el físico Richard Feynman bajo el título 'Hay mucho espacio en la parte inferior'. El concepto de nanotecnología fue propuesto por Norio Taniguchi en 1974. El objetivo principal de la investigación en nanotecnología es crear productos más limpios, mejores, más baratos y más inteligentes. Los sectores de mayor crecimiento en los próximos años serán agricultura, automoción, cosméticos, construcción, energía, electrónica y salud.

  16. Realidad virtual y aumentada. La realidad virtual se puede definir como una experiencia interactiva generada por computadora que tiene lugar en un entorno simulado. Morton Heilig desarrolló en 1962 la máquina de inmersión Sensorama, muy avanzada para su época. Las aplicaciones más resaltables observadas estos últimos años incluyen: juegos, entretenimiento, medios interactivos, bienestar, turismo, actividad social, atracciones, salud, ingeniería, arquitectura, construcción, inmobiliarias, educación, empresas y retail.

  17. Robótica avanzada. El concepto de los autómatas ha fascinado al ser humano desde las antiguas civilizaciones hasta nuestros días. Durante las últimas décadas, los robots están mejorando en destreza e inteligencia gracias a los avances acelerados en áreas como la inteligencia artificial. Se describe la robótica avanzada como robots cada vez más capaces, con sentidos mejorados, destreza, e inteligencia que se utilizarán para automatizar tareas o trabajar de forma complementaria con los humanos.

  18. Seis épocas de evolución. Kurzweil nos propone seis épocas de evolución de la tecnología según se define y almacena la información. Estas épocas son: (1) física y química: información en estructuras atómicas. (2) Biología: información en el ADN. (3) Cerebros: información en patrones neuronales. (4) Tecnología: información en hardware y software. (5) Fusión de tecnología e inteligencia humana: los métodos de la biología, incluida la inteligencia humana, están integrados en la base de la tecnología humana que está en expansión exponencial. (6) El universo se despierta: los patrones de materia y energía en el universo se saturan con procesos y conocimientos inteligentes. Según Kurzweil, estamos pasando del nivel 4 al nivel 5.

  19. Singularidad tecnológica. Es un hipotético punto futuro en el que el crecimiento tecnológico se vuelve incontrolable e irreversible, lo que resultará en cambios indescifrables para la civilización humana. Este concepto se remonta al siglo XVIII con Nicolas de Condorcet, y fue desarrollado por autores como John von Neuman y Stanislaw Ulam en los 50 y por Vernor Vinge en los 80. En la actualidad, expertos como Raymond Kurzweil prevén alcanzar la singularidad en algún punto a partir del año 2030. Sobre esta predicción es interesante leer el estudio del año 2014 titulado 'Future progress in artificial intelligence: a survey of expert opinion' (Progreso futuro en inteligencia artificial: una encuesta de opinión experta). En dicho estudio, realizado por el filósofo sueco Nick Bostrom con expertos en inteligencia artificial, se estima que hay un 50 % de probabilidades de alcanzar una máquina inteligente de alto nivel para el 2040 y una máquina superinteligente para el 2070.

  20. Telepatía informática. Mark Zuckerberg planteó hace varios años que en breve será posible capturar un pensamiento y compartirlo con el mundo. El CEO de Facebook lleva varios años desarrollando programas relacionados con la telepatía informática. El ejército de los Estados Unidos, por su parte, ha estado trabajando intensamente en programas dedicados a mejorar la habilidad de la intuición o 'sexto sentido' de sus tropas. Los científicos del ejército explicaban que las investigaciones en los patrones de reconocimiento y toma de decisiones sugerían que existe dicho sexto sentido a través del cual los seres humanos pueden detectar y actuar sobre patrones únicos sin haberlos analizado antes intencionalmente y de forma consciente. Los expertos coinciden en que la interfaz cerebro-máquina elevará esta habilidad y muchas otras a un nivel muy superior. Las distintas vías de investigación de los sectores público, privado, educativo y militar nos llevan cada vez más cerca de la telepatía informática.

 *** Paco Bree es profesor de Deusto Business School.