¿Son los algoritmos lo bastante inteligentes para conocernos?

¿Son los algoritmos lo bastante inteligentes para conocernos?

DISEÑANDO NEGOCIOS PARA UN MUNDO MEJOR

La culpa no fue del 'chachachá', fue del algoritmo

9 octubre, 2021 02:27

Un algoritmo es algo impenetrable. Es misterioso, lo sabe todo, es omnipotente. Excepto que no es así.

Un algoritmo es un concepto simple, mucho más simple de lo que imaginamos, pero que, hoy en día, tiene muchas manifestaciones complejas. La posición central y opaca de los algoritmos en el corazón de las redes sociales como Facebook hace que algunos los vean con una especie de reverencia mística. Los algoritmos se han convertido en sinónimo de algo altamente técnico y difícil de entender que es o bien un árbitro de la verdad objetiva, o bien, en el otro extremo del espectro, algo totalmente poco fiable.

Pero cuando la gente se refiere a ‘el algoritmo’, ya sea el de recomendación de Facebook o de otra compañía tecnológica, o simplemente ‘algoritmos’ en general, ¿saben realmente lo que significa? A juzgar por la amplitud y mal uso del término lo más probable es que no. Así que, os cuento.

Un algoritmo es un conjunto de instrucciones muy específicas. Cómo hornear un pastel, encontrar la suma de dos más dos, o incluso dirigir un país según la Constitución de los Estados Unidos son algunos ejemplos. ¿Por qué? Pues porque la definición de un algoritmo es ‘una secuencia de instrucciones’. Así de simple… o no.

Hoy en día, entendemos que hablar de algoritmo se refiere a ‘una secuencia de instrucciones que le dice a un ordenador lo que debe hacer’. Un programa de ordenador es un algoritmo, escrito en un lenguaje de programación que éste puede entender y ejecutar.

Los algoritmos tienen que ser extremadamente precisos, a menudo usando las instrucciones ‘si’, ‘entonces’ y ‘más’. Por ejemplo, un coche autónomo sólo puede funcionar con un algoritmo de navegación que diga ‘SI las instrucciones dicen gira a la izquierda, ENTONCES gira a la izquierda’. ¿Ves lo específico que tienes que ser para hacer que un ordenador siga un conjunto de instrucciones aparentemente simples?

En la imaginación popular, los algoritmos de recomendación han llegado a dominar nuestra idea de lo que es realmente un algoritmo. Es decir, cuando mucha gente piensa en ellos se refieren a algo que Netflix o Spotify creen que te puede gustar y te sugieren. O, por darle una vuelta más ‘difícil’, el sistema que decide qué viajeros no pueden volar. Mientras que estos son algoritmos extremadamente complicados, en sus corazones son sólo un conjunto de instrucciones que un ordenador sigue para completar una tarea específica. 

Los ordenadores actuales permiten que los algoritmos sean cada vez más complejos, ¡de millones de líneas de código! 

Escribimos y utilizamos algoritmos desde mucho antes de existir los ordenadores. Ya en la época babilónica, los humanos los escribían para hacer las ecuaciones matemáticas que les permitían gestionar su sociedad agrícola.

Los algoritmos que utilizaban computadoras adquirieron importancia por primera vez a mediados del siglo XX, cuando los militares comenzaron a escribir fórmulas para, por ejemplo, determinar dónde apuntar un misil a un objeto en movimiento. El concepto se trasladó luego a la administración de empresas, con computadoras que ejecutaban fórmulas para administrar las nóminas y demás; y en la ciencia, para rastrear los movimientos en el cielo.

Un punto de inflexión llegó cuando Larry Page y Sergei Brin escribieron el algoritmo PageRank de Google. En lugar de depender sólo de la información dentro de una página para determinar cuán relevante era para un término de búsqueda, el algoritmo del motor de búsqueda incorporó una serie de señales que le ayudarían a sacar a la superficie los mejores resultados, como cuántos enlaces apuntaban al artículo y qué reputación tenían esos artículos, basándose en cuántos enlaces apuntaban a esas páginas, y así sucesivamente. Sin duda una poderosa señal de lo que nos deparaba el futuro. El resto es historia y ya la conocéis… y vivís.

Hoy en día, los podemos encontrar en todas partes. Mientras que podríamos pensar en ellos como ecuaciones matemáticas, los algoritmos pueden calcular cualquier cosa de cualquier cosa, y hasta puede que no haya ningún número involucrado. Un prominente y extremadamente complejo algoritmo es el que gobierna el feed de noticias de Facebook. Es una ecuación que esta compañía usa para determinar qué piezas de contenido mostrar a sus usuarios mientras se desplazan; en otras palabras, un conjunto de instrucciones para decidir lo que va en el Canal de Noticias. ¿Por qué? Pues porque hay un sinfín de cosas que Facebook podría poner en tu newsfeed pero tiene que elegir. Aunque también es cierto que no ha estado muy fino…

Pero bueno, en teoría, lo que he dicho se debería referir a que lo que vemos en nuestro ‘muro’. Generalmente, es una combinación de cosas como cuánto te preocupas por la gente que produjo directa o indirectamente ese post, cuánto de cerca están de ti en la red social, cómo de relevante es en sus propios entornos y también cómo de reciente es. 

Facebook, Google, Amazon y otras grandes compañías de tecnología confían en los algoritmos para servir contenido y productos a sus clientes. Pero hay otros algoritmos presentes en nuestras vidas de los que podrías no ser consciente.

Por ejemplo, el que determina cuándo el lavavajillas debe pasar de lavar a secar, o cómo un coche regula la entrada de combustible y sabe cuándo su tanque está lleno mientras está en la gasolinera, o cómo las sombras aparecen en una película animada digitalmente para replicar perfectamente el sol en el mundo real.

Cada vez que interactúas con el ordenador, el móvil, tu smart TV o estás en internet, hay algoritmos involucrados; y cuando no estás con esos dispositivos, también. 

Algoritmos y machine learning

Como ya os he dicho, un algoritmo ha de estar diseñado y escrito con el máximo detalle para que el ordenador que ha de ejecutarlo entienda qué hacer. Sin embargo, ese no es el caso cuando las personas que escriben los algoritmos incorporan el machine learning en su objetivo de lograr los algoritmos más sofisticados.

En la programación tradicional, un ser humano tiene que escribir cada pequeño detalle de lo que el otro tiene que hacer, y eso consume mucho tiempo, es muy costoso, el machine learning ayuda a que el ordenador ‘descubra’ sus propios algoritmos en lugar de que le digan qué hacer.

Dicho de otra manera, el machine learning es cuando un programador alimenta a un programa con algunos datos en bruto como punto de partida, luego presenta el punto final de lo que parece una versión organizada y clasificada de esos datos, y deja al programa la tarea de averiguar cómo ir del punto A al punto B.

Este tipo de algoritmos se vuelven aún más poderosos cuando es el ser humano el que no sabría cómo pasar del punto A al B. Por ejemplo, un proceso humano como el de ser capaz de reconocer que un plato es un plato requiere tanta potencia cerebral que sería imposible escribirlo paso a paso. Pero al darle a un programa un montón de imágenes de un plato, e imágenes que no son de un plato, y mostrar el punto final deseado como la categorización de una imagen de un plato como un plato, la computadora puede aprender a ejecutar ese proceso por sí misma.

No sé si me explico: es el ordenador aprendiendo a programarse a sí mismo en lugar de tener que ser programado por las personas. Sin duda, es algo extraordinariamente poderoso cuando funciona, porque ahora puedes –ya sabes– crear algoritmos muy poderosos y muy complejos con muy poca intervención humana. También es muy divertido cuando no funciona… y estás en un entorno de pruebas.

No, los algoritmos no son mágicos. Gracias a la gran cantidad de datos procesados, podría parecer que son cajas misteriosas construidas para revelar secretos. Sin embargo, recordad que un algoritmo sólo significa un conjunto de instrucciones. Es más, los humanos crean algoritmos, lo que significa que pueden ser defectuosos y contener, por ejemplo, sesgos. Algo que está encima de la mesa después de varios problemas con éstos, como el de YouTube y su servicio de moderación de contenidos.

Los programadores pasan enormes cantidades de tiempo arreglando errores en los algoritmos para que las líneas de código produzcan los resultados apropiados. Sin embargo, los humanos no siempre captan esos errores. Es más, un algoritmo se basa en la salida que un humano quiere ver, o en lo que ese humano está optimizando.

Tomemos un algoritmo de contratación, que aparentemente debería encontrar el mejor candidato para un trabajo. Si un humano establece las instrucciones para ver las calificaciones que no son necesariamente relevantes para un trabajo, por ejemplo el prestigio de la universidad donde ha estudiado, sólo porque el algoritmo diga entonces que ‘el candidato A es el idóneo’ no lo convierte en la verdad.

A menudo, eso es debido a los prejuicios. Y los problemas de sesgos pueden empeorar aún más con los algoritmos que utilizan la inteligencia artificial.

En la programación tradicional tienes que preocuparte por los prejuicios del programador, en el machine learning tienes que preocuparte por los sesgos que vienen de los datos.

Por ejemplo, un algoritmo de contratación alimentado por machine learning podría utilizar como punto de partida un montón de currículums de candidatos y como salida los currículums de personas que fueron contratadas en el pasado. Sin embargo, la mayoría de las compañías de tecnología no son especialmente diversas, por lo que que un algoritmo automatizado que hace recomendaciones de contratación podría reflejar esa desigualdad del mundo real.

Los estudios han demostrado que la inteligencia artificial puede reflejar los estereotipos de género y raza de los humanos que la entrenan. En un estudio, un algoritmo que producía asociaciones de palabras utilizó la totalidad de la lengua inglesa en la web como datos de entrenamiento para aprender asociaciones entre palabras. Gracias a los sesgos que existen en nuestro mundo, el algoritmo determinó que los nombres femeninos se asociaban más con las artes, mientras que los masculinos lo hacían con las matemáticas y las ciencias.

Estudios como éste demuestran que los algoritmos no son intrínsecamente neutrales, perfectos o malévolos, simplemente hacen lo que los humanos y los datos que los entrenan dicen que hagan. En resumen, son tan defectuosos como nosotros.

Los algoritmos están marcando el comienzo de una revolución tecnológica. Pueden ser imperfectos, pero están transformando nuestro mundo y es que si os fijáis todas estas cosas que damos por sentadas, como la web y las redes sociales, no existirían sin los algoritmos 

A medida que estos conjuntos automatizados de instrucciones se generalizan, desde tu lavavajillas hasta los superordenadores de las agencias de inteligencia, los humanos tenemos la capacidad de ejercer nuestros conocimientos con más rapidez y eficacia que nunca. 

Los algoritmos están haciendo por el trabajo mental lo que la Revolución Industrial hizo por el trabajo manual. Son la automatización de la inteligencia. Y si piensas en ello es algo muy poderoso: hacer algo que antes requería pensamiento y trabajo humano ahora lo puede hacer un algoritmo y ya que están aquí, se quedarán. Pero cómo los diseñemos, sesgados o equitativos, útiles o perjudiciales, y hasta qué punto aceptemos su presencia, depende únicamente de nosotros y ahí sí, la culpa podrá ser del chachachá.

Entorno virtual de la plaza del Pilar, desarrollado por Imascono para 2020 y que este año tendrá mejoras.

El arte digital se cuela en la ofrenda del Pilar de Zaragoza: un cabezudo 'tokenizado' como tesoro más buscado

Anterior
Equipo de Saturno Labs: (de izquierda a derecha): Alicia Grande, Diego de la Cal, Ramón Martínez y Natalia Rodríguez.

La primera startup hispana que Amazon eligió para 'humanizar' Alexa y que ahora ayuda a enfermos de cáncer

Siguiente