La ley de la gravedad de los datos tiene su mayor exponente en el internet de las cosas.

La ley de la gravedad de los datos tiene su mayor exponente en el internet de las cosas.

Tecnológicas

La gravedad que Newton no supo ver rediseñará el mundo

Existe una máxima en informática apenas conocida, pero es clave para entender las ineficiencias de muchos despliegues TIC: los datos poseen su propia gravedad y tienden a quedarse donde se generan

3 febrero, 2020 07:00

En 1685, Isaac Newton publicaba sus Principios matemáticos de la filosofía natural, un libro en que sentaba las bases de la mecánica clásica y, en concreto, acuñaba por primera vez el término de la gravitación universal. Más allá de su anécdota con la manzana, este descubrimiento supuso un antes y un después en la forma de entender el universo y nuestro propio globo. Todos los objetos están sujetos a esta gravedad, desde los mismos planetas hasta los aviones, desde un bolígrafo cayendo por una ventana hasta los océanos. 

Y, aunque no lo imaginemos, los datos también tienen su particular gravedad. ¿Cómo es posible que algo intangible esté sujeto a las leyes del mundo físico? 

La ‘gravedad de los datos’ hace que todo gire en torno a ellos y, además, lo haga en local

Lo primero que hemos de aclarar es que existe una doble interpretación del significado del término "gravedad de los datos". La primera visión es, quizás, la más obvia pero no por ello baladí: conforme nuestra sociedad (y nuestra economía) se guía más por datos, todo se estructura en torno a ellos. Sería algo así como una revisión del clásico principio de atracción por el cual el epicentro sería el big data y, alrededor suyo, orbitarían los centros de datos, el software, los consumidores de esas plataformas, etc. Además, esta versión de la ley gravitacional incluye un modelo de prospección de lo más sencillo: conforme aumenta el tamaño de los datos, también se incrementa su fuerza para atraer a otros elementos a su alrededor.

Un fenómeno -acuñado por primera vez por el ingeniero Dave McCrory en 2010- que se retroalimenta sin parar, haciendo que los datos tengan mayor masa conforme pasa el tiempo y, por ende, aumentando su capacidad para atraer servicios y aplicaciones. 

El problema radica, y aquí está el hilo conector con la segunda interpretación, en que son los datos los que más masa tienen, no las aplicaciones ni el hardware. Por ende, y pese a tratar de imponer una estrategia de TIC específica para migrar la información de una empresa a la nube, el Big Data tenderá a seguir quedándose en donde han sido generados. Esa es la visión más visual de la gravedad de los datos: tienden a caer, a bajar al nivel más local. 

Local, mejor que mejor

La información suele producirse a partir de interacciones humanas (entradas manuales en una base de datos), monitorización a base de sensores o es capturada en fuentes externas, como redes sociales o canales físicos. De ahí suele enviarse a sistemas en la nube para su procesamiento, análisis y almacenamiento. Pero esa ley de la gravedad impone que los datos siempre acaban por preferir quedarse en su lugar de origen, esto es, fuera de la nube. 

Una tendencia clara, que se ha ido constatando en cada cambio de tercio entre la centralización y la descentralización de la capacidad de cómputo (del mainframe al modelo cliente-servidor, de la nube al edge computing) y que tiene en la llegada del Internet de las Cosas su mejor reflejo. 

"El gobierno de los datos tiende a ser local. La información que se genera en los dispositivos conectados busca ser procesada directamente en el edge, sin tener que subirse a la nube o ser analizada fuera del objeto", explica Kaustubh Das, un experimentado ingeniero que ha pasado por firmas como Intel, McKinsey, Seagate o, actualmente, Cisco. "También vemos este fenómeno con las aplicaciones: normalmente se reformula el frontend para la nube pero, por la gravedad de los datos, éstos tienden a quedarse en los entornos on-premise. Se duplica así la información, generando problemas de eficiencia, rendimiento y ciberseguridad".

Este peso que parece hacer bajar el big data hasta el extremo de la cadena de valor no sólo responde a aspectos culturales o de orquestación inadecuada: también hay limitaciones físicas muy contundentes en favor de este procesamiento en el edge frente a su centralización en modelos cloud. Por ejemplo, y asumiendo una igualdad de condiciones, cuanto más corta es la distancia, mayor es el rendimiento y menor es la latencia de cualquier aplicación. Asimismo, si tenemos en cuenta el enorme desafío de un universo plagado de dispositivos conectados como el que se nos avecina, parece imposible que las redes de comunicaciones puedan soportar toda la demanda de tráfico esperada. Ni tan siquiera con la llegada de la tan vanagloriada 5G. 

La oportunidad

Esta doble ley de la gravedad de los datos, o interpretación dual si lo prefieren, es un aspecto a menudo olvidado a la hora de reseñar las tendencias tecnológicas. Y también figura en un nivel muy poco destacado dentro de las agendas de los CIO, quienes creen poder imponer cualquier modelo de computación indistintamente del comportamiento natural de los datos. Pero contra la naturaleza no se puede luchar, con lo que lo mejor que podemos hacer es adaptarnos a este comportamiento ya estudiado y conocido para sacar el mayor provecho posible.

En el escenario que se abre ahora con el edge computing (pero también con otras áreas asociadas, como el coche autónomo o la movilización masiva de la fuerza de trabajo) permite rediseñar las estructuras TIC para manejar correctamente la información en el extremo, reinventando las conexiones entre estos datos y las aplicaciones que se ejecutan en la nube, así como para reorganizar las bases en entornos locales, su seguridad y su gobierno.