Los humanos siempre temen la tecnología nueva y lo demuestran creyendo, por ejemplo, que el 5G es una amenaza ambiental», explica Janis Sarts, director de StratCom, "un centro afiliado a la OTAN" (insiste firmemente en esta caracterización), cuya misión está relacionada con la "seguridad digital" contra la manipulación mental. 

Desde el punto de vista estrictamente militar, "la OTAN ha declarado el ciberespacio como el ‘quinto dominio’ y es un área de operaciones. Para eso tiene un centro especial en Talin [Estonia]", subraya. "Nosotros no somos parte de la estructura de comando, somos un centro de investigación y desarrollo, una especie de actor externo que intenta pensar de manera poco ortodoxa. Podemos hacer cosas que la organización nunca haría, pero nos pusieron en esta posición para innovar y pensar ‘fuera de la caja’".

"Observamos riesgos y vulnerabilidades reales y tratamos de ayudar a la OTAN a mitigarlos con tecnología", indica Sarts. "No puedo llamarlo ‘ciberseguridad de las personas’, lo que puedo decir es que, sí, los viejos riesgos de ciberseguridad siguen ahí, pero se acumulan crecientes amenazas que, en vez de hackear sistemas de ordenador, intentan hacerlo con mentes humanas".  

INNOVADORES conversó con él en Riga, donde Stratcom tiene su sede y se dedica a investigar cosas que ocurren en internet. "Hay gente cuyo modelo de negocio es utilizar contenidos altamente emocionales para crear un sistema de clickbait y monetizarlo", dice.

¿Cómo se hackea una mente? "Los datos y el big data tienen dos caras. Por un lado, está todo lo bueno que puedes crear con ellos, como mejores servicios públicos y de transporte. Y por el otro, los sistemas de vigilancia y la pérdida de privacidad pueden ser utilizados para interferir la mente humana. Hicimos un experimento hace dos años, en el curso de un ejercicio militar, usando big data de código abierto. Fue más que suficiente para alterar la conducta de los soldados. Puedes cambiar su comportamiento hasta el punto de desobedecer órdenes y no cumplir su misión".

"Esto implica que debemos tomar muchas cautelas con las emociones en un momento en que la tecnología permite cada vez más manipular la conducta humana y, en ciertos marcos temporales, minar el propio concepto de libre albedrío", advierte Sarts, que ve cómo "se está usando para el marketing de desarrollo de marcas. Y, por otra parte, están los procesos sociales, los procesos democráticos, las elecciones... Es un riesgo para el que tenemos que buscar en la tecnología las soluciones para poner límites a su mal uso".

El director de StratCom relata que, durante el referéndum ilegal de Cataluña, estaban en su tarea habitual de monitorizar ciertos botnets y otros actores online. "De repente los vimos moverse en una dirección específica. Vimos que los botnets controlados por Rusia trabajaban para amplificar historias específicas en el contexto del referéndum". Se trataba, sobre todo, de agitar divisiones.

Uno de sus objetivos es ayudar a la resiliencia digital de sistemas electorales, "sólo a petición de los estados". Aprenden experimentando: "Durante el período electoral de la UE probamos cuán buenas son las redes sociales Facebook, Instagram, Twitter y YouTube en combatir comportamientos falsos conocidos. Compramos 54.000 cuentas a 16 compañías, 11 rusas y cinco europeas, que ofrecen servicios de manipulación. Compramos los ‘compartir’, ‘likes’ y comentarios de seguidores a medida. El 90% de lo que conseguimos por 300 euros coló. Llegamos a la conclusión de que las plataformas no podían detectar un comportamiento claramente falso».

"Estas plataformas se están convirtiendo en elementos importantes en el debate electoral. Y si alguien puede manipular por un precio tan barato y lograr efectos sobre las elecciones, creemos que es malo para el interés general de la sociedad y la seguridad nacional", concluye.