José María Lassalle, director del Foro de Humanismo Tecnológico de Esade, fue Secretario de Estado para la Sociedad de la Información y Agenda Digital entre 2016 y 2018, y anteriormente Secretario de Estado de Cultura entre 2011 y 2016.

José María Lassalle, director del Foro de Humanismo Tecnológico de Esade, fue Secretario de Estado para la Sociedad de la Información y Agenda Digital entre 2016 y 2018, y anteriormente Secretario de Estado de Cultura entre 2011 y 2016.

España

José María Lassalle: "La digitalización debe seguir por encima de batallas partidistas"

El ex secretario de Estado y director del Foro de Humanismo Tecnológico de Esade reflexiona sobre la enorme trascendencia social del cambio digital.

26 diciembre, 2020 02:30

Noticias relacionadas

Mucho antes de que una pandemia evidenciara que la digitalización nos está convirtiendo en personas diferentes a las que éramos antes, José María Lassalle (Santander, 1966) ya postulaba sobre la necesidad de escalar estos debates a las agendas política y social de nuestro país. El que fuera Secretario de Estado responsable de las políticas públicas de digitalización y telecomunicaciones durante el último Gobierno de Mariano Rajoy presentaba un perfil diferente a sus antecesores en el cargo: no era ingeniero, sino de letras. ¡Un humanista! Su campo de especialización: la Filosofía del Derecho.

Hoy dirige el Foro de Humanismo Tecnológico de Esade. Una iniciativa enfocada precisamente a abordar estos debates… antes de que sea demasiado tarde. Con D+I reflexiona sobre el efecto que tiene el cambio digital sobre nuestra personalidad, sobre nuestros valores, sobre la salvaguarda de nuestros derechos fundamentales o sobre la fortaleza de nuestras democracias. Reflexiones profundas pero fundamentales.

  • - Existe una percepción extendida de que la sociedad está perdiendo sus valores. ¿Qué papel juega la tecnología en esa deriva?

En los últimos años, el ejercicio de la libertad individual entendida de manera responsable ha perdido presencia y la tecnología se ha nutrido de ello y lo ha alimentado. A través de un diseño algorítmico que ha buscado la eficiencia de los modelos de negocio y jugando con ciertos condicionantes psicológicos que han acompañado el diseño y arquitectura tecnológica de muchas de las apps y servicios que consumen las personas, nuestro sentido de la responsabilidad individual ha ido perdiendo efectividad.

  • - El diseño de una nueva herramienta tecnológica, por lo tanto, no es neutral. ¿A quién le corresponde decidir dónde ponemos los límites éticos del desarrollo tecnológico?

Nos corresponde a todos. La sociedad civil tiene que participar en el debate a través de las empresas en las que trabajan, de las asociaciones que les representan, de los agentes sociales, de las instituciones… También el poder democrático tiene que participar de esta gobernanza, impulsando modelos regulatorios en diálogo con la sociedad civil. Lo ideal, por lo tanto, sería concebir una gobernanza compartida de la tecnología.

  • - ¿Cree que la sociedad está preparada para decidir qué está bien y qué está mal?

Del mismo modo que el precio justo de un producto se establece de una continua negociación entre la oferta y la demanda, el bien y el mal nacen de una permanente negociación moral. Es decir, es la propia sociedad la que los determina.

Dicho esto, para la cultura occidental, creo que es posible establecer qué entendemos por ‘bien’ y ‘mal’ a partir de unos patrones que han ido consolidándose históricamente y que nos llevan a que los sesgos que introducimos en nuestros algoritmos se ajusten a esos criterios.

  • - Sin embargo, ese 'punto de equilibrio' de valores lleva tiempo. Mientras, observamos ya cómo algunos usuarios se comportan de forma irresponsable a través de una pantalla: difunden contenido sensacionalista o falso y recurren a la crítica fácil o al insulto, sin ser quizás conscientes del impacto exponencial de sus acciones, de que dejarán una huella digital imborrable y, sobre todo, de que hay personas de carne y hueso al otro lado…

En efecto, se está produciendo una disociación entre lo público y lo privado. Esa identidad que somos capaces de poner en comunicación con otro en un entorno analógico y doméstico, experimenta una erosión dentro de este modelo de ‘capitalismo de vigilancia’ donde todo es un gran panóptico, donde todo se reproduce de forma automática, donde no somos capaces de discernir dónde está la privacidad y publicidad de nuestros actos.

Va a costar mucho resolver este desafío. La capacidad de adaptación humana a lo malo es muy rápida y la pantalla contribuye a ello. Todo lo que estamos viendo a través de la pantalla, todos los diseños de los modelos algorítmicos pero, sobre todo, de la arquitectura tecnológica que está detrás de las aplicaciones y de los servicios son modelos intuitivos que buscan que nos liberemos de condicionantes sociales y pautas de conversación educada para dejarnos arrastrar por una inmediatez que hace que no seamos conscientes de lo que estamos haciendo. Precisamente para poder hurgar mejor en nuestro subconsciente y poder extraer de ahí rentabilidades que se monetizan con mucha más facilidad que si estuviéramos controlando nuestros comportamientos de una manera consciente. 

  • - La propia presencia de una pantalla nos otorga una cierta sensación de distancia o impunidad…

Somos víctimas de una cultura audiovisual que durante muchísimo tiempo nos ha asomado a otras realidades a través de la pantalla del cine o de la televisión. Pero esa interacción era pasiva: nadie se asomaba a nuestra reacción frente a los comportamientos que veíamos en la pantalla. Eso ha cambiado. Ahora la pantalla succiona nuestra atención, lo que somos y cómo interactuamos con lo que vemos.

Es un cambio cualitativo muy potente. Además, alrededor de nuestra proyección con la pantalla estamos generando modelos de negocio monetizables y, por tanto, con una capacidad de retroalimentación y de perfeccionamiento que nos dejan en una situación de creciente vulnerabilidad. Por el momento, tenemos las de perder.

  • - ¿Hacemos bien en preocuparnos por el impacto de todo esto sobre los jóvenes, o quizás estamos intentando juzgar el mundo desde nuestra experiencia como 'inmigrantes digitales'?

Las generaciones más jóvenes están expuestas a una mutación cognitiva, emocional y cultural muy profunda relacionada con el hecho de vivir una tecnología inmersiva que les ha acompañado desde una edad temprana. Esto provocará brechas culturales más intensas entre generaciones.

La Generación Z y la que ha coincidido con la pandemia en fase infantil ya desarrollan una secuencia muy intensa de su sociabilidad y procesos educativos en contacto con la pantalla. ¿Qué resultará de eso? Dependerá de los contrapesos que como sociedad seamos capaces de desarrollar desde un punto de vista pedagógico, familiar, cultural y político a la hora de conformar nuevos modelos de ciudadanía que hagan que la tecnología no se convierta en un instrumento negativo de desarrollo de la identidad, sino en un instrumento positivo. Y eso nos corresponde a nosotros, a los que tenemos todavía capacidad de decidir sobre los acontecimientos que estamos viviendo. 

  • - ¿Qué papel juega la política en todo esto?

En la medida en que socialicemos desde el punto de vista político lo que vivimos, eso exige que quienes tienen la responsabilidad de diseñar políticas públicas o de articular ámbitos legislativos que atiendan la identificación del interés general, lo incorporen a su agenda.

Tanto en el ámbito europeo como en el nacional, se ve que existe un esfuerzo legislador para cambiar la inercia de algunos acontecimientos. Pero deberíamos ser capaces de acelerar esos procesos, buscando modelos fluidos de gobernanza público-privada. Sólo de esa manera podremos reconvertir ciertos círculos viciosos en nuevos círculos virtuosos.  

  • - ¿Cree que la política en España comprende que este reto requiere dejar a un lado las batallas partidistas?

En España, en el empuje de la digitalización de la sociedad ha habido un proceso de continuidad política y legislativa que ha trascendido las decisiones de los partidos políticos. Nuestra guía ha sido Europa. Por tanto, en este campo afortunadamente tenemos un feedback muy positivo.

Precisamente el caso español es paradigmático. Por ejemplo, en 2017 pusimos en marcha una comisión centrada en el diseño de una estrategia que permitiera pensar una Constitución digital, con una carta de derechos digitales que salvaguardara valores vinculados al humanismo tecnológico y a la ciudadanía digital. El cambio de Gobierno no ha perjudicado ese proyecto sino todo lo contrario, lo ha acelerado aún más.

Planteamos también el diseño de una comisión sobre brecha de género digital y la necesidad de articular una estrategia nacional de inteligencia artificial, y nuevamente este Gobierno ha continuado ese trabajo y lo ha impulsado. Por eso creo que la cordura va a seguir acompañando el proceso de regulación de estas materias.

Es importante que el desarrollo tecnológico de la sociedad se mantenga por encima de intereses partidistas y en España, al menos hasta la fecha, así ha sido.

  • - ¿Y en el futuro?

Si hasta ahora hemos sido capaces de pensar el desarrollo de nuestras infraestructuras tecnológicas, de abordar tempranamente empeños legisladores en materia de protección de datos, o de diseño de derechos digitales, o estrategias sobre inteligencia artificial, creo que podremos mantener esa posición y no convertirlo en un campo de batalla partidista. 

  • - Uno de los grandes desafíos que tienen los gobernantes es la lucha contra la desinformación, que amenaza los derechos fundamentales de las personas y hasta la supervivencia de nuestras democracias. ¿Cómo cree que se debería abordar este problema?

Requeriría una estrategia muy pautada y diferenciando los ámbitos de actuación. En la protección de los procesos electorales, habría que ser extraordinariamente intervencionista, casi coercitivo. Nuestra sociedad no puede quedar expuesta a procesos de desinformación masiva orquestados por potencias extranjeras que buscan subvertir los fundamentos de la democracia. Y ahí, en coordinación con Europa, la intervención legal debe ser muy rigurosa.

Así, en los momentos críticos en que nos aproximamos a un proceso electoral, habría que tomar medidas determinantes sobre el modelo de las plataformas informativas. De igual manera que, en el ámbito analógico, una democracia modifica el ejercicio de la libertad de opinión durante los procesos electorales y en franjas temporales muy concretas, limitando la posibilidad de publicidad, de debates, de encuestas…

Luego, en lo que llamamos de manera más cotidiana fake news, donde se combina el troleo y la desinformación consciente con pautas de comportamiento social inducido, ahí los niveles de intervención pública deben ser menores. Debe generarse un modelo híbrido de co-gobernanza, donde el autocontrol y la capacidad de chequeo rápido de las plataformas debe ir supliendo la intervención pública. Ahí hace falta encontrar un punto de equilibrio complejo porque no podemos estar condicionando los desarrollos de la opinión pública, aunque nos resulten contrarios a los principios que alimentan la democracia.

En cambio, en el caso de una campaña orquestada contra una persona, por ejemplo, haría falta restablecer un mecanismo intensivo de protección que permita intervenciones judiciales. 

  • - ¿Y la educación?

La educación es la clave de bóveda que sostiene todo lo que comentamos. Un modelo educativo que contribuya a diseños de emancipación crítica, de capacidad de discernimiento crítico que permita a una persona discriminar entre la información que alimenta las fake news y la verdadera información, que contribuye a consolidar una opinión pública sólida al servicio de una democracia liberal. 

Por tanto, todo esto se ha de desarrollar de forma pública, generando un debate en el seno de la sociedad democrática, sin miedos, que no puede esperar. Pero lo primero y de manera directa es evitando que en los momentos críticos donde una democracia se expone al principio ‘un hombre un voto’, ese voto sea un voto consciente, no un voto desinformado ni manejado por la propaganda, y eso refiere una intervención pública directa e intensa. 

  • - Por otra parte, el 'machine learning' amenaza con perpetuar e incrementar el daño que ocasionan nuestros sesgos…

En el documento que ha elaborado el consejo asesor de Inteligencia Artificial se insiste precisamente en que el marco de la democracia y de la defensa de los derechos humanos constituye una base esperanzadora y prometedora para seguir desarrollando procesos de innovación e impulso de la inteligencia artificial. La inteligencia artificial debe ponerse al servicio de la democracia y no convertirse en un lazo que la asfixie o que la atrape opresivamente.  

  • - Al ritmo frenético al que avanza la digitalización, todo esto lo comprobaremos muy pronto…

Yo lo creo firmemente. Nuestras sociedades democráticas, particularmente Europa y ahora Estados Unidos con el cambio de administración, retomarán todo un ámbito de reflexión y debate sobre estos temas que es fundamental para seguir reconociéndonos como sociedades democráticas y libres que colocan a la persona en el centro de la política.