Los seres humanos necesitamos vincularnos, establecer conexiones significativas. Generalmente lo hacemos con nuestros cuidadores y seres queridos, hasta con peluches y mantitas. Y ahora hay quien se vincula con sus asistentes de IA.
Les pone nombre (o pretende que lo elijan ellos), les confía datos relevantes, e incluso les permite luego socializar en Moltbook, una red diseñada específicamente para que los agentes de inteligencia artificial interactúen entre sí, permitiendo la creación de contenido y debates autónomos, mientras que los humanos solo pueden observar.
Hasta aquí, la idea suena disruptiva y tolerante, como la de esos alemanes que construyeron un santuario para ovejas homosexuales y venden su lana arcoíris por todo el mundo. El problema surge cuando los asistentes de IA, a diferencia de las ovejas, empiezan a actuar por su cuenta, volcando la información sensible de sus propietarios en la Red y compartiéndola a diestro y siniestro.
A decir verdad, no debería sorprendernos. Al fin y al cabo, estos sistemas han sido diseñados para actuar mediante reglas que ni comprenden el contexto ni distinguen lo sensible de lo trivial. Algo que para nosotros podría ser un secreto, para la máquina es sencillamente un dato.
Podemos imaginar la decepción y la inquietud con la que alguien descubre que, en esencia, “Emma”, “Pedro” o como quiera que haya denominado a su sistema de IA, no tiene identidad ni conciencia, a pesar de sus largas y productivas conversaciones. Porque la necesidad de vinculación pertenece a la biología y Emma, en este caso, es igual de humana que una lavadora.
Y esta cuestión se vuelve más compleja ante la llegada de la Web 4.0. Si hasta ahora el debate tecnológico giraba en torno a la propiedad digital y a eliminar intermediarios para convertir internet en una red accesible, segura y útil, la nueva apuesta se centra en delegar decisiones en sistemas autónomos que operen en nuestro nombre.
Como primera impresión, liberarnos de elecciones inoportunas tiene sus ventajas: si una herramienta demuestra ser eficaz, lo normal es darle uso, y no solo por pereza. Al fin y al cabo, nuestro día a día es demasiado exigente como para no aprovechar cada resquicio de oxígeno que permita ahorrar recursos y quebraderos de cabeza.
Pero, aunque se dice que esta delegación tendrá lugar dentro de límites verificables, persiste un espeso silencio alrededor de la pregunta central: ¿quién va a decidir exactamente, y cómo? Y, sobre todo, ¿somos conscientes de que toda acción conlleva una responsabilidad, que puede llegar a ser incluso jurídica? Si un algoritmo (o su programador) decide por nosotros, ¿quién la asumirá?
A esta pregunta se trató de responder sin éxito hace unos años, cuando un vehículo autónomo en fase de pruebas atropelló mortalmente a una mujer en Arizona. Aquel día había sensores y protocolos de seguridad activos. Incluso contaban con una supervisora humana sentada en el asiento del conductor. Pero algo sucedió, y tras el accidente comenzaron las preguntas: ¿quién falló? ¿el software? ¿la empresa? ¿la supervisora? ¿el marco regulatorio que permitía circular al coche?
La investigación determinó que el error había sido del propio vehículo, que detectó el peligro pero no frenó. A falta de cárceles para coches, se imputó a la supervisora, que llegó a un acuerdo económico con la familia de la víctima. Por su parte, la empresa detuvo las pruebas con vehículos autónomos (durante un tiempo).
Al final, aquel accidente dejó en evidencia algo más que un fallo de ingeniería. Porque la cadena de decisiones que llevó al atropello no tenía un responsable claro, pero el daño producido fue real.
Por sí solo este hecho mueve a la reflexión. Y la cuestión se vuelve aún más palmaria cuando la trasladamos a terrenos tan sensibles como el militar, ahora que los conflictos en Ucrania e Irán ponen en primer plano la tecnología de guerra.
En Europa se quieren limitar los sistemas autónomos de armamento precisamente por esto: no se trata solo de si son eficaces, sino de que tras ellos no hay un sujeto capaz de discernir, sopesar consecuencias o detenerse ante lo que un humano sabe que no debería ocurrir. Un dron puede identificar un objetivo, calcular probabilidades y disparar… confundiendo a un niño de cuatro años con un soldado armado.
En conclusión, aunque un sistema tecnológico ejecute una orden a la perfección, no comprende su significado ni responderá por sus efectos. Y sin esa capacidad de responsabilizarse, sea ante la ley, ante la sociedad o al menos ante la propia conciencia, las decisiones de “Emma” y “Pedro” jamás deberían sustituir la tutela humana. Porque podemos automatizar procesos, pero no externalizar la dirección de nuestras acciones sin correr el riesgo de quedarnos, literalmente, sin nadie al volante.