La herramienta viral de IA agéntica Clawdbot, que ha sufrido un cambio en el nombre de su marca por los problemas planteados por Claude, la IA que se bate en duelo con ChatGPT, sigue preocupando por los riesgos de seguridad que supone.
Que en estas últimas semanas se haya popularizado su uso se debe a que sus seguidores aclaman a este "asistente personal de IA de código abierto como un posible gran avance".
Una de sus importantes virtudes es que se ejecuta de forma local en el PC del usuario.
Lo que es un punto muy a su favor para proteger la privacidad y evitar que los agentes de IA de OpenAI en ChatGPT o Google en Gemini manejen los datos y credenciales del usuario en sus servidores.
Es una IA proactiva que en vez de esperar a la acción del usuario es capaz de escribirle primero.
Las apps de mensajería a las que se conecta Clawdbot
Puede enviar desde un resumen matutino con las tareas del día a avisar si detecta un conflicto en el calendario.
Clawdbot, que ahora se le conoce como Moltbot, también tiene la ventaja de que se conecta directamente a las aplicaciones de uso diario como WhatsApp, Telegram, Discord o Signal.
Realmente nos relacionamos con Moltbot como si fuese otro contacto más del móvil, pero con la gran virtud de que es proactivo y corre en la propia máquina de forma local para gestionar archivos, ejecutar scripts o navegar por la web.
Riesgos para la seguridad
La preocupación sobre los riesgos de seguridad que supone que una IA gestione las credenciales del usuario, según The Register, tiene una base.
El comando que inicia Clawdbot
A un agente IA se le están entregando las llaves de las apps de mensajería cifrada, números de teléfono e incluso las cuentas bancarias asociadas.
Expertos en seguridad han puesto el grito en el cielo sobre los problemas que se pueden generar si no se realizan las configuraciones correctas.
Jamieson O'Reily, fundador de la empresa Dvuln, afirmó a The Register que había visto cientos de instancias de Clawdbot expuestas en la web, filtrando potencialmente secretos.
De hecho, el modelo de ataque que reportó a los desarrolladores de Moltbot, que implicaba configuraciones incorrectas del proxy y otros fallos, ya ha sido corregido.
El problema más grave es que podría haber permitido a los atacantes acceder a meses de mensajes privados, credenciales de cuentas, claves API y más.
Clawdbot contra Google, OpenAI y Anthropic
Hay que poner en perspectiva lo que supone la aparición de Clawdbot frente a los intereses de Google, OpenAI y Anthropic al igual que el resto de compañías con chatbots con IA.
Las últimas integraciones más importantes de los gigantes de la IA han estado relacionadas con agentes que, al igual que sucede con Moltbot, acceden a las credenciales del usuario para reservar vuelos y más.
Un usuario de Clawdbot en su cuenta de X (antes Twitter)
Si el usuario usa un agente como Moltbot, ChatGPT o Gemini quedan solo como un "proveedor de inteligencia" y dejan de ver cómo interactúas con otras webs, perdiendo datos de gran valor para entrenar a sus agentes en el comportamiento humano real.
Esta herramienta consigue que el usuario recupere la independencia para tener el control total sobre sus datos y credenciales a nivel local.
O'Reily publicó más detalles de una prueba de concepto de un exploit a la cadena de suministros de ClawdHub, la biblioteca de habilidades del asistente de IA.
Fue capaz de subir una habilidad pública, inflar artificialmente el número de descargas a más de 4.000 y observar como desarrolladores de siete países descargaban el paquete envenenado.
Aquí la estrategia que vamos a ir viendo a lo largo del año es del "peligro" que supone un software local que gestione contraseñas y archivos sin "supervisión profesional", que lo tiene, pero la lucha encarnizada de las Big Tech por un mercado tan goloso como el de la IA, está consiguiendo que la comunidad de código abierto quiera soberanía sobre sus agentes locales IA y se defienda con herramientas como Moltbot.
El mayor problema al que se está enfrentando Moltbot es que se vendió como algo "fácil de instalar para todos", cuando en realidad, según ciertos expertos en seguridad, requiere una configuración de seguridad robusta.
Eric Schwake, director de estrategia de ciberseguridad de Salt Security, comentó a The Register: "Existe una brecha significativa entre el entusiasmo de los consumidores por el atractivo del 'un solo clic' de Moltbot y la experiencia técnica necesaria para operar una pasarela agéntica segura".
