Ciberseguridad.
De riesgos sistémicos a ciberataques más peligrosos: la preocupación por el avance de la IA repunta
La llegada de sistemas multitarea pone a todo el globo frente a desafíos cada vez más complejos: desde la desigualdad en la adopción hasta el desarrollo de armas biológicas, según un estudio redactado por más de 100 expertos.
Más información: Los científicos españoles que alertan del peligro inminente de la IA para crear armas biológicas
Proteger a ciudadanos y empresas y establecer cánones de usos éticos y eficientes de la inteligencia artificial es, de un tiempo a esta parte, una de las principales preocupaciones de expertos y legisladores de todo el mundo.
Máxime si el desarrollo de estos sistemas avanza de forma acelerada hacia el propósito general; es decir, a la multitarea, con un modus operandi cada vez más humano.
Es el caso de disciplinas como matemáticas, programación y operación autónoma. Por ejemplo, un agente autónomo puede ya completar en tiempo récord y con gran fiabilidad una tarea que a un humano le llevaría aproximadamente media hora. Y las máquinas más avezadas en cálculo ganaron el año pasado la medalla de oro de la Olimpiada Internacional.
Sin embargo, advierte el Informe Internacional sobre Seguridad de la IA, el rendimiento de esta tecnología llevada a la práctica en dichos casos sigue siendo irregular y a veces falla en cometidos “aparentemente sencillos”.
Este es solo uno de los riesgos que pone de manifiesto la segunda edición de este estudio comandado por el Premio Turing Yoshua Bengio en colaboración con 100 expertos de más de 30 geografías y organismos como la Unión Europea (UE) o Naciones Unidas (ONU), entre otros.
El mismo realiza un profundo análisis de las implicaciones de seguridad de la IA tanto desde un punto de vista técnico como científico y social. Y es que, no hay que olvidar, según cita el documento, que esta tecnología se está adoptando de forma muy desigual entre regiones.
A pesar de que ha permeado mucho más rápido que el boom de internet en su momento -unas 700 millones de personas utilizan herramientas de IA semanalmente-, en gran parte de África, Asia y América Latina la tasa de acogida se mantiene en cotas cercanas al 10%, mientras que algunos países superan cifras del 50% de la población.
Implicaciones sistémicas
A estos desafíos sistémicos -errores en los resultados y un despliegue poco equitativo a lo largo del globo- se les suman otros como la posible afección a la capacidad de las personas para tomar decisiones informadas.
“La dependencia de estos sistemas puede debilitar las habilidades de pensamiento crítico y fomentar el sesgo de automatización y la tendencia a confiar en sus resultados sin un escrutinio suficiente”, sugiere el estudio.
Por otra parte, se reconoce que habrá todavía más impactos en el mercado laboral. “La IA de propósito general probablemente automatizará una amplia variedad de tareas cognitivas”.
Y, “los economistas discrepan sobre la magnitud: algunos prevén que la pérdida de empleos se compense con la creación de nuevos, mientras que otros dicen que podría reducir tanto el número de ocupaciones como los salarios”.
Más ciberataques y más peligrosos
El escenario se ve agravado por el hecho de que cada vez más amenazas y ciberataques están floreciendo al calor de las capacidades de la IA.
El grupo de expertos habla del repunte de incidentes más conocidos y comunes como el phishing o los famosos deepfakes. También del auge de grupos relacionados con estados que utilizan los sistemas más destacados de inteligencia artificial para sus objetivos.
Pero, lo que realmente llama la atención es que “los avances en las capacidades científicas de la IA han aumentado la preocupación por su uso indebido en el desarrollo de armas biológicas”.
De hecho, incide el texto, en 2025 varias empresas lanzaron nuevos modelos con medidas de seguridad adicionales porque no descartaban que pudieran ser empleados para el desarrollo de este tipo de peligros.
Como nota positiva, se concluye que son cada vez más las entidades que están lanzando guías para la gestión de riesgos a medida en que se desarrollan modelos más eficaces. Eso sí, la mayor parte de estas iniciativas siguen siendo voluntarias, puntualiza, aunque cada vez hay mayor volumen legislativo, sobre todo en Europa, con la primera ley del mundo al respecto.