La alta representante de la Unión Europea (UE) para la Política Exterior, Federica Mogherini.

La alta representante de la Unión Europea (UE) para la Política Exterior, Federica Mogherini.

Tecnológicas

Un marco legal y ético para que la IA no actúe “fuera de control” en la UE

Los ministros de Defensa debaten para evitar que la inteligencia artificial se convierta en un riesgo para las personas

1 febrero, 2019 10:00

Un marco legal y ético para que la inteligencia artificial (IA) no actúe "fuera de control". Este es el objetivo que se han marcado los ministros de Defensa de la Unión Europea en un "debate inicial" en el que se ha propuesto desarrollar una "discusión formal" sobre esta materia para evitar que la inteligencia artificial pueda convertirse en un riesgo para los humanos.

La alta representante de la Unión Europea (UE) para la Política Exterior, Federica Mogherini, ha destacado, en Bucarest tras la reunión de los ministros de Defensa, el enorme potencial de la inteligencia artificial en el desarrollo de nuevas capacidades y tecnologías aplicadas a la defensa, pero también ha advertido de que se debía establecer un "marco claro" sobre su uso.

En el encuentro de ministros se han abordaron "algunas preocupaciones que hay sobre el marco legal y ético en el que se aplica la inteligencia artificial en el campo de la defensa". Mogherini ha apuntado que la UE está, por un lado, en contacto con la ONU, que ha comenzado a trabajar para crear un marco global sobre inteligencia artificial aplicada a la defensa, y, por el otro, desarrolla sus propias ideas con expertos y el sector empresarial.

El objetivo es "crear reglas y marcos claros para desarrollar el potencial de la inteligencia artificial sin correr riesgos de que ésta quede fuera de control en cuanto a dirección humana", ha incidido la alta representante de la UE. 

En 2017, un grupo de expertos de Naciones Unidas ya inició un debate sobre los desafíos éticos y legales de los sistemas de armamento autónomos, denominados "robots asesinos", y que son capaces de operar sin instrucciones humanas.

De hecho, ONG y activistas a favor de los derechos humanos han advertido de que varios países están ya invirtiendo en esta tecnología y que en el futuro estas armas podrían ser utilizadas contra población civil.