La importancia de la ética en la inteligencia artificial gira en torno al potencial que tiene esta tecnología y lo que podría hacerse con ella, especialmente cuando se combina con las máquinas: coches que se conducen solos, robots que trabajan con los humanos en las fábricas y otros que se ‘dedican’ a la cirugía a distancia y que permiten a los médicos operar a un paciente en cualquier parte del mundo, sistemas de software inteligentes que ayudan a los pilotos a navegar, cámaras inteligentes que reconocen a las personas que por allí aparecen…

Sin embargo, al igual que otras tecnologías transformadoras que vinieron antes, la IA despierta bastante escepticismo e incluso, a veces no me extraña, miedo, dando lugar a normativas y políticas que limitan el ámbito de su aplicación. ¿Qué se está haciendo por ahí para promover la aplicación ética de una de las tecnologías de mayor potencial que ha existido? Veamos…

Donde la IA se cruza con la robótica

Los robots industriales de hoy en día se están transformando radicalmente, pasando de ser máquinas rutinarias limitadas a movimientos repetitivos a colaboradores cognitivos.

Las aplicaciones de IA ingieren cantidades masivas de datos recogidos por sensores basados en robots que requieren interpretación y acciones en tiempo real. Por eso estos datos muchas veces no se envían a la nube para su procesamiento, y son analizados in situ, en la máquina o cerca de ella. Esto proporciona a las máquinas conocimiento en tiempo real y permite a los robots tomar decisiones mucho más rápido que los humanos, que necesitan confiar y apoyarse en esas decisiones.

A medida que los robots se vuelven móviles, colaborativos y conectados a otros dispositivos IoT, el ecosistema rico en datos se abre a múltiples puntos de acceso para los posibles ciberdelincuentes. Las empresas pueden ser vulnerables al malware, ransomware, a los retrasos en la producción y a la interrupción del negocio. Además, los ciberataques dirigidos a sistemas robóticos muy ágiles y potentes también acarrean serios problemas de seguridad física.

¿Cuáles son los riesgos?

El debate en torno a los aspectos potencialmente problemáticos de la IA es continuo, y actualmente se centra en algunas cuestiones clave:

- Privacidad y seguridad: la IA funciona con datos, por lo que las vulnerabilidades de ciberseguridad pueden suponer una amenaza para las personas y las organizaciones.

- Opacidad/Transparencia: ¿cómo se procesan los datos y cómo se utilizan? Los patrones reconocidos por los sistemas de Inteligencia Artificial pueden no ser realmente representativos del resultado de la decisión analítica. ¿Qué datos se seleccionan y cómo se comprueba su calidad? Es necesario que haya transparencia, participación de la comunidad y ‘responsabilidad algorítmica’ en el sistema para garantizar la confianza en que los resultados derivados de la IA cumplen las normas éticas y son justos y libres de prejuicios.

- Sesgos: el sesgo puede afectar a los algoritmos de varias maneras, especialmente mediante el uso de datos defectuosos o conjuntos de datos no relacionados con el tema en cuestión.

Regulación de las consideraciones éticas

Al igual que con otras tecnologías disruptivas, la formulación de leyes y reglamentos para gestionar estas cosas, va mucho más lenta y le cuesta estar al día. Existen importantes esfuerzos técnicos para detectar y eliminar los sesgos de los sistemas de IA, pero están en una fase inicial. Además, las soluciones tecnológicas tienen sus límites, ya que necesitan desarrollar una noción matemática de equidad, algo realmente difícil de conseguir.

Desde las ‘altas esferas’ se ha hecho ruido, se han toqueteado cosas… y hemos podido ver ‘comienzos de cosas’. Un documento de la UE de 2019 del Centro de Innovación de Datos postuló que la ‘Inteligencia Artificial digna de confianza’ debe ser legal, ética y técnicamente resistente, y detalló los requisitos para cumplir esos objetivos: supervisión humana, solidez técnica, privacidad y gobernanza de datos, transparencia, equidad, bienestar y responsabilidad. Esto ha llevado hacia una Nueva normativa en materia de inteligencia artificial lanzada por la Comisión Europea en abril de año pasado.

Por otro lado, en otoño de 2021, los principales asesores científicos del presidente Joe Biden empezaron a pedir una nueva ‘Carta de Derechos’ para protegerse de la nueva y potente tecnología que cada vez está más presente en nuestras vidas.

La IA puede aportar beneficios sustanciales a las personas y a las organizaciones que saben aprovechan su potencial, pero si se aplica sin salvaguardias éticas, también puede dañar la reputación y los resultados futuros. No es fácil elaborar normas o redactar leyes y en el caso de algo como la inteligencia artificial se antoja todavía más complicado. Y esto se debe a que la IA abarca tantos ámbitos…

Un marco para evaluar las aplicaciones de IA

En el futuro, y como complemento a los trabajos anteriores, se ha propuesto un marco para garantizar las aplicaciones éticas. El marco se construye en torno a cuatro pilares clave: Confianza, Transparencia, Equidad y Privacidad.

- Confianza: en primer lugar, poder demostrar la fiabilidad de una aplicación de IA es la cuestión de entrada que necesitamos para empezar. Los ciudadanos necesitan saber que las aplicaciones de Inteligencia Artificial que utilizan proceden de una fuente fiable y han sido desarrolladas con una supervisión responsable y creíble.
 

- Transparencia: la transparencia sobre el uso de la IA y la explicación de sus ventajas en casos concretos contribuirá a reducir las preocupaciones y a ampliar su adopción.

- Equidad: los desarrolladores deben demostrar que la IA se utiliza de forma justa e imparcial. Dado que la IA, en su estado elemental, carece de capacidad de juicio y, en cambio, se centra, principalmente, en el reconocimiento de patrones, los algoritmos deben ajustarse para eliminar los sesgos. También deben introducirse procesos para evitar éstos y que nosotros, los humanos, inevitablemente aportamos.

- Privacidad: es fundamental que los desarrolladores tengan en cuenta cómo el uso de la IA puede afectar a cualquier información personal identificable, PII, incluida en los datos que se procesan. Aunque el procesamiento de la IA elimina alguno de estos problemas, ya que evita la interacción humana con los datos sensibles, plantea otros, como el alcance del uso de la información, dónde se almacena y quién puede acceder a ella.

Esto es cosa de todos

La inteligencia artificial ha llegado para quedarse, lo sabéis, ¿no?, y los esfuerzos para ‘domar’ su potencial seguramente seguirán. Pensando de forma proactiva, los principales actores del sector están buscando formas de asegurarse de que sus aplicaciones siguen los marcos que exigen que la IA sea fiable, transparente, justa y garantice la privacidad.

Una forma de garantizarlo es utilizar un sistema de revisión por pares, donde los desarrolladores de IA presentarían sus casos de uso para su revisión en una Comunidad de IA similar a los entornos de código abierto que existían antes.

Otra forma de añadir claridad y transparencia sería crear una organización ad hoc en la que las empresas comprometan sus proyectos y aplicaciones a un Registro de IA central. A diferencia de un organismo de normalización formal que suele estar dominado por grandes organizaciones que controlan la agenda, el registro sería un órgano de autoinformación para recoger opiniones, consejos y afirmaciones.

Tampoco sería una locura recuperar en los planes de estudio, incluidas carreras técnicas, la Filosofía y la Ética como asignatura troncal, ya que eso de la Confianza, Transparencia, Equidad y Privacidad… debería ir ‘de serie’ también en las personas. Incluso en muchos de los que ahora lo reclaman a las máquinas. Pero eso es otro tema...

Lo que sea, pero que no se frene la innovación. Aprovechemos todo su potencial para mejorar nuestro mundo y nuestras vidas.