cerebro electronico inteligencia artificial

cerebro electronico inteligencia artificial

Software

Los 5 derechos fundamentales que los robots no pueden romper, según la Comisión Europea

El primer borrador de principios éticos para Inteligencia Artificial publicado por la Comisión Europea incluye derechos que los robots no pueden romper.

20 diciembre, 2018 14:03

Noticias relacionadas

Estamos posiblemente en el momento crítico para el futuro, no solo de la IA, sino también para la humanidad. El papel que tendrán los robots en nuestras vidas será cada vez más importante; se convertirán en un miembro más de la familia, nos ayudarán en el trabajo y en la vida personal, y nos preguntaremos cómo hemos podido vivir sin esta tecnología.

Pero para que eso ocurra, hace falta una base. Unas reglas y unas leyes, que los robots tengan que seguir a rajatabla; todo para asegurarse de que su creación lleva al futuro de la humanidad, no a su fin. Mientras los primeros robots ya están siendo usados en la guerra, y las primeras IA ya están siendo usadas para aprovecharse y engañar a la gente, en la Unión Europea quieren poner los cimientos para esa base, y evitar males mayores.

De ahí la publicación del primer borrador de la guía de principios éticos para Inteligencia Artificial, publicada esta semana por la Comisión Europea. Aunque no se trata del texto final, sirve para hacerse una idea de cómo debería desarrollarse la Inteligencia Artificial en Europa; ha sido desarrollado por 52 expertos de diferentes áreas, desde empresas a universidades.

La guía de principios éticos para Inteligencia Artificial

La base del texto es que la Inteligencia Artificial debe ser desarrollada, desplegada y utilizada con un propósito ético; y que siempre debería estar centrada en el ser humano. De esta manera, se responde a los primeros usos militares de IA que algunas compañías ya están desarrollando. Pero no es sólo cuestión de que un robot sea diseñado para matar; una preocupación más cercana es que se usen estos sistemas para fomentar la discriminación.

arma letal autonoma inteligencia artificial

arma letal autonoma inteligencia artificial

En concreto, los grupos vulnerables como las minorías, los niños o las personas con discapacidad pueden sufrir más la implementación de una IA. Las compañías también deberían tener especial cuidado al implementar sistemas inteligentes para empleados o consumidores; ya que se corre el riesgo de vulnerar sus derechos.

Para asegurarse de que los futuros proyectos de IA no cometan esos errores, la Comisión ha creado cinco derechos fundamentales que todos los sistemas basados en IA deben seguir:

  1. Hacer el bien
  2. No hacer el mal.
  3. Respetar la autonomía de los seres humanos.
  4. Respetar la justicia.
  5. Que todas las acciones sean explicables.

Aunque los dos primeros derechos son algo subjetivos, el resto refleja algunas de las preocupaciones actuales. Por ejemplo, en muchas ocasiones los propios creadores de un sistema no están muy seguros de porqué ha fallado, o porqué ha tomado una decisión polémica.

El texto definitivo se publicará en marzo de 2019, después de pasar por un periodo en el que los expertos recibirán sugerencias públicas y redactarán el texto final.