dont be evil google

dont be evil google

Omicrono

Las 'Leyes de Asimov' de Google: 7 principios éticos para sus IA

Los nuevos 7 principios éticos de Google para sus Inteligencias Artificiales después de que sus empleados hiciesen presión.

8 junio, 2018 09:46

Noticias relacionadas

Después del encontronazo de Google y su Inteligencia Artificial que estaba siendo usada por el ejército de los Estados Unidos y de que se montase un lío porque los propios empleados del gran buscador no querían verse implicados en un proyecto tan ‘violento’. Se trata de ‘Project Maven‘, una Inteligencia Artificial usada por drones del Pentágono.

Inicialmente anunciaron que no renovarían el contrato cuando este se acabese en marzo de 2019; todo esto, gracias a la presión ejercida durante meses que aplicaron los numerosos empleados que estaban en contra (imagina que eres desarrollador y te enteras que están usando tus trabajos para lo que en un futuro se llevará vidas por delante). Ahora, se han auto-impuesto 7 principios éticos para los proyectos donde usen IA.

Las ‘Leyes de Asimov’ internas de Google

Es como la nueva Biblia para Google en aquellos proyectos con Inteligencia Artificial. Son 7 mandamientos que habrán de cumplir ante cualquier Inteligencia Artificial que se esté desarrollando en la compañía. Google, además, ha destacado aquellos productos en los que están ayudando a gente mediante Inteligencia Artificial; igualmente, reconocen que una tecnología muy poderosa (y por lo tanto peligrosa), de ahí que hayan reflexionado ante las peticiones de sus trabajadores para desarrollar esta lista.

project maven

project maven

  1. Que sea beneficioso socialmente. Uno de los valores a evaluar es si el proyecto es beneficioso en áreas como la atención médica, seguridad, energía, transporte, fabricación y entretenimiento.
  2. Que no cree o refuerce un sesgo injusto. Reconocer los sesgos “justos” de los injustos no siempre es tarea sencilla, pero Google plantea que sea indispensable a la hora de adentrarse en un nuevo proyecto de IA.
  3. Construida por y para ser segura. Además de estar probada para que sea segura, las IA tendrán que ser probadas para ser prudentes, dos variables que serán probadas en entornos restringidos y supervisados.
  4. Ser responsable ante las personas. Estará siempre bajo el mano humano (refiriéndose a responsabilidad no como “portarse bien”, como le diríamos a un niño, sino a que hacer lo que indiquen los humanos).
  5. Incorporar principios de diseño de privacidad. Se recibirá avisos y consentimientos y se brindará transparencia, además de controles adecuados para el uso de datos de usuarios.
  6. Se mantendrá altos estándares de excelencia científica.
  7. Estar disponible para usos que estén de acuerdo con estos principios. Se limitará las aplicaciones de esta IA en entornos potencialmente dañinos o abusivos en su propósito o uso primario, naturaleza o singularidad o escala (es decir, cómo afectará el proyecto a nivel global).

Además, advierte que no se usará este tipo de software en los siguientes campos:

  • Tecnologías que causan o pueden causar un daño general
  • Armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar directamente lesiones a las personas
  • Tecnologías que recopilan o usan información para la vigilancia que viola las normas internacionalmente aceptadas
  • Tecnologías cuyo propósito infringe los principios ampliamente aceptados del derecho internacional y los derechos humanos

No obstante, advierte que seguirán usando su Inteligencia Artificial en proyectos del gobierno, así como también del ejército, siempre y cuando no incumplan lo arriba expuesto, claro.