Reggie Townsend, director de SAS Data Ethics Practice (DEP).

Reggie Townsend, director de SAS Data Ethics Practice (DEP). SAS

Política Digital

Townsend, exasesor de EEUU en materia de IA: "Hay que poner límites a su despliegue, pero no a su desarrollo"

El experto señala que la ética tiene un papel "tan esencial" como los propios datos a la hora de definir la legislación en torno a la IA. 

1 octubre, 2022 03:57

Reggie Townsend es, probablemente, una de las personas que más sepan sobre inteligencia artificial (IA) en el mundo. Townsend es, actualmente, director de SAS Data Ethics Practice (DEP), pero en su currículum atesora méritos tan notables como haber sido nombrado miembro del Comité Asesor Nacional de Inteligencia Artificial (NAIAC), el organismo que aconseja al presidente de Estados Unidos y a la Oficina Nacional de Inteligencia Artificial en este campo. 

En una entrevista en exclusiva con D+I, el experto en IA se muestra contundente y afirma que la clave respecto a las normativas de este tecnología se basa en poner límites a su despliegue, pero no a su desarrollo, ya que, apunta, de lo contrario otros países podrían dar  "un salto hacia adelante y obtener ventajas potencialmente insuperables". 

[Más confianza en el contenido de las personas y menos en los algoritmos: los usuarios se rebelan contra la IA]

En este sentido, señala que lo imprescindible a la hora de definir un reglamento alrededor de la inteligencia artificial pasa por evaluar los ya existentes en un esfuerzo por "evitar la duplicidad y el aumento de la complejidad legal". En su opinión, es necesario tener en cuenta dos conceptos claves: la coherencia y la claridad. 

Por un lado, cree que el primero es necesario para garantizar que los proveedores de IA no tengan que hacer sus productos compatibles con normas diferentes y contradictorias. Por otro, el segundo "es fundamental" para garantizar que todos los participantes en el mercado conozcan sus obligaciones y riesgos, y estén facultados para cumplirlos y mitigarlos. 

"El objetivo debe ser permitir la innovación y, al mismo tiempo, establecer las barreras que protejan a los ciudadanos, especialmente a los más vulnerables", resume. 

La IA tiene el poder de transformar la economía mundial 

En este sentido, el director de SAS Data Ethics Practice explica que la regulación beneficiará a las empresas que utilicen esta tecnología porque establece expectativas y reduce el riesgo. "Seguirá habiendo un amplio margen para la innovación, pero con unas directrices más claras", precisa. 

Y es que, según afirma, la IA tiene el potencial "de transformar la economía mundial y la mano de obra". "Puede automatizar tareas rutinarias, mejorar la productividad y la eficiencia y liberar a los seres humanos para que realicen trabajos de mayor importancia'', ejemplifica. 

Sin embargo, explica, existen riesgos que pueden surgir durante el diseño, el desarrollo, el despliegue o el uso de estos sistemas debido a la introducción de sesgos que pueden tener un impacto en individuos, comunidades o la sociedad en general. "Estas repercusiones son especialmente evidentes en el caso de las poblaciones vulnerables, que a menudo sufren las consecuencias de las decisiones tomadas", añade. 

Un ejemplo de los riesgos de la IA, según Reggie Townsend

"Por ejemplo, los sistemas de predicción policial se utilizan cada vez más para determinar cómo distribuir la policía en una ciudad para prevenir la delincuencia. Los datos de delincuencia descubiertos (por ejemplo, el recuento de detenciones) se utilizan para ayudar a actualizar el modelo y el proceso se repite.

Se ha demostrado empíricamente que este tipo de sistemas son susceptibles de generar bucles de retroalimentación desbocados, en los que la policía es enviada repetidamente a los mismos barrios, independientemente de la tasa de criminalidad real. Esto tiene un efecto pernicioso en las comunidades minoritarias, que suelen estar sobre vigiladas desde el principio".

A la par, precisa que los problemas también se incrementan cuando se eliminan a los seres humanos de un proceso, especialmente cuando esto implica tomar decisiones que afectan al bienestar o a la situación legal de una persona. Ahí, señala," es fundamental que el uso de la IA esté estrechamente supervisado".

"Estamos en una época de desinformación desenfrenada en la que la gente ha descubierto cómo 'jugar con el sistema' para promocionar sus mensajes", explica. "Afortunadamente, algunas de las mayores plataformas de información están examinando sus algoritmos y realizando los cambios necesarios".

La ética "es tan esencial" como los datos en la IA

En este contexto, Townsend explica que la ética juega un papel fundamental a la hora de definir una legislación en torno a la inteligencia artificial y, de hecho, afirma que "es tan esencial" como lo son los datos. Al final, señala, este concepto permite que se hagan "las preguntas adecuadas", entre ellas: "¿Mantenemos a los humanos en el centro del proceso? ¿Hay un grupo diverso de mentes en la mesa? ¿A quién se ayuda y a quién se puede perjudicar?"

En definitiva, el experto apunta que obliga a replantearse si solo por poder hacer algo se debe llevar a cabo.  

"Las consideraciones éticas no sólo surgen cuando se despliega este tipo de tecnología", señala. "Ese deber de cuidado debe estar presente desde el momento en que se concibe una idea, pasando por el proceso de I+D, el despliegue y luego el seguimiento de los modelos y los resultados". 

Estados Unidos, lejos de la UE en materia legislativa de la IA

El caso de Estados Unidos en materia de regulación de IA es uno de los que Townsend conoce mejor, en parte gracias a su posición como miembro del Comité Asesor Nacional de Inteligencia Artificial, aunque, según explica, lo cierto es que este país "no ha avanzado mucho" en el proceso legislativo en este sector. 

"En Estados Unidos no hay muchas leyes que la regulen (esta tecnología)", precisa. Sin embargo, sí que hay algunos estados o ciudades que han avanzado en este sentido y han aprobado leyes muy específicas sobre casos de uso concretos como el reconocimiento facial. 

El experto señala que la labor más visible en esta materia a nivel federal es la Iniciativa Nacional de IA, que proporciona un marco general para reforzar y coordinar la investigación y el desarrollo de esta tecnología entre todo tipo de organizaciones e instituciones, y el NIST (National Institute of Standards and Technology), que ha comenzado a trabajar en un marco de gestión de riesgos bastante avanzado. 

"No podemos responder a la pregunta de qué ocurrirá en el futuro, pero el año pasado se presentaron propuestas muy interesantes a nivel federal, como la Ley de Responsabilidad Algorítmica, aunque no se le ha dado mucha prioridad en el Congreso", añade. 

[EEUU sigue la estela de Europa en regulación digital y estudia un impuesto a las ‘big tech’ para financiar las redes]

Mientras EEUU todavía avanza de forma lenta en la supervisión de este campo, la Unión Europea, por su parte, ya ha anunciado su propuesta de reglamento (EU IA Act) como parte de sus esfuerzos por regular este sector que, de salir adelante, podría sentar precedentes a nivel global. 

Townsend señala que "EEUU y la UE tienen valores similares" por lo que puede que haya "similitudes en sus planteamientos", aunque avanza que "es difícil predecir" que se repliquen las legislaciones impulsadas por Europa en la región americana. 

"Quizá el ejemplo más claro (de similitud entre ambas potencias) sea la Algorithmic Accountability Act, que ha propuesto un modelo diferente que tiene algunos aspectos en común con la propuesta de Ley de IA en Europa", precisa. "La Comisión Federal de Comercio de EEUU también está iniciando una revisión para determinar si es necesaria la regulación, pero será un proceso largo y difícil", añade. 

No todo depende de la regulación 

No obstante, Townsend precisa que no todos los riesgos asociados a la IA se resuelven mediante la regulación, sino que es imprescindible abordarlos desde un enfoque global que incluya a los humanos, los procesos y la tecnología. 

Según explica, las leyes proporcionarán el marco y las barreras para inculcar un uso sensato, pero para avanzar en el compromiso y la coherencia, apunta, "será necesaria una amplia cooperación entre desarrolladores y usuarios" de esas herramientas. "Se trata de educar a organizaciones y a las personas sobre las prácticas responsables", afirma. 

El experto en IA señala que muchos de los resultados negativos surgen de la falta de conocimiento de los riesgos que implica. Así, si las personas que se relacionan con esta herramienta se plantean preguntas relacionadas con la ética, "los daños involuntarios disminuyen drásticamente".

Reggie Townsend, director de SAS Data Ethics Practice (DEP).

Reggie Townsend, director de SAS Data Ethics Practice (DEP). SAS

Esto, explica, es uno de los objetivos que tiene entre sus obligaciones dentro de SAS, donde, a través de Data Ethics Practice (DEP), busca capacitar a los empleados de la tecnológica "para construir sistemas basados en datos que promuevan el bienestar humano, la agencia y la equidad". 

A futuro, Townsend señala que lograr una IA responsable requerirá de un gran cambio cultural que se producirá con el tiempo. Este, apunta, dependerá de una normativa inteligente, un "compromiso sincero" por parte de los usuarios y creadores de esta tecnología y plataformas fiables "que infundan confianza en las estrategias de IA de una organización".