Barcelona

Cuando Paula Goldman ocupó el puesto de Chief Ethical and Human Use Officer en Salesforce (o, lo que es lo mismo, la dirección de la oficina que se encarga de garantizar el uso ético y humano de los productos desarrollados por la tecnológica) en 2019, no solo se estrenó ella en el cargo, sino que también lo hizo la posición en sí misma. 

En una entrevista con D+I - EL ESPAÑOL celebrada en la efervescencia del último Mobile World Congress de Barcelona, ella misma cuenta que hace cinco años esta ocupación no estaba muy bien definida o acotada. En general, explica, la idea era "liderar la confianza" en la tecnología general y en la IA en particular, asegurando que se cumplan los principios éticos. "Aún así, esto ha ido evolucionando con el tiempo", afirma. 

[La metamorfosis de Salesforce: ahora es ya una compañía de inteligencia artificial y 'cloud']

"Este año ha sido muy emocionante y he estado muy ocupada, es como que nos hemos estado preparando para este momento en el que todo el mundo presta atención a las cuestiones de ética y confianza en la IA", señala. 

Ahora, entre sus ocupaciones, Goldman menciona algunas como la colaboración con los equipos de producto para garantizar una política "de uso aceptable de la inteligencia artificial", así como que tengan un diseño accesible e inclusivo; también, trabaja en relación a las políticas públicas. "Creo que somos una de las pocas compañías que tiene algo así", matiza. 

"En nuestro caso, la confianza está en todos lados, no es una idea de último momento", explica. Así, cuenta que la compañía ha construido una capa de fiabilidad en todos los productos desde su construcción con el objetivo de proteger su información.  

La pregunta del millón

En medio de la conversación, Goldman sonríe al ser preguntada por cómo definiría ella la ética. "Bueno, esa es la pregunta del millón", apunta.

Según cuenta, el enfoque para aproximarse a este concepto no se atañe solo a lo que entiende la propia compañía, sino que "es importante adoptar un enfoque multilateral". "Cuando se habla de que algo es ético, la siguiente pregunta es: ¿por parte de quién y bajo qué valores?", afirma. "Por eso, al hablar de este término intentamos adaptarnos a nuestras propias líneas como empresa, pero también con el resto de compañías, comités y organizaciones". 

Aquí se enmarca la tendencia que existe por parte de los países, que están desarrollando sus propios marcos y sistemas para que la IA se alinee con los valores de las personas y las regiones que lo están utilizando, señala Goldman. "Es importante que esto sea un esfuerzo colectivo y no de una única empresa", insiste. 

[Ibán García del Blanco: "La ley de inteligencia artificial es el colofón al ecosistema legislativo digital europeo"]

En el caso de Salesforce explica que, más allá de las capas de seguridad integradas en los productos de IA, que garantizan que su uso sea para los fines para los que fueron diseñados, se unen las revisiones, tanto internas como externas de los mismos. "Todo es muy importante y, aún así, tampoco es suficiente", recalca. 

La representante de la empresa tecnológica precisa que, en su día a día, trabaja estrechamente con otras partes de la empresa como las de ingeniería, las de asuntos legales o las dedicadas a la gobernanza. "Es muy relevante que estemos todos sentados a la mesa para tomar estas decisiones", añade.  

Esta involucración de todos los actores de una misma firma no se produce solo de forma horizontal, sino que también tiene que ir "de abajo arriba". "Por ejemplo, nuestro CEO, Marc Benioff, ha resaltado de forma recurrente la necesidad de garantizar la confianza en el ámbito de la inteligencia artificial", ejemplifica. "La ética es tarea de todos". 

La ley de IA, "un gran hito"

En este sentido, uno de los grandes hitos sobre la regulación de esta tecnología fue el acuerdo sobre el borrador del Reglamento Europeo de Inteligencia Artificial, que se logró el pasado 8 de diciembre tras cuatro años de intenso trabajo y la celebración de cinco trílogos, el último con una duración cercana a las 40 horas. 

El documento pionero busca garantizar que los sistemas de IA que operen o sean usados en este mercado lo hagan acorde a los derechos y valores del ecosistema comunitario, a la vez que se estimula y promueve la innovación. Hace poco más de una semana, de hecho, el Parlamento Europeo volvió a refrendar su apoyo a esta norma, que está un paso más cerca de convertirse en realidad. 

[Análisis de la ley europea de inteligencia artificial: pionera en el mundo, pero con rebajas en las prohibiciones]

Sobre esta normativa, Goldman destaca el enfoque basado en los casos de uso, en vez de en la regulación de los modelos en sí mismos. "Es como: vamos a mirar a los lugares donde existe el mayor peligro y vamos a asegurarnos que existen una serie de salvaguardas, por ejemplo, en casos en los que la IA determina si alguien consigue o no un trabajo o un préstamo", ejemplifica. "Creo que es un gran hito", afirma. 

La responsable de ética en Salesforce explica que la mayoría de la tecnología que Salesforce crea no entra en las categorías definidas como de "alto riesgo", pero precisa que, "aún así", se tomarán muy en serio la responsabilidad de garantizar la transparencia, establecer unas salvaguardas y realizar revisiones exhaustivas. En este sentido, matiza que no solo están alineados con las especificaciones europeas, sino también con las de otros organismos como los impulsados en Estados Unidos.