David Carmona, director general de inteligencia artificial de Microsoft.

David Carmona, director general de inteligencia artificial de Microsoft.

Observatorio digital OBSERVATORIO DIGITAL

"Me encantaría que Europa se convirtiese en el referente en la regulación responsable de la IA"

David Carmona, director general de inteligencia artificial en Microsoft, pone en contexto la realidad y los retos de esta tecnología.

18 noviembre, 2019 02:16

Acumula dos décadas de experiencia en tecnología, pero eso no le impide reposar cada respuesta. Antes de responder cada una de las preguntas, David Carmona, director general de inteligencia artificial (IA) en Microsoft, elige con cuidado las palabras. Lleva trabajando 15 años en la tecnológica y visita Barcelona para asistir a la Global Alumni Reunion de IESE, donde atiende a este periódico.

Carmona cree que Europa debería liderar la regulación ética de la IA como ya ha hecho con la privacidad de los usuarios a través del Reglamento General de Protección de Datos (RGDP). Afirma que en España ha habido un cambio en los últimos dos años y que el 5G va a hacer que la IA llegue a donde todavía no ha llegado como por ejemplo a tus próximas zapatillas.

¿Cuál es la situación en España de la inteligencia artificial en relación con otros países?

Hace poco publicamos un estudio que comparaba a España con otros países de la Unión Europea y los datos explican que estamos ligeramente por detrás en adopción de inteligencia artificial (IA). Esa es la realidad. En las empresas existe una brecha: si hace unos años las empresas estaban preguntando qué es la IA, cómo va a ayudar a mi negocio; ahora, ya son conscientes de que la IA va a transformar su actividad y lo que buscan es cómo hacerlo.

Esa brecha tan grande es que el 93% de las empresas están implantando pilotos con IA pero solo entre un 15 o un 20% lo tienen realmente incorporado a sus procesos. El motivo principal es la formación: “No nos sentimos capacitados para llevar a cabo esa transformación”.

¿Cómo se cierra esa brecha?

La mejor forma de solucionarlo sería con mayor formación. Desde Microsoft hacemos dos cosas, una es ayudar a la formación, que no solo es técnica, sino para todas las unidades de negocio. Nuestra propia información interna, la IA School, la ofrecemos también de forma pública para que cualquier empresa pueda utilizarla. Además, hace un año lanzamos la IA Business School para formar a esas unidades de negocio que no son técnicas. 

Por otro lado, también creemos que hay que hacer tecnología más accesible para las empresas. Pensamos que las próximas revoluciones tecnológicas deberían ser desarrolladas por empresas que no sean tecnológicas: empresas de Sanidad, por el Gobierno, en las fábricas… Y para ello, nuestra filosofía es hacer una tecnología más accesible. 

Destaca el concepto de la formación y de la brecha y el cambio que hay en el discurso de las empresas pero, ¿cree que existe una voluntad real en incorporar la IA?

Pues esa ha sido la gran diferencia, hace dos años te hubiera dicho: “No, no existe esa voluntad”. Preguntábamos a las empresas y nos decían que todavía estaban evaluando si merecía la pena o no, nos preguntaban ¿de qué va todo esto? Ahora ya están totalmente convencidos, he notado un cambio radical con clientes españoles e internacionales y ya saben que la inteligencia artificial va a transformar la forma en la que hacen los negocios. Ahora tienen que decidir si quedarse atrás o unirse a esta revolución. Pero necesitan ayuda.

El 93% de las empresas están implantando pilotos con IA pero solo entre un 15 o 20% lo tienen realmente incorporado

Los datos tienen una gran importancia en la aplicación de la inteligencia artificial. Hace unos días, la canciller alemana, Angela Merkel, pedía que Europa realizase un esfuerzo para recuperar la hegemonía de los datos. ¿Cree que Europa está a tiempo?

No me son familiares las declaraciones, pero creo que los datos son algo súper importante de la inteligencia artificial. No solo tenemos que controlar esos datos de forma que pertenezcan al usuario legítimo, sino también tenemos que trabajar en la privacidad de esos datos. Eso se hace de dos formas, primero, estableciéndolo como principio y haciendo negocio de esa forma. En Microsoft estamos muy concienciados de que los datos pertenecen a cada una de las empresas y no a Microsoft.

Por otra parte, también se va a requerir inversión tecnológica. Hablamos mucho de la tecnología o de innovación para llevar la tecnología más lejos, pero también hay que invertir en hacer la tecnología más segura, más confiable. En Microsoft desarrollamos tecnología de cifrado homomórfico para permitir que los algoritmos de inteligencia artificial puedan funcionar encima de datos cifrados.

Ahora mismo cuando se te hace una recomendación en Netflix lo hace sobre datos en texto plano, por lo que la empresa necesita acceso a los datos para aplicar los algoritmos de inteligencia artificial. Con las tecnologías que estamos desarrollando, no es necesario acceder a datos personales para llevar a cabo las recomendaciones.

Varios expertos comentan el hecho de que tanto Estados Unidos como China tengan una regulación común para un territorio tan extenso es una ventaja con respecto a Europa. ¿Está de acuerdo con esta afirmación?

En general, creo que la regulación es un área muy importante para las organizaciones públicas y en Europa habiendo sido líderes en temas como la privacidad, con el RGDP, creo que deberíamos aplicar ese mismo modelo a la inteligencia artificial. Creo que es útil, no solo para garantizar los derechos de los usuarios cuando utilizan estos sistemas de IA, sino también en términos de transparencia, saber por qué un algoritmo me ha hecho a mí esa recomendación.

El control del sesgo, que los algoritmos sean imparciales… son áreas donde pensamos que hay una responsabilidad muy importante, no solo de las empresas tecnológicas que deberían hacerlo por principio, sino también de los organismos reguladores y pensamos que Europa podría llevar el liderazgo.

Entonces, ¿cree que debería ser la UE quien trabajase en una regulación para la ética o la moral de la IA?

Sin ninguna duda. Me encantaría que Europa se convirtiese en el referente mundial en la regulación responsable de la inteligencia artificial y creo que estamos muy bien posicionados para ello.

Control del sesgo, algoritmos sean imparciales… son áreas donde pensamos que hay una responsabilidad importante

La IA ya se aplica a una gran variedad de sectores: banca, sanidad, distribución… ¿Cuál cree que puede ser el sector donde la IA tenga más potencial en cinco años?

Es muy difícil responder a eso porque todos los sectores van a ser redefinidos con la IA. Es como preguntarnos hace veinte años: “¿Qué sector se va a ver más impactado por internet?”. Lo que sí te diría es que hay sectores en particular que están un poco más adelantados que el resto, pero no tiene tanto que ver con que tengan más potencial, sino con la madurez tecnológica del sector. En este sentido, las telecomunicaciones o la banca, que ya han pasado por una transformación digital muy profunda, están en mejores condiciones de afrontar la revolución de la IA.

¿Va a favorecer de alguna forma el 5G al desarrollo de la IA?

Sí, porque una de las tendencias que vamos a ver en la IA es que en lugar de estar localizada en la nube va a estar más distribuida y va a impactar en todos los dispositivos que tenemos a nuestro alrededor. Para eso, el 5G va a ser clave. La IA va a poder estar presente en cualquier dispositivo a nuestro alrededor, desde los que ya estamos acostumbrados como el móvil, hasta la ropa, el calzado o la ciudad.

Con la velocidad a la que se transforma la tecnología, ¿en cuánto tiempo va a estar obsoleta esta entrevista?

Mañana (bromea). Hay una cosa que está clara y es que estamos en mitad de una revolución y por eso la tecnología y los conceptos cambian rapidísimamente. Conceptos que eran impensables hace cuatro años, ahora ya los utilizan las empresas. Pero la inteligencia artificial no es una moda y su impacto va a ser mayor en los próximos años y meses.