Boris Delgado Riss, director de Industria y TIC de AENOR
La inteligencia artificial está cada vez más presente en nuestras vidas: desde las recomendaciones que recibimos al comprar por internet hasta los sistemas que ayudan a los médicos a diagnosticar enfermedades. Sin embargo, para que la sociedad acepte y aproveche todo el potencial de la IA, es fundamental que exista confianza en cómo funciona y en cómo se utiliza.
Muchas personas y organizaciones sienten dudas razonables sobre la IA. A veces, los sistemas toman decisiones que no entendemos, pueden cometer errores o, incluso, discriminar a ciertos grupos sin que nadie lo advierta. Además, la protección y seguridad de nuestros datos personales es una preocupación constante. Todo esto puede generar desconfianza y frenar el desarrollo y la adopción de estas tecnologías.
Para dar respuesta y solución a muchas de estas dudas, es esencial que existan reglas claras y que alguien independiente verifique que se cumplen. Aquí es donde las normas internacionales, como la ISO 42001 y la ISO TR 24368, juegan un papel clave. Estas normas establecen cómo deben gestionarse los sistemas de IA para que sean transparentes, seguros y respetuosos con las personas.
Nosotros hemos asumido el compromiso de ayudar a las empresas a aplicar estas normas. La certificación es una de las mejores vías para verificar que las organizaciones usan la IA de manera ética y responsable. Esto significa que sus sistemas son comprensibles, minimizan los riesgos de errores o discriminación y protegen la privacidad de los usuarios.
Contar con una certificación no solo ayuda a las empresas a cumplir con la nueva legislación europea sobre IA, que exige controles y transparencia, especialmente en sectores como la salud, la banca o la justicia. También les permite demostrar a sus clientes, empleados y a la sociedad en general que se toman en serio la ética y la responsabilidad.
Por ejemplo, una empresa que utiliza IA para seleccionar candidatos en un proceso de empleo puede certificar que su sistema es justo y no discrimina. Un hospital puede garantizar que las herramientas de IA que ayudan a los médicos están bien supervisadas y no ponen en riesgo la salud de los pacientes. Así, la certificación se convierte en una garantía de confianza para todos.
La confianza en la inteligencia artificial no se consigue solo con buenas intenciones, sino con hechos y garantías tangibles. En AENOR creemos que la ética y la responsabilidad deben estar en el centro de la revolución tecnológica. Por eso, trabajamos para que la IA sea una herramienta fiable, transparente y responsable para las personas y las organizaciones. Certificar los sistemas de IA y sus casos de uso son el primer paso para que la tecnología trabaje realmente a nuestro favor y para que la sociedad avance hacia un futuro digital más seguro y humano.
*** Boris Delgado Riss es director de Industria y TIC de AENOR