Hector Gomis.
Software ético en la era de la IA: de los valores a las decisiones concretas
Hablar de ética en la empresa no debería remitir solo a un código interno, a una declaración institucional o a una página corporativa bien redactada. La ética, cuando es real, funciona como un criterio de decisión. Está presente en cómo se lidera, en cómo se contrata, en cómo se vende, en cómo se corrigen errores y, en el caso de las empresas tecnológicas, en cómo se diseña, desarrolla y despliega el software.
En compañías con trayectoria en desarrollo tecnológico, esta idea cobra todavía más sentido: la tecnología no solo debe resolver necesidades de negocio, sino hacerlo de una forma responsable, comprensible y sostenible en el tiempo.
Durante años, muchas organizaciones trataron la ética como un asunto reputacional. Algo importante, sí, pero separado del negocio. Hoy esa separación ya no se sostiene. En un entorno en el que la tecnología condiciona procesos, decisiones y relaciones, la ética no puede quedarse en un plano declarativo. Tiene que estar integrada en los valores de la empresa y, sobre todo, en su operativa cotidiana.
Esto es especialmente evidente en el sector tecnológico. Una empresa que desarrolla software no solo crea herramientas: define comportamientos, automatiza decisiones, estructura datos, condiciona flujos de trabajo y, cada vez con más frecuencia, incorpora inteligencia artificial en productos que afectan a personas, organizaciones y servicios esenciales. Por eso, la conversación sobre ética ya no puede limitarse a “hacer las cosas bien” en abstracto. La pregunta correcta es otra: cómo se traduce la ética en decisiones técnicas, de producto y de negocio.
Una empresa no se vuelve ética porque utilice una tecnología concreta ni porque evite determinados excesos. Se vuelve ética cuando incorpora ciertos principios estables a su cultura y a su forma de operar. Eso significa, por ejemplo, entender que no todo lo técnicamente posible es automáticamente conveniente; que la eficiencia no justifica cualquier impacto; que la opacidad puede ser rentable a corto plazo, pero deteriora la confianza; y que el valor de una organización también se mide por los daños que decide no causar.
Trasladado al mundo empresarial, esto implica que la ética debe influir en decisiones tan distintas como la fijación de objetivos comerciales, la gestión del dato, la relación con proveedores, el diseño de incentivos internos o la manera en que se informa al cliente. Una empresa que premia solo la velocidad, el volumen o la captura de mercado sin introducir contrapesos terminará trasladando esa lógica a sus productos. Y cuando esos productos son tecnológicos, las consecuencias escalan rápidamente.
Por eso, la ética no debería entenderse como un freno a la innovación, sino como una condición para que la innovación sea sostenible. Una empresa sin ética puede crecer. Lo difícil es que genere confianza duradera, que atraiga talento comprometido y que mantenga legitimidad cuando aparecen los errores, los sesgos o los impactos no previstos.
En tecnología, la ética no es decorativa
En otros sectores, una mala decisión empresarial puede generar ineficiencia o pérdida de reputación. En tecnología, además, puede amplificarse a gran velocidad. Un algoritmo mal entrenado puede discriminar. Un sistema opaco puede impedir corregir errores. Una automatización mal planteada puede convertir una excepción en norma. Un modelo generativo puede producir desinformación, exponer datos, reforzar sesgos o generar respuestas convincentes pero incorrectas.
Por eso, cuando hablamos de ética tecnológica, no hablamos sólo de intención. Hablamos de arquitectura, gobernanza, pruebas, documentación y control.
Ese punto es clave: el software ético no nace de una declaración de principios, sino de un proceso de desarrollo responsable.
La inteligencia artificial no crea el problema ético, pero sí lo intensifica. Primero, porque permite escalar decisiones y automatizaciones a una velocidad inédita. Segundo, porque introduce capas adicionales de complejidad: modelos entrenados con grandes volúmenes de datos, dependencias de terceros, opacidad parcial en el funcionamiento interno, riesgos de alucinación, vulnerabilidades de seguridad y efectos sociales difíciles de anticipar.
Por eso la IA obliga a las empresas a madurar. Ya no basta con preguntar si una solución funciona. Hay que preguntarse también de dónde salen los datos, qué riesgos introduce, quién responde cuando falla, qué margen de supervisión humana existe, cómo se explica su comportamiento, qué impacto puede tener sobre personas, clientes, profesionales o colectivos vulnerables...
La cuestión ya no es si una empresa va a usar IA, sino con qué criterio la va a usar.
Qué significa desarrollar 'software' ético hoy
Desarrollar software ético en época de IA no exige perfección, pero sí método. Exige pasar de la intuición moral a una disciplina organizativa. Exige gobernanza. Exige asumir que el riesgo tecnológico no es sólo técnico, sino también humano, jurídico y social.
Un primer paso es establecer principios claros y utilizables. No basta con palabras como “innovación responsable” o “compromiso con las personas”. La organización necesita traducir esos valores en criterios operativos: cuándo una funcionalidad requiere revisión adicional, qué usos quedan descartados, qué umbral de explicabilidad se exige, cómo se documentan decisiones relevantes y qué responsabilidades asume cada equipo.
El segundo paso es trabajar mejor el dato. No puede hablarse de IA ética si no existe trazabilidad suficiente sobre fuentes, calidad, permisos de uso, sesgos previsibles o límites de representatividad. La gobernanza del dato es una condición previa, no una capa posterior.
El tercero es reforzar la supervisión humana. La automatización puede ayudar, pero no debería diluir la responsabilidad. Cuando un sistema recomienda, clasifica, prioriza o genera contenido con efectos reales, alguien debe poder revisar, corregir, detener o escalar su comportamiento. La supervisión humana no es un formalismo: es una salvaguarda.
El cuarto es documentar mejor. En entornos tradicionales de software ya era importante. En sistemas con IA, es decisivo. Hace falta documentar el propósito del sistema, sus límites, supuestos, dependencias, riesgos conocidos, pruebas realizadas, criterios de validación y condiciones de uso aceptable.
El quinto es probar de forma más amplia. No solo funcionalidad y rendimiento. También sesgos, robustez, seguridad, privacidad, salidas inesperadas, comportamiento en contextos límite y capacidad de recuperación ante errores. Y el sexto, quizá el más difícil, es asumir que el trabajo no termina en producción. Un sistema ético también necesita seguimiento, auditoría, canales de reporte, revisión de incidentes y disposición real a corregir. La ética empresarial se demuestra especialmente cuando aparecen problemas.
La ética también es una ventaja competitiva
A veces se presenta la ética como una carga adicional, una lista de controles que ralentiza el desarrollo o reduce la agresividad comercial. Es una visión corta. En realidad, la ética bien integrada mejora el producto, reduce riesgos, fortalece la reputación y eleva la calidad de la relación con clientes, empleados y sociedad.
Una empresa que trabaja con criterios éticos suele diseñar mejor sus procesos, tomar decisiones más trazables y anticipar mejor conflictos futuros. Además, en un entorno donde la confianza será cada vez más diferencial, la ética deja de ser solo una convicción para convertirse también en una ventaja competitiva.
Esto no significa convertir la ética en eslogan. Significa entender que un software más claro, más seguro, más auditable y más respetuoso con las personas es también un software más sólido. Y que una empresa que se obliga a pensar en impacto, derechos, sesgos y responsabilidad no se debilita: madura.
El reto real no está en redactar buenos principios, sino en incorporarlos a la toma de decisiones. Una empresa tecnológica que quiera desarrollar software ético en la era de la IA debería, como mínimo, hacerse estas preguntas de forma sistemática: ¿qué problema resuelve realmente este sistema?, ¿qué daño podría causar si se equivoca?, ¿qué colectivos pueden verse afectados de forma desigual?, ¿qué parte puede supervisar una persona y cuál no?, ¿podemos explicar sus resultados de forma razonable?, ¿sabemos qué datos lo alimentan y con qué límites? y ¿tenemos capacidad real para corregirlo cuando falle?
La ética, en definitiva, no es un adorno moral ni una conversación paralela al negocio. En la empresa tecnológica actual, y más aún en plena expansión de la inteligencia artificial, debe convertirse en una competencia organizativa. No basta con tener valores: hay que traducirlos en diseño, en gobernanza y en decisiones que resistan la presión de la velocidad, del mercado y de la escala.
Porque al final la pregunta importante no es solo qué puede hacer la tecnología, sino qué tipo de empresa queremos ser cuando la diseñamos.
La ingeniería informática tiene hoy una responsabilidad especialmente relevante: contribuir a que la innovación tecnológica sea compatible con los derechos, la confianza y el bien común. Hablar de ética en la empresa tecnológica no es mirar al pasado ni poner límites artificiales al progreso. Es, precisamente, la mejor manera de construir un progreso más útil, más legítimo y más humano.
*** Héctor Gomis Hidalgo es Head of Product en Clavei.