Redes neuronales en la empresa: cuándo elegirlas y cómo aportar valor
Con el auge de la IA han surgido numerosos sesgos que se han convertido en errores técnicos y en el reflejo de los prejuicios trasladados a los sistemas digitales. Los algoritmos pueden aplicar criterios injustos o desproporcionados en muchas ocasiones, especialmente en situaciones que afectan directamente a las personas (como elegir a un candidato en una oferta de empleo, predecir el riesgo de reincidencia de un acusado o aprobar un préstamo bancario). Además, estos sesgos pueden manifestarse de diversas formas, desde discriminación por género, raza, edad o nivel socioeconómico, hasta por geolocalización. El problema radica en que los datos históricos ya contienen desigualdades de cualquier tipo, y la inteligencia artificial no es capaz de reconocerlas ni eliminarlas por sí misma.
En MIOTI Tech & Business School formamos a los profesionales para que comprendan el verdadero alcance de la Inteligencia Artificial, a través del Máster en Inteligencia Artificial pueden aprender a aplicar redes neuronales con criterio, evitando la complejidad y maximizando el impacto en el negocio.
La IA no genera sesgos, sino que es la consecuencia de decisiones humanas en varias fases del desarrollo:
Varios estudios han evidenciado cómo los algoritmos reproducen y amplifican los sesgos de discriminación existentes en la sociedad. Un estudio de Buolamwini y Gebru, realizado en 2018, se concluyó que los sistemas de reconocimiento facial presentaban una mayor tasa de error en determinados grupos —en torno al 34,7 %— frente a otros —menos del 1 %— debido a que los datos con los que se entrenó el algoritmo estaban desbalanceados.
Otro de los casos más destacados fue un estudio realizado por Obermeyer en 2019, donde se descubrió que el sistema de salud de los Estados Unidos creaba sesgos raciales entre los distintos pacientes con necesidades similares, porque se utilizaba el gasto sanitario como proxy de necesidad médica, ignorando factores estructurales como la desigualdad.
Estos hallazgos refuerzan la necesidad de crear tecnologías más inclusivas que utilicen criterios éticos y de justicia social en todas las etapas de su desarrollo.
Afortunadamente, ya se están implementando estrategias efectivas para acabar con esta discriminación:
La inteligencia artificial es una tecnología que se alimenta de los seres humanos, concretamente de nuestros datos, decisiones pasadas y estructuras sociales, por lo que generalmente no es neutral. Cuando la IA discrimina, refleja errores y desigualdades la sociedad que aún no han sido corregidos. Esto supone un gran desafío para la comunidad, porque si busca construir máquinas justas, primero se necesita un compromiso social equitativo y sin sesgos.