El reflejo de nuestros prejuicios en la inteligencia artificial

Septiembre, 30, 2025
3' leer
Descubre cómo los prejuicios humanos pueden trasladarse a la inteligencia artificial y afectar sus decisiones. ⚖️

Con el auge de la IA han surgido numerosos sesgos que se han convertido en errores técnicos y en el reflejo de los prejuicios trasladados a los sistemas digitales. Los algoritmos pueden aplicar criterios injustos o desproporcionados en muchas ocasiones, especialmente en situaciones que afectan directamente a las personas (como elegir a un candidato en una oferta de empleo, predecir el riesgo de reincidencia de un acusado o aprobar un préstamo bancario). Además, estos sesgos pueden manifestarse de diversas formas, desde discriminación por género, raza, edad o nivel socioeconómico, hasta por geolocalización. El problema radica en que los datos históricos ya contienen desigualdades de cualquier tipo, y la inteligencia artificial no es capaz de reconocerlas ni eliminarlas por sí misma.

En MIOTI Tech & Business School formamos a los profesionales para que comprendan el verdadero alcance de la Inteligencia Artificial, a través del  Máster en Inteligencia Artificial pueden aprender a aplicar redes neuronales con criterio, evitando la complejidad y maximizando el impacto en el negocio.

Banner_Máster en Inteligencia Artificial

 Cuatro raíces de origen habituales

La IA no genera sesgos, sino que es la consecuencia de decisiones humanas en varias fases del desarrollo:

  • Datos incompletos o desbalanceados: Los modelos de inteligencia artificial se alimentan de datos. Si esta información está sesgada, el propio algoritmo también lo estará. El mejor ejemplo de esta situación es el reconocimiento facial que no ha sido entrenado con imágenes de distintas personas, por lo que la tasa de fallo en estos casos aumenta de forma exponencial.
  • Diseños algorítmicos mal calibrados: Las decisiones sobre qué variables usar, cómo ponderarlas o cómo evaluar los resultados pueden incluir sesgos, ya que no solo los datos importan. De hecho, si un sistema de contratación automatizado considera como un punto positivo haber trabajado en ciertas empresas del sector, estará favoreciendo indirectamente a quienes cuenten con esta línea en sus currículums… y excluyendo a quienes no.
  • Falta de diversidad en los equipos técnicos:  El personal especializado encargado de diseñar estos sistemas de inteligencia artificial no siempre contempla al total de la población que los utilizará. Esta situación puede crear una importante discriminación desde la fase de desarrollo, pasando desapercibida y provocando una falta de sensibilidad y conciencia sobre ciertos tipos de desigualdad.
  • Criterios de optimización mal planteados: Generalmente, en el diseño de los algoritmos no se incorporan criterios relacionados con la justicia o la igualdad en la fase de optimización, por lo que los resultados que ofrecen las máquinas pueden ser eficaces, pero no completamente justos.

El lado desigual de la IA

Varios estudios han evidenciado cómo los algoritmos reproducen y amplifican los sesgos de discriminación existentes en la sociedad. Un estudio de Buolamwini y Gebru, realizado en 2018, se concluyó que los sistemas de reconocimiento facial presentaban una mayor tasa de error en determinados grupos —en torno al 34,7 %— frente a otros —menos del 1 %— debido a que los datos con los que se entrenó el algoritmo estaban desbalanceados.

Otro de los casos más destacados fue un estudio realizado por Obermeyer en 2019, donde se descubrió que el sistema de salud de los Estados Unidos creaba sesgos raciales entre los distintos pacientes con necesidades similares, porque se utilizaba el gasto sanitario como proxy de necesidad médica, ignorando factores estructurales como la desigualdad.

Estos hallazgos refuerzan la necesidad de crear tecnologías más inclusivas que utilicen criterios éticos y de justicia social en todas las etapas de su desarrollo.

Claves para hacer frente a los sesgos

Afortunadamente, ya se están implementando estrategias efectivas para acabar con esta discriminación:

  • Auditorías sobre los algoritmos: Son las encargadas de revisar los sistemas de inteligencia artificial para detectar posibles sesgos antes de que causen problemas reales. Estas auditorías deben ser independientes, rigurosas y continuas.
  • Datos más diversos: Es esencial incorporar datos que sean representativos de todas las minorías, con el fin de promover la inclusión y contribuir a la creación de sistemas de inteligencia artificial más justos y precisos.
  • Transparencia de la IA: Es fundamental que los usuarios entiendan las razones de las decisiones de la inteligencia artificial, particularmente cuando tienen un impacto directo en las personas, para así evitar que estos procesos sean secretos.
  • Formación ética: Es esencial que los programadores se formen en cuestiones éticas, y de justicia social, porque necesitan comprender el verdadero efecto de cada línea de código.
  • Diversidad en los equipos: Contar con equipos de programación diversos facilita la detección y corrección de los sesgos, ya que aportan distintas perspectivas.

La inteligencia artificial es una tecnología que se alimenta de los seres humanos, concretamente de nuestros datos, decisiones pasadas y estructuras sociales, por lo que generalmente no es neutral. Cuando la IA discrimina, refleja errores y desigualdades la sociedad que aún no han sido corregidos. Esto supone un gran desafío para la comunidad, porque si busca construir máquinas justas, primero se necesita un compromiso social equitativo y sin sesgos. 

3'
Mioti logo
Seleccione país