No es novedad, lo hemos leído y escuchado en múltiples espacios y desde distintas voces: los algoritmos pueden reforzar las desigualdades y seguir perpetuando estereotipos y decisiones basadas en prejuicios inconscientes.  Quiero destacar un sesgo que sigue pasando desapercibido en la conversación tecnológica y ética: la discriminación por edad. La IA no es la excepción y podemos decir que sí, que la IA también está resultando edadista.

Los algoritmos no son mágicos. Se alimentan de datos y el componente humano de la tecnología aún no se puede omitir.  El 22 % de las profesionales que alimentan los sistemas de IA son mujeres y además son en su mayoría jóvenes. El promedio de edad de las y los desarrolladores en la IA ronda de los 25 a 34 años. Si los datos y el desarrollo parte de los estereotipos sobre el género, la edad, el envejecimiento y las creencias que le acompañan, podemos ver el efecto de las decisiones y los resultados que pueden proyectarse. Esto no es necesariamente una decisión predefinida, pero es un proceso inconsciente de exclusión estructural.

Un ejemplo claro se encuentra en las representaciones generadas por la IA cuando se le solicita crear imágenes o videos de personas mayores. Si pones “mayor de 50 años”, casi siempre aparece una persona de pelo blanco, con arrugas y en actitud poco sonriente. Los hombres salen mejor librados, las mujeres normalmente aparecen en actitud senil y con expresión de amargura. Esto a muchas personas puede no sorprenderles porque vivimos en una sociedad profundamente gerontofóbica y estás imágenes simplemente expresan un estereotipo sobre la edad y cómo deben ser las personas a partir de cierta edad.

La realidad es que hoy la ciencia y el desarrollo en materia de salud y bienestar están desafiando esos prejuicios. Las “personas mayores” o mayores de 45 y 50 años tienen una expectativa de vida distinta y, sobre todo, un panorama diferente respecto a la calidad de vida a la que aspiran. Las y los “ancianos” no pueden ir en el mismo saco porque sus vidas son diversas, con distintas necesidades, contextos, experiencias, condiciones y realidades. Si en el mundo analógico esto no acaba de comprenderse, en el espacio virtual y en los sistemas de IA, esto es un reto mayor.

Es difícil que esta diversidad pueda expresarse en los resultados de la IA (las imágenes son sólo la punta del iceberg). Las preguntas obligadas son: ¿cómo nutrir los sistemas de IA para que tengan la información real, fidedigna y representativa de este grupo etáreo y que las respuestas y propuestas  creadas, sobre todo por la IA generativa, sean acordes con la realidad?

Está demás decir que si los datos básicos y el desarrollo están fundamentados en estereotipos, prejuicios o simples omisiones, sus decisiones replicarán esas mismas fallas.

Veamos el efecto de los algoritmos de la IA en otro ámbito: el laboral. Diversas investigaciones han demostrado que algunos algoritmos de reclutamiento descartan automáticamente a personas mayores de 50 años. ¿La razón? Su historial laboral no se ajusta al “perfil joven-digital” que la máquina fue entrenada para valorar. El resultado: el sistema penaliza la experiencia en lugar de valorarla.

¡Qué paradoja! De acuerdo con el BID, la economía plateada representa 22 billones de dólares anuales en el mundo. Estamos hablando de un mercado en crecimiento. América Latina es la región que está envejeciendo con mayor velocidad. Sin embargo, este grupo sigue siendo invisible en el diseño de productos, servicios y plataformas digitales. Las interfaces no están pensadas para sus capacidades visuales, auditivas o cognitivas. Las apps de salud, las bancarias, los trámites digitales: todas se diseñan con la juventud como estándar. ¿Y las  demás personas?

La Organización Mundial de la Salud lo señaló en el Informe mundial sobre el edadismo: la discriminación por edad es una barrera estructural que afecta la salud, el acceso a derechos y ahora también la relación con la tecnología. Esto no puede disociarse del uso ético de la Inteligencia artificial que plantea la UNESCO.

La ética algorítmica no puede ser un lujo,  una moda o una cuestión exclusiva del ámbito académico. Tiene que ser un principio transversal y un compromiso cotidiano.  Esa ética debe incluir la dimensión etaria. Porque si no exigimos y promovemos auditorías con enfoque generacional, si no integramos a personas mayores en las pruebas de usuario y en los procesos de co-creación tecnológica, estaremos fortaleciendo la creación de un futuro digital profundamente excluyente.

Este no es un problema exclusivo de Silicon Valley. También es latinoamericano. También es mexicano. Y también es feminista, porque el edadismo golpea doble a las mujeres mayores: por ser mujeres y por no ser jóvenes: se les hace invisibles y penaliza por partida doble.

La tecnología puede ser una herramienta de desarrollo y crecimiento o de opresión y exclusión. Todo depende de quién la diseña, con qué datos y con qué intención. Hoy tenemos una oportunidad histórica para construir una inteligencia artificial más justa, más humana, más intergeneracional.

Publicado originalmente en Animal Político el 15 de abril del 2025

Vistas: 2

Los comentarios están cerrados para esta entrada

Contacto

info@mujeresconstruyendo.com

Miembros

¡Sigamos conversando en nuestras redes sociales!

 



© 2025   Creada por Mujeres Construyendo.   Con tecnología de

Insignias  |  Informar un problema  |  Política de privacidad  |  Términos de servicio