Siendo los datos que sustentan los modelos de Inteligencia Artificial, una representación del mundo real, ¿es posible que el uso de esa tecnología reproduzca patrones o tendencias no deseables de discriminación o exclusión?
Pensando en ello, el Centro para la Cuarta Revolución Industrial, durante el 2021 diseñó un proyecto donde por medio de una serie de herramientas identificó cómo se podrían reducir o eliminar sesgos en conjuntos de datos y sistemas de IA, ayudando a prevenir resultados discriminatorios o excluyentes para ciertos grupos o personas.
Este proyectó se denominó “Neutralidad de Género en Sistemas de IA: de la discusión a la acción”, el cual contempló:
- La priorización de escenarios que evidencian sesgos de género originados por datos y/o sistemas de IA.
- El mapeo de herramientas y buenas prácticas para la mitigación de sesgos en la IA y
- El desarrollo de una prueba piloto para aplicar una herramienta de análisis y mitigación de sesgos en un conjunto de datos relacionados con el escenario de inserción de las mujeres en el mercado laboral.
Producto de este proyecto, se generó un kit de herramientas “ IA Inclusiva – Herramientas para el uso inclusivo de la Inteligencia Artificial”.
¿A quién le sirve este kit?
IA Inclusiva está dirigido a directivos y tomadores de decisión interesados en entender las limitaciones de la IA y las alternativas para superarlas, así como a los miembros de los equipos técnicos responsables del desarrollo, adquisición o implementación de los modelos de IA en diferentes tipos de organizaciones.
En IA Inclusiva se destacan ocho herramientas para prevenir y mitigar sesgos en sistemas de IA. Cuatro de ellas contemplan aspectos que van desde el diseño de los sistemas hasta los resultados de su implementación. Las cuatro restantes exigen un trabajo directo con los datos y con los modelos de IA. Esta combinación de enfoques es recomendada en la medida en que la presencia de sesgos en la IA no son un asunto meramente técnico.