Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Informática# Informática y sociedad# Inteligencia artificial# Aprendizaje automático

Reevaluando la equidad de la IA a través de la interseccionalidad

Explorando cómo la interseccionalidad influye en la equidad de los sistemas de IA y sus implicaciones sociales.

― 6 minilectura


Justicia de IA eJusticia de IA eInterseccionalidaddesigualdades sociales.Examinando el vínculo entre la IA y las
Tabla de contenidos

La Interseccionalidad es una forma de ver cómo diferentes partes de nuestra identidad-como la raza, género y clase-se combinan para crear experiencias únicas. Ayuda a entender cómo la gente enfrenta distintos desafíos en la sociedad. Este concepto es importante en las charlas sobre equidad en la inteligencia artificial (IA). Al diseñar sistemas de IA, tenemos que asegurarnos de que traten a todos de forma justa. Sin embargo, muchos investigadores a menudo simplifican la interseccionalidad e ignoran los problemas sociales más profundos detrás de ella. Este artículo explora cómo se usa la interseccionalidad en la investigación sobre la equidad de la IA y ofrece sugerencias para mejorar las prácticas.

La importancia de la interseccionalidad

La interseccionalidad resalta cómo varias formas de desigualdad se superponen y afectan a las personas de manera diferente. Por ejemplo, las mujeres negras pueden enfrentar una discriminación que es distinta a la que sufren los hombres negros o las mujeres blancas. Al hablar de la equidad en IA, es esencial reconocer que diferentes grupos pueden enfrentar desafíos únicos debido a sus identidades sociales.

Para que los sistemas de IA sean realmente justos, los investigadores deben enfocarse en el Contexto Social de la tecnología. Esto significa mirar más allá de las soluciones técnicas y entender las comunidades afectadas por estos sistemas. La equidad no solo debería tratar de alcanzar igualdad en resultados, sino también de abordar los problemas subyacentes que causan la desigualdad.

Estado actual de la investigación sobre equidad en IA

Muchos estudios en equidad de IA se enfocan en mejorar algoritmos para evitar sesgos. Los investigadores a menudo definen la equidad en términos de medidas estadísticas sin tener en cuenta las implicaciones en la vida real. Aunque estas métricas son útiles, no capturan el panorama completo de la interseccionalidad.

La mayoría de los artículos sobre equidad en IA discuten la interseccionalidad como si solo se tratara de optimizar la equidad para grupos específicos. Este enfoque pasa por alto los problemas sociales más amplios que llevan al trato desigual. Además, muchos documentos mencionan "poder", pero no exploran cómo las Dinámicas de poder influyen en los sistemas de IA y su impacto en comunidades marginadas.

Brechas comunes en la literatura sobre equidad en IA

  1. Interpretación estrecha de la interseccionalidad: Muchos investigadores se enfocan únicamente en los aspectos demográficos de la interseccionalidad. Pueden ver cómo la raza y el género afectan los resultados, pero a menudo ignoran las complejidades del poder y el contexto social que influyen en estas experiencias.

  2. Falta de contexto social: A menudo, los artículos no discuten los factores sociales e históricos que contribuyen a la desigualdad. No considerar estos contextos resulta en una comprensión superficial de los problemas en cuestión.

  3. Dominancia de soluciones técnicas: El campo de la equidad en IA tiende a priorizar soluciones técnicas sobre indagaciones sociales críticas. Los investigadores pueden estar más enfocados en ajustar algoritmos para cumplir con métricas de equidad en lugar de involucrarse con las comunidades afectadas por estas tecnologías.

  4. Compromiso inadecuado con las dinámicas de poder: Aunque las dinámicas de poder se reconocen en algunos estudios, el compromiso suele ser limitado. Los investigadores a menudo describen el poder en términos abstractos en lugar de examinar cómo sus métodos y elecciones impactan la distribución del poder en la sociedad.

Principios clave de la interseccionalidad

Para avanzar en la investigación sobre la equidad en IA, es crucial adoptar principios fundamentales de la interseccionalidad:

  1. Justicia Social: La equidad en IA no solo debe buscar igualdad, sino también esforzarse por la justicia. Esto implica trabajar activamente en contra de sistemas que perpetúan la opresión y desigualdad.

  2. Desigualdad Social: Los investigadores deben involucrarse profundamente con las desigualdades sociales, entendiendo cómo se forman y se mantienen. Es esencial cuestionar los sistemas que crean estas disparidades.

  3. Relacionalidad: Este principio anima a ver las relaciones entre diferentes formas de identidad y poder. Entender cómo interactúan las diferentes categorías sociales puede proporcionar ideas sobre cómo se manifiestan las desigualdades.

  4. Poder social: Los investigadores deben considerar críticamente cómo se distribuye el poder en su trabajo. Esto implica reflexionar sobre quién se beneficia de los sistemas de IA y quién es marginado.

  5. Contexto social: Reconocer los factores sociales e históricos específicos que moldean las experiencias de las personas es crucial. Esta conciencia puede ayudar a los investigadores a diseñar sistemas de IA que sean más inclusivos y justos.

  6. Complejidad: Reconocer la complejidad de los problemas sociales es esencial para desarrollar soluciones significativas. Los investigadores deben resistir la tentación de simplificar los problemas y, en su lugar, abrazar las sutilezas que implican.

Recomendaciones para investigadores sobre equidad en IA

  1. Ampliar perspectivas: Los investigadores deben salir de la visión estrecha de la interseccionalidad como solo equidad para subgrupos. Necesitan incorporar una comprensión más profunda de las estructuras sociales en juego.

  2. Involucrarse con comunidades afectadas: Es vital involucrar a las comunidades impactadas por los sistemas de IA en el proceso de diseño y evaluación. Este compromiso puede proporcionar valiosas ideas sobre las realidades sociales que enfrentan.

  3. Evaluar críticamente las dinámicas de poder: Los investigadores deben examinar activamente sus propias posiciones de poder dentro del proceso de investigación. Esta reflexión puede ayudarles a reconocer cómo sus elecciones impactan a los grupos marginados.

  4. Incorporar contexto social: Los estudios deben declarar explícitamente los contextos sociales que están examinando. Al hacerlo, los investigadores pueden entender mejor las implicaciones de su trabajo para diferentes comunidades.

  5. Fomentar enfoques interdisciplinarios: Colaborar con expertos de otros campos puede enriquecer la investigación sobre equidad en IA. Incorporar perspectivas de ciencias sociales, humanidades y activismo comunitario puede fomentar una comprensión más profunda.

  6. Promover la transparencia: Los investigadores deben ser abiertos sobre sus metodologías y las suposiciones que sustentan su trabajo. Esta transparencia puede llevar a sistemas de IA más robustos y equitativos.

Conclusión

La equidad en IA es un área crítica de estudio, y la interseccionalidad proporciona un marco valioso para entender las complejidades de las desigualdades sociales. Al involucrarse con los principios de la interseccionalidad, los investigadores pueden trabajar para crear sistemas de IA que no solo sean técnicamente sólidos, sino también socialmente justos. El llamado a la acción es claro: es hora de que la investigación sobre equidad en IA reconozca y aborde los problemas profundos de desigualdad en la sociedad. Solo al abrazar el alcance completo de la interseccionalidad podemos esperar crear tecnologías de IA más justas y equitativas para todos.

Fuente original

Título: Factoring the Matrix of Domination: A Critical Review and Reimagination of Intersectionality in AI Fairness

Resumen: Intersectionality is a critical framework that, through inquiry and praxis, allows us to examine how social inequalities persist through domains of structure and discipline. Given AI fairness' raison d'etre of "fairness", we argue that adopting intersectionality as an analytical framework is pivotal to effectively operationalizing fairness. Through a critical review of how intersectionality is discussed in 30 papers from the AI fairness literature, we deductively and inductively: 1) map how intersectionality tenets operate within the AI fairness paradigm and 2) uncover gaps between the conceptualization and operationalization of intersectionality. We find that researchers overwhelmingly reduce intersectionality to optimizing for fairness metrics over demographic subgroups. They also fail to discuss their social context and when mentioning power, they mostly situate it only within the AI pipeline. We: 3) outline and assess the implications of these gaps for critical inquiry and praxis, and 4) provide actionable recommendations for AI fairness researchers to engage with intersectionality in their work by grounding it in AI epistemology.

Autores: Anaelia Ovalle, Arjun Subramonian, Vagrant Gautam, Gilbert Gee, Kai-Wei Chang

Última actualización: 2023-07-20 00:00:00

Idioma: English

Fuente URL: https://arxiv.org/abs/2303.17555

Fuente PDF: https://arxiv.org/pdf/2303.17555

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.

Más de autores

Artículos similares