Zusammenarbeit für faire KI-Systeme verbessern
Untersuchen, wie Teams Fairness in KI durch bessere Zusammenarbeit verbessern können.
― 7 min Lesedauer
Inhaltsverzeichnis
In den letzten Jahren gab's viel Diskussion über Fairness in der künstlichen Intelligenz (KI). Viele Forscher und Branchenexperten sind sich einig, dass Fairness beim Design und der Entwicklung von KI-Systemen echt wichtig ist. Aber Fairness in der KI zu erreichen, ist nicht so einfach. Es braucht Leute aus verschiedenen Hintergründen und Rollen, die effektiv zusammenarbeiten. Diese Zusammenarbeit zwischen verschiedenen Rollen nennt man funktionsübergreifende Zusammenarbeit.
Trotz ihrer Wichtigkeit fehlt es oft an funktionsübergreifender Zusammenarbeit in der Fairness der KI oder sie ist ineffektiv. Es gibt mehrere Gründe dafür, wie unterschiedliche Auffassungen von Fairness, unterschiedliche Erwartungen und ein Mangel an Tools, die den Teams helfen, zusammenzuarbeiten. Dieser Artikel zielt darauf ab, zu erkunden, was Praktiker in der Branche tun, um die Zusammenarbeit für Fairness in der KI zu verbessern und neue Möglichkeiten zu identifizieren, um ihre Bemühungen zu unterstützen.
Der Bedarf an funktionsübergreifender Zusammenarbeit
KI-Systeme beeinflussen viele Bereiche unseres Lebens, von Einstellungsentscheidungen bis hin zu Kreditgenehmigungen. Wenn diese Systeme voreingenommen oder unfair sind, können sie Einzelpersonen und Gemeinschaften schaden. Deshalb ist es wichtig, Fairness in der KI-Entwicklung zu adressieren. Das braucht Input von verschiedenen Rollen, wie Data Scientists, UX-Designern, Produktmanagern und weiteren. Jede Rolle bringt andere Perspektiven, Wissen und Expertise mit.
Fairness zu erreichen, ist eine sozio-technische Herausforderung, was bedeutet, dass es sowohl technische Aspekte als auch soziale Überlegungen umfasst. Zum Beispiel erfordert das Verständnis, was Fairness in verschiedenen Kontexten bedeutet, Einblicke aus den Sozialwissenschaften, während technische Fähigkeiten nötig sind, um Fairness in KI-Systemen umzusetzen. Daher ist es wichtig, die Zusammenarbeit zwischen verschiedenen Rollen zu fördern.
Aktuelle Praktiken in der funktionsübergreifenden Zusammenarbeit
Um zu verstehen, wie Praktiker aktuell in der funktionsübergreifenden Zusammenarbeit für KI-Fairness engagiert sind, wurde eine Studie durchgeführt, die Interviews und Workshops mit Branchenprofis beinhaltete. Das Hauptziel war es, Einblicke in ihre Praktiken, Herausforderungen und Strategien für eine effektive Zusammenarbeit zu sammeln.
Lücken im Verständnis überbrücken
Ein zentrales Ergebnis der Studie war, dass Praktiker oft zusätzliche Rollen übernehmen, um Lücken im Verständnis über Fairness zu überbrücken. Diese Aktivitäten beinhalten die Förderung der Kommunikation unter Teammitgliedern, das Klarstellen von Erwartungen und das Schaffen gemeinsamer Konzepte rund um Fairness. Zum Beispiel haben Praktiker Meetings organisiert, um die Bewertungen von Fairness über verschiedene Rollen hinweg abzugleichen. Indem sie verschiedene Perspektiven zusammenbrachten, wollten sie ein gemeinsames Verständnis dafür schaffen, was Fairness bedeutet und wie sie in ihren spezifischen Projekten bewertet werden sollte.
Zusammenarbeit fördern
Neben dem Überbrücken von Lücken haben die Praktiker auch kollaborative Prozesse entworfen, um die Kommunikation unter Teammitgliedern zu verbessern. Einige haben Workshops durchgeführt, in denen sie Diskussionen über Herausforderungen im Zusammenhang mit Fairness moderierten. Diese Workshops ermöglichten es den Teilnehmern, ihre Erfahrungen zu teilen und Möglichkeiten zur Verbesserung der Zusammenarbeit zu erkunden. Sie boten auch eine Gelegenheit für Teammitglieder, ihre Ziele und Erwartungen in Bezug auf Fairness abzustimmen.
Ein Teilnehmer erwähnte beispielsweise, dass sie ein gemeinsames Glossar erstellt haben, das half, die Begriffe, die in den Diskussionen über KI-Fairness verwendet wurden, zu klären. Dieses Glossar wurde zu einer wertvollen Ressource für Praktiker aus verschiedenen Bereichen, damit sie effektiver kommunizieren konnten.
Nutzung bestehender Rahmenwerke
Angesichts organisatorischer Einschränkungen berichteten viele Praktiker, dass sie bestehende Rahmenwerke und Praktiken nutzten, um ihre Fairness-Bemühungen voranzutreiben. Einige Teilnehmer haben bestehende verpflichtende Prozesse, wie Datenschutzbewertungen, genutzt, um Fairnessüberlegungen einzubeziehen. Indem sie Fairnessfragen in bestehende Verfahren einbrachten, schafften sie ein Bewusstsein für Fairness, ohne völlig neue Rahmenwerke schaffen zu müssen.
Allerdings gab es Bedenken hinsichtlich der langfristigen Nachhaltigkeit solcher Ansätze. Die Teilnehmer äusserten den Wunsch nach höherer Unterstützung und speziellen Ressourcen für die Arbeit an KI-Fairness.
Herausforderungen in der Zusammenarbeit
Trotz der Bemühungen zur Verbesserung der funktionsübergreifenden Zusammenarbeit bestehen mehrere Herausforderungen. Die Teilnehmer bemerkten, dass es oft an Anerkennung für die Arbeit fehlt, die sie zur Förderung der Zusammenarbeit leisten. Viele äusserten Frustration darüber, dass ihre Überbrückungsbemühungen nicht wahrgenommen wurden, was zu Gefühlen der Unterbewertung führte.
Unsichtbare Arbeit
Eine signifikante Herausforderung für Praktiker ist das, was als „unsichtbare Arbeit“ bezeichnet wird. Das bezieht sich auf die zusätzliche Arbeit, die nötig ist, um Verbindungen herzustellen und Diskussionen über Fairness zu fördern. Zum Beispiel erfordert das Erstellen von Lehrmaterialien, um Wissenslücken zu überbrücken, erheblichen Aufwand, doch diese Arbeit bleibt oft unbemerkt. Die Teilnehmer berichteten, dass sie häufig Überstunden leisten müssen, um sicherzustellen, dass ihre Kollegen die sozio-technischen Aspekte der KI-Fairness verstehen.
Unrealistische Erwartungen
Eine weitere Herausforderung sind die unrealistischen Erwartungen, die einige Teammitglieder in Bezug auf die Art der Zusammenarbeit für KI-Fairness haben. Die Teilnehmer berichteten, dass sie auf Kollegen gestossen sind, die annahmen, dass Diskussionen über Fairness schnell gelöst werden könnten. Sie betonten, dass die Auseinandersetzung mit Fairness in der KI ein kontinuierlicher Prozess ist, der fortlaufendes Engagement erfordert. Es gab den Wunsch nach besserer Kommunikation unter den Teammitgliedern, um realistische Erwartungen für die Zusammenarbeit zu setzen.
Strategien zur Verbesserung
Angesichts dieser Herausforderungen gibt es mehrere Strategien, die Praktiker in der Branche nutzen können, um die funktionsübergreifende Zusammenarbeit für KI-Fairness zu verbessern.
Bewusstsein schaffen
Eine effektive Strategie ist es, das Bewusstsein der Teammitglieder für die Bedeutung von Fairness in der KI zu erhöhen. Kollegen über die sozio-technische Natur der KI-Fairness aufzuklären, kann helfen, ein gemeinsames Verständnis dafür zu fördern, warum Zusammenarbeit wichtig ist. Praktiker können Bildungsressourcen erstellen, die zentrale Konzepte und Prinzipien zur Fairness vermitteln und sie für Personen in verschiedenen Rollen zugänglich machen.
Offene Kommunikation fördern
Offene Kommunikation zu fördern, ist ebenfalls entscheidend für eine effektive Zusammenarbeit. Praktiker sollten Räume schaffen, in denen Teammitglieder offen ihre Perspektiven und Erfahrungen besprechen können. Workshops, Brainstorming-Sitzungen und regelmässige Check-ins können ehrliche Gespräche über Herausforderungen und Lösungen im Zusammenhang mit Fairness erleichtern. Durch diese Diskussionen können Teams Vertrauen aufbauen und klarere Kommunikationswege etablieren.
Beiträge anerkennen
Organisationen müssen Mechanismen entwickeln, um Beiträge im Zusammenhang mit KI-Fairness anzuerkennen und zu belohnen. Dazu gehört auch, die Bemühungen derjenigen zu würdigen, die Überbrückungsrollen übernehmen oder unsichtbare Arbeit leisten. Durch die Anerkennung dieser Beiträge können Organisationen eine Kultur schaffen, die Zusammenarbeit wertschätzt und Individuen ermutigt, Zeit und Mühe in die Fairness-Arbeit zu investieren.
Klare Rollen und Verantwortlichkeiten festlegen
Die Klärung von Rollen und Verantwortlichkeiten ist wichtig für eine effektive Zusammenarbeit. Jedes Teammitglied sollte seine spezifischen Beiträge zu fairheitsbezogenen Initiativen verstehen. Diese Klarheit hilft, Missverständnisse zu vermeiden und sicherzustellen, dass alle in ihren Bemühungen aufeinander abgestimmt sind. Gemeinsame Ziele festzulegen und spezifische Aufgaben zu umreissen, kann zu einem organisierten Ansatz für die funktionsübergreifende Zusammenarbeit beitragen.
Fazit
Die funktionsübergreifende Zusammenarbeit ist entscheidend, um Fairness in KI-Systemen anzugehen. Während viele Praktiker Strategien zur Verbesserung der Zusammenarbeit anwenden, bestehen erhebliche Herausforderungen, insbesondere hinsichtlich der Anerkennung und des Verständnisses der Arbeit. Durch Bewusstseinsschaffung, Förderung offener Kommunikation, Anerkennung von Beiträgen und Festlegung klarer Rollen können Organisationen eine bessere Zusammenarbeit im Bereich KI-Fairness fördern.
Da die Diskussionen über Fairness in der KI weiter zunehmen, ist es wichtig, darauf zu fokussieren, wie diverse Teams effektiv zusammenarbeiten können, um verantwortungsvolle und gerechte KI-Systeme zu schaffen. Durch kontinuierliche Bemühungen, kollaborative Praktiken zu verstehen und zu unterstützen, kann die KI-Community dem Ziel, Fairness in ihren Technologien zu erreichen, näher kommen.
Titel: Investigating Practices and Opportunities for Cross-functional Collaboration around AI Fairness in Industry Practice
Zusammenfassung: An emerging body of research indicates that ineffective cross-functional collaboration -- the interdisciplinary work done by industry practitioners across roles -- represents a major barrier to addressing issues of fairness in AI design and development. In this research, we sought to better understand practitioners' current practices and tactics to enact cross-functional collaboration for AI fairness, in order to identify opportunities to support more effective collaboration. We conducted a series of interviews and design workshops with 23 industry practitioners spanning various roles from 17 companies. We found that practitioners engaged in bridging work to overcome frictions in understanding, contextualization, and evaluation around AI fairness across roles. In addition, in organizational contexts with a lack of resources and incentives for fairness work, practitioners often piggybacked on existing requirements (e.g., for privacy assessments) and AI development norms (e.g., the use of quantitative evaluation metrics), although they worry that these tactics may be fundamentally compromised. Finally, we draw attention to the invisible labor that practitioners take on as part of this bridging and piggybacking work to enact interdisciplinary collaboration for fairness. We close by discussing opportunities for both FAccT researchers and AI practitioners to better support cross-functional collaboration for fairness in the design and development of AI systems.
Autoren: Wesley Hanwen Deng, Nur Yildirim, Monica Chang, Motahhare Eslami, Ken Holstein, Michael Madaio
Letzte Aktualisierung: 2023-06-10 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2306.06542
Quell-PDF: https://arxiv.org/pdf/2306.06542
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://dl.acm.org/ccs.cfm
- https://pair.withgoogle.com/guidebook/
- https://openai.com/blog/our-approach-to-alignment-research/
- https://aix360.mybluemix.net/
- https://aif360.mybluemix.net/
- https://openai.com/blog/chatgpt/
- https://twitter.com/GiadaPistilli/status/1571865167092396033?s=20&t=LRhhEu63s6ftPmtZdfz8Cw
- https://cdn.openai.com/chatgpt/ChatGPT_Feedback_Contest_Rules.pdf
- https://blog.google/technology/ai/lamda/
- https://www.the-sun.com/tech/6729391/meta-withdraws-ai-galactica-controversy/
- https://spectrum.ieee.org/in-2016-microsofts-racist-chatbot-revealed-the-dangers-of-online-conversation
- https://blog.google/technology/ai/join-us-in-the-ai-test-kitchen/
- https://fairlearn.github.io/v0.5.0/api_reference/fairlearn.datasets.html
- https://www.microsoft.com/en-us/research/publication/fairlearn-a-toolkit-for-assessing-and-improving-fairness-in-ai/
- https://blog
- https://doi.org/10.1145/3555625
- https://dl.acm.org/doi/10.1145/3531146.3533113
- https://www.nature.com/articles/s42256-022-00516-1
- https://proceedings.mlr.press/v80/kilbertus18a/kilbertus18a.pdf
- https://proceedings.mlr.press/v80/kilbertus18a.html
- https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing