Abordando a Ética em Sistemas de IA Generativa
Esse guia destaca a importância da ética no desenvolvimento de tecnologia de IA.
― 7 min ler
Índice
- A Necessidade de uma IA Ética
- Criando um Banco de Dados Ético
- Construindo o Dataset
- Coletando Feedback
- Estudando Algoritmos de Classificação
- O Estado da Pesquisa Ética
- Criando uma Estrutura Ética
- Criando Prompts para a IA
- Testes Iniciais e Feedback dos Usuários
- Garantindo a Confiabilidade dos Usuários
- Monitorando as Respostas dos Usuários
- Testes Estendidos para Confiabilidade
- Classificando Ética Usando Algoritmos
- Usando o Classificador RoBERTa-large
- Construindo um Perceptron Multicamadas
- Conclusão: A Importância de Sistemas Éticos
- Fonte original
- Ligações de referência
Sistemas de IA generativa, como o ChatGPT e o DALL-E, estão cada vez mais fazendo parte do nosso dia a dia. Eles conseguem criar textos e imagens, o que traz várias vantagens. Mas, à medida que essas tecnologias avançam, surgem também muitas perguntas éticas sobre o uso delas. Esse guia fala sobre a importância de garantir que esses sistemas estejam alinhados com os valores humanos, especialmente quando lidam com texto e imagens, que é uma área que ainda não foi muito estudada em comparação aos sistemas de texto puro.
A Necessidade de uma IA Ética
Com a tecnologia de IA se espalhando em áreas como arte e saúde mental, é crucial pensar no impacto que isso tem na sociedade. A ética da IA envolve discutir segurança, direitos humanos e preocupações ambientais. As escolas estão começando a ensinar os alunos sobre esses temas, já que estão se tornando mais relevantes. Vários guias e estruturas estão sendo desenvolvidos ao redor do mundo para garantir que a IA seja segura e justa. Exemplos incluem a Declaração de Montreal no Canadá e a Lei dos Direitos da IA nos Estados Unidos.
Criando um Banco de Dados Ético
Para estudar a ética dos sistemas de IA que usam texto e imagens, precisamos de um banco de dados forte. Esse banco de dados vai ajudar a entender e avaliar as Respostas dadas pelos sistemas de IA. Nosso primeiro objetivo é coletar feedback das pessoas sobre o que elas acham ético ou antiético. Vamos criar uma coleção de pares de perguntas e imagens, com respostas geradas por um modelo de IA específico. Cada resposta também vai incluir votos de usuários sobre sua posição ética.
Construindo o Dataset
Vamos começar criando um dataset com 789 pares únicos de perguntas e imagens que tocam em várias questões éticas, como economia e justiça social. As respostas do sistema de IA serão avaliadas por usuários que indicarão se acham as respostas éticas, antiéticas ou confusas. Com os IDs dos usuários incluídos, conseguimos acompanhar as respostas e identificar comportamentos incomuns.
Coletando Feedback
Nosso segundo objetivo é desenvolver um sistema que permita aos usuários avaliar as respostas éticas de forma fácil. Esse sistema vai ser baseado no Discord, uma plataforma de mensagens popular entre muitos usuários. Essa abordagem divertida e envolvente ajuda as pessoas a darem suas opiniões sobre as respostas da IA, tornando o processo mais interativo.
Estudando Algoritmos de Classificação
Para analisar as respostas éticas, vamos examinar diferentes algoritmos. Vamos usar um método desenvolvido anteriormente e compará-lo com o nosso. Nosso objetivo é ver se os métodos existentes são bons o suficiente ou se precisamos inventar outros melhores.
O Estado da Pesquisa Ética
No passado, muitos estudos focaram principalmente em sistemas de IA baseados em texto. A pesquisa descobriu que modelos maiores e melhor treinados tendem a ter um desempenho melhor em considerações éticas. No entanto, nosso estudo visa expandir esse foco para incluir imagens, o que traz novos desafios e oportunidades. Alguns estudos tentaram olhar para a ética de sistemas multimodais, mas enfrentaram limitações devido a conjuntos de dados pequenos e avaliações manuais.
Criando uma Estrutura Ética
Para construir nosso banco de dados ético, precisamos considerar vários fatores para evitar vieses. Em vez de depender de um pequeno grupo de pessoas, vamos usar crowdsourcing para coletar opiniões de grupos diversos. Essa abordagem nos permite reunir uma gama mais ampla de visões sobre questões éticas. Escolhemos o Discord como nossa plataforma porque permite conteúdo gerado por algoritmo sem proibições rigorosas.
Criando Prompts para a IA
Criamos prompts para testar as respostas da IA aos pares de perguntas e imagens. Coletamos vários exemplos de cenários Éticos, garantindo uma ampla variedade de tópicos. Depois de rodar os prompts na IA, filtramos quaisquer respostas que não atendessem aos nossos critérios. As respostas restantes vão nos dar uma base sólida para avaliação.
Testes Iniciais e Feedback dos Usuários
Assim que tivermos dados suficientes, vamos testar nosso bot no Discord com usuários reais. O bot vai apresentar combinações de perguntas, imagens e respostas para avaliação. Os participantes vão indicar se acham as respostas éticas, antiéticas ou confusas. Esse método torna a avaliação rápida e direta, permitindo que coletemos feedback valioso.
Garantindo a Confiabilidade dos Usuários
Um desafio que enfrentamos é garantir que os usuários que fornecem feedback tenham uma perspectiva ética confiável. Para gerenciar isso, vamos controlar a demografia dos nossos testadores, começando com um pequeno grupo conhecido antes de expandir. Também vamos usar testes pré e pós para avaliar como os usuários veem os prompts e acompanhar quaisquer mudanças em suas respostas.
Monitorando as Respostas dos Usuários
Para manter a qualidade dos nossos dados, vamos monitorar as avaliações dos usuários discretamente. Acompanhando as respostas, conseguimos identificar padrões, como classificar consistentemente certos tipos de respostas. Isso ajuda a filtrar quaisquer avaliações enganosas. Vamos usar os IDs únicos dos usuários do Discord, protegendo a privacidade deles ao hash esses IDs antes de compartilhar quaisquer resultados publicamente.
Testes Estendidos para Confiabilidade
Nas nossas rodadas iniciais de testes, descobrimos que muitas respostas caíram na categoria de confusas. Para melhorar a confiabilidade das avaliações, vamos focar em dados que já receberam mais feedback. Refinando nossa lista de prompts com base nas avaliações dos usuários, nosso objetivo é garantir que o conjunto de dados usado para avaliações éticas seja robusto e confiável.
Classificando Ética Usando Algoritmos
Agora que reunimos nosso conjunto de dados, podemos aplicar diferentes métodos de classificação. Vamos examinar duas abordagens principais: usar um classificador RoBERTa-large bem conhecido e construir nosso próprio perceptron multicamada. Esses métodos vão nos ajudar a avaliar quão bem a IA consegue classificar respostas éticas com base nos dados que coletamos.
Usando o Classificador RoBERTa-large
O classificador RoBERTa-large mostrou bons resultados em pesquisas anteriores. Vamos combinar texto de perguntas e respostas para criar prompts para esse classificador. Ao atribuir pontuações a cada resposta, podemos determinar se ela é ética ou antiética. No entanto, os resultados iniciais mostram muita incerteza, com muitas respostas sendo marcadas como confusas.
Construindo um Perceptron Multicamadas
Para melhorar a precisão da classificação, também vamos construir nosso próprio modelo de perceptron multicamadas. Esse modelo vai usar dados de texto e imagem juntos para avaliar as respostas. Testes iniciais sugerem que podemos alcançar melhor precisão com esse método, embora mais trabalho seja necessário para refinar nossa abordagem.
Conclusão: A Importância de Sistemas Éticos
Com a crescente influência da IA na sociedade, abordar considerações éticas é essencial. Nosso método para desenvolver um conjunto de dados multimodal é um passo à frente nessa área. O conjunto de dados será disponibilizado publicamente para futuras pesquisas. Ao continuar refinando nossa abordagem e aprimorando os classificadores, esperamos melhorar a compreensão geral da ética nos sistemas de IA. O conjunto de dados inclui cenários éticos diversos, que serão benéficos para estudos futuros sobre esse tema importante.
Título: Towards ethical multimodal systems
Resumo: Generative AI systems (ChatGPT, DALL-E, etc) are expanding into multiple areas of our lives, from art Rombach et al. [2021] to mental health Rob Morris and Kareem Kouddous [2022]; their rapidly growing societal impact opens new opportunities, but also raises ethical concerns. The emerging field of AI alignment aims to make AI systems reflect human values. This paper focuses on evaluating the ethics of multimodal AI systems involving both text and images - a relatively under-explored area, as most alignment work is currently focused on language models. We first create a multimodal ethical database from human feedback on ethicality. Then, using this database, we develop algorithms, including a RoBERTa-large classifier and a multilayer perceptron, to automatically assess the ethicality of system responses.
Autores: Alexis Roger, Esma Aïmeur, Irina Rish
Última atualização: 2024-05-20 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2304.13765
Fonte PDF: https://arxiv.org/pdf/2304.13765
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.