Simple Science

Ciência de ponta explicada de forma simples

# Informática# Inteligência Artificial

Abordando a Ética em Sistemas de IA Generativa

Esse guia destaca a importância da ética no desenvolvimento de tecnologia de IA.

― 7 min ler


Ética em IA: Uma NovaÉtica em IA: Uma NovaAbordagemtecnologia de IA.Explorando as considerações éticas na
Índice

Sistemas de IA generativa, como o ChatGPT e o DALL-E, estão cada vez mais fazendo parte do nosso dia a dia. Eles conseguem criar textos e imagens, o que traz várias vantagens. Mas, à medida que essas tecnologias avançam, surgem também muitas perguntas éticas sobre o uso delas. Esse guia fala sobre a importância de garantir que esses sistemas estejam alinhados com os valores humanos, especialmente quando lidam com texto e imagens, que é uma área que ainda não foi muito estudada em comparação aos sistemas de texto puro.

A Necessidade de uma IA Ética

Com a tecnologia de IA se espalhando em áreas como arte e saúde mental, é crucial pensar no impacto que isso tem na sociedade. A ética da IA envolve discutir segurança, direitos humanos e preocupações ambientais. As escolas estão começando a ensinar os alunos sobre esses temas, já que estão se tornando mais relevantes. Vários guias e estruturas estão sendo desenvolvidos ao redor do mundo para garantir que a IA seja segura e justa. Exemplos incluem a Declaração de Montreal no Canadá e a Lei dos Direitos da IA nos Estados Unidos.

Criando um Banco de Dados Ético

Para estudar a ética dos sistemas de IA que usam texto e imagens, precisamos de um banco de dados forte. Esse banco de dados vai ajudar a entender e avaliar as Respostas dadas pelos sistemas de IA. Nosso primeiro objetivo é coletar feedback das pessoas sobre o que elas acham ético ou antiético. Vamos criar uma coleção de pares de perguntas e imagens, com respostas geradas por um modelo de IA específico. Cada resposta também vai incluir votos de usuários sobre sua posição ética.

Construindo o Dataset

Vamos começar criando um dataset com 789 pares únicos de perguntas e imagens que tocam em várias questões éticas, como economia e justiça social. As respostas do sistema de IA serão avaliadas por usuários que indicarão se acham as respostas éticas, antiéticas ou confusas. Com os IDs dos usuários incluídos, conseguimos acompanhar as respostas e identificar comportamentos incomuns.

Coletando Feedback

Nosso segundo objetivo é desenvolver um sistema que permita aos usuários avaliar as respostas éticas de forma fácil. Esse sistema vai ser baseado no Discord, uma plataforma de mensagens popular entre muitos usuários. Essa abordagem divertida e envolvente ajuda as pessoas a darem suas opiniões sobre as respostas da IA, tornando o processo mais interativo.

Estudando Algoritmos de Classificação

Para analisar as respostas éticas, vamos examinar diferentes algoritmos. Vamos usar um método desenvolvido anteriormente e compará-lo com o nosso. Nosso objetivo é ver se os métodos existentes são bons o suficiente ou se precisamos inventar outros melhores.

O Estado da Pesquisa Ética

No passado, muitos estudos focaram principalmente em sistemas de IA baseados em texto. A pesquisa descobriu que modelos maiores e melhor treinados tendem a ter um desempenho melhor em considerações éticas. No entanto, nosso estudo visa expandir esse foco para incluir imagens, o que traz novos desafios e oportunidades. Alguns estudos tentaram olhar para a ética de sistemas multimodais, mas enfrentaram limitações devido a conjuntos de dados pequenos e avaliações manuais.

Criando uma Estrutura Ética

Para construir nosso banco de dados ético, precisamos considerar vários fatores para evitar vieses. Em vez de depender de um pequeno grupo de pessoas, vamos usar crowdsourcing para coletar opiniões de grupos diversos. Essa abordagem nos permite reunir uma gama mais ampla de visões sobre questões éticas. Escolhemos o Discord como nossa plataforma porque permite conteúdo gerado por algoritmo sem proibições rigorosas.

Criando Prompts para a IA

Criamos prompts para testar as respostas da IA aos pares de perguntas e imagens. Coletamos vários exemplos de cenários Éticos, garantindo uma ampla variedade de tópicos. Depois de rodar os prompts na IA, filtramos quaisquer respostas que não atendessem aos nossos critérios. As respostas restantes vão nos dar uma base sólida para avaliação.

Testes Iniciais e Feedback dos Usuários

Assim que tivermos dados suficientes, vamos testar nosso bot no Discord com usuários reais. O bot vai apresentar combinações de perguntas, imagens e respostas para avaliação. Os participantes vão indicar se acham as respostas éticas, antiéticas ou confusas. Esse método torna a avaliação rápida e direta, permitindo que coletemos feedback valioso.

Garantindo a Confiabilidade dos Usuários

Um desafio que enfrentamos é garantir que os usuários que fornecem feedback tenham uma perspectiva ética confiável. Para gerenciar isso, vamos controlar a demografia dos nossos testadores, começando com um pequeno grupo conhecido antes de expandir. Também vamos usar testes pré e pós para avaliar como os usuários veem os prompts e acompanhar quaisquer mudanças em suas respostas.

Monitorando as Respostas dos Usuários

Para manter a qualidade dos nossos dados, vamos monitorar as avaliações dos usuários discretamente. Acompanhando as respostas, conseguimos identificar padrões, como classificar consistentemente certos tipos de respostas. Isso ajuda a filtrar quaisquer avaliações enganosas. Vamos usar os IDs únicos dos usuários do Discord, protegendo a privacidade deles ao hash esses IDs antes de compartilhar quaisquer resultados publicamente.

Testes Estendidos para Confiabilidade

Nas nossas rodadas iniciais de testes, descobrimos que muitas respostas caíram na categoria de confusas. Para melhorar a confiabilidade das avaliações, vamos focar em dados que já receberam mais feedback. Refinando nossa lista de prompts com base nas avaliações dos usuários, nosso objetivo é garantir que o conjunto de dados usado para avaliações éticas seja robusto e confiável.

Classificando Ética Usando Algoritmos

Agora que reunimos nosso conjunto de dados, podemos aplicar diferentes métodos de classificação. Vamos examinar duas abordagens principais: usar um classificador RoBERTa-large bem conhecido e construir nosso próprio perceptron multicamada. Esses métodos vão nos ajudar a avaliar quão bem a IA consegue classificar respostas éticas com base nos dados que coletamos.

Usando o Classificador RoBERTa-large

O classificador RoBERTa-large mostrou bons resultados em pesquisas anteriores. Vamos combinar texto de perguntas e respostas para criar prompts para esse classificador. Ao atribuir pontuações a cada resposta, podemos determinar se ela é ética ou antiética. No entanto, os resultados iniciais mostram muita incerteza, com muitas respostas sendo marcadas como confusas.

Construindo um Perceptron Multicamadas

Para melhorar a precisão da classificação, também vamos construir nosso próprio modelo de perceptron multicamadas. Esse modelo vai usar dados de texto e imagem juntos para avaliar as respostas. Testes iniciais sugerem que podemos alcançar melhor precisão com esse método, embora mais trabalho seja necessário para refinar nossa abordagem.

Conclusão: A Importância de Sistemas Éticos

Com a crescente influência da IA na sociedade, abordar considerações éticas é essencial. Nosso método para desenvolver um conjunto de dados multimodal é um passo à frente nessa área. O conjunto de dados será disponibilizado publicamente para futuras pesquisas. Ao continuar refinando nossa abordagem e aprimorando os classificadores, esperamos melhorar a compreensão geral da ética nos sistemas de IA. O conjunto de dados inclui cenários éticos diversos, que serão benéficos para estudos futuros sobre esse tema importante.

Mais de autores

Artigos semelhantes