A Necessidade de Transparência em Modelos de Fundamento
Desenvolver relatórios de transparência regulares para modelos de fundação é essencial para a responsabilização.
― 11 min ler
Índice
Modelos de fundação são tecnologias importantes que têm um grande impacto na sociedade. Pra garantir que as pessoas saibam como esses modelos são desenvolvidos e usados, a transparência é essencial. Pra isso, sugerimos criar Relatórios de Transparência de Modelos de Fundação, baseados nas práticas de relatórios usadas pelas empresas de redes sociais.
O objetivo desses relatórios é fornecer informações claras e úteis sobre modelos de fundação. Enquanto os relatórios de transparência das redes sociais surgiram em resposta a problemas sociais visíveis, nossa meta é estabelecer práticas semelhantes para modelos de fundação enquanto esse campo ainda tá se desenvolvendo. Identificamos seis princípios orientadores baseados no que funcionou bem ou mal na reportagem de redes sociais.
Pra ajudar a criar esses relatórios, nos referimos ao Índice de Transparência de Modelos de Fundação, que inclui 100 indicadores-chave. Também verificamos como esses indicadores se alinham aos requisitos de transparência em várias políticas governamentais importantes, como o Ato de IA da UE e a Ordem Executiva de IA dos EUA. Relatórios de transparência bons poderiam ajudar as empresas a manter os custos baixos, especialmente já que muitas regulações ao redor do mundo exigem informações semelhantes.
Recomendamos que os desenvolvedores de modelos de fundação publiquem regularmente esses relatórios de transparência, como incentivado por grupos como o G7 e a Casa Branca. Atualmente, o ecossistema de modelos de fundação carece de transparência, com grandes empresas como OpenAI e Google tendo pontuações baixas em termos de responsabilidade pública.
As plataformas de redes sociais enfrentaram desafios semelhantes no passado e começaram a publicar relatórios de transparência. Nos últimos 15 anos, muitas empresas de internet e telecomunicações optaram por lançar esses relatórios públicos, detalhando suas práticas de uso e governança. Isso se tornou uma prática padrão na indústria.
A União Europeia também tornou a transparência uma exigência através da sua Lei de Serviços Digitais, que manda que plataformas online emitam relatórios de transparência regulares. À medida que a indústria de modelos de fundação cresce, os governos estão considerando medidas semelhantes pra melhorar a transparência.
Por exemplo, nos EUA, uma nova legislação está sendo proposta que exigiria relatórios públicos padrão sobre modelos de fundação. Esse projeto enfatiza a necessidade de transparência no uso e impacto das tecnologias de IA.
Da mesma forma, o Ato de IA da UE estabelece requisitos de transparência em áreas como dados de treinamento e gestão de riscos. Outros países, como o Canadá e o Reino Unido, também propuseram medidas para melhorar a transparência nas tecnologias de IA.
Pra abordar as lacunas de transparência no ecossistema de modelos de fundação, propomos a criação de Relatórios de Transparência de Modelos de Fundação padronizados. Esses relatórios forneceriam as informações necessárias sobre modelos de fundação que os desenvolvedores deveriam atualizar regularmente.
Ao padronizar o que as empresas relatam, esses relatórios podem ajudar as partes interessadas a acessar facilmente as informações-chave e comparar diferentes modelos. Nossos relatórios são baseados tanto nas recomendações do G7 quanto nos compromissos feitos pelas empresas pra aumentar a transparência.
Atualmente, a maioria dos desenvolvedores de modelos de fundação não fornece informações claras sobre suas práticas. Isso leva a confusão e dificuldade pra partes interessadas tentando entender essas tecnologias. Nossos relatórios estabeleceriam expectativas claras sobre quais informações estão incluídas e como elas devem ser organizadas.
Mesmo com os requisitos de transparência atuais, vemos que muitas vezes eles carecem de clareza e não especificam precisamente o que os desenvolvedores deveriam relatar. Portanto, nossos relatórios apresentam uma estrutura clara para as informações necessárias, que inclui uma ampla gama de práticas ao longo da cadeia de suprimentos.
Ao olhar como a transparência funciona em outras indústrias, podemos aprender lições valiosas para modelos de fundação. Por exemplo, muitas empresas em diferentes campos já são obrigadas a produzir relatórios que documentam suas operações, e esses relatórios ajudam a garantir a responsabilidade.
Em essência, nossa meta é ajudar os desenvolvedores de modelos de fundação a se tornarem mais transparentes e dar aos governos as ferramentas pra promover a transparência através de políticas.
Contexto sobre Relatórios de Transparência de Redes Sociais
O sucesso das plataformas de redes sociais nas últimas duas décadas mostra como tecnologias transformadoras podem moldar a sociedade. Conforme as redes sociais se tornaram generalizadas, também enfrentaram inúmeras dificuldades, incluindo desinformação e preocupações com privacidade.
Esses problemas vieram à tona através de escândalos como o Cambridge Analytica e a violência contra a comunidade rohingya em Mianmar. Tais danos sociais sérios destacaram a necessidade de que as empresas de redes sociais fornecessem relatos mais claros sobre como operam e gerenciam os dados dos usuários.
Pra lidar com essas questões, as empresas de redes sociais começaram a emitir relatórios de transparência, que rastreiam várias métricas relacionadas à atividade dos usuários e pedidos legais. Desde 2010, muitas plataformas adotaram essa prática em resposta à pressão pública e como uma forma de tranquilizar os usuários sobre como gerenciam a informação.
Por exemplo, o Google começou a publicar relatórios detalhando quantos pedidos governamentais receberam pra remoção de conteúdo e os motivos por trás desses pedidos. Outras plataformas seguiram o exemplo nos anos que se seguiram, levando a um aumento significativo na reportagem de transparência.
Esses relatórios geralmente se dividem em várias categorias: pedidos de informações de usuários, pedidos de remoção, aplicação de propriedade intelectual e aplicação de políticas. As empresas de redes sociais focam principalmente em preservar a privacidade dos usuários enquanto lidam com preocupações públicas sobre suas práticas.
À medida que mais empresas começaram a produzir relatórios de transparência, surgiram organizações pra avaliar e pontuar esses relatórios com base em sua eficácia e abrangência. Essas avaliações levaram a uma maior atenção sobre como as empresas cumpriam seus compromissos de transparência.
Apesar desses desenvolvimentos, muitas lacunas e inconsistências permanecem em como as empresas relatam suas práticas. Diferentes plataformas de redes sociais podem relatar informações semelhantes de maneiras diferentes, dificultando comparações significativas.
Nos últimos anos, a reportagem de transparência se tornou uma expectativa comum em várias indústrias, impulsionada pela demanda pública por melhor responsabilidade. A Lei de Serviços Digitais da UE é uma regulação marcante que exige que grandes plataformas online apresentem relatórios de transparência claros e detalhados.
A DSA estabelece padrões específicos sobre como as plataformas devem divulgar informações, que vão desde práticas de moderação de conteúdo até os recursos usados em suas operações. Visando a clareza, essa regulação procura informar melhor os usuários e partes interessadas sobre como as plataformas gerenciam suas responsabilidades.
Design dos Relatórios de Transparência de Modelos de Fundação
Pra criar Relatórios de Transparência de Modelos de Fundação eficazes, focamos em seis princípios-chave. Esses princípios são baseados tanto nas forças quanto nas limitações dos relatórios de transparência das redes sociais.
Primeiro, consolidação e centralização são essenciais. Os relatórios devem reunir informações em um só lugar, facilitando para as partes interessadas encontrarem o que precisam. Os relatórios devem ter uma estrutura clara que destaque as informações essenciais, respondendo a perguntas específicas que os usuários possam ter.
Segundo, os relatórios de transparência devem fornecer contexto pra ajudar uma variedade de partes interessadas a interpretar a informação. Usuários, pesquisadores e desenvolvedores se beneficiarão de entender os métodos e práticas por trás dos dados.
Em seguida, especificação independente é vital. Ao invés de permitir que os desenvolvedores definam o que vai nos relatórios deles, deve haver um conjunto uniforme de indicadores. Isso ajuda a garantir que todos compartilhem as mesmas categorias de informações, tornando mais fácil a comparação.
Padronização é outro princípio importante. Os relatórios devem seguir um formato consistente pra que os usuários possam navegar e analisar facilmente as informações fornecidas. Isso ajudará a facilitar comparações entre diferentes modelos de fundação.
Por último, uma metodologia clara é essencial. Os desenvolvedores devem explicar como calcularam estatísticas ou avaliaram certos fatores. Sem essa clareza, pode ser desafiador pras partes interessadas confiarem nas informações apresentadas nos relatórios.
Ao aplicar esses princípios, esperamos projetar relatórios de transparência que sejam úteis e informativos pra uma ampla variedade de partes interessadas. Esses relatórios devem buscar fornecer uma visão sobre o desenvolvimento, operação e impacto dos modelos de fundação.
Alinhamento de Políticas
Múltiplas políticas governamentais ao redor do mundo incluem requisitos de transparência pra desenvolvedores de modelos de fundação. Ao examinar essas políticas, podemos determinar o quão bem elas se alinham com os indicadores dos nossos relatórios de transparência.
Identificamos seis políticas principais que contêm requisitos relevantes de transparência. Por exemplo, o Ato de IA da UE delineia regras sobre como os sistemas de IA devem ser documentados, exigindo divulgações específicas sobre transparência e gestão de riscos.
Da mesma forma, a Ordem Executiva de IA dos EUA destaca a importância da transparência na indústria de IA, exigindo que as empresas divulguem suas práticas e riscos em relação aos modelos de fundação. Outros países, como Canadá e Reino Unido, também estão trabalhando em políticas que promovem a transparência na IA.
Estabelecer requisitos de transparência pode ajudar os desenvolvedores de modelos de fundação a alinhar suas práticas com as regulações do governo. Fazendo isso, eles podem não apenas cumprir suas obrigações legais, mas também ganhar a confiança pública sendo mais responsáveis.
Contudo, muitas políticas atualmente carecem da especificidade necessária pra abordar todos os aspectos da transparência. Nosso trabalho visa preencher essas lacunas definindo indicadores claros que os desenvolvedores podem relatar.
Exemplos de Entradas de Relatórios de Transparência
Pra ajudar os desenvolvedores a entenderem como construir um Relatório de Transparência de Modelos de Fundação, oferecemos exemplos baseados em práticas existentes de empresas líderes de modelos de fundação.
Por exemplo, ao relatar sobre o tamanho dos dados, o modelo BLOOMZ da Hugging Face indica que foi treinado com 363 bilhões de tokens. Além disso, cita ROOTS e xP3 como suas fontes de dados, e direciona os leitores a artigos relevantes pra mais detalhes.
Outro exemplo inclui informações sobre práticas trabalhistas. O GPT-4 da OpenAI detalha seu compromisso de pagar os trabalhadores de forma justa, permitindo que eles optem por não participar de tarefas desagradáveis e estudando o bem-estar dos trabalhadores. Esse nível de transparência pode ajudar a fortalecer a confiança do público.
Em termos de impacto ambiental, o modelo Llama 2 da Meta informa os usuários sobre seu consumo de energia e emissões de carbono. Essas divulgações podem ajudar as partes interessadas a entender as implicações mais amplas do desenvolvimento e implantação de modelos de fundação.
Conclusão
Com o rápido crescimento dos modelos de fundação e sua crescente influência na sociedade, a importância da transparência não pode ser subestimada. Ao adotar relatórios de transparência padronizados, os desenvolvedores podem fornecer informações críticas às partes interessadas e formuladores de políticas.
Esses relatórios ajudarão a construir confiança em modelos de fundação e garantir responsabilidade à medida que a tecnologia continua a melhorar e evoluir. Aprendendo com experiências passadas em outras indústrias, particularmente nas redes sociais, podemos promover uma cultura de transparência que beneficie todos os envolvidos no ecossistema.
Título: Foundation Model Transparency Reports
Resumo: Foundation models are critical digital technologies with sweeping societal impact that necessitates transparency. To codify how foundation model developers should provide transparency about the development and deployment of their models, we propose Foundation Model Transparency Reports, drawing upon the transparency reporting practices in social media. While external documentation of societal harms prompted social media transparency reports, our objective is to institutionalize transparency reporting for foundation models while the industry is still nascent. To design our reports, we identify 6 design principles given the successes and shortcomings of social media transparency reporting. To further schematize our reports, we draw upon the 100 transparency indicators from the Foundation Model Transparency Index. Given these indicators, we measure the extent to which they overlap with the transparency requirements included in six prominent government policies (e.g., the EU AI Act, the US Executive Order on Safe, Secure, and Trustworthy AI). Well-designed transparency reports could reduce compliance costs, in part due to overlapping regulatory requirements across different jurisdictions. We encourage foundation model developers to regularly publish transparency reports, building upon recommendations from the G7 and the White House.
Autores: Rishi Bommasani, Kevin Klyman, Shayne Longpre, Betty Xiong, Sayash Kapoor, Nestor Maslej, Arvind Narayanan, Percy Liang
Última atualização: 2024-02-25 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2402.16268
Fonte PDF: https://arxiv.org/pdf/2402.16268
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://www.wsj.com/articles/SB114002162437674809
- https://www.aclu.org/press-releases/internal-report-finds-flagrant-national-security-letter-abuse-fbi
- https://www.theguardian.com/world/2013/jun/06/nsa-phone-records-verizon-court-order
- https://wfanet.org/knowledge/item/2020/09/23/WFA-and-platforms-make-major-progress-to-address-harmful-content
- https://googleblog.blogspot.com/2010/04/greater-transparency-around-government.html
- https://extfiles.etsy.com/Press/reports/Etsy_TransparencyReport_2014.pdf
- https://www.eff.org/who-has-your-back-2016
- https://wordpress.com/blog/2015/06/17/a-perfect-eff-score-were-proud-to-have-your-back/
- https://rankingdigitalrights.org/index2015/
- https://www.newamerica.org/oti/policy-papers/the-transparency-reporting-toolkit/
- https://blog.twitter.com/official/en_us/a/2016/advancing-transparency-with-more-insightful-data.html
- https://carnegieendowment.org/2023/11/29/stalled-machines-of-transparency-reporting-pub-91085
- https://blog.twitter.com/en
- https://cyberlaw.stanford.edu/blog/2021/03/some-humility-about-transparency
- https://transparency.twitter.com/dsa-transparency-report.html
- https://ctan.org/pkg/pifont
- https://www.github.com/stanford-crfm/fmti
- https://crfm.stanford.edu/fmti
- https://github.com/stanford-crfm/fmti/blob/main/fmti-indicators.csv
- https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/
- https://www.whitehouse.gov/wp-content/uploads/2023/07/Ensuring-Safe-Secure-and-Trustworthy-AI.pdf
- https://www.whitehouse.gov/briefing-room/statements-releases/2023/09/12/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-eight-additional-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/
- https://www.whitehouse.gov/wp-content/uploads/2023/09/Voluntary-AI-Commitments-September-2023.pdf
- https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf
- https://www.democrats.senate.gov/imo/media/doc/schumer_ai_framework.pdf
- https://www.blumenthal.senate.gov/imo/media/doc/09072023bipartisanaiframework.pdf
- https://www.congress.gov/bill/118th-congress/house-bill/5628/all-info?s=2&r=1
- https://docs.google.com/document/d/1A1bJ1mkIfE3eZuSbDmz3HGVtOvQDegHl53q3ArO7m44/
- https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB294
- https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf
- https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm
- https://ised-isde.canada.ca/site/ised/en/voluntary-code-conduct-responsible-development-and-management-advanced-generative-ai-systems
- https://english.kyodonews.net/news/2023/10/3b83adf1e28d-japans-ai-draft-guidelines-ask-for-measures-to-address-overreliance.html
- https://indiaai.s3.ap-south-1.amazonaws.com/docs/generative-ai-report.pdf
- https://ai.gov.ae/wp-content/uploads/2023/04/406.-Generative-AI-Guide_ver1-EN.pdf
- https://fpf.org/blog/how-data-protection-authorities-are-de-facto-regulating-generative-ai/
- https://www.gov.uk/government/publications/ai-foundation-models-initial-report
- https://www.ftc.gov/business-guidance/blog/2023/08/cant-lose-what-you-never-had-claims-about-digital-ownership-creation-age-generative-ai
- https://colaboracion.dnp.gov.co/CDT/Conpes/Econ
- https://mcit.gov.eg/Upcont/Documents/Publications_672021000_Egypt-National-AI-Strategy-English.pdf
- https://ai-innovation.id/images/gallery/ebook/stranas-ka.pdf
- https://www.niti.gov.in/sites/default/files/2019-01/NationalStrategy-for-AI-Discussion-Paper.pdf
- https://oecd.ai/en/dashboards/overview
- https://www.ohchr.org/en/statements/2023/07/artificial-intelligence-must-be-grounded-human-rights-says-high-commissioner
- https://www.ohchr.org/sites/default/files/documents/publications/guidingprinciplesbusinesshr_en.pdf
- https://indonesia.un.org/sites/default/files/2023-07/our-common-agenda-policy-brief-gobal-digi-compact-en.pdf
- https://www.whitehouse.gov/briefing-room/statements-releases/2023/05/20/g7-hiroshima-leaders-communique/
- https://www.politico.eu/wp-content/uploads/2023/09/07/3e39b82d-464d-403a-b6cb-dc0e1bdec642-230906_Ministerial-clean-Draft-Hiroshima-Ministers-Statement68.pdf
- https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
- https://wp.oecd.ai/app/uploads/2021/06/G20-AI-Principles.pdf
- https://oecd.ai/en/ai-principles
- https://www.anthropic.com/index/claudes-constitution
- https://www.anthropic.com/index/core-views-on-ai-safety
- https://inflection.ai/safety
- https://openai.com/research/cooperation-on-safety
- https://openai.com/policies/supplier-code
- https://cohere.com/responsibility
- https://docs.cohere.com/docs/usage-guidelines
- https://stability.ai/blog/stability-ai-letter-us-senate-ai-oversight
- https://republicans-science.house.gov/_cache/files/5/5/551f066b-4483-4efd-b960-b36bc02d4b66/B82DBAFFA56F31799E058FB2755C2348.2023-06-22-mr.-delangue-testimony.pdf
- https://ai.meta.com/static-resource/responsible-use-guide/
- https://aws.amazon.com/compliance/data-privacy/Privacy_at_AWS_
- https://ai.google/static/documents/ai-principles-2022-progress-update.pdf
- https://learn.microsoft.com/en-us/legal/cognitive-services/language-service/transparency-note
- https://www.markey.senate.gov/imo/media/doc/letter_to_artificial_intelligence_companies_on_data_worker_labor_conditions_-_091323pdf1.pdf
- https://techcrunch.com/2023/08/23/meta-and-moderators-agree-to-mediation/
- https://x.com/mercymutemi/status/1678984336996028416?s=46
- https://partnershiponai.org/wp-content/uploads/2022/11/case-study_deepmind.pdf
- https://partnershiponai.org/wp-content/uploads/2021/08/PAI-Responsible-Sourcing-of-Data-Enrichment-Services.pdf
- https://www.fairtrials.org/app/uploads/2022/05/Civil-society-reacts-to-EP-AI-Act-draft-report_FINAL.pdf
- https://freedomhouse.org/report/freedom-net/2023/repressive-power-artificial-intelligence
- https://www.ftc.gov/system/files/ftc_gov/pdf/creative-economy-and-generative-ai-transcript-october-4-2023.pdf
- https://fair.work/wp-content/uploads/sites/17/2022/12/AI-for-fair-work-report-edited.pdf
- https://artificialintelligenceact.eu/the-act/
- https://perma.cc/X2WX-E592
- https://github.com/stanford-crfm/fmti/
- https://docs.ai21.com/docs/jurassic-2-models
- https://docs.ai21.com/docs/responsible-use
- https://uploads-ssl.webflow.com/60fd4503684b466578c0d307/61138924626a6981ee09caf6_jurassic_tech_paper.pdf
- https://www.ai21.com/blog/introducing-j2
- https://docs.ai21.com/docs/responsible-use#usage-guidelines
- https://studio.ai21.com/terms-of-use
- https://studio.ai21.com/privacy-policy
- https://docs.ai21.com/changelog
- https://aws.amazon.com/bedrock/titan/
- https://docs.aws.amazon.com/pdfs/bedrock/latest/APIReference/bedrock-api.pdf#API_ListFoundationModels
- https://aws.amazon.com/aup/
- https://legal.anthropic.com/#aup
- https://vault.pactsafe.io/s/9f502c93-cb5c-4571-b205-1e479da61794/legal.html#aup
- https://console.anthropic.com/docs/api/supported-regions
- https://legal.anthropic.com/#terms
- https://legal.anthropic.com/#privacy
- https://docs.anthropic.com/claude/docs
- https://www.anthropic.com/index/claude-2
- https://www.anthropic.com/earlyaccess
- https://www-files.anthropic.com/production/images/Model-Card-Claude-2.pdf
- https://www.anthropic.com/index/frontier-threats-red-teaming-for-ai-safety
- https://docs.cohere.com/docs/
- https://cohere.com/security
- https://dashboard.cohere.ai/playground/generate
- https://cohere.com/terms-of-use
- https://cloud.google.com/blog/products/ai-machine-learning/accelerating-language-model-training-with-cohere-and-google-cloud-tpus
- https://cohere.com/data-usage-policy
- https://cohere.com/privacy
- https://cohere-inc.secureframetrust.com/
- https://ai.google/static/documents/palm2techreport.pdf
- https://developers.generativeai.google/models/language
- https://policies.google.com/terms/generative-ai/use-policy
- https://developers.generativeai.google/guide/safety_guidance
- https://developers.generativeai.google/products/palm
- https://developers.generativeai.google/available_regions
- https://developers.generativeai.google/terms#content_license_and_data_use
- https://arxiv.org/abs/2211.01786
- https://huggingface.co/docs/transformers/model_doc/bloom
- https://huggingface.co/bigscience/bloom
- https://arxiv.org/abs/2303.03915
- https://arxiv.org/abs/2211.05100
- https://proceedings.neurips.cc/paper_files/paper/2022/file/ce9e92e3de2372a4b93353eb7f3dc0bd-Paper-Datasets_and_Benchmarks.pdf
- https://inflection.ai/assets/Inflection-1.pdf
- https://inflection.ai/inflection-1
- https://inflection.ai/assets/MMLU-Examples.pdf
- https://heypi.com/policy#privacy
- https://arxiv.org/pdf/2307.09288.pdf
- https://github.com/facebookresearch/llama/blob/main/MODEL_CARD.md
- https://openai.com/research/gpt-4
- https://openai.com/policies/usage-policies
- https://openai.com/form/chat-model-feedback
- https://platform.openai.com/docs
- https://openai.com/customer-stories
- https://status.openai.com/
- https://openai.com/policies/terms-of-use
- https://cdn.openai.com/policies/employee-data-privacy-notice.pdf
- https://cdn.openai.com/papers/gpt-4-system-card.pdf
- https://arxiv.org/pdf/2303.08774.pdf
- https://openai.com/research/triton
- https://openai.com/pricing
- https://platform.openai.com/docs/deprecations
- https://openai.com/waitlist/gpt-4-api
- https://openai.com/our-structure
- https://openai.com/api-data-privacy
- https://huggingface.co/stabilityai/stable-diffusion-2
- https://openreview.net/forum?id=M3Y74vmsMcY
- https://huggingface.co/terms-of-service
- https://huggingface.co/stabilityai/stable-diffusion-2/blob/main/LICENSE-MODEL
- https://platform.stability.ai/legal/terms-of-service
- https://stability.ai/use-policy