Simple Science

Ciência de ponta explicada de forma simples

# Informática# Computação e linguagem# Inteligência Artificial

Uma Nova Abordagem para Previsão de Aprovação de Patentes

Este artigo apresenta um método baseado em grafos para melhorar as previsões de aprovação de reivindicações de patentes.

― 8 min ler


Previsão de PatentesPrevisão de Patentesatravés de Gráficosprevisão de aprovação de patentes.Método gráfico inovador melhora a
Índice

Entender se uma reivindicação de patente será aprovada ou rejeitada é uma tarefa complicada. As aplicações de patente têm diretrizes específicas e devem atender a padrões legais para proteger a propriedade intelectual. Ultimamente, os grandes modelos de linguagem (LLMs) têm chamado atenção pelo seu potencial em lidar com tarefas envolvendo linguagem natural. No entanto, apenas aumentar o tamanho desses modelos não garante resultados melhores, especialmente em tarefas específicas como a previsão de aprovação de patentes. Este artigo discute um método alternativo que se baseia em entender a estrutura e as dependências dentro das reivindicações de patentes.

Tarefa de Previsão de Aprovação de Patentes

O objetivo da previsão de aprovação de patentes é determinar se cada reivindicação em uma aplicação de patente submetida será aceita ou não. Isso é particularmente importante porque a lei de patentes exige que cada reivindicação seja avaliada por seu próprio mérito. Se uma reivindicação for rejeitada, isso pode impactar o status de outras reivindicações relacionadas. Essa situação exige uma maneira objetiva de analisar as reivindicações, já que os examinadores humanos podem ter interpretações diferentes.

O Papel dos Modelos de Linguagem

Modelos de linguagem, especialmente os LLMs, mostraram promessa em várias tarefas de linguagem natural. Eles funcionam bem para muitas aplicações devido à sua capacidade de entender texto e gerar respostas. No entanto, para tarefas que exigem conhecimento especializado, como a previsão de aprovação de patentes, esses modelos podem não ter um desempenho esperado. Aumentar o tamanho dos modelos geralmente leva a um aumento nos custos computacionais sem necessariamente melhorar a precisão.

Abordagens Baseadas em Gráficos

Para abordar as limitações dos LLMs, adotamos uma abordagem diferente baseada em gráficos. Ao examinar como as reivindicações se relacionam entre si, podemos criar gráficos que representam essas dependências. Cada reivindicação pode ser vista como um nó no gráfico, e as relações entre as reivindicações formam as arestas. Esse método nos permite visualizar e utilizar as conexões entre as reivindicações de maneira mais eficaz.

O Gráfico de Dependência de Reivindicação Fina (FLAN)

Propomos o Gráfico de Dependência de Reivindicação Fina (FLAN) como uma forma de representar reivindicações de patentes e suas interdependências. Este gráfico captura relações detalhadas entre diferentes segmentos dos textos das reivindicações. Cada nó simboliza um segmento importante da reivindicação, e as arestas mostram como esses segmentos interagem entre si. Focando nessas relações, podemos aumentar significativamente a precisão das previsões.

Construção do Gráfico

Para criar o Gráfico FLAN, começamos quebrando cada reivindicação em seus componentes. As reivindicações costumam consistir em subcomponentes que estão intrinsecamente interconectados. O Gráfico FLAN captura tanto as dependências internas (como as partes dentro de uma reivindicação se relacionam) quanto as interdependências entre diferentes reivindicações. O objetivo é criar uma representação abrangente que encapsule todos os detalhes necessários para a tomada de decisão.

Criação de Nós e Arestas

Os nós são formados segmentando o texto da reivindicação de acordo com as quebras naturais na linguagem. Cada segmento é identificado como um (sub)componente específico. Para reivindicações que se referem a outras reivindicações, criamos arestas que conectam essas reivindicações. Esse processo garante que todas as informações relevantes sejam consideradas durante a previsão.

Experimentação e Resultados

Realizamos uma série de experimentos para medir a eficácia do Gráfico FLAN em comparação com abordagens tradicionais de LLM. Os resultados destacam uma diferença significativa de desempenho a favor do Gráfico FLAN. Utilizando uma variedade de Redes Neurais Gráficas (GNNs), o Gráfico FLAN consistentemente demonstrou melhora na precisão das previsões.

Coleta de Dados e Conjunto de Dados

Para nossos experimentos, coletamos aplicações de patentes do mundo real de um banco de dados público. Essas aplicações foram organizadas por suas datas de registro para criar conjuntos de treinamento, validação e teste. Nosso conjunto de dados apresenta uma variedade diversificada de reivindicações, permitindo que avaliássemos a eficácia de nossa abordagem em diversas condições.

Métricas de Avaliação

Para avaliar o desempenho, a Área Sob a Curva (AUC) e a pontuação Macro-F1 foram utilizadas como métricas de avaliação. Essas métricas fornecem uma visão de como nossos modelos podem prever a aprovação das reivindicações. AUC mede a capacidade de distinguir entre reivindicações aprovadas e rejeitadas, enquanto Macro-F1 avalia a precisão geral.

Descobertas e Observações

Através de nossos experimentos, descobrimos que:

  1. Aumentar Modelos Grandes Não É Sempre Eficaz: Simplesmente usar modelos maiores não garante resultados melhores para a previsão de aprovação de patentes. Na verdade, muitos dos modelos ampliados tiveram desempenho semelhante ou pior do que métodos tradicionais.

  2. O Gráfico FLAN Superou os LLMs: Ao usar o Gráfico FLAN com várias GNNs, alcançamos um desempenho significativamente melhor. A abordagem baseada em gráfico modelou efetivamente as relações entre as reivindicações, levando a previsões mais precisas.

  3. A Engenharia de Recursos é Crucial: Incorporar recursos adicionais relacionados às reivindicações foi essencial para maximizar o desempenho. A combinação do Gráfico FLAN com esses recursos gerou os melhores resultados.

Conclusão

Em resumo, nossa pesquisa destaca as limitações de escalar grandes modelos de linguagem para tarefas especializadas como a previsão de aprovação de patentes. Em vez disso, mostramos as vantagens de utilizar um gráfico bem estruturado que captura as dependências entre as reivindicações. O Gráfico de Dependência de Reivindicação Fina (FLAN) oferece uma alternativa promissora que melhora efetivamente a precisão das previsões.

Ao focar nas relações e estruturas inerentes às reivindicações de patentes, podemos aumentar a capacidade de prever resultados em uma área crítica da propriedade intelectual. Trabalhos futuros serão construídos sobre essas descobertas para investigar ainda mais as forças dos métodos baseados em gráficos e, potencialmente, integrá-los com LLMs.

Trabalhos Futuros

Embora nosso estudo tenha produzido resultados promissores, existem várias áreas para pesquisa futura:

  1. Ampliando o Conjunto de Dados: Testar com uma gama mais ampla de aplicações de patentes pode fornecer uma compreensão mais abrangente da eficácia do Gráfico FLAN em diversos contextos.

  2. Contextos Mais Longos para LLMs: Investigar se alimentar aplicações de patentes completas em LLMs pode gerar melhores resultados em comparação com a abordagem atual em nível de reivindicação.

  3. Integração de Modelos de Gráficos Pré-Treinados: Explorar o uso de modelos pré-treinados dentro da estrutura do gráfico para ver se eles podem aumentar ainda mais o desempenho.

  4. Dados de Patentes Internacionais: Aplicar nossos métodos a dados de patentes de outros países para avaliar a adaptabilidade do Gráfico FLAN além das aplicações dos EUA.

Considerações Éticas

Nossa pesquisa adere a padrões éticos ao utilizar dados de patentes disponíveis publicamente. As fontes utilizadas são legalmente permitidas, garantindo conformidade com as leis de propriedade intelectual. Acreditamos que nosso trabalho contribui positivamente para o campo, melhorando a compreensão e os sistemas de previsão de aprovação de patentes.

Análises Adicionais

Impacto do Aumento de Modelos

Nossa análise sobre o aumento de grandes modelos revelou que, embora modelos maiores possam lidar com grandes quantidades de dados, eles não necessariamente aumentam a precisão das previsões sobre reivindicações de patentes. Examinar vários tamanhos levou à conclusão de que modelos menores poderiam superar seus maiores concorrentes quando devidamente ajustados.

Engenharia de Prompts

A engenharia de prompts para LLMs foi explorada, revelando que a escolha cuidadosa das palavras e da estrutura pode influenciar as previsões feitas por esses modelos. No entanto, os resultados mostraram inconsistências de desempenho com certos prompts, levando a um aumento de falsos negativos.

Aprendizado de Poucos Exemplos

Experimentos com estratégias de aprendizado de poucos exemplos indicaram benefícios potenciais, mas as vantagens não foram uniformes em todas as situações. A complexidade da tarefa significou que mais exemplos nem sempre geravam melhores resultados.

Desempenho do Modelo Gráfico

Testar vários modelos gráficos confirmou que utilizar o Gráfico FLAN criado por meio de nossa abordagem de dependência consistentemente superou modelos mais simples, reforçando o valor de entender as interdependências das reivindicações.

Análise Estatística

Por fim, uma análise estatística detalhada dos resultados mostrou mudanças significativas de desempenho ao passar de métodos tradicionais para o Gráfico FLAN, fazendo um caso claro para sua viabilidade em aplicações futuras nas tarefas de aprovação de patentes.

Ao combinar as percepções obtidas a partir dessas várias análises, defendemos uma mudança em direção a métodos mais baseados em gráficos em tarefas de processamento de linguagem especializadas, particularmente no domínio de patentes e propriedade intelectual.

Fonte original

Título: Beyond Scaling: Predicting Patent Approval with Domain-specific Fine-grained Claim Dependency Graph

Resumo: Model scaling is becoming the default choice for many language tasks due to the success of large language models (LLMs). However, it can fall short in specific scenarios where simple customized methods excel. In this paper, we delve into the patent approval pre-diction task and unveil that simple domain-specific graph methods outperform enlarging the model, using the intrinsic dependencies within the patent data. Specifically, we first extend the embedding-based state-of-the-art (SOTA) by scaling up its backbone model with various sizes of open-source LLMs, then explore prompt-based methods to harness proprietary LLMs' potential, but find the best results close to random guessing, underlining the ineffectiveness of model scaling-up. Hence, we propose a novel Fine-grained cLAim depeNdency (FLAN) Graph through meticulous patent data analyses, capturing the inherent dependencies across segments of the patent text. As it is model-agnostic, we apply cost-effective graph models to our FLAN Graph to obtain representations for approval prediction. Extensive experiments and detailed analyses prove that incorporating FLAN Graph via various graph models consistently outperforms all LLM baselines significantly. We hope that our observations and analyses in this paper can bring more attention to this challenging task and prompt further research into the limitations of LLMs. Our source code and dataset can be obtained from http://github.com/ShangDataLab/FLAN-Graph.

Autores: Xiaochen Kev Gao, Feng Yao, Kewen Zhao, Beilei He, Animesh Kumar, Vish Krishnan, Jingbo Shang

Última atualização: 2024-04-22 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2404.14372

Fonte PDF: https://arxiv.org/pdf/2404.14372

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes