Simple Science

Scienza all'avanguardia spiegata semplicemente

# Informatica# Intelligenza artificiale# Basi di dati# Recupero delle informazioni# Logica nell'informatica

Migliorare l'accuratezza nei sistemi di domande e risposte

Combinare i LLM con i grafo di conoscenza migliora l'accuratezza delle risposte nei sistemi di dati.

― 7 leggere min


Migliorare i sistemi diMigliorare i sistemi dirisposta AIontologia e LLM.Aumentare la precisione con tecniche di
Indice

I sistemi di risposta alle domande stanno diventando sempre più popolari e potenti, soprattutto quelli che usano i Modelli Linguistici di Grandi Dimensioni (LLM). Questi sistemi mirano a fornire risposte precise alle domande degli utenti basandosi su informazioni immagazzinate in database. Un miglioramento significativo in questi sistemi deriva dall'uso di grafi della conoscenza, che organizzano e collegano i dati in un modo che le macchine possono comprendere meglio.

La Sfida delle Risposte Accurate

Studi recenti hanno dimostrato che i sistemi che utilizzano LLM combinati con un grafo della conoscenza possono fornire risposte più accurate rispetto a quelli che si basano direttamente su database tradizionali. Per esempio, la ricerca ha indicato che l'uso di un grafo della conoscenza ha aumentato l'accuratezza delle risposte dal 16% al 54%. Nonostante questo miglioramento, c'è ancora spazio per crescere.

La domanda centrale è: come possiamo rendere questi sistemi ancora migliori nel fornire risposte accurate? Un'osservazione di lavori precedenti suggeriva che gli LLM a volte producevano query errate che si allontanavano dal percorso corretto nel grafo della conoscenza. Questa osservazione ha portato a un approccio in due fasi per migliorare l'accuratezza.

Due Approcci per Migliorare l'Accuratezza

  1. Controllo delle Query Basato su Ontologia (OBQC): Questo metodo mira a identificare errori nelle query generate dall'LLM confrontandole con le regole definite nell'ontologia del grafo della conoscenza. L'ontologia è come un insieme di linee guida che definisce come diversi pezzi di dati si relazionano tra loro.

  2. Riparazione dell'LLM: Se una query viene trovata errata dall'OBQC, il passo successivo è correggerla. Questo processo di riparazione usa spiegazioni dal primo metodo per aiutare l'LLM a creare una query corretta.

Grazie a questi metodi, l'accuratezza complessiva dei sistemi è aumentata al 72%, con un ulteriore 8% di risposte di “non lo so”, risultando in un tasso di errore complessivo del 20%. Questi risultati supportano l'idea che l'uso di conoscenza strutturata, come le Ontologie, sia fondamentale per migliorare le performance dei sistemi di risposta alle domande alimentati da LLM.

L'Importanza dei Sistemi Esperti

Gli utenti aziendali vogliono un esperto affidabile disponibile a rispondere alle loro domande in modo preciso. Per soddisfare questa domanda, è stata condotta una ricerca significativa su come rispondere a domande da fonti di dati strutturati come i database SQL. La crescita dell'IA Generativa e degli LLM sottolinea ulteriormente questa necessità di sistemi affidabili e accurati.

Combinare LLM con grafi della conoscenza ha dimostrato di migliorare significativamente l'accuratezza delle risposte fornite. Infatti, le imprese che usano questa combinazione hanno riportato un aumento di tre volte nell'accuratezza rispetto ai sistemi che non utilizzano grafi della conoscenza. Mentre le aziende cercano di implementare sistemi di risposta alle domande efficaci, migliorare l'accuratezza è essenziale per la fiducia e la soddisfazione degli utenti.

Osservare i Modelli negli Errori

Da precedenti scoperte, sono emersi specifici modelli su come le query generate dagli LLM possono fallire. Un errore comune è un percorso errato, dove la query generata non si allinea con le relazioni definite nell'ontologia. Per esempio, nel settore delle assicurazioni, una relazione corretta nell'ontologia potrebbe affermare che una polizza è venduta da un agente. Se l'LLM genera una query che implica il contrario-che un agente è venduto da una polizza-indica un disallineamento con l'ontologia.

Un esempio di domanda potrebbe essere, “Restituisci tutte le polizze che un agente ha venduto.” Se la query SPARQL risultante non si allinea con l'ontologia, l'OBQC può controllare la validità della query applicando le regole definite nell'ontologia.

Come Funziona il Controllo delle Query Basato su Ontologia

Il metodo OBQC comprende diversi passi chiave:

  • Riconoscimento dei Modelli: Prima, il sistema analizza la query SPARQL generata e identifica i Modelli di Grafico Base (BGP) al suo interno. Questo passo si concentra sulla comprensione delle relazioni definite nella query.

  • Costruzione del Grafo: Il passo successivo implica la creazione di un grafo congiuntivo che rappresenta la query e l'ontologia. Questo consente al sistema di esaminare quanto bene la query aderisca alle regole dell'ontologia.

  • Regole di Coerenza: Infine, l'OBQC applica regole logiche basate sull'ontologia per verificare se la query segue le linee guida stabilite. Se vengono identificate discrepanze, il sistema genera spiegazioni per il motivo per cui la query non si allinea con la struttura dell'ontologia.

Tipi di Regole nell'OBQC

Diverse regole vengono utilizzate nel processo OBQC:

  • Regola di Dominio: Se una proprietà ha un dominio definito nell'ontologia, il soggetto di qualsiasi tripla che usa quella proprietà deve appartenere a quel dominio. Questa regola aiuta a garantire che le relazioni definite nell'ontologia siano rispettate.

  • Regola di Intervallo: Simile alla regola di dominio, se una proprietà ha un intervallo specificato nell'ontologia, l'oggetto della tripla deve essere un membro di quello intervallo.

  • Regola di Dominio/Intervallo Doppio: Questa regola controlla i conflitti nei requisiti per il dominio e l'intervallo delle proprietà, assicurando che le relazioni tra i dati rimangano coerenti.

  • Regola di Proprietà Errata: Tutte le proprietà incluse nella query devono esistere nell'ontologia. Questa regola previene che gli utenti formulino query con proprietà non definite.

Il Ruolo della Riparazione dell'LLM

Una volta che l'OBQC identifica problemi nelle query generate, il passo successivo è ripararle. Questo richiede un processo ben congegnato in cui vengono generate spiegazioni per gli errori. L'LLM poi prova a creare una nuova query SPARQL corretta in base ai feedback ricevuti.

Il processo di riparazione è un ciclo che continua fino a quando la query supera il controllo dell'OBQC o raggiunge un limite di tre tentativi. Questo approccio assicura che, se una query non può essere riparata efficacemente, il sistema riconosca l'incertezza piuttosto che fornire una risposta potenzialmente errata.

Impostazione Sperimentale e Risultati

Per valutare l'efficacia dei metodi OBQC e Riparazione dell'LLM, sono stati condotti esperimenti basati su un dataset di riferimento. Il dataset consisteva di domande in linguaggio naturale relative a uno schema SQL aziendale, insieme a un'ontologia che descriveva i concetti aziendali nel settore delle assicurazioni.

Questo benchmark ha permesso una valutazione approfondita di come il sistema combinato ha performato rispetto a vari tipi di domande e complessità degli schemi.

I risultati hanno mostrato miglioramenti promettenti:

  • L'accuratezza complessiva ha raggiunto il 72,55%, con una notevole riduzione del tasso di errore a circa il 20%.
  • Il sistema ha performato bene attraverso diverse complessità delle domande, dimostrando il suo potenziale per applicazioni pratiche in scenari reali.

Riconoscere Errori Comuni

Come parte dell'analisi sperimentale, i ricercatori hanno notato i vari tipi di errori che si sono verificati nelle query generate. I risultati hanno evidenziato che il 70% delle riparazioni proveniva da controlli legati all'ontologia, concentrandosi in particolare sulle regole relative al dominio. Al contrario, le regole relative all'intervallo hanno contribuito a meno dell'1% delle riparazioni.

Questo modello suggerisce che molte imprecisioni sorgono all'inizio delle query generate, probabilmente a causa della tendenza dell'LLM a fraintendere le relazioni tra diversi punti dati. I risultati indicano la necessità di miglioramenti su come le query vengono generate e comprese dall'LLM.

L'Impatto delle Risposte Accurate

Avere risposte accurate è cruciale per migliorare l'esperienza utente quando si interagisce con i dati. Gli utenti preferiscono risposte chiare, valide e comprensibili. Migliorando l'accuratezza, le organizzazioni possono favorire una maggiore fiducia nelle soluzioni AI.

I metodi OBQC e Riparazione dell'LLM sono componenti di un sistema più ampio che consente agli utenti di fare domande complesse e ricevere risposte coerenti e significative. Questo progresso verso sistemi più affidabili è vitale per le imprese che cercano di sfruttare efficacemente le tecnologie di intelligenza artificiale generativa.

Conclusione: La Strada da Fare

Lo studio sottolinea l'importanza di investire in sistemi di conoscenza strutturata come ontologie e grafi della conoscenza. Tali investimenti non sono solo fondamentali per migliorare l'accuratezza dei sistemi di risposta alle domande alimentati da LLM, ma aprono anche la strada a applicazioni AI più affidabili ed efficaci.

In futuro, vedremo probabilmente ulteriori progressi nel perfezionare questi modelli, espandendo l'uso delle ontologie e sviluppando strumenti che forniscono costantemente risposte accurate e pertinenti. Man mano che questi sistemi continuano a evolversi, hanno un grande potenziale per trasformare il modo in cui le organizzazioni interagiscono con i loro dati, migliorando alla fine i processi decisionali e i risultati aziendali.

Concentrandosi sull'integrazione di strutture dati robuste e un'elaborazione intelligente delle query, le organizzazioni possono garantire di rimanere all'avanguardia nelle innovazioni AI, capaci di soddisfare le crescenti domande di informazioni accurate e affidabili.

Fonte originale

Titolo: Increasing the LLM Accuracy for Question Answering: Ontologies to the Rescue!

Estratto: There is increasing evidence that question-answering (QA) systems with Large Language Models (LLMs), which employ a knowledge graph/semantic representation of an enterprise SQL database (i.e. Text-to-SPARQL), achieve higher accuracy compared to systems that answer questions directly on SQL databases (i.e. Text-to-SQL). Our previous benchmark research showed that by using a knowledge graph, the accuracy improved from 16% to 54%. The question remains: how can we further improve the accuracy and reduce the error rate? Building on the observations of our previous research where the inaccurate LLM-generated SPARQL queries followed incorrect paths, we present an approach that consists of 1) Ontology-based Query Check (OBQC): detects errors by leveraging the ontology of the knowledge graph to check if the LLM-generated SPARQL query matches the semantic of ontology and 2) LLM Repair: use the error explanations with an LLM to repair the SPARQL query. Using the chat with the data benchmark, our primary finding is that our approach increases the overall accuracy to 72% including an additional 8% of "I don't know" unknown results. Thus, the overall error rate is 20%. These results provide further evidence that investing knowledge graphs, namely the ontology, provides higher accuracy for LLM powered question answering systems.

Autori: Dean Allemang, Juan Sequeda

Ultimo aggiornamento: 2024-05-19 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2405.11706

Fonte PDF: https://arxiv.org/pdf/2405.11706

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Articoli simili