Come aumentare l’affidabilità dei chatbot basati su LLM

Scritto da Livio Pugliese

Novembre 24, 2023

ChatGPT e i suoi fratelli vengono usati per sempre più servizi per il pubblico. È affascinante e terrificante nello stesso tempo. Come possiamo eliminare il terrore?

Nel Corso dell’ultimo anno, dopo il primo rilascio di ChatGPT, c’è stata un’esplosione di chatbot basati su Large Language Models (LLM). L’adozione della tecnologia LLM nell’intelligenza artificiale conversazionale sta davvero rivoluzionando il settore, con un’esperienza dell’utente molto migliore di quella che era prima. Questi chatbot promettono meraviglie per applicazioni molto diverse, dal servizio al cliente alla traduzione simultanea alla sanità, insomma per qualunque servizio per fornire informazioni al pubblico in linguaggio naturale, sia a voce che per scritto.

Ma non tutto è perfetto nel campo dell’IA per il servizio ai clienti: rimangono difetti piuttosto gravi. In quest’articolo cerco di spiegare alcuni dei problemi principali e suggerire possibili soluzioni per mitigarli, se non risolverli.

La predicibilità dei “Large Language Models”

Gli LLM sono collezioni enormi di frammenti di informazione, che l’algoritmo di intelligenza artificiale collega in maniera statistica. Per fornire le risposte, l’algoritmo prende il cammino più probabile per andare da un frammento ad un altro, a seconda della domanda e considerando il suo contesto. Questo processo non porta sempre a un risultato predicibile, come capita di solito quando si gioca sulla statistica.

Per certi casi d’uso, non è un problema insormontabile se le risposte da un chatbot basato su LLM cambiano da una all’altra. Per esempio, il riassunto di una conversazione può essere reso in vari modi, senza mancare di accuratezza. Oppure un prodotto può essere raccomandato da un algoritmo basato su LLM con frasi e parole diverse.

Ma ci sono altre applicazioni, più collegate all’assistenza al cliente, dove la precisione delle risposte è fondamentale e un errore può avere un costo alto: ogni volta che ci possono essere conseguenze legali, per esempio, o quando il chatbot viene usato come il primo livello di interazione quando l’utente cerca di avere un prestito. In questi casi, mentre la promessa degli algoritmi basati su LLM è chiara, bisogna ridurre il rischio.

Sensibilità dei chatbot LLM al loro input

La lingua che usiamo è fluida, e ci sono normalmente molti modi di dire la stessa cosa. Come nelle altre lingue, in italiano ci sono modi di dire, metafore e sinonimi che tutti usano, magari senza rendersene conto. Quindi persone diverse useranno parole diverse in diversi momenti per fare una domanda a un chatbot, anche secondo il livello di istruzione del parlante, il suo stato d’animo, la sua età, dove abita, eccetera.

Naturalmente questo complica le cose assai quando si parla con un chatbot basato su LLM, che dipende dalla frase in ingresso per trovare la risposta: la stessa domanda può assumere significati completamente diversi a seconda delle parole usate. Il risultato è che, almeno per ora, quando la precisione è importante non ci si può fidare un granché di un chatbot basato su LLM per il servizio clienti.

Una soluzione: standardizzare l’input

Mandare a un chatbot basato su LLM sempre le stesse parole per la stessa domanda sarebbe un bel passo avanti nel risolvere il problema della precisione delle risposte. Questo non è ovviamente possibile quando il chatbot risponde a domande qualsiasi, con un argomento libero. Ma è possibile, ed anche relativamente facile, se le domande e le risposte si riferiscono a un dominio preciso, come quello del servizio ai clienti. In questo caso, proponiamo di piazzare un sistema di call steering, che usa il linguaggio naturale per determinare l’intento degli utenti, davanti al chatbot basato su LLM. Quando il sistema di call steering determina l’intento del chiamante, anche attraverso un dialogo abbastanza complesso, manda al chatbot una domanda standardizzata per quell’intento, che sarà stata ottimizzata per produrre la risposta più utile.

Interactive Media ha molta esperienza di applicazioni conversazionali, e ha una struttura e un processo standard per l’implementazione di applicazioni di call steering. Quindi, abbiamo messo a punto una piattaforma completa per aiutare gli utenti ad interagire con un chatbot LLM in applicazioni di servizio al cliente. Abbiamo integrato PhoneMyBot con la nostra piattaforma di call steering MIND e con il chatbot LLM, che svolge la parte di servizio al cliente vera e propria. Quando un utente chiama il numero del servizio, risponde  MIND, che fa delle domande per individuare con precisione l’intento della chiamata. Una volta fatto questo, MIND manda a PhoneMyBot il testo della domanda da fare al chatbot. PhoneMyBot poi riceve la risposta dal chatbot e la passa all’utente.

Questa tecnica aumenta la qualità e la precisione delle risposte dei chatbot LLM, rendendoli piu’ adatti a lavorare in un ambiente di servizio al cliente.

Ci farebbe molto piacere parlarvi di questa soluzione e darvi maggiori dettagli: se interessati, contattate Interactive Media a info@imnet.com o cliccate sul pulsante qui sotto.

Altri articoli

Altri articoli

Io e il Text-to-Speech: la mia esperienza storica

Io e il Text-to-Speech: la mia esperienza storica

L'autore fa parte del team che ha fondato Interactive Media nel 1996 ed è l'amministratore delegato dell’azienda. Interactive Media è uno sviluppatore e fornitore globale di applicazioni vocali.  Interactive Media ha una lunga storia nello sviluppo di applicazioni...

leggi tutto

Interactive Media S.p.A. • Sede Legale Viale Città d’Europa, 679 - 00144 Roma (Italy) • P.IVA 05057871005 • Cap. Sociale € 366.300,00 I.V. • Registro REA RM 834515  • PEC interactivemedia@pec.it