Como aumentar a confiabilidade dos chatbots baseados em LLM

    Escrito por Livio Pugliese

    24 / 11 / 23

    O que é speech to text e quais suas vantagens? Confira

    ChatGPT e seus similares estão sendo usados ​​cada vez mais em chatbots para atendimento ao cliente. É fascinante e assustador ao mesmo tempo. Como podemos eliminar o terror da equação?

    No último ano, após o primeiro lançamento do ChatGPT, houve uma explosão de chatbots baseados em Large Language Models (LLM). A adoção da tecnologia LLM em IA conversacional está realmente revolucionando a indústria, com uma experiência de usuário muito melhor do que antes. Esses chatbots prometem maravilhas para aplicações muito diversas, que vão desde o atendimento ao cliente à tradução simultânea e entrega de informações gerais, servindo para qualquer serviço de prestação de informação ao público em linguagem natural, seja ele baseado em texto ou voz.

    Mas nem tudo é perfeito no campo da IA ​​para atendimento ao cliente: existem também falhas e desafios significativos. Neste artigo, procuro explicar alguns dos principais problemas e sugerir possíveis maneiras para resolvê-los.

    A previsibilidade dos “Grandes Modelos de Linguagem”

    LLMs são uma enorme coleção de fragmentos de informação, que o algoritmo de inteligência artificial conecta de forma estatística. Para fornecer respostas, o algoritmo segue o caminho mais provável para conectar um determinado fragmento à outro, partindo da pergunta e considerando o seu contexto: quem está perguntando, qual é o cenário da pergunta… Esse processo nem sempre leva a um resultado previsível, como normalmente acontece quando há estatísticas envolvidas.

    Para alguns casos de uso, isso não seria um problema intransponível se as respostas dos chatbots baseados em LLM mudarem de uma para a outra. Um resumo de uma conversa, por exemplo, pode ser apresentado de muitas maneiras diferentes, todas bastante precisas. Ou um produto pode ser recomendado por um algoritmo baseado em LLM com diferentes palavras e frases.

    Mas existem muitas outras aplicações, mais relacionadas com as principais capacidades de atendimento ao cliente, onde o rigor das repsostas é fundamental e um erro pode ter um custo elevado: sempre que há implicações legais, por exemplo, ou quando o chatbot é usado como uma primeira interação para que alguém possa obter um empréstimo, por exemplo. Nestes casos, embora o potencial dos algoritmos baseados em LLM seja claro, o risco deve ser mitigado.

    Sensibilidade dos chatbots LLM às suas contribuições

    A linguagem que usamos é fluida e normalmente há muitas maneiras de dizer a mesma coisa. Em português, assim como em outras línguas, existem expressões idiomáticas, metáforas e sinônimos que todos usam, talvez sem perceber. Assim, pessoas diferentes usarão palavras diferentes em momentos diferentes para fazer uma pergunta a um chatbot, dependendo também do nível de escolaridade do locutor, do seu humor, da sua idade, de onde vive, etc.

    Naturalmente isso complica muito as coisas quando se fala com um chatbot baseado em LLM, que depende da frase de entrada para encontrar a resposta: a mesma pergunta pode assumir significados completamente diferentes dependendo das palavras utilizadas. O resultado é que, pelo menos por enquanto, você não poderá confiar muito em um chatbot baseado em LLM para atendimento ao cliente em contextos em que a precisão seja extremamente importante.

    Uma solução: padronizar a entrada

    Enviar a um chatbot baseado em LLM sempre as mesmas palavras para a mesma pergunta resolveria um pouco do problema de precisão das respostas. Obviamente isso não é possível quando o chatbot responde a alguma dúvida ou questão colocada pelo usuário, com um tópico livre. Mas é possível, e até relativamente fácil, se as perguntas e respostas se referirem a um domínio específico, como atendimento ao cliente. Neste caso, propomos colocar um sistema de direcionamento de chamadas, que utiliza linguagem natural para determinar a intenção do usuário, na frente do chatbot baseado em LLM. Quando o sistema de direcionamento de chamadas determina a intenção do chamador – mesmo através de um diálogo bastante complexo – ele envia ao chatbot uma pergunta padronizada para essa intenção, que terá sido otimizada para produzir a resposta mais útil.

    A Interactive Media tem muita experiência com aplicativos de conversação e possui uma estrutura e processo padrão para implementação de aplicativos de direcionamento de chamadas. Por essa razão, criamos uma plataforma completa para ajudar os usuários a interagir com um chatbot LLM em um ambiente de atendimento ao cliente. Integramos o PhoneMyBot – serviço da Interactive Media que implementa um canal de voz para qualquer chatbot – com a nossa plataforma de direcionamento de chamadas, MIND. Adicionamos a essa integração o chatbot LLM, que realiza a parte do atendimento ao cliente. Quando um usuário liga, o chatbot aciona o MIND, que faz perguntas ao usuário a fim de identificar com precisão a intenção da chamada. Na sequência, o MIND classifica as respostas fornecidas em uma das intenções disponíveis no domínio e, em seguida, envia ao PhoneMyBot a pergunta padrão a ser feita ao chatbot. O PhoneMyBot então recebe a resposta do chatbot e a repassa ao usuário.

    Essa técnica aumenta a qualidade e a precisão das respostas do chatbot LLM, tornando-as mais adequadas para trabalhar em um ambiente de atendimento ao cliente.

    Adoraríamos conversar com você sobre essa solução e fornecer mais detalhes! Entre em contato agora mesmo clicando no botão abaixo!

    Outros artigos

    Outros artigos

    Introdução aos voicebots e sua evolução

    Introdução aos voicebots e sua evolução

    Introdução aos voicebots e sua evolução Voicebots, ou assistentes virtuais ativados por voz, tornaram-se uma presença cada vez mais comum em nossa vida diária. Eles respondem a perguntas, facilitam tarefas, e estão revolucionando a maneira como interagimos com a...

    ler mais