Uma empresa SaaS de rápido crescimento está tentando melhorar a forma como seu agente de IA lida com problemas recorrentes de clientes...
Eles executam um teste A/B em diferentes respostas geradas por IA:
O Grupo A recebe a resposta do modelo padrão.
O Grupo B vê uma versão com tom e comprimento ajustados.
Parece um experimento inteligente e orientado por dados. Mas, em breve, eles atingem um impasse: o volume é alto o suficiente para se preocupar com a automação, mas muito baixo para obter resultados de teste A/B estatisticamente significativos rapidamente.
Agora eles estão presos. Esperar semanas por dados conclusivos ou reverter e arriscar a frustração contínua dos usuários.
Mas o verdadeiro problema é mais profundo.
Os testes A/B podem ajudar a otimizar características superficiais, como tom, comprimento ou fraseado.
Mas a maioria dos problemas no suporte de IA não são sobre tom, são sobre precisão.
Não adianta testar A/B o tom e o estilo se a resposta em si estiver errada ou tão vaga que seja inútil para o cliente.
A questão central são os "modelos prontos para uso" que ingerem sua base de conhecimento, mas não entendem seu domínio.
Eles não conhecem seu produto por dentro e por fora.
Então, você está preso a melhorar o desempenho por tentativa e erro, ajustando uma resposta de cada vez, adicionando mais recursos, atualizando os existentes, tudo porque o modelo não está ajustado à linguagem do seu domínio e não entende o contexto bem o suficiente para usar o que já está lá.
Por outro lado, ajustar o modelo de IA em suas conversas de suporte reais, linguagem do produto e lógica permite que o agente de IA responda como um membro experiente da equipe, aumentando a precisão e as taxas de desvio para novos patamares.
É isso que fazemos por aqui.