A big experiência

Autor: Eric Esquível
Muito tem se falado, ultimamente, sobre big data. A tendência tem se propagado rapidamente e eu acho curioso como duas palavras – ou uma sigla – já bastam para descrever algo tão complexo.
A explicação sobre o uso de “grandes volumes de dados” pode ser esclarecida como: “extrair insights de uma grande quantidade de arquivos e informações, não indexados, que estão presentes nas empresas há muito tempo” (ex: arquivos de texto de chat, email, documentos, planilhas, etc). Porém, além de entender, como será que as empresas estão utilizando todas essas informações?
Para exemplo, irei me ater aqui somente ao “grande volume de dados” que existe nas gravações de áudio referentes aos atendimentos nos contact center. Imagine uma empresa com 35 mil horas de gravação; referente a três meses de atendimento ao cliente.
Agora, tente imaginar o trabalho torturante das diversas pessoas que têm a função de escutar mil, duas mil horas de áudio por mês, para então preencher um relatório avaliando diversos pontos, destinado à garantia da qualidade do atendimento prestado em cada gravação de, por exemplo, 120 segundos (uso de gerúndio, cortesia, esclarecimento, conhecimento do negócio, reclamação e etc). É de conhecimento de todo mundo que, algumas modalidades de serviço são obrigadas – por Lei – a informar o número do protocolo. Mas, será que o atendente está informando o protocolo de forma coerente e audível para os clientes?
Uma maneira de selecionar gravações para realizar um processo de monitoria de qualidade é criando recortes genéricos, como: mapear todas as gravações com tempo de atendimento de “X” segundos, de clientes segmento “Y”, do produto/habilidade/fila “M”.
Dentro do grande arquivo de áudio de 35 mil horas, vamos imaginar que 679 gravações se enquadrem nestes critérios. Após esse primeiro filtro, quantas pessoas serão necessárias para escutar, avaliar, analisar e documentar os ´insights´ de 679 gravações? Será que todas essas interações são as mais adequadas para essa avaliação?  Em quantas o cliente foi muito bem atendido, e mal atendido? Realmente é um grande desafio.
Para ajudar nesse processo, existem tecnologias como phonetic speech analysis e voice-to-text analysis, que possibilitam efetuar a escuta automatizada de grandes arquivos de áudio. Algumas destas tecnologias podem efetuar a escuta de nove mil horas de gravação a cada 24 horas de processamento de um servidor dedicado para esta finalidade. Demandas maiores, ou em janelas de tempo menores, são atendidas com diversos servidores em processamento paralelo.
Phonetic speech analytics – ou análise de fala natural – é a primeira abordagem comercialmente viável que permite que as empresas tirem informações importantes –   em tempo real – das interações verbais com seus clientes e público em geral. A tecnologia suporta a realização de pesquisas sequênciais de fonemas (sons da fala), que formam palavras e frases dentro de um fluxo de fala ao vivo ou gravada, em conversas telefônicas ou teleconferências. Ele pode ser configurado para “escutar” as centenas de horas de áudio (no big data armazenado nos arquivos de gravação) em poucos minutos. Os resultados são marcados de tal maneira que um usuário pode ver em qual parte do conteúdo de áudio selecionado contém as frases ou expressões que foram pesquisadas.
Mais importante ainda, a tecnologia “phonetic speech analysis” permite analises próximas ao “tempo real (near real-time)”. Isso é fundamental no ambiente empresarial de hoje, porque nos níveis tático e estratégico, as empresas devem ser capazes de extrair informações, insights e agir tão rápido quanto possível, a fim de alcançar e manter uma vantagem competitiva.
Por outro lado, a análise “voice-to-text – audio transcription” exige uma etapa intermediária de transcrição de voz para texto e da criação e manutenção contínua de dicionários de palavras. Para algumas organizações, estes podem ser fatores limitantes, porque a manutenção de tanto arquivos de texto e voz consome recursos de CPU.
Agora, imagine adicionar – a essas tecnologias – a capacidade de gerar recortes mais finos, como selecionar, apenas, as gravações com a seguinte frase – “Não aceito esta taxa”, “desejo cancelar esse serviço”; “parabéns, estou muito satisfeito”, etc.
Assim, juntamente com a tendência do big data, o mercado criou outro termo: The Voice of Consumer – A Voz do Consumidor (VoC). A Monitoria de Qualidade é fundamental para que uma empresa tenha um processo de ´coaching´ e treinamento dos agentes eficientes. É importante ter em mente também que, para manter a “Satisfação de Cliente”, é necessário escutar a voz do cliente e entender quais os motivos de sua satisfação, insatisfação ou indiferença.
As tecnologias de phonetic speech analysis e voice-to-text analysis podem – e devem – ser usadas para avaliar os diversos aspectos dos processos de atendimento, como a monitoria de qualidade, por exemplo. Somado a isso, uma empresa alcança excelência no seu atendimento, se do outro lado da linha estiver um agente também satisfeito. Esse profissional precisa ser constantemente treinado, capacitado, conhecer a fundo as políticas da empresa e se sentir bem no ambiente de trabalho. Com as ferramentas corretas, tecnologia de ponta e funcionários satisfeitos, com certeza seu cliente terá uma “big experiência”.
Eric Esquível é gerente de aplicações da Avaya Brasil.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima