Autor: Guilherme Rocha
A cada dia, cresce significativamente – e não seria exagero dizer exponencialmente – a quantidade de dados armazenados nas empresas. São terabytes de dados, afinal, negócios são gerados a partir de informações resultantes de seu processamento. No entanto, quando alguém pergunta sobre a utilidade ou questiona a qualidade desses dados, a resposta quase sempre não é rápida nem assertiva, demonstrando que faltam análises complexas e profundas sobre o assunto, apesar da grande variedade de softwares que estão disponíveis no mercado, prometendo solução para o problema da falta de qualidade.
Nota-se, assim, que o crivo principal está na questão da qualidade das informações e não em sua existência. Essa realidade torna a qualidade de dados um indicador crítico, pois, devido à falta de qualidade, ações fundamentadas em dados incorretos serão incapazes de gerar os resultados desejados e planejados.
Essa situação é tão crítica que, inclusive, é apontada em pesquisa elaborada pelo Gartner Group e que mostra números expressivos:
– 60% das notas fiscais contém erros;
– 30% das transações eletrônicas com ações falham por erros nos dados;
– 30% dos pedidos de produção atrasam ou são mal executados devido a problemas nos dados;
– 35% das previsões de venda no varejo são incorretas por conta da má informação captada da entrada;
– 30% dos dados de cliente são incorretos;
– e 28% dos dados dos clientes ficam obsoletos a cada ano.
Frente a esse cenário, fica patente que a informação é mal utilizada porque falta um projeto que estruture a base de dados e permita que esse recurso valioso gere vantagem competitiva e promova realização de processos de negócios, tomada de decisões e até mesmo a transformação desses dados em produtos que são vendidos ou negociados. E mais: se os dados têm má qualidade, então todos os itens acima irão fracassar ou serão executados de maneira medíocre.
Além disso, não basta tratar a base de dados, é fundamental implementar uma metodologia de melhoria contínua que possibilite a gestão do conhecimento pela retroalimentação.
Entre as ferramentas disponíveis no mercado há o programa TDQM (Total Data Quality Management). A proposta do TDQM envolve a implementação do ciclo de melhoria contínua. Um programa que assegura todos os aspectos de sistemas e suas saídas para que atendam às necessidades dos usuários e é fundamentado em definir processos de qualidade, medir níveis de qualidade, analisar e identificar a raiz do problema e as causas das inconsistências, além de melhoria no processo de produção.
O Gerenciamento Total da Qualidade de Dados enxerga os dados como um produto, basicamente um produto da informação, feito por meio de um ou mais Sistemas de Informação; com os processos de produção para a Qualidade dos Dados respondendo pela compilação dos Sistemas de Informação de um produto.
Essa metodologia, por todos os aspectos que envolve, gera diversos benefícios mensuráveis e palpáveis, a exemplo de:
– Visualização das fases mais importantes na fabricação do produto informação;
– Identificação das fases críticas que afetam a qualidade;
– Identificação dos estrangulamentos na IMS e estimativa do prazo de entrega;
– Medição da qualidade em várias fases;
– Implementação da qualidade de código-fonte – usando IPMAP para identificar a propriedade dos processos em cada fase;
– Utilizar o IP-MAP, os executivos melhor compreendem a organização, bem como o sistema de informação utilizado no processo.
De forma prática, uma linha de produção GTC – Gestão Terceirizada de Cadastros, utilizada pela System Marketing, disponibiliza as DLLs de seu sistema de qualificação de base de dados, o DataSetting, na entrada dos novos registros, mesmo que as fontes tenham diversas origens, formatos ou layouts.
Nessa etapa os dados corretos são direcionados para a base única do cliente, enquanto que os dados inconsistentes entrarão em Processo de Quarentena, envolvendo a qualificação de bancos de dados, o enriquecimento e a telequalificação dos dados.
Como o sistema é dinâmico, contínuo e retroalimentado, também prevê – e cuida – do tratamento da devolução, quando se detecta necessidades de correção de diversas informações, tais como endereço (residência, empresa, telefone, e-mail).
Esse processo de tratamento da devolução compreende três etapas básicas:
– Recepção de documentos, registro da devolução e armazenamento adequado;
– Triagem dos documentos recebidos;
– Bloqueio de endereços incorretos.
Aqui, repete-se o processo inicial como forma de construir um cadastro atualizado em todos os casos pertinentes, com correção de endereços, e capaz de ampliar as chances de reenvio com êxito e eliminação de erros recorrentes. Desse modo, os dados tornam-se ferramenta importante do Gerenciamento Total da Qualidade, com reflexos, inclusive, no faturamento e no cumprimento do planejamento.
Guilherme Rocha é presidente do Grupo System Marketing.