Sabe o que você arrisca quando não dá importância à qualidade dos dados? O futuro de sua empresa

Autor convidado: Elcio Santos, CEO da AlwaysOn

“Não se gerencia o que não se mede, não se mede o que não se define, não se define o que não se entende, e não há sucesso no que não se gerencia.”

Essa frase foi escrita por William Edwards Deming, um estatístico e consultor americano que ficou famoso durante o processo de reerguimento do Japão, após a Segunda Guerra Mundial.

Ele desenvolveu processos produtivos focados em qualidade, em especial o Sistema Lean Toyota de Produção.

A frase foi resumida e ligeiramente alterada por Peter Drucker.

Transformada em “O que pode ser medido, pode ser melhorado”, faz parte de um conjunto de ensinamentos deixados pelo pai da administração moderna.

Na verdade, podemos resumir essa máxima ainda mais — em uma palavra: dados.

Entre os ensinamentos de Drucker — e eles não apenas sobreviveram à prova do tempo, mas ganharam ainda mais nesses nossos tempos de customer experience, customer centric, big data analytics, business intelligence e data science — a importância de se ter dados confiáveis para a tomada de decisões certamente se destaca.

Opa!

Parece que teremos que corrigir nosso resumo das máximas de Deming e Drucker e empregar duas palavras: dados confiáveis.

E aqui, será necessário introduzir outra expressão: qualidade dos dados (data quality).

Essa é uma medida da condição dos dados com base em fatores como precisão, integridade, consistência, confiabilidade e se estão atualizados.

Medir os níveis de qualidade pode ajudar as organizações a identificar erros que precisam ser resolvidos e avaliar se os dados em seus sistemas de TI ou no data warehouse, atendem ao propósito pretendido.

A ênfase na qualidade dos dados em sistemas corporativos aumentou à medida que o processamento de dados se tornou mais intrinsecamente vinculado às operações de negócios e as organizações usam cada vez mais estas análises para ajudar a conduzir as decisões de negócios.

Um gerenciamento de qualidade é um componente central do processo geral de gestão, e os esforços de melhoria da qualidade de acesso a informações costumam estar intimamente ligados aos programas de governança de dados, que visam garantir que eles estejam formatados e sejam usados de forma consistente em toda a organização.

Quanto vale para uma empresa garantir a qualidade dos seus dados?

Dados de baixa qualidade são frequentemente apontados como a fonte de confusões operacionais, análises imprecisas e estratégias de negócios mal concebidas.

Exemplos de danos econômicos que podem causar problemas incluem despesas adicionais quando os produtos são enviados para endereços de clientes errados, oportunidades de vendas perdidas devido a registros de clientes errôneos ou incompletos e multas por relatórios financeiros ou regulamentares inadequados.

A @IBM tem um estudo que calculou que o custo anual dos problemas de qualidade de dados nos EUA foi de US $3,1 trilhões em 2016.

Em um artigo que escreveu para o MIT Sloan Management Review em 2017, o consultor Thomas Redman estimou que corrigir erros e lidar com os problemas de negócios causados por dados ruins custa às empresas de 15% a 25% de sua receita anual em média.

Façamos um cálculo rápido. Uma empresa que tenha uma receita anual de $1 milhão pode chegar a gastar $250 mil com correções.

Uau!

Uma empresa que fature $100 milhões anuais pode ter que gastar $15 milhões por ano, corrigindo erros de dados e resolvendo problemas de negócios.

Claro que nestes números, ainda não havia sido adicionada a variável LGPD…

No caso de sua empresa, quanto custa essa atividade “invisível” de corrigir erros de dados?

A conta é simples: pegue a receita anual de sua empresa e aplique o percentual de 15% — segundo a IBM, esse valor é o mínimo que você pode estar jogando na lata do lixo.

O importante é não tentar se enganar, fingindo que o problema não existe em sua empresa. As empresas que insistem nessa postura podem receber uma fatura muito alta à frente.

O que é “data quality”, ou seja, boa qualidade de dados?

A precisão é um atributo fundamental dos dados de alta qualidade.

Para evitar problemas nos sistemas de processamento de transações operacionais e resultados defeituosos em aplicativos analíticos, os dados usados devem estar corretos.

Dados imprecisos precisam ser identificados, documentados e corrigidos para garantir que executivos, analistas e outros usuários finais estejam trabalhando com boas informações.

Outros aspectos, ou dimensões, que são elementos importantes incluem:

  • integridade de dados, com conjuntos que contêm todos os elementos que deveriam estar presentes;
  • consistência de dados, onde não há conflitos entre os diferentes sistemas nos mesmos valores de dados ou conjuntos de dados;
  • ausência de registros de dados duplicados nos databases;
  • dados atualizados;
  • e conformidade com os formatos de dados padrão criados por uma organização.

Atender a todos esses fatores ajuda a produzir conjuntos de dados confiáveis.

Como determinar a qualidade dos dados

Como uma primeira etapa para determinar seus níveis de qualidade de dados, as organizações normalmente realizam um inventário de ativos no qual a precisão, a singularidade e a validade dos dados são comparados com patamares estabelecidos historicamente ou por hipóteses de forma contínua para ajudar a identificar novos problemas de qualidade para que possam ser resolvidos.

Outra etapa é criar um conjunto comum de regras de qualidade com base nos requisitos de negócios para dados operacionais e analíticos.

Essas regras especificam os níveis de qualidade exigidos para diferentes conjuntos de dados e detalham quais elementos precisam ser incluídos para que possam ser verificados quanto à precisão, consistência e outros atributos de qualidade.

Depois que as regras estão em vigor, uma equipe de gerenciamento de dados normalmente realiza uma avaliação da qualidade para medir a qualidade dos conjuntos e documentar erros e outros problemas — um procedimento que pode ser repetido em intervalos regulares para manter os níveis de qualidade de dados mais altos possíveis.

Várias metodologias para tais avaliações foram desenvolvidas.

Por exemplo, os gerentes de dados da subsidiária de serviços de saúde Optum do UnitedHealth Group criaram o Data Quality Assessment Framework (DQAF) para formalizar um método de avaliação da qualidade dos dados.

O DQAF fornece diretrizes para medir as dimensões da qualidade dos dados que incluem integridade, oportunidade, validade, consistência e integridade.

A Optum publicou detalhes sobre a estrutura como um possível modelo para outras organizações.

O Fundo Monetário Internacional (FMI), que supervisiona o sistema monetário global e empresta dinheiro para nações economicamente problemáticas, também especificou uma metodologia de avaliação, também conhecida como Estrutura de Avaliação de Qualidade de Dados.

Sua estrutura se concentra na precisão, confiabilidade, consistência e outros atributos de dados na qualidade dos dados estatísticos que os países membros precisam apresentar ao FMI.

Leia o artigo completo