
Duas abordagens coexistem: a primeira procura captar os dados em seus formatos originais, armazenando-os na integridade em alguma plataforma que suporte formatos variados e sem consistências definidas e, por fim, permitir exploração por meio de consultas não estruturadas. É o chamado NOSQL, em oposição aos bancos de dados relacionais baseados em SQL. De outro lado, temos um conjunto de métodos que busca tratar os dados recebidos na entrada, buscando domá-los e adequando sua estrutura para um banco de dados tradicional. As explorações, nesse caso, baseiam-se em cruzamento de dados e data mining e privilegiam o cruzamento entre “big data” e as informações originadas na própria empresa.
Um exemplo de aplicação ajudará a ilustrar a utilidade prática: imagine-se no lugar de uma companhia de seguros, que precisa precificar continuamente o risco de seguros de automóveis. Hoje, a imensa maioria das companhias o faz com base em dados do próprio veículo, do condutor, do local de sua residência e do questionário de risco. Mas é claro que duas pessoas da mesma idade, com o mesmo carro e que moram no mesmo lugar podem ter comportamentos completamente distintos em relação ao risco de conduzir. Assim, nesse momento, há um grande número de seguradoras estudando o uso de “big data” para suportar a precificação. Pessoas com menos apetite para o risco poderiam pagar menos por suas apólices. As seguradoras, por sua vez, incentivariam a captação de risco “bom” e teriam um prêmio adicional ao aceitar risco “ruim”. Isso é “big data” ao vivo!
Mãos à obra!
Leonardo Vieiralves Azevedo é diretor da Habber Tec Brasil.