Implementar um modelo de Business Intelligence é muito mais que recolher dados, trata-se sobretudo de converter esses grandes dados em insights valiosos que irão acrescentar valor ao negócio. No entanto, se não houver um modelo que permite analisar e compreender os dados que vão surgindo, tudo o que irá existir serão números sem contexto e sem valor acrescentado.
Para fazer uma análise de dados correta é necessário ter em atenção que não existe apenas um método válido de análise; este processo está dependente das necessidades em questão e do tipo de dados recolhido, afim de aplicar a metodologia correta de análise.
Existem, no entanto, métodos comuns de advanced analytics que permitem tornar os dados em valor acrescentado, mesmo quando à partida não existem regras de negócio bem definidas, transformando um aglomerado de dados em insights relevantes para o negócio, que permite a tomada de decisões fundamentada.
Dados quantitativos e dados qualitativos
Antes de abordar os vários métodos, é necessário entender que tipo de dados que vão ser analisados. Para dados quantitativos, o foco está na quantidade de números em bruto, como o próprio nome indica. Deste tipo são exemplos os dados de sales, de marketing, de payroll, receita e despesa, etc. No fundo, refere-se a dados que são quantificáveis e passíveis de ser medidos objetivamente.
Dados qualitativos são, por sua vez, mais dificeis de interpretar à partida, uma vez que são dados não estruturados, mais subjetivos e de natureza interpretativa. A este campo pertencem exemplos como informação recolhida de sondagens, entrevistas aos empregados, questionários de satisfação, etc.
Medir dados quantitativos
Relativamente à análise de dados quantitativos, existem quatro métodos que vão elevar essa análise a um novo nível.
- Análise de Regressão
A escolha sobre qual o melhor tipo de estatística irá depender sempre do objectivo da pesquisa.
A análise de regressão permite modelar a relação entre uma variável dependente e uma ou mais variáveis independentes. Em data mining, esta técnica é utilizada para prever valores num dataset particular. Por exemplo, pode ser utilizada para prever o preço de um produto, tendo em conta outras variáveis. Pode também ser utilizada para identificar tendências e corelações entre fatores.
A regressão é um dos metódos de análises de dados mais usados no mercado para efeitos de gestão, planeamento de marketing, previsões financeiras, entre outros.
- Teste de hipóteses / teste de significância
Este método, também chamado de t testing, permite inferir se uma determinada premissa é verdadeira para o data set. Na análise de dados e em estatística, será considerado o resultado de uma hipótese que seja estatisticamente significativa, cujo resultado não possa ter decorrido de um acaso aleatório. Este procedimento infere sobre quantidades de interesse de uma população a partir de uma amostra observada, utilizando a teoria da probabilidade.
- Simulação Monte Carlo
Um dos métodos mais populares para calcular o efeito de variáveis imprevisiveis de um factor específico são as simulações de Monte Carlo que utilizam a modelagem de probabilidade para ajudar a prever o risco e a incerteza. Para testar um cenário ou hipótese, esta simulação recorre a números aleatórios e dados para simular uma variedade de outcomes possíveis. Esta ferramenta é frequentemente utilizada nas áreas de project management, finanças, engenharia e logística, entre outras. Ao testar uma variedade de hipóteses, é possível concluir como é que uma série de variáveis aleatórias podem afetar os planos e projetos.
- Redes Neurais Artificiais
Este modelo computacional replica o sistema nervoso central de um humano ( neste caso, o cérebro), permitindo à máquina aprender através da observação dos dados, o chamado machine learning. Este processamento de informação replica as redes neurais, utilizando um modelo de inspiração biológica para processar a informação e aprender com análise, ao mesmo tempo que consegue fazer previsões. Neste modelo, os algoritmos partem de inputs amostrais e aplicam o raciocinio indutivo – extraindo regras e padrões de grandes conjuntos de dados.