Análise estatística: qual é a importância da técnica nos negócios?
Análise de dados

29 de junho de 2017

Última atualização: 25 de janeiro de 2023

Análise estatística: qual é a importância da técnica nos negócios?

O que é uma análise estatística?


Um esforço para organizar seus dados e prever futuras tendências com base na informação, muitas empresas dependem da análise estatística. Embora as organizações tenham muitas opções sobre o que fazer com seus dados, a análise estatística é uma maneira de se examiná-los como um todo, bem como dividi-los em amostras individuais.

A análise estatística pode ser descrita como um aspecto da inteligência de negócios que envolve a coleta e análise de dados empresariais e os relatórios de tendências.
“A análise estatística examina cada amostra de dados em uma população (o conjunto de itens a partir do qual as amostras podem ser desenhadas), em vez de uma representação transversal de amostras, conforme métodos menos sofisticados”.

Há formas específicas nas quais a análise estatística pode ser concluída. Mas para isso, são necessárias cinco etapas durante o processo, incluindo:

  • Descrever a natureza dos dados a serem analisados.

  • Explorar a relação dos dados com a população subjacente.

  • Criar um modelo para resumir a compreensão de como os dados se relacionam com a população subjacente.

  • Provar (ou refutar) a validade do modelo.

  • Usar análises preditivas para antecipar as tendências futuras.


O fornecedor de software e serviços de análise de negócios SAS define a análise estatística como a ciência de colecionar, explorar e apresentar grandes quantidades de dados para descobrir padrões e tendências subjacentes.

Já nosso consultor Murilo diz que existem várias maneiras pelas quais as empresas podem usar a análise estatística para sua vantagem, incluindo as principais linhas de produtos, identificando funcionários de vendas com pouca performance e entendendo o quanto o desempenho das vendas é variável entre as regiões do país.

Em vez de mostrar previsões de tendências simples que podem ser afetadas por uma série de fatores externos, Murilo diz que as ferramentas de análise estatística permitem que as empresas mergulhem mais profundamente para ver informações adicionais.
“As ferramentas estatísticas podem ajudá-lo a descobrir essas informações adicionais”

Quais os tipos de análise estatística?


Existem dois tipos principais de análise estatística: descritiva e inferente, também conhecida como modelagem.

A estatística descritiva é o que as organizações usam para resumir seus dados.


“As estatísticas descritivas pretendem descrever um grande número de dados com gráficos e tabelas de contingência, mas não tente tirar conclusões sobre a população da qual a amostra foi retirada”. “Você está simplesmente resumindo os dados que você possui com gráficos – parecido com alguém que tem os pontos-chaves de um livro (resumo executivo) ao invés de apenas um livro grosso (dados brutos)”.

Como gráficos e tabelas são os componentes principais, as estatísticas descritivas facilitam a compreensão e visualização de dados brutos. As estatísticas descritivas são simplesmente uma maneira de descrever dados e não são usadas para tirar conclusões além dos dados analisados ou chegar a conclusões sobre quaisquer hipóteses que foram feitas.
“As estatísticas descritivas, portanto, nos permite apresentar os dados de forma mais significativa, o que permite uma interpretação mais simples dos dados”.

Entre alguns dos dados úteis que provêm da estatística descritiva incluem-se a moda, a mediana e a média, bem como a amplitude, variância e desvio padrão.

O que é a inferência na análise estatística?


O segundo tipo de análise estatística é a inferência. As estatísticas inferenciais são uma forma de estudar os dados ainda mais. As estatísticas de inferência permitem às organizações testar uma hipótese e tirar conclusões sobre os dados. Nesses casos, uma amostra de todos os dados é tipicamente examinada, com os resultados aplicados ao grupo como um todo.

As conclusões de uma inferência estatística são uma proposição estatística. Algumas formas comuns de proposição estatística que apontam para incluir:

  • Estimativas: um valor particular que melhor se aproxima de algum parâmetro de interesse

  • Intervalo de confiança: um intervalo construído usando um conjunto de dados extraído de uma população de modo que, em amostras repetidas de tais conjuntos de dados, tais intervalos conteriam o valor do parâmetro verdadeiro com a probabilidade no nível de confiança declarado

  • Intervalos de predição: um conjunto de valores contendo, por exemplo, 95% da crença posterior


No final, as estatísticas descritivas são usadas para descrever os dados, enquanto as estatísticas inferenciais são usadas para inferir conclusões e hipóteses sobre a mesma informação.

Quais são as técnicas para análise estatísticas mais conhecidas e seus riscos?


O que são a Média, Moda e Mediana?


Também chamadas de medidas de tendência central, média, moda e mediana, podem ser calculadas utilizando um número finito de valores (amostra) quanto para uma distribuição teórica como a distribuição normal. Medidas de tendência central são importantes aliadas a estatística e podem ser usadas em metodologias como o Lean Seis Sigma, para realizar projeções (como na bolsa de valores) e para estimar tendências, por exemplo as tendências de contágio e subnotificações pela pandemia do novo coronavírus (COVID-19).

Aproveite para conferir: Função exponencial e o novo coronavírus

A média aritmética, mais comumente conhecida como “a média”, é a soma de uma lista de números dividida pelo número de itens na lista. A média é útil para determinar a tendência geral de um conjunto de dados ou fornecer um instantâneo rápido de seus dados. Outra vantagem da média é que é muito fácil e rápido de calcular.

Quais as armadilhas da média?


Tomada sozinha, a média é uma ferramenta perigosa. Em alguns conjuntos de dados, a média também está intimamente relacionada à moda e à mediana (duas outras medidas próximas da média). No entanto, em um conjunto de dados com um alto número de outliers (valores muito distante da média) ou uma distribuição distorcida, a média simplesmente não fornece a precisão necessária para uma decisão acertada.

Moda


Vou fazer uma comparação aqui que você nunca mais vai esquecer o que é a moda e que vai te ajudar muitas vezes a escapar das armadilhas da média. Em geral essa palavra está associada a valores estéticos ligados a grifes, ou mesmo a sentença: “está na moda”. Pois bem está na moda porque é o que mais aparece, logo a moda é o valor que mais aparece. Pode ser útil para fugir das armadilhas da média.

Mediana


Mais uma medida de tendência central, a mediana é uma outra alternativa à média. Mediana significa valor do meio na estatística. Exatamente isso, é o valor do meio de uma amostragem de dados, mas para identificá-lo é necessário colocar os dados em ordem crescente, a partir disso basta selecionar o valor do meio. Para os casos em que a quantidade de dados for par, não haverá um valor central, desta forma pega-se os dois valores centrais e tira-se a média entre eles.

Em um exemplo básico temos os seguintes dados: {3, 4, 3, 8, 6, 7, 6, 9, 1, 6, 3, 6, 2, 6, 1}

Média: 4,6
Moda: 6
Mediana:6

Neste exemplo os valores como 9 e 1 são os chamados outliers pois são valores muito distantes da média. Já a moda e a mediana, fornecem valores mais confiáveis em relação às medidas de tendência central.

O que é o Desvio padrão?


O desvio padrão, muitas vezes representado com a sigma da carta grega, é a medida de um conjunto de dados em torno da média. Um alto desvio padrão significa que os dados são mais dispersos da média, e, um desvio padrão baixo sinaliza que mais dados se alinham com a média. Em um portfólio de métodos de análise de dados, o desvio padrão é útil para determinar rapidamente a dispersão de pontos de dados.

Quais as armadilhas do desvio padrão?


Assim como a média, o desvio padrão é enganador se tomado sozinho. Por exemplo, se os dados tiverem um padrão muito estranho, como uma curva não normal ou uma grande quantidade de outliers, o desvio padrão não lhe dará todas as informações que você precisa.

O que é a regressão?


A regressão modela as relações entre variáveis dependentes e explicativas, que normalmente são traçadas em um diagrama de dispersão. A linha de regressão também designa se esses relacionamentos são fortes ou fracos. A regressão é comumente ensinada em cursos de estatística da escola ou da faculdade com aplicações para ciência ou negócios na determinação de tendências ao longo do tempo.

Quais as armadilhas da regressão?


A regressão não é muito precisa. Às vezes, os outliers em um diagrama de dispersão (e os motivos para eles) são importantes. Por exemplo, um ponto de dados periféricos pode representar a entrada de seu fornecedor mais crítico ou seu produto mais vendido. A natureza de uma linha de regressão, no entanto, o faz ignorar esses valores anormais. Como ilustração, examine uma imagem do quarteto de Anscombe, na qual os conjuntos de dados têm exatamente a mesma linha de regressão, mas incluem pontos de dados muito diferentes.

Qual a importância da determinação do tamanho da amostra?


Ao medir um grande conjunto de dados ou uma população, como uma força de trabalho, você nem sempre precisa coletar informações de cada membro dessa população – uma amostra também faz o trabalho. O truque é determinar o tamanho certo para uma amostra ser precisa. Usando a proporção e os métodos de desvio padrão, você é capaz de determinar com precisão o tamanho certo da amostra que você precisa para tornar sua coleta de dados estatisticamente significante.

Para entender mais confira também: Amostragem: o que é? Como determiná-la?


Quais são as armadilhas do cálculo de tamanho da amostra?


Ao estudar uma nova variável não testada em uma população, suas equações de proporção podem precisar confiar em determinados pressupostos. No entanto, esses pressupostos podem ser completamente imprecisos. Este erro é então passado para a determinação do tamanho da amostra e, em seguida, no resto da sua análise de dados estatísticos

O que é um teste de hipóteses?


Também comumente chamado de teste t, o teste de hipóteses avalia se uma determinada premissa é realmente verdadeira para seu conjunto de dados ou população. Na análise de dados e estatísticas, você considera o resultado de um teste de hipóteses estatisticamente significante se os resultados não pudessem ter ocorrido por chance aleatória. Os testes de hipótese são usados em tudo, desde ciência e pesquisa até negócios e econômicos.

Quais as armadilhas dos testes de hipóteses?


Para ser rigoroso, os testes de hipóteses precisam estar atentos a erros comuns. Por exemplo, o efeito placebo ocorre quando os participantes falsamente esperam um certo resultado e então percebem (ou realmente atingem) esse resultado. Outro erro comum é o efeito Hawthorne (ou efeito observador), que acontece quando os participantes diminuem os resultados porque sabem que estão sendo estudados.

O que é o Efeito Hawthorne?


O efeito de Hawthorne é um termo que se refere à tendência de algumas pessoas trabalharem mais e ter melhor desempenho quando participam de um experimento. Os indivíduos podem mudar seu comportamento devido à atenção que percebem de pesquisadores e não por qualquer manipulação de variáveis independentes.

Como foi descoberto o efeito Hawthorne?


O efeito foi descrito pela primeira vez na década de 1950 pelo pesquisador Henry A. Landsberger durante sua análise de experimentos realizados durante os anos 1920 e 1930. O fenômeno é nomeado após o local onde os experimentos ocorreram, a empresa elétrica Western Electric da Hawthorne Works, apenas fora de Hawthorne, Illinois.

A empresa de energia elétrica havia encomendado pesquisas para determinar se havia uma relação entre produtividade e ambiente de trabalho. O foco dos estudos originais foi determinar se aumentar ou diminuir a quantidade de luz que os trabalhadores receberam afetaria a produtividade do trabalhador. A produtividade dos funcionários pareceu aumentar devido às mudanças, mas depois diminuiu após a conclusão do experimento.

Os pesquisadores sugeriram que a produtividade aumentou devido à atenção da equipe de pesquisa e não por mudanças nas variáveis experimentais. Landsberger definiu o efeito de Hawthorne como uma melhoria de curto prazo no desempenho causada pela observação dos trabalhadores.

O que dizem as pesquisas mais recente sobre o efeito Hawthorne?


Pesquisas posteriores no efeito Hawthorne sugeriram que os resultados originais podem ter sido exagerados. Em 2009, pesquisadores da Universidade de Chicago reanalisaram os dados originais e descobriram que outros fatores também desempenharam um papel na produtividade e que o efeito originalmente descrito era fraco na melhor das hipóteses.

Alguns estudos adicionais não conseguiram encontrar forte evidência do efeito Hawthorne e, em muitos casos, outros fatores também podem influenciar as melhorias na produtividade. Em situações que envolvem a produtividade do trabalhador, o aumento da atenção dos experimentadores também resulta em maior desempenho no feedback. Esse aumento de feedback pode realmente levar a uma melhora na produtividade.

A novidade de ter experimentadores observando o comportamento também pode desempenhar um papel. Isso pode levar a um aumento inicial no desempenho e na produtividade que podem eventualmente se estabilizar à medida que o experimento continua.

As características da demanda também podem desempenhar um papel na explicação desse fenômeno. Em experimentos, os pesquisadores às vezes apresentam pistas sutis que permitem que os participantes saibam o que esperam encontrar. Como resultado, os indivíduos às vezes alteram seu comportamento para ajudar a confirmar a hipótese do experimentador.

Observações:


“Os dados originais já foram reanalisados e não é tão claro se os resultados originais se mantiveram. No entanto, o conceito foi estabelecido – o próprio fato de que as pessoas estão sob estudo, observação ou investigação pode ter um efeito sobre eles E os resultados “.
(Earl-Slater, 2002)

“Uma maneira de lidar com o efeito Hawthorne (e as características da demanda) é observar os participantes de forma discreta, o que pode ser feito usando a técnica de observação naturalista. No entanto, isso nem sempre é possível para todos os comportamentos. Outra maneira de lidar com o efeito Hawthorne É tornar as respostas dos participantes em um estudo anônimo (ou confidencial). Isso pode eliminar alguns dos efeitos desse viés de origem “.
(McBride, 2013)

Aproveite para conferir os nossos cursos em Lean Seis Sigma e saia na frente, acesse já a Plataforma EAD FM2S e confira!


Pra você que não sabe por onde começar, confira nossos cursos gratuitos de Introdução ao Lean e White Belt.

Virgilio Marques Dos Santos

Virgilio Marques Dos Santos

Sócio-fundador da FM2S, formado em Engenharia Mecânica pela Unicamp (2006), com mestrado e doutorado na Engenharia de Processos de Fabricação na FEM/UNICAMP (2007 a 2013) e Master Black Belt pela UNICAMP (2011). Foi professor dos cursos de Black Belt, Green Belt e especialização em Gestão e Estratégia de Empresas da UNICAMP, assim como de outras universidades e cursos de pós-graduação. Atuou como gerente de processos e melhoria em empresa de bebidas e foi um dos idealizadores do Desafio Unicamp de Inovação Tecnológica.