1 / 35

Capítulo 12 – Correlação

12.1 Introdução e problemática 12.2 Fórmulas e gráficos do coeficiente de correlação 12.3 Exemplo: a correlação entre tempo de secagem e a dureza de Brinell 12.4 Intervalo de Confiança 12.5 Teste de hipótese

kieu
Download Presentation

Capítulo 12 – Correlação

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 12.1 Introdução e problemática 12.2 Fórmulas e gráficos do coeficiente de correlação 12.3 Exemplo: a correlação entre tempo de secagem e a dureza de Brinell 12.4 Intervalo de Confiança 12.5 Teste de hipótese 12.6 As suposições que garantem a representatividade do coeficiente de correlação estimado 12.6.1 Linearidade 12.6.2 Estacionaridade 12.6.3 Normalidade 12.7 Autocorrelação 12.7.1 Autocorrelação e estacionaridade 12.7.2 Autocorrelação e sazonalidade 12.8 Coeficiente de correlação cruzada 12.10 Conclusões do capítulo 12.11 Referências 12.12 Anexo de dados Capítulo 12 – Correlação

  2. 12.1 Introdução É muito comum em pesquisas baseadas em variáveis quantitativas e mensuráveis tentar medir o grau de relacionamento entre elas. No caso da relação ser linear, isto pode ser feito através do coeficiente de correlação linear. É o caso, por exemplo, quando se propõe uma teoria ou hipótese que interliga dois fenômenos, e então comprova estatisticamente a existência da relação, utilizando-se amostras das variáveis. Isso não significa necessariamente que as duas variáveis possuem uma relação de causa e efeito. O relacionamento é necessário para comprovar causa e efeito, mas não é suficiente para ser prova definitiva. No caso industrial, por exemplo, é imprescindível analisar como os insumos em um processo produtivo relacionam com características de qualidade dos produtos e processos. Encontrando as relações entre variáveis no processo, o engenheiro pode melhorar o resultado, economizar recursos materiais e humanas, e oferecer em geral um processo otimizado.

  3. 12.2 Fórmulas e gráficos do coeficiente de correlação A covariância e variância são matematicamente conceitos muito próximos. A diferença é que a covariância mede a relação entre duas variáveis distintas enquanto a variância depende de uma única variável. veja capítulo 2. Por definição, a covariância populacional é dada pela seguinte expressão: A variância populacional é uma expressão similar, mas com apenas uma única variável, A covariância amostral (n é o tamanho da amostra): Os valores do coeficiente de correlação estão sempre contidos no intervalo [-1; +1], ou seja, -1 ≤ r ≤ 1. Este é um resultado muito importante, por que pelo fato de ser padronizado, o coeficiente de correlação não depende da unidade de medida. r =

  4. Y Y Nuvem de dados, mal-definida. Nuvem de dados, mal-definida. X r = - 0,03 r = 0,03 X Figura 12.1 – Nuvens de dados com relação fraca e mal definida.

  5. Y X Figura 12.2 – Nuvens de dados com relação perfeita entre variáveis, r igual a 1,0 ou -1,0 A inclinação da reta não afeta o valor numérico de r reforçando a idéia de que o r não é uma medida de inclinação, mas sim uma medida de adesão e representação de correlação sobre os pares de dados da amostra, e por inferência da população.

  6. 12.3 Exemplo: a correlação entre tempo de secagem e a dureza de Brinell No exemplo ilustrado na tabela 12.1, calculamos o coeficiente de correlação entre a dureza de um plástico medida em unidades de Brinell e o tempo de secagem numa maneira passo a passo para acompanhar melhor as operações. O tamanho da amostra é 16 peças vindas de um lote de 2000. O coeficiente pode ser calculado com a soma da última coluna (2604) dividida pela raiz quadrada da soma da penúltima coluna (1280) e pela raiz quadrada da soma da quinta coluna (5443,9). Também, pode ser calculado com a covariância (173,6) dividido pelo produto dos dois desvios padrão (19,05; 9,24). O resultado do cálculo é 0,986, e significa uma fortíssima relação.

  7. (1) OBSER. Yi - Dureza em Brinell Xi - minutos de secagem 1 199 16 -26,6 705,6 -12 144,0 318,75 2 205 16 -20,6 422,8 -12 144,0 246,75 3 196 16 -29,6 873,9 -12 144,0 354,75 4 200 16 -25,6 653,4 -12 144,0 306,75 5 218 24 -7,6 57,2 -4 16,0 30,25 6 220 24 -5,6 30,9 -4 16,0 22,25 7 215 24 -10,6 111,6 -4 16,0 42,25 8 223 24 -2,6 6,6 -4 16,0 10,25 9 237 32 11,4 130,8 4 16,0 45,75 10 234 32 8,4 71,2 4 16,0 33,75 11 235 32 9,4 89,1 4 16,0 37,75 12 230 32 4,4 19,7 4 16,0 17,75 13 250 40 24,4 597,2 12 144,0 293,25 14 248 40 22,4 503,4 12 144,0 269,25 15 253 40 27,4 752,8 12 144,0 329,25 16 246 40 20,4 417,7 12 144,0 245,25 SOMA = 0,0 5443,9 0,0 1280,0 2604,0 MÉDIA = 226 28 DESVIO PADRÃO Y = 19,05 DESVIO PADRÃO X = 9,24 COVARIANCIA = 173,6 COEFICIENTE DE CORRELAÇÃO = 0,986 Tabela 12.1 – O cálculo do coeficiente de correlação entre dureza e minutos de secagem.

  8. 12.4 Intervalo de Confiança Uma vez definido o nível de confiança desejado (1 – α), os elementos do cálculo do intervalo são o coeficiente estimado r, o desvio padrão sr e o valor da distribuição normal padronizada (Z) que corresponde ao nível de confiança exigido pelo pesquisador. O desvio padrão do coeficiente de correlação é um termo extremamente complexo, quase impossível calcular.

  9. Continuação: 12.4 Intervalo de Confiança O coeficiente de correlação não segue a distribuição normal, pois é assimétrica. No entanto, foi desenvolvida uma expressão pelo famoso Estatístico R. A. Fisher que transforma o coeficiente r em variável que segue a normalidade, z de Fisher A estatística z de Fisher é distribuída normalmente e tem desvio padrão igual a σz de Fisher = 1/√n-3

  10. Continuação (ainda): 12.4 Intervalo de Confiança O valor z de Fisher = 3,02 significa que r = 0,995. Este resultado vem diretamente da equação 0,5*ln[(1+r)/(1-r)] = 3,02. O limite inferior do intervalo de confiança para r é do valor z = 1,934 transformado para r = 0,959 da expressão 0,5*ln[(1+r)/(1-r)] = 1,934. IC(ρ; 0,95) = (0,995; 0,959)

  11. 12.5 Teste de hipótese SUPONDO as duas variáveis (X,Y) são distribuídas normalmente, onde a hipótese nula (H0) é ρ = 0. A hipótese alternativa (H1) é ρ não = 0. É possível mostrar que a seguinte expressão: com n - 2 graus de liberdade

  12. Continuação: 12.5 Teste de hipótese • Para calcular o valor de t de Gosset utilizamos os números, n = 16, r = 0,986, o que produziu um valor t = 22,125 e valor-p é praticamente zero. • Isto quer dizer que forte correlação é observada, e, portanto rejeitamos a hipótese nula de correlação zero com quase nenhum risco de errar.

  13. Tabela 12.2 – Valores da estatística t de Gosset que rejeitam H0: ρ = 0 para α = 0,01 (área sombreada) e para valores correspondentes de r e n.

  14. 12.6 As suposições que garantem a representatividade do coeficiente de correlação estimado • Se os dados não são bem comportados, então há grande possibilidade de que os resultados não são confiáveis, as estimativas não representam fielmente a relação. Relações fracas podem aparecer enganosamente fortes e vice-versa. • Dados mal-comportados têm que ser tratados com vários tipos de transformações antes de entrar nas fórmulas. • Os dados devem seguir fielmente pelo menos três características: • linearidade, normalidade, e estacionaridade.

  15. 12.6.1 Linearidade • O coeficiente de correlação é uma medida de relacionamento, sempre supondo que a relação entre elas é linear. No gráfico de dispersão de XY, a relação linear é representada por uma linha reta. • Uma relação forte e bem definida, mas em forma não-linear, por exemplo, quadrática, vai produzir um r com valor artificialmente baixo, e levará o pesquisador a não enxergar relações existentes e às decisões erradas. • Por isso, a relação das variáveis deve ser linearizada antes de entrar no cálculo do coeficiente.

  16. Tabela 12.3 – Dados de volume e pressão do experimento de Boyle

  17. Figura 12.3 – A relação não-linear entre volume (V) e pressão (P)

  18. Figura 12.4 – A relação linear entre a inversa de volume (1/V) e pressão (P)

  19. Tabela 12.4 – Coeficientes de correlação entre variáveis transformadas

  20. 12.6.2 Estacionaridade O comportamento de não estacionaridade é associado ao fenômeno chamado de caminhada aleatória, muito utilizado na área de finanças. Numa caminhada aleatória, a diferença entre dois dados subseqüentes é uma quantia aleatória et, da distribuição normal e com média nula e desvio padrão fixo. Em forma de equação é Yt+1 = Yt + et O próximo valor de Y é desconhecido, mas tem limites em termos estatísticos que vem das propriedades de et com desvio padrão fixo. Em outras palavras, a melhor previsão possível de Y é o seu valor hoje. Estacionaridade é um caso extremo de uma característica chamada auto correlação, apresentada embaixo na seção do mesmo nome.

  21. Figura 12.5 – Duas variáveis não estacionárias, preços de ações

  22. Figura 12.6 – Variáveis não-estacionárias transformadas pela primeira diferença

  23. Tabela 12.5 – Coeficientes de correlação entre variáveis não estacionárias e transformadas com a primeira diferença para torná-las estacionárias

  24. 12.6.3 Normalidade • Para distinguir se a correlação realmente existe na população ou não, dependemos de um teste de hipótese. • Nesta decisão, é necessário calcular o valor da estatística t de Gosset e utilizar os valores mínimos do coeficiente da tabela 12.2. • Quem utiliza o coeficiente de correlação em geral não se preocupa com a pressuposição básica de normalidade das duas variáveis, embora a normalidade dos dados seja exigência básica dos testes de hipótese. • Se os dados não são distribuídos normalmente, o teste de hipótese com a estatística t de Gosset não é • confiável.

  25. Tabela 12.6 – Transformações e a estatística de Bera-Jarque para testar normalidade Nas fabricas, a variável tempo é mensurada com freqüência Nos dados da tabela no anexo do capítulo, constam o tempo ativo e inativo de uma máquina injetora de plástico numa fábrica de telefones celulares. Esses dados foram utilizados no capítulo 2 para desenhar as caixas de medianas.

  26. Discussão sobre Tabela 12.7 – Coeficientes de correlação entre variáveis originais e transformadas • Algumas características da tabela 12.7 que devem ser destacadas, considerando que a tabela é muito comum para análises de correlação. • A correlação entre uma variável e ela mesma é perfeita e, portanto o diagonal só tem valores unitários para estes coeficientes. Somente um lado da matriz é apresentado porque os valores são simétricos. • O coeficiente entre tempo ativo transformada com expoente -0,37, e o logaritmo de tempo ativo é igual a -1,00 e isso significa que as duas transformações são na prática iguais, claro com a única diferença sendo o sinal. • Isso não e o caso com a variável SOMA, as transformações da variável não tem correlação com a variável original.

  27. Discussão sobre Tabela 12.7 – Coeficientes de correlação entre variáveis originais e transformadas • O coeficiente de correlação entre tempo ativo da máquina (em logaritmos) e quantia de pedidos na fila tem valor alto (0,57) e significante. Notam-se nos dados que a fila sempre existe; não há nenhum momento quando os pedidos caem ao zero. • Conseqüentemente está havendo um mau gerenciamento da máquina; não há razão para forçar a máquina funcionar mais tempo sem uma parada para manutenção preventiva em função do número de pedidos em fila. Especialmente considerando o excesso de tem´po parado (veja o exemplo no capítulo 2). • Assim, seria melhor para a fábrica se a injetora funcionar regular e continuamente em 16 horas (ou um pouco mais pagando hora extra) no ambiente de um programa de manutenção preventiva em vez de funcionar irregularmente sem um programa de manutenção, como é o caso hoje.

  28. 12.7 Autocorrelação O coeficiente de autocorrelação tem uma forma quase igual, mas é para uma única variável em defasagem. O subscrito no r significa o tamanho da defasagem em número de períodos. O rj é utilizado para analisar a presença de padrões temporais nos dados, e nesse sentido pode encontrar sazonalidade e ademais pode ser utilizado para detectar se a variável é estacionária.

  29. 12.7.1 Autocorrelação e estacionaridade Figura 12.7 – Correlograma dos coeficientes de autocorrelação da tabela 12.8

  30. 12.7.2 Autocorrelação e sazonalidade Figura 12.8 - Correlograma dos coeficientes de autocorrelação de consumo residencial mensal de energia elétrica em S. Catarina de janeiro de 1986 até dezembro de 2003 (dados em primeira diferença)

  31. 12.8 Coeficiente de correlação cruzada • Relação entre duas variáveis não é necessariamente contemporânea, ou seja, dada a variação em uma variável, a outra somente se modifica certo período mais tarde. • Em outras palavras, há uma defasagem de tempo entre as alterações dos dados. O coeficiente de correlação cruzada é entre variáveis em defasagem, de períodos diferentes.

  32. Tabela 12.9 – Coeficientes cruzados de correlação entre tempo ativo e inativo

  33. Discussão resultadosTabela 12.9 sobre o Coeficiente de correlação cruzada • O coeficiente positivo em defasagem indica que quando tempo ativo é relativamente grande, então, em seguida, tempo inativo também o é, ou seja, pressionando a máquina a trabalhar demais causa estresse nela, e as paradas conseqüentes são demoradas, causando relativamente mais tempo parado. • O resultado é máquina inativa durante longos períodos de manutenção corretiva.

  34. 12.10 Conclusões do capítulo • Vimos neste capítulo que a aplicação correta do coeficiente de correlação deve levar em conta várias suposições que vem diretamente da teoria estatística e de senso comum. • Para comprovar relacionamento entre duas variáveis, suas distribuições são normais, a relação procurada é linear, e as séries são estacionárias. Seguindo estas normas, estimativas do coeficiente são confiáveis, e intervalos de confiança e testes de hipótese podem revelar a força da relação estimada. • A análise das correlações com variáveis que não seguem as suposições exigidas, não comprova absolutamente nada, • e pior ainda, pode levar o pesquisador a conclusões equivocadas.

  35. 12.11 Referências Fisher, R. A. (1925), “Applications of Student’s Distribution,” Metron, 5, 90, 104. Granger, C. W. J. (1969), “Investigating causal relations by econometric models and cross-spectral methods,” Econometrica, 37, 424-438. Levine, Ira N. (1978), Physical Chemistry, University of Brooklyn: McGraw-Hill Publishing. Rodgers, J. L., Nicewander, W. A. (1988), “Thirteen Ways to Look at the Correlation Coefficient,” The American Statistician, Vol. 42, No. 1., pp. 59-66. Student (1908). “On the Probable Error of the Mean,” Biometrika 6, 1, 25.

More Related