1. [2.000] (IP:281473826429941 | 11:55:47 | 23:43:54 | 48:07 | 531.825) Discuta as técnicas utilizadas para identificar e resolver problemas com outliers. Os outliers são pontos que tem um comportamento geral bastante diferenciado da maioria, o que provocam uma heterocedasticidade. Para resolver esse problema, é realizada uma análise de resíduo padronizado realizando uma relação com a média de cada tratamento através da fórmula Rp=desvio(ponto-média)/(raizQMR), onde se esses valores forem cerca de 95% na faixa de -3 a 3 ele deve ser eliminado, porque pode ser efeito do acaso. Todavia, é necessário refazer a análise e observar se o problema persiste. Caso continue, deve ser feita uma transformação. Esses dados só podem ser eliminados com absoluta certeza de que são devido a erros cometidos e sua correção não seja viável. ótimo 2. [0.500] (IP:281473826429941 | 11:56:00 | 23:59:33 | 03:33 | 911.333) Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega. O capítulo de livro passado para a última aula abordou o tema capturando estatística: Uma breve revisão de estatística básica. O autor iniciou o capítulo abordando o que era probabilidade, descrevendo que “a probabilidade descreve a freqüência relativa de ocorrência de um determinado evento”. Com isto, afirmou que a mesma são números de 0 – 1 e que pode ser interpretado de três formas diferentes. Além disso, foram discutidas as questões de diferenças de probabilidade e chance, aleatoriedade, população x amostra, o que era exatidão e precisão, erros padrão, intervalos de confiança ... Também, foram discutidos a relação de poder, tamanho da amostra e tamanho do efeito no final do capítulo, onde o autor mostra a relação entre poder x tamanho da amostra, poder x tamanho do efeito e tamanho do efeito x tamanho da amostra, onde o último é inversamente proporcional ao ao outro. extremamente superficial. 3. [1.500] (IP:281473826429941 | 11:56:41 | 23:21:54 | 25:13 | 568.754) Discuta as implicações da aditividade. A aditividade refere-se a um requisito básico do modelo linear generalizado. Neste modelo, os pontos se ajustam de forma aditiva refletindo numa individualização das variáveis onde estas podem ser trabalhadas separadamente. Com esta separação podemos verificar se as diferenças encontradas são devido ao acaso ou devido ao tratamento. Se não fosse um efeito aditivo, não seria possível distinguir o efeito do acaso e dos tratamentos. ok mas bastante superficial 4. [0.000] (IP:281473826429941 | 11:56:44 | 23:30:22 | 33:38 | 495.133) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. A heterocedase constitui de diferentes variâncias para tratamentos e acaso, impossibilitando a observação da influência de uma mesma variação em diferentes parcelas. Por isso, não é possível realizar o isolamento da variação do acaso e dos tratamentos. Para se prever que tal problema ocorra o pesquisador deve analisar bem o seu experimento e tentar o mais precisamente possível controlar as variações do tratamento, de forma que repita bem as análises, utilize a casualização e quando necessário utilize o controle local. Dessa forma, os tratamentos responderão de forma semelhante e entre as parcelas não haja diferença. heterocedase não tem PN a ver com variação do tratamento, mas sim com a variação do acaso se tratamento para tratamento. Isto é algo completamente diferente. 5. [1.500] (IP:281473826429941 | 11:56:50 | 23:34:55 | 38:05 | 265.706) Porque precisamos considerar que a variação do acaso no conjunto de um tratamento é zero? Qual o raciocínio lógico por trás disto? A variação do acaso deve ser considerada zero para que tenha a possibilidade de calcular o efeito do tratamento isolado. No modelo linear aditivo, as variações entre os pontos são devido ao tratamento e ao acaso numa distribuição normal, por isso, no momento em que se igual a a zero conseguimos calcular o efeito do tratamento separadamente. A variação do acaso necessariamente deve ser independente dos tratamentos para que se possa fazer essa avaliação. o porque ficou ok,mas nem sequer mencionou a distribuição normal, que é um dos requisitos essenciais para isto... 6. [1.500] (IP:281473816235736 | 13:59:22 | 17:31:51 | 32:29 | 129.521) Discuta as implicações da aditividade. A aditividade é um requisito do modelo linear generalizado. Os efeitos aditivos permitem separar os efeitos que ocorrem devido aos tratamentos, dos que acontecem devido ao acaso. Portanto torna possível verificar se o resultado apresentado de uma observação é decorrente dos tratamentos aplicados, que ocorre quando o efeito dos tratamentos apresenta-se muito superior ao efeito da variação do acaso. muito superficial 7. [2.000] (IP:281473816235736 | 14:00:16 | 17:32:46 | 32:30 | 53.84) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. A heterocedade ocorre quando as variações do acaso entre os tratamentos são desiguais. Isso implica no aumento do nível de significância, elevando as chances de cometer o erro tipo I. Ocorrendo heterocedase torna-se impossível distinguir as variações do acaso dos efeitos dos tratamentos porque os dados apresentam variações do acaso diferentes. Para evitar que este problema ocorra é importante estar atento aos objetivos da pesquisa, ao número de repetições utilizadas (usar número de repetições iguais). Realizar testes para a verificação de homocedase como Cochran, Hartley, Bartley e Levene, como também verificar se existe outliers (pontos discrepantes na distribuição dos dados) ótimo 8. [2.000] (IP:281473816235736 | 14:00:35 | 17:34:42 | 34:07 | 111.734) Discuta as técnicas utilizadas para identificar e resolver problemas com outliers. Outliers são pontos que estão muito discrepantes do comportamento geral na distribuição dos dados. A presença dos outliers aumenta a heterocedase, o que torna maior a chance de cometer do erro tipo I. Geralmente o pesquisador identifica a presença de outliers através da observação do conjunto de dados quando este for pequeno e através de ferramentas gráficas (ex: histograma). Dependendo do caso pode-se eliminar tal ponto, e em casos mais complexos podese chegar a eliminar um tratamento, outra questão é fazer transformações (Raiz quadrada, mudar a base, Logaritmo, Arcoseno). É importante ressaltar que antes de eliminar os outliers é importante conhecer as causas do aparecimento destes pontos discrepantes na distribuição dos dados, sendo esta um decisão que deve ser tomada através da experiência e conhecimento do pesquisador. ok 9. [0.500] (IP:281473816235736 | 14:01:00 | 17:35:30 | 34:30 | 46.083) Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega. O capítulo 3 do livro Biostatistcs for dummies trata-se de uma pequena revisão sobre estatística básica e aborda tópicos como conceito de probabilidade, aleatoriedade, amostragem, tipos de distribuição, testes de hipóteses e estatística paramétrica e não paramétrica. De modo geral é um texto bem escrito e útil a pessoas que não estão muito familiarizados com os termos estatísticos devido a linguagem utilizada que facilita o entendimento. A apresentação feita esta semana foi boa, porém alguns tópicos poderiam ser melhor abordados como os de amostragem e aleatoriedade. Porém, acredito que os principais tópicos foram abordados e de modo geral foi uma boa apresentação. é o primeiro resumo de um capítulo em cinco linhas que eu vejo, e dificilmente poderia ser mais superficial 10. [0.500] (IP:281473816235736 | 14:01:35 | 17:35:56 | 34:21 | 18.314) Porque precisamos considerar que a variação do acaso no conjunto de um tratamento é zero? Qual o raciocínio lógico por trás disto? Ao considerar que a variação do acaso no conjunto de um tratamento é zero, é possível calcular o efeito do tratamento isoladamente das variações do acaso, já que os todos os tratamento estarão submetidos às mesmas variações do acaso. razão ok, mas sequer tenta mencionar porque podemos fazer isto... além disto, a resposta estaria superficial na graduação, quanto mais na pós. 11. [1.000] (IP:281473208881682 | 10:23:58 | 14:20:51 | 56:53 | 28.243) Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega. O capitulo 3 do livro Biostatistics for Dummies, é uma curta revisão de estatística básica, que explica a essência da estatística e cita quais as principais ferramentas, e a importância de cada uma delas para realização de um bom trabalho. Tais como o que é probabilidade, grau de certeza, aleatoriedade, normalidade, os principais testes estatísticos (mais conhecidos), amostragem, inferência e estimação estatística, intervalo de confiança, erro padrão, principais erros estatísticos, hipótese estatística, força dos testes estatísticos e testes não paramétricos. Mas a apresentação deixou de citar pontos essenciais do ponto de vista estatístico como a aleatoriedade, amostragem, hipótese nula e alternativa. Embora de maneira geral o apresentador tenha se saído bem, pois é reconhecível que a quantidade de assunto era grande e ficava difícil de sintetizar tudo. vamos ser sumários, mas assim também é demais 12. [2.000] (IP:281473208881682 | 10:24:39 | 14:21:13 | 56:34 | 16.096) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. Para se aplicar o modelo linear generalizado numa pesquisa é necessário que se obedeça alguns requisitos dentre eles se inclui a homocedade que significa que os tratamentos estão submetidos ao mesmo efeito do acaso e sujeito aos mesmos erros experimentais. Diferente da heterocedase que significa que a variação do acaso é diferente nos tratamentos, acarretando uma elevação do nível de significância aumentando dessa forma a probabilidade de ocorrer erros do tipo I. Não se pode distinguir o efeito do tratamento da variação do acaso. Para diminuir a heterocedase devese conhecer bem os objetivos da pesquisa, ter um número igual de repetições para cada tratamento, e pode-se utilizar alguns testes que são utilizados para verificar a homocedase, além de se observar a presença de outilers. mesmo efeito do acaso é exatamente a mesma coisa de mesmos erros experimentais. 13. [1.500] (IP:281473208881682 | 10:24:54 | 14:21:50 | 56:56 | 12.86) Porque precisamos considerar que a variação do acaso no conjunto de um tratamento é zero? Qual o raciocínio lógico por trás disto? Por que os diferentes tratamentos estarão, sendo submetidos ao mesmo acaso, dessa forma um anularia o outro. O uso da casualização permite que os efeitos de tratamento e acaso sejam igualmente distribuídos para todos (anulados), e que os erros experimentais sejam independentes. correto, mas muito superficial 14. [2.000] (IP:281473208881682 | 10:25:50 | 14:21:57 | 56:07 | 4.58) Discuta as técnicas utilizadas para identificar e resolver problemas com outliers. Para identificação dos outilers, são utilizados métodos de observação, de distribuição dos dados (histograma) frequências, testes de homocedase (Levence), entre outros. Deve-se observar se pode ter ocorrido erro experimental, de digitação, ou amostral com estes pontos que estão muito acima ou abaixo da média, podendo elimina-lo(s). Se não houver nenhum destes erros, pode-se fazer transformações dos dados (logarítmica, raiz quadrada, exponencial entre outras), para diminuir sua distribuição, o que consequentemente fará o Coeficiente de variação diminuir. Devese também levar em consideração o enfoque da pesquisa, pois quem sempre deve tomar as decisões a respeito da eliminação ou não é o pesquisador e não o estatístico, ou seja não se deve eliminar pontos só pra se ter uma estatística com significância ou com o CV baixo, mas sim ter uma importância pra pesquisa em si. muito bom 15. [2.000] (IP:281473208881682 | 10:26:07 | 14:22:17 | 56:10 | 16.908) Discuta as implicações da aditividade. Os efeitos aditivos permitem a separação dos efeitos de tratamento e acaso para que eles sejam igualmente distribuídos pra todos os tratamentos, bem como fazer com que os erros experimentais sejam independentes. É possível verificar se o resultado apresentado de uma observação é decorrente dos tratamentos aplicados, que ocorre quando o efeito dos tratamentos apresenta-se muito superior ao efeito da variação do acaso. ok 16. [2.000] (IP:281473824248428 | 13:51:36 | 16:18:23 | 26:47 | 26.594) Discuta as técnicas utilizadas para identificar e resolver problemas com outliers. Bem, Outliers são pontos que estão fora do comportamental geral em um conjunto de dados, ou seja, são observações que aparentemente não são consistentes quando comparadas a outras observações. As principais causas que levam ao aparecimento de Outliers são erros de execução, de medição, fraudes, variabilidade dentro da população por exemplo, etc. Identifica-se outliers geralmente por meio de análise gráfica ou observação direta dos mesmos quando o conjunto de dados é pequeno. As ferramentas utilizadas para identificar outliers são: Modelos de discordância, Histogramas, Gráfico de box, teste de Dixon e teste de Grubbs. Podem ainda ser identificados a partir de um gráfico dos resíduos versus a variável preditora ou valores ajustados. Pode-se usar o box-plot ou ramo-e-folhas. Pode-se identificar os outliers utilizando os resíduos,isto é, o ponto menos o valor da média o que vai dar uma achatada nos valores dos dados do conjunto e terá uma base do conjunto de dados ou utilizar o resíduo padronizado; se o ponto tiver mais três ou menos três desvios padrões da média é um outlier, isto porque 95% dos dados deverão está a mais ou menos 2 desvio padrão da média. Algumas literaturas consideram que o uso dos resíduos padronizados são muito úteis, pois é fácil identificar resíduos que estão muitos desvios padrões a partir de zero. Como regra geral considera-se outliers os resíduos que estão 4 ou mais desvios padrões a partir de zero. Alguns testes podem ser utilizados para testar homogeneidade de variância que são: Bartlett, Cohran, Hartley e Levene. O teste de Levene calcula o resíduo da análise de variância, ele é utilizado para fazer análise de variância dos resíduos em valores absolutos, com os tratamentos. Se as variâncias forem homogêneas(homocedastica), o teste F será não significativo. Antes de decidir o que deverá ser feito às observações outliers é conveniente ter conhecimento das causas que levam ao seu aparecimento. Em muitos casos as razões da sua existência determinam as formas como devem ser tratadas. É importante lembrar que a decisão de eliminação dos outliers é de pesquisa (pesquisador) e não da estatística. A eliminação de outliers é realizada por que eles induzem a heterocedasticidade, quando realizamos a sua eliminação é para diminuir a heterocedasticidade, e melhorar o comportamento geral dos dados e assim consequentemente tornando o resultado homocedástico. A maneira mais simples de lidar com os outliers é eliminando - os, no entanto, esta abordagem, apesar de ser muito utilizada, não é aconselhável. Ela só se justifica no caso de os outliers serem devidos a erros cuja correção é inviável. Caso contrário, as observações consideradas como outliers devem ser tratadas cuidadosamente, pois contêm informação relevante sobre características subjacentes aos dados. o que diabos é comportamental? fora isto, excelente 17. [2.000] (IP:281473824248428 | 13:57:20 | 16:14:40 | 17:20 | 5.674) Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega. Bem o capítulo 3 do livro de Biostatistics for Dummies, mostrou algumas regras básicas utilizadas para a probabilidade, e ainda transcorreu sobre assuntos referentes a tópicos como: aleatoriedade, amostras e populações, testes de hipóteses e erros tipo I e II, inferências estatísticas e poder do teste. O livro no início falou sobre as regras da probabilidade do "e", do "ou" e do "não" que são referentes a probabidade de ocorrer um evento, de ocorrer eventos independentes e de não ocorrer definitivamente um evento. Transcorreu ainda sobre o Odds vs a probabilidade, onde a principal diferença seria que a probabilidade varia de 0 a 1 e o Odds de 0 até o infinito. Mostrou ainda alguns exemplos como qual a probabilidade de se jogar uma moeda para cima e tirar um cara ou de se tirar um às de espada dentro de um conjunto de contendo 52 cartas, e a possibilidade de tirar um cara jogando uma moeda para cima e tirar ao mesmo tempo um às de espada, seria o produto entre 1/2 x 1/52. O capítulo fala ainda sobre aleatoriedade, onde nunca saberemos do resultado de um experimento caso nele estejam inseridos elementos aleatórios, a aleatoriedade faz com que você nunca seja tendencioso quanto aos seus dados, não existe a mínima possibilidade de saber qual será o próximo número ou dado quando estes tipos de dados estão envolvidos. Porém com os dados obtidos de uma amostra pode-se fazer inferências sobre como uma população de plantas de um modo geral pode se comportar para um determinado substrato por exemplo. O capítulo falou ainda sobre amostras e populações, falando que não importa quão cuidadosa tenha sido obtida a sua amostra ela sempre será um reflexo imperfeito da população, considerando sempre que a diferença entre ela e a população de onde a mesma foi obtida é decorrente de flutuações aleatórias. Falou ainda dos testes de hipótese onde temos para cada trabalho de pesquisa principalmente as hipóteses: nula e a alternativa, onde a nula é sempre a negativa e a alternativa é aquela que você quer provar cientificamente que ela existe através da metodologia experimental que você utilizará. Os erros mais comuns também foram abordados, são do tipo I e tipo II. Erro tipo I é quando um pesquisador encontra um resultado e diz que este é significativo quando este na realidade não é. E erro tipo II é quando ele não encontra uma diferença significativa quando na realidade ela existe. Este capítulo ainda falou sobre acurácia e precisão, onde a acurácia indica o quão próximo meus dados encontram-se dos valores reais e estes são muitas vezes impossíveis de saber quais são os valores reais que eu quero encontrar e precisão é nada mais do que o quanto minhas repetições estão próximas umas das outras com referência a uma dosagem por exemplo, ou um tiro num alvo; se no alvo eu acertei um certo ponto várias vezes eu posso considerar preciso esses tiros. ok 18. [2.000] (IP:281473824248428 | 14:41:35 | 15:02:09 | 20:34 | 1232.113) Porque precisamos considerar que a variação do acaso no conjunto de um tratamento é zero? Qual o raciocínio lógico por trás disto? Porque a variação devido ao acaso dentro de um conjunto de dados de um tratamento tem que ser considerada zero para podermos calcular o efeito do tratamento isoladamente, num conjunto de um tratamento, reduzindo desta forma o número de variáveis. O modelo matemático mais utilizado é o linear (aditivo), este tipo de modelo demonstra que a variação entre os pontos ocorrem somente em função do efeito do tratamento e da variação do acaso, com a ocorrência de uma distribuição normal dos dados (simétricos), o formato simétrico da distribuição normal permite que a variação do acaso sendo zero, dentro do conjunto de um tratamento, possa encontrar o efeito do tratamento no conjunto do tratamento, com os valores dos tratamentos podemos calcaular a variação do acaso no tratamento geral. A variação do acaso que acontece entre parcelas do mesmo tratamento não poderá ser influenciada pelo efeito do tratamento, a variação do acaso tem que ser independente da variação do tratamento, para identificar o efeito do tratamento. ótimo o ponto sobre a distribuição normal 19. [1.750] (IP:281473824248428 | 15:02:09 | 15:09:08 | 06:59 | 399.406) Discuta as implicações da aditividade. A aditividade nos permite avaliar se a variação entre os pontos ocorre devido ao acaso ou ao tratamento, pois se o efeito do modelo fosse múltiplo não seria possível distinguir um fator de outro. À proporção que um fator fosse modificado o outro também seria, impedindo assim, a separação do que é devido ao acaso ou ao tratamento. Os efeitos aditivos, onde o modelo é a média mais os tratamentos mais o acaso, permite avaliar de forma independente a variação do tratamento para posterior avaliação da variação do acaso. na realidade a aditividade permite separar os efeitos, e não definir qual a causa da variação. 20. [2.000] (IP:281473824248428 | 15:09:16 | 16:17:49 | 08:33 | 6.229) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. Porque ela impossibilita um dos pontos chaves do modelo linear generalizado que é a possibilidade de atribuir a influência de um mesmo acaso em todos os tratamentos nas diferentes parcelas. Diante disto o isolamento da variação do acaso não pode ser feito, impossibilitando também a avaliação do efeito do efeito dos tratamentos. Numa situação de heterocedase não é possível encontrar um valor que represente as variações do acaso, já que o próprio acaso variou entre si sem ser possível sua representatividade por um único valor. Para evitar a heterocedase é necessário que o pesquisador desenvolva seu experimento com todo o cuidado possível, tentando garantir desta forma a exatidão no seu experimento excluindo tudo o que poderia influenciar no mesmo, seja na pesagem, na aplicação de correta e rigorosa dos princípios experimentais, repetindo, casualizando e quando necessário for aplicando o controle local, garantindo desta forma que as variações ocorridas entre os mesmos tratamentos naquele experimento foram unicamente frutos do acaso e que este acaso estava semelhante entre as parcelas. a primeira frase é simplesmente uma descrição do que é heterocedase... 21. [1.000] (IP:281473660059155 | 00:13:06 | 23:31:25 | 18:19 | 34.079) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. A heterocedase é considerada um problema por proporcionar indivisibilidade entre o efeito do tratamento e efeito do acaso. Consequentemente, o efeito do tratamento não será representado com confiabilidade. Isso ocorre devido a certos tratamentos possuírem maior variabilidade que outros. É como se o acaso não tivesse atuado de forma homogenia e não teríamos como representá-lo. Então, como saberíamos se o efeito do tratamento foi maior ou menor que o do acaso? Portanto, a heterocedase aumenta as chances de incorrer-se no erro tipo I (em rejeitar H0, quando este deve ser aceita). Se a heterocedase está instaurada, pressupõe-se que não há homocedase (já que são antagônicas), o qual é um requisito básico para a aplicação do Modelo Linear Generalizado. Para evitar a heterocedase é fundamental certificar-se que todos os tratamentos estejam RIGOROSAMENTE submetidos à casualização, repetibilidade e quando necessário o controle local. Desta forma, maximiza-se a uniformidade do efeito do acaso para todos os tratamentos. indivisibilidade ou falta de independência. A meu ver a segunda alternativa, já que não dividimos os efeitos no sentido de divisão, mas sim de separação. Além disto, não é COMO se o acaso não tivesse sido homogêneo... é exatamente isto. As medidas descritas reduzem a incidência da heterocedase, mas não são suficientes, ou confiáveis. 22. [1.000] (IP:281473660059155 | 23:31:28 | 23:31:57 | 00:29 | 28.862) Porque precisamos considerar que a variação do acaso no conjunto de um tratamento é zero? Qual o raciocínio lógico por trás disto? É necessário considerar que o conjunto das variações do acaso seja zero para tornar possível calcular o efeito de cada um dos tratamentos daquele experimento. Logicamente, se anularmos o efeito do acaso na equação do MLG fica evidente quantificarmos o efeito do tratamento ou dos tratamentos, que é um ponto crucial que se busca no experimento. O efeito do tratamento é então obtido com o valor da média mais o efeito do tratamento. Assim, ao encontrar a variação do acaso no experimento, podemos saber quanto o experimento variou devido ao efeito do acaso. Toda essa lógica só é possível se tivermos uma distribuição normal da variação do acaso. não tenho ideia do que tentou dizer com a primeira frase para ser honesto. Só mencionou o que permite isto na última frase, e ainda assim sem explicar porque... 23. [1.500] (IP:281473660059155 | 23:32:00 | 23:32:28 | 00:28 | 3.258) Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega. O capítulo 3 de Statistic for Dummies aborda questões básicas como a probabilidade e possibilidade, esclarecendo a diferença dessas entidades, pois não é rara a aplicação errônea desses termos. Ficou evidente que a probabilidade possue regras que podem facilitar a estimativa de alguns eventos, que foram as regras do NÃO, E e OU. Na apresentação pode se observar a probabilidade no exemplo do lançamento de um dado, e qual seria a probabilidade de virar um “4”, por exemplo, (1/4). A situação abordada para possibilidade [(Prob (X)/1 – Prob (X)] revelou as chances de acontecimento de determinado evento, no caso a chuva. Ficou claro que a amostragem é um reflexo imperfeito da população e que quanto maior o número de amostragem maior o poder de um determinado teste estatístico. Além disso, a normalidade de uma distribuição de dados foi abordada de forma simples em que se pode perceber quão importante é uma distribuição normal para análises paramétricas e que existe teste não paramétricos para as situações em que os dados não adquiriram normalidade mesmo após transformações. Tanto no capítulo como na apresentação foi um dificultoso o entendimento de acurácia e precisão, mas nas discussões pós-apresentação ficou esclarecido e pode-se perceber que a acurácia é a realidade. A precisão seria a similaridade nas repetições de um evento ou experimento e que os indicadores de precisão podem ser o erro padrão e os intervalos de confiança. considerando que o dado tem seis números, desde quando a probabilidade de 4 é 1/4? Cuidado com o que escreve. Dificultoso é difícil de engolir. De resto, razoável 24. [1.500] (IP:281473660059155 | 23:32:28 | 23:32:45 | 00:17 | 16.866) Discuta as implicações da aditividade. A aditividade é uma característica e um requisito para aplicação do Modelo Linear Generalizado (Yij = μ + Tj + Eij). Portanto, é possível verificar a independência das variáveis: média geral, efeito do tratamento, do acaso e que esses efeitos se somam. Assim, para verificarmos o efeito de um determinado tratamento (o que nós queremos de fato) bastaria anular o efeito do acaso, admitindo, é claro, todos os demais requisitos para aplicação do MLG. Neste sentido, podemos verificar a origem dos efeitos observados durante o processo de análise dos resultados. média é uma variável? superficial 25. [2.000] (IP:281473660059155 | 23:32:48 | 23:33:44 | 00:56 | 55.896) Discuta as técnicas utilizadas para identificar e resolver problemas com outliers. A identificação de dados que fogem à normalidade (outliers) é realizada geralmente, através de um plano gráfico onde se observa a distribuição de cada um destes em relação ao conjunto de observações. Assim torna-se possível a visualização dos dados com maiores chances de serem outliers. Agora que os principais “candidatos” a outliers foram identificados faz-se necessário o emprego de observações mais criteriosas como a analise padronizada dos resíduos Resíduo padronizado=desvio (ponto –média) / (raiz QMR) onde cerca de 67% dos dados deveram ficar contidos no intervalo de -1 a 1 RP, 95% estarão contidos entre -2 e 2 RP, sendo que valores que se encontrem fora do intervalo -3 a 3 RP são muito suspeitos. Pode-se usar o teste de z-scores, onde se calcula os z-scores, isto é, os valores z-standardizados dos dados, em caso onde o conjunto dos dados é pequeno (inferior a 50), valores que tenham z-scores inferiores a -2.5 ou superiores a 2.5 devem ser considerados outliers, Se o conjunto dos dados é grande, valores que tenham z-socres inferiores a -3.3 ou superiores a 3.3 são tipicamente considerados outliers. Após sua identificação eles podem ser eliminados, porém deve-se ter muito cuidado ao adotar essa possibilidade pois essas observações anormais podem conter informações cruciais que serão necessárias para a conclusão da pesquisa. Para evitar o erro de eliminar um dado importante mesmo esse sendo anormal deve-se fazer uso de transformações que possivelmente poderão normalizar o conjunto de dados, caso não ocorra a normalização, os dados podem ser analisados através de testes não-paremetricos ou simplesmente eliminados da análise. excelente comentário: 26. [2.000] (IP:281473664877860 | 11:02:16 | 23:55:19 | 53:03 | 4.925) Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega. O capítulo aborda uma breve revisão de estatística básica permitindo o estudante de estatística lidar com probabilidade, aleatoriedade, amostragem e inferências estatísticas, assim como teste de hipóteses e testes estatísticos não paramétricos. O autor inicia com a definição de probabilidade diferenciando de chance, onde se relacionam, mas não são sinônimos, sendo calculadas por fórmulas diferentes. Desta forma, a probabilidade como um número de frequência relativa de ocorrência de um evento (0 e 1) é regida por várias regras básicas com: regra do “não”, regra do “e” e regra do “ou”. Assim como probabilidade, a palavra aleatoriedade é algo que usamos o tempo todo, significando ausência de qualquer padrão nos números. Essa aleatoriedade não pode prever um resultado específico, mas pode dizer como um grupo de números aleatórios se comporta coletivamente, por meio de um histograma ou gráfico de distribuição de frequência que mostra as flutuações aleatórias apresentando um formato de sino quando a distribuição é normal. Ainda, essas flutuações aleatórias apresentam distribuição dos dados desde Normal ou Gaussiana, como já citada, Log-normal, Binomial e Poisson. Essas distribuições de frequências descrevem variações nos números que você calcula que são utilizados para obter os valores de p, através de testes com t de Student, qui-quadrado ou distribuição de F. Essas amostras com valores aleatórios que compreendem a uma população, geralmente são divididas em dois tópicos: teoria da inferência estatística e teoria da estimação estatística. A primeira é o desenho de conclusões sobre uma população com base no que você vê em uma amostra de uma população, enquanto que segunda incide sobre a exatidão e precisão das coisas. Ainda na teoria da inferência estatística a distribuição de amostragens apresentam erros padrões, indicando a forma como a sua precisão de estimativa ou media de alguma coisa é, e intervalos de confiança que fornece outra maneira para indicar a precisão de uma estimativa ou medição de alguma coisa. Já na Teoria da decisão estatística em uma forma mais básica lida com a determinação se ou não algum efeito real está presente nos dados. Outro ponto abordado no capítulo o teste de hipótese, hipótese nula ou alternativa, admitindo erro do Tipo 1 ou erro do tipo 2. Já em relação ao poder do tamanho da amostra e do tamanho do efeito, para todos os teste de estatística, o poder sempre aumenta á medida que o tamanho da amostra aumenta. Por fim, os testes não paramétricos não assumem normalidade, eles fazem certas suposições sobre os dados. algo superficial, mas razoável o suficiente 27. [2.000] (IP:281473664877860 | 11:03:45 | 21:56:17 | 52:32 | 12.682) Discuta as técnicas utilizadas para identificar e resolver problemas com outliers. A presença de outliers em ensaios agronômicos afetam os resultados dos testes F e Tukey, sendo sua presença indicada quando valores de assimetria e curtose são diferentes de zero. Entretanto, vale ressaltar que nem sempre valores ruins são discrepantes (outliers) podendo ser o objeto de pesquisa. A presença desses outliers pode ser observada em três casos, quando é apenas em relação a variável dependente, quando é apenas em relação a variável independente e quando é em relação a ambos. No mais o critério adotado para detectar e retirar esses valores discrepantes baseia-se em métodos estatísticos. A presença de outliers pode ser detectada a partir do gráfico de dispersão ou a partir de um boxplot, além disso há vários teste que podem observar a presença desses valores atípicos, como: Teste do escore Z Modificado, que utiliza estimadores robustos, como a mediana, o que garante não terem sidos os valores utilizados para definir outlier afetados pelo mesmo; Teste de Grubbs, utilizado para dados que seguem a distribuição log-normal; Teste de Dixon, ele se atenta para a diferença entre os valores máximos e mínimo e seus valores vizinhos, gerando uma razão r a qual é atribuída uma certa distribuição; o teste de Cochran definido como sendo um teste para estudar variabilidade interna de um laboratório; e o teste de Doerffel utilizado para pequenos conjuntos de dados baseado em um diagrama. Portanto, não se deve ignorar a presença de outliers, nem tão pouco apenas eliminá- los sem descobrir a razão de suas presenças nos dados, mesmo sabendo que sua eliminação é realizada por que eles induzem a heterocedasticidade. excelente 28. [1.500] (IP:281473664877860 | 11:04:00 | 23:55:05 | 51:05 | 1216.977) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. A heterocedase é o inverso de um dos pressupostos estabelecidos para aplicação de um modelo. Sendo assim, por não obedecer um desses pressupostos impede a utilização do modelo, elevando o erro do tipo 1 pois você rejeita a hipótese nula em decorrência do aumento do nível de significância. Sem falar no aumento da variância e o não uso de apenas uma variância do acaso para todo o experimento. Vários teste podem ser utilizados para tentar preveni-la, como: teste de Cochran, hartley, bartlett etc. Além disso, outra forma de ajuda é o controle de outliers que induzem a heterocedasticidade e até a transformação dos dados. só explicou porque é um problema na terceira frase, e não mencionou prevenção, mas sim correção 29. [2.000] (IP:281473664877860 | 11:04:16 | 20:21:10 | 16:54 | 119.02) Porque precisamos considerar que a variação do acaso no conjunto de um tratamento é zero? Qual o raciocínio lógico por trás disto? No modelo linear generalizado, onde se separa a variação total dos dados em suas partes o valor de cada ponto é baseado na soma do efeito do tratamento e do acaso ao valor médio do experimento como um todo. Só que todos esses efeitos são calculados com base em valores individuais, que sofrem ao mesmo tempo as atuações dos tratamentos e do acaso. Assim, ficaria impossível separar as duas coisas. Para resolver este problema, assume-se que: no geral de um tratamento, o efeito do acaso é nulo; existe apenas uma variação do acaso que é igual para todo mundo e a variação do acaso é completamente independente do tratamento. excelente 30. [1.000] (IP:281473664877860 | 11:04:38 | 20:18:52 | 14:14 | 21.593) Discuta as implicações da aditividade. Cada tipo de delineamento experimental é regido por um modelo estatístico (ou matemático) e para validar os testes de hipótese e inferências cada modelo deve ter suas pressuposições atendidas. Uma destas é a aditividade, que permite separar os efeitos de tratamento (DIC) ou os efeitos de tratamento com os efeitos das variáveis de blocagem (DBC e DQL) daquele resultante do acaso, garantindo a independência entre eles e consequentemente a origem dos efeitos observados. Esse efeito conjunto das variáveis explicativas sobre a variável dependente pode ser testado pelo teste F, se o F-calculado for maior que o F-tabelado, com (p-1) e (n-p) graus de liberdade (dado α% de nível de significância) rejeita-se a hipótese nula. Quando as pressuposições, como a aditividade, não forem atendidas pode-se lançar mão da transformação dos dados, modelo linear generalizado ou testes não paramétricos. só não mencionou porque a aditividade permite a separação... 31. [2.000] (IP:281473660059155 | 19:52:13 | 23:26:23 | 34:10 | 2.473) Discuta as técnicas utilizadas para identificar e resolver problemas com outliers. A identificação dos dados potencialmente aberrantes (outliers) é feita geralmente, por análise gráfica ou, no caso de um conjunto muito pequeno, as observações podem ser feitas por observação direta dos mesmos. Desta maneira são identificados os dados com fortes possibilidades de serem outliers. Após a identificação dos possíveis outliers deve-se fazer observações mais precisas como um gráfico de Box onde através da mediana os dados são divididos em três partes P1 (parte inferior), P2 (mediana) e P3 (parte superior), é feita a subtração P3 – P1 tendo como resultado o intervalo (G) sendo que os valores que estiverem fora do intervalo P1 – 3G e P3 + 3G serão considerados outliers. Através de testes como o de Grubbs (G) a razão entre do desvio (di) de cada ponto em relação à média di= |xi – média| pelo desvio padrão (s) G = di/s . Sendo que um valor será considerado outliers quando G for maior que o valor crítico tabelado. Depois de identificados os possíveis outliers a maneira mais fácil de lidar com eles seria sua eliminação, no entanto deve-se tomar cuidado pois esses dados podem conter informações relevantes sobre características subjacentes ao conjunto de dados e poderão ser decisivas no conhecimento da população à qual pertence a amostra em estudo. Por isso antes de fazer a eliminação os dados devem ser transformados, onde dependendo de sua forma de distribuição pode ser através de raiz quadrada, logaritmo ou arco-seno. No caso onde mesmo após as transformações e verificado que não foi um erro no momento da transcrição dos dados e caso a falta desse ou desses valores não afetem a confiabilidade da análise, o pesquisador pode optar pela eliminação destes. excelente 32. [2.000] (IP:281473660059155 | 21:39:01 | 23:26:17 | 47:16 | 738.471) Discuta as implicações da aditividade. A aditividade é um pré-requisito para a aplicação do modelo linear generalizado, ela garante que exista independência entre o efeito do acaso e o efeito do tratamento, tornando-se importante por permitir o isolamento da influência do tratamento do efeito causado devido ao acaso e com isso torna-se possível verificar se o efeito é realmente devido o emprego do tratamento ou se foi devido a variações inerentes do ambiente ou do próprio material experimental. na realidade a aditividade também separa os demais efeitos, não somente acaso e tratamento 33. [1.500] (IP:281473660059155 | 18:09:22 | 22:36:06 | 26:44 | 7.311) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. A heterocedase ocorre devido a efeitos desiguais da variância o que impede que seja a utilização do modelo linear generalizado que necessita que os tratamentos sejam homocedasticos. A desigualdade na variação do acaso tem como consequência o aumento do nível de significância o que proporciona uma maior possibilidade da ocorrência do erro tipo I, elevando as chances de se concluir erroneamente sobre o experimento realizado. Também torna-se impossível distinguir entre a variação que ocorre em função do tratamento e a que ocorre em função do acaso. Já que para se calcular é necessário que as incógnitas sejam passiveis de individualização, deve-se considerar que a variação do acaso é homogênea em todo o experimento e que possa ser anulada, tornando possível calcular a outra incógnita. Para evitar a ocorrência da heterocedase faz-se necessário rigorosidade na implantação do experimento através dos princípios básicos da experimentação: repetibilidade, casualização e homogeneidade do ambiente experimental, podem ser realizados testes (Bartlett, Levene ou Cochran) para verificar a homogeneidade dos tratamentos (homocedase) e identificar a presença de ou não de outliers, que podem ser eliminados ou transformado o que possibilita a normalização e homogeneização do tratamento. não são efeitos desiguais da variância, mas sim variâncias do acaso desiguais. Além disto, não são os tratamentos que são homocedásticos, mas sim as variações do acaso dos diferentes tratamentos. De resto, ok 34. [2.000] (IP:281473660059155 | 19:52:37 | 23:30:14 | 37:37 | 213.439) Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega. O capítulo abordou questões elementares na estatística como probabilidade, possibilidade, população e amostragem. Além disso, foi enfatizada a importância de uma distribuição normal de dados forma simples durante a apresentação. Acurácia e precisão são indicadores de confiabilidade e podem representar uma população ou o comportamento de uma população ainda que de forma imperfeita. A apresentação foi simples e esclarecedora através de exemplos do cotidiano e acadêmico. Ao compreender a regra do “não” da probabilidade, por analogia, entendeu-se a obtenção do poder do teste (P =1 – beta). Os indicadores de precisão são fundamentais para um determinado processo de estimativa, são eles: erro padrão e intervalo de confiança. A apresentação exemplificou a média de uma dose de inseticida que possivelmente provocaria 50% de mortalidade e seus limites inferiores e superiores com p = 5%. A apresentação foi boa e levantou questões interessantes que foram esclarecidas juntamente com os alunos e o professor no final da apresentação. ok, mas poderia discutir mais 35. [1.500] (IP:281473660059155 | 19:52:52 | 22:14:36 | 21:44 | 8.24) Porque precisamos considerar que a variação do acaso no conjunto de um tratamento é zero? Qual o raciocínio lógico por trás disto? Quando consideramos que a variação do acaso em um conjunto de observações (tratamento) é zero, proporcionamos que o efeito do tratamento possa ser calculado isoladamente, sem que haja influência do acaso e com isso reduzimos a quantidade de variáveis. Nos experimentos, os vários efeitos devem ser aditivos, tanto é que para cada delineamento estatístico existe um modelo matemático denominado modelo linear aditivo, nesse modelo podemos ver que a variação entre os dados só sofre influência do efeito do tratamento e da variação do acaso, com isso em um experimento onde a distribuição dos dados seja normal (distribuição simétrica em forma de sino) torna-se possível encontrar, quando a variação do acaso for zero, o efeito do tratamento no conjunto do tratamento, com os valores dos tratamentos podemos calcular a variação do acaso no tratamento geral. não é a variação do acaso que é zero, como afirmado no final do texto, mas a variação do acaso no CONJUNTO de um tratamento que é zero... isto é algo completamente diferente... 36. [1.500] (IP:281473855877618 | 20:38:26 | 23:12:29 | 34:03 | 4.366) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. Para que seja possível a aplicação do modelo linear generalizado é necessário que o conjunto de dados apresente homocedase para que seja possível a representação dos tratamentos a partir de um único valor de variação do acaso. Quando há heterocedase não é possível obter um único valor de variação do acaso para representar todos os tratamentos impossibilitando inferir qual dado é resultado do efeito do tratamento ou da variação do acaso,visto que o próprio acaso varia entre si. Quando há heterocedase não é possível a aplicação do MLG e o trabalho desenvolvido pode ser invalidado. Para prevenir o aparecimento de heterocedase o executor do experimento deve ser minucioso durante a execução do experimento desde a montagem, fazendo quando necessário uso de controle local, fazendo uso de repetições, casualização entre outras medidas. é imprescindível testar para a heterocedase, o que você nem sequer menciona. A maioria das respostas inclui as medidas corretivas... 37. [2.000] (IP:281473855877618 | 21:25:29 | 23:16:50 | 51:21 | 2.401) Porque precisamos considerar que a variação do acaso no conjunto de um tratamento é zero? Qual o raciocínio lógico por trás disto? Em um conjunto de dados é necessário considerar a varição do acaso como sendo zero por admitir que os efeitos positivos e negativos do acaso podem ser anulados. Isso permite inferir que quaisquer varições que venham a surgir são oriundas dos tratamentos empregados e não da variação do acaso. O raciocínio lógico é que quando se admite que a varição do acaso no conjunto de dados é zero é possível estabelecer que os efeitos do tratamento não irão variar entre as parcelas do experimento, ou seja, o efeito do tratamento apresenta uniformidade, nesse caso o tratamento não seria influenciado pelo acaso e todos os efeitos são resultado da variação do tratamento. ok 38. [2.000] (IP:281473855877618 | 21:27:10 | 23:19:38 | 52:28 | 6.607) Discuta as técnicas utilizadas para identificar e resolver problemas com outliers. Outiliers são pontos discrepantes quando comparados ao conjunto de dados, ou seja, apresentam comportamento diferente dos demais pontos. A detecção de outliers pode ser utilizada para verificar existência de fraudes, detectar intrusões ( ataques em sistemas de computadores), detectar perturbações em ecossistemas (secas, enchentes, furacões, etc). As técnicas de detecção de outliers podem se basear em distância, densidade e em enfoques estatísticos. Dependendo da natureza dos outliers esses podem afetar ou não a análise de dados de medição. Existem algumas técnicas convencionais para detecção de outliers como o teste da razão e verossimilhança, teste do multiplicador de Lagrange, deslocamento de verossimilhança. O desempenho da técnica de detecção depende da natureza da série analisada ou do tipo de outlier existente. Outras técnicas também são utilizadas para detectar a existência de outlier como: Extreme Studentized Devate (ESD), Z-Score, Test Box Plot, Exponential Smoothing (ExpSM). Uma medida que geralmente é aplicada é a eliminação do outlier, no entanto essa medida deve ser tomada baseada no conhecimento que o pesquisador tem do experimento e não com base apenas no conhecimento estatístico pois a depender das condições do experimento a eliminação de um outlier pode deixar de levar em consideração algum fator relevante externo que está afetando a séria de dados. ok 39. [1.000] (IP:281473855877618 | 21:28:12 | 23:22:00 | 53:48 | 15.186) Discuta as implicações da aditividade. A aditividade permite em um experimento separar o que é efeito de tratamento do que efeito da variação do acaso.No modelo linear generalizado os efeitos são aditivos, ou seja, o valor de um ponto qualquer é a função da média geral do efeito do tratamento e da variação do acaso. Devido a hemocedase é possível admitir a existência de apenas uma variância do acaso para todo o experimento,pois como há independência entre os resíduos o erro que ocorrer em uma parcela experimental não provoca interferência no erro de outra parcela. A independência dos resíduos diminui o nível de significância e minimiza a chance de cometer um erro do tipo I. muito confuso 40. [2.000] (IP:281473855877618 | 21:28:14 | 23:56:19 | 28:05 | 5.607) Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega. O capítulo fornece uma visão geral de probabilidade, aleatoriedade, populações , amostras, inferência estatística, teste de hipóteses , e as estatísticas não paramétricas . O autor inicia o assunto propriamente dito definindo probabilidade como sendo a chance que um evento tem de ocorrer ou não, em linhas gerais, admite que probabilidade é a frequência relativa da ocorrência de um evento.Nesse caso a probabilidade seria um número entre 0 e 1, onde 0 significa que o evento definitivamente não ocorrerá e 1 que o evento definitivamente ocorrerá, sendo a probabilidade determinada em função de duas regras básicas: -A probabilidade de algum evento X não acontecer é 1 menos a probabilidade de X acontecimento : Prob ( não X ) = 1 - Prob ( X ) -Para dois eventos independentes, X e Y, a probabilidade de evento X e tanto acontecendo Y é igual ao produto e a probabilidade de cada um dos dois eventos : Prob ( X e Y ) = Prob (X) x Prob (Y) -Para dois eventos independentes , X e Y , a probabilidade de um ou outro, ou ambos os eventos que acontecem é dada por uma fórmula mais complicada, que pode ser derivada a partir de duas regras anteriores . Prob ( X ou Y ) = 1 - ( 1 - Prob ( X ) ) X ( 1 - Prob ( Y ) ) O autor define ainda o conceito de chance e faz uma ressalva pra diferença que há entre chance e probabilidade, onde chance é a probabilidade de algo acontecer dividido pela probabilidade dessa coisa não está acontecendo . Assim , sabendo que a probabilidade de que algo não acontecendo é 1 menos a probabilidade de que a coisa acontecendo. Chances = Probabilidade / (1 - Probabilidade ) Define o conceito de aleatoriedade como sendo a ausência de qualquer padrão nos números que pode ser utilizado para prever o próximo número.A principal idéia por trás do termo que você não pode prever um resultado específico se um aleatório elemento está envolvido. A ferramenta básica para descrever a distribuição de valores para alguma variável em uma amostra de indivíduos é o histograma ou distribuição de freqüência. Define amostragem e população e apresenta as diferenças existentes entre os dois termos. População: Todos os indivíduos com um conjunto precisamente definido de características (por exemplo: Humano, Homem, 18-65 etárias, com o estágio do câncer de pulmão 3); Amostra: Um subgrupo de uma população definida, selecionada para o estudo experimental.Qualquer amostra, não importa quão cuidadosamente ele é selecionado, é apenas uma reflexão imperfeita da população, devido à ocorrência inevitável do acaso com flutuações na amostragem. O texto trata ainda das diversas maneiras de representação da distribuição de probabilidades e que estas podem ser representadas como -Como uma equação matemática ,como um gráfico da distribuição, como uma tabela de valores.Realata que existem diversos tipos de distribuições e que estas podem ser distribuições que descrevem dados(normal,log-normal,binomial e Poisson) e distribuições que surgem durante o teste estatístico. Define ainda alguns conceitos básicos como Erro padrão onde o erro diz-lhe quanto a estimativa ou valor medido pode variar se você tivesse que repetir a experiência ou a medição muitas vezes , usando uma amostra aleatória diferente da mesma população de cada vez e gravar o valor que você obteve de cada vez.Intervalo de confiança,onde o autor afirma que é uma maneira de indicar a precisão de uma estimativa ou medição de alguma coisa. Trata também da teoria da decisão estatística,hipótese nula, hipótese alternativa e como essas hipóteses levam aos dois tipos de erro.Trata dos testes de significância, teste F e valor de p e finaliza fazendo um breve comentário de estatística não paramétrica. excelente 41. [1.500] (IP:281473653672857 | 19:15:47 | 21:56:58 | 41:11 | 2499.134) Porque precisamos considerar que a variação do acaso no conjunto de um tratamento é zero? Qual o raciocínio lógico por trás disto? No modelo linear generalizado o valor de um ponto qualquer é função da média geral, do efeito do tratamento e da variação ao acaso. Quando se considera que o efeito do acaso dentro do conjunto de uma tratamento é igual a zero pode-se calcular o efeito do tratamento isoladamente reduzindo o número de variáveis.O modelo aditivo utilizado permite que a variação entre os pontos ocorra somente em função do efeito do tratamento e da variação do acaso, com a ocorrência de distribuição normal dos dados (simétrica, permitindo encontrar o efeito do tratamento dentro do conjunto de tratamento quando consideramos a variação do acaso igual a zero. Para poder identificar o efeito do tratamento, este precisa ser independente da variação do acaso , e ainda a variação do acaso do efeito entre as parcelas do mesmo tratamento não pode ser influenciada pelo efeito do tratamento. confuso, e meio circular 42. [2.000] (IP:281473653672857 | 11:57:06 | 00:14:17 | 17:11 | 7.478) Discuta as implicações da aditividade. A aditividade é um requisito do Modelo Linear Generalizado, que permite distinguir o efeito da variação ao acaso do efeito proporcionado pelo tratamento, como também permite a separação dos outros efeitos entre si e com o acaso. Se houvesse um efeito multiplicativo ao invés do aditivo, por exemplo, não haveria possibilidade de distinguir esses efeitos e o acaso. À medida que um fator fosse modificado o outro também seria, impedindo, assim, distinguir o que era devido ao acaso e o que era devido ao tratamento ou a outro efeito. Dessa forma torna-se possível atribuir a origem dos efeitos observados pela aditividade. A variação do acaso é independente, ou seja, o erro que acontece em uma parcela não interfere no erro que acontece em outra parcela o que possibilita o isolamento da mesma. ok 43. [2.000] (IP:281473653672857 | 11:57:19 | 23:49:42 | 52:23 | 43.462) Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega. A probabilidade é o grau de certeza, o acaso, ou a possibilidade de que algo vai acontecer, ela descreve a freqüência relativa de ocorrência de um evento como a obtenção de um cara ou coroa. Para probabilidade são usados números que variam de 0 a 1, sendo que o 0 significa que o evento não vai acontecer, 1 que o evento vai acontecer e entre 0 e 1 que o evento vai ocorrer em uma parte do tempo a longo prazo. Assim a probabilidade de que algo aconteça será dada por 1/N, como por exemplo a probabilidade de tirar um Ás de espadas em um baralho e de 1/52. Existem três regras básicas de probabilidade, a regra do não, a regra do E e a regra do Ou. Regra do não: Prob (não x) = 1- prob (x); em que a probabilidade do evento x não acontecer será 1 menos a probabilidade de x acontecer. Regra do E: Prob ( X e Y ) = Prob (X) x Prob (Y); em que a probabilidade do evento x e y acontecendo é igual ao produto e a probabilidade de cada um dos dois eventos.Regra do OU: Prob ( X ou Y ) = 1 - ( 1 - Prob ( X ) ) X ( 1 - Prob ( Y ) ); em que a probabilidade de x e/ou Y ocorrerem. A possibilidade é a probabilidade de algo acontecer dividido pela probabilidade de não acontecer. Quando a probabilidade é baixa a possibilidade também é baixa mais a medida em que a probabilidade aumenta a possibilidade aumenta muito mais rapidamente e tende ao infinito. Já a aleatoriedade é um termo utilizado em dados obtidos em experiências. Aleatório significa a ausência de qualquer padrão em uma sequência de números. Dessa forma não se pode prever um resultado específico quando um elemento aleatório está inserido. O primeiro passo para análise de um conjunto de dados é fazer a estatística descritiva para mostrar como um conjunto de dados estão espalhados ao redor e mostra a entre dois ou mais conjuntos de dados. Os histogramas podem ser utilizados como ferramenta básica para descrever a distribuição de valores. Estes histogramas podem ser categóricos e contínuo. A populaçã é um conjunto de todos os indivíduos com características precisamente definidas, enquanto que a amostragem é um subgrupo da população definida e selecionada para estudo experimental. Uma amostra é uma reflexão imperfeita da população devido a ocorrência do acaso. As amostras diferem das populações devido a flutuações aleatórias. Estatísticos compreender quantitativamente como flutuações aleatórias comportam por desenvolvimento de equações matemáticas, chamadas funções de distribuição de probabilidade , que descrever quão provável é que as flutuações aleatórias excederá qualquer magnitude. Existem algumas distribuições descrevem as flutuações aleatórias : Normal, Log-normal, Binomial , Poisson. Inferência estatística é o desenho de conclusões sobre uma população com base no que se vê em uma amostra de uma população. Em consonância com a idéia de que os estatísticos entender como flutuações aleatórias comportam-se podemos dizer que a teoria da inferência estatística está preocupado com a forma como podemos extrair o que é real em nossos dados, apesar do ruído aleatório inevitável que está sempre presente devido a flutuações de amostragem ou erros de medição. Esta área muito ampla da teoria estatística é geralmente dividida em dois temas: Teoria estimativa estatística e teoria da decisão estatística e teoria da estimação estatística. O erro padrão (abreviado SE) é uma maneira de indicar a forma como a sua precisão de estimativa ou medida de alguma coisa é . A SE diz-lhe quanto a estimativa ou valor medido pode variar se você tivesse que repetir a experiência ou a medição muitas vezes , usando uma amostra aleatória diferente da mesma população de cada vez e gravar o valor que você obteve de cada vez. Este conjunto de números que têm uma propagação de valores , que formam o que é chamado a distribuição amostral para essa variável. Os intervalos de confiança fornecer outra maneira para indicar a precisão de um estimativa ou medição de alguma coisa. Um intervalo de confiança (IC ) em torno de um valor estimado é o intervalo em que você tem um certo grau de certeza, chamado o nível de confiança (CL) , que o verdadeiro valor para que mentiras variáveis. Se calculada corretamente, seu intervalo de confiança citado deve abranger o verdadeiro valor percentual do tempo de , pelo menos, igual ao nível de confiança citado. a aleatoridade não é ligada somente a dados experimentais, também ocorrendo em amostragens e seus dados. 44. [2.000] (IP:281473653672857 | 11:59:41 | 23:48:45 | 49:04 | 2.551) Discuta as técnicas utilizadas para identificar e resolver problemas com outliers. Um outliers é um ponto discrepante que se apresenta muito distante dos outros dados considerados em uma variável. Erros de medição, variabilidade da população, dentre outras causas levam ao aparecimento desses dados(outliers), sendo bastante importante identificar e solucionar os problemas que estejam relacionados a sua presença em uma análise de dados. Quando o conjunto de dados é pequenos a observação dos outliers pode ser por observação direta ou por análise gráfica. Os métodos utilizados para a identificação de outliers são: os gráficos de Box, histogramas, modelos de discordância, teste de Dixon, teste de Grubbs e através de gráfico dos resíduos com os valores ajustados, dentre outros. A identificação dos outliers utilizando os resíduos pode ser obtida pelo ponto menos o valor da média, achatando o conjunto de dados ou dividindo pela média da variação do acaso ( resíduo padronizado. O ponto é considerado um outliers quando tiver mais 3 ou menos 3 desvio padrão da média , visto que 95% dos pontos devem estar a mais 2 ou menos 2 desvio padrão da média. No gráfico Box é calculado a mediana o quartil superior e o quartil inferior, subtraindo o inferior do superior. os valores que estiverem entre Q3+1,5L - Q3+3L e Q1-1,5L - Q1-3L, são considerados outliers, sendo aceitos na população com alguma suspeita. Neste caso os valores que tiverem maiores que Q3+3L e menores que Q1-3L devem ser considerados suspeitos devendo ser investigada a origem da dispersão, estes pontos são aqueles que encontrar-se nos extremos do conjunto de dados. os testes de Bartlett, Cohran, Hartley e Levene podem ser utilizados para testar a homogeneidade de variância. O teste de Levene é utilizado para fazer a análise de variância dos resíduos em valores absolutos com os tratamentos através de calculo do resíduo da análise de variância. Quando as variâncias forem homogêneas o teste F não será significativo. As causas que levaram ao aparecimento dos outliers devem ser observadas para saber se realmente eles são mesmo outliers. Daí eles podem ser eliminados ou não, mas essa decisão cabe ao pesquisador e não a estatistica, pois a presença dele pode ser bastante importante no contesto. quando os outliers são eliminados diminui-se a heterocedase e aumenta consequentemente a homocedase melhorando o comportamento geral dos dados. excelente 45. [2.000] (IP:281473653672857 | 12:00:12 | 23:09:11 | 08:59 | 1010.309) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. A heterocedase impossibilita a atribuição da influencia de um mesmo acaso em todas os tratamentos nas diferentes parcelas, que é um ponto bastante importante no modelo linear generalizado. Dessa forma não pode-se fazer o isolamento da variação do acaso e consequentemente a avaliação do efeito do tratamento. Quando ocorre a heterocedase o próprio acaso varia entre si, não sendo possível encontrar um valor que represente essa variação. A heterocedase pode ser evitada quando o experimento é desenvolvido cuidadosamente, de forma a garantir que cuidados como pesagem correta e aplicação dos princípios experimentais repetindo, casualizando e fazendo o controle local quando necessário de forma a garantir que as variações sejam somente devido ao acaso e que estas sejam próximas entre as parcelas. a segunda frase mata a questão, mas a terceira mata a lógica gramatical violentamente... o que diabos é o próprio acaso variar entre si pelamordedeus? 46. [0.000] (IP:281473696755103 | 21:16:51 | 22:23:51 | 07:00 | 4018.469) Discuta as implicações da aditividade. Sendo uma das pressuposições a serem consideradas na realização de testes paramétricos como a análise de variância, a aditividade determina que os efeitos dos fatores de variação (tratamentos e ambiente) sobre a variável sejam passíveis de serem somados uns aos outros. A não aditividade pode alterar, para mais ou para menos, o erro residual do experimento (erro não controlado) e incorrer em interpretações errôneas quanto à significância das diferenças entre as médias dos tratamentos. Uma vez que a interação entre esses fatores de variação sejam estatisticamente não significativos, eles podem ser incorporados ao erro residual (erro não controlado). Caso seja significante, a variância desses efeitos deve ser isolada e tratada como outro fator de variação. tão confuso que não consegui entender o que queria dizer depois da primeira frase 47. [2.000] (IP:281473696755103 | 22:24:10 | 23:19:07 | 54:57 | 1.972) Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega. O capítulo “Getting statistical: a short review of basic statistics” apresentado pelo Jaconias abordou conceitos básicos sobre probabilidade, randomização, amostragem, inferência estatística, teste de hipóteses e testes não paramétricos. A probabilidade foi apresentada como a chance ou grau de certeza de determinado evento ocorrer e corresponde a um número entre 0 e 1, podendo ainda ser apresentada na forma de porcentagem, como exemplificado que a probabilidade de se obter cara no lançamento de uma moeda é de 0.5 ou de 50%. O texto ainda relata os tipos de distribuição descritiva de probabilidades que pode ser normal (em forma de sino, descreve a maioria das variáveis encontradas), Log-normal (inclinada), binomial (descreve proporções) e de Poisson (descreve o número de ocorrências de eventos esporádicos) e as distribuições que surgem durante os testes estatísticos e que não descrevem a flutuação dos dados observados, mas descreve flutuações em números calculados como parte dos testes estatísticos. Probabilidade difere de Odds que indica quantas vezes essa chance pode ocorrer em um conjunto de chances possíveis. Assim, considerando que uma moeda tem dois lados e um dado seis, a Odds de cair cara no lançamento de uma moeda é de 1 em duas e a de cair determinado número para cima no lançamento de uma dado é de 1 em seis. A randomização ou aleatoriedade foram apresentadas como a ausência de qualquer padrão na distribuição das suas variáveis ou coleta de dados como forma de evitar beneficiar determinado tratamento em detrimento a outros. Enquanto a amostragem se refere ao processo pelo qual parte representativa da população é selecionada para ser analisada, a população corresponde a todos os indivíduos que compartilham um conjunto de características comuns e, bem por isso, assume-se que a amostra nunca será perfeita, pois não contempla todas as diferenças da população. As inferências correspondem a conclusões acerca de uma população baseadas no que foi observado nas amostras dessa população e tem como ideia central extrair o que existe de mais real nos dados obtidos apesar dos erros decorrentes da flutuação aleatória. As inferências podem ser feitas de acordo com estimativas baseadas, dentre outros componentes, na acurácia (quão próximos do real são seus dados), precisão (referente à repetibilidade dos seus dados), erro padrão (quanto dos valores medidos pode variar se repetirmos o experimento várias vezes), intervalo de confiança (intervalo em que se tem certo nível de confiança do real valor daquela variável). Outra forma de se fazer inferência seria determinando se alguns efeitos estão ou não presentes em seus dados seguindo a teoria da decisão. Finalmente, os testes de hipóteses que envolvem diversos termos específicos e que são aplicados a métodos científicos envolvendo dados com flutuação aleatória. ok 48. [2.000] (IP:281473696755103 | 23:19:07 | 23:48:28 | 29:21 | 1760.948) Porque precisamos considerar que a variação do acaso no conjunto de um tratamento é zero? Qual o raciocínio lógico por trás disto? Precisamos considerar que os efeitos positivos e negativos do acaso sobre nossas amostras se anulem para calcularmos o efeito dos tratamentos isoladamente dentro do conjunto de dados. Nesse sentido, é necessário que a variação do acaso também seja nula sobre os indivíduos ou parcelas, se for o caso, de cada tratamento para não alterar a resposta dentro dos tratamentos. bem colocado 49. [0.000] (IP:0 | 23:48:31 | --:--:-- | --:-- | ------ ) Discuta as técnicas utilizadas para identificar e resolver problemas com outliers. Em branco 50. [2.000] (IP:281473696755103 | 23:58:25 | 23:58:31 | 00:06 | 5.759) Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para preveni-la. A heterocedase corresponde ao efeito de variâncias desiguais e não permite determinar a influência de um mesmo acaso em todos os tratamentos nas diferentes parcelas, o que impede a aplicação do modelo linear generalizado. Numa situação de heterocedase o nível de significância pode ser superestimado levando a interpretações errôneas. Para preveni-la é necessário acurácia no planejamento e desenvolvimento dos experimentos, na coleta de dados e padronização da metodologia a ser empregada, eliminar outliers e empregar testes adequados para identifica-la. ok