1. [2.000] (IP:281473826429941 | 11:55:47 | 23:43:54 | 48:07

Propaganda
1. [2.000] (IP:281473826429941 | 11:55:47 | 23:43:54 | 48:07 | 531.825)
Discuta as técnicas utilizadas para identificar e resolver problemas com outliers.
Os outliers são pontos que tem um comportamento geral bastante diferenciado da maioria, o que
provocam uma heterocedasticidade. Para resolver esse problema, é realizada uma análise de
resíduo padronizado realizando uma relação com a média de cada tratamento através da fórmula
Rp=desvio(ponto-média)/(raizQMR), onde se esses valores forem cerca de 95% na faixa de -3 a 3
ele deve ser eliminado, porque pode ser efeito do acaso. Todavia, é necessário refazer a análise
e observar se o problema persiste. Caso continue, deve ser feita uma transformação. Esses
dados só podem ser eliminados com absoluta certeza de que são devido a erros cometidos e sua
correção não seja viável.
ótimo
2. [0.500] (IP:281473826429941 | 11:56:00 | 23:59:33 | 03:33 | 911.333)
Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega.
O capítulo de livro passado para a última aula abordou o tema capturando estatística: Uma breve
revisão de estatística básica. O autor iniciou o capítulo abordando o que era probabilidade,
descrevendo que “a probabilidade descreve a freqüência relativa de ocorrência de um
determinado evento”. Com isto, afirmou que a mesma são números de 0 – 1 e que pode ser
interpretado de três formas diferentes. Além disso, foram discutidas as questões de diferenças de
probabilidade e chance, aleatoriedade, população x amostra, o que era exatidão e precisão, erros
padrão, intervalos de confiança ... Também, foram discutidos a relação de poder, tamanho da
amostra e tamanho do efeito no final do capítulo, onde o autor mostra a relação entre poder x
tamanho da amostra, poder x tamanho do efeito e tamanho do efeito x tamanho da amostra, onde
o último é inversamente proporcional ao ao outro.
extremamente superficial.
3. [1.500] (IP:281473826429941 | 11:56:41 | 23:21:54 | 25:13 | 568.754)
Discuta as implicações da aditividade.
A aditividade refere-se a um requisito básico do modelo linear generalizado. Neste modelo, os
pontos se ajustam de forma aditiva refletindo numa individualização das variáveis onde estas
podem ser trabalhadas separadamente. Com esta separação podemos verificar se as diferenças
encontradas são devido ao acaso ou devido ao tratamento. Se não fosse um efeito aditivo, não
seria possível distinguir o efeito do acaso e dos tratamentos.
ok mas bastante superficial
4. [0.000] (IP:281473826429941 | 11:56:44 | 23:30:22 | 33:38 | 495.133)
Porque a heterocedase pode ser considerada um problema sério, e o que devemos
fazer para preveni-la.
A heterocedase constitui de diferentes variâncias para tratamentos e acaso, impossibilitando a
observação da influência de uma mesma variação em diferentes parcelas. Por isso, não é
possível realizar o isolamento da variação do acaso e dos tratamentos. Para se prever que tal
problema ocorra o pesquisador deve analisar bem o seu experimento e tentar o mais
precisamente possível controlar as variações do tratamento, de forma que repita bem as análises,
utilize a casualização e quando necessário utilize o controle local. Dessa forma, os tratamentos
responderão de forma semelhante e entre as parcelas não haja diferença.
heterocedase não tem PN a ver com variação do tratamento, mas sim com a variação do acaso
se tratamento para tratamento. Isto é algo completamente diferente.
5. [1.500] (IP:281473826429941 | 11:56:50 | 23:34:55 | 38:05 | 265.706)
Porque precisamos considerar que a variação do acaso no conjunto de um
tratamento é zero? Qual o raciocínio lógico por trás disto?
A variação do acaso deve ser considerada zero para que tenha a possibilidade de calcular o
efeito do tratamento isolado. No modelo linear aditivo, as variações entre os pontos são devido ao
tratamento e ao acaso numa distribuição normal, por isso, no momento em que se igual a a zero
conseguimos calcular o efeito do tratamento separadamente. A variação do acaso
necessariamente deve ser independente dos tratamentos para que se possa fazer essa
avaliação.
o porque ficou ok,mas nem sequer mencionou a distribuição normal, que é um dos requisitos
essenciais para isto...
6.  [1.500] (IP:281473816235736 | 13:59:22 | 17:31:51 | 32:29 | 129.521)
Discuta as implicações da aditividade.
A aditividade é um requisito do modelo linear generalizado. Os efeitos aditivos permitem separar
os efeitos que ocorrem devido aos tratamentos, dos que acontecem devido ao acaso. Portanto
torna possível verificar se o resultado apresentado de uma observação é decorrente dos
tratamentos aplicados, que ocorre quando o efeito dos tratamentos apresenta-se muito superior
ao efeito da variação do acaso.
muito superficial
7.  [2.000] (IP:281473816235736 | 14:00:16 | 17:32:46 | 32:30 | 53.84)
Porque a heterocedase pode ser considerada um problema sério, e o que devemos
fazer para preveni-la.
A heterocedade ocorre quando as variações do acaso entre os tratamentos são desiguais. Isso
implica no aumento do nível de significância, elevando as chances de cometer o erro tipo I.
Ocorrendo heterocedase torna-se impossível distinguir as variações do acaso dos efeitos dos
tratamentos porque os dados apresentam variações do acaso diferentes. Para evitar que este
problema ocorra é importante estar atento aos objetivos da pesquisa, ao número de repetições
utilizadas (usar número de repetições iguais). Realizar testes para a verificação de homocedase
como Cochran, Hartley, Bartley e Levene, como também verificar se existe outliers (pontos
discrepantes na distribuição dos dados)
ótimo
8.  [2.000] (IP:281473816235736 | 14:00:35 | 17:34:42 | 34:07 | 111.734)
Discuta as técnicas utilizadas para identificar e resolver problemas com outliers.
Outliers são pontos que estão muito discrepantes do comportamento geral na distribuição dos
dados. A presença dos outliers aumenta a heterocedase, o que torna maior a chance de cometer
do erro tipo I. Geralmente o pesquisador identifica a presença de outliers através da observação
do conjunto de dados quando este for pequeno e através de ferramentas gráficas (ex:
histograma). Dependendo do caso pode-se eliminar tal ponto, e em casos mais complexos podese chegar a eliminar um tratamento, outra questão é fazer transformações (Raiz quadrada, mudar
a base, Logaritmo, Arcoseno). É importante ressaltar que antes de eliminar os outliers é
importante conhecer as causas do aparecimento destes pontos discrepantes na distribuição dos
dados, sendo esta um decisão que deve ser tomada através da experiência e conhecimento do
pesquisador.
ok
9.  [0.500] (IP:281473816235736 | 14:01:00 | 17:35:30 | 34:30 | 46.083)
Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega.
O capítulo 3 do livro Biostatistcs for dummies trata-se de uma pequena revisão sobre estatística
básica e aborda tópicos como conceito de probabilidade, aleatoriedade, amostragem, tipos de
distribuição, testes de hipóteses e estatística paramétrica e não paramétrica. De modo geral é um
texto bem escrito e útil a pessoas que não estão muito familiarizados com os termos estatísticos
devido a linguagem utilizada que facilita o entendimento. A apresentação feita esta semana foi
boa, porém alguns tópicos poderiam ser melhor abordados como os de amostragem e
aleatoriedade. Porém, acredito que os principais tópicos foram abordados e de modo geral foi
uma boa apresentação.
é o primeiro resumo de um capítulo em cinco linhas que eu vejo, e dificilmente poderia ser mais
superficial
10.  [0.500] (IP:281473816235736 | 14:01:35 | 17:35:56 | 34:21 | 18.314)
Porque precisamos considerar que a variação do acaso no conjunto de um
tratamento é zero? Qual o raciocínio lógico por trás disto?
Ao considerar que a variação do acaso no conjunto de um tratamento é zero, é possível calcular o
efeito do tratamento isoladamente das variações do acaso, já que os todos os tratamento estarão
submetidos às mesmas variações do acaso.
razão ok, mas sequer tenta mencionar porque podemos fazer isto... além disto, a resposta estaria
superficial na graduação, quanto mais na pós.
11.  [1.000] (IP:281473208881682 | 10:23:58 | 14:20:51 | 56:53 | 28.243)
Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega.
O capitulo 3 do livro Biostatistics for Dummies, é uma curta revisão de estatística básica, que
explica a essência da estatística e cita quais as principais ferramentas, e a importância de cada
uma delas para realização de um bom trabalho. Tais como o que é probabilidade, grau de
certeza, aleatoriedade, normalidade, os principais testes estatísticos (mais conhecidos),
amostragem, inferência e estimação estatística, intervalo de confiança, erro padrão, principais
erros estatísticos, hipótese estatística, força dos testes estatísticos e testes não paramétricos.
Mas a apresentação deixou de citar pontos essenciais do ponto de vista estatístico como a
aleatoriedade, amostragem, hipótese nula e alternativa. Embora de maneira geral o apresentador
tenha se saído bem, pois é reconhecível que a quantidade de assunto era grande e ficava difícil
de sintetizar tudo.
vamos ser sumários, mas assim também é demais
12.  [2.000] (IP:281473208881682 | 10:24:39 | 14:21:13 | 56:34 | 16.096)
Porque a heterocedase pode ser considerada um problema sério, e o que devemos
fazer para preveni-la.
Para se aplicar o modelo linear generalizado numa pesquisa é necessário que se obedeça alguns
requisitos dentre eles se inclui a homocedade que significa que os tratamentos estão submetidos
ao mesmo efeito do acaso e sujeito aos mesmos erros experimentais. Diferente da heterocedase
que significa que a variação do acaso é diferente nos tratamentos, acarretando uma elevação do
nível de significância aumentando dessa forma a probabilidade de ocorrer erros do tipo I. Não se
pode distinguir o efeito do tratamento da variação do acaso. Para diminuir a heterocedase devese conhecer bem os objetivos da pesquisa, ter um número igual de repetições para cada
tratamento, e pode-se utilizar alguns testes que são utilizados para verificar a homocedase, além
de se observar a presença de outilers.
mesmo efeito do acaso é exatamente a mesma coisa de mesmos erros experimentais.
13.  [1.500] (IP:281473208881682 | 10:24:54 | 14:21:50 | 56:56 | 12.86)
Porque precisamos considerar que a variação do acaso no conjunto de um
tratamento é zero? Qual o raciocínio lógico por trás disto?
Por que os diferentes tratamentos estarão, sendo submetidos ao mesmo acaso, dessa forma um
anularia o outro. O uso da casualização permite que os efeitos de tratamento e acaso sejam
igualmente distribuídos para todos (anulados), e que os erros experimentais sejam
independentes.
correto, mas muito superficial
14.  [2.000] (IP:281473208881682 | 10:25:50 | 14:21:57 | 56:07 | 4.58)
Discuta as técnicas utilizadas para identificar e resolver problemas com outliers.
Para identificação dos outilers, são utilizados métodos de observação, de distribuição dos dados
(histograma) frequências, testes de homocedase (Levence), entre outros. Deve-se observar se
pode ter ocorrido erro experimental, de digitação, ou amostral com estes pontos que estão muito
acima ou abaixo da média, podendo elimina-lo(s). Se não houver nenhum destes erros, pode-se
fazer transformações dos dados (logarítmica, raiz quadrada, exponencial entre outras), para
diminuir sua distribuição, o que consequentemente fará o Coeficiente de variação diminuir. Devese também levar em consideração o enfoque da pesquisa, pois quem sempre deve tomar as
decisões a respeito da eliminação ou não é o pesquisador e não o estatístico, ou seja não se
deve eliminar pontos só pra se ter uma estatística com significância ou com o CV baixo, mas sim
ter uma importância pra pesquisa em si.
muito bom
15.  [2.000] (IP:281473208881682 | 10:26:07 | 14:22:17 | 56:10 | 16.908)
Discuta as implicações da aditividade.
Os efeitos aditivos permitem a separação dos efeitos de tratamento e acaso para que eles sejam
igualmente distribuídos pra todos os tratamentos, bem como fazer com que os erros
experimentais sejam independentes. É possível verificar se o resultado apresentado de uma
observação é decorrente dos tratamentos aplicados, que ocorre quando o efeito dos tratamentos
apresenta-se muito superior ao efeito da variação do acaso.
ok
16.  [2.000] (IP:281473824248428 | 13:51:36 | 16:18:23 | 26:47 | 26.594)
Discuta as técnicas utilizadas para identificar e resolver problemas com outliers.
Bem, Outliers são pontos que estão fora do comportamental geral em um conjunto de dados, ou
seja, são observações que aparentemente não são consistentes quando comparadas a outras
observações. As principais causas que levam ao aparecimento de Outliers são erros de
execução, de medição, fraudes, variabilidade dentro da população por exemplo, etc.
Identifica-se outliers geralmente por meio de análise gráfica ou observação direta dos mesmos
quando o conjunto de dados é pequeno. As ferramentas utilizadas para identificar outliers são:
Modelos de discordância, Histogramas, Gráfico de box, teste de Dixon e teste de Grubbs. Podem
ainda ser identificados a partir de um gráfico dos resíduos versus a variável preditora ou valores
ajustados. Pode-se usar o box-plot ou ramo-e-folhas. Pode-se identificar os outliers utilizando os
resíduos,isto é, o ponto menos o valor da média o que vai dar uma achatada nos valores dos
dados do conjunto e terá uma base do conjunto de dados ou utilizar o resíduo padronizado; se o
ponto tiver mais três ou menos três desvios padrões da média é um outlier, isto porque 95% dos
dados deverão está a mais ou menos 2 desvio padrão da média. Algumas literaturas consideram
que o uso dos resíduos padronizados são muito úteis, pois é fácil identificar resíduos que estão
muitos desvios padrões a partir de zero. Como regra geral considera-se outliers os resíduos que
estão 4 ou mais desvios padrões a partir de zero. Alguns testes podem ser utilizados para testar
homogeneidade de variância que são: Bartlett, Cohran, Hartley e Levene. O teste de Levene
calcula o resíduo da análise de variância, ele é utilizado para fazer análise de variância dos
resíduos em valores absolutos, com os tratamentos. Se as variâncias forem
homogêneas(homocedastica), o teste F será não significativo. Antes de decidir o que deverá ser
feito às observações outliers é conveniente ter conhecimento das causas que levam ao seu
aparecimento. Em muitos casos as razões da sua existência determinam as formas como devem
ser tratadas. É importante lembrar que a decisão de eliminação dos outliers é de pesquisa
(pesquisador) e não da estatística. A eliminação de outliers é realizada por que eles induzem a
heterocedasticidade, quando realizamos a sua eliminação é para diminuir a heterocedasticidade,
e melhorar o comportamento geral dos dados e assim consequentemente tornando o resultado
homocedástico. A maneira mais simples de lidar com os outliers é eliminando - os, no entanto,
esta abordagem, apesar de ser muito utilizada, não é aconselhável. Ela só se justifica no caso de
os outliers serem devidos a erros cuja correção é inviável.
Caso contrário, as observações consideradas como outliers devem ser tratadas cuidadosamente,
pois contêm informação relevante sobre características subjacentes aos dados.
o que diabos é comportamental? fora isto, excelente
17.  [2.000] (IP:281473824248428 | 13:57:20 | 16:14:40 | 17:20 | 5.674)
Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega.
Bem o capítulo 3 do livro de Biostatistics for Dummies, mostrou algumas regras básicas utilizadas
para a probabilidade, e ainda transcorreu sobre assuntos referentes a tópicos como:
aleatoriedade, amostras e populações, testes de hipóteses e erros tipo I e II, inferências
estatísticas e poder do teste. O livro no início falou sobre as regras da probabilidade do "e", do
"ou" e do "não" que são referentes a probabidade de ocorrer um evento, de ocorrer eventos
independentes e de não ocorrer definitivamente um evento. Transcorreu ainda sobre o Odds vs a
probabilidade, onde a principal diferença seria que a probabilidade varia de 0 a 1 e o Odds de 0
até o infinito. Mostrou ainda alguns exemplos como qual a probabilidade de se jogar uma moeda
para cima e tirar um cara ou de se tirar um às de espada dentro de um conjunto de contendo 52
cartas, e a possibilidade de tirar um cara jogando uma moeda para cima e tirar ao mesmo tempo
um às de espada, seria o produto entre 1/2 x 1/52. O capítulo fala ainda sobre aleatoriedade,
onde nunca saberemos do resultado de um experimento caso nele estejam inseridos elementos
aleatórios, a aleatoriedade faz com que você nunca seja tendencioso quanto aos seus dados, não
existe a mínima possibilidade de saber qual será o próximo número ou dado quando estes tipos
de dados estão envolvidos. Porém com os dados obtidos de uma amostra pode-se fazer
inferências sobre como uma população de plantas de um modo geral pode se comportar para um
determinado substrato por exemplo.
O capítulo falou ainda sobre amostras e populações, falando que não importa quão cuidadosa
tenha sido obtida a sua amostra ela sempre será um reflexo imperfeito da população,
considerando sempre que a diferença entre ela e a população de onde a mesma foi obtida é
decorrente de flutuações aleatórias.
Falou ainda dos testes de hipótese onde temos para cada trabalho de pesquisa principalmente as
hipóteses: nula e a alternativa, onde a nula é sempre a negativa e a alternativa é aquela que você
quer provar cientificamente que ela existe através da metodologia experimental que você utilizará.
Os erros mais comuns também foram abordados, são do tipo I e tipo II. Erro tipo I é quando um
pesquisador encontra um resultado e diz que este é significativo quando este na realidade não é.
E erro tipo II é quando ele não encontra uma diferença significativa quando na realidade ela
existe. Este capítulo ainda falou sobre acurácia e precisão, onde a acurácia indica o quão próximo
meus dados encontram-se dos valores reais e estes são muitas vezes impossíveis de saber quais
são os valores reais que eu quero encontrar e precisão é nada mais do que o quanto minhas
repetições estão próximas umas das outras com referência a uma dosagem por exemplo, ou um
tiro num alvo; se no alvo eu acertei um certo ponto várias vezes eu posso considerar preciso
esses tiros.
ok
18.  [2.000] (IP:281473824248428 | 14:41:35 | 15:02:09 | 20:34 | 1232.113)
Porque precisamos considerar que a variação do acaso no conjunto de um
tratamento é zero? Qual o raciocínio lógico por trás disto?
Porque a variação devido ao acaso dentro de um conjunto de dados de um tratamento tem que
ser considerada zero para podermos calcular o efeito do tratamento isoladamente, num conjunto
de um tratamento, reduzindo desta forma o número de variáveis. O modelo matemático mais
utilizado é o linear (aditivo), este tipo de modelo demonstra que a variação entre os pontos
ocorrem somente em função do efeito do tratamento e da variação do acaso, com a ocorrência de
uma distribuição normal dos dados (simétricos), o formato simétrico da distribuição normal
permite que a variação do acaso sendo zero, dentro do conjunto de um tratamento, possa
encontrar o efeito do tratamento no conjunto do tratamento, com os valores dos tratamentos
podemos calcaular a variação do acaso no tratamento geral. A variação do acaso que acontece
entre parcelas do mesmo tratamento não poderá ser influenciada pelo efeito do tratamento, a
variação do acaso tem que ser independente da variação do tratamento, para identificar o efeito
do tratamento.
ótimo o ponto sobre a distribuição normal
19.  [1.750] (IP:281473824248428 | 15:02:09 | 15:09:08 | 06:59 | 399.406)
Discuta as implicações da aditividade.
A aditividade nos permite avaliar se a variação entre os pontos ocorre devido ao acaso ou ao
tratamento, pois se o efeito do modelo fosse múltiplo não seria possível distinguir um fator de
outro. À proporção que um fator fosse modificado o outro também seria, impedindo assim, a
separação do que é devido ao acaso ou ao tratamento. Os efeitos aditivos, onde o modelo é a
média mais os tratamentos mais o acaso, permite avaliar de forma independente a variação do
tratamento para posterior avaliação da variação do acaso.
na realidade a aditividade permite separar os efeitos, e não definir qual a causa da variação.
20.  [2.000] (IP:281473824248428 | 15:09:16 | 16:17:49 | 08:33 | 6.229)
Porque a heterocedase pode ser considerada um problema sério, e o que devemos
fazer para preveni-la.
Porque ela impossibilita um dos pontos chaves do modelo linear generalizado que é a
possibilidade de atribuir a influência de um mesmo acaso em todos os tratamentos nas diferentes
parcelas. Diante disto o isolamento da variação do acaso não pode ser feito, impossibilitando
também a avaliação do efeito do efeito dos tratamentos. Numa situação de heterocedase não é
possível encontrar um valor que represente as variações do acaso, já que o próprio acaso variou
entre si sem ser possível sua representatividade por um único valor. Para evitar a heterocedase é
necessário que o pesquisador desenvolva seu experimento com todo o cuidado possível,
tentando garantir desta forma a exatidão no seu experimento excluindo tudo o que poderia
influenciar no mesmo, seja na pesagem, na aplicação de correta e rigorosa dos princípios
experimentais, repetindo, casualizando e quando necessário for aplicando o controle local,
garantindo desta forma que as variações ocorridas entre os mesmos tratamentos naquele
experimento foram unicamente frutos do acaso e que este acaso estava semelhante entre as
parcelas.
a primeira frase é simplesmente uma descrição do que é heterocedase...
21.  [1.000] (IP:281473660059155 | 00:13:06 | 23:31:25 | 18:19 | 34.079)
Porque a heterocedase pode ser considerada um problema sério, e o que devemos
fazer para preveni-la.
A heterocedase é considerada um problema por proporcionar indivisibilidade entre o efeito do
tratamento e efeito do acaso. Consequentemente, o efeito do tratamento não será representado
com confiabilidade. Isso ocorre devido a certos tratamentos possuírem maior variabilidade que
outros. É como se o acaso não tivesse atuado de forma homogenia e não teríamos como
representá-lo. Então, como saberíamos se o efeito do tratamento foi maior ou menor que o do
acaso? Portanto, a heterocedase aumenta as chances de incorrer-se no erro tipo I (em rejeitar
H0, quando este deve ser aceita). Se a heterocedase está instaurada, pressupõe-se que não há
homocedase (já que são antagônicas), o qual é um requisito básico para a aplicação do Modelo
Linear Generalizado. Para evitar a heterocedase é fundamental certificar-se que todos os
tratamentos estejam RIGOROSAMENTE submetidos à casualização, repetibilidade e quando
necessário o controle local. Desta forma, maximiza-se a uniformidade do efeito do acaso para
todos os tratamentos.
indivisibilidade ou falta de independência. A meu ver a segunda alternativa, já que não dividimos
os efeitos no sentido de divisão, mas sim de separação. Além disto, não é COMO se o acaso não
tivesse sido homogêneo... é exatamente isto. As medidas descritas reduzem a incidência da
heterocedase, mas não são suficientes, ou confiáveis.
22.  [1.000] (IP:281473660059155 | 23:31:28 | 23:31:57 | 00:29 | 28.862)
Porque precisamos considerar que a variação do acaso no conjunto de um
tratamento é zero? Qual o raciocínio lógico por trás disto?
É necessário considerar que o conjunto das variações do acaso seja zero para tornar possível
calcular o efeito de cada um dos tratamentos daquele experimento. Logicamente, se anularmos o
efeito do acaso na equação do MLG fica evidente quantificarmos o efeito do tratamento ou dos
tratamentos, que é um ponto crucial que se busca no experimento. O efeito do tratamento é então
obtido com o valor da média mais o efeito do tratamento. Assim, ao encontrar a variação do
acaso no experimento, podemos saber quanto o experimento variou devido ao efeito do acaso.
Toda essa lógica só é possível se tivermos uma distribuição normal da variação do acaso.
não tenho ideia do que tentou dizer com a primeira frase para ser honesto. Só mencionou o que
permite isto na última frase, e ainda assim sem explicar porque...
23.  [1.500] (IP:281473660059155 | 23:32:00 | 23:32:28 | 00:28 | 3.258)
Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega.
O capítulo 3 de Statistic for Dummies aborda questões básicas como a probabilidade e
possibilidade, esclarecendo a diferença dessas entidades, pois não é rara a aplicação errônea
desses termos. Ficou evidente que a probabilidade possue regras que podem facilitar a estimativa
de alguns eventos, que foram as regras do NÃO, E e OU. Na apresentação pode se observar a
probabilidade no exemplo do lançamento de um dado, e qual seria a probabilidade de virar um
“4”, por exemplo, (1/4). A situação abordada para possibilidade [(Prob (X)/1 – Prob (X)] revelou as
chances de acontecimento de determinado evento, no caso a chuva.
Ficou claro que a amostragem é um reflexo imperfeito da população e que quanto maior o
número de amostragem maior o poder de um determinado teste estatístico. Além disso, a
normalidade de uma distribuição de dados foi abordada de forma simples em que se pode
perceber quão importante é uma distribuição normal para análises paramétricas e que existe teste
não paramétricos para as situações em que os dados não adquiriram normalidade mesmo após
transformações.
Tanto no capítulo como na apresentação foi um dificultoso o entendimento de acurácia e
precisão, mas nas discussões pós-apresentação ficou esclarecido e pode-se perceber que a
acurácia é a realidade. A precisão seria a similaridade nas repetições de um evento ou
experimento e que os indicadores de precisão podem ser o erro padrão e os intervalos de
confiança.
considerando que o dado tem seis números, desde quando a probabilidade de 4 é 1/4? Cuidado
com o que escreve. Dificultoso é difícil de engolir. De resto, razoável
24.  [1.500] (IP:281473660059155 | 23:32:28 | 23:32:45 | 00:17 | 16.866)
Discuta as implicações da aditividade.
A aditividade é uma característica e um requisito para aplicação do Modelo Linear Generalizado
(Yij = μ + Tj + Eij). Portanto, é possível verificar a independência das variáveis: média geral, efeito
do tratamento, do acaso e que esses efeitos se somam. Assim, para verificarmos o efeito de um
determinado tratamento (o que nós queremos de fato) bastaria anular o efeito do acaso,
admitindo, é claro, todos os demais requisitos para aplicação do MLG. Neste sentido, podemos
verificar a origem dos efeitos observados durante o processo de análise dos resultados.
média é uma variável? superficial
25.  [2.000] (IP:281473660059155 | 23:32:48 | 23:33:44 | 00:56 | 55.896)
Discuta as técnicas utilizadas para identificar e resolver problemas com outliers.
A identificação de dados que fogem à normalidade (outliers) é realizada geralmente, através de
um plano gráfico onde se observa a distribuição de cada um destes em relação ao conjunto de
observações. Assim torna-se possível a visualização dos dados com maiores chances de serem
outliers. Agora que os principais “candidatos” a outliers foram identificados faz-se necessário o
emprego de observações mais criteriosas como a analise padronizada dos resíduos Resíduo
padronizado=desvio (ponto –média) / (raiz QMR) onde cerca de 67% dos dados deveram ficar
contidos no intervalo de -1 a 1 RP, 95% estarão contidos entre -2 e 2 RP, sendo que valores que
se encontrem fora do intervalo -3 a 3 RP são muito suspeitos. Pode-se usar o teste de z-scores,
onde se calcula os z-scores, isto é, os valores z-standardizados dos dados, em caso onde o
conjunto dos dados é pequeno (inferior a 50), valores que tenham z-scores inferiores a -2.5 ou
superiores a 2.5 devem ser considerados outliers, Se o conjunto dos dados é grande, valores que
tenham z-socres inferiores a -3.3 ou superiores a 3.3 são tipicamente considerados outliers. Após
sua identificação eles podem ser eliminados, porém deve-se ter muito cuidado ao adotar essa
possibilidade pois essas observações anormais podem conter informações cruciais que serão
necessárias para a conclusão da pesquisa. Para evitar o erro de eliminar um dado importante
mesmo esse sendo anormal deve-se fazer uso de transformações que possivelmente poderão
normalizar o conjunto de dados, caso não ocorra a normalização, os dados podem ser analisados
através de testes não-paremetricos ou simplesmente eliminados da análise.
excelente
comentário:
26. [2.000] (IP:281473664877860 | 11:02:16 | 23:55:19 | 53:03 | 4.925)
Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega.
O capítulo aborda uma breve revisão de estatística básica permitindo o estudante de estatística
lidar com probabilidade, aleatoriedade, amostragem e inferências estatísticas, assim como teste
de hipóteses e testes estatísticos não paramétricos. O autor inicia com a definição de
probabilidade diferenciando de chance, onde se relacionam, mas não são sinônimos, sendo
calculadas por fórmulas diferentes. Desta forma, a probabilidade como um número de frequência
relativa de ocorrência de um evento (0 e 1) é regida por várias regras básicas com: regra do
“não”, regra do “e” e regra do “ou”. Assim como probabilidade, a palavra aleatoriedade é algo que
usamos o tempo todo, significando ausência de qualquer padrão nos números. Essa
aleatoriedade não pode prever um resultado específico, mas pode dizer como um grupo de
números aleatórios se comporta coletivamente, por meio de um histograma ou gráfico de
distribuição de frequência que mostra as flutuações aleatórias apresentando um formato de sino
quando a distribuição é normal. Ainda, essas flutuações aleatórias apresentam distribuição dos
dados desde Normal ou Gaussiana, como já citada, Log-normal, Binomial e Poisson. Essas
distribuições de frequências descrevem variações nos números que você calcula que são
utilizados para obter os valores de p, através de testes com t de Student, qui-quadrado ou
distribuição de F. Essas amostras com valores aleatórios que compreendem a uma população,
geralmente são divididas em dois tópicos: teoria da inferência estatística e teoria da estimação
estatística. A primeira é o desenho de conclusões sobre uma população com base no que você
vê em uma amostra de uma população, enquanto que segunda incide sobre a exatidão e precisão
das coisas.
Ainda na teoria da inferência estatística a distribuição de amostragens apresentam erros padrões,
indicando a forma como a sua precisão de estimativa ou media de alguma coisa é, e intervalos de
confiança que fornece outra maneira para indicar a precisão de uma estimativa ou medição de
alguma coisa. Já na Teoria da decisão estatística em uma forma mais básica lida com a
determinação se ou não algum efeito real está presente nos dados. Outro ponto abordado no
capítulo o teste de hipótese, hipótese nula ou alternativa, admitindo erro do Tipo 1 ou erro do tipo
2. Já em relação ao poder do tamanho da amostra e do tamanho do efeito, para todos os teste de
estatística, o poder sempre aumenta á medida que o tamanho da amostra aumenta. Por fim, os
testes não paramétricos não assumem normalidade, eles fazem certas suposições sobre os
dados.
algo superficial, mas razoável o suficiente
27. [2.000] (IP:281473664877860 | 11:03:45 | 21:56:17 | 52:32 | 12.682)
Discuta as técnicas utilizadas para identificar e resolver problemas com outliers.
A presença de outliers em ensaios agronômicos afetam os resultados dos testes F e Tukey,
sendo sua presença indicada quando valores de assimetria e curtose são diferentes de zero.
Entretanto, vale ressaltar que nem sempre valores ruins são discrepantes (outliers) podendo ser o
objeto de pesquisa. A presença desses outliers pode ser observada em três casos, quando é
apenas em relação a variável dependente, quando é apenas em relação a variável independente
e quando é em relação a ambos. No mais o critério adotado para detectar e retirar esses valores
discrepantes baseia-se em métodos estatísticos. A presença de outliers pode ser detectada a
partir do gráfico de dispersão ou a partir de um boxplot, além disso há vários teste que podem
observar a presença desses valores atípicos, como: Teste do escore Z Modificado, que utiliza
estimadores robustos, como a mediana, o que garante não terem sidos os valores utilizados para
definir outlier afetados pelo mesmo; Teste de Grubbs, utilizado para dados que seguem a
distribuição log-normal; Teste de Dixon, ele se atenta para a diferença entre os valores máximos
e mínimo e seus valores vizinhos, gerando uma razão r a qual é atribuída uma certa distribuição;
o teste de Cochran definido como sendo um teste para estudar variabilidade interna de um
laboratório; e o teste de Doerffel utilizado para pequenos conjuntos de dados baseado em um
diagrama. Portanto, não se deve ignorar a presença de outliers, nem tão pouco apenas eliminá-
los sem descobrir a razão de suas presenças nos dados, mesmo sabendo que sua eliminação é
realizada por que eles induzem a heterocedasticidade.
excelente
28. [1.500] (IP:281473664877860 | 11:04:00 | 23:55:05 | 51:05 | 1216.977)
Porque a heterocedase pode ser considerada um problema sério, e o que devemos
fazer para preveni-la.
A heterocedase é o inverso de um dos pressupostos estabelecidos para aplicação de um modelo.
Sendo assim, por não obedecer um desses pressupostos impede a utilização do modelo,
elevando o erro do tipo 1 pois você rejeita a hipótese nula em decorrência do aumento do nível de
significância. Sem falar no aumento da variância e o não uso de apenas uma variância do acaso
para todo o experimento. Vários teste podem ser utilizados para tentar preveni-la, como: teste de
Cochran, hartley, bartlett etc. Além disso, outra forma de ajuda é o controle de outliers que
induzem a heterocedasticidade e até a transformação dos dados.
só explicou porque é um problema na terceira frase, e não mencionou prevenção, mas sim
correção
29. [2.000] (IP:281473664877860 | 11:04:16 | 20:21:10 | 16:54 | 119.02)
Porque precisamos considerar que a variação do acaso no conjunto de um
tratamento é zero? Qual o raciocínio lógico por trás disto?
No modelo linear generalizado, onde se separa a variação total dos dados em suas partes o valor
de cada ponto é baseado na soma do efeito do tratamento e do acaso ao valor médio do
experimento como um todo. Só que todos esses efeitos são calculados com base em valores
individuais, que sofrem ao mesmo tempo as atuações dos tratamentos e do acaso. Assim, ficaria
impossível separar as duas coisas. Para resolver este problema, assume-se que: no geral de um
tratamento, o efeito do acaso é nulo; existe apenas uma variação do acaso que é igual para todo
mundo e a variação do acaso é completamente independente do tratamento.
excelente
30. [1.000] (IP:281473664877860 | 11:04:38 | 20:18:52 | 14:14 | 21.593)
Discuta as implicações da aditividade.
Cada tipo de delineamento experimental é regido por um modelo estatístico (ou matemático) e
para validar os testes de hipótese e inferências cada modelo deve ter suas pressuposições
atendidas. Uma destas é a aditividade, que permite separar os efeitos de tratamento (DIC) ou os
efeitos de tratamento com os efeitos das variáveis de blocagem (DBC e DQL) daquele resultante
do acaso, garantindo a independência entre eles e consequentemente a origem dos efeitos
observados. Esse efeito conjunto das variáveis explicativas sobre a variável dependente pode ser
testado pelo teste F, se o F-calculado for maior que o F-tabelado, com (p-1) e (n-p) graus de
liberdade (dado α% de nível de significância) rejeita-se a hipótese nula. Quando as
pressuposições, como a aditividade, não forem atendidas pode-se lançar mão da transformação
dos dados, modelo linear generalizado ou testes não paramétricos.
só não mencionou porque a aditividade permite a separação...
31.  [2.000] (IP:281473660059155 | 19:52:13 | 23:26:23 | 34:10 | 2.473)
Discuta as técnicas utilizadas para identificar e resolver problemas com outliers.
A identificação dos dados potencialmente aberrantes (outliers) é feita geralmente, por análise
gráfica ou, no caso de um conjunto muito pequeno, as observações podem ser feitas por
observação direta dos mesmos. Desta maneira são identificados os dados com fortes
possibilidades de serem outliers.
Após a identificação dos possíveis outliers deve-se fazer observações mais precisas como um
gráfico de Box onde através da mediana os dados são divididos em três partes P1 (parte inferior),
P2 (mediana) e P3 (parte superior), é feita a subtração P3 – P1 tendo como resultado o intervalo
(G) sendo que os valores que estiverem fora do intervalo P1 – 3G e P3 + 3G serão considerados
outliers. Através de testes como o de Grubbs (G) a razão entre do desvio (di) de cada ponto em
relação à média di= |xi – média| pelo desvio padrão (s) G = di/s . Sendo que um valor será
considerado outliers quando G for maior que o valor crítico tabelado.
Depois de identificados os possíveis outliers a maneira mais fácil de lidar com eles seria sua
eliminação, no entanto deve-se tomar cuidado pois esses dados podem conter informações
relevantes sobre características subjacentes ao conjunto de dados e poderão ser decisivas no
conhecimento da população à qual pertence a amostra em estudo. Por isso antes de fazer a
eliminação os dados devem ser transformados, onde dependendo de sua forma de distribuição
pode ser através de raiz quadrada, logaritmo ou arco-seno. No caso onde mesmo após as
transformações e verificado que não foi um erro no momento da transcrição dos dados e caso a
falta desse ou desses valores não afetem a confiabilidade da análise, o pesquisador pode optar
pela eliminação destes.
excelente
32.  [2.000] (IP:281473660059155 | 21:39:01 | 23:26:17 | 47:16 | 738.471)
Discuta as implicações da aditividade.
A aditividade é um pré-requisito para a aplicação do modelo linear generalizado, ela garante que
exista independência entre o efeito do acaso e o efeito do tratamento, tornando-se importante por
permitir o isolamento da influência do tratamento do efeito causado devido ao acaso e com isso
torna-se possível verificar se o efeito é realmente devido o emprego do tratamento ou se foi
devido a variações inerentes do ambiente ou do próprio material experimental.
na realidade a aditividade também separa os demais efeitos, não somente acaso e tratamento
33.  [1.500] (IP:281473660059155 | 18:09:22 | 22:36:06 | 26:44 | 7.311)
Porque a heterocedase pode ser considerada um problema sério, e o que devemos
fazer para preveni-la.
A heterocedase ocorre devido a efeitos desiguais da variância o que impede que seja a utilização
do modelo linear generalizado que necessita que os tratamentos sejam homocedasticos. A
desigualdade na variação do acaso tem como consequência o aumento do nível de significância o
que proporciona uma maior possibilidade da ocorrência do erro tipo I, elevando as chances de se
concluir erroneamente sobre o experimento realizado. Também torna-se impossível distinguir
entre a variação que ocorre em função do tratamento e a que ocorre em função do acaso. Já que
para se calcular é necessário que as incógnitas sejam passiveis de individualização, deve-se
considerar que a variação do acaso é homogênea em todo o experimento e que possa ser
anulada, tornando possível calcular a outra incógnita. Para evitar a ocorrência da heterocedase
faz-se necessário rigorosidade na implantação do experimento através dos princípios básicos da
experimentação: repetibilidade, casualização e homogeneidade do ambiente experimental,
podem ser realizados testes (Bartlett, Levene ou Cochran) para verificar a homogeneidade dos
tratamentos (homocedase) e identificar a presença de ou não de outliers, que podem ser
eliminados ou transformado o que possibilita a normalização e homogeneização do tratamento.
não são efeitos desiguais da variância, mas sim variâncias do acaso desiguais. Além disto, não
são os tratamentos que são homocedásticos, mas sim as variações do acaso dos diferentes
tratamentos. De resto, ok
34.  [2.000] (IP:281473660059155 | 19:52:37 | 23:30:14 | 37:37 | 213.439)
Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega.
O capítulo abordou questões elementares na estatística como probabilidade, possibilidade,
população e amostragem. Além disso, foi enfatizada a importância de uma distribuição normal de
dados forma simples durante a apresentação. Acurácia e precisão são indicadores de
confiabilidade e podem representar uma população ou o comportamento de uma população ainda
que de forma imperfeita. A apresentação foi simples e esclarecedora através de exemplos do
cotidiano e acadêmico. Ao compreender a regra do “não” da probabilidade, por analogia,
entendeu-se a obtenção do poder do teste (P =1 – beta).
Os indicadores de precisão são fundamentais para um determinado processo de estimativa, são
eles: erro padrão e intervalo de confiança. A apresentação exemplificou a média de uma dose de
inseticida que possivelmente provocaria 50% de mortalidade e seus limites inferiores e superiores
com p = 5%. A apresentação foi boa e levantou questões interessantes que foram esclarecidas
juntamente com os alunos e o professor no final da apresentação.
ok, mas poderia discutir mais
35.  [1.500] (IP:281473660059155 | 19:52:52 | 22:14:36 | 21:44 | 8.24)
Porque precisamos considerar que a variação do acaso no conjunto de um
tratamento é zero? Qual o raciocínio lógico por trás disto?
Quando consideramos que a variação do acaso em um conjunto de observações (tratamento) é
zero, proporcionamos que o efeito do tratamento possa ser calculado isoladamente, sem que haja
influência do acaso e com isso reduzimos a quantidade de variáveis. Nos experimentos, os vários
efeitos devem ser aditivos, tanto é que para cada delineamento estatístico existe um modelo
matemático denominado modelo linear aditivo, nesse modelo podemos ver que a variação entre
os dados só sofre influência do efeito do tratamento e da variação do acaso, com isso em um
experimento onde a distribuição dos dados seja normal (distribuição simétrica em forma de sino)
torna-se possível encontrar, quando a variação do acaso for zero, o efeito do tratamento no
conjunto do tratamento, com os valores dos tratamentos podemos calcular a variação do acaso
no tratamento geral.
não é a variação do acaso que é zero, como afirmado no final do texto, mas a variação do acaso
no CONJUNTO de um tratamento que é zero... isto é algo completamente diferente...
36.  [1.500] (IP:281473855877618 | 20:38:26 | 23:12:29 | 34:03 | 4.366)
Porque a heterocedase pode ser considerada um problema sério, e o que devemos
fazer para preveni-la.
Para que seja possível a aplicação do modelo linear generalizado é necessário que o conjunto de
dados apresente homocedase para que seja possível a representação dos tratamentos a partir de
um único valor de variação do acaso. Quando há heterocedase não é possível obter um único
valor de variação do acaso para representar todos os tratamentos impossibilitando inferir qual
dado é resultado do efeito do tratamento ou da variação do acaso,visto que o próprio acaso varia
entre si.
Quando há heterocedase não é possível a aplicação do MLG e o trabalho desenvolvido pode ser
invalidado.
Para prevenir o aparecimento de heterocedase o executor do experimento deve ser minucioso
durante a execução do experimento desde a montagem, fazendo quando necessário uso de
controle local, fazendo uso de repetições, casualização entre outras medidas.
é imprescindível testar para a heterocedase, o que você nem sequer menciona. A maioria das
respostas inclui as medidas corretivas...
37.  [2.000] (IP:281473855877618 | 21:25:29 | 23:16:50 | 51:21 | 2.401)
Porque precisamos considerar que a variação do acaso no conjunto de um
tratamento é zero? Qual o raciocínio lógico por trás disto?
Em um conjunto de dados é necessário considerar a varição do acaso como sendo zero por
admitir que os efeitos positivos e negativos do acaso podem ser anulados. Isso permite inferir que
quaisquer varições que venham a surgir são oriundas dos tratamentos empregados e não da
variação do acaso.
O raciocínio lógico é que quando se admite que a varição do acaso no conjunto de dados é zero é
possível estabelecer que os efeitos do tratamento não irão variar entre as parcelas do
experimento, ou seja, o efeito do tratamento apresenta uniformidade, nesse caso o tratamento
não seria influenciado pelo acaso e todos os efeitos são resultado da variação do tratamento.
ok
38.  [2.000] (IP:281473855877618 | 21:27:10 | 23:19:38 | 52:28 | 6.607)
Discuta as técnicas utilizadas para identificar e resolver problemas com outliers.
Outiliers são pontos discrepantes quando comparados ao conjunto de dados, ou seja,
apresentam comportamento diferente dos demais pontos.
A detecção de outliers pode ser utilizada para verificar existência de fraudes, detectar intrusões (
ataques em sistemas de computadores), detectar perturbações em ecossistemas (secas,
enchentes, furacões, etc).
As técnicas de detecção de outliers podem se basear em distância, densidade e em enfoques
estatísticos.
Dependendo da natureza dos outliers esses podem afetar ou não a análise de dados de medição.
Existem algumas técnicas convencionais para detecção de outliers como o teste da razão e
verossimilhança, teste do multiplicador de Lagrange, deslocamento de verossimilhança. O
desempenho da técnica de detecção depende da natureza da série analisada ou do tipo de outlier
existente.
Outras técnicas também são utilizadas para detectar a existência de outlier como: Extreme
Studentized Devate (ESD), Z-Score, Test Box Plot, Exponential Smoothing (ExpSM).
Uma medida que geralmente é aplicada é a eliminação do outlier, no entanto essa medida deve
ser tomada baseada no conhecimento que o pesquisador tem do experimento e não com base
apenas no conhecimento estatístico pois a depender das condições do experimento a eliminação
de um outlier pode deixar de levar em consideração algum fator relevante externo que está
afetando a séria de dados.
ok
39.  [1.000] (IP:281473855877618 | 21:28:12 | 23:22:00 | 53:48 | 15.186)
Discuta as implicações da aditividade.
A aditividade permite em um experimento separar o que é efeito de tratamento do que efeito da
variação do acaso.No modelo linear generalizado os efeitos são aditivos, ou seja, o valor de um
ponto qualquer é a função da média geral do efeito do tratamento e da variação do acaso. Devido
a hemocedase é possível admitir a existência de apenas uma variância do acaso para todo o
experimento,pois como há independência entre os resíduos o erro que ocorrer em uma parcela
experimental não provoca interferência no erro de outra parcela. A independência dos resíduos
diminui o nível de significância e minimiza a chance de cometer um erro do tipo I.
muito confuso
40.  [2.000] (IP:281473855877618 | 21:28:14 | 23:56:19 | 28:05 | 5.607)
Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega.
O capítulo fornece uma visão geral de probabilidade, aleatoriedade, populações , amostras,
inferência estatística, teste de hipóteses , e as estatísticas não paramétricas .
O autor inicia o assunto propriamente dito definindo probabilidade como sendo a chance que um
evento tem de ocorrer ou não, em linhas gerais, admite que probabilidade é a frequência relativa
da ocorrência de um evento.Nesse caso a probabilidade seria um número entre 0 e 1, onde 0
significa que o evento definitivamente não ocorrerá e 1 que o evento definitivamente ocorrerá,
sendo a probabilidade determinada em função de duas regras básicas:
-A probabilidade de algum evento X não acontecer é 1 menos a probabilidade de X
acontecimento :
Prob ( não X ) = 1 - Prob ( X )
-Para dois eventos independentes, X e Y, a probabilidade de evento X e tanto acontecendo Y é
igual ao produto e a probabilidade de cada um dos dois eventos :
Prob ( X e Y ) = Prob (X) x Prob (Y)
-Para dois eventos independentes , X e Y , a probabilidade de um ou outro, ou ambos os eventos
que acontecem é dada por uma fórmula mais complicada, que pode ser derivada a partir de duas
regras anteriores .
Prob ( X ou Y ) = 1 - ( 1 - Prob ( X ) ) X ( 1 - Prob ( Y ) )
O autor define ainda o conceito de chance e faz uma ressalva pra diferença que há entre chance
e probabilidade, onde chance é a probabilidade de algo acontecer dividido pela probabilidade
dessa coisa não está acontecendo . Assim , sabendo que a probabilidade de que algo não
acontecendo é 1 menos a probabilidade de que a coisa acontecendo.
Chances = Probabilidade / (1 - Probabilidade )
Define o conceito de aleatoriedade como sendo a ausência de qualquer padrão nos números que
pode ser utilizado para prever o próximo número.A principal idéia por trás do termo que você não
pode prever um resultado específico se um aleatório elemento está envolvido.
A ferramenta básica para descrever a distribuição de valores para alguma variável em uma
amostra de indivíduos é o histograma ou distribuição de freqüência.
Define amostragem e população e apresenta as diferenças existentes entre os dois termos.
População: Todos os indivíduos com um conjunto precisamente definido de características (por
exemplo: Humano, Homem, 18-65 etárias, com o estágio do câncer de pulmão 3);
Amostra: Um subgrupo de uma população definida, selecionada para o estudo
experimental.Qualquer amostra, não importa quão cuidadosamente ele é selecionado, é apenas
uma reflexão imperfeita da população, devido à ocorrência inevitável do acaso com flutuações na
amostragem.
O texto trata ainda das diversas maneiras de representação da distribuição de probabilidades e
que estas podem ser representadas como
-Como uma equação matemática ,como um gráfico da distribuição, como uma tabela de
valores.Realata que existem diversos tipos de distribuições e que estas podem ser distribuições
que descrevem dados(normal,log-normal,binomial e Poisson) e distribuições que surgem durante
o teste estatístico.
Define ainda alguns conceitos básicos como Erro padrão onde o erro diz-lhe quanto a estimativa
ou valor medido pode variar se você tivesse que repetir a experiência ou a medição muitas vezes
, usando uma amostra aleatória diferente da mesma população de cada vez e gravar o valor que
você obteve de cada vez.Intervalo de confiança,onde o autor afirma que é uma maneira de indicar
a precisão de uma estimativa ou medição de alguma coisa. Trata também da teoria da decisão
estatística,hipótese nula, hipótese alternativa e como essas hipóteses levam aos dois tipos de
erro.Trata dos testes de significância, teste F e valor de p e finaliza fazendo um breve comentário
de estatística não paramétrica.
excelente
41.  [1.500] (IP:281473653672857 | 19:15:47 | 21:56:58 | 41:11 | 2499.134)
Porque precisamos considerar que a variação do acaso no conjunto de um
tratamento é zero? Qual o raciocínio lógico por trás disto?
No modelo linear generalizado o valor de um ponto qualquer é função da média geral, do efeito
do tratamento e da variação ao acaso. Quando se considera que o efeito do acaso dentro do
conjunto de uma tratamento é igual a zero pode-se calcular o efeito do tratamento isoladamente
reduzindo o número de variáveis.O modelo aditivo utilizado permite que a variação entre os
pontos ocorra somente em função do efeito do tratamento e da variação do acaso, com a
ocorrência de distribuição normal dos dados (simétrica, permitindo encontrar o efeito do
tratamento dentro do conjunto de tratamento quando consideramos a variação do acaso igual a
zero. Para poder identificar o efeito do tratamento, este precisa ser independente da variação do
acaso , e ainda a variação do acaso do efeito entre as parcelas do mesmo tratamento não pode
ser influenciada pelo efeito do tratamento.
confuso, e meio circular
42.  [2.000] (IP:281473653672857 | 11:57:06 | 00:14:17 | 17:11 | 7.478)
Discuta as implicações da aditividade.
A aditividade é um requisito do Modelo Linear Generalizado, que permite distinguir o efeito da
variação ao acaso do efeito proporcionado pelo tratamento, como também permite a separação
dos outros efeitos entre si e com o acaso. Se houvesse um efeito multiplicativo ao invés do
aditivo, por exemplo, não haveria possibilidade de distinguir esses efeitos e o acaso. À medida
que um fator fosse modificado o outro também seria, impedindo, assim, distinguir o que era
devido ao acaso e o que era devido ao tratamento ou a outro efeito. Dessa forma torna-se
possível atribuir a origem dos efeitos observados pela aditividade. A variação do acaso é
independente, ou seja, o erro que acontece em uma parcela não interfere no erro que acontece
em outra parcela o que possibilita o isolamento da mesma.
ok
43.  [2.000] (IP:281473653672857 | 11:57:19 | 23:49:42 | 52:23 | 43.462)
Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega.
A probabilidade é o grau de certeza, o acaso, ou a possibilidade de que algo vai acontecer, ela
descreve a freqüência relativa de ocorrência de um evento como a obtenção de um cara ou
coroa. Para probabilidade são usados números que variam de 0 a 1, sendo que o 0 significa que
o evento não vai acontecer, 1 que o evento vai acontecer e entre 0 e 1 que o evento vai ocorrer
em uma parte do tempo a longo prazo. Assim a probabilidade de que algo aconteça será dada
por 1/N, como por exemplo a probabilidade de tirar um Ás de espadas em um baralho e de 1/52.
Existem três regras básicas de probabilidade, a regra do não, a regra do E e a regra do Ou.
Regra do não: Prob (não x) = 1- prob (x); em que a probabilidade do evento x não acontecer será
1 menos a probabilidade de x acontecer. Regra do E: Prob ( X e Y ) = Prob (X) x Prob (Y); em que
a probabilidade do evento x e y acontecendo é igual ao produto e a probabilidade de cada um dos
dois eventos.Regra do OU: Prob ( X ou Y ) = 1 - ( 1 - Prob ( X ) ) X ( 1 - Prob ( Y ) ); em que a
probabilidade de x e/ou Y ocorrerem.
A possibilidade é a probabilidade de algo acontecer dividido pela probabilidade de não acontecer.
Quando a probabilidade é baixa a possibilidade também é baixa mais a medida em que a
probabilidade aumenta a possibilidade aumenta muito mais rapidamente e tende ao infinito. Já a
aleatoriedade é um termo utilizado em dados obtidos em experiências. Aleatório significa a
ausência de qualquer padrão em uma sequência de números. Dessa forma não se pode prever
um resultado específico quando um elemento aleatório está inserido.
O primeiro passo para análise de um conjunto de dados é fazer a estatística descritiva para
mostrar como um conjunto de dados estão espalhados ao redor e mostra a entre dois ou mais
conjuntos de dados. Os histogramas podem ser utilizados como ferramenta básica para
descrever a distribuição de valores. Estes histogramas podem ser categóricos e contínuo.
A populaçã é um conjunto de todos os indivíduos com características precisamente definidas,
enquanto que a amostragem é um subgrupo da população definida e selecionada para estudo
experimental. Uma amostra é uma reflexão imperfeita da população devido a ocorrência do
acaso.
As amostras diferem das populações devido a flutuações aleatórias. Estatísticos compreender
quantitativamente como flutuações aleatórias comportam por desenvolvimento de equações
matemáticas, chamadas funções de distribuição de probabilidade , que descrever quão provável é
que as flutuações aleatórias excederá qualquer magnitude. Existem algumas distribuições
descrevem as flutuações aleatórias : Normal, Log-normal, Binomial , Poisson.
Inferência estatística é o desenho de conclusões sobre uma população com base no que se vê
em uma amostra de uma população. Em consonância com a idéia de que os estatísticos entender
como flutuações aleatórias comportam-se podemos dizer que a teoria da inferência estatística
está preocupado com a forma como podemos extrair o que é real em nossos dados, apesar do
ruído aleatório inevitável que está sempre presente devido a flutuações de amostragem ou erros
de medição. Esta área muito ampla da teoria estatística é geralmente dividida em dois temas:
Teoria estimativa estatística e teoria da decisão estatística e teoria da estimação estatística.
O erro padrão (abreviado SE) é uma maneira de indicar a forma como a sua precisão de
estimativa ou medida de alguma coisa é . A SE diz-lhe quanto a estimativa ou valor medido pode
variar se você tivesse que repetir a experiência ou a medição muitas vezes , usando uma amostra
aleatória diferente da mesma população de cada vez e gravar o valor que você obteve de cada
vez. Este conjunto de números que têm uma propagação de valores , que formam o que é
chamado a distribuição amostral para essa variável.
Os intervalos de confiança fornecer outra maneira para indicar a precisão de um estimativa ou
medição de alguma coisa. Um intervalo de confiança (IC ) em torno de um valor estimado é o
intervalo em que você tem um certo grau de certeza, chamado o nível de confiança (CL) , que o
verdadeiro valor para que mentiras variáveis. Se calculada corretamente, seu intervalo de
confiança citado deve abranger o verdadeiro valor percentual do tempo de , pelo menos, igual ao
nível de confiança citado.
a aleatoridade não é ligada somente a dados experimentais, também ocorrendo em amostragens
e seus dados.
44.  [2.000] (IP:281473653672857 | 11:59:41 | 23:48:45 | 49:04 | 2.551)
Discuta as técnicas utilizadas para identificar e resolver problemas com outliers.
Um outliers é um ponto discrepante que se apresenta muito distante dos outros dados
considerados em uma variável. Erros de medição, variabilidade da população, dentre outras
causas levam ao aparecimento desses dados(outliers), sendo bastante importante identificar e
solucionar os problemas que estejam relacionados a sua presença em uma análise de dados.
Quando o conjunto de dados é pequenos a observação dos outliers pode ser por observação
direta ou por análise gráfica. Os métodos utilizados para a identificação de outliers são: os
gráficos de Box, histogramas, modelos de discordância, teste de Dixon, teste de Grubbs e através
de gráfico dos resíduos com os valores ajustados, dentre outros.
A identificação dos outliers utilizando os resíduos pode ser obtida pelo ponto menos o valor da
média, achatando o conjunto de dados ou dividindo pela média da variação do acaso ( resíduo
padronizado. O ponto é considerado um outliers quando tiver mais 3 ou menos 3 desvio padrão
da média , visto que 95% dos pontos devem estar a mais 2 ou menos 2 desvio padrão da média.
No gráfico Box é calculado a mediana o quartil superior e o quartil inferior, subtraindo o inferior do
superior. os valores que estiverem entre Q3+1,5L - Q3+3L e Q1-1,5L - Q1-3L, são considerados
outliers, sendo aceitos na população com alguma suspeita. Neste caso os valores que tiverem
maiores que Q3+3L e menores que Q1-3L devem ser considerados suspeitos devendo ser
investigada a origem da dispersão, estes pontos são aqueles que encontrar-se nos extremos do
conjunto de dados.
os testes de Bartlett, Cohran, Hartley e Levene podem ser utilizados para testar a homogeneidade
de variância. O teste de Levene é utilizado para fazer a análise de variância dos resíduos em
valores absolutos com os tratamentos através de calculo do resíduo da análise de variância.
Quando as variâncias forem homogêneas o teste F não será significativo.
As causas que levaram ao aparecimento dos outliers devem ser observadas para saber se
realmente eles são mesmo outliers. Daí eles podem ser eliminados ou não, mas essa decisão
cabe ao pesquisador e não a estatistica, pois a presença dele pode ser bastante importante no
contesto. quando os outliers são eliminados diminui-se a heterocedase e aumenta
consequentemente a homocedase melhorando o comportamento geral dos dados.
excelente
45.  [2.000] (IP:281473653672857 | 12:00:12 | 23:09:11 | 08:59 | 1010.309)
Porque a heterocedase pode ser considerada um problema sério, e o que devemos
fazer para preveni-la.
A heterocedase impossibilita a atribuição da influencia de um mesmo acaso em todas os
tratamentos nas diferentes parcelas, que é um ponto bastante importante no modelo linear
generalizado. Dessa forma não pode-se fazer o isolamento da variação do acaso e
consequentemente a avaliação do efeito do tratamento. Quando ocorre a heterocedase o próprio
acaso varia entre si, não sendo possível encontrar um valor que represente essa variação. A
heterocedase pode ser evitada quando o experimento é desenvolvido cuidadosamente, de forma
a garantir que cuidados como pesagem correta e aplicação dos princípios experimentais
repetindo, casualizando e fazendo o controle local quando necessário de forma a garantir que as
variações sejam somente devido ao acaso e que estas sejam próximas entre as parcelas.
a segunda frase mata a questão, mas a terceira mata a lógica gramatical violentamente... o que
diabos é o próprio acaso variar entre si pelamordedeus?
46.  [0.000] (IP:281473696755103 | 21:16:51 | 22:23:51 | 07:00 | 4018.469)
Discuta as implicações da aditividade.
Sendo uma das pressuposições a serem consideradas na realização de testes paramétricos
como a análise de variância, a aditividade determina que os efeitos dos fatores de variação
(tratamentos e ambiente) sobre a variável sejam passíveis de serem somados uns aos outros. A
não aditividade pode alterar, para mais ou para menos, o erro residual do experimento (erro não
controlado) e incorrer em interpretações errôneas quanto à significância das diferenças entre as
médias dos tratamentos. Uma vez que a interação entre esses fatores de variação sejam
estatisticamente não significativos, eles podem ser incorporados ao erro residual (erro não
controlado). Caso seja significante, a variância desses efeitos deve ser isolada e tratada como
outro fator de variação.
tão confuso que não consegui entender o que queria dizer depois da primeira frase
47.  [2.000] (IP:281473696755103 | 22:24:10 | 23:19:07 | 54:57 | 1.972)
Discuta o capítulo, incluindo no mesmo a apresentação feita por você ou seu colega.
O capítulo “Getting statistical: a short review of basic statistics” apresentado pelo Jaconias
abordou conceitos básicos sobre probabilidade, randomização, amostragem, inferência
estatística, teste de hipóteses e testes não paramétricos. A probabilidade foi apresentada como a
chance ou grau de certeza de determinado evento ocorrer e corresponde a um número entre 0 e
1, podendo ainda ser apresentada na forma de porcentagem, como exemplificado que a
probabilidade de se obter cara no lançamento de uma moeda é de 0.5 ou de 50%. O texto ainda
relata os tipos de distribuição descritiva de probabilidades que pode ser normal (em forma de
sino, descreve a maioria das variáveis encontradas), Log-normal (inclinada), binomial (descreve
proporções) e de Poisson (descreve o número de ocorrências de eventos esporádicos) e as
distribuições que surgem durante os testes estatísticos e que não descrevem a flutuação dos
dados observados, mas descreve flutuações em números calculados como parte dos testes
estatísticos.
Probabilidade difere de Odds que indica quantas vezes essa chance pode ocorrer em um
conjunto de chances possíveis. Assim, considerando que uma moeda tem dois lados e um dado
seis, a Odds de cair cara no lançamento de uma moeda é de 1 em duas e a de cair determinado
número para cima no lançamento de uma dado é de 1 em seis. A randomização ou aleatoriedade
foram apresentadas como a ausência de qualquer padrão na distribuição das suas variáveis ou
coleta de dados como forma de evitar beneficiar determinado tratamento em detrimento a outros.
Enquanto a amostragem se refere ao processo pelo qual parte representativa da população é
selecionada para ser analisada, a população corresponde a todos os indivíduos que compartilham
um conjunto de características comuns e, bem por isso, assume-se que a amostra nunca será
perfeita, pois não contempla todas as diferenças da população.
As inferências correspondem a conclusões acerca de uma população baseadas no que foi
observado nas amostras dessa população e tem como ideia central extrair o que existe de mais
real nos dados obtidos apesar dos erros decorrentes da flutuação aleatória. As inferências podem
ser feitas de acordo com estimativas baseadas, dentre outros componentes, na acurácia (quão
próximos do real são seus dados), precisão (referente à repetibilidade dos seus dados), erro
padrão (quanto dos valores medidos pode variar se repetirmos o experimento várias vezes),
intervalo de confiança (intervalo em que se tem certo nível de confiança do real valor daquela
variável). Outra forma de se fazer inferência seria determinando se alguns efeitos estão ou não
presentes em seus dados seguindo a teoria da decisão. Finalmente, os testes de hipóteses que
envolvem diversos termos específicos e que são aplicados a métodos científicos envolvendo
dados com flutuação aleatória.
ok
48.  [2.000] (IP:281473696755103 | 23:19:07 | 23:48:28 | 29:21 | 1760.948)
Porque precisamos considerar que a variação do acaso no conjunto de um
tratamento é zero? Qual o raciocínio lógico por trás disto?
Precisamos considerar que os efeitos positivos e negativos do acaso sobre nossas amostras se
anulem para calcularmos o efeito dos tratamentos isoladamente dentro do conjunto de dados.
Nesse sentido, é necessário que a variação do acaso também seja nula sobre os indivíduos ou
parcelas, se for o caso, de cada tratamento para não alterar a resposta dentro dos tratamentos.
bem colocado
49.  [0.000] (IP:0 | 23:48:31 | --:--:-- | --:-- | ------ )
Discuta as técnicas utilizadas para identificar e resolver problemas com outliers.
Em branco
50.  [2.000] (IP:281473696755103 | 23:58:25 | 23:58:31 | 00:06 | 5.759)
Porque a heterocedase pode ser considerada um problema sério, e o que devemos
fazer para preveni-la.
A heterocedase corresponde ao efeito de variâncias desiguais e não permite determinar a
influência de um mesmo acaso em todos os tratamentos nas diferentes parcelas, o que impede a
aplicação do modelo linear generalizado. Numa situação de heterocedase o nível de significância
pode ser superestimado levando a interpretações errôneas. Para preveni-la é necessário acurácia
no planejamento e desenvolvimento dos experimentos, na coleta de dados e padronização da
metodologia a ser empregada, eliminar outliers e empregar testes adequados para identifica-la.
ok
Download