Resultados e comentários sabatina 2

Propaganda
Respostas e comentários da sabatina
Questão Resposta
2.1.
Diferenci
e
regressã
o de
correlaç
ão, em
especial
do
ponto de
vista de
aplicaçõ
es.
comentário
"1. Regressão: é uma equação que liga duas ou mais variáveis. Consiste na estimação de uma variável dependente a partir de outra independente. Ou seja,
excelente
determina a relação existente entre uma característica qualquer de interesse experimental, dependente, e uma outra característica independente, tomadas juntas.
A regressão indica a forma de ligação. Ou melhor, indica como y se comporta em função de x, ela estima y em função de x. Quanto a aplicação é utilizada para
estimar valores intermediários aos realmente estudados durante o experimento. Já a Correlação indica a força e a direção do relacionamento linear entre duas
variáveis aleatórias. Sendo assim, estabelece a medida do grau de ligação entre duas variáveis. Ela não indica como é esta ligação, só diz se o grau de ligação é
menor ou maior.ou seja, quanto mais correlacionados mais parecidos são os valores, ou caso contrário, quanto menos correlacionados menos parecidos são os
valores. Ela, ao contrário da regressão, não prevê o valor de y em relação a x. E quanto a sua aplicação, está voltada, justamente, a indicar variáveis com
comportamento semelhante."
"Esses são conceitos distintos, uma vez que na regressão há uma descrição do comportamento de uma variável dependente em função de uma outra variável
a variável é explanatória, não
exploratória. Em contrapartida, a correlação é um indicativo do grau de ligação entre as variáveis de interesse. Dentro do campo da estatística experimental, a
exploratória..., de resto ok
regressão, devido a sua gama de aplicações na interpretação dos resultados, desempenha papel de grande relevância. Podendo ser aplicada na estimação,
descrição, predição ou ainda controle da relação existente entre uma característica qualquer de interesse experimental que depende de uma outra característica
independente. Cada uma dessas sendo utilizadas dentro da sua especificidade na representação do relacionamento entre as variáveis. A correlação é aplicada para
indicar a semelhança no comportamento das variáveis, mas não explica nada como é essa relação. "
"A regressão é a expressão matemática da forma de ligação de duas ou mais variáveis, objetivando a determinação da relação existente entre característica
ok
dependente e outra independente, ou seja, serve para estimação de uma variável dependente a partir de outra variável independente. Enquanto que a correlação
é a indicação matemática que aponta o grau de ligação entre as variáveis. Se os resultados são realmente proporcionados em resposta as doses (tratamento).
Indica ainda se o aumento da dose causa aumento ou redução da produção, se tomarmos como exemplo um estudo de fertilidade. Os valores podem variar de -1 a
1. "
O uso da regressão aplica-se àquelas situações em que há razões para supor uma relação entre duas ou mais variáveis quantitativas e se deseja expressar
ok
matematicamente essa relação, ou seja, é uma estimação de uma variável dependente y a partir de outra variável independente x, por isso estimam-se valores
intermediários aos realmente estudados, enquanto que o uso da correlação aplica-se quando se quer avaliar se existe associação entre duas variáveis, ou seja, a
correlação determina o grau de relação entre as variáveis. Assim, quando se pode demonstrar que duas variáveis quantitativas variam juntas, diz-se que as variáveis
estão correlacionadas, por isso indica-se variáveis com comportamento semelhante.
quarta-feira, 31 de março de 2010
Página 1 de 10
Questão Resposta
2.1.
Diferenci
e
regressã
o de
correlaç
ão, em
especial
do
ponto de
vista de
aplicaçõ
es.
comentário
"1- A regressão consiste em uma expressão matemática da ligação entre duas variáveis. Podemos criar uma regressão, onde teremos “y” sendo uma (variável
excelente
dependente) em função de “x” (variável independente), observando assim o comportamento de “y” em função de “x”. Embora que com base em uma regressão eu
possa igualmente conhecendo “y”, determinar qual é o “x” que causou aquele “y”, sendo expressa da seguinte maneira y = a + bx, onde normalmente vamos ter o
“x”. Já a correlação é um indicador matemático que mede o grau de ligação entre as variáveis, mas não indica nada como seria essa ligação ou quase nada. Ela só
diz se a ligação é próxima ou distante, e quanto mais correlacionada as variáveis mais parecidos serão os comportamentos delas. Enquanto que com a regressão eu
posso dar o valor de “x” e prever qual o valor de “y” para aquele “x”, e com a correlação não se tem a equação matemática entre as variáveis.O uso de aplicação de
correlação seria na substituição de variáveis .Um exemplo em nossa área, seria quando queremos saber qual é a variável fisiológica que determina a faixa de
absorção de nutrientes, onde sabemos que é a epiderme da raiz da planta . Só que neste caso, temos três variáveis que podemos medir a raiz: matéria seca,
comprimento, e área superficial da raiz. Mas a que tem maior relação biológica com absorção de nutrientes seria a área superficial, sendo a mais difícil de se medir.
Aqui, pegamos 100 raízes e medimos a área superficial, então vamos descobrir se existe uma boa correlação entre elas, onde medir a matéria seca de raiz é mais
fácil. Porém se temos uma boa correlação entre a variável mais fácil com a mais difícil, podemos usar a mais fácil no lugar da mais complicada de ser determinada.
Embora biológicamente o que deveria ser usado seria a mais difícil, e apenas como elas estão muito ligadas, o que acontece com a mais difícil (mais trabalhosa)
pode ser substituída pela a mais fácil e fazer a determinação.Outro clássico de regressão em nossa área seria em adubação, onde usa-se a dose econômica, faz a
curva que dá o valor de adubação que vai expressar a máxima produtividade com base no número que se aplica. Quando chegar a 90% da produtividade ,vai ser o
valor mais econômico, onde matematicamente pode-se descrever qual é o pico e qual é o ponto para ter 90% desse produção, sendo o uso direto da regressão"
"A regressão consiste na estimação de uma variável dependente a partir de outra variável independente. O estudo de regressão exerce papel relevante dentro do
ok
campo da estatística experimental, devido a sua larga aplicação na interpretação de resultados experimentais, e tem por objetivo determinar a relação existente
entre uma característica qualquer de interesse experimental, dependente, e outra característica independente, tomadas juntas. A regressão é usada para estimar
valores intermediários dos que forem estudados no experimento onde temos como exemplo doses de nutrientes e o crescimento das plantas, como: diferentes
dosagens de fósforo (independente) para obtenção de maior quantidade de matéria seca (dependente) em qualquer tipo de planta. A correlação determina o grau
de relação entre as variáveis, ou seja, procura determinar a relação quão bem uma equação linear, ou de outra espécie, descreve ou explica a relação entre as
variáveis que poderá ser positiva quando “r” é positivo, ou negativa quando o “r” é negativo, como exemplo: estudar a relação entre cigarros e doenças
respiratórias, calagem e pH, adubação e crescimento das plantas. "
"1) A regressão consiste em estimar uma variável Y (dependente) a partir de outra variável, X (independente). Em outras palavras, a regressão, através de uma
equação (y = a+bx) nos permite verificar se há uma ligação entre estas duas variáveis. Enquanto a correlação visa estimar o grau desta ligação entre as variáveis, ou
seja, o quanto da variação de Y é provocada por X. Se quisermos verificar se ocorre ligação entre duas variáveis (disponibilidade de Molibdênio e produtividade de
uma determinada cultura ou o preço de gasolina e o número de carros abastecidos por dia), faremos uma regressão. Porém, se quisermos avaliar o grau desta
ligação, devemos fazer uma correlação."
a regressão permite indicar COMO é a
ligação entre duas variáveis, enquanto
a correlação avalia se existe esta
ligação através da indicação do grau de
ligação
"Regressão é uma expressão matemática definida pela equação y= a + bx, onde “y” é a variável dependente e “x” a independente, donde y é a função linear do
valor de x e é utilizada para estimar como y se comporta em função dos valores de x. A correlação, diferente da regressão, dá a medida do grau de ligação entre as
duas variáveis, indicando o sentido e o nível dessa variação, podendo ser positiva, negativa ou zero. A regressão é aplicada para estimar valores estudados dentro
de um dado experimento, enquanto que a correlação é aplicada para indicar quais variáveis apresentaram comportamento semelhante. "
ok
Regressão é uma expressão matemática que não implica necessariamente numa relação de causa-efeito, esta ligada com duas ou mais variáveis, correlação é um
ok
indicador matemático do grau de ligação entre duas variáveis. A regressão é aplicada, por exemplo, para estimar valores não estudados dentro de uma faixa
experimental, ou seja, valores entre os pontos estudados. A correlação é usada para indicar variáveis que apresentam comportamento semelhante, por exemplo: a
correlação entre crescimento de plantas e raízes é um bom exemplo de seu uso, sendo a superfície radicular a melhor variável para explicar o crescimento de
plantas, porém mensurar a superfície radicular é difícil e muito trabalhoso, e a matéria seca da raiz apresenta uma boa correlação com a área superficial das raízes,
portanto sendo a matéria seca a variável usada para correlacionarmos com o crescimento das plantas.
O estudo de medidas envolvendo simultaneamente duas ou mais variáveis pode ser estudado através da regressão e correlação. A regressão, uma expressão
ok
matemática, a correlação, uma indicação matemática, que estabelecem relações com estas variáveis. A regressão consiste na ligação, de uma variável dependente
a partir de outra variável independente, possibilitando dessa forma, estimar uma variável dependente partindo do comportamento de uma variável independente.
Percebe-se que do lado prático, de suas aplicações, é possível estimar valores aproximados aos encontrados nos experimentos. Já a correlação determina o grau de
relação entre as variáveis, permitindo dessa forma verificar a existência de proporção entre determinadas doses ou tratamentos, possibilitando enxergar se os
prováveis aumento ou diminuição de produção fora afetado. Esses valores podem variar de -1 a 1.
quarta-feira, 31 de março de 2010
Página 2 de 10
Questão Resposta
comentário
2.1.
Diferenci
e
regressã
o de
correlaç
ão, em
especial
do
ponto de
vista de
aplicaçõ
es.
A regressao é utilizada quando se deseja “ligar” os valores dos tratamentos (X) aos dados analisados (Y), ou seja, uma equação da forma de ligação entre duas
ok
variáveis, como se comporta (Y) em função de (X) ligada. Ex: estudar a relacao entre adubacao e crescimento das plantas. Ja a correlacao indica a intensidade dessa
ligacao, induzindo quanto da variacao de Y é provocada pelo tratamento aplicado (X), isto é, indica se é uma ligação próxima ou distante. Ex: a análise do pH do
solo com relacao ao teor de aluminio no solo.
2.2.
Discuta
a
afirmativ
aa
seguir.
Duas
regressõ
es, com
igual
nível de
significâ
ncia,
apresent
am igual
nível de
importâ
ncia.
"A afirmativa não é plausível. Duas regressões podem apresentar o mesmo nível de significância sem necessariamente possuírem a mesma importância científica.
excelente, até lembrou do coeficiente
De modo geral, a significância é apenas um indicativo da probabilidade de erro na afirmação de um acontecimento, não sendo um indicador de importância
de determinação
científica, assim, em modelos de regressão torna-se mais relevante a avaliação da importância científica do que a significância, uma vez que essa é um indicativo de
quanto da variação total está sendo explicado pelo modelo, ou seja pelo coeficiente de determinação da regressão. Essas considerações permitem intuir que
medidas de significância estatística não são realmente medidas de importância. Por exemplo, a contribuição marginal conjunta ao modelo de duas variáveis
explanatórias aumenta conforme aumenta a correlação entre elas. "
Podemos relacionar que é a diferença entre estatisticamente significativo e cientificamente importante. Quando se tem duas regressões de igual significância, não aleluia, aleluia, aleluiah... Pelo menos
quer dizer que elas tenham o mesmo nível de importância necessariamente. Se tivermos estas duas regressões com uma correlação de 0,1 (altamente
uma pessoa entendeu a minha
significativo), para a área de medicina por exemplo pode ser importante cientificamente, mas esse valor não seria para área de agrárias, porque é um valor baixo. pergunta... Excelente
Pois significância é a chance que eu tenho de está errado ao afirmar que alguma coisa aconteceu. Em agrárias não tem importância discutir a correlação 0,1,
porque é baixa,já para outras áreas como medicina é válido tem importância. Em agrárias 60% de correlação é considerada baixa, deve- se ter valores maiores para
serem discutidos. Quando encontramos uma correlação de 0,1 altamente significativa, é que vai acontecer menos que 1 em 10.000 vezes
"2) Depende da área de conhecimento que está sendo avaliada. Muitas pesquisas na área Médica admitem um nível de significância muito inferior ao que se adota
na área Agrícola, por exemplo. Se compararmos duas sub-áreas da Agronomia (Fitossanidade e Solos), encontraremos valores divergentes, onde provavelmente o
nível de significância adotado pelos cientistas da Fitossanidade será bastante semelhante ao adotado por cientistas da área Médica."
quarta-feira, 31 de março de 2010
nada a ver com a pergunta... Se estou
comparando as regressões elas têm de
ser da mesma área de conhecimento,
não acha?
Página 3 de 10
Questão Resposta
comentário
2.2.
Discuta
a
afirmativ
aa
seguir.
Duas
regressõ
es, com
igual
nível de
significâ
ncia,
apresent
am igual
nível de
importâ
ncia.
Não se pode afirmar que duas regressões tenham a mesma importância, mesmo com igual nível de significância, pois para determinadas áreas da pesquisa,
verifica-se que a margem de um nível de significância de 1%, resultado devido ao acaso, pode representar um nível altamente satisfatório; esses casos são vistos
principalmente na nossa área de conhecimento, que usualmente utiliza 5%. Para outras áreas, mesmo tendo um nível de significância tão pequeno, como um nível
de 1% de significância, pode trazer resultados não satisfatórios, principalmente por envolver vidas como as pesquisas na área da saúde. Portanto, do ponto de vista
do nível de importância, aquelas que não se pode dar ao luxo de que aconteça eventos devido ao acaso, como as pesquisas na área da saúde, apresentam maior
importância se comparado a pesquisas na nossa área.
se vou comparar as regressões,
significa que são na mesma área de
conhecimento, lógico. Além disto a
discussão pode ser válida para o nível
de significância, mas não tem nada a
ver com regressão
Não, uma vez que o mais importante é o que esta sendo estudado, ou seja, a importância se deve a área de estudo, por exemplo: em medicina pode ser de
importância este nível de significância, porém na agronomia este nível de significação não seja importante em igual nível.
Faz sentido comparar regressões de
diferentes áreas de estudo?
"Não necessariamente. Determinar um alto nível de significância não causa, obrigatoriamente, a importância cientifica, deve ser avaliado o estudo que está sendo excelente... Pegou bem o espírito da
feito para determinar quanto o grau de significância irá assemelhar-se com o de importância. Em modelos lineares a importância é principalmente definida por:
pergunta
proporção da variância atribuída ao modelo, o tamanho de um ou mais coeficientes de correlação, intervalos de confiança de interesse. Exemplo: encontra-se uma
correlação de 0,1, esta é altamente significativa, devido ao acaso vai ocorrer menos do que 1 em 1000, portanto não tem importância científica em agrárias, porém
em medicina esse valor encontrado é de extrema importância científica. Para exemplificar melhor boa parte dos estudos em agrárias são considerados baixos até
60%. "
Não necessariamente. Vai depende da área de estudo, pois se duas regressões têm o mesmo nível de significância não significa que elas sejam importantes, por
exemplo: se tivermos duas regressões com uma correlação de 0,1 (altamente significativo) não quer dizer que seja importante, pois se levarmos para a nossa área
de estudo não teria importância, tendo em vista que em ciências do solo para que uma regressão tenha importância ela deve ter uma correlação acima de 60%, já
para a medicina uma regressão com uma correlação de 10% seria importante.
excelente
"2. Dependendo da área de aplicação não. Pois, se compararmos duas áreas como as ciências agrárias e a medicina, sabemos que estes resultados serão avaliados
de modo diferente. Já que, nas ciências agrárias , como vimos, por exemplo, um valor de 60% na correlação é considerado baixo. Ao contrário da medicina, onde
uma correlação com valor correspondendo a 10% seria considerado uma valor alto. "
faz sentido discutir a comparação de
regressões de diferentes áreas do
conhecimento? Além disso, a pergunta
foi sobre nível de significância, não
sobre coeficiente de correlação. Ou
seja os níveis de significância é que
eram iguais
Depende, pois mesmo que apresentem o mesmo nível de significância, não quer dizer que obrigatoriamente deva apresentar o mesmo nível de importância,
esta discussão poderia ser válida se a
depende da área de estudo e do que está sendo estudado. Como por exemplo - admitindo-se um nível de 1% de significância - testes de medicamentos que podem pergunta fosse sobre nível de
causar má formação congênita em bebês, é considerado significante estatisticamente e importante, enquanto que este mesmo nível de significância admitido é
significância...
pouco importante na nossa área, como no exemplo testes para novos herbicidas, onde apresentam 1% de chance de não cumprir com seu objetivo, apresenta nível
de importância pouco expressivo.
quarta-feira, 31 de março de 2010
Página 4 de 10
Questão Resposta
comentário
2.2.
Discuta
a
afirmativ
aa
seguir.
Duas
regressõ
es, com
igual
nível de
significâ
ncia,
apresent
am igual
nível de
importâ
ncia.
O nível de significância revelará que a reta determinada como reta de regressão representa com suficiente exatitude a variação de uma das variáveis (séries) em
função da outra. Então, duas regressões, com igual nível de significância, necessariamente não apresentam igual nível de importância. Em modelos de regressão
avaliar a importância científica costuma ser mais importante do que a significância, pois uma regressão pode explicar muito bem uma relação entre variáveis sem
ser significativa. Neste caso, a importância compreende em seu conceito: a proporção da variância atribuída ao modelo de regressão utilizado, o tamanho de um
ou mais coeficientes de correlação e os intervalos de confiança de interesse.
ok, mas não comentou nada sobre
como identificar a importância
Esta afirmativa não é verdadeira. Pois, depende do que esteja sendo estudado. Tomando como exemplo um nível de significância de 1%, que indica a possibilidade
que determinado resultado aconteça apenas 1% devido ao acaso. Quando levamos este exemplo para a área da saúde, pode ter uma enorme importância, por
representar alta chance de se contrair uma dada doença. Porém, trazendo-o para a nossa área, que normalmente admite um valor maior, representa baixo risco de
que resultados inesperados aconteçam, portanto, menor importância.
a pergunta foi sobre a comparação de
duas regressões... Avalie se sua
resposta faz sentido para esta
pergunta.
2.3.
"3) Calcular os resíduos de uma regressão nos permite inferir na variação devido ao acaso. Valendo salientar que só podemos calcular os resíduos para valores
Porque é conhecidos, não podendo, portanto, determiná-los para valores interpolados, uma vez que se dá pela diferença entre o valor ajustado e o real. Se compararmos o
importa resíduo e a variável independente (X), poderemos visualizar o ajuste do modelo a ser utilizado."
nte
avaliar
os
resíduos
de uma
regressã
o, e que
possíveis
informaç
ões
podemo
s tirar
disto?
como os resíduos permitem avaliar o
efeito do acaso?
Avaliar o resíduo é importante, pois é a partir destes que se estima a variação ocorrida devido ao acaso, indicando o quanto das respostas obtidas por determinado definição de resíduo, mas não
tratamento foi devido ao acaso ou devido ao tratamento mostrando se o modelo utilizado é o ideal para o estudo. Por isto que só se tem resíduo a partir de valores respondeu à pergunta
reais, já que o resíduo é a diferença entre os valores ajustados e os reais, não podendo ser calculado a partir de valores interpolados.
É importante avaliar os resíduos de uma regressão, porque os resíduos representam a diferença entre aquilo que foi realmente observado e o que foi predito pelo
modelo de regressão. Como conseqüência disto, tem-se acesso a informações da estimativa da variação ocorrida devido ao acaso, indicando o quanto das
respostas obtidas por determinado tratamento foi devido ao acaso ou devido ao tratamento e se o modelo utilizado é o ideal para o estudo.
quarta-feira, 31 de março de 2010
ok quanto ao resíduo propriamente
dito, mas nada sobre porque...
Página 5 de 10
Questão Resposta
comentário
2.3.
Resíduos representam a diferença entre o valor observado de y e o que foi predito pelo modelo de regressão, assim, os valores de x no quadro residual são
Porque é idênticos aos valores de x digitados, os valores de y são os resíduos. É importante, após se realizar a regressão, testar se os requisitos dessa aplicam-se; isto se faz
importa com a análise dos resíduos. Esses são a variação do acaso e fornecem subsídios para avaliação o modelo.
nte
avaliar
os
resíduos
de uma
regressã
o, e que
possíveis
informaç
ões
podemo
s tirar
disto?
o miolo ficou confuso... No final
chegou mais perto da resposta, mas
não falou como eles fornecem estes
subsídios...
Porque o resíduo é a variação do acaso, ou seja, a diferença entre o valor ajustado e o valor real encontrado até aquele ponto, o acaso inclui parte da variação
explicada por (X), mas não é explicada de acordo com a equação escolhida, o acaso está fora da equação portanto a equação nunca vai representá-lo. A
comparação entre resíduo e a variável independente é útil para visualizar ajuste do modelo
chegou mais perto falando na
visualização do ajuste do modelo
Resíduos representam a diferença entre o valor observado de y e o que foi predito pelo modelo de regressão. Através dos resíduos, é possível calcular a variação
que foi devido ao acaso, isso porque pode ser realizada a diferença entre o valor ajustado e o real. Do ponto de vista prático, por necessitar de valores com maior
precisão e exatidão, fica praticamente inviável calcular através da interpolação, isso porque o distancia de valores próximos aos reais. Os resíduos da regressão
representam a variação da variável dependente que não é explicada pela variação do fator incluído na análise. Porém, é possível ajustá-lo junto ao modelo de
regressão a ser utilizado.
cumequeé? A última frase não tem pé
nem cabeça, nem muito menos
qualquer lógica... Antes dela, estava
até definindo razoavelmente bem o
que é resíduo, embora não estivesse
indicando nada quanto a sua
importância e possíveis informações
Porque com os resíduos pode-se calcular a variação que foi devido ao acaso, pela diferença entre o valor ajustado e o real. Porém, por necessitar de valores (doses) e como oferece estes subsídios?
precisos e exatos, reais, não é possível calculá-lo para valores interpolados. E ainda oferece subsídios para ajustar o modelo da regressão.
"Os resíduos estatísticos normalmente seguem a distribuição normal. Ele seria a diferença entre o valor ajustado e o valor real, ou valor alcançado menos o valor
obtido. Ele é válido para valores reais e deve ser calculados nestes pontos. A análise de regressão linear não fica completa sem o estudo dos resíduos. Pois os
resíduos podem ser considerados como erros observados. Com os resíduos podemos verificar a variação que ocorre devido ao acaso, saber realmente se os
resultados obtidos nos experimentos foram devido ao tratamento ou ao acaso "
ok quanto ao resíduo, mas não indicou
o porque de estudar ou as informações
"3. Resíduo, é a diferença entre o valor observado da variável dependente e o valor dito antes, ou melhor, estabelecido antes, pela equação de regressão. Logo,
resíduo nada mais do que a diferença entre o valor ajustado e o valor real. Ou seja, é a variação do acaso. Pois , quando esperamos um valor e este não é dado,
sabemos que houve uma variação do acaso que pode ser até um erro talvez, de manuseio, de condução. "
ok quanto à definição, nada quanto a
avaliação, importância destes e
possíveis informações
O resíduo é a diferença entre ajustado e real, sendo, portanto uma variação devido ao acaso, por exemplo: numa leitura de uma curva de potássio, a leitura do
segundo ponto foi de 23 no fotômetro de chama, porém sabemos que o real valor é de 20, portanto temos uma diferença de três (3), que é o resíduo neste
exemplo. A avaliação do resíduo é importante por permitir visualizarmos ajustes de um dado modelo em questão, portanto o resíduo indica quanto que esta
fugindo dos dados reais, e isto é importante para definirmos o quanto este erro é aceitável dentro de um dado estudo, ou simples determinação de um elemento
químico.
como?
É importante avaliar os resíduos da regressão porque é a partir destes que se estima a variação ocorrida devido ao acaso, e as informações dadas pelo resíduo é
quanto das respostas obtidas por determinado tratamento foi devido ao acaso ou devido ao tratamento, e é por isto que só se tem resíduo para valores reais, pois
o resíduo é a diferença entre os valores ajustados e os reais, não podendo ser calculado a partir de valores interpolados.
boa definição de resíduo, mas não
falou nada sobre o como...
quarta-feira, 31 de março de 2010
Página 6 de 10
Questão Resposta
comentário
2.4.
Não concordo com a afirmativa, pois y pode ser apenas estimado pelos valores de x, ou seja, não quer dizer que x seja a única causa de x, mesmo que essa
Discuta regressão seja significativa, pode ser que os valores de x e y tenham sido causados por fatores extrínsecos ao tratamento.
a
afirmativ
a "A
existênci
a de
uma
regressã
o
significat
iva entre
xey
indica
que x é a
causa de
y".
ok, mas faço ressalva sobre a parte de
"única causa". A regressão não permite
afirmar NADA com relação a causa
A afirmativa não é verdadeira já que regressão não significa relação de causa e efeito, ou seja, X não é a causa de Y e sim ajuda a estimalo, pois a relação entre
essas duas variáveis pode ter ligação por outros motivos e X esteja sendo usado para explicar Y. Um exemplo é explicar a quantidade de Al+3 no solo em função do
pH; população de bactérias pode ser predita a partir da relação entre população e o tempo de armazenamento ou em estudos de antropologia, onde utilizam o
femo para estimar a altura de um determinado individuo.
o osso é femur, não femo. Fora isto, ok
"4. Não. Embora, saibamos que em uma regressão y , é uma variável dependente, que se comporta em função de x , que é uma variável independente. Isso não
significa que x seja a causa de y. Pois , y pode sofrer variações embora estas não se relacionem diretamente com x, e sim de situações de terceiros, que tenham
sido influenciados por x."
excelente
Na equação de regressão o x é uma variável independente, e y a variável dependente da equação, e a regressão é apenas uma expressão matemática, para estimar
valores. Porém a variável x pode não explicar totalmente a causa de y, mais explica de certa forma uma percentagem considerada significativa desta causa,
provavelmente nunca 100% de que x e a causa de y. Um exemplo seria a resposta de milho a adubação nitrogenada, onde com o aumento das doses de nitrogênio
aplicado teremos uma resposta no aumento da produção de grão e/ou biomassa vegetal desta cultura, ou seja, se x (doses de adubação nitrogenada) causando um
efeito na produção de grão e biomassa na cultura do milho, (aumento da produção), o que representa a variável dependente y. No entanto, sabemos que outras
variações do acaso podem interferir neste resultado. Portanto x não é causa de y, pois depende da interpretação do pesquisador diante dos valores obtidos diante
de uma regressão, onde uma explicação biológica é a forma mais eficiente de explicar tais variáveis.
pela sua explicação x é a causa de y,
mas pode haver variação do acaso...
Regressão apenas indica como duas
variáveis estão ligadas, não havendo
qualquer julgamento de mérito quanto
à ligação... A parte final indica que a
interpretação do pesquisador seria
com base nos valores da regressão,
quando na realidade a interpretação
para causa e efeito não depende dos
valores
"4) Esta afirmativa não condiz, pois a regressão é uma ferramenta estatística que, baseada em médias, nos permite estimar os valores de Y em função de X. não
deve ser entendida como uma relação de causa-efeito porque possibilita verificar apenas a ligação entre as variáveis."
ok...
"A existencia de regressão não quer dizer que (X) seja a causa de (Y) pois pode ser que outra coisa esteja interferindo, ou seja, a regressao apenas representa
matematicamente a relação entre tratamento e resposta dos dados trabalhados, não explica uma coisa em funcao da outra. "
ok
A afirmativa acima está errada. Porque quem indica a relação de causa-efeito de modo efetivo de que x é a causa de y não é a regressão, mas o conhecimento que
o pesquisador tem acerca do fenômeno ou assunto estudado, haja vista que na regressão tem-se uma relação matemática onde os valores são estimados.
ok
quarta-feira, 31 de março de 2010
Página 7 de 10
Questão Resposta
2.4.
Discuta
a
afirmativ
a "A
existênci
a de
uma
regressã
o
significat
iva entre
xey
indica
que x é a
causa de
y".
comentário
Escrever uma regressão de y em função de x, não quer dizer que x seja a causa de y, ou seja, a variável resposta não é a causa da ocorrência, mas sim um sinal da
sugiro tentar escrever de forma mais
mesma causa. Pode ser que as variáveis estejam ligadas a um agente separado, que ao se usar x torna-se possível explicar o que está ocorrendo em y. Logo, há uma direta, porque está meio confuso. A
relação de causa e efeito, mas que não é explicada pela regressão. A análise de regressão apenas indica qual relacionamento matemático pode existir, em outras
parte final é a mais importante
palavras, nem a regressão nem a correlação podem mostrar que uma variável tenda a causar certos valores de uma outra variável. Entende-se então, que a lógica
de uma relação causal deve provir de teorias externas ao âmbito da estatística.
"4- A regressão não implica na relação de causa e efeito, é simplismente uma relação matemática. É incorreto afirmar que uma equação onde: y= a + bx, dizer que x excelente
é a causa de y. Ou seja: em uma regressão não quer dizer que haja uma relação causa e efeito,escrevendo uma regressão de y em função de x, não quer dizer que x
seja a causa de y. Pode ser que as 2 estejam ligadas uma à outra separada. O fato de exprimir uma regressão não quer dizer x seja a causa de y, quer dizer apenas
que eu estou usando x para estimar. Muitas vezes há uma relação de causa e efeito, mas quem diz se é uma relação de causa e efeito ou não (não é a regressão,
são os nossos conhecimentos sobre aquele assunto). Podemos exemplificar da seguinte forma: Se fizermos uma adubação em relação a produtividade, podemos
afirmar que a adubação é a causa do aumento da produtividade, isso é coerente. Mas isso não é coerente pela regressão, é coerente pelos meus conhecimentos de
fisiologia vegetal e fertilidade do solo, pois não é a regressão que está levando a isso. Outro exemplo seria exprimir a produtividade em função da chuva. A
regressão não é quem está me dizendo que é uma relação de causa e efeito, quem diz o que está acontecendo uma relação de causa e efeito, seria novamente
meus conhecimentos de fisiologia vegetal.,que indica que numa determinada faixa de valores diz que quanto mais chove mais a planta pode crescer."
Esta afirmação não é verdadeira. Pois, a regressão não indica relação causa-efeito. O que fazemos é o uso do “x” para estimar “y”, mas, não indica que “x” é a
causa do aumento de “y”. O que vai me dizer se houve relação causa-efeito são os meus conhecimentos sobre o assunto da minha pesquisa, como exemplo, em
fisiologia vegetal, nutrição de mineral de plantas, comportamento dos íons no solo, entre outras coisas.
ok
Do ponto de vista prático e direto, essa afirmação seria verdadeira, pois observa-se que quando maior o valor de x, aumentaria os valores de y. Dessa forma, é fácil
pensar que se for aumentado os valores de x, automaticamente os valores de y aumentaria, sem levar em consideração de um fator importante, que a regressão
não indica relação causa-efeito. Ao se obter a expressão matemática “x” para estima “y”, porém, “x” não é a causa do aumento de “y”. Por traz desses dados,
vários outros fatores devem ser levados em consideração, e que de certa forma pode estabelecer se houve ou não relação causa-efeito. Dentre esses fatores
podem ser elucidados conhecimentos referentes a pesquisa que de certa forma envolve diversas áreas que fortalecem e auxiliam na análise dos dados.
quase me mata do coração no início,
até o sem levar em consideração...
Bem matar do coração é exagero, mas
considerar a questão como
completamente errada ficou bem
perto...
quarta-feira, 31 de março de 2010
Página 8 de 10
Questão Resposta
comentário
2.5.
Como
podemo
s
compara
r duas
regressõ
es
lineares
diferent
es, e
com
base
nelas
avaliar
se as
resposta
s de y a x
são
semelha
ntes ou
não
entre as
regressõ
es?
esqeuceu r e intervalo de confiança
Duas regressões lineares diferentes só podem ser comparadas com base nos parâmetros da equação de regressão “a e b”, onde b é a inclinação da reta, enquanto
que o valor de a= y quanto x=0. A diferença entre elas é dada pelo b, que é quem indica a inclinação da reta e como estas se comportam, se são positivo ou
negativo, mostrado a influencia de determinado tratamento em “a”, pois este mostra o quanto do evento observado será obtido sem a influencia do “b” e pela
relação desses diferentes parâmetros.
Pode ser comparada com base nos parâmetros da equação de regressão
(y = a + bx) “a e b” onde o y varia em função do b, que é a inclinação da reta,
só faltou o intervalo de confiança
enquanto que o valor de a= y quanto x=0, e o b explica quanto o y varia para cada x. A diferença entre elas é dada justamente pelo b, que indica a inclinação da reta
(ou coeficiente angular) e como esta se comporta, negativo ou positivo (descendente ou ascendente), mostrado a influência de determinado tratamento em a,
onde este mostra o quanto do evento estudado será obtido sem a influencia do b, e pela relação entre estes diferentes parâmetros. E também pode ser
influenciado pelo r, que é o coeficiente de correlação, explicando o quanto do y é explicado por x.
A comparação é possível através da análise dos valores de “a” e “b” da equação da regressão linear y= a + bx, onde “a” representa o valor de “y” quando “x=0”, e
“b” o coeficiente angular (inclinação da reta), quanto “y” varia para cada “x”. Se “a” e “b” apresentarem valores semelhantes nas duas regressões, elas irão se
comportar de maneira semelhante, a mesmo “x”. Com base no coeficiente angular, podemos observar se as respostas (valores de y) são rápidas ou mais lentas de
acordo com o aumento de “x”, ou ainda, se os valores de “y” crescem ou decrescem com o aumento de “x”.
esqueceu intervalo de confiança e r
"5. Podemos fazer esta comparação, apenas com base nos parâmetros a e b da equação . Temos, Y= a + bX, onde o b é o coeficiente angular, responsável pela
finalmente alguém lembrou do
inclinação da reta, indicando se ela é positiva ou negativa, ou seja, ele representa quanto Y muda em relação a X. E o parâmetro a=Y quando X=0. E a diferença ou intervalo de confiança
não entre as regressões será dada justamente pelo parâmetro b. E pelo intervalo de confiança, pois se apresentarem os mesmos valores ou valores semelhantes, as
regressões não serão diferentes. Caso contrário serão diferentes. . Pois,sabemos que a regressão que apresenta maior b é a que melhor representa x e a que
melhor responde."
Se os valores de (a)-(intercepcao no eixo dos Y) forem semelhantes nas duas regressões e a diferença nos valores de (X) for baixa, teremos respostas semelhantes,
pois (b)-(coeficiente angular da reta) determina quanto o (Y) varia para cada (X).
de onde entrou a diferença nos valores
de x nesta história? Além disto,
esqueceu o r
Podemos comparar duas regressões lineares diferentes observando na equação (y= a + bx), conhecendo- se quem são os valores de “a” e os de “b”, onde para x=0
teremos y = a. Então como o “b” indica o grau de inclinação ( aclive ou declive), a depender dos valores, se eles forem positivos ou negativos
esqueceu r e intervalo de confiança
quarta-feira, 31 de março de 2010
Página 9 de 10
Questão Resposta
2.5.
Como
podemo
s
compara
r duas
regressõ
es
lineares
diferent
es, e
com
base
nelas
avaliar
se as
resposta
s de y a x
são
semelha
ntes ou
não
entre as
regressõ
es?
comentário
"5) Podemos compará-las através de estimativas dos parâmetros a e b. parâmetros estes, obtidos pelo método dos mínimos quadrados. Levando em consideração esqueceu o intervalo de confiança para
as médias dos dados relativos a X e Y e o número de observações. Onde a é o ponto em que a reta intercepta o eixo Y, ou seja, é o valor de Y quando X é zero. Por cada um...
exemplo, quando avaliamos a produtividade de feijão caupi em função da adubação. O valor de a neste caso, nos informará a produtividade de feijão caupi quando
não for realizada a adubação, ou seja, Y sem interferência de X. E b é o coeficiente angular da reta, que determina a declividade desta e expressa o valor de Y para
X=0. Quando o X varia em uma unidade, o b indica o número de unidades que varia o Y. Portanto, para dizer se as regressões são ou não semelhantes, precisamos
saber se a e b são semelhantes considerando um mesmo valor de X. Caso b seja positivo, a reta será ascendente, se b for negativo, a reta será descendente."
Podemos comparar duas equações através do coeficiente de determinação (r2), ou seja, quanto de y é explicado pela equação calculada. Por exemplo: para um
coeficiente de 98% e outro de 92%, podemos dizer que o primeiro coeficiente de determinação explica mais y do que o segundo, ou seja, a primeira regressão
explica melhor o que esta acontecendo. A avaliação pode ser feita através da inclinação da reta entre as duas variáveis que é expressa pela letra b da equação em
questão, pois b explica quanto de y varia em função do aumento ou da diminuição do valor de x. A inclinação da reta pode subir ou descer dependendo de cada
situação.
como o r2 indica o comportamento da
regressão pelamordedeus? A segunda
parte está parcialmente correta,
porque não leva em consideração a ou
intervalo de confiança
Podemos comparar duas regressões lineares tomando como base a equação matemática que as representam (y = a + bx), onde: y é a variável dependente, x é a
definições dos itens ok, mas não vi
variável independente, b é o parâmetro ou coeficiente angular da reta e determina a inclinação da mesma e a é o parâmetro ou coeficiente linear que expressa o
onde ficou a comparação...
valor de y para x = 0. Para a obtenção da linha reta de regressão, são calculados, então, a e b, que são as estimativas dos coeficientes linear e angular,
respectivamente. Desses parâmetros, o coeficiente linear (a) define a intersecção da reta com o eixo das ordenadas, e o angular (b), sua inclinação em relação ao
eixo das abscissas e a taxa de variação de y por unidade de variação de em x. A reta de regressão simples é crescente, decrescente ou horizontal (paralela ao eixo x)
conforme b seja positivo, negativo ou nulo. Assim, a diferença entre elas pode ser caracterizada conhecendo-se o valor b, que indica o sentido da inclinação da
reta, se positivo, se negativo ou nulo de modo a refletir matematicamente a relação e a influência de determinada condição experimental em a.
Ao se obter a equação da regressão linear (y= a + bx), é possível a realização da comparação entre as duas regressões, podendo estabelecer entre elas
esqueceu r e intervalo de confiança
semelhanças. Isso só será possível se analisarmos comparativamente os valores de ‘a’ e ‘b’. Dessa forma, pode-se dizer que y=a quando for obtido valor igual a zero
para ‘x’. Sabe-se que ‘b’ representa o coeficiente angular, ou seja, a inclinação da reta, podendo apresentar reta ascendente ou descendente. Vale ressaltar que os
valores de ‘y’ podem aumentar ou diminuir com o aumento de ‘x’, ou ainda se essas respostas são rápidas ou lentas com o mesmo aumento de ‘x’. Os valores de
“y” iram variar de acordo com os valores de “x”. Pode-se analisar as representações de ‘a’ e ‘b’ com valores semelhantes nas duas regressões para verificar o
comportamento destas, com o mesmo valor de x, o resultado será semelhante, apresentando as representações gráficas da reta.
quarta-feira, 31 de março de 2010
Página 10 de 10
Download