1 1. Introdução. Este trabalho tem como objetivo - Wiki

Propaganda
1
1. Introdução.
Este trabalho tem como objetivo apresentar o tema das Radiações Ultravioleta e Seus Efeitos
na Saúde Humana, numa tratamento de divulgação científica, estabelecendo sempre que
possível uma relação de interdisciplinaridade. A elaboração desta monografia, tal qual
documentação contendo elementos tratados em produção de material didático, também
agrega a utilização das ferramentas e aplicativos de internet, trabalhadas na disciplina
tecnologias de ensino, todas estas aplicadas em mídia eletrônica, pensamos poder permitir
expandir a potencialidade da divulgação científica. A divulgação científica é, também, uma
forma de desmistificar as Ciências permitindo popularização do conhecimento científico,
utilizando multimeios. Segundo Cáudio Zaki Dib; “Sistemas de multimeios: área
interdisciplinar de pesquisa e desenvolvimento. A utilização de tecnologia da educação na
aprendizagem de física adquire excepcional importância no momento em que a sociedade
requer, mais do que nunca, ensino eficiente de física que possa ser oferecido a um elevado
número de pessoas”
(1)
pg203.
O tema escolhido, a ser abordado, foi o de Radiação Ultravioleta e Seus Efeitos na Saúde
Humana, sendo um assunto importante, atual e tendo como preocupação fundamental
disponibilizar informações técnicas, orientações, riscos e cuidados sobre os efeitos da
radiação na saude. A natureza física da radioatividade e das radiações foram estudadas em
efeitos biológicos das radiações ionizantes e não-ionizantes que serão aqui abordadas para
apresentar os princípios físicos necessários. Estes princípios físicos básicos sobre a natureza
da radiação são considerados didaticamente necessários pois, nosso público alvo será aberto,
sendo que disponibilizado nosso material a todos os interessados, independente de seu nível
de conhecimento sobre o tema abordado. Nosso material informativo poderá ser acessado
entre pessoas leigas e até colaboradores especializados no tema.
A motivação que envolve a elaboração deste trabalho atenta para o fato de que nos dias de
hoje, estamos imersos em um mar de campos e radiações. Divulgar a natureza das radiações,
2
noções sobre seus princípios físicos e a preocupação aos danos causados à saúde humana,
justificada pelos problemas causados, especificamente, pela radiação ultravioleta, natural ou
artificial. O Sol nossa principal fonte de energia e de vida é também fonte de radiação com
diversos comprimentos de onda, inclusive, como fonte natural, a radiação UV aqui estudada.
A radiações UV pode ser produzida artificialmente, tais como a utilizada nas câmaras de
bronzeamento artificial, ou nos ambientes de produção das diversas indústrias e fornecedores
de equipamentos de solda.
Ampliar a potencialidade da divulgação de informação de forma a atingir um maior publico
não é tarefa simples, porém, pensamos estar indo além da publicação de um documento
escrito e publicado de forma estática, sem interação com o leitor, na qualidade de um
compêndio disponibilizado em uma biblioteca ou como uma página truncada em um site de
internet. Na Internet os aplicativos de publicação, como o WordPress, que disponibilizam
entre seus recursos de interação a criação de Blog, é em sí um recurso que
interdisciplinaridade, porque os interlocurores, praticamente,
opera a
estarão abordando o tema
central com toda amplitude de um diálogo. Esta possibilidade de mão-dupla, dando interação
entre os o curador do site e seus usuários, ou também entre os próprios usuários do site.
Deste modo ao utilizarmos este meio de comunicação, esperamos provocar transformações
positivas na dinâmica da divulgação científica.
Estas ferramentas e aplicações disponíveis para a internet, estão disponíveis sob a forma de
software gratuito e livre, o que amplia a possibilidade de uso por ter seu custo inicial nulo.
Acreditamos que estas potencialidades possam ser exploradas colaborativamente na
construção de alternativas para a divulgação científica, ampliando e disponibilizando
informação e fomento ao conhecimento para um crescente número de pessoas.
Embora não estejamos explorando e implementando neste trabalho dicionários dinâmicos de
linguas, vale lembrar que é uma facilidade que merece destaque, a possibilidade de interação
e leitura do conteúdo disponibilizado na forma de divulgação científica, pode estar sendo
3
lida e recebendo interação em outro idioma, já que pela internet atualmente é oferecido como
potencialidade de âmbito global ferramenta tradução dinâmica do idioma local, e da
composição em outros boxes. Certamente com a disponibilidade atual de diversos recursos
em mídias eletrônicas, poderemos encontrar meios complementares que oferecem melhor
eficiência aos canais de comunicação, não broadcast, como recurso para divulgação
científica.
No âmbito da utilização do conceito de interdiciplinaridade, tão discutida e teorizada nos
meios acadêmicos, mas muito pouco percebida de maneira clara, como prática, vai aqui uma
tímida abordagem do conceito. Desta forma, aqui se pretende uma abordagem prática
simplificada que possa caracterizar alguns aspectos de prática catalizadora dos
conhecimentos adquiridos nas multiplas disciplinas frequentadas. Algumas destas disciplinas,
com ênfases diferentes, buscam dar um contexto universalidade ao conhecimento e
concomitantemente formar um cidadão com competências nas suas àreas e habilidades para a
pesquisa, produção e divulgação de temas de interesse pela sociedade.
2. A ESTRUTURA DA MATÉRIA.
Durante a história do Homem muitos pensadores e filósofos se ocuparam com a natureza das
coisas, da matéria e da vida. Muitas foram as explicações e os modelos que os pensadores e
cientistas elaboraram para explicar o funcionamento na natureza. O conhecimento atual é
produto da contribuição destes ilustres pesquisadores e da evolução de suas idéias e modelos
resultou no vasto conhecimento que, hoje, detemos a respeito da matéria, sua composição e
suas formas de manifestação. Hoje aceita-se que todas as coisas materiais existentes na
natureza são constituídas de átomos ou de suas diversas possibilidades de combinações, as
moléculas. Os átomos por sua vez, agora, são divisíveis em partículas ainda menores, e estas,
dependendo da sua interação e relação com o meio, podem apresentar natureza corpuscular
ou natureza ondulatória, que são mutuamente excludente, na sua forma de manifestação (de
4
Broglie 1924). O conjunto de átomos diversos, ligados a outros átomos irão compor as
moléculas que assim apresentam as propriedades não só de um elemento químico, mas irão
compor todas as formas de manifestação da matéria na natureza.
Já obtvemos evidências experimentais da existência de anti-matéria, inicialmente pela
partícula antí-elétron, proposta por Dirac, o pósitron. Experimentos nos grandes aceleradores
e observações de interações dos raios cósmicos mostraram a aniquilação de pares de elétronpósitron dando origem à um fóton.
Isto posto, faremos uma breve incursão por alguns temas da física os quais servirão como
referencia para melhor compreendermos o tema objeto deste trabalho.
2.1. O ÁTOMO.
O átomo depois de ter sua concepção divulgada pelos cientistas atomistas, inicialmente com
relutância, foi aceita pela comunidade cienfica da época (Thompson 1904, Bohr 1913). A
estrutura de um átomo, no conceito da mecânica clássica, como descrito no modelo de Bohr
para o átomo de Hidrogênio, levou em conta os resultados obtidos por Plank, Einstein e
Rutherford e era compatível com os espectros observados. O elétron se move, sob ação das
forças coulombiana do núcleo positivo em órbitas circulares ou elípticas sendo estas
semelhante ao do Sistema Solar.(4)pg.28
O modelo de Bohr do átomo nuclear em 1913, e a descoberta do nêutron em 1932, tornou
claro que o átomo e mesmo o núcleo era composto por partículas menores, influenciando
interpretações e representações do modelo do átomo (figura 10), consistindo em um núcleo,
onde fica concentrada a massa, análogo ao Sol e que estará com carga elétrica positiva, e
partículas diminutas em relação ao núcleo, estes girando em seu redor, em órbitas circulares,
por simplicidade de representação,
denominadas elétrons que tem carga elétrica negativa,
neste nosso modelo, por analogia, seriam equivalentes aos planetas. Como no Sistema Solar,
o átomo possui grandes espaços vazios entre seus constituintes, que podem ser atravessados
5
por partículas menores do que ele. Após o modelo do “Pudim de passas” proposto por
J.J.Thomson, do modelo planetário de Rutherford, para o qual sabia-se que haviam falhas
devido ao movimento acelerado do elétron na sua órbita emitindo radiação e de acordo com a
teoria do eletromagnetismo de Maxwell, perdendo energia , assim, seu raio diminuiria
fazendo com que o elétron colidisse com o núcleo. Todas estas descobertas associadas
resultaram em reformulações do modelo de Thomson, Rutherford e Bohr para o átomo.
Atualmente, sabemos que o átomo não é indivisível e também não é a menor parte estrutural
da matéria, pois a física moderna comprovou que o àtomo é divisível e, além, demonstrou a
existência de diversas outras partículas, tais como os quarks e anti-quarks. Na mecânica
quântica já se demonstra a natureza corpuscular e ondulatória destas partículas fundamentais.
O cientista Louis Victor de Broglie, em 1923, propôs a natureza ondulatória das partículas
(matéria). A expressão matemática, por ele proposta foi, 𝜆 =
ℎ
𝑚𝑣
, pela qual recebeu o prêmio
Nobel em 1929. “...because photons have wave and particle characteristics, and electrons
have particle caracteristics and properties typical of waves, perhaps all forms of matter have
wave as well as particle properties. ”(3)pg818. Experimentos de difração, realizadas com
feixe de eletrons, comprovaram seu comportamento ondulatório.
.
Figura 10- Analogia entre a estrutura Atômica e o Sistema Solar.
Fonte: Comissão Nacional de Energia Nuclear- Ministério da Ciência e Tecnologia
6
2.2. ESTRUTURA DO NÚCLEO.
O núcleo do átomo é formado núcleons, basicamente, por partículas de carga positiva,
chamadas prótons, e de partículas de aproximadamente mesma massa e mesmas dimensões,
porém sem carga elétrica, denominadas neutrons (figura 11).
Figura 11: Elementos químicos naturais
Fonte: Comissão Nacional de Energia Nuclear- Ministério da Ciência e Tecnologia.
Os Próton e Nêutron que compõe o do núcleo são também compostos de outras partículas, os
quarks. Os quarks, aceita-se hoje, são os componentes primordiais da matéria. Eles possuem
diversas propriedades, entre elas carga e spin, estas combinadas em certo número dão origem
as outras partículas. Por exemplo os Barions, Prótons são formados por dois quarks-U e um
quark-D e os Nêutrons por são formados por dois quarks-D e um quark-U (3)pg919.
O número de prótons, indica o número atômico (Z), que identifica um elemento químico,
comandando seu comportamento em relação aos outros elementos.
O elemento natural mais simples, o hidrogênio, possui apenas um próton; um dos mais
complexos, o urânio, tem 92 prótons, sendo um dos elementos químicos natural mais pesado,
que assume grande importância nos estudos do núcleo.
Quanto mais prótons um átomo possuir em seu núcleo, maior a densidade de energia que ele
comporta. A energia está dito de forma simplista armazenada nas ligações nucleares que
mantém o núcleo coeso. Seria impossível manter o núcleo, geralmente, estável sendo seus
constituintes, prótons, possuidores de cargas idênticas (positivas), “separadas”, em alguns
7
casos, os de Z menores, por neutrons, se somente a força columbiana agisse entre estas
partículas. Sabemos que a força eletrostática entre cargas de mesmo sinal é repulsiva.
No interior do núcleo, prótons e nêutrons, os núcleons, As interações nucleares forte e fraca,
também conhecida como força hadrônica, é muito mais intensa do que a força columbiana,
porém tem um raio de ação muito reduzido quando comparado às forças eletrostáticas. A
interação nuclear forte tem aproximadamente a mesma intensidade entre dois prótons, entre
um próton e um nêutron.
Estas forças, como mencionamos, são responsáveis pela estabilidade do núcleo, são
favorecidas quando o número de prótons e nêutrons são aproximadamentes iguais. Com a
presença de maior números de nêutrons a estabilidade seja favorecida (Figura-12), este fato é
de relevada inportância quando se estuda o decaimento nuclear.
Percebemos que quanto mais pesado for o átomo, número A grande, existirá uma tendência
de ocorrer a presença de um maior número de nêutrons do que de prótons. No caso de
núcleos mais pesados, geralmente com Z > 55 (ferro), haverá uma maior instabilidade
causada pela energia de repulsão eletrostática entre os prótons (proporcional à Z2). Nos
elementos com Z< 55 a força repulsiva é minimizada pela igual presença de nêutros e
prótons (4)pg126.
Outro fato importante à saber é que a massa de um núcleo é menor do que a massa de seus
constituíntes, isto é evidência de que parte da massa dos núcleos átomicos que se associam
em um processo de fusão para compor um novo núcleo estará sendo convertida em energia e
liberada. A diferença entre as massas inicial e final, ou seja, Δ𝐸/𝑐 2 corresponde ao total da
energia liberada. Assim, em um processo de fissão, para desintegrar um núcleo, é preciso
fornecer energia ao sistema e essa energia precisa ser igual ou maior do que a energia de
ligação para que ocorra a fissão.
8
Figura 12: Gráfico de estabilidade dos Núcleos
Fonte: Introdução à Física Atômica e Nuclear.Oldenberg&Holladay.
2.3. AS MOLÉCULAS.
As móléculas são conjuntos de átomos ligados, na sua manifestação mínima, estarão
caracterizando uma dada substância. Dependendo de como estas ligações variem o seu
arranjo, as moléculas que estarão sendo formadas poderão estar caracterizando as diversas
substâncias básicas que formam os corpos materias que nos rodeiam. A suposição de que
quandos os átomos se combinam os núcleos permanecem inalterados é correta, esta é a
explicação do porque a massa se conserva nas reações químicas. Outras características nas
reações químicas se alteram pela reação química, sendo as ligações químicas entre átomos
adjascentes que compõe moléculas complexas. As possíveis ligações entre átomos (iônicas,
covalentes) são determinadas pela polaridade, eletronegatividade e saturação de valência
9
entre os átomos que compões mesmo as moléculas mais simples. Estas diversas
possibilidades de se fazer as ligações entre os elétrons de valência dos átomos formando as
moléculas também determinam a estrutura geométrica que estas moléculas ganham forma.
No caso dos elétrons compartilhados em moléculas, estes deixam de pertencer, num dado
momento, à um único átomo e passam a pertencer aos orbitais moleculares. Basicamente, a
teoria dos orbitais moleculares admite que, quando as moléculas são formadas, os elétrons
mais externos não ocupam mais os níveis de energia que ocupavam nos átomos isolados.
Estas características são, de certa forma, responsáveis pela formação de cadeias longas de
moléculas compostas pelos memos elementos atômicos, que se agrupam em diferentes
quantidades (5)pg73.
Figura 13: Molécula tetraédricade CH4
Fonte: Química, Sienko e Plane.
2.4. OS ISÓTOPOS E AS EMISSÕES RADIOTIVAS
Como o nome indica (isos = mesmo; topos = lugar), os isótopos ocupam o mesmo lugar na
classificação periódica dos elemento e possuem obrigatoriamente o mesmo número de
prótons, mas o número de neutrons no núcleo pode ser variável, pois eles não têm carga
elétrica. Com isso, um mesmo elemento químico pode ter massas diferentes átomos de um
mesmo elemento químico com massas diferentes são denominados isótopos.
10
O hidrogênio tem 3 isótopos: o hidrogênio, o deuterio e o trício (ou trítio) (figura12). As
emissões primárias de Matéria e Energia que são emitidos pêlos radionucleidos que serão
discutidos são a radiação alfa, beta e gama.
Figura 12: Elementos atômica do Hidrogênio, Deuterio e o Trítio
Fonte: Comissão Nacional de Energia Nuclear- Ministério da Ciência e Tecnologia
2.5. PARTÍCULAS, ONDAS ELETROMAGNÉTICAS E FÓTOS.
Conforme foi descrito as radiações nucleares podem ser de dois tipos:
a) partículas, possuindo massa, carga elétrica e velocidade, esta dependente do valor de sua
energia;
b) ondas eletromagnéticas, que não possuem massa e se propagam com a velocidade de
300.000 km/s, para qualquer valor de sua energia. São da mesma natureza da luz e das ondas
de transmissão de radio e TV. A identificação desses tipos de radiação (fig. 16) foi feita
utilizando-se uma porção de material radioativo, com o feixe de radiações passando por
entre duas placas polarizadas com um forte campo elétrico. O feixe defletia para a esquerda
ou direita dependendo da natureza de sua carga elétrica, que sofria repulsão pela placa de
sinal oposto e atração pela placa de sinal de carga contrário. Já aquelas que não sofriam
deflexão eram vistas com neutras quanto a sua carga, até mesmo sem massa, como era o caso
das radiações gama. A natureza destas partículas que não sofriam interação com o campo
eletromagnético era também eletromagnética.
Einstein estudando a luz, além de propôr o efeito fotoelétrico, conceituou o fóton como
pacote de energia eletromagnética. Segundo a teroria de Einstein a onda eletromagnética
11
transporta energia em pequenos pacotes de energia (E), que possuem frequência () e
comprimento de onda () e utilizando a sua equação de energia pode-se determinar a energia
de cada fóton, como segue;
𝐸 = ℎ𝜈 = ℎ
𝑐
𝜆
Mais tarde o efeito foi comprovado, estudado e quantificado como pacotes de interação da
luz sobre superfícies metálicas em válvulas termoiônicas.
Figura 16: Caracterização das radiações utilizando duas placas polarizadas.
Fonte: Comissão Nacional de Energia Nuclear- Ministério da Ciência e Tecnologia
2.4. ATIVIDADE DE UMA AMOSTRA
Os núcleos instáveis de uma mesma espécie (mesmo elemento químico) e de massas
diferentes, denominados radioisótopos, não realizam todas as mudanças ao mesmo tempo.
As emissões de radiação são feitas de modo imprevisto e não se pode adivinhar o momento
em que um determinado núcleo irá emitir radiação.
Entretanto, para a grande quantidade de átomos existente em uma amostra é razoável esperarse um certo número de emissões ou transformações em cada segundo. Essa taxa de
transformações é denominada atividade da amostra.
Como foi visto, um núcleo com excesso de energia tende a estabilizar-se, emitindo partículas
alfa ou beta. Em cada emissão de uma dessas partículas, há uma variação do número de
12
prótons no núcleo, isto é, o elemento se transforma ou se transmuta em outro, de
comportamento químico diferente.
Essa transmutação também é conhecida como desintegração radioativa, designação não
muito adequada, porque dá idéia de desagregação total do átomo e não apenas da perda de
sua integridade. Um termo mais apropriado é decaimento radioativo, que sugere a
diminuição gradual de massa e atividade.
2.5. MEIA-VIDA (P)
É o período de tempo necessário para que a metade dos átomos presentes num elemento
radioativo, seja natural ou obtido artificialmente se desintegre (se transmute ou decai). O
tempo de meia vida é uma característica de cada isótopo radioativo e não depende da
quantidade inicial do isótopo nem de fatores como pressão e temperatura.
Para se acompanhar a duração (ou a vida) de um elemento radioativo foi preciso estabelecer
uma forma de comparação. Por exemplo, quanto tempo leva para um elemento radioativo ter
sua atividade reduzida á metade da atividade inicial ? Esse tempo foi denominado meia vida
do elemento.
Figura 17: Gráfico de decaimento radioativo (meias-vidas)
Fonte: Comissão Nacional de Energia Nuclear- Ministério da Ciência e Tecnologia.
Após o primeiro período de meia-vida, somente a metade dos átomos radioativos originais
permanecem radioativos. No segundo período, somente 1/4 , e assim por diante (figura 17).
Alguns elementos possuem meia-vida de frações de segundos. Outros, de bilhões de anos.
13
O número de mols de átomos não desintegrados pode ser calculado pela seguinte relação:
n= n0/2x
onde:
n0 = nº inicial de mols
n = nº final de mols
x= nº de períodos de meia vida.
O tempo de decaimento ou transmutação radioativa pode ser calculado:
t=x.P
3. PRINCÍPIOS BÁSICOS DE ELETROMAGNETISMO.
Quando uma onda mecânica passa por um ponto, a partícula que se encontra nesse ponto
oscila com a mesma freqüência (f) e o mesmo período (T) da onda. No caso da onda
eletromagnética são os campos elétrico e magnético que aumentam e diminuem
periodicamente suas intensidades, ora no sentido positivo, ora no sentido negativo (por
analogia com as ondas mecânicas, diz-se que os campos oscilam). Para ilustrar esse fato,
considera-se uma onda senoidal de período T e fixa-se a atenção no comportamento do

campo elétrico ( E ), num ponto P atingido por essa onda (esqueça-se provisoriamente o
campo magnético). Para tanto, escolhemos o instante t = 0 como sendo um instante em que

|E| = 0 .


O comportamento de B é semelhante ao de E : ambos oscilam com o mesmo período, em
fase, mas em direções perpendiculares. A figura 18, ilustra a partícula (elétron) oscilando
entre um máximo positivo e uma máximo negativo, com uma correspondente variação


simultânea dos campos E e B num ponto P, pelo qual passa uma onda eletromagnética.
14
Fig. 18: Plano eletromagnético.
Fonte: Física 3 – Halliday, D.; Resnick, R.. e Krane, K..S.
A direção de propagação de uma onda eletromagnética é simultaneamente perpendicular as


direções de oscilação de E e B , isto significa que as ondas eletromagnéticas são sempre
transversais.




Sendo v a velocidade de propagação de uma onda eletromagnética, os vetores v , E e B


devem ter, a cada instante (que não seja um instante em que E e B se anulam), sentidos tais
que obedeçam a regra da mão esquerda representada na figura abaixo.
Fig. 2: Regra da mão esquerda
Fonte: Física 3 – Halliday, D.; Resnick, R.. e Krane, K.S.
Ondas eletromagnéticas se propagam no vácuo e, dependendo do caso, também em meios
materiais. Nesse ponto diferem das ondas mecânicas, as quais não se propagam no vácuo.
Considera-se uma onda eletromagnética de freqüência f, que se propaga com velocidade v
em um meio qualquer. Sendo λ o seu comprimento de onda, do mesmo modo que para as
ondas mecânicas, temos:
v   f
15
Um dos resultados de maior importância obtidos por Maxwell, a partir de sua teoria sobre as
ondas eletromagnéticas, foi a determinação do valor da velocidade de propagação dessas
ondas. Ele deduzir que no vácuo (ou no ar), uma onda eletromagnética deveria se propagar
com: v = 300.000 km/s.
Como, naquela época, a velocidade da luz no ar já havia sido determinada
experimentalmente com boa precisão, Maxwell percebeu, com grande surpresa, que: a
velocidade de propagação de uma onda eletromagnética coincidia com a velocidade da luz.
Esta constatação levou o cientista a propor a seguinte idéia: a luz deve ser uma onda
eletromagnética. Experiências posteriores confirmaram a hipótese de Maxwell unificando a
óptica e a eletricidade.
Sabemos que uma carga elétrica em repouso produz um padrão de linhas de campo elétrico, e
ao ser colocada em movimento, em velocidade constante aparecem também linhas de
campo magnético. Estabelecida uma condição estável no movimento, definido o espaço (S),
nota-se associado aos campos elétrico (E) e magnético (B) uma dada densidade de energia,
ou melhor há evidências de sua presença, nenhum sinal, radiação eletromagnética, transporte
de energia ou momento pode ser observado transportando a carga de um dado ponto a outro,
em outras palavras uma carga em movimento uniforme produz uma corrente elétrica (i) que
não varia no tempo (fig. 19).
Fig. 19:Fluxo de cargas no condutor = corrente.
Fonte: Principles of Phisics – Serway, R.A.
16
Porém, ao condicionarmos a carga a um movimento oscilatório “de ir e vir” , ou seja
imprimirmos descontinuidade ao movimento,
acelerando e desacelerando a carga, esse
movimento vibratório, isto é uma corrente que com o tempo produz uma onda
eletromagnética, assim as cargas passam a irradiar .
A figura 19 mostra um circuito RLC oscilador, que mantido constantemente alimentado e
acoplado a um circuito irradiante (antena dipolo), produzindo ondas eletromagneticas que
viajam no espaço.
Fig. 19: Um dispositivo capaz de gerar uma onda eletromagnética progressiva
(no caso, uma onda curta de radio)
Fonte: Física 3 – Halliday, D.; Resnick, R.. e Krane, K.S.
Na figura 20 mostramos o plano do campo elétrico, numa sequência de momentos onde
observamos a frente de onda eletromagnética produzida pela alternância de polaridade das
cargas no dispositivo antena dipolo elétrico.
Fig. 20: Sequência de uma onda progressiva, como gerada pela antena da fig.4.
17
Fonte: Física 3 – Halliday, D.; Resnick, R.. e Krane, K.S.
A figura 21 contempla também o campo magnético que é ortogonal ao plano do campo
elétrico, por essa razão esta representado por sinais “de flecha” o  (ponta da flecha)
significando que as linhas de campo está saindo da superfície do plano campo elétrico, e o

(aleta da flecha) significando que as linhas de campo magnético estão entrando no plano do
campo elétrico. Como resultado dessa alternância de polaridade no dipolo e da mútua
interação dos campos elétrico e magnético, a antena dipolo se torna uma fonte emissora de
radiação.
Fig. 21: Os campos E e B irradiados por um dipolo elétrico.
Fonte: Física 3 – Halliday, D.; Resnick, R. e Krane, K.S.
Em detalhe na figura 22, colocamos um observador no ponto P, sentido de propagação da
frente de onda eletromagnética, este observador obteria uma visão da frente de onda
hipoteticamente muito próxima de uma caixa retangular que transporta energia, a essa região
denomina-se campo de radiação. Uma onda eletromagnética pode então transportar energia
de um lado para outro, a exemplo do calor irradiado por uma fogueira, do calor que se
percebe irradiado de uma lâmpada incandescente, bem como do calor do sol que chega até a
terra na forma de luz, atravessando um grande distâncias no vácuo
O fluxo de energia em uma onda eletromagnética pode ser medido pela taxa de variação do
18
fluxo de energia por area. A magnitude e direção do fluxo de energia pode ser descrito por
um vetor chamado de vetor de Poynting (S) que é definido por:
Pelo produto vetorial ExB, utilizando a regra da mão direita podemos notar que a direção e
sentido de S é perpendicular ao plano de ExB apontando na direção positiva do eixo x,
passando pelo ponto P do nosso hipotético observador.
Fig22: Onda plana. e o vetorde Pointing P = E X B de propagação da onda.
Fonte: Física 3 – Halliday, D.; Resnick, R. e Krane, K.S.
Assim a radiação e consequentemente a energia transportada pelas ondas eletromagnéticas
estarão sendo utilizadas por diversos processos em tecnologias com as mais diversas
finalidades.
4. RADIAÇÃO E RADIOATIVIDADE.
A radiação pode ser de natureza ondulatória ou corpuscular, seja qual for sua natureza ela estará
transportando energia. A radiação de natureza ondulatória sãon constituidas por um campos
magnéticos e campos elétricos oscilantes e perpendiculares entre sí. Assim como a luz, que tem
também a natureza ondulatória, a radiação tem sua velocidade igual a da luz (c=3,0x108 m/s),
podendo ser refletida, difratada e absorvida dependendo da sua energia.
As radiações corpusculares são compostas por partículas atômicas ou sub-atômicas energéticas,
tais como as partículas alfa (dois prótons e dois nêutrons), que podem ter origem no decaimento
de átomos instáveis, ou de núcleos de hélio sem elétrons, elétrons (beta negativo), pósitrons
(beta positivo) que também podem ser emitidos de decaimentos nuclear.
19
A radioatividade é um fenômeno físico-químico que ocorre expontaneamente em alguns
elementos químicos. Todos os elementos químicos com Z maior que 82 são radioativos e se
desintegram, passando de um núcleo a outros até se transformar em um isótopo estável de
chumbo (Pb) com Z=82. Todos os estes elementos químicos levam um tempo para sofrerem
esses decaimentos ao que se dá o nome de meia-vida do elemento. Estas transições geralmente
ocorrem liberando radiação na forma corpuscular, ondulatória ou ambas.
4.1.O SOL, FONTE DE ENERGIA RADIANTE.
Para entendermos um pouco mais sobre radiações e como ela, de certa forma invisível, nos
envolve e afeta a vida, interfere construtiva ou destrutivamente com o meio ambiente, com
nossa tecnologia, nossos equipamentos e o cotidiano da vida na Terra, vamos recorrer à alguns
conhecimentos sobre o nosso Sol. O Sol, centro do nosso sistema planetário é a fonte de energia
que chega a todos os pontos na forma de radiação. É o Sol que promove a vida na Terra, tal qual
a conhecemos e é necessário sabermos como nos relacionar com ele, para vivermos bem.
Por milênios os povos da Terra reconhecem o Sol como um astro de relevância para a vida.
Deuses foram incorporados na figura do Sol. Muito já foi questionado pelos diversos cientistas
que dedicaram suas pesquisas para que pudessemos saber mais sobre o Sol e sobre o como ele
passa a eternidade queimando.
Para explorar um pouco mais sobre o Sol, olhando para o aspecto da energia e radiação, vamos
abordar os estudos feitos por Bethe (1906-2005), que desenvolveu a teoria da fusão termonuclear e como ela poderia produzir a energia que faz as estrelas brilharem. Seu estudo lhe
valeu o prêmio Nobel em 1967.
Para que uma reação de fusão ocorra as partículas dos núcleos dos átomos devem vencer a
barreira Coulombiana repulsiva entre as partículas, dada por:
20
onde o raio médio de um núcleo tem diâmentro estimado de 1 fermi (fentometro), que equivale
a 10-15m, enquanto que a energia cinética entre as partículas é determinada por uma distribuição
de velocidades de Maxwell-Boltzmann correspondente à sua energia térmica.
A temperatura no núcleo do Sol é da ordem de 1,5x107K, e para estrelas distantes mais
massivas, é da ordem de 5,0 x107K. A energia média das partículas dos núcleos interagentes, de
1,2 a 43 keV, é de muitas ordens de grandesa menor do que a barreira Coulombiana que as
separa. As reações ocorrem pelo efeito da probabilidade de ocorrência de tunelamento quântico,
onde a equação de onda da partícula, regida pelo princípio da incerteza, propõe que partículas
poderão vencer uma barreira de potencial com energia maior do que a energia da partícula. As
partículas com maior probabilidade de penetrar a barreira são aquelas com a máxima energia na
distribuição de Maxwell-Boltzmann.
Bethe propôs que as reações nucleares de fusão ocorrecem com quatro prótons que poderiam ser
unidos e transformados em um núcleo de hélio. Resultante deste processo haveria liberação de
energia. O processo de Bethe, conhecido atualmente como o ciclo do carbono, envolve uma
cadeia complexa de seis reações nucleares em que átomos de carbono e nitrogênio agem como
catalisadores para a fusão nuclear. Naquela época, os astrônomos calculavam que a temperatura
no interior do Sol fosse de cerca de 1,9 x107K, e Bethe demonstrou que àquela temperatura, o
ciclo do carbono (figura 23) seria o modo dominante de produção de energia.
21
Figura 23: Energia do Sol – Ciclo do carbono de Berthe .
Fonte: Review of Modern Physics.
A liberação de energia pelo ciclo do carbono é proporcional à 20a potência da temperatura para
temperaturas da ordem de 1,5x107K , como se sabe hoje ser no interior do sol.
Atualmente, o valor aceito para a temperatura do núcleo do Sol é de 1,5 x107K, e à esta
temperatura, o ciclo próton-próton (figura 24) domina. Para a ocorrência do ciclo próton-próton,
como descrito, necessita-se ter temperatura superior à 8,0 x107K para estar ocorrendo.
Figura 23: Energia do Sol – Ciclo do Próton-Próton .
Fonte: : Review of Modern Physics.
22
Já para o ciclo próton-próton, a dependência é muito menor, com a quarta potência da
temperatura,
Atualmente sabe-se que o ciclo do carbono contribui pouco para a geração de energia para
estrelas de baixa massa como o sol, porque suas temperaturas centrais são baixas, mas domina
para estrelas mais massivas. A estrela Rigel, por exemplo, tem temperatura central da ordem de
4,0x109K. Quanto maior for a temperatura central, mais veloz será o próton, e maior sua energia
cinética, suficiente para penetrar a repulsão coulombiana de núcleos com maior número de
prótons, isto é, maior peso atômico.
A astrofísica demonstrou que as leis físicas que conhecemos em nossa limitada experiência na
Terra são suficientes para estudar completamente o interior das estrelas. Desde as descobertas
de Bethe, o cálculo de evolução estelar através da união da estrutura estelar com as taxas de
reações nucleares tornou-se um campo bem desenvolvido, e astrônomos calculam com
confiança o fim de uma estrela como nosso sol daqui a 6,5 bilhões de anos como uma anã
branca, após a queima do hélio em carbono pela reação triplo-
:
E a explosão de estrelas massivas como supernovas. três átomos de Hélio colidem, formando
um carbono e liberando fótons. Esta reação só ocorre eficientemente para t>1,0x107K. O 8Be
formado na colisão de duas partículas α, tem um rápido decaimento de 2,6×10-16s, novamente
em dois núcleos de He.
23
Figura 24: Representação de três partículas Alpha .
Fonte: : Review of Modern Physics.
Sabemos com certeza que o sol converte aproximadamente 6,0x107 toneladas de Hidrogênio em
Hélio por segundo, mantendo a vida aqui na terra. Esta energia produzida pelo Sol, de
3,847x1033 ergs/s é equivalente a 5 trilhões de bombas de Hidrogênio por segundo. Para
comparar, a primeira bomba atômica, de Urânio, chamada de Little Boy e que explodiu sobre a
cidade de Hiroshima, tinha uma potência de 20 000 toneladas de TNT (tri-nitro-tolueno, ou
nitroglicerina). Uma bomba de Hidrogênio tem uma potência de 20 milhões de toneladas de
TNT. Toda esta transformação de massa em energia ocorre e se dá por radiação.
A composição química Sol tem como principais elementos o Hidrogênio (91,2%) e Hélio
(8.7%), que estão sofrendo processos de fusão, gerando uma temperatura efetiva na sua
superfície de Tef = 5785K.
Examinando a borda do Sol com um espectroscópio, durante um eclipse, temos a oportunidade
de ver por alguns instantes o espectro da cromosfera, feito de linhas brilhantes, as quais
mostram que a cromosfera é constituída de gases quentes que emitem luz na forma de linhas de
emissão (figura 25). Essas linhas são difíceis de serem observadas contra a luz brilhante da
fotosfera, por isso não as vemos no espectro solar normal. Uma das linhas cromosféricas de
emissão mais brilhantes é a linha de Balmer
, no comprimento de onda 6563 Å, que no
espectro solar normal aparece em absorção. A linha
cromosfera tem cor avermelhada.
está no vermelho, por isso a
24
Fig. 25: Foto de Espectro do Sol com filtro.
Fonte: National Solar Observatory, EUA.
O espectro da coroa mostra linhas muito brilhantes produzidas por átomos de ferro, níquel,
neônio e cálcio altamente ionizados e não por algum elemento estranho, como anteriormente foi
pensado. O fato de existirem esses elementos várias vezes ionizados na coroa implica que sua
temperatura deve ser muito alta, pois é necessária muita energia para arrancar muitos elétrons de
um átomo. A coroa solar tem sua temperatura média em torno de 1,0x106K.
Fig. 25: Foto de Espectro do Sol com filtro.
Fonte: Satélite TRACE (Transition Region and Coronal Explorer), NASA.
A elevação da temperatura na coroa deve ter origem no mesmo processo físico que aquece a
cromosfera: transporte de energia por correntes elétricas induzidas por campos magnéticos
variáveis. Da coroa emana o vento solar, um fluxo contínuo de partículas emitidas da coroa do
25
sol que atinge a Terra (aproximadamente 7 prótons/cm3 viajando a cerca de 400 km/s) é
capturado pelo campo magnético da Terra, formando o cinturão de Van Allen (figura 26), na
magnetosfera terrestre. Além das partículas do vento solar, existem grandes ejeções de massa
associadas às proeminências, que quando atingem a Terra causam danos às redes elétricas, aos
satélites, e demais sistemas elétricos. Em 1994, o satélite de comunicações E2 teve alguns
circuitos queimados por uma sobrecarga estática, também associada com a ejecção de uma
nuvem de plasma solar. O máximo deste ciclo solar ocorreu em 15 de fevereiro de 2001, quando
o campo magético solar reverteu de polaridade. Embora estejamos em 2009 ainda no mínimo
deste ciclo solar, com poucas tempestades, em 5 de dezembro de 2006 ocorreu um flare no Sol,
com índice X9, o mais alto, que chegou a danificar alguns píxeis da câmara do GOES 13, e
saturou todos os satélites GPS que estavam do lado iluminado da Terra. Normalmente as
partículas carregadas são desviadas pelo campo magnético da Terra para o Cinturão de Van
Allen, e somente chegam à Terra próximas aos pólos (23).
Fig. 26: Figura ilustrativa do Cinturão de Van Allen.
.
Este cinturão, descoberto pelo físico americano James Alfred Van Allen (1914-2006) em 1958,
só permite que as partículas carregadas do vento solar entrem na atmosfera da Terra pelos pólos,
causando as auroras (figura 27), fenômenos luminosos de excitação e des-excitação dos átomos
de oxigênio presentes na atmosfera da Terra. O vento solar, composto de partículas carregadas
26
desprendidas da coroa solar, viaja a aproximadente 250 a 1000 km/s, provocando as auroras,
normalmente entre 60 e 80° de latitude. Entretanto as auroras podem ocorrer também em baixas
latitudes, como por exemplo a observada em 1909 em Singapura, no equador geomagnético. As
auroras foram observadas na antiguidade pelos gregos e chineses, mas somente em 1896 o
físico norueguês Kristian Birkeland (1867-1917) deduziu que fluxos de elétrons provenientes do
Sol eram canalizados pelo campo geomagnético aos pólos e, quando colidiam com a alta
atmosfera, estimulavam os átomos de oxigênio e nitrogênio. As auroras são causadas pela
interação de partículas de alta energia, principalmente elétrons, com os átomos neutros da alta
atmosfera da Terra. Estas partículas de alta energia podem excitar, através de colisões, os
elétrons de valença que estão ligados aos átomos neutros. Estes elétrons excitados então se
desexcitam, retornando ao estado inicial, de mais baixa energia. Aos se desexcitar, eles emitem
um fóton, isto é luz. A combinação destes fótons, emitidos por muitos átomos, resulta na aurora
que vemos. As auroras acontecem a alturas acima de 60 km, têm correntes acima de
100 000 volts e geram energia acima de 1 milhão de megawatts.
Fig. 27: Figura ilustrativa da Aurora Boreal.
Entretanto o campo magnético terrestre não é um simples dipolo e existe uma depressão no
campo, no Atlântico Sul, que faz com que alto fluxo de elétrons com energia acima de 30 KeV
cheguem próximo ao solo na região conhecida como Anomalia Geomagnética do Atlântico Sul
representada na região vermelha da figura 28..
27
Fig. 28: Figura ilustrativa da Anomalia geomagnética do Atlântico Sul.
A Anomalia Geomagnética do Atlântico Sul é uma mancha de fluxo invertido, isto é, uma
mancha com fluxo magnético direcionado para dentro no hemisfério de fluxo direcionado para
fora. Existem outras manchas menores, tanto no hemisfério norte quanto no hemisfério sul, de
acordo com as medições de campo magnético efetuadas pelos satélites Magsat em 1980 e
Ørsted em 2000 (23).
Estas inversões de fluxo são similares às que causam as manchas solares: o fluxo de material
líquido e ionizado no núcleo da Terra é convectivo, turbulento e distorcido também por rotação
diferencial do núcleo externo, líquido (2900 km a 5100 km de profundidade), sobre o núcleo
sólido interno, cristalizado e que libera calor latente na cristalização das camadas externas e de
separação de elementos menos densos, como sultefo de ferro e óxido de ferro. Estas manchas
mudam de tamanho com o tempo e, quando aumentam até dominar o hemisfério, causam a
reversão do campo magnético da Terra. A última reversão ocorreu há 780 mil anos.
Quando manchas solares de polaridades magnéticas opostas colidem, há cancelamento do
campo magnético que pode provocar um flare, um aumento significativo da emissão de
radiação eletromagnética no local, principalmente no ultravioleta e raio-X.
28
Fig. 29: Fluxo Magnético na Terra e Regiões de Anomalia geomagnética.
Um aumento do fluxo de raios-X detectado pelo satélite Goes 8 após um grande flare solar ao
atingir a Terra, como radiação, provocou um aumento na fotoioniozação da atmosfera, com um
aumento súbito no número de elétrons livres, que perturbaram as ondas de rádio, inclusive as
usadas pelo GPS. As ejeções coronais de massas são bolhas de gás quente (plasma), de cerca de
1 a 10 bilhões de toneladas, aquecidas pelos campos magnéticos do Sol. Os campos magnéticos
do Sol se enrolam devido ao movimento turbulento de convecção mas também devido à rotação
diferencial, que faz com que o equador solar complete uma volta em 25 dias, enquanto que as
regiões próximas aos pólos completam uma volta em 36 dias. A desconexão do campo
magnético solar pode ocorrer em alguns minutos e tem uma energia equivalente a milhares de
bombas atômicas. As ejeções coronais de massa viajam a aproximadamente 1 milhão km/hr e
29
levam de um a quatro dias para alcançar a Terra. Quando atingem a Terra, têm milhões de
quilômetros de extensão e podem causar:

danos a satélites, também causados pelo aumento da fricção causada pela expansão da
atmosfera,

erro no posicionamento de navios e aviões de vários quilômetros, tanto pelo sistema
GPS (Global Positioning System) quanto pelos sistemas Loran e Omega (8 transmisores
distribuídos pela Terra), por instabilidades no plasma da ionosfera terrestre, causando
cintilação na amplitude e fase do sinal e reduzindo o número de satélites disponíveis de
8 a 10 para até 4. Em geral estas instabilidades duram menos de 10 minutos, mas já
ocorreram casos em que o sistema ficou fora do ar por até 13 horas,

danos às redes de energia elétrica, induzindo voltagens de milhares de volts e queimando
transformadores.

danos nas tubulações metálicas de gaseodutos, já que as correntes induzidas aumentam
drasticamente a corrosão,

Aumentam também a incidência de radiação ionizante nas pessoas, principalmente em
vôos de alta altitude, como vôos supersônicos e astronáuticos.
Em termos de radiação que atinge a Terra, normalmente é de 360 milirem/ano (3,6 mili
sievert/ano). A exposição recomendada é 1 mSy/ano. Para os astronautas na Estação Espacial,
atinge em média 6 rem/ano (60 mili sievert/ano), mas em único evento em 1989 atingiu 216
milirem/dia (2,16 mili sievert/dia) após uma tempestade solar. Durante uma ejeção coronal de
massa a radiação na superfície da Lua chega a 7000 rem/min (70 sievert/min), o que é fatal.
30
Fig. 30: Gráfico ilustrativo da dose de radiação/dia pela altura.
No Sol mínimo, a exposição é da ordem de 3,6 mSy/ano, enquanto a exposição recomendada é
1 mSy/ano. No Sol máximo, a exposição é mais que o dobro.
No sistema internacional de medidas, a dose é medida em gray (Gy=1Joule/kg) é a quantidade
de energia transferida pela radiação, eletromagnética ou corpuscular, para um objeto e 100
rad=1 Gy. Um pessoa na Terra recebe em média 450 µGy/ano de raios cósmicos. O limite de
dose equivalente para a população em geral é de 0,1 rem/ano (1 mSv/ano). O limite para
trabalhadores ocupacionalmente expostos é de 2 rem/ano (20 mSv/ano). (ICRP-60: International
Commission on Radiological Protection, Report 60, 1991). Para passar de dose (D), medida em
Gy, para exposição (E), medida em Sv, precisamos levar em conta a qualidade (Q) da radiação e
o especro (N) da mesma.
E=D Q N
A qualidade Q, tem valores numéricos que variam de 1 para a radiação eletromagnética, até 20
para partículas ionizadas de alta energia, embora com menor poder de penetração e interação
nos meios materiais os danos causado pelas partículas ionizadas (Alpha e Beta) é maior do que
o da radiação eletromagnética.
31
Para podermos avaliar melhor estes e outros valores das grandezas físicas, as quais não estamos
rotineiramente acostumados, fazeremos uso do recurso de analogias. Exemplificando; Uma
tomografia de crânio tem uma exposição recomendada de 50 mGy, e uma mamografia de 10
mGy. Os sobreviventes da bomba de Hiroshima, no Japão, tiveram uma exposição média de
230 mGy (4 Gy a 1000 metros). Exposições acima de 200 rems já causam danos sérios, e acima
de 600 rems causam a morte em menos de 2 meses em 80% dos casos (25).
O meio ambiente é suceptível à alterações decorrentes dos eventos que ocorrem no Sol.
Atualmente vários satélites estão monitorando eventos cosmológicos que poderão afetar o clima
Estes satélites podem receber notificação da chegada de uma ejeção coronal de massa solar com
aproximadamente 3 horas de antecedência, propiciando às agências científicas meios de
disparar planos de contenção que possam minimizar os efeitos danosos destes eventos. No
endereço URL http://www.sec.noaa.gov, pode-se ter acesso a dados destas observações. Notase que nos anos de máximo de um ciclo solar, podem ocorrer de 2 a 60 eventos. Essas ejeções
podem causar diversos danos nos sistemas eletrônicos e ainda, severos às linhas de transmissão
de energia. Em princípio, as linhas de transmissão dentro das cidades sofrem menos efeitos, por
serem melhor protegidas e de curtas distâncias. Uma ejeção coronal de massa do Sol, que
podem estar relacionadas com o aquecimento da coroa nas camadas externas, também pode
causar grandes efeitos nos oceanos, tais como, grandes ondas (tsunami) (23).
O Sol está continuamente produzindo energia decorrente da fissão nuclear em seu interior, esta
energia atravessa o espaço em forma de ondas eletromagnéticas, como radiação irradiante e
alguma porção de partículas. No espectro da figura 29, podemos ver a distribuição das ondas
eletromagnéticas em comprimento de onda () sua relação com a denominação destas.
32
Fig. 29: Comprimento de Onda das Ondas Eletromagnéticas.
A radiação ultravioleta tem comprimentos de onda menores do que a radiação visível,
posicionada à esquerda no espectro acima, é normalmente dividida em três faixas (figura-31):
UV-A, UV-B e UV-C. O UV-B, com comprimentos de onda entre 120nm (1200Å) e 380nm
(3800Å) é a faixa mais perigosa da energia irradiada pelo Sol que alcança a superfície da Terra.
Grande parte dos efeitos nocívos à saude humana podem ser causados pela radiação Ultravioleta
com estes comprimentos de onda, sendo principal fator de melanoma (cancêr de pele). A Terra
possui algumas formas natural de proteção para os seres vivos em sua superfície. Uma
importante proteção é o campo mafnático da Terra que se manifesta como proteção em forma de
campo denominado Cinturão de Van Hallen e já nas camadas superiores da atmosfera a camada
de ozônio (O3) promove uma forma eficiente de escudo anti-radiação Ultra Vioteta. O ozônio
(O3) atmosférico, além do próprio oxigênio molecular (O2) e do nitrogênio (N2), protege os
viventes na superfície das componentes mais danosas (com maior energia) da radiação solar.
A poluição do ar advinda de diversos processos químicos naturais e antropogênicos, estão
continuamente produzindo reações químicas com substancial redução das moléculas de ozônio
33
(O3) da atmosfera. Essa camada de ozônio (figura-30) é responsável pera redução dos fótons de
radiação UV enérgéticos que chegariam à superfície da Terra.
Fig. 31: Ilustração da Radiação Ultravioleta CBA e sua Penetração na Atmosfera.
Desde 1979 tem-se monitorado e detectado aumento na falha na camada de ozônio sobre a
Antártica (figura-34). Este buraco na camada de ozônio que pode provocar o câncer de pele e
opacidade no cristalino dos olhos (cataratas) nos seres humanos.
Fig. 31: Foto de satélite da camada de ozônio na região Antartida.
fonte:
O ozônio da atmosfera e seus aerosóis operam como um filtro protetor da dadiação neste
comprimento de onda. Essa redução na intensidade (quantidade de fótons) espalhados ou
absorvidos pela camada de ozônio, tem-se reduzido de forma que no final da década de 90 tem
ficado, em média, muito próximo ao valor de mínimo (figura-32).
34
Fig. 32: Histograma do burraco na camada de ozônio e o valor mínimo da radiação.
fonte:
A energia do sol medida na superfície terrestre mostra que cada metro quadrado recebe uma
potência (energia/segundo) de cerca de 1400 watts, ou seja, a potência de 14 lâmpadas de 100
watts/m2. O valor mais preciso da constante solar é 1367,5 w/m2, o qual tem variado cerca de
0,3% durante o ciclo solar de 11 anos. A irradiação solar pode variar, dependendo da época no
ciclo de 11 anos, de 1364,55 a 1367,86 watts/m2(figura-33).
Considerando-se um comprimento de onda efetivo de 550nm (5500Å), podemos calcular a
intensidade (I) de fótons que atinge a superfície da Terra.
n = fótons m2s-1
h = Constante de Plank (6,63x10-34 J s)
c = Velocidade da luz (3,0x108 m/s)
 (comprimento de onda) = 550nm ou 5500Å
n=1366 W m2/(hc/5500Å ) = 1366 J s-1 m2/(3,6 × 10-19 J) =
3,78×1021 fótons m2s-1
35
Fig. 33: Taxa anual Energia Irradiada pelo Sol.
fonte:
Enquanto o Sol irradia energia isotrópicamente de sua superfície, inúmeras reações nucleares
estão ocorrendo no seu núcleo, transformando massa em energia que estarão sendo irradiada na
forma de ondas eletromagnética ou sendo ejetada na forma de partículas ionizadas em altíssima
velocidade. Os astrifísicos utilizam modelos de evolução estelar, para predizer a velocidade
destas transformações. Calcula-se que daqui a cerca de 1,1 bilhão de anos o brilho do sol
aumentará em cerca de 10%, que causará a elevação da temperatura aqui na terra, aumentando o
vapor de água na atmosfera. O vapor de água é um dos fatores que causa o efeito estufa, fator de
alteração do albedo (relação entre energia radiante absorvida e trasnmitida pela Terra). Estimase que daqui a 3,5 bilhões de anos, o brilho do sol já será cerca de 40% maior do que o atual, e o
calor será tão forte que os oceanos secarão completamente, acelerando e maximizando o efeito
estufa. Embora o sol venha a se tornar uma gigante vermelha após terminar o hidrogênio no
núcleo, combustível da reação de fusão nuclear, ocorrerá perda de massa gradual do sol,
possivelmente afastando a terra do sol até aproximadamente a órbita de marte, mas exposta a
uma temperatura de cerca de 1600 k (1327 c).
36
4.2.
HISTÓRIA E CONCEITO DAS RADIAÇÕES.
Em 1896, acidentalmente, o francês Henri Becquerel (1852-1909) descobriu a radioatividade
natural, ao observar que o sulfato duplo de potássio e uranila: K2(UO2)(SO4)2 , conseguia
impressionar chapas fotográficas. O fenômeno foi denominado radioatividade e os elementos
que apresentavam essa propriedade foram chamados de elementos radioativos.
A radioatividade foi descoberta poucos meses depois da descoberta dos raios X. Também foram
descobertos que outros elementos pesados, com massas próximas do urânio, também tinham a
mesma propriedade e em 1898, os poloneses Pierre e Marie Curie identificaram o urânio, o
polônio (400 vezes mais radioativo que o urânio) e depois, o rádio (900 vezes mais radioativo
que o urânio).
Radioatividade é a capacidade que certos átomos possuem de emitir radiações eletromagnéticas
e partículas de seus núcleos instáveis com o objetivo de adquirir estabilidade. A emissão de
partículas faz com que o átomo radioativo de determinado elemento químico se transforme num
átomo de outro elemento químico diferente.
Novas descobertas demonstraram que os elementos radioativos naturais emitem três tipos de
radiações: a , b e g . No começo do século XX, Rutherford criou uma aparelhagem para estudar
estas radiações (figura 8). As radiações eram emitidas pelo material radioativo, contido no
interior de um bloco de chumbo e submetidas a um campo magnético. Sua trajetória era
desviada:
Figura 8: Câmara RBS de Rutherford para estudar as radiações.
Fonte: www.soaresoliveira.br/chrisrios
37
Comprovou-se que um núcleo muito energético, por ter excesso de partículas ou de carga
(figura 9), tende a estabilizar-se, emitindo algumas partículas.
Figura 9: Tipos de radiações.
Fonte: Comissão Nacional de Energia Nuclear- Ministério da Ciência e Tecnologia.
As unidades para Radioatividade no Sistema Internacional podem ser visto na tabela1 abaixo:
Grandeza
Nome
Símbolo Definição
Atividade na qual se produz uma desintegração nuclear
Atividade
becquerel
Bq
por segundo.
Exposição tal que a carga total de íons de mesmo sinal
Exposição
coulomb/Kg
C/kg
produzidos em 1 quilograma de ar é de 1 coulomb em
valor absoluto.
Dose de radiação ionizante absorvida uniformemente
Dose
gray
Gy
por uma porção de matéria, à razão de 1 joule por
absorvida
quilograma de sua massa.
Equivalente de dose de uma radiação igual a 1 joule
Equivalente de
sievert
Sv
por quilograma. Nome especial para a unidade SI
dose
adotada pela 16a CGPM/1979.
Tabela 1: Unidades do Sistema Internacional para Radioatividade
Fonte: http://www.fisica.net/denis/rad2.htm
38
O efeito da radiação sobre a matéria pode ser benéfico ou destrutivo, o grau deste efeito
dependerá da energia do fóton, da intensidade da radiação envolvida e do tipo de interação que
esses fótons estarão provocando no meio da interação. Veremos, com maiores detalhes, mais
adinante, os efeitos da radiação ultraviotela que será neste trabalho o nosso objeteto de
divulgação.
4.3.
RADIAÇÃO IONIZANTE.
As radiações são denominadas ionizantes,
quando possuem energia suficiente para ejetar
elétrons dos átomos durante seu trajeto. Na sua interação com o meio material esta radiação
estará produzindo ionização. Ionização é então, o processo de produção de íons, que é a
formação de àtomos ou moléculas não neutras eletricamente, isto é, estas partículas estarão
carregadas eletricamente podendo ser com cargas positivas ou negativas, dependendo da ação
da radiação na sua interação. Quando a radiação atravessa um meio material ela pode interagir
com átomos ou moléculas deste meio e no processo ela poderá depositar energia nos elétrons
dos átomos sem ejetá-los, retirando-los do seu nível energético ou arrancá-los. Os átomos e
moléculas que perderam estes elétrons, perderam uma quantia de carga negativa para cada
elétron ejetado, ficando eletricamente positivo, isto é, foram inonizados positivamente,
tornando-se íons positivos. Uma vez livres os elétrons por sua vez, estarão interagindo com o
meio e poderão ser capturados por alguma outra molécula ou átomo ficando à estes ligados.
Estas moléculas ou átomos que receberam estes elétrons estarão recebendo uma quantidade de
carga negativa referente a cada novo elétron ligado, passando assim a estarem negativamente
ionizados, sendo identificados como íons negativos, como veremos.
4.3.1. RADIAÇÃO ALFA OU PARTÍCULA ALFA
Os processos de radiação podem ocorrer dentro do núcleo de átomos instáveis ou pela interação
de troca de energia entre seus elétrons, com outras partículas ou ondas eletromagnéticas. Um
dos processos de estabilização de um núcleo com excesso de energia é o da emissão de um
39
grupo de partículas positivas, constituídas por dois prótons e dois neutrons, e da energia a elas
associada. São as radiações alfa ou partículas alfa, a radiação alfa é uma partícula formada por
um átomo de hélio (He) com carga positiva (figura 13). O hélio um gás chamado nobre por não
reagir quimicamente com os demais elementos.
(A)
(B)
Figura 13: (A) Partícula Alfa é uma formada pelo núcleo de um átomo de hélio.
(B)Interação de partículas alfa com numa folha de alumínio.
Fonte: Comissão Nacional de Energia Nuclear- Ministério da Ciência e Tecnologia.
A distância que uma partícula percorre antes de parar é chamada alcance. Num dado meio,
partículas alfa de igual energia têm o mesmo alcance. O alcance das partículas alfa é muito
pequeno, o que faz que elas sejam facilmente blindadas. Uma folha fina de alumínio barra
completamente um feixe de partículas de 5MeV. A inalação ou ingestão de partículas alfa é
muito perigosa.
Ela possui as seguintes características:
Velocidade média : 20000 km/s .
Poder de penetração : pequeno, são detidas por pele, folha de papel ou 7 cm de ar.
Poder ionizante ao ar : elevado, por onde passam capturam elétrons, transformando-se em
átomos de Hélio.
4.3.2. RADIAÇÃO BETA OU PARTÍCULA BETA
Outra forma de estabilização, quando existe no núcleo um excesso de neutrons em relação a
prótons, é através da emissão de uma partícula negativa, um elétron, resultante da conversão de
um neutron em um próton é a partícula beta negativa ou, simplesmente, partícula beta.
40
No caso de existir excesso de cargas positivas (prótons), é emitida uma partícula beta positiva,
chamada pósitron, resultante da conversão de um próton em um neutron.
Portanto, a radiação beta é constituída de partículas emitidas por um núcleo (fig.14), quando da
transformação de neutrons em prótons (partículas beta) ou de prótons em neutrons (pósitrons).
Figura 14: A partícula beta (elétron)tem carga negativa e a partícula beta positiva ( pósitron).
Fonte: Comissão Nacional de Energia Nuclear- Ministério da Ciência e Tecnologia.
Ela possui as seguintes características:
Velocidade média: 95% da velocidade da luz.
Poder de penetração : 50 a 100 vezes mais penetrantes que as partículas alfa. São detidas por 1
cm de alumínio (Al) ou 2 mm de chumbo (Pb).
Danos os organismos : maiores do que as emissões alfa, podem penetrar até 2 cm do corpo
humano e causar danos sérios.
4.3.3. RADIAÇÃO OU FÓTON GAMA.
Geralmente após a emissão de uma partícula alfa ( ) ou beta ( ), o núcleo resultante desse
processo ainda com excesso de energia, procura estabilizar-se, emitindo esse excesso em forma
de onda eletromagnética, da mesma natureza da luz, denominada radiação gama.
Ela possui as seguintes características:
Velocidade: igual à da luz = 300 000 km/s.
Poder de penetração: alto, são mais penetrantes que raios X (fig. 15) são detidas por 5 cm de
chumbo (Pb).
Danos à saúde: máximo, pois podem atravessar o corpo humano, causando danos irreparáveis.
41
(A)
(B)
Figura 15: (A) Partícula gama de origem nuclear.
(B) Relação entre as radiações e seu poder de penetração.
Fonte: Comissão Nacional de Energia Nuclear- Ministério da Ciência e Tecnologia
4.3.4. RAIOS X.
Nos últimos meses do ano de 1895, W.C.Roentegen pesquisava descargas elétricas em tubos de
ráios catódicos, quando, para seu espanto, descobriu um agente que era capaz de atravessar
placas de madeira e de metal com muita facilidade, imprimindo, ainda imagens em filmes
fotográficos. Desta forma Roentgen, professor de física da universidade de Wurzburg na
Alemanha deu o nome de raios X a esta descoberta que foi uma revolução na área da radiologia
diagnóstica(10). Os raios X fazem parte do espectro eletromagnético e é classificado como uma
radiação ionizante, igual que as radiações  as quais possuem uma característica importante que
são a de ter a energia suficiente para ionizar a matéria. Existem atualmente equipamentos com
capacidade de produzir raios X mais energéticos que raios . Em laboratórios de pesquisa
espalhados pelo mundo, aceleradores de elétrons produzem raios X de muito alta energia. O raio
X produzido nestes laboratórios são originados da desaceleração dos elétrons que compõe o
feixe, quando freados por ação campo columbiano do núcleo que compõe os átomos do anodo
de metal do equipamento. Os raios X assim gerados são chamados de radiação de freamento
(bremsstrahlung), desta forma poderão ter qualquer energia, a qual dependerá do grau de
aproximação do elétron com o núcleo. Os fótos de raio X assim produzidos, podendo ter
42
qualquer energia, irão compor o espectro de raios X contínuo, podendo existir fótons com
energia próximos de zero até os fótons de máxima energia. Este valor de máxima energia do
fóton pode ser calculado por (9):
𝐸𝑚á𝑥 𝑑𝑜 𝑓ó𝑡𝑜𝑛 = ℎ𝜈𝑚á𝑥 =
ℎ𝑐
𝜆𝑚𝑖𝑛
Nas interações do elétron energético do feixe com os elétrons das camadas mais internas dos
átomos, particularmente quando ocorre a remoção de elétrons da camada K provocando a falta
desse elétron, existirá a necessidade de seu preenchimento por um elétron de um elétron de uma
camada superior existente. Quando um elétron da camada L ou M faz a transição para preencher
o que chamamos de lacuna, ele deve perder energia. Essa energia será liberada na forma de um
fóton com a energia dada pela diferença das energias entre os níveis de energia da camada que
ele transitou.
𝐸𝑓ó𝑡𝑜𝑛 = 𝐸𝑐𝑎𝑚𝑎𝑑𝑎
𝑖𝑛𝑖𝑐𝑖𝑎𝑙
− 𝐸𝑐𝑎𝑚𝑎𝑑𝑎
𝑓𝑖𝑛𝑎𝑙
Estes fótons são de grande importância nos estudos de caracterização de materiais pois as suas
energias são quantizadas, únicas e particulares relacionadas com o elemento químico pela qual
eles foram emitidos, funcionando como assinatuda deste elemento químico, por isso são
denominados de fótons de raio X característicos.
Pode-se verificar o intervalo do comprimento de onda eletromagnética dos raios X (figura 38)
que estão na faixa de 30nm até aproximadamente 0,1nm.
0,01
0,1
RAD 
10
30 180
Comprimento de onda-nanômetros
(sem escala)
UV
Rx
Fig. 38: Espectro das Radiações Ionizantes.
Fonte: Fonte: Biofísica Básica – Heneine, Ibrahim Felippe.
400
43
4.4. RADIAÇÃO NÃO-IONIZANTE.
As radiações são denominadas não-ionizantes, não possuem energia suficiente para arrancar
elétrons dos átomos em seu trajeto. Sua interação com o meio material poderá produzir aumento
da energia cinética nos átomos do meio material por onde este tipo de radiação estiver
interagindo resultando em excitação ou aquecimento. Determinar a fronteira de conceito para
radiações ionizantes e não ionizantes não é tão simples.
Quando a radiação interage com a matéria, quer seja com o nosso corpo, se ela não tiver energia
suficiente para arrancar elétrons dos átomos ou moléculas, não irá produzir íons. Para fótons de
radiação arrancarem os elétrons mais fracamente ligados, os da última camada de átomos ou
moléculas, podendo assim formar íons, deveria ter energia de no máximo 24,6 eV no caso de
átomos de hidrogênio. Esta energia necessária para arrancar elétrons da última camada irá variar
de átomo para átomo, pois dependerá da relação e interação eletrostática entre os elétrons com
o núcleo e com os demais elétrons da vizinhança, o que fará variar, de forma discreta,
quantizada, a energia necessária para a ejeção do elétron para torná-lo um elétron livre.
Na interação onde ocorre a excitação, entenda-se que não há remoção de elétrons pela interação
de fóton, os elétrons permanecem ligados aos átomos com um maior nível de energia, deixando
seu estado fundamental de energia. Estes elétrons acabarão estando com mais energia cinética,
simplesmente aumentando seu estado rotaciona e vibracional, porém eles não permanecerão
neste estado indefinidamente, voltando ao seu estado fundamental em um tempo da ordem de
10-8s, emitindo um fóton de luz (11)pg17.
4.4.1. RADIAÇÃO INFRAVERMELHO.
O espectro eletromagnético (figura 39) aponta os comprimentos de onda da luz, onde acima
dos 800nm encontramos a radiação do Infravermelho. O Infravermelho está fora do espectro de
luz visível pelo olho humano.
44
Fig. 39: Espectro Eletromagnético.
Fonte:.
A radiação Infravermelho também é separada em 3 faixas de comprimento de onda o IVA
(780nm até 1,4um), o IVB (1,4um até 3,0um) e o IVC (3,0um até 1,0mm), seus fótons tem
energia muito baixa, por isso não causam ejeção de elétrons de nenhum material. Como a
radiação Infravemelho não arranca elétrons de átomos nos quais ele esteja ligado, diz-se que o
Infravermelho é uma radiação não-ionizante.
A radiação Infravermelho, através da troca de energia de seus fótons, causa aqucimento do meio
material no qual ela está interagindo, devido ao aumento da energia cinética das moléculas. A
máxima penetração do infravermelho no tecido humano é de 3mme ocorre com o comprimento
de onda do IVA, diminuindo ligeiramente para os comprimentos de onda do IVB e IVC(10).
4.4.2. RADIAÇÃO ULTRAVIOLETA.
O sol é imprescindível para a vida na Terra. É uma fonte inestimável de energia, bem-estar e
saúde. A luz solar proporciona efeitos benéficos, tanto fisiológicos como psicológicos, mas
também pode causar efeitos danosos, o que exige de nós como sociedade, orientação e
conhecimento para que se possa aproveitar dos benefícios sem se deixar ser pego pelos fatores
que colocam a saúde humana em perigo. A radiação ultravioleta, conhecida como UV, faz parte
da luz solar que atinge o nosso planeta e é essencial para a preservação do calor e a existência
da vida. A radiação UV (figura 39), está localizada logo acima do espectro de luz vivível (de
45
400nm até 100nm) e embora seus fótos sejam mais energéticos é classificada como uma
radiação excitante. Embora bastante energético, a radiação UV tem menor penetração no tecido
(pele) do que a luz visível e radiação Infravermelho. A profundidade de penetração da radiação
Ultravioleta na pele será tanto menor quanto maior for a energia de seu fóton, mas não é a única
e preponderante relação (11)pg3.
A radiação Ultravioleta é muito importante como catalizador de vitamina D na saúde humana, a
vitamina D é também conhecida como vitamina anti-raquítismo, pois controla o aproveitamento
do fósforo e do cálcio, importantes para o perfeito desenvolvimento dos ossos e dos dentes.
Mesmo quando se ingerem alimentos que contenham fósforo e cálcio, essas substâncias não se
fixam nos ossos quando há deficiência de vitamina D. Nosso organismo pode aproveitar
diretamente a vitamina D proveniente de certos alimentos ou sintetizá-la nas células de nossa
pele a partir de uma provitamina: o ergosterol. Esta provitamina na presença dos raios
ultravioleta do Sol, que agem como sintetizador, transformando o ergosterol em vitamina D.
Muito já foi divulgado sobre os benefícios de estar exposto a luz solar, porém precisamos estar
atentos em relação à dose a qual se está exposto. O Sol tem efeito hormético(11), que é a porção
saudável, que trás benefícios ao se estar exposto a radiação solar em tempo não superior a duas
horas diárias e que esta exposição esteja sendo em horário de excessão, de menor intensidade
radiante. Não é recomendável ficar exposto ao Sol nos horários entre 10:00h e 16:00h, porém
quando necessário utilizar protetor solar, adequando o grau de filtro. A proteção utilizando filtro
solar é insdispensável para se evitar danos à saúde.
4.4.
PRODUÇÃO DE RADIAÇÃO ULTRAVIOLETA.
As fontes de produção de radiação UV, como mencionamos, podem ser natural e artificial. O
Sol é a principal fonte natural de produção de UV. Dentre as fontes artificiais de produção da
radiação UV, podemos citar as lâmpadas germicidas utilizadas em hospitais e centros clínicos
para assepcia de instrumentos cirúrgicos, Equipamentos para solda industrial de metais, que
46
operam com elevadas diferença de potencial, produzem um arco voltáico luminoso no qual
existe emissão da radiação ultravioleta. As lâmpadas negras que os jovens encontram nas
baladas também produzem radiação Ultravioleta.
4.5. RADIAÇÃO UV E PRINCIPAIS EFEITOS NA SAÚDE HUMANA.
A luz do Sol, desde a antiguidade, é conhecida como necessária e benéfica para a vida na Terra,
pois ela ilumina e aquece os ambientes, além de ser necessária para dar suporte à vida vegetal
nos processos de fotosíntese. O Sol fonte da radiação que permite secar e preservar alimentos,
também serviu de inspiração para que os cientistas desenvolvessem equipamentos que tem sido
utilizado em medicina, na fototerapia, fotoquimioterapia, terapia fotodinâmica e laserterapia
(11)
pag.36.
A radiação UVA (fótons com energia entre 3,10eV e 3,94eV) tem penetração de até 1% no
tecido sub-cutâneo, com aproximadamente 300um, Já a radiação UVB (fótons com energia
entre 3,94eV e 4,42eV), tem sua penetração máxima em torno dos 200um atingindo a derme
com 9,5% da sua energia radiante e a UVC (fótons com energia entre 4,42eV e 12,42eV),
consegue penetrar até a epiderme atingindo 80um em profundidade. A radiação UV que
demonstrou ser a mais eficiente em ações bactericídas se encontra na faixa de comprimento de
onda entre 300nm e 250nm. Os principais efeitos das radiações ultravioleta no corpo humano
são as seguintes:
Cancer de pele.
A pele é o maior orgão do corpo humano, corresponde a 15% do peso corpóreo(11), operando
como camada protetora, é uma interface que evita o contato das partes e orgãos mais frágeis
com o ambiente inóspito. A pele evita a perda de água que é vital para o equilíbrio químico dos
fluídos corpóreos e das demais reações químicas que se processam na fisiologia do corpo, além
de regular a temperatura do corpo.
47
A radiação ultravioleta, em doses adequadas, na fototerapia, já foi utilizada para tratamento para
a tuberculose de pele. incidência de câncer de pele supera em ocorrência todos as outras
manifestações carcinogênicas. A Organização Mundial de Saúde, vem alertando que não só no
Brasil mas mundialmemte este tipo de câncer tem aumentando de maneira preocupante.
Pesquisadores tem alertado sobre a existência de uma relação direta entre a exposição a radiação
ultravioleta e o câncer de pele.
A radiação UV que não sofreu interação com a camada de ozônio, o qual possa ter sido
espalhado, absorvido, pode chegar até a superfície e é esta porção que pode afetar nossa saúde.
No entanto, em função do aumento dos buracos na camada de ozônio, originados de ações
antropogênicas, tem contribuido para o aumento dos índices de radiação aos quais estamos
sujeitos em um mesmo periodo de exposição. Os raios UV podem causar queimaduras,
fotoalergias, envelhecimento cutâneo e até o câncer de pele, a camada de ozônio tem forte
influência redutiva na intensidade do UV, reduzindo o risco de se estar exposto ao Sol.
Segundo o dr. Roberto B. Lima(26) , médico-dermatologista, “A radiação ultravioleta (UV) ao
atingir nossa pele penetra profundamente e desencadeia reações imediatas, como as
queimaduras solares, as fotoalergias (alergias desencadeadas pela luz solar) e o bronzeamento,
provoca também reações tardias, devido ao efeito acumulativo da radiação durante a vida,
causando o envelhecimento cutâneo e as alterações celulares que, através de mutações
genéticas, predispõem ao câncer da pele". O alerta do médico encontra respaldo nas diversas
campanhas promovidas pela WHO (World Health Organization).
O câncer da pele é um tumor formado por células da pele que sofreram uma transformação e
multiplicam-se de maneira desordenada e anormal dando origem a um novo tecido (neoplasia).
Os especialistas afirmam que, entre as causas que predispõem ao início desta transformação
celular, aparece como principal agente à exposição prolongada e repetida à radiação ultravioleta
do sol. Os mais atingidos pelo câncer de pele são principalmente as pessoas de pele branca, que
se queimam com facilidade e nunca se bronzeiam ou se bronzeiam com dificuldade. Os médicos
48
indicam que cerca de 90% das lesões localizam-se nas áreas da pele que ficam expostas ao sol,
o que demonstra a importância da exposição solar para o surgimento do tumor.
Os tipos mais comuns de câncer de pele.
São três os tipos mais frequentes. Eles se originam de diferentes células que compõem pele.
- carcinoma basocelular: originado das células da camada basal, é o mais frequente e com o
menor potencial de malignidade. Seu crescimento é lento e muito raramente se dissemina à
distância. Ele pode se manifestar de várias maneiras, uma delas está ilustrada na foto abaixo.
Fig. 39: Carcinoma basocelular.
Fonte:www.dermatologistas.net.
É possível perceber sua ocorrência pelas feridas que nao cicatrizam ou lesões que sangram com
facilidade devido a pequenos traumatismos, tal qual o uso da toalha, podem ser um carcinoma
basocelular.
O carcinoma basocelular (basalioma ou epitelioma basocelular) é um tumor maligno da pele. É
o câncer da pele mais frequente, representando cerca de 70% de todos os tipos. Sua ocorrência é
mais comum após os 40 anos de idade, nas pessoas de pele clara e seu surgimento tem relação
direta com a exposição acumulativa da pele à radiação solar durante a vida. A proteção da
radiação solar é a melhor forma de prevenir o seu surgimento.
Por ser um tumor de crescimento muito lento e que não dá metástases (não envia células para
outros órgãos), é o de melhor prognóstico entre os cânceres da pele. No entanto, pode apresentar
49
característica invasiva e, com o seu crescimento, destruir os tecidos que o rodeiam atingindo até
a cartilagem e os ossos.
A grande maioria das lesões aparece na face. O basalioma pode se manifestar de diversas
formas mas em sua apresentação mais típica inicia-se como pequena lesão consistente, de cor
rósea ou translúcida e aspecto "perolado", liso e brilhante, com finos vasos sanguíneos na
superfície e que cresce progressiva e lentamente.
Na sua evolução pode ulcerar (formar ferida) ou sangrar, podendo, com isso, apresentar uma
crosta escura (sangue coagulado) na sua superfície.
Algumas lesões podem ser pigmentadas, com as mesmas características descritas acima porém
de coloração escura (basocelular pigmentado), outras crescem em extensão atingindo vários
centímetros sem contudo aprofundar-se nos tecidos abaixo dela (basocelular plano-cicatricial).
A forma mais agressiva acontece quando o tumor invade os tecidos em profundidade
(basocelular terebrante), com grande potencial destrutivo principalmente se atingir o nariz ou os
olhos.
O tratamento do carcinoma basocelular é na maioria das vezes cirúrgico, seja pela eletrocirurgia
(lesões pequenas) ou pela cirurgia convencional. O tumor também pode ser tratado pela
criocirurgia com nitrogênio líquido. Alguns tipos superficiais podem ser tratados pela terapia
fotodinâmica.
Fig. 40: Carcinoma basocelular e cirurgia reparadora.
Fonte:www.dermatologistas.net.
50
- carcinoma espinocelular: originado das células da camada espinhosa, tem crescimento mais
rápido e as lesões maiores podem enviar metástases à distância. Também conhecido como
carcinoma epidermóide, é bem menos frequente que o basocelular. É comum acometer áreas de
mucosa aparente, como a boca ou o lábio, cicatrizes de queimaduras antigas ou áreas que
sofreram irradiação (raios x). As lesões atingem principalmente a face e a parte externa dos
membros superiores. Iniciam-se pequenas, endurecidas e tem crescimento rápido, podendo
chegar a alguns centímetros em poucos meses. Crescem infiltrando-se nos tecidos subjacentes e
também para cima, formando lesões elevadas ou vegetantes (aspecto de couve-flor). É frequente
haver ulceração (formação de feridas) com sangramento. O carcinoma espinocelular pode
produzir metástases, piorando o prognóstico. É, portanto, fundamental o diagnóstico e
tratamento precoce do câncer para evitar o envio de células tumorais para outros órgãos. Além
da proteção de radiação solar, o tratamento das lesões que podem originar a doença são medidas
necessárias para preveni-la. No caso de lesões suspeitas, procure um dermatologista para uma
avaliação e diagnóstico precoce(26).
Fig. 43: Carcinoma espinocelular.
Fonte:www.dermatologistas.net.
O tratamento do carcinoma espinocelular é cirúrgico, através da retirada total da lesão e deve
ser realizado o mais precocemente possível para se evitar a ocorrência de metástases.
51
O carcinoma espinocelular pode ocorrer também a partir de ceratoses actínicas, que são lesões
pré-cancerosas decorrentes da exposição prolongada e repetida da pele aos UV do Sol.
- melanoma: originado das células que produzem o pigmento da pele (melanócitos), é o câncer
de pele mais perigoso. Frequentemente envia metástases para outros órgãos, sendo de extrema
importância o diagnóstico precoce para a sua cura.
O melanoma pode surgir a partir da pele sadia ou a partir de "sinais" escuros (os nevos
pigmentados) que se transformam. Apesar de ser mais frequente nas áreas da pele comumente
expostas ao sol, o melanoma também pode ocorrer em áreas de pele não expostas. Pessoas que
possuem sinais escuros na pele devem se proteger dos raios Ultravioleta do Sol, que podem
estimular a sua transformação.
Por isso, qualquer alteração em sinais antigos, como: mudança da cor, aumento de tamanho,
sangramento, coceira, inflamação, surgimento de áreas pigmentadas ao redor do sinal justifica
uma consulta ao dermatologista para avaliação da lesão. Além disso, algumas características dos
sinais podem recomendar o exame, portanto conheça o abcd do melanoma:

Assimetria: formato irregular

Bordas irregulares: limites externos irregulares

Coloração variada (diferentes tonalidades de cor)

Diâmetro: maior que 6 milímetros
A foto abaixo ilustra um melanoma em fase inicial (melanoma "in situ"), com todas as
características acima descritas. Nesta fase, o melanoma ainda está restrito à camada mais
superficial da pele, quando ainda não emite metástases para outros órgãos e pode ser curado
pela retirada cirúrgica da lesão.Daí a conclusão de que a proteção solar é a principal forma de
prevenção ao câncer de pele. De acordo com a sociedade brasileira de dermatologia, o câncer da
pele vem aumentando sua incidência vertiginosamente em praticamente todo o mundo.
52
Fig. 44: Melanoma.
Fonte:www.dermatologistas.net.
Dados mostram que nos Estados Unidos, onde os estudos epidemiológicos são regularmente
realizados, cerca de 1.200.000 casos novos foram diagnosticados em 1999 e provavelmente
cerca de 10.000 pacientes perderam a vida. Assim sendo, o câncer da pele representa um dos
mais graves problemas de saúde pública, configurando uma 'epidemia silenciosa' que
compromete não só a saúde da população, como também a economia de um país. No brasil, a
Sociedade Brasileira de Dermatologia estima que ocorrerão a cada ano, 100.000 novos casos de
câncer da pele. Os números atualmente disponíveis são escassos e irregularmente coletados,
mas não menos alarmantes. Entretanto, o câncer da pele não é valorizado nas discussões e
publicações oncológicas, porque a sua mortalidade é baixa quando comparada aos outros
cânceres. Por menor que sejam estes números no que se refere a mortalidade, sempre deveriam
ser encarados como importantes, pois em relação ao câncer da pele, nós sabemos o que causa e
quem vai ter. Portanto, trata-se do único câncer onde as medidas de atenção primária são
melhores aplicáveis para a prevenção. De acordo com a Sociedade Brasileira de Dermatologia,
o câncer da pele é devido, principalmente, a uma causa evitável; a excessiva exposição ao sol
sem a devida proteção, primordialmente, por indivíduos fenotipicamente predispostos. Trata-se,
portanto, do câncer mais prevalente no Brasil. Os médicos da Sociedade Brasileira de
Dermatologia alertam para a exaltação ao bronzeamento pela mídia, que se dirige
53
principalmente ao jovem. Nesta idade é quando a ação solar age de forma mais intensa,
principalmente pelo longo tempo e forma inadequada de exposição. A Sociedade Brasileira de
Dermatologia defende a instituição de um programa nacional para o controle do câncer de pele,
bem estruturado e nas diferentes regiões do país e propõe um trabalho preventivo, relacionando
a uma ação educacional, e também uma ação dirigida ao diagnóstico precoce, uma vez que,
quando identificado em tempo, o melanoma, representante mais agressivo dos cânceres de pele,
é perfeitamente curável, o câncer da pele, como é sabido, apresenta uma evolução lenta,
portanto, em condições de ser diagnosticado em suas fases menos agressivas, explicam os
médicos. A Sociedade Brasileira de Dermatologia pretende que pelo menos 80 % da população
tenha recebido uma mensagem veiculada sobre os danos causados pela exposição inadequada ao
sol. Acredita que a epidemiologia do câncer da pele ocupará uma posição de destaque nas
prioridades dos órgãos governamentais, quando houver uma percepção política do impacto
científico
das
realizações
dos
profissionais
dermatologistas.
O perigo do bronzeamento artificial.
As câmaras de bronzeamento artificial, possuem lâmpadas que produzem UVA em doses mais
altas do que na radiação proveniente do sol, ou seja, o número de fótons com esse comprimento
de onda encontrados numa câmara de bronzeamento artificial (figura-38) é notadamente
superior aos encontrados em um dia de sol na praia. Essa dose excessivamente superior,
podendo alcançar um fator 10 na sua intensidade, acelera o processo de “queimadura”
responsável por ativar os mecanismos de defesa do nosso corpo, que para essa modalidade de
agressão, aumenta a produção de melanina na pele, substância responsável pela tonalidade
marrom-avermelhada (bronzeada) que a pele adquire. Cade saber quee este bronzeamento
artificial para algumas peles, embora de aparência saudável, na verdade, pode estar acumulando
efeitos danosos que irão aflorar no futuro.
Já a radiação UVB tem uma incidência bem maior durante o verão, especialmente entre 10h e
16h. Os raios UVB penetram superficialmente na pele e são os causadores das queimaduras
54
solares, segundo o dr. Roberto B. Lima(26) "...são as principais responsáveis pelas alterações
celulares que predispõem ao câncer de pele, explica o médico alertando para o fato de que,
sendo apenas os raios UVB que causam as queimaduras solares, o fato da pessoa não ter ficado
vermelha não significa que não tenha sido atingida danosamente pela radiação UVA. Aquele sol
de inverno que pareceu não causar problemas porque você não se queimou nada, na verdade
também está prejudicando sua pele favorecendo, principalmente, o seu envelhecimento, da
mesma forma que as câmaras de bronzeamento artificial".
A intensidade de UVA emitida por uma câmara de bronzeamento, de fator 10 em relação a
intensidade de UVA na da luz solar, pode causar queimadura imediata e dano cumulativo à pele
que só irá se manifestar al longo de anos. Embora hajam alegações que o uso destas câmaras
para bronzeamento artificial não fazem mal à pele, essa modalidade de tratamento, já proibida
em alguns paises, deve ser evitado. O acompanhamento, em pesquisas, de pacientes que se
submeteram a esse tipo de tratamento comprovam o envelhecimento precoce da pele e que estes
usuários ficam predispostos ao surgimento do câncer da pele.
Fig. 48: Câmara de Bronzeamento UV.
Fonte:.
Recentemente (11/09/2009) a ANVISA (Agência Nacional de Vigilância Sanitária)(27), publicou
que as câmaras de bronzeamento artificial não poderão mais ser utilizadas para fins estéticos no
país. A agência publicou, a resolução que proíbe, além do uso, a importação, o recebimento em
55
doação, aluguel e a comercialização desses equipamentos. A medida foi motivada pelo
surgimento de novos indícios de agravos à saúde relacionados com o uso das câmaras de
bronzeamento. Um grupo de trabalho da Agência Internacional para Pesquisa sobre Câncer
(IARC), ligada à Organização Mundial da Saúde, noticiou a inclusão da exposição às radiações
ultravioleta na lista de práticas e produtos carcinogênicos para humanos. O risco de
aparecimento de um melanoma (câncer de pele) aumenta em 75% quando o uso de câmaras de
bronzeamento começa antes dos 30 anos.
O bronzeamento artificial já estava proibido pela ANVISA para menores de 16 anos e para
jovens com idade entre 16 e 18 anos que não apresentassem autorização do responsável legal.
De acordo com o Instituto Nacional do Câncer (INCA), o câncer de pele corresponde a 25% dos
tumores malignos registrados no país. Além disso, a exposição à radiação ultravioleta pode
causar severos problemas oftalmológicos e de pele em médio e longo prazo.
Filtros Solar e Fator de Proteção Solar.
Os filtros solares ou protetores solares são substâncias que aplicadas sobre a pele protegem a
mesma contra a ação dos raios ultravioleta (UV) do Sol. Os filtros solares podem ser químicos
(absorvem os raios UV) ou físicos (refletem os raios UV). É comum a associação de filtros
químicos e físicos para se obter um filtro solar de FPS mais alto. O Fator de Proteção Solar
(FPS), é o valor que determina o quanto o produto irá proteger sua pele dos raios UV, principais
responsáveis pelas queimaduras solares. Este número que acompanha o simbolo de indice da
radiação UV nas embalagens de filtro solar está relacionado com seu fator de absorção ou
erflexão da radiação e deve-se levar emconsideração o tipo de pele ao qual será aplicado. FPS
significa fator de proteção solar. Todo filtro solar tem um número que determina o seu fps, que
pode variar de 2 a 60 (até agora, nos produtos comercializados no Brasil). O FPS mede a
proteção contra os raios UVB, responsáveis pela queimadura solar da pele como mostra a foto
abaixo, mas não medem a proteção contra os raios UVA. A pele, quando exposta ao sol sem
56
proteção, leva um determinado tempo para ficar vermelha. Quando se usa um filtro solar com
FPS 15, por exemplo, a mesma pele leva 15 vezes mais tempo para ficar vermelha.
Fig. 48: Queimadura facial por UV.
Fonte:www.dematologistas.net.
Partindo dos índices mais baixos, como 15 e 30, devem ser usados apenas por pessoas negras e
morenas, que têm a pele naturalmente mais protegida do que as pessoas mais claras que devem
procurar por FPS, com índices 45 ou 60. Além dos protetores solares, de efeito menos intenso,
existem os bloqueadores solares, cujo efeito é mais acentuado. Estes são recomendados pelos
dermatologistas para a proteção da pele e, se usados de maneira adequada, podem garantir horas
de lazer sem danos futuros à saúde. A sociedade brasileira de dermatologia, no entanto, adverte
que ao usar filtro ou bloqueador solar não significa possibilidade de permanecer longo tempo
em exposição à radiação solar, mas apenas para limitar os riscos desta exposição.
A camada de ozônio
A camada de ozônio contribui para a absorção da radiação ultravioleta, principalmente as de
comprimento de onda UVB e UVC que chegam a superfície da Terra. O gás ozônio (O3) é uma
molécula formada por três átomos de oxigênio e diferentemente da molécula de oxigênio (O2)
que compõe cerca de 18% do ar que respiramos e necessária para manutenção da vida, o ozônio
57
é tóxico quando inalado, sendo mais danoso que o monóxido de carbono (CO) emitido pelos
automóveis, pode levar o indivíduo à morte, se estiver respirando por mais de 30minutos em
ambientes onde a concentração for da ordem de 50ppm (partes por milhão)(11)pag.30. O gás
ozônio está presente em toda atmosfera, porém a baixas altitudes ele se encontra em
concentração muito baixa por ser extremamente reativo, isto é, de fácil recombinação com
outros gases. Nas partes mais altas da atmosfera, ao redor de 30.000m encontra-se ozônio em
maior concentração e por grandes extensões da atmosfera, esta região recebe o nome de camada
de ozônio.
A maior concentração relativa de ozônio nesta região decorre da cinergia entre formação e
destruição das moléculas de O3. Nesta região o equilíbrio entre a combinação de uma molécula
de O2 com um átomo de oxigênio resultando o O3 e a dissociação do O3 em O2 + O, possibilita a
manutenção desta concentração. A dissociação do O3 em O2 + O, chamado de fotodissociação
tem efeito pela ocorrência da quebra da molécula de O3 pela interação com um fóton de radiação
UVC. Este processo de recombinação e dissociação das moléculas de ozônio é responsável pela
absorção de toda a radiação UVC e de grande parte da radiação UVB.
Com o avanço da tecnologia e incremento da produção de diversos equipamentos, entre eles os
condicionadores de ar, os quais até alguns anos atrás utilizavam como trocador de calor o gás
clorofluorcarboneto (CFC) produzido artificialmente, que descuidadamente foi continuamente
lançado na atmosfera. Acontece que esse gás atinge a camada de ozônio e interfere
negativamente nas reações de ozônio desequilibrando o balanço entre combinação e
dissociação, favorecendo essa última. Como resultado podemos observar uma considerável
redução da camada de ozônio nos últimos 20 anos.
A destruição da massa ocorre
principalmenmte no polo sul, na região da Antartida provocando o aumento do buraco na
camada de ozônio. O Instituto Nacional de Pesquisas Espaciais (INPE) desenvolve um
importante programa de monitoramento do território nacional, monitorando a camada de ozônio
e os índices de radiação UV.
58
Cabe salientar reforçando que os efeitos nocivos da radiação UV sobre a pele vão se
acumulando ao longo dos anos, ou seja, quanto mais ficarmos expostos, maior a probabilidade
de reunir para si as células cancerígenas, originadas pela incidência do UVA na superfície de
nosso corpo.
As pessoas de pele clara, que possuem menos melanina na pele (pigmento que dá a coloração
escura) são as mais atingidas, pois a exposição ao sol não proporciona o bronzeamento e, sim, a
queima da pele. E a pele, o maior órgão do corpo humano, é justamente a nossa capa protetora,
que nos reveste e a primeira a sentir a ação de tudo que acontece externamente ao corpo. A pele
também possui o seu sistema de defesa, composto por uma proteína fibrosa chamada queratina,
que absorve 60% dos raios uvb e 20% dos raios UVA. Assim o homem deve aprender a se
proteger desde criança dos raios solares, principalmente não ficando exposto entre 10 e 16
horas, quando os raios UVA têm sua ação maximizada para ter menor incidência de câncer de
pele na idade adulta.
Segundo a Sociedade Brasileira de Dermatologia, o câncer de pele é tratável e sua ação é
reversível, porém a prevenção ainda é a atitude mais indicada pelos especialistas. Verificar
periodicamente o surgimento ou o aumento de manchas escuras, verrugas e pontos que coçam
ou mudam de cor e, em caso de dúvida, procurar imediatamente um médico.
5. A EDUCAÇÃO À DISTÂNCIA E A PRODUÇÃO DE MATERIAL DIDÁTICO.
Vista há até pouco tempo como uma espécie de estepe do ensino ou uma educação 'de segunda
categoria', a educação a distância (EAD) começa a despertar a atenção de investidores e
empreendedores, principalmente em sua mais recente modalidade, a chamada educação on-line
(24)(25)
.
Na educação a distância on-line temos três possibilidades de comunicação reunidas numa só
mídia: a comunicação de um-para-muitos, de um-para-um e, sobretudo, de muitos-para-muitos.
59
Estamos diante de uma tecnologia que permite recursos impensáveis em outras modalidades de
EAD baseadas em outras tecnologias, algo como a formação de comunidades virtuais de
aprendizagem colaborativa: pode-se experimentar aprender a distância junto com outros,
interagindo com muitos, independentemente da hora e do lugar de cada um.
Por isto a educação on-line vem exigindo o desenvolvimento de um modelo pedagógico
específico em que aprender a aprender de maneira colaborativa em rede é mais importante do
que aprender a aprender sozinho, por conta própria. Ela requer, portanto, um novo tipo de aluno,
o aluno on-line. Demanda também um novo tipo de professor, um professor on-line que não se
limite a saber 'mexer com o computador', navegar na web ou usar o e-mail nem a dominar um
conteúdo ou técnicas didáticas, mas seja especialmente capaz de mobilizar e manter motivada
uma comunidade virtual de aprendizes em torno da sua própria aprendizagem. A maneira de se
produzir o texto do conteúdo também vem passando por transformações e muito tem sido
investido para tornar os textos mais claros para o autoentendimento, buscando conciliar técnicas
de estruturação e edição para adequar ao publico alvo dessa nova mídia.
Esse novo aluno e esse novo professor precisam ser capacitados e aperfeiçoados continuamente
nessa nova área de prática educativa. Não se faz isto de um dia para o outro. É algo que a
sociedade vai precisar promover por muitos anos. O desafio é imenso. Por isso é preciso olhar
com certa desconfiança algumas iniciativas que tratam a educação on-line como se fosse ou
apenas outra maneira de se fazer educação a distância convencional, ou apenas a mera
transposição da velha sala de aula para o mundo virtual. Especialmente aquelas iniciativas que
pensam ser isto uma questão de se desenvolver apenas o hardware, a conectividade ou o
software especializados para educação a distância via web. Muitos recursos vêm sendo
investidos nesses elementos - e é realmente importante que continuem sendo investidos. Mas
estes não representam nem todo o investimento necessário nem o mais importante. O momento
atual exige investimentos pesados em peopleware, isto é, em recursos humanos para a educação
60
on-line. Esta é a maior limitação enfrentada hoje no desenvolvimento de programas de educação
on-line, no Brasil e no mundo(22)(24).
A EAD convencional investe no desenvolvimento, reprodução e distribuição de material
didático e na atuação de equipes pedagógicas de apoio (a chamada tutoria) - um investimento
muito maior nos primeiros que na última. E baseia sua economia no ganho em escala, na
possibilidade de empregar esse material, com o suporte de uma tutoria, em um grande número
de alunos. Em toda parte, porém, esse modelo começa a viver sua crise, pois o ganho em escala
está diminuindo, não por retração de mercado, pelo contrário: o número de alunos somente
tende a aumentar. É o tempo de vida útil do material didático que tende a diminuir em todos os
campos do saber, pela obsolescência acelerada da informação e do conhecimento característica
desta virada de milênio.
Porém, EAD on-line de qualidade deve investir muito mais em recursos humanos. Os custos de
reprodução e distribuição de material digital são infinitamente menores que os do material
impresso. Mas os custos docentes são nela crescentes, pois EAD on-line de qualidade, ao
contrário do que se pensa, não prescinde do professor. Simplesmente não é possível fazer ead
on-line de qualidade com uma pequena equipe de tutores cobrando exercícios e tarefas de
milhares de estudantes e confiando na automatização de rotinas didáticas via software. Isso seria
apenas uma inadequada e equivocada transposição do modelo convencional de ead para o
ambiente on-line, ignorando justamente a grande novidade desse meio, a possibilidade da
aprendizagem colaborativa a distância. Educação on-line de qualidade requer muitas horas-aula
de educadores on-line capazes, especializados em animação de comunidades virtuais de
aprendizagem colaborativa. Problematizar conceitos-chave da concepção educacional que
guiaram a produção de um conjunto articulado de material didático impresso e digital.
Pressupostos teóricos do processo ensino aprendizagem (23)(24).
A aprendizagem humana é um fenômeno em constante mudança e ocorrre na associação de
conhecimentos já elaborados com conhecimentos novos. Na perspectiva da educação formal
61
ocupa o lugar em relações educativas, que se definem como uma dinâmica entre os sujeitos
envolvidos, tendo como objeto de estudo um determinado corpo de conhecimentos.
Na tendência epistemológica atual, com a contribuição das tecnologias no aumento das
informações disponíveis, é crescente uma revolução no pensamento acerca do conhecimento
(LEVY,1993). Isso poderá contribuir para uma Educação Aberta, Continuada, Presencial e a
Distância. A interatividade do sujeito com o objeto e as mediações envolvidas no processo são
de suma importância. Neste trabalho são abordadas estratégias pedagógicas para a educação
adequadas ao contexto da modalidade a distância. Isso implica no conhecimento acerca das
teorias pedagógicas construídas historicamente, que fundamentam os processos de
ensino-aprendizagem na educação presencial e não-presencial e dos recursos tecnológicos
disponíveis (PRETI, 2000).
Nesse contexto inserem-se as tecnologias na educação, como ferramentas de apoio e que podem
transformar o aprender, num processo mais eficiente. As TIC’s possibilitam uma maior
interatividade, e podem ser usadas como instrumento de comunicação, de pesquisa e de
produção de conhecimento. Isto implica: saber acessar o conhecimento, isto é, localizar e
selecionar o que é relevante e; dar sentido ao conhecimento e/ou integrar a conhecimentos
anteriores.
No enfoque de processo ensino aprendizagem, os conceitos são produzidos e apropriados pelo
homem, atendendo a interesses, necessidades sociais, culturais e políticas das diferentes épocas
(Vygotsky, 1994). Nestes conceitos insere-se a relação da Matemática com as tecnologias e com
a práxis do educador. A intervenção do educador no processo pedagógico pode acontecer em
momentos distintos, seja na construção de um recurso pedagógico, na aplicabilidade ou na
análise dos seus resultados.
Este trabalho atua no processo ensino aprendizagem de Cálculo Diferencial e Integral I no
contexto Universitário através da EAD, optando pela concepção histórico-cultural de
aprendizagem. Contempla-se assim, os pressupostos teóricos do sócio-interacionismo e do
62
construtivismo. A concepção sócio-interacionista, preocupa-se em compreender como se
constituem as interações sociais. Nessa perspectiva o conhecimento está nas relações sociais,
enfatizando a relevância dos processos interacionais, entre os sujeitos e o meio.
O construtivismo parte da premissa de que o indivíduo é agente ativo de seu próprio
conhecimento, isto é, ele constrói significados e define o seu próprio sentido e representação da
realidade de acordo com suas experiências e vivências em diferentes contextos.
A interação em grupo deve assumir a condição de uma investigação e, a cada reflexão sobre a
ação realizada, buscam-se parâmetros para a reformulação das próximas ações. Considera-se
que o fazer educativo é um processo contínuo de ação-reflexão-ação.
Concebe-se o professor como um investigador comprometido com o conhecimento das técnicas
pedagógicas, com domínio de conteúdos, com um somatório de experiências vivenciadas e
aberto para a socialização desses saberes com um grupo multidisciplinar.
O planejamento e a organização do material didático neste processo, encontra nesses
pressupostos subsídios para sua elaboração. Trabalhar coletivamente está associado a socializar
conhecimentos e práticas, pois implica na generalização da produção individual para a produção
em grupo. É o trabalho no conceito de colaboração e cooperação que possibilita esta ação
(Okada, 2003).
A organização do trabalho nesta ótica apresenta muitas vantagens. Dentre elas: o grupo pode
produzir melhores resultados do que atuando individualmente; socializar conhecimentos e
práticas; cooperação na resolução de tarefas; submissão a diferentes interpretações e pontos de
vista, possibilitando uma visão mais ampla do tema em debate.
Entretanto, trabalhar em grupo também gera problemas como a difusão de responsabilidades, a
competição, a falta de empenho, o controle de acessos e a sobrecarga de comunicação.
Esses problemas exigem uma gerência eficiente que coordene o grupo de modo que todos
cooperem (Gerosa et al,2001).
63
Produção do Material Didático no Contexto de Cooperação e Colaboração(23)(24)(25).
A metodologia de produção e edição do material tem contemplado momentos de colaboração e
momentos de cooperação. Inicialmente, predomina o processo de produção colaborativa. Dessa
forma foram desenvolvidos os materiais didáticos referentes às Unidades de Estudo 1 e 2 que
tratam sobre: Intervalos Numéricos e Funções Reais de Variáveis Reais e os textos
complementares dessas unidades.
Nesse processo de produção, o planejamento, a elaboração e a edição eram compartilhados.
Foram designadas funções para cada membro integrante do grupo e cronograma. A primeira
tarefa, desenvolvida por cada integrante do grupo de professores autores, referia-se à coleta dos
materiais sobre os temas em estudo, a partir de uma revisão bibliográfica detalhada. A partir de
encontros de estudo semanais os resultados eram socializados. Nesses encontros define-se o
processo de planejamento da estrutura do conteúdo referente ao tema em estudo.
A redação preliminar do texto, a partir dos materiais selecionados, são atribuídos ao professor
autor. A partir da edição preliminar do texto, os arquivos são compartilhados com os
professores autores. Nesta etapa os arquivos são transferidos via correio eletrônico. Cada
professor faz a sua análise e a inserção de contribuições diretamente no texto. Os professores
autores devem ter familiaridade com as ferramentas de edição de textos. Deve haver um registro
histórico da evolução textual. Esse registro pode ser feito utilizando-se diferentes meios:
ambientes virtuais de aprendizagem, CD-ROM, repositórios eletrônicos, entre outros.
Esta atividade organiza-se de modo que o arquivo é transferido do professor a para o b, este
para o c e assim sucessivamente. Dentro de um período, o texto é avaliado e alterado quando
necessário pelos professores autores. Nesse processo de alteração, deve ser realizada um
controle de alterações para permitir ao professor b, perceber as alterações feitas pelo professor
a. Assim, evidenciam-se as contribuições, evitando que um colega exclua uma contribuição
recém inserida. As alterações não-aceitas integralmente são debatidas nos encontros.
Esse processo mostra-se simples e eficiente, exigindo uma utilização dos recursos tecnológicos
64
disponíveis. Os textos passam por esse processo de transferência constante dos arquivos entre
os professores autores, até que os mesmos sejam considerados adequados. A evolução da escrita
no contexto de linguagem matemática quanto às características de universalidade, objetividade,
precisão é evidente. No entanto, o processo colaborativo mostra-se rico,
No processo de produção colaborativa, o trabalho é realizado com a intervenção direta entre
duas ou mais pessoas no mesmo texto. Este processo caracteriza-se por um refinamento do
material produzido, melhora qualitativa com maior requerimento de tempo necessário. No
processo de produção cooperativa, as produções individuais são agregadas às demais
produções. Este no entanto, é mais ágil e simplificado.
6. A INTERNET COMO MÍDIA DINÂMICA, CONFIÁVEL E LEGAL.
Licenciamento de trabalho...Internet Legal!
Até há pouco tempo os autores mantinham relações muito pouco profissionais com os seus
editores. Isso começa a mudar na década de 1970 quando a literatura brasileira ganha pela,
segunda vez, a simpatia dos leitores (a primeira foi no começo do século, com imprensa
industrializada). O Brasil já conta nessa época com uma indústria bem desenvolvida e consegue
distribuir seu material em quase todo o território nacional. Predominava até então uma relação
paternalista entre editor e autor(22).
Isso começou a sofrer mudanças quando os autores passaram a vender de fato e iniciava-se uma
fase de profissionalização. Os autores agora discutiam seus direitos e exigiam contratos, e não
predominava mais a ânsia de assinar qualquer papel contanto que o livro fosse publicado. Isso
se dava principalmente pela falta de legislação ou mesmo pelo desconhecimento das leis que
existiam já.
Ainda hoje há desconhecimento dos direitos autorais referentes à publicação de livros, como
tratar os direitos referente a imagens, sons, programas, cd-rom, software, hardware, internet.
Para melhor entender esse problema, vamos tratar de esclarecer alguns conceitos.
65
Direitos autorais
O direitos autorais lidam basicamente com uma imaterialidade, principal característica da
propriedade intelectual. Estão presentes nas produções artísticas, culturais, científicas, etc(20)(22).
Quando a forma escrita atinge uma escala industrial aparece o problema dos direitos autorais, a
proteção e a remuneração dos autores. O copyright começa a ser reconhecido na inglaterra
através do copyright act de 1790, que protegia as cópias impressas por 21 anos, contados partir
da última impressão. Obras não-impressas eram protegidas por apenas quatorze anos.
Porém, já em 1662 existia o licensing act que proibia uma impressão de qualquer obra que não
estivesse registrada. Era uma forma de censura, já que só se licenciavam livros não ofendessem
quem o licenciador.
A revolução francesa acrescenta um primazia do autor sobre a obra, enfocando o direito que ele
tem ao ineditismo, à paternidade, à integridade de sua obra, que não pode ser modificada sem
seu expresso consentimento. Seus direitos são inalienáveis ea proteção se estende por toda a
vida do autor(14).
No Brasil, o direito autoral foi regulado até recentemente pela lei 5.988 de 14 de dezembro de
1993. A partir de 19 de junho de 1998 entra em vigor a lei 9.610 de 19 de fevereiro de 1998, a
nova lei dos direitos autorais.
O direito autoral se caracteriza por dois aspectos:
1. O moral - que garante ao criador o direito de ter seu nome impresso na divulgação de
sua obra eo respeito à integridade desta, além de lhe garantir os direitos de modificá-la,
ou mesmo impedir sua circulação.
2. O patrimonial - que regula as relações jurídicas da utilização econômica das obras
intelectuais.
Idéias - as idéias em si não são protegidas, mas sim suas formas de expressão, de qualquer
modo ou maneira exteriorizadas num suporte material.
66
Valor intrínseco - a qualidade intelectual de uma obra não constitui critério atributivo de
titularidade, isto é, uma dada proteção é uma uma obra ou criação, independentemente de seus
méritos literários, artísticos, científicos ou culturais.
Originalidade - o que se protege não é uma novidade contida na obra, mas tão-somente um
originalidade de sua forma de expressão. Dois autores de química, chegar también por exemplo,
em seus respectivos livros, aos mesmos resultados e conclusões. O texto de cada um deles,
porém, é que está protegido contra eventuais cópias, reproduções ou quaisquer utilizações nãoautorizadas.
Territorialidade - a proteção dos direitos autorais é territorial, independentemente da
nacionalidade original dos titulares, estendendo-se através de tratados e convenções de
reciprocidade internacional. Daí ser recomendável, nos contratos de cessão ou licença de uso,
que se explicitem negociados os territórios.
Prazos - os prazos de proteção diferem de acordo com a obra da categoria, por exemplo, livros,
artes plásticas, obras cinematográficas ou audiovisuais etc
Autorizações - sem uma prévia e expressa autorização do titular, qualquer utilização de sua obra
é ilegal.
Limitações - são dispensáveis as prévias autorizações dos titulares, em determinadas
circunstâncias.
Titularidade - a simples menção de autoria, independentemente de registro, identifica sua
titularidade.
Independência - as diversas formas de utilização da obra intelectual são independentes entre si
(livro, adaptação audiovisual ou outra), recomendando-se, pois, uma expressa menção dos usos
autorizados ou licenciados, nos respectivos contratos.
Suporte físico - a simples aquisição do suporte físico ou exemplar contendo uma obra protegida
não transmite ao adquirente nenhum dos direitos autorais da mesma.
67
A lei 9.610 de 19 de fevereiro de 1998 em vigor, entrou no dia 19 de alterando junho de 1998,
atualizando e consolidando uma legislação sobre os direitos autorais. Informa em suas
disposições preliminares, artigo 1o, que essa lei regula os direitos autorais, entendendo-se sob
esta denominação os direitos de autor e os que lhes são conexos (artistas, intérpretes, produtores
fonográficos, executantes etc.)
Em seu artigo 5o dá uma definição da publicação, transmissão ou emissão, retransmissão,
distribuição, comunicação ao público, reprodução, contratação, obra (co-em-autoria, anônima,
pseudônima, inédita, póstuma, originária, derivada, coletiva, audiovisual), fonograma, editor,
produtor, radiodifusão, artistas intérpretes ou executantes.
Em seu artigo 6o diz que "não serão de domínio da união, dos estados, do distrito federal ou dos
municípios em obras por eles simplesmente subvencionadas". Esse artigo vem esclarecer em
definitivo um problema que vinha gerando muita discussão (22).
A internet e os direitos autorais
A recente explosão da informática está provocando o surgimento de uma nova cultura, com
novos conceitos de comercialização. Um dos problemas básicos em discussão sobre a internet
ainda é definir se ela é uma mídia impressa, como jornais, revistas ou livros. Se fosse, estaria
fora de qualquer controle ou censura. Caso seja do tipo não impressa, estaria submetida aos
regulamentos correspondentes.
Outro fator que complica uma análise da internet é que ela não tem um proprietário definido
autor, um; é livre, qualquer um que tenha o equipamento devido pode acessa-la. A internet seria
muito nova, e coisas novas mais levantam problemas que soluções. "só a experiência e o tempo
é que indicarão os caminhos e seguir uma fornecerão as molduras jurídicas atualizadas pela
nova cultura, no que se refere à proteção justa dos direitos autorais”(22).
Embora a Internet seja um multi-meio dinâmico da comunicação, e siga sendo moldado por
ações em tempo real, e algumas formas de proteção aos direitos autorais que já encontrem
respaldo legal em outros meios, a internet já recebe contribuições legais para a sua regência.
68
Cabe comentarmos alguns dispositivos auxiliares de regulamentação, já disponíveis os quais
irão, da mesma forma como outros conteúdos, sendo dissiminados e fazendo parte do uso e se
cristalizando na cultura dos internautas. Como referência apresentamos a nova lei brasileira de
direitos autorais (lei 9.610 de 19 de fevereiro de 1998), discutindo em particular o tema em
relação à internet.
Creative Commons, está disponível na internet, como informações que ajudam o internauta a
publicar seu trabalho online apresentando conjuntamente à obra, uma coletânea de símbolos
padronizados, para que os outros internautas saibam exatamente o que eles podem e não podem
fazer com a obra manuseada. Quando se escolhe uma obra licenciada, acompanham ferramentas
e tutoriais que permitem adicionar informações de licença para o novo site, ou para um dos
vários serviços gratuitos de hospedagem que tenham incorporado Creative Commons.
Domínio Público
Domínio Público
Software
CC-GNU GPL
CC-GNU LGPL
BSD
Com auxílio das ferramentas de gestão, uma licença creative commons, o autor mantém
seus direitos autorais mas permite que outros internautas copiar e distribuir uma obra,
utilizando os dispositivos de referência para dar-lhe crédito, a obra estará sendo regida nas
condições que o autor especificar.
69
Apresentamos aquí alguns novos conceitos à licença creative commons, preparamos uma
coletânea de informação que poderá ser útil. Ao disponibilizar um trabalho ao qual
queremos certificar como de domínio público, associa-se a este uma das ferramentas de
domínio público.
O importante ressaltar é que todas as obras intelectuais (livros, vídeos, filmes, fotos, obras
de artes plásticas, musica, intérpretes, etc), mesmo quando digitalizadas não perdem sua
proteção, portanto, não pueden ser utilizadas sem autorização prévia.
Apesar de qualquer pessoa que tenha acesso à internet poder inserir nela material e
qualquer outro usuário poder acessa-lo, "os direitos autorais continuam um ter sua
vigência no mundo online, da mesma maneira que no mundo físico. A transformação de
obras intelectuais para bits em nada altera os direitos das obras originalmente fixadas em
suportes físicos"(22).
Cópias e reprodução na internet
O autor tem todo o direito de autorizar a reprodução de sua obra não quiser que
meio, incluindo aí uma internet. O que se questiona é o que o usuário pode fazer
com esse material. É claro que se ele faz uma cópia de determinado material
protegido e estados unidos pretende-la será um necessária autorização do autor.
Qualquer texto, início página ou site que apresentar criatividade e forma
protegido, é original, necessitando de autorização para ser reproduzido.
Sons e imagens
O mesmo princípio que protege uma obra originária também protege os direitos
conexos, portanto, o uso de imagens e sons também depende da autorização do
autor para sua reprodução. O que acontece é que com uma facilidade de
manipulação através de programas é possível modificar uma imagem a tal ponto
que se torna quase impossível afirmar, ou mesmo provar, que tal imagem
pertença mesmo a seu autor.
Registros de obras via internet
A biblioteca do congresso dos estados unidos está testando um sistema chamado
cordas (copyright office eletronics registration, recordation em depósito system)
que permitira aos autores registrarem suas obras em formato digital. Dessa
70
maneira, os livros impressos em geral, discos, fotos e filmes poderão ser
registrados em bits, e não mais em suportes materiais, assegurando assim os
seus direitos.
A grande facilidade de reprodução e distribuição de cópias sem autorização;
uma facilidade de criar "verdadeiras" obras derivadas através da digitalização ea
facilidade de utilização de imagens e textos oferecidos pela internet de forma
ilegal são alguns dos vários modos de como os direitos autorais são burlados .
Assim como a cópia xerográfica é um crime, que continua sendo praticado
abertamente principalmente nas universidades através dos vários centros
acadêmicos, formando-se às vezes verdadeiras fontes de renda, como violações
dos direitos autorais pelos usuários da internet estão se tornando comuns
igualmente, de modo que quase ninguém acredita num controle legal, ainda
mais sem uma legislação própria.
Todas essas violações seriam legais se fosse pedida uma autorização ao titular
dos direitos. Para que isso aconteça é preciso que se criem leis claras e não um
emaranhado trabalhoso de normas que, no fundo, tornarão o licenciamento
muito oneroso. Enquanto isso não ocorre, estamos fadados um conviver com
esse submundo ilegal de violações dos direitos autorais.
A internet está criando um verdadeiro caos à medida que rompe qualquer
barreira, pois torna a proteção aos direitos autorais - que atualmente é territorial
- obsoleta. É preciso, portanto, que se crie um código universal plenamente
funcional. Do contrário, vamos continuar nos perguntando "de quem é a
responsabilidade sobre os direitos autorais na internet?", e não dando nenhuma
solução satisfatória.
Referências bibliográficas
Direitos de autor e internet
Abstract
Ele apresenta a nova lei brasileira sobre direitos autorais (Lei 9.610, 19 de fevereiro
de
1998),
discutindo
esta
questão,
especialmente
em
Plínio Martins Filho
Diretor Editorial da Editora da Universidade de São Paulo e
relação
à
Internet.
71
Professor no curso de Editoração da Escola de Comunicações e Artes da USP
[email protected]
7. ELABORAÇÃO DO SITE UTILIZANDO WORDPRESS.
O WordPress é um aplicativo de desenvolvimento de Sites possiveis de serem configurados
como Blogs. Utilizando WordPress na criação de um Blog para Divulgação Científica:Esta é
uma facilidade que possibilita interação entre os usuários do sistema. Permindo configurar o
sistema de forma à disponibilizar Q&A, uma espécie de dupla-mão na comunicação.
O projeto de divulgação científica terá como tema :
Radiação UV (Ultra-violeta) e Efeitos na Saúde Humana Utilizando WordPress na criação de
um Blog para Divulgação Científica:
A idéia central do projeto é elaborar e construir uma relação de conhecimento interdisciplinar
entre:
-FAP0459 (Computador e Vídeo no Ensino de Física);
-FEP0490(Monografia para Licenciatura em Física);
-FNC0424 (Efeitos Biológicos das Radiações Ionizantes e Não Ionizantes);
-FEP0458 (Produção de Material Didático).
Utilizando WordPress na criação de um Blog para Divulgação Científica:
Como divulgação científica o tema em FEP0490irá abordar a elaboração de um texto científico
com os cuidados da ABNT e a elaboração da documentação pertinente.
O estudo feito na disciplina FNC0424, forneceu o conhecimento específico sobre o tema.
Estas duas disciplinas forneceram os subsídios técnicos para o tema.
Utilizando WordPress na criação de um Blog para Divulgação Científica:
72
O wordpress é uma plataforma semântica de vanguarda para publicação pessoal, com foco na
estética, nos padrões web e na usabilidade. O wordpress é ao mesmo tempo um software livre e
gratuito. Em outras palavras, o wordpress é o que você usa quando você quer trabalhar e não
lutar com seu software de publicação de blogs.
O WordPress é um projeto muito especial para mim. Todo desenvolvedor e colaborador
acrescenta algo único nessa mistura, e juntos nós criamos algo bonito do qual me orgulho de
fazer parte. Milhares de horas foram investidas no WordPress, e nós nos dedicamos para
melhorá-lo todos os dias. Obrigado por você torná-lo parte de seu mundo. – matt mullenweg
Wordpress é um open source pedido de publicação de blogs e pode ser utilizado para
gerenciamento de conteúdo básico. Foi lançado em maio de 2003 por seus co-fundadores matt
mullenweg e mike little como o sucessor de b2/cafelog. Ele é alimentado por php e um sql de
dados backend. Em setembro de 2009, wordpress é usado por 62,8 milhões de websites os e.u. e
202 milhões de sites no mundo inteiro.[1][2]
A última versão, 2.8.6, apareceu em novembro de 2009.
Agora vamos trabalhar em http://uvifusp.wordpress.com/
73
74
História
B2/cafelog, mais conhecido como simplesmente b2 ou cafelog, foi o precursor do wordpress.[4]
b2/cafelog foi estimado ter sido empregados em cerca de 2000 blogs a partir de maio de 2003.
Ele foi escrito em php para uso com mysql por michel valdrighi, que agora é um desenvolvedor
75
de contribuir para wordpress. Apesar de ser o sucessor oficial, outro projeto, b2evolution,
também está em desenvolvimento ativo.
Wordpress apareceu pela primeira vez em 2003 como um esforço conjunto entre matt
mullenweg e mike little para criar um garfo de b2.[5] o nome wordpress foi sugerido por
christine selleck, um amigo de mullenweg.[6]
Em 2004 os termos de licenciamento para os concorrentes Movable Type pacote foram
alterados por Six Apart, E muitos de seus usuários migraram para o wordpress - causando um
crescimento contínuo na popularidade do wordpress.[carece de fontes?] Em outubro de 2009, a 2009
Open Source CMS Market Share relatório chegou à conclusão que o wordpress goza de força
maior marca de qualquer fonte aberta sistemas de gerenciamento de conteúdo. Essa conclusão
foi baseada em uma extensa análise da taxa de adoção de padrões e da força da marca e foi
apoiado por uma pesquisa de usuários.[7]
Wordpress tem um templates sistema, que inclui Widgets que podem ser reorganizados sem
edição PHP ou HTML código, bem como temas que pode ser instalado e ligado entre os dois. O
código PHP e HTML em temas também podem ser editadas para personalizações mais
avançadas. Wordpress link também possui gestão integrada; um motor de busca-friendly, limpo
Permalink estrutura, a capacidade de atribuir aninhados, múltiplas categorias para artigos;
capacidade autor múltiplo e apoio a tagging de mensagens e artigos. Filtros automáticos que
fornecem para a formatação adequada e um estilo de texto em artigos (por exemplo, a conversão
de orçamentos regulares para inglesas) Também estão incluídos. Wordpress também apoia a
Trackback e Pingback normas para a exibição de links para outros sites que tenham se
vinculado a um post ou artigo. Finalmente, o wordpress tem um rico arquitetura de plugin que
permite que usuários e desenvolvedores para estender suas funcionalidades para além das
características que vêm como parte da instalação base.
Vulnerabilidades
Muitos problemas de segurança[16][17] foram descobertas no software, particularmente em 2007 e
2008. De acordo com a Secunia, wordpress em Abril de 2009 tinha 7 avisos de segurança sem
correção (de um total de 32), com uma classificação máxima de "menos crítica"[18].
Blogsecurity mantém uma lista de vulnerabilidades wordpress[19] até a versão 2.3. Secunia
mantém uma lista mais recentemente actualizados[20].
76
Em janeiro de 2007, o perfil de muitos de alta Search engine optimization (SEO) blogs, assim
como muitas low-profile blogs comerciais com adsense, Foram alvo de um ataque com um
exploit wordpress.[21] Uma vulnerabilidade isolada em um site do projeto servidores web
permitiu a um atacante introduzir um código em forma de um Back Door em vários downloads
do wordpress 2.1.1. A versão 2.1.2 corrigiu esta questão; um aviso lançado no tempo
recomendado que todos os usuários atualizem imediatamente.[22]
Em maio de 2007, um estudo revelou que 98% dos blogs wordpress que está sendo executado
foram explorados porque eles estavam correndo desatualizado e sem suporte versões do
software.[23]
Em uma entrevista de Junho de 2007, Stefen Esser, fundador do PHP Security Response Team,
falou crítico da faixa de segurança de wordpress registro, citando problemas com a arquitetura
do aplicativo que tornou desnecessariamente difícil escrever código que está seguro de SQL
injection vulnerabilidades, bem como alguns outros problemas.[24]
[Editar] Multi-blogging
Wordpress suporta um blog por instalação, apesar de múltiplas cópias paralelas podem ser
executado a partir de diferentes diretórios, se configurado para usar as tabelas de banco de
dados separado.
Wordpress Multi-usuário (wordpress MU, ou apenas WPMU) é um fork do wordpress criado
para permitir que os blogs simultânea de existir dentro de uma instalação. Wordpress MU torna
possível que qualquer pessoa com um site para hospedar sua própria comunidade de blogs,
controlar e moderar todos os blogs em um único painel. Wordpress MU acrescenta oito novas
tabelas de dados para cada blog.
Matt Mullenweg anunciou que o wordpress MU seriam fundidas com o wordpress, como parte
de um lançamento futuro.[25]
Lyceum é outra empresa edição do wordpress. Ao contrário do wordpress MU, lojas Liceu
todas as suas informações em um determinado número de tabelas de dados. Comunidades
expressivas que usam o Liceu são teachfor.Us[26] (Teach Para blogs professores América "), e os
blogs bodyblogs Hopkins.
77
Em 2008 Andy Peatling juntou Automattic para continuar seu trabalho em buddypress - Um
plug-in de extensão WPMU que está adicionando recursos ausentes da comunidade para
wordpress[27].
[Editar] Developers
O desenvolvimento do wordpress é liderado por Ryan Boren e Matt Mullenweg. Mullenweg e
Mike Little foram co-fundadores do projecto.
Embora muito desenvolvido pela comunidade, o wordpress é associado com Automattic, Onde
alguns dos principais desenvolvedores do wordpress são funcionários.[28]
Wordpress é também em parte desenvolvido pela comunidade, entre os quais os WP testers, um
grupo de pessoas que se oferecem tempo e esforço para testar cada lançamento. Eles tem acesso
a Nightly Builds, Versões Beta e Release Candidates. Atualizando a essas versões, que podem
encontrar e reportar erros em uma especial list, Ou o projeto de Trac ferramenta.
Ligado 10 de julho 2007, Na sequência de uma discussão no fórum de ideias wordpress[29] e um
post de Mark Ghosh em seu blog Weblog Tools Collection,[30] Matt Mullenweg anunciou que o
diretório do tema oficial do wordpress em http://themes.wordpress.net não seria mais temas de
acolhimento com links patrocinados.[31] Embora este movimento foi criticado por designers e
usuários de temas patrocinados, que foi aplaudido por alguns usuários que consideram o
wordpress temas a serem spam.[32] O diretório do tema oficial wordpress deixou de aceitar
novos temas, incluindo aqueles sem os links patrocinados, logo após o anúncio foi feito.[33]
Ironicamente, o fechamento do site oficial e sua conseqüente falta de up-to-date temas levou
muitas pessoas para baixar temas de sites não oficiais, que inseriu seus próprios links de spam
em todos os temas descarregados a partir deles.[34] [35]
Em
18
de
julho
de
2008,
um
diretório
do
tema
novo,
inaugurado
em
http://wordpress.org/extend/themes/. Ele foi denominado ao longo das mesmas linhas como o
diretório de plug-ins.[36] Qualquer tema que é carregado para ele vai ser investigado, primeiro
por um programa automatizado e em seguida, por um ser humano.
Em 12 de dezembro de 2008, mais de 200 temas foram removidos do diretório wordpress tema
em que não cumpram os requisitos GPL.[37][38] Hoje, o autor menciona são permitidos em cada
tema, mas a política oficial não permite o patrocínio ou links para sites de distribuição de temas
não-compatível com GPL. Como resultado, vários diretórios outro tema se tornaram populares.
78
[Editar] iphone e ipod Touch app
Ligado 11 de julho 2008, Com o lançamento do App Store por Maçã, wordpress lançou o seu
aplicativo nativo para iphone e ipod Touch.[39] O aplicativo wordpress tem algumas das
características que o painel de wordpress Admin tem. Este aplicativo funciona com
wordpress.com e wordpress.org muitos blogs.[carece de fontes?]
Para aqueles de vocês que não vê-los eu vou começar a postar os wordcamp San Francisco 2009
vídeos aqui no blog. Eu fui a wordcamp novamente este ano para filmar os alto-falantes e como
um time grande sempre foi tido por todos.
Este vídeo é primeiro Estado tradicional Matt Mullenweg de apresentação do Word no qual ele
cobriu todas as últimas atualizações de oficiais do wordpress, incluindo um pouco de história, o
estado atual, e até mesmo planos para o futuro. É um "não perca" de vídeo para qualquer um
6 . CONCLUSÃO.
Neste artigo foi descrito o processo de construção de um projeto colaborativo e cooperativo na
elaboração do material didático na disciplina de cálculo diferencial e integral i na graduação.
Priorizou-se o processo de construção multidisciplinar. Nesse enfoque, cada participante traz
informações relevantes para o grupo, contribuindo assim, para uma melhor interação social
entre seus pares e um crescimento individual e coletivo. Nesse processo, são importantes as
habilidades de troca de conhecimento entre os sujeitos, comprometimento, negociação e
entendimento no compartilhamento do problema, além da ajuda mútua em resolvê-lo. Todos são
aprendizes e podem contribuir um com o outro.
O trabalho cooperativo e colaborativo, nesse contexto, representa a construção coletiva e
socializada do conhecimento num processo de interação e interatividade contínuo. A interação e
as trocas não se caracterizam apenas pelos aspectos cognitivos, mas também pelos aspectos
sociais e perceptuais. A percepção que os professores participantes têm uns dos outras
influencia de maneira significativa na interação e isso reflete no contexto de trabalho.
Evidenciou-se nesta experiência, que existe um tempo de propiciar o envolvimento natural, de
emergir intenções e ações coletivas. A partir disso, o processo interativo avança. Os
participantes permitem as intervenções e a aceitação da contribuição do outro sobre a sua
produção.
79
A apropriação dos recursos tecnológicos, as concepções sobre as formas e o conteúdo
didático-pedagógico ocorrem em momentos distintos entre os professores envolvidos. Portanto,
é preciso compreender o tempo e o espaço de cada um, para que, a partir da rede de significados
coletiva, cada um desenvolva seu potencial, reflita sobre sua prática e implemente mudanças
que possam contribuir com o trabalho.
Estar envolvido numa rede de colaboração auxilia e amplia os significados tanto no contexto de
conhecimento quanto no contexto de comunicação. O planejamento e a organização do material
didático proposto para a disciplina cálculo diferencial e integral i, permitiu aos professores
acompanhar, analisar e avaliar todo o processo de produção do material didático e isso refletiu
positivamente na prática docente na modalidade presencial.
Esta experiência abre novas possibilidades para outras propostas, que se inserem nas
abordagens de construção colaborativa e/ou cooperativa e nas constituições de grupos
multidisciplinares. Entretanto, algumas ações podem ser implementadas no desenvolvimento de
projetos similares a partir das sugestões do grupo envolvido: o uso de ferramentas colaborativas
online para a produção textual coletiva que agregue recursos de representações semióticas,
usuais na matemática, como símbolos, figuras, representações gráficas, tabelas, etc; professores
autores e tutores com disponibilização de tempo e interesse para participar desses projetos;
edição do material textual por técnicos a partir das produções colaborativas dos professores
autores; espaços físicos e tecnológicos adequados para os estudos em grupo; ampliação dos
debates entre os envolvidos sobre a modalidade de ead incluindo a produção de material
didático; ações que estimulem todos os integrantes a usar os recursos de comunicação e
informação disponíveis.
A proposta apresentada, desenvolvida e organizada no contexto cooperativo e colaborativo, não
tem esgota o tema. O projeto, em seu estágio de execução como experiência piloto na disciplina,
possibilitou ganhos significativos ao estudante na sua formação acadêmica. As primeiras etapas
de desenvolvimento do mesmo caracterizam-se por avanços no contexto de detectar
dificuldades, buscar e propor ações que refletem na melhoria da aprendizagem dos acadêmicos.
A implantação e validação da mesma pelo grupo de pesquisadores, na modalidade de educação
a distância e no contexto de educação matemática, poderá ampliar esta análise e permitir o
aperfeiçoamento da mesma na busca de proposições que viabilizem com qualidade essa
modalidade de educação.
Neste trabalho constatou que é possível construir de forma cooperativa e colaborativa o material
didático de uma disciplina da graduação na modalidade de ead, no enfoque de melhoria do
processo ensino-aprendizagem da disciplina. O processo de construção do material didático da
80
disciplina de cálculo diferencial e integral i, na modalidade de ead, contribuiu para o
enriquecimento da mesma na graduação, como afirmam os professores e acadêmicos
envolvidos.
As tecnologias modernas de rede, de comunicação e de informação estão transformando a
sociedade. E as nossas escolas? Apresentaremos algumas tecnologias modernas usadas em
ambientes de aprendizagem online e distribuídas.
Veremos um pouco de história de uso de tecnologia no ensino, trataremos de alguns
conceitos para fornecer um embasamento teórico para a prática mas a maior ênfase dada será
em exemplos práticos. Vamos usar e avaliar um conjunto de ferramentas colaborativas em
rede e as suas aplicações no ensino de física
Durante as três ultimas décadas pudemos acompanhar a evolução tecnologia da eletrónica, em
particular a informática, a grande contribuição que ela tem dado em outras áreas da ciência. Na
medicina grandes inovações tornaram-se possível pela agregação de recursos computacionais.
Atualmente na medicina, grande parte do diagnostico de doencas e ate mesmo estimulo para a
cura tem sido possivel com o auxilio de recursos adicionais disponiveis pela fisica nuclear,
engenharia eletrônica, e engenharia da computação.
Dado importante e observável dá-se com o aumento da pratica de diagnostico por imagem que
propicia ao medico ferramenta adicional ao exame clinico, vez outra dispensando a necessidade
de pequenas cirurgias exploratória que colocam o paciente ao risco de infeções, ou também a
processos de recuperação e alterações plásticas. O paciente tem agora possibilidade de realizar
exames com riscos calculados, ainda com redução ou mesmo nenhum desconforto, ausência da
necessidade de recuperação ou cuidados específicos por ter
sido submetido a processo
cirúrgico.
Temos a disposição da medicina diversos
equipamentos que empregam tecnologia
obtenção de imagem, porem cada qual tem
utilização
para
eficiente em casos de exames
específicos, e sua adequada utilização demanda conhecimento das características técnicas do
equipamento no que tange melhor relação entre tipo de equipamento e tipo de exame, também o
81
pessoal de operação (técnicos radiologistas), devem ter conhecimento não sobre o equipamento.
Para cada tipo de tecido encontrado na biologia humana, existe um equipamento que quando
empregado disponibiliza imagens com maior informação útil. Por exemplo para tecido duro
(ossos) geralmente são utilizados equipamentos com a propriedade dos raios-X (filmes
revelados com Raio-X, Tomografia Computadorizada).. Outras considerações são observadas
pelo medico solicitante, avaliada-se qual o tecido que será investigado, tipo de analise que se
pretende fazer dos distúrbios que acometem o paciente. Assim torna-se possivel a escolha do
equipamento e quando necessário a melhor dosagem de irradiação e
aplicabilidade para
obtenção da imagem.
Alem da decisão pelo tipo de equipamento a ser utilizado para o exame, busca-se orientar
também no âmbito da melhor escolha o custo por exame aplicado. Para cada imagem obtida
deve ter em conta o custo de sua produção . Os componentes do custo por imagem obtida
também é tomado em consideração, já que uma solicitação errada leva a uma imagem pobre,
sem informação útil sob o ponto de vista clinico,
podendo ser necessário um novo
procedimento.
Não ha equipamento melhor ou de tecnologia mais avançada, dentre os aqui apresentados.
Todos equipamentos oferecem imagem de boa qualidade de imagem para analise clinica,
desde que corretamente empregado o medico tem em suas mãos poderosa ferramenta de
diagnostico.
Podemos concluir que de todos os equipamentos apresentados não se pode indicar um que
seja mais eficiente do que outro, pois a eficiência na obtenção da imagem depende diretamente
do tipo de tecido que se busca analisar, e as condições de saúde do paciente.
Os métodos de controle das condições de operação e manutenção dos equipamentos em uso
vão muito alem das iniciativas do centro de diagnostico. Notadamente por parte da vigilância
sanitária,
que disponibiliza
e controla a homologação dos centros de diagnósticos. Os
funcionários que atuam nas salas de diagnostico, portam medidores de radiação que são
82
freqüentemente utilizados para a contagem de radiação a qual o funcionário ficou exposto,
permitindo saber se houve de excesso de exposição, caso o funcionário apresente situação de
risco, ele deve ser afastado da região de risco, para ter sua normalidade de dosagem
restabelecida.
Como exposto no capitulo 3 (conceitos de radiação) sabe-se da existência dos efeitos
cumulativos da radiação, uma vez que sua redução e lenta e esta relacionada com o fenômeno
do decaimento. Muito embora exista radiação na grande maioria dos processos de formação de
imagem, o paciente raramente fica exposto a uma quantidade imprópria de radiação.
Atualmente os equipamentos
possuem maior velocidade de ação nos mecanismos de
acionamento e também maior velocidade de processamento dos sinais para formação de
imagem, possibilitando menor tempo de exposição do paciente na fase de varredura.
De posse destes dados pode-se concluir que os equipamentos destinados ao fornecimento de
imagem para auxilio no diagnostico medico, são de notada contribuição ao processo de
restabelecimento da saúde da população, não representam a contra indicação de ameaça a saúde
dos pacientes, nem tampouco representam risco ou danos a integridade fisica dos médicos
radiologistas, para os médicos de equipe de operação e análise dos dados oferecidos. São os
equipamentos de Imagem medicas valioso auxilio na área da medicina publica e popular.
9. BIBLIOGRAFIA.
9.1. LIVROS.
(1) DIB, Cláudio Zaki, Tecnologia da Educação e sua aplicação à aprendizagem de
Física. São Paulo. Pioneira, 1984.
(2) SERWAY, Raymond A. MOSES, Clement J. MOYER, Curt A. Modern Physics,
Belmont, CA USA, Thomson, 2005.
(3) SERWAY, Raymond A. Principles of Physics, Harrisongburg, VA USA, John
Vondeling, 1993.
(4) TIPLER, Paul A. Física Moderna, 4a. Edição, Vol.3, New York, USA, LTC, 2000.
(5) HALLIDAY D. RESNICK, R. Física 3 .
83
(6) SIENKO Michell J. PLANE Robert A. Química, 7a. Edição, New York, USA
McGraw-Hill, 1976.
(7) EISENBERG RESNICK. Física Quântica. São Paulo, Brasil. Editora Campus,
1974.
(8) OLDENBERG, Otto. HOLLADAY, Wendell G. Introdução à Física Atômica e
Nuclear, São Paulo, Brasil. Editora Edgard Blucher, 1971.
(9) OKUNO, Emico. CALDAS, Luiz I. CHOW, Cecil. Física Ciências Biológicas e
Biomédicas. São Paulo, Brasil. Editora Harbra. 1982.
(10) OKUNO, Emico. Radiações Efeitos, Riscos e Benefícios. São Paulo, Brasil. Editora
Harbra. 1998.
(11) OKUNO, Emico. VILELA, Maria A. C. Radiações Ultravioleta: Características e
Efeitos. São Paulo, Brasil. Editora SBF. 2005.
(12) VIGOTSKY, L. S. A formação social da mente. São Paulo: Martins Fontes. 1994
(13) GEROSA, Marco Aurélio, FUKS, Hugo e LUCENA, Carlos José Pereira.
Tecnologias de informação aplicadas à educação: construindo uma rede de
aprendizagem usando o ambiente AulaNet. In: UFRGS. Informática na Educação:
Teoria & Prática, Porto Alegre, v.4, n.2, p. 63-73, dez.2001.
(14) Gandelman, H. De gutenberg à internet: direitos autorais na era digital.
Rio de janeiro, Record, 1997. P.36-7.
9.2. SITES DA INTERNET.
(14) www.soaresoliveira.br/chrisrios (20/04/2009)
(15) www.fisica.net/denis/rad2.htm (18/05/2009)
(16) www.cis.rit.edu/htbooks/mri/inside.htm (15/05/2009)
(17) http://wordpress.org/extend/themes/. (12/10/2009)
(18) http://www.dou.gov.br/materias/do1/do1legleg19980220180939_001.htm (12/10/2009)
(19) http://www.atomicarchive.com/ (06/11/2009)
(20) http://www.time.com/time/time100/scientist/profile/fermi.html (06/11/2009)
(21) http://www.dannen.com/szilard.html (06/11/2009)
(22) http://www.aquifolium.com.br/educacional/gazetarj/ (06/11/2009)
(23) http://astro.if.ufrgs.br/estrelas/node10.htm (10/11/2009)
(24) http://www.unb.br/ib/ecl/eaprobio (10/11/2009)
(25) http://hyperphysics.phy-astr.gsu.edu/ (10/11/2009)
(26) http://www.dermatologia.net/neo/base/dados.htm (21/11/2009)
84
(27) http://www.anvisa.gov.br/DIVULGA/NOTICIAS/2009/111109.htm (21/11/2009)
(28) http://www.creativecommons.org (22/11/2009).
(15) http://www.dou.gov.br/materias/do1/do1legleg19980220180939_001.htm
(22/11/2009)
Brasil. Lei no. 9.610, de 19 de fevereiro de 1998. Altera, atualiza e consolida uma
legislação sobre direitos autorais e dá outras providências. Diário oficial [da
república federativa do brasil], brasília [online], 20 fev. 1998.
9.3. RECOMENDAÇÕES.
(NCRP) NCRP Report Number 91: Recommendations on Limits for Exposure to
Ionizing Radiation. Bethesda, Maryland: NCRP Publications, 1987.
National Council on Radiation Protection and Measurements.
(NCRP) NCRP Report Number 93: Ionizing Radiation Exposure to the Population for
the United States. Bethesda, Maryland: NCRP Publications, 1987.
National Council on Radiation Protection and Measurements.
(NCRP) NCRP Report Number 94: Exposure of the Population in the United States
and Canada from Natural Background Radiation. Bethesda, Maryland: NCRP
Publications, 1987.
National Council on Radiation Protection and Measurements.
(NCRP) NCRP Report Number 105: Radiation Protection for Medical and Allied
Health Personnel. Bethesda, Maryland: NCRP Publications, 1989
National Council on Radiation Protection and Measurements.
Download