dissertacao.

Propaganda
UNIVERSIDADE FEDERAL DO ABC
CENTRO DE MATEMÁTICA, COMPUTAÇÃO E COGNIÇÃO
PROGRAMA DE PÓS-GRADUAÇÃO EM NEUROCIÊNCIA E
COGNIÇÃO
Ronaldo Valter Nunes
INFERÊNCIA DA CONECTIVIDADE EM
MODELOS DE REDES NEURAIS
BIOLOGICAMENTE PLAUSÍVEIS
São Bernardo do Campo, 2016
Ronaldo Valter Nunes
INFERÊNCIA DA CONECTIVIDADE EM
MODELOS DE REDES NEURAIS
BIOLOGICAMENTE PLAUSÍVEIS
Dissertação de mestrado apresentada ao Programa de
Pós-Graduação em Neurociência e Cognição da
Universidade Federal do ABC como requisito parcial para à
obtenção do título de Mestre em Neurociência e Cognição.
Orientador: Prof. Dr. Raphael Yokoingawa de Camargo
Coorientador: Prof. Dr. Marcelo Bussotti Reyes
São Bernardo do Campo, 2016
Sistema de Bibliotecas da Universidade Federal do ABC
Elaborada pelo Sistema de Geração de Ficha Catalográfica da UFABC
com os dados fornecidos pelo(a) autor(a).
Nunes, Ronaldo Valter
Inferência da Conectividade em Modelos de Redes Neurais
Biologicamente Plausíveis / Ronaldo Valter Nunes. — 2016.
118 fls. : il.
Orientador: Raphael Yokoingawa de Camargo
Coorientador: Marcelo Bussotti Reyes
Dissertação (Mestrado) — Universidade Federal do ABC, Programa de Pós
Graduação em Neurociência e Cognição, São Bernardo do Campo, 2016.
1. Conectividade. I. Camargo, Raphael Yokoingawa de. II. Reyes,
Marcelo Bussotti. III. Programa de Pós-Graduação em Neurociência e
Cognição, 2016. IV. Título.
Este exemplar foi revisado e alterado em relação à versão original,
de acordo com as observações levantadas pela banca no dia da
defesa, sob responsabilidade única do autor e com a anuência de
seu orientador.
São Bernardo do Campo, ____de _______________ de 20___.
Assinatura do autor: _____________________________________
Assinatura do orientador: _________________________________
F O L H A D E A S S I N AT U R A S
iv
RESUMO
Sabe-se que o comportamento, a percepção e a cognição estão relacionados à atividade
conjunta de uma ou mais regiões cerebrais. Sendo assim, é interessante verificar como
as regiões cerebrais interagem e como acontece a transferência de informação entre elas.
Nesse trabalho avaliamos a efetividade da coerência parcial direcionada e da coerência parcial direcionada generalizada na inferência da conectividade efetiva entre redes
neurais simuladas. As redes neurais foram utilizadas para simular regiões cerebrais.
A atividade elétrica dos neurônios que compõem as redes neurais foi descrita pelo modelo matemático de Izhikevich. Através da variação dos parâmetros responsáveis pelo
comportamento dinâmico dos neurônios das redes, simulamos diferentes sinais de LFP
(local field potential). Os métodos de conectividade foram aplicados sobre esses sinais de
LFP simulados afim de recuperar, para cada um dos modelos estudados, a conectividade previamente estabelecida entre as diferentes redes neurais. Avaliamos também o
comportamento da causalidade de Granger, da coerência parcial direcionada, da correlação de Spearman e da coerência espectral de acordo com o aumento no peso sináptico
das conexões entre os neurônios de diferentes redes. Os resultados desse trabalho nos
fornece informações sobre aplicabilidade desses métodos de conectividade em dados
com características similares a dados eletrofisiológicos.
Palavras-chave: Causalidade de Granger, Conectividade, Coerência Parcial Direcionada, Modelagem Matemática.
v
ABSTRACT
It is known that behavior, perception and cognition are the result of the combined
activity of multiple brain regions. This way, it is interesting to understand how the
brain regions interact and how information transfer occurs. In this work we verified
the efficacy of partial directed coherence and generalized partial directed coherence
to infer the effective connectivity between simulated neuronal networks. Neuronal
networks was used to simulate brain regions. The electrical activity of neurons that
belong to networks was described by Izhikevich mathematical model. Through the variation of parameters responsible for the dynamical behavior of neurons we simulated
different LFP signals. The connectivity methods were applied to simulated LFP signals
to recovery the previously established connections. We analysed the values obtained
by Granger causality, partial directed coherence, Spearman correlation and spectral
coherence according to increasing synaptic strengths of connections among different
networks. These results provide information about to what extent the methods might
be applied to the analysis of actual electrophysiological data.
Keywords: Granger Causality, Connectivity, Partial Directed Coherence, Mathematical Modeling
vi
ÍNDICE
1
2
introdução
1.1
Conectividade no cérebro
1.2
Coerência Parcial Direcionada
1.3
Trabalhos Computacionais Relacionados
1.4
Objetivos
1.5
Estrutura da Dissertação
métodos
1
9
18
20
Séries Temporais
2.2
Série temporal estacionária
2.3
Representação Autorregressiva
2.4
Análise Espectral
2.5
8
18
2.1
2.4.1
3
1
20
21
22
25
Coerência Espectral
Causalidade de Granger
26
28
2.5.1
Causalidade de Granger Parcial
2.5.2
Ordem do Modelo
2.5.3
Significância Estatística
31
33
34
2.6
Medidas de causalidade no domínio das frequências
2.7
Implementação Computacional
modelo
41
44
3.1
Tipos de Modelos
3.2
Modelo Integra e Dispara
3.3
Modelo de Izhikevich
3.4
Sinapses
44
45
47
53
vii
34
ÍNDICE
4
5
viii
3.5
Delay
3.6
Redes de Neurônios
3.7
Implementação Computacional
55
56
58
experimentos computacionais e resultados
65
4.1
Redes Estudadas
4.2
Relação entre a conectividade e o aumento do peso sináptico
69
4.3
Coerência parcial direcionada aplicada a redes de neurônios
76
65
4.3.1
Modelo 1
77
4.3.2
Modelo 2
80
4.3.3
Modelo 3
81
4.3.4
Modelo 4
83
4.3.5
Modelo 5
86
4.3.6
Modelo 6
86
conclusão
96
Referência Bibliográfica
99
1
INTRODUÇÃO
Um dos maiores desafios da neurociência é identificar como as regiões cerebrais estão relacionadas a determinadas funções perceptivas, cognitivas e comportamentais.
Estudos mostram que existem casos em que não temos apenas uma região cerebral
relacionada a uma determinada função, mas o que acontece, é que as regiões cerebrais
comunicam-se através das sinapses dos neurônios que as compõem, fazendo com que
a atividade conjunta dessas regiões cerebrais sejam responsáveis pelo funcionamento
de algumas funções essenciais para os seres vivos [1]. Sabendo disso, é de grande
interesse da comunidade científica, saber quais são essas regiões cerebrais, por quais
funções elas são responsáveis e como acontece a transferência de informação entre elas.
1.1 conectividade no cérebro
Ao longo dos anos houve um avanço nos métodos de avaliação da conectividade entre
as regiões cerebrais. Alguns métodos são baseados na análise anatômica das regiões,
como por exemplo no caso da identificação da conectividade sináptica através da aplicação de traçadores em uma região alvo e a observação dos padrões de transporte dos
traçadores no cerébro. Esse método pode identificar até mesmo a conectividade entre
sinapses individuais, porém, devido à invasividade desse método, ele é inadequado
para a utilização em humanos, e através dele é possível investigar apenas um número
limitado de regiões cerebrais [2] . Alguns estudos da conectividade cerebral em humanos foram feitos através de análises ex vivo utilizando dissecção [3]. Apesar de alguns
1
CAPÍTULO 1. introdução
2
resultados interessantes terem sido obtidos através desses métodos, essas análises são
limitadas em relação especificidade e a reprodutibilidade [4].
O avanço tecnológico em neurociência que ocasionou na possibilidade de registros
eletrofisiológicos da atividade das regiões cerebrais e, até mesmo da atividade de
neurônios isolados, fez com que se iniciasse a aplicação de métodos estatísticos na
análise desses dados. Um dos métodos mais populares, não só por ser um dos mais
antigos, mas também por ser fácil de compreendê-lo, é a correlação.
A correlação é a medida normalizada da dependência linear entre duas variáveis
aleatórias. Através dessa medida é possível obter informações sobre a arquitetura funcional das redes neuronais. Análises da correlação tem sido utilizadas para inferir a
conectividade na retina [5], entre o tálamo visual e o córtex [6], e entre neurônios no
córtex [7]. Os resultados relacionados à conectividade são geralmente analisados através da verificação da sincronização da atividade entre as diferentes regiões cerebrais.
Além disso, a correlação pode ser utilizada para outras análises em neurociência que
não envolvem diretamente o estudo da conectividade entre regiões cerebrais ou neurônios. Podemos utilizar a correlação para verificar a similaridade entre a resposta dos
neurônios a um conjunto de estímulos, ou podemos quantificar como são as flutuações
trial a trial na atividade de um par de neurônios quando apresentados a um mesmo estímulo sobre as mesmas condições comportamentais [8]. Devido ao fato de que sinais
neuronais tais como eletroencefalograma (EEG) são na maioria das vezes interpretados
fisiologicamente em termos dos rítmos cerebrais (alfa, beta, gama e teta), uma das medidas muito utilizadas em neurociência para a avaliação da relação ente sinais neurais
advindos de diferentes regiões ou neurônios, é a coerência espectral, que é a medida
análoga da correlação no domínio das frequências.
Através da coerência espectral é possível verificar como duas séries temporais estão
relacionadas e em quais frequências do espectro essas relações são mais evidentes. Na
maioria dos estudos envolvendo oscilações, a coerência espectral é utilizada como ferramenta de análise da sincronização entre a atividade de diferentes séries temporais.
Em estudos de conectividade funcional, onde é avaliada a correlação temporal entre
eventos neurofisiológicos espacialmente remotos, a coerência espectral é a principal
CAPÍTULO 1. introdução
3
medida utilizada. Estudos envolvendo a coerência espectral foram utilizados para medir a conectividade entre regiões cerebrais através de dados de ressonância magnética
funcional [9]. Guevara et al. compararam a utilização da correlação e da coerência para
a avaliação de dados de eletroencefalografia [10]. Apesar da correlação e da coerência,
e de outras medidas derivadas dessas duas serem extensamente utilizadas em neurociência, elas têm algumas limitações quando aplicadas ao estudo da conectividade do
cérebro. Através dessas medidas não é possível verificar se de fato existe uma conexão entre as regiões cerebrais, isso porque, a atividade elétrica de duas regiões podem
estar correlacionadas mesmo se as regiões estiverem anatomicamente desconectadas.
Nesse caso, a correlação encontrada entre os sinais pode ser devido a atividade de
uma terceira região que se comunica com as duas regiões nas quais as medidas foram
feitas. Além disso podem ocorrer casos em que uma região intermedeia a comunicação
entre duas regiões cerebrais. Devido a esses casos dividimos a natureza das conexões
entre conexões diretas e indiretas. Nas conexões diretas a comunicação entre as regiões cerebrais ocorre sem a intervenção de uma outra estrutura intermediária. Nas
conexões indiretas existem estruturas intermediárias ligadas às regiões de interesse. A
direcionalidade das conexões também é um tema de grande interesse dos pesquisadores que investigam conectividade. Essa direcionalidade também não é possível de
ser verificada através das medidas de conectividade funcional (correlação e coerência),
devido a isso passou-se a investigar novos métodos estatísticos que sejam capazes de
investigar as relações de causa e efeito em séries temporais.
Uma das principais medidas de conectividade que permite a análise da direção das
conexões é a causalidade de Granger. A causalidade de Granger baseia-se na premissa
de que a uma série temporal Xt causa uma outra série Yt se o conhecimento dos valores
passados de Xt ajudam a predizer os valores de Yt , além do que é possível apenas com
os valores de passados de Yt [11] . Uma das principais propriedades da causalidade
de Granger é que ela é direcional, ou seja, o fato da série Xt causar a série Yt , não
implica em Yt causar Xt . Esta é a pincipal diferença entre a causalidade de Granger
e a correlação, que é simétrica e não nos dá informações sobre a direcionalidade das
conexões. Vários trabalhos onde são feitos estudos da conectividade entre regiões
CAPÍTULO 1. introdução
4
cerebrais através da avaliação de séries temporais no domínio temporal, utilizam a
causalidade de Granger como medida de conectividade. Coben et al. usaram dados
de eletroencefalografia (EEG) para verificar a conectividade entre regiões cerebrais em
eventos ictais [12], e investigaram também a conectividade em desordens do espectro
autista [13] . Miao et al. estudaram a alteração na conectividade dos hubs da rede
de modo padrão em casos de doença de Alzheimer através da avaliação de dados
de ressonância magnética funcional [14]. A causalidade de Granger também pode
ser utilizada para o estudo da conectividade em dados de potencial de campo local
(LFP). Cadotte et al. estudaram a intensidade e a direção das conexões do CA1 com
o giro dentado através de dados de LFP em episódios de epilepsia [15]. Apesar da
causalidade de Granger fornecer informações sobre a direcionalidade das conexões
entre as regiões cerebrais, não é possível verificar, através da abordagem mais simples
da causalidade de Granger [11], se as conexões são diretas ou indiretas. Para solucionar
esse problema, introduziram-se os conceitos de causalidade de Granger condicional,
não-condicional [16] e parcial [17].
Na causalidade de Granger não-condicional as séries temporais consideradas na
análise são apenas aquelas relativas as regiões entre as quais queremos verificar a
conectividade. No entanto, existem casos em que uma terceira região está conectada
a duas regiões cerebrais desconectadas, ocasionando em uma causalidade espúria medida pela causalidade de Granger não-condicional. Devido a isso foi criado o conceito
de causalidade de Granger condicional [16] onde consideramos as possíveis influências
comuns entre as séries temporais. Para isso incluímos nos modelos autorregressivos
informações sobre os valores passados das outras séries temporais que podem estar
influênciando as séries temporais em que queremos verificar a relação de causalidade.
Nesse caso, uma série temporal causa uma segunda série temporal, se o passado dessa
segunda série temporal melhora a predição dos valores da primeira série, além do que
é possível com a inclusão dos valores passados de todas as outras séries temporais que
foram medidas. É importante ressaltar que para aplicarmos a causalidade de Granger condicional, devemos ter as séries temporais das regiões que acreditamos estarem
influenciando duas ou mais regiões em comum.
CAPÍTULO 1. introdução
5
Existem casos em que as regiões entre as quais queremos verificar a relação de conectividade podem estar sendo influenciadas por outras regiões desconhecidas o cujas
séries temporais não foram registradas. Devido a isso, Guo et al. baseados nos conceitos de causalidade de Granger e correlação parcial, introduziram a idéia de causalidade de Granger parcial [17]. Na causalidade de Granger parcial as séries temporais
exógenas (desconhecidas) e latentes (não registradas) são representadas nos modelos
autorregressivos através vetores de valores aleatórios que são comuns entre os diferentes modelos autorregressivos porém com coeficientes diferentes que representam a
influência desses valores sobre as séries temporais. Apesar da causalidade de Granger
parcial ter sido usada em alguns trabalhos relacionados à conectividade entre regiões
cerebrais [18, 19], foi verificado por Roelstraete e Rossel que podem ter sido feitas algumas considerações equivocadas no trabalho original que introduz essa medida [20].
Os pesquisadores compararam a causalidade de Granger parcial com a causalidade
condicional para os casos em que existem variáveis latentes e exógenas nos modelos
considerados. Foi verificado que a causalidade de Granger parcial nem sempre detecta
mais conexões e menos falsos positivos do que a causalidade de Granger condicional,
no entanto, a causalidade de Granger parcial é melhor do que a condicional conforme
aumentamos o número de variáveis latentes ou exógenas, mas somente quando foi
utilizada inferência não paramétrica.
Além de novas abordagens para a causalidade de Granger, como mostrado anteriormente, foi estudado a relação da causalidade de Granger com outras medidas de
conectividade [21, 22]. Barnett, Bossomaier e Seth estudaram a relação entre a causalidade de Granger e a entropia de transferência, que é uma medida não paramétrica da
transferência de informação direcionada entre séries temporais [23]. Barnett et al. verificaram que a causalidade de Granger é equivalente a entropia de transferência quando
as séries temporais seguem uma distribuição normal [24]. Mais tarde foi verificado que
essa equivalência pode ser expandida para outras distribuições, como por exemplo a
distribuição exponencial de Weinman e a distribuição log-normal [25].
A causalidade de Granger é uma das medidas de conectividade mais populares utilizada em neurociência. Ela permite observar a direcionalidade das conexões e devido
CAPÍTULO 1. introdução
6
a isso vários pacotes para linguagens de programação permitem o cálculo dessa medida. A toolbox GCCA (Granger Causal Connectivity Analysis) permite o cálculo de várias
medidas relacionadas à causalidade de Granger aplicadas a séries temporais, como a
causalidade de Granger condicional, a causalidade de Granger parcial, a densidade e o
fluxo causal [26]. Em 2014 os mesmos criadores da toolbox GCCA, divulgaram a toolbox
MVGC (Multivariate Granger Causality Toolbox) que é uma atualização da toolbox GCCA,
com algumas adaptações nas rotinas a fim de melhorar a performance do pacote, como
por exemplo ajustando a rotina para o cálculo da regressão de forma que evite separar
o cálculo da regressão completa da regressão reduzida [16]. Algumas funcionalidades da toolbox GCCA foram retiradas na MVGC, uma delas é a função para o cálculo
da causalidade de Granger parcial. Essas duas toolboxes foram desenvolvidas para serem utilizadas na linguagem de programação MATLAB [27]. Outras toolboxes também
foram desenvolvidas para o anaálise da conectividade em linguagem MATLAB como
por exemplo HERMES [28], FieldTrip [29], BSMART [30] entre outras. Existem também
bibliotecas em Python [31] e R [32] para o cálculo da causalidade de Granger.
Apesar da causalidade de Granger ser uma medida robusta da conectividade entre regiões cerebrais, ela nos permite apenas verificar as relações causais no domínio
temporal. Assim como para o caso da coerência espectral, houve um interesse dos
pesquisadores em investigar possíveis aplicações da causalidade de Granger no domínio das frequências, a fim de verificar em quais frequências das séries temporais
advindas das regiões cerebrais, uma região está exercendo influência sobre a outra.
Vários métodos foram propostos a fim de investigar as relações causais no domínio
das frequências, alguns deles são, a causalidade de Granger espectral [16], a coerência
direcionada (DC) [33] a função de transferência direcionada (DTF) [34] e a coerência
parcial direcionada (PDC) [35].
Um dos primeiros métodos propostos com o intuito de investigar as relações causais
no domínio espectral foi a causalidade de Granger espectral proposta por Geweke [36].
Nessa abordagem é aplicada uma transformada de Fourier sobre os coeficientes dos
modelos autorregressivos e com os valores dos coeficientes no domínio espectral são
criadas uma matriz de transferência e uma matriz espectral. A partir dos valores dessas
CAPÍTULO 1. introdução
7
matrizes é feito o cálculo da relação de causalidade entre os sinais que estão sendo analisados. Apesar desse medida ter sido usada em alguns trabalhos onde são avaliados
a conectividade entre os sinais eletrofisiológicos [37, 38], não foi proposto por Geweke
em seu artigo original uma avaliação clara da significância estatística dessa medida.
Alguns pesquisadores, como Chen [39], propuseram melhorias para a causalidade de
Granger espectral.
Saito e Harashima [33] introduziram uma medida de conetividade chamada de coerência direcionada (DC). A coerência direcionada foi formulada no conceito do modelo
autorregressivo, baseado na consideração de que os sinais em estudo são gerados por
um modelo bidirecional. Uma fonte de ruído comum é adicionada ao modelo autorregressivo, a fim de levar em conta possíveis fontes externas influenciando os sinais
de interesse. Esta fonte de ruído comum pode ser utilizada também para modelar
o acoplamento, com delay zero, entre os sinais. A direção da coerência direcionada
é determinada pela relação temporal dos sinais. De forma geral, a coerência direcionada mede a sincronização entre dois sinais, Xt e Yt , em determinada frequência e em
determinada direção, e descreve a sincronização entre Xt e Yt como a coerência para
Xt temporalmente conduzir Yt e Yt conduzir Xt , respectivamente [40]. A coerência direcionada foi utilizada para verificar as relações entre as séries temporais obtidas por
eletromiografia em pacientes com doença de Parkinson [41]. O principal problema com
a coerência direcionada é que ela é definida apenas para pares de canais de forma que
permite a análise de apenas duas séries temporais. Generalizações para mais séries
temporais foram feitas por Kaminski e Blinowska [34], e por Baccalá e Sameshima [35].
Uma outra medida criada para a verificação da conectividade no domínio das frequências foi a função de transferência direcionada (DTF). A principal vantagem desse método sobre a coerência direcionada é que a função de trasferência direcionada pode
ser aplicada em análises com um número arbitrário de séries temporais. Porém um
dos problemas na utilização dessa medida ocorre quando queremos verificar apenas
conexões diretas. A função de transferência direcionada registra não apenas os fluxos
diretos mas também os fluxos indiretos, de forma que não podemos distinguir esses
CAPÍTULO 1. introdução
8
casos através dessa medida. No entanto, a função de transferência direcionada foi
utilizada em diversos estudos relacionados à conectividade [34, 42].
1.2 coerência parcial direcionada
Em 2001 Baccalá e Sameshima [35] propuseram a coerência parcial direcionada (PDC).
Essa medida de conectividade no domínio das frequências, ao contrário da função
de transferência direcionada, permite a verificação das conexões diretas. A coerência parcial direcionada π ij ( f ) é uma medida normalizada que representa o peso do
acoplamento relativo, na frequência f , da interação de um dado sinal de uma estrutura fonte j com o sinal de uma estrutura i em comparação com todas as interações
do sinal da estrutura j com os sinais relacionados as outras estruturas. A coerência
parcial direcionada classifica o peso da interação com respeito a um dado sinal fonte.
Diferentemente da abordagem da causalidade de Granger, na coerência parcial direcionada não são comparados os erros de predição entre os modelos. Nesse método de
conectividade são estimados os modelos autorregressivos para todos os canais e são
verificados os coeficientes que conectam os sinais dos diferentes canais. Se os coeficientes são próximos a zero, dizemos que não há influência de uma série temporal sobre
a outra. A coerência parcial direcionada apresenta bons resultados quando aplicada
a séries temporais não-lineares, no entanto, é preciso utilizar um modelo com ordem
alta [40]. Desde a publicação do artigo de Baccalá e Sameshima em 2001, muitos estudos em neurociência foram feitos através da utilização dessa medida de conectividade.
Petti et al. investigaram os efeitos da variabilidade entre tentativas na estimação da
conectividade cortical através da coerência parcial direcionada [43]. Wang et al. estudaram a detecção de episódios de epilepsia baseado na análise da coerência parcial
direcionada [44]. Foram criadas outras medidas de conectividade baseadas na coerência parcial direcionada (PDC), são elas: a coerência parcial direcionada generalizada
(GPDC) [45], a coerência parcial direcionada informacional (iPDC) [46], a coerência
CAPÍTULO 1. introdução
9
parcial direcionada extendida (ePDC) [47], a coerência parcial direcionada defasada
(lPDC) [40] e a coerência parcial direcionada defasada e normalizada (nPDC) [48].
1.3 trabalhos computacionais relacionados
Apesar de terem sido feitas várias aplicações dos métodos de conectividade em sinais
neurais de vários tipos, como eletroencefalograma (EEG) e potencial de campo local
(LFP), ainda são poucos os trabalhos na literatura científica que estão relacionados à
aplicação desses métodos em sinais obtidos através de modelos computacionais de redes neurais. A aplicação dos métodos de conectividade sobre dados obtidos através
de modelos computacionais permite que possamos investigar se as conexões inferidas
através dos métodos de conectividade correspondem exatamente às conexões presentes nas redes modeladas computacionalmente. A vantagem desse tipo de estudo é
que, conhecendo previamente as conexões presentes no sistema, podemos validar os
resultados obtidos através dos métodos de conectividade. Os dados gerados através
da modelagem computacional de redes neuronais não são necessariamente lineares,
estacionários e criados por um modelo autorregressivo, dessa forma podemos avaliar
a robustez dos métodos quando aplicados a dados mais próximos de dados reais em
neurociências. Além disso, podemos verificar através da utilização de modelos computacionais, se os valores obtidos para as medidas de conectividade correspondem à
intensidade do acoplamento entre as redes neurais.
Dentre os poucos trabalhos que fazem esse tipo de avaliação, temos um estudo efetuado por David et al. [49]. Nesse trabalho, os pesquisadores avaliaram as diferentes
medidas de conectividade funcional usando um modelo de massa neural [50]. Esse
modelo descreve a atividade média com um número pequeno de variáveis de estado.
As variáveis de estado representam o comportamento de milhões de neurônios que
interagem entre si. Através dos modelos de massa neural é possível simular sinais
de MEG (magnetoencefalografia) e EEG (eletroencefalografia) e as dependências, de-
CAPÍTULO 1. introdução
10
vido ao acoplamento neuronal, entre os sinais medidos. David, Cosmelli e Friston
aplicaram, nos dados de MEG e EEG simulados, as seguintes medidas: correlação cruzada [51], informação mútua [52], sincronização generalizada [53] e sincronização de
fase [54]. Os resultados obtidos pelos pesquisadores mostraram que os métodos aplicados podem detectar dependências entre os sinais, porém, com diferentes perfis de
sensibilidade. Essa sensibilidade é uma avaliação em termos da capacidade de cada
medida para detectar dependências estatísticas entre os índices neurofisiológicos remotos. A sensibilidade depende da especificidade da frequência da interação, ou seja, se
a banda de frequências é estreita ou ampla, e da natureza do acoplamento, ou seja, se
ele é linear ou não-linear. Os pesquisadores verificaram também que para o caso de
banda ampla de frequências o método de sincronização generalizada é o mais sensível. Porém, quando a banda de frequências é estreita, a informação mútua é o método
com maior sensibilidade para verificar acoplamentos em uma frequência específica. As
medidas de sincronização generalizada e sincronização de fase apresentam resultados
interessantes quando aplicadas a acoplamentos não-lineares. Através desse estudo os
pesquisadores mostraram que a escolha da medida de conectividade pode ter efeitos
dramáticos na identificação de redes corticais [49].
Anil Seth publicou em 2008 um trabalho onde é feita a avaliação de redes causais
em sistemas neurais simulados [55]. Neste trabalho as técnicas de análise de séries
temporais baseadas na causalidade de Granger são combinadas com teoria de redes
a fim de caracterizar redes causais [56]. Seth apresenta em seu artigo a distinção entre "redes causais"e "redes estruturais". A rede causal é a rede de interações causais
significantes entre os neurônios, que reflete um aspecto da conectividade funcional
e/ou efetiva. A rede estrutural, por sua vez, representa a conectividade física entre
neurônios ou regiões cerebrais. Seth ilustra a abordagem da rede causal através da
análise de uma simulação simples utilizando um modelo que envolve a coordenação
sensório motora. Neste modelo, algorítmos genéticos são utilizados para especificar
os controladores da rede neural que servem de apoio para comportamentos de fixação
de alvo em um sistema cabeça/olho simulado. As redes causais foram comparadas
com as redes estruturais subjacentes. Foi verificado que as redes causais fornecem
CAPÍTULO 1. introdução
11
uma descrição intuitiva da dinâmica neural que reflete as interações agente-ambiente
durante o comportamento. Foi mostrado também que as redes causais predizem os
efeitos das lesões em redes estruturais. Para mostrar que a análise das redes causais
fornecem ferramentas úteis para a interpretação de dados empíricos foi necessário
utilizar um modelo mais detalhado que incorpora aspectos de neuroanatomia e neurofisiologia. Para isso Seth utilizou um robô do tipo Dispositivo Baseado no Cérebro
(do inglês Brain Based Device) [57]. Este robô incorpora um modelo detalhado do hipocampo de mamíferos. Assim é possível utilizar esse dispositivo para análises que
envolvam aprendizado. A análise das redes causais do dispositivo revelaram caminhos causais envolvendo o hipocampo que medeiam a entrada (input) sensorial e a
saída (output) motora e que mapeiam conexões anatomicas conhecidas. Seth verificou
que esses caminhos são modulados como um resultado do aprendizado. Uma contribuição importante desse trabalho é a introdução do conceito de core causal que refere-se
a um conjunto de interações neuronais que são significantes para uma dada saída (output). Por fim, o pesquisador utilizou redes causais aplicadas à dinâmica neural em
investigações envolvendo consciência [55].
Cadotte et al. estudaram medidas causais da estrutura e da plasticidade em redes
neuronais simuladas e em dados empíricos [58]. Os pesquisadores utilizaram três métodos analíticos baseados na causalidade de Granger para fornecer uma descrição relativamente completa das interações causais em redes neuronais. Essas três abordagens
são: a causalidade de Granger não-condicional, a causalidade de Granger condicional
e a causalidade de Granger direta, que é um método menos conhecido baseado na
combinação entre os valores da causalidade de Granger condicional e não-condicional.
Esse terceiro método foi introduzido a fim de que seja possível relacionar os pesos sinápticos com os valores obtidos para a causalidade de Granger nos casos de conexões
indiretas, ou seja, conexões mediadas por outros neurônios. Cada neurônio no estudo
foi descrito por um modelo de Izhikevich [59]. Primeiramente verificou-se que o peso
das interações diretas entre dois neurônios simulados era refletido no valor da causalidade de Granger. Para obter uma relação matemática entre os valores da causalidade
de Granger e os pesos sinápticos para a conexão entre esses neurônios, os pesquisa-
CAPÍTULO 1. introdução
12
dores fizeram um experimento onde aumentaram sistematicamente o peso sináptico
da conexão entre os dois neurônios simulados e registraram os valores da causalidade
de Granger para essa conexão. Foi verificado que a relação entre o peso sináptico e a
causalidade de Granger segue uma função do tipo sigmoidal, porém, para um determinado intervalo, os valores do peso sináptico estão relacionados linearmente com os
valores da causalidade de Granger. Os pesquisadores verificaram que, quando utilizamos a causalidade de Granger não-condicional ou a condicional para a avaliação das
conexões em redes compostas por mais de 2 neurônios, a relação entre o peso sináptico e a causalidade de Granger falha. Para solucionar esse problema foi aplicada a
causalidade de Granger direta. Após esses estudos utilizando modelos simplificados,
os pesquisadores aplicaram os métodos desenvolvidos para a análise de dados de uma
rede cortical simulada com 100 neurônios conectados de forma aleatória. Por fim, foi
descrito um experimento de plasticidade em uma rede de neurônios corticais in vitro
em que os valores da causalidade de Granger foram diretamente relacionados com os
resultados das taxas de disparos. Os resultados desse experimento mostraram que a
causalidade de Granger pode fornecer uma representação detalhada para a detecção
da plasticidade. Os pesquisadores também apontam as limitações da aplicação da causalidade de Granger na detecção das conexões entre neurônios. A primeira limitação é
que se a taxa de amostragem dos dados é baixa, pode ser difícil detectar influências defasadas. Isso porque os sistemas podem estar interagindo em uma frequência maior do
que a taxa de disparos. Uma outra limitação apresentada esta relacionada ao problema
de detectar influências inibitórias através da causalidade de Granger. Isso acontece
porque as sinapses inibitórias causam uma diminuição da atividade das células-alvo.
Assim, a influência desses neurônios inibitórios sobre as células-alvo resultaria em uma
redução da causalidade medida entre outros neurônios e estas células-alvo [58].
Garofalo et al. utilizaram os métodos baseados na teoria da informação e a correlação cruzada para estimar a conectividade funcional em redes corticais in vitro [60]. Os
métodos baseados na teoria da informação que foram utilizados foram a informação
mútua [52], a entropia de transferência [24] e a entropia conjunta. A informação mútua
nesse caso, é uma medida estatística da dependência entre séries de potenciais de ação
CAPÍTULO 1. introdução
13
dos neurônios registrados por microeletrodos. A entropia de transferência é uma medida que permite estimar relações causais entre séries temporais, levando em conta o
passado de cada série. A entropia conjunta, foi introduzida pela primeira vez em neurociência nesse trabalho. Esse método é linear assim como a correlação cruzada [61],
mas ele é construído através da consideração de intervalos entre disparos cruzados (do
inglês cross inter-spike-interval) [62] que é calculado entre pares de neurônios. Foram
criadas redes de neurônios que imitam o comportamento da atividade eletrofisiológica
da cultura de células corticais. Cada um dos neurônios das redes criadas é descrito por
um modelo de Izhikevich [59]. Primeiramente foi implementada uma rede neuronal
somente com conexões excitatórias e com pesos sinápticos extraídos de uma distribuição normal. Essa rede foi chamada de rede E. Foi contruída também uma rede com
conexões excitatórias e inibitórias e a essa rede foi dado o nome de rede EI. Para contruir essa rede foram considerados dois tipos de neurônios os que apresentam padrões
do tipo Regular Spiking e os que apresentam padrões do tipo Fast Spiking. Para preservar as características das redes corticais in vitro, foi fixada a proporção 4 : 1 entre
neurônios excitatórios e neurônios inibitórios. A rede E é composta por 60 neurônios
excitatórios e a rede EI é composta por 48 neurônios excitatórios e 12 neurônios inibitórios. Os neurônios de ambas as redes foram conectados de forma aleatória, de forma
que cada neurônio fazia um número máximo de conexões. A atividade espontânea da
rede foi obtida através da introdução de um estímulo aleatório que reproduz o efeito
da flutuação no potencial de membrana. Para avaliar a performance dos métodos aplicados foram utilizadas a curva ROC (Receiver Operating Characteristic Curve) [63] e a
curva de precisão positiva (PPC), que foi introduzida nesse trabalho. A curva ROC
nos permite verificar a taxa de falsos positivos para uma dado limiar, já a curva de
precisão positiva é um gráfico onde no eixo x temos a quantidade de elementos analisados, que corresponde ao número de falsos positivos mais o número de verdadeiros
positivos; no eixo y temos a porcentagem de verdadeiros positivos detectados relativos
aos falsos positivos. Foi mostrado que os melhores resultados, para ambas as redes E
e EI, são obtidos através da aplicação da entropia de transferência. Os pesquisadores
mostraram também que a entropia conjunta tem melhores performances com respeito
CAPÍTULO 1. introdução
14
a correlação cruzada quando aplicadas às redes EI. No entanto, a correlação cruzada
tem melhores resultados do que a entropia conjunta quando aplicados às redes do tipo
E. Os resultados obtidos através da informação mútua são os piores quando comparados aos outros métodos estudados. A entropia de transferência, a entropia conjunta e
a correlação cruzada são também bons métodos quando aplicados a dados registrados
de redes corticais in vitro [60].
Assim como no trabalho de Garofalo et al. [60], Ito et al. investigaram a aplicação
da entropia de transferência [24] em redes corticais modeladas através do modelo de
Izhikevich [59]. Nesse trabalho os pesquisadores investigaram os casos em que temos
múltiplos delays entre as interações, isso porque, na maioria dos trabalhos envolvendo
entropia de transferência, é utilizado apenas um valor de delay entre as interações.
No entanto, como apontado pelos pesquisadores, considerar apenas um valor de delay é um problema, visto que os delays entre um potencial de ação e um potencial
pós-sináptico tipicamente estão na faixa de 1 a 20 milissegundos no córtex dos mamíferos [64]. Uma possível abordagem para solucionar esse problema seria utilizar entropia
de transferência de um único delay, porém com uma grande intervalo de tempo (time
bin) de aproximadamente 20 milissegundos, mas essa abordagem poderia sacrificar a
resolução temporal. Um outro problema verificado pelos pesquisadores é que na maioria dos casos, as mensagens entre os neurônios consideradas tem comprimento de um
único bin. Enquanto tais medidas podem capturar informações enviadas entre neurônios na forma de um disparo único, elas poderiam excluir mensagens que abrangem
múltiplos bins de tempo, como para o caso de bursts. Como os bursts podem ser um
tipo de mensagem importante entre os neurônios, é interessante medir a entropia de
transferência para mensagens com mais de um bin. Para resolver esses problemas Ito et
al. introduziram duas extensões da entropia de transferência: a entropia de transferência atrasada (Delayed Transfer Entropy) e a entropia de transferência de ordem mais alta
(Higher-Order Transfer Entropy) ou HOTE. A entropia de transferência atrasada permite
a aplicação da entropia de transferência para o caso de múltiplos delays. A entropia de
transferência de ordem mais alta permite que seja avaliada mensagens com até 5 bins
em mútiplos delays. Para avaliar essas extensões os pesquisadores compararam-nas
CAPÍTULO 1. introdução
15
com a entropia de transferência de um único delay e com a correlação cruzada [61].
Para efetuar uma validação dos métodos, eles foram aplicados na identificação da conectividade efetiva em redes de neurônios simuladas. Cada rede é composta por 1000
neurônios sendo 800 excitatórios e 200 inibitórios e cada neurônio é descrito por um
modelo de Izhikevich [59]. Os pesos sinápticos excitatórios foram evoluídos por uma
plasticidade dependente do tempo do disparo (STDP). Cada neurônio da rede faz 100
sinapses com delay. As conexões do tipo excitatório-excitatório tem delays de 1 a 20
milissegundos. Conexões do tipo inibitória tem delay fixo em 1 milissegundo. Foram
criadas curvas ROC para a verificação da performance dos métodos estudados. Foi verificado que a entropia de transferência de um único delay poderia identificar 36% das
conexões verdadeiras quando avaliada para uma taxa de falsos positivos de 1%. Para
as versões extendidas da entropia de transferência houve uma melhora significativa
na deteccão e o foi possível identificar 73% das conexões verdadeiras. A correlação
cruzada não teve uma performance tão boa quanto a das versões extendidas da entropia de transferência. No entanto, essa medida é útil quando temos dados com poucas
observações [65].
Wu et al. investigaram como detectar a topologia de uma rede de neurônios através
da aplicação da causalidade de Granger [66]. Para isso, os pesquisadores criaram
redes de neurônios onde o comportamento de cada neurônio é descrito pelo modelo
de FitzHugh-Nagumo [67]. A causalidade de Granger [11] foi aplicada nos dados
não-lineares obtidos simultaneamente através das redes neuronais contaminadas com
ruídos. Somente uma variável de estado dos neurônios foi observada. Foi estudada
também a influência do peso sináptico entre os neurônios e da intensidade do ruído
sobre as medidas obtidas através da causalidade de Granger. Foi verificado que para
séries com poucas observações o valor da causalidade de Granger pode ser mais baixo
e em alguns casos algumas conexões podem não ser detectadas. Porém, para o caso de
séries temporais muito longas o número de falsas conexões detectadas pode aumentar.
Os pesquisadores mostraram também que para conexões com pesos sinápticos muito
pequenos, a causalidade de Granger pode não detectar a interação. O aumento na
intensidade do ruído pode fazer com que sejam detectadas falsas conexões [66].
CAPÍTULO 1. introdução
16
Kim et al. investigaram a aplicação da causalidade de Granger em modelos de processos pontuais de um conjunto de neurônios em atividade [68]. A causalidade de
Granger [11] apesar de ser uma técnica amplamente utilizada como método de conectividade em sistemas neurais, não pode ser aplicado diretamente em séries de potencias
de ação devido a natureza discreta desses dados. Muitos métodos foram propostos
para a aplicação da causalidade de Granger em séries de potenciais de ação. A maioria
desses métodos baseia-se na idéia de transformar uma série de dados discretos em dados contínuos através da convolução da série de dados discretos com um kernel ou um
filtro passa-baixa. A entropia de transferência [24] é uma opção nesses casos porém
sua aplicação é restrita a casos bivariados. Kim et al. propuseram uma abordagem
baseada em processos pontuais para avaliar a causalidade de Granger entre múltiplos
neurônios. A atividade de cada neurônio é afetada simultaneamente por múltiplas
covariáveis tais como o próprio histórico de potenciais de ação e a atividade conjunta
concorrente dos outros neurônios. O efeito desses fatores na atividade do neurônio
é caraterizado por uma estrutura estatística baseada na função de verossimilhança do
processo pontual, que relaciona a probabilidade de ocorrer um potencial de ação no
neurônio com as covariáveis. Utilizando a função de verossimilhança, a causalidade
de Granger entre neurônios é estimada baseada na razão entre verossimilhanças. Seguindo essa abordagem, a causalidade de Granger do neurônio j para o neurônio i é
medida baseada na redução relativa da verossimilhança do processo pontual do neurônio i obtida pela exclusão das covariáveis correspondentes ao efeito do neurônio j,
comparada a verossimilhança baseada usando todas as covariáveis. Se a razão entre as
verossimilhança é menor do que 1, dizemos que existe influência causal de j para i, e
se a razão é 1 dizemos que não há influência causal. Essa abordagem proposta foi utilizada para a verificação da conectividade em dados simulados e em dados registrados
do córtex motor primário do gato a fim de verificar as relações causais que ocorrem
entre múltiplos neurônios simultaneamente registrados durante a realização de uma
tarefa motora [68].
Shao et al. estudaram a determinação dos pesos sinápticos através da aplicação da
causalidade de Granger [69]. Dois problemas enfrentados pelos pesquisadores que
CAPÍTULO 1. introdução
17
efetuaram estudos nessa área são que: (1) a causalidade de Granger, na sua forma original, é designida para não apresentar valores negativos, de forma que não é possível
distinguir os efeitos de excitação e inibição entre os neurônios, (2) como relacionar a
causalidade de Granger com os pesos sinápticos. A fim de solucionar esses problemas,
os pesquisadores propuseram um algorítmo computacional sob a consideração do melhor preditor linear para analisar redes neuronais pela estimativa do peso sináptico
entre os neurônios. A idéia da consideração matemática do melhor preditor linear é
que a flutuação na voltagem do neurônio pré-sináptico seria a melhor explicação linear
para a flutuação na voltagem do neurônio pós-sináptico. Usando esta interpretação,
a causalidade de Granger pode ser extendida para a medida de efeitos inibitórios e
excitatórios entre os neurônios, sem necessitar muita complexidade computacional. Os
pesquisadores avaliaram através desses método três tipos de redes simuladas, aquelas com estruturas lineares, quase-lineares e não-lineares. Para ilustrar a aplicação do
método proposto os pesquisadores aplicaram a medida em dados reais de séries de potenciais de ação do córtex cingulado anterior e do estriado. As séries discretas foram
convertidas em dados contínuos através da aplicação de um kernel Gaussiano [70] ou
de um binning [71]. Para a rede com estruturas lineares os dados foram gerados a partir de modelos autorregressivos, para o caso de estruturas quase-lineares foi utilizado
o modelo integra-e-dispara [72] para simular o comportamento dos neurônios da rede e
para o caso não-linear foi utilizado o modelo de Izhikevich [59]. O método proposto
motrou-se ser um método eficiente na detecção de conexões excitatórias e inibitórias.
Para o caso de dados reais o método identificou efeitos excitatórios dentro do córtex
cingulado anterior, efeitos excitatórios do córtex cingulado anterior para o cingulado e
efeitos inibitórios dentro do cingulado. Os pesquisadores encontraram uma relação similar a encontrada por Cadotte et al. [58] para a relação entre a causalidade de Granger
e os pesos sinápticos.
Os trabalhos apresentados, apesar de aplicarem métodos de conectividade em dados
simulados, não utilizam métodos no domínio das frequências. Além disso, eles não
fazem nenhuma suposição para a aplicação de métodos de conectividade para a identificação da conectividade entre redes cerebrais. Sabendo que as oscilações nas redes
CAPÍTULO 1. introdução
18
cerebrais podem ser um mecanismo de comunicação entre elas, seria interessante então, a realização de um estudo em que fosse levado em conta a aplicação de métodos
no domínio das frequências a dados simulados que representem a atividade de redes
neuronais. Dessa forma, poderíamos verificar qual a aplicabilidade desses métodos na
identificação das conexões entre regiões cerebrais.
1.4 objetivos
O objetivo desse trabalho foi investigar a aplicação da coerência parcial direcionada
(PDC) e da coerência parcial direcionada generalizada (GPDC) em dados de potencial
de campo local gerados através de simulações de redes neuronais. Avaliamos diferentes tipos de conectividade entre as redes neuronais cujos sinais de LFP oscilam em
diferentes frequências. Verificamos em quais situações é possível inferir as conexões
entre as redes através dos métodos de conectividade utilizados. Estudamos também
como o aumento no peso sináptico, da conexão entre neurônios de diferentes redes,
influencia os valores obtidos através dos métodos de conectividade efetiva (PDC e causalidade de Granger) e funcional (correlação de Spearman e coerência espectral).
1.5 estrutura da dissertação
No capítulo 2 dessa dissertação partimos do conceito de séries temporais e introduzimos a abordagem matemática dos métodos de conectividade funcional e efetiva mais
utilizados e os que são utilizados nesse trabalho. Além disso, explicitamos como foi
feita a implementação computacional dos métodos de conectividade e dos testes de
significância utilizados nos estudos envolvendo a coerência parcial direcionada.
No capítulo 3 apresentamos o modelo matemático que será utilizado para descrever
o comportamento dos neurônios das redes. Explicamos as vantagens da utilização
CAPÍTULO 1. introdução
19
desse modelo em relação aos outros. Mostramos como foram feitas as implementações
das principais características das redes neurais utilizadas e como foram gerados os
dados de potencial de campo local através dos potenciais de membrana dos neurônios
da rede.
No capítulo 4 são mostrados e discutidos os resultados dos experimentos computacionais feitos através da aplicação da coerência parcial direcionada e da coerência parcial
direcionada generalizada sobre as séries temporais geradas. São mostrados também os
resultados da análise da relação entre os pesos sinápticos e os valores obtidos através
dos métodos de conectividade.
Por fim, no capítulo 5 são feitas as conclusões, as considerações finais e as sugestões
de trabalhos futuros.
2
MÉTODOS
2.1 séries temporais
Uma série temporal é definida como um conjunto de observações quantitativas arranjadas em ordem cronológica [73]. A análise de séries temporais tem ampla aplicação
em astronomia, meteorologia, oceonografia, engenharia e processamento de sinais em
telecomunicações, economia e neurociências.
Uma série temporal é dita contínua quando as observações são feitas continuamente
no tempo. Definindo o conjunto T = {t : t1 < t < t2 } a série temporal será denotada
por { X(t) : t ∈ T }. Uma série temporal é dita discreta quando as observações são feitas em tempos específicos, geralmente equiespaçados. Para simplificar podemos fazer
T = {1, 2, ..., n} [74]. Muitas vezes, uma série temporal discreta é obtida através da
amostragem de uma série temporal contínua em intervalos de tempos iguais, ∆T. Assim, dada uma série contínua podemos amostrá-la, convertendo a série observada no
T
intervalo [0, T], em uma série discreta com N pontos, onde N =
[75]. Em outros
∆T
casos, podemos obter uma série temporal discreta acumulando ou agregando valores
de uma série temporal contínua, em intervalos de tempos iguais. Geralmente, na análise de séries temporais o principal objetivo é construir modelos matemáticos para as
séries. Esses modelos são contruídos de tal forma que os parâmetros dos modelos são
identificados através de características importantes de um processo físico que a série
temporal representa [76]. Para a construção desses modelos existem duas possíveis
abordagens que são amplamente usadas, a análise no domínio temporal e a análise
no domínio das frequências, ou análise espectral. Essas abordagens são distintas, no
entanto, em muitos casos são utilizadas de forma que uma complementa a outra.
20
CAPÍTULO 2. métodos
21
2.2 série temporal estacionária
Nas situações em que pretendemos utilizar modelos para descrever séries temporais, é necessário extrair propriedades gerais de interesse para toda a série temporal.
Desta forma, podemos ter as séries estacionárias ou não-estacionárias, de acordo com
a dependência temporal das propriedades estatísticas da série.
Dado que { X(t) : t ∈ T } é uma série temporal. Então a série é estacionária se o
desenvolvimento temporal da série não depende da origem dos tempos. Ou seja, as
características de X(t − τ) para todo τ , são as mesmas de X(t) [75]. Tecnicamente,
existem duas formas de estacionariedade: fraca (ou de segunda ordem) e forte (ou
estrita).
Seja { X(τ + 1), X(τ + 2), ..., X(τ + n)} uma sequência de n elementos consecutivos de
uma série temporal. Então a série é dita estritamente estacionária se a distribuição de probabilidade conjunta destes elementos não depende de τ, independente do tamanho de
n. Isso significa que qualquer dois segmentos da sequência, do mesmo comprimento,
terão funções de distribuição de probabilidade idênticas [77]. Uma série temporal fracamente estacionária, X, é um processo de variância finita tal que a média e a função de
autocovariância não dependem do tempo. Neste trabalho, ao nos referirmos a séries
estacionárias, será entendido estacionariedade de segunda ordem (ou fraca).
A função de autocovariância, com atraso τ, de uma série temporal X, é definida por
ΓX (t, τ) = Cov(X(t), X(t − τ)), ∀t, τ ∈ Z,
(1)
ΓX (t, τ) = E[(X(t) − µ)(X(t − τ) − µ)],
(2)
ou
onde E[X] = µ é o valor esperado da série temporal X. Em particular ΓX (t, 0) =
Var(X(t)) = σX2 . Se a série é estacionária de segunda ordem, a covariância entre X(t) e
X(t − τ) depende somente de τ, a separação temporal entre as observações, e não de t,
o tempo relativo as observações. Disto, segue que para uma série temporal estacioná-
CAPÍTULO 2. métodos
22
ria de segunda ordem, ΓX (t, τ) e ΓX (t, −τ) são iguais [78]. Assim temos que para uma
série temporal estacionária
ΓX (τ) = ΓX (0, τ) = ΓX (t, τ), ∀t, τ ∈ Z.
(3)
Tipicamente, a função autocovariância de uma série estacionária tende a zero, para
|τ |→ ∞.
A função de autocorrelação de uma série temporal é definida por
ρ X (τ) =
ΓX (τ)
ΓX (0)
(4)
A desigualdade de Cauchy-Schwarz mostra que −1 ≤ ρ(τ) ≤ 1 para todo τ.
2.3 representação autorregressiva
A representação autorregressiva de séries temporais é baseada na idéia de que o valor atual da série, Xt , pode ser explicado como uma função dos valores passados,
Xt−1 , Xt−2 , ..., Xt− p , onde p determina o número de passos no passado necessários
para predizer o valor atual [79]. Um modelo autorregressivo de ordem p, AR(p), é
representado pela seguinte equação de diferenças,
p
Xt =
∑ A k Xt − k + et
(5)
k=1
onde et é uma série de ruído branco gaussiano com média zero e variância σ2 . O ruído
branco não é relacionado com seu passado (nem futuro), podendo ser interpretado
nesse modelo como uma inovação, que não pode ser explicada pelo passado de Xt .
CAPÍTULO 2. métodos
23
Uma forma usual de escrever a equação 5, é utilizando o operador de defasagem,
Lk Xt = Xt−k , assim o modelo AR(p), pode ser escrito como
(1 − A1 L − A2 L2 − ... − A p L p )Xt = et ,
(6)
ou de forma mais concisa como
A(L)Xt = et
(7)
As propriedades de A(L) são importantes na solução da equação 7 para Xt . Assim
podemos definir o operador autorregressivo como
A(L) = 1 − A1 L − A2 L2 − ... − A p L p .
(8)
Para a série ser estacionária, as raízes da equação A(z) = A0 + A1 z + ... + A p z p = 0 devem
estar fora do círculo unitário [77]. Consideremos, por exemplo, o modelo AR(1), dado
por Xt = AXt−1 + et . Iterando inversamente k vezes, nós obtemos
Xt = A k Xt − k +
k −1
∑ A j et − j .
(9)
j=0
Este método sugere que, através da continuação da iteração inversa, e fornecendo
que | A|< 1 e Xt é estacionária, nós podemos representar um AR(1) como um processo
linear dado por
∞
Xt = ∑ A j et − j .
(10)
j=0
O modelo AR(1) definido pela equação 10 é estacionário com média
∞
E(Xt ) = ∑ A j E(et− j ) = 0,
j=0
(11)
CAPÍTULO 2. métodos
24
e função de autocovariância,
"
ΓX (τ) = Cov(Xt , Xt−τ ) = E
∞
∑ A et − j
j
j=0
ΓX (τ) =
!
∞
∑A
!#
k
et − τ − k
(12)
k=0
σ2 Aτ
,
1 − A2
(13)
para τ ≥ 0. Nesse caso a função autocorrelação pode ser escrita como,
ρ X (τ) = Aτ ,
(14)
e ρ X (τ) satisfaz a recursão ρ X (τ) = Aρ X (τ − 1) com τ = 1, 2, ... .
Para um processo autorregressivo, como o da equação 5, a sequência de autocovariâncias é relacionada aos parâmetros do modelo autorregressivo, através das equações
de Yule-Walker [16]:
p
ΓX (τ) = ∑ Al ΓX (τ − l) + δτ0 Σ,
(15)
l=1
onde δτ0 é a função delta de Kronecker e Σ é a covariância dos resíduos (ruído branco).
A representação autorregressiva de séries temporais é muito utilizada em neurociência e suas principais aplicações são nos estudos baseados na avaliação de dados eletrofisiológicos. Bressler et al. utilizaram a modelagem autorregressiva de séries temporais,
aplicada a dados de LFP (local fiel potential), para investigar a organização funcional de
uma rede cortical durante uma atividade de discriminação visual [80]. Huberdeau et
al. propuseram uma forma de análise de dados, baseados no modelo autorregressivo,
que é útil para descrever características de dependência temporal no sinal de LFP [81].
Schlögl em sua tese de doutorado [82] faz um estudo do modelo autorregressivo aplicado a dados de EEG (eletroencefalograma), neste estudo são mostradas aplicações
desse tipo de modelagem em interface cérebro-máquina e no estudo de dados de sono.
CAPÍTULO 2. métodos
25
2.4 análise espectral
Na análise espectral de séries temporais o objetivo principal é estimar quanto da amplitude total da série está distribuída entre as frequências do espectro [83], ou seja, a série
temporal original é decomposta, onde cada componente é relacionada a uma frequência específica. Para decompor a série temporal utilizamos a transformada de Fourier,
que é a somatória do produto entre as observações de uma série temporal discreta, ou
uma função contínua, e ondas senoidais de diferentes frequências. As ondas senoidais
de diferentes frequências são representadas por exponenciais complexas. O resultado
da transformada de Fourier é uma representação tridimensional da série temporal em
que as três dimensões são: frequência, amplitude (potência) e fase [84].
A equação da transformada de Fourier de uma função contínua g(t) na frequência f
é dada por,
F( f ) =
Z ∞
−∞
g(t)e−2πi f t dt.
(16)
Frequentemente em processamento de sinais, utilizamos a definição da transformada
discreta de Fourier. A equação da transformada discreta de Fourier da série temporal
X na frequência f é,
N
cf =
∑ Xk e −
2πi f
N
(k−1)
,
(17)
k=1
onde N refere-se ao número de observações da série temporal X, e c é o coeficiente
de Fourier da série temporal X na frequência f . O resultado em valores complexos
da transformada de Fourier geralmente é difícil de ser interpretado diretamente. A
abordagem mais comum é apresentar o espectro de potência da série temporal, que é
dado por,
S( f ) =
c f c∗f
N
,
(18)
que é o produto do coeficiente de Fourier c f pelo seu conjugado complexo c∗f . O resultado dessa multiplicação é normalizado através da divisão pelo número de observações
N [85].
CAPÍTULO 2. métodos
26
A análise espectral é amplamente utilizada em dados eletrofisiológicos de animais e
humanos. Em neurociência a principal aplicação da análise espectral é na identificação
das frequências de oscilação da atividade neural. Essas oscilações podem ser verificadas, por exemplo, em sinais que registram a atividade elétrica dos neurônios, como os
sinais de EEG (eletroencefalograma) ou LFP (local field potential). Geralmente, em registros da atividade elétrica dos neurônios, são utilizados filtros para eliminar a influência
de flutuações de origem não neural sobre o sinal, como por exemplo, flutuações advindas do movimento dos eletrodos utilizados para o registro do sinal ou interferência
causada pela rede elétrica. Através da decomposição dos sinais da atividade elétrica
neural em frequências, são definidas as bandas de frequência, ou ritmos cerebrais, que
são eles: o ritmo Delta, Teta, Alfa, Beta e Gama, correpondendo respectivamente as
seguintes bandas de frequência: 0 a 4 Hz, 4 a 8 Hz, 8 a 12 Hz, 12 a 30 Hz e 30 a 70 Hz.
Para verificar as frequências que compõem os sinais da atividade neural das redes
utilizadas nesse trabalho, foi utilizada a implementação em MatLab da trasformação
rápida de Fourier (Fast Fourier Transform).
Na transformação rápida de Fourier o cálculo da transformação discreta de Fourier
de uma série temporal com T observações é dividido recursivamente em transformações discretas de Fourier menores com séries de tamanho T1 e T2 onde T = T1 ∗ T2.
Desta forma a transformação rápida de Fourier não é um novo cálculo para a transformação discreta de Fourier mas sim, um algorítmo mais eficiente reduzindo a complexidade computacional de O(T 2 ) para O(TlogT) [86].
2.4.1 Coerência Espectral
A coerência espectral é uma medida da similariedade entre duas séries temporais no
domínio das frequências. A coerência C entre as séries temporais X e Y é definida
como,
CXY ( f ) =
|SXY ( f )|2
,
SXX ( f )SYY ( f )
(19)
CAPÍTULO 2. métodos
27
onde SXY ( f ), SXX ( f ) e SYY ( f ) são as funcões de densidade espectral cruzada entre X
e Y, densidade auto-espectral da série temporal X e densidade auto-espectral da série
temporal Y [87], respectivamente, onde,
∞
SXY ( f ) =
∑
τ=−∞
ΓXY (τ)e−2πi f τ ,
(20)
ΓX (τ)e−2πi f τ ,
(21)
ΓY (τ)e−2πi f τ ,
(22)
∞
SXX ( f ) =
∑
τ=−∞
∞
SYY ( f ) =
∑
τ=−∞
a função de densidade espectral cruzada SXY ( f ) é definida como a transformada de
Fourier da função de covariância cruzada entre as séries temporais X e Y [79], que é
dada por,
ΓXY (τ) = E[(Xt+τ − µ X )(Yt − µY )].
(23)
As funções de densidade auto-espectral, SXX ( f ) e SYY ( f ), são as transformadas de
Fourier da função de autocovariância (Eq. 2) das séries temporais X e Y, respectivamente. O valor de SXY ( f ) é elevado ao quadrado na Eq. 19, para que o valor da
coerência seja um número adimensional entre 0 e 1.
A coerência espectral é muito utilizada em neurociência, já que existe uma importante hipótese de que a conectividade no cérebro pode ser estudada através da análise
da relação entre os padrões de atividade em diferentes regiões cerebrais [87]. A principal utilização da análise da coerência espectral em neurociência é no estudo da sincronização entre séries temporais registradas em diferentes regiões cerebrais, como por
exemplo, sinais registrados por diferentes eletrodos em um estudo envolvendo eletroencefalograma. A coerência espectral também é utilizada no estudo da determinação
da fonte de atividade neural em convulsões epilépticas [88], no estudo de oscilações
fisiológicas, como por exemplo, ritmos cerebrais [89], na análise da ativação de centros
cerebrais relacionados à uma tarefa específica ou a um processo cognitivo [61] e em
estudos de correlação entre formas de onda do eletroencefalograma e estados cerebrais
CAPÍTULO 2. métodos
28
caracterizados por padrões de amplitude e frequência, como por exemplo, durante o
sono [90].
Em neurociência as interações entre os componentes do cérebro são classificados em,
anatômicas (estruturais), funcionais ou efetivas. Por exemplo, uma sinapse ou uma
junção comunicante constitui uma conexão anatômica entre os neurônios; a correlação
ou a coerência espectral entre sinais de diferentes regiões cerebrais constitui uma conexão funcional entre estas regiões e a capacidade de predizer os sinais de uma região
baseados nos sinais de uma outra região caracteriza uma conexão efetiva entre as regiões relacionadas aos sinais avaliados. Apesar da coerência espectral ser amplamente
utilizada em estudos de conectividade neural, é importante ressaltar que as medidas
de conectividade funcional são úteis para inferir se existe alguma relação, como por
exemplo sincronização, entre duas séries temporais, porém, não é possível inferir através dessas medidas relações de causalidade entre as séries temporais. Para este fim, são
utlizadas as medidas de conectividade efetiva, como exemplo dessas medidas temos:
a causalidade de Granger [11] e a coerência parcial direcionada (PDC) [35].
2.5 causalidade de granger
O conceito de causalidade de Granger foi primeiramente estudado em econometria [11] e recentemente está sendo generalizado para outras áreas, como sistemas biológicos [91] . A causalidade de Granger é baseada em medidas temporais, e como
elas podem influenciar uma a outra. O conceito direcional da causalidade de Granger
vem da relação entre passado, presente e futuro: o presente e o passado influenciam
desenvolvimentos futuros mas não o contrário [92]. De acordo com a causalidade de
Granger, para duas séries temporais medidas simultaneamente, uma série pode ser
a causa da segunda se pudermos melhor prever o comportamento da segunda série
incorporando um conhecimento prévio da primeira. Este conceito é formalizado no
contexto de modelos de regressão linear de processos estocásticos [11] . Especifica-
CAPÍTULO 2. métodos
29
mente, se a variância do erro previsto para a segunda série no presente é reduzida
pela inclusão de uma medida anterior da primeira série no modelo de regressão linear,
então é possível dizer que a primeira série influencia a segunda [93]. As séries temporais podem ser invertidas, assim podemos investigar a influência causal na direção
oposta. A partir disso, é evidente que o fluxo temporal desempenha um papel vital
em permitir inferências direcionais causais nos dados de séries temporais [94].
A causalidade de Granger tem provado ser um método efetivo para a investigação
de relação direcional entre sinais de valores contínuos em muitas aplicações [95]. A
idéia basica da causalidade entre sinais foi introduzida por Wiener mas era geral demais para ser implementada [96]. Granger formalizou esta idéia a fim de permitir
a implementação baseada nos modelos autoregressivos multivariados [11]. Para ilustrar, supomos que a dinâmica temporal de duas séries temporais Xt e Yt (ambas de
comprimento T), possa ser descrita pelo modelo linear autoregressivo bivariado:
p
p
j=1
j=1
p
p
j=1
j=1
Xt = ∑ A xx,j Xt− j + ∑ A xy,j Yt− j + ex,t ,
(24)
Yt = ∑ Ayx,j Xt− j + ∑ Ayy,j Yt− j + ey,t ,
(25)
onde p é o número máximo de observações defasadas incluídas no modelo (a ordem
do modelo). O valores de A xx,j , A xy,j , Ayx,j e Ayy,j , são os coeficientes do modelo,
isto é a contribuição de cada observação defasada para os valores preditos de Xt e Yt .
ex,t e ey,t são os resíduos para cada série, que podem ser obtidos através dos métodos
padrões para regressão, como por exemplo o método dos mínimos quadrados [77]. Os
subscritos j e t representam as defasagens e o tempo, respectivamente.
A matriz de covariâncias para o modelo pode ser escrita como:

Σ=
Σxx Σxy
Σyx Σyy


=
cov(ex,t , ex,t ) cov(ex,t , ey,t )
cov(ey,t , ex,t ) cov(ey,t , ey,t )


(26)
CAPÍTULO 2. métodos
30
Os modelos das equações 24 e 25 são ditos irrestritos pois além do próprio passado
da série temporal que está sendo modelada, o modelo leva em conta o passado de uma
outra série que pode ajudar na predição dos valores presentes da série que está sendo
modelada. Consideremos agora os modelos autorregressivos restritos para as mesmas
séries temporais Xt e Yt ,
p
0
0
0
0
Xt = ∑ A xx,j Xt− j + ex,t ,
(27)
j=1
p
Yt = ∑ Ayy,j Yt− j + ey,t .
(28)
j=1
Se a variância dos resíduos do modelo irrestrito ex,t (ou ey,t ) é significativamente
0
0
menor do que a variância do modelo restrito ex,t (ou ey,t ), então é dito que Yt (ou Xt )
Granger-causa Xt (ou Yt ) [36]. Assumindo que Xt e Yt são estacionárias, a magnitude
desta interação pode ser medida pelo logarítmo natural da razão entre a variância dos
resíduos para os modelos restrito e irrestrito. Assim, temos a causalidade de Granger
de Yt para Xt ,
0
FY → X
|Σ |
= ln xx ,
|Σxx |
(29)
e a causalidade de Granger de Xt para Yt ,
0
FX →Y
0
0
0
|Σyy |
= ln
,
|Σyy |
0
(30)
0
0
onde Σxx = cov(ex,t , ex,t ), Σxx = cov(ex,t , ex,t ), Σyy = cov(ey,t , ey,t ) e Σyy = cov(ey,t , ey,t ).
Para dados compostos por um único e longo trial, podemos utilizar o método dos
0
mínimos quadrados ordinários [77] para calcular os coeficientes A e A . De forma alternativa, se os dados são formados por múltiplas repetições de trials relativamente curtos,
o método proposto por Ding é usado [97]. Neste método, cada trial é considerado uma
realização independente de um único processo estacionário.
A causalidade de Granger introduzida anteriormente apresenta uma característica
indesejável se uma dada variável Z influencia ambas as variáveis X e Y. Ao considerar
apenas a dependência entre X e Y, desconsiderando a variável Z, uma causalidade
CAPÍTULO 2. métodos
31
espúria pode ser registrada. Assim, por exemplo, se não há uma influência causal
direta Y → X, mas, há dependências de X e Y em Z, então uma causalidade Y →
X poderá ser encontrada. Esta causalidade espúria pode ser eliminada através da
utiização da causalidade de Granger condicionada.
No caso condicionado, supomos que temos três séries temporais, identificadas através de 3 variáveis, sendo elas X, Y e Z. Nós desejamos eliminar qualquer efeito conjunto
de Z na inferência da causalidade de Y para X. Assim, neste caso temos o seguinte modelo autorregressivo irrestrito,
p
p
p
j=1
j=1
j=1
Xt = ∑ A xx,j Xt− j + ∑ A xy,j Yt− j + ∑ A xz,j Zt− j + ex,t ,
(31)
o modelo restrito será o modelo onde as influência do passado da série Yt sobre a série
Xt serão desconsideradas. Assim temos,
p
0
p
0
0
Xt = ∑ A xx,j Xt− j + ∑ A xz,j Zt− j + ex,t ,
j=1
(32)
j=1
Assim a causalidade de Granger de Yt para Xt condicionada a Zt é dada por,
0
FY → X |Z
|Σ |
= ln xx ,
|Σxx |
(33)
0
onde Σxx e Σxx são as covariâncias dos resíduos dos modelos restritos e irrestritos,
respectivamente.
A inclusão de Z em ambos os modelos leva em conta o efeito conjunto. FY →X |Z pode
ser lido como “o grau com que o passado de Y ajuda a predizer X, além do grau com
que X já é predito pelo seu próprio passado e o passado de Z ” [24].
2.5.1 Causalidade de Granger Parcial
Todos os modelos de conectividade para o cérebro envolvem a etapa de seleção estrutural do modelo, em que um conjunto relevante de variáveis é selecionado para a
CAPÍTULO 2. métodos
32
análise [98]. Na prática, pode ocorrer de algumas várias relevantes serem desconsideradas, o que pode levar a deteccão de interações causais aparentes que na verdade são
espúrias [99].
Como resposta para esse problema Guo et al. propuseram a chamada causalidade
de Granger parcial [17]. A idéia é que as variáveis latentes possam dar origem à correlações detectáveis entre os resíduos dos modelos autorregressivos. Por analogia com
o conceito de correlação parcial [100], um termo adicional baseado nessas correlações
pode reduzir a influência das variáveis latentes [20]. Consideramos os modelos autorregressivos dados pelas equações 31 e 32 e os modelos autorregressivos para a variável
condicional Z,
p
p
p
j=1
j=1
j=1
Zt = ∑ Bzx,j Xt− j + ∑ Bzy,j Yt− j + ∑ Bzz,j Zt− j + ηz,t ,
p
0
p
0
0
Zt = ∑ Bzx,j Xt− j + ∑ Bzz,j Zt− j + ηz,t ,
j=1
(34)
(35)
j=1
0
tais que os coeficientes B e B são os coeficientes dos modelos autorregressivos. Então
a causalidade de Granger parcial de Y para X dado Z é definida como,
0
FYP→ X |Z
0
Σ(ex,t |ηz,t )
= ln
,
Σ(ex,t |ηz,t )
(36)
onde, Σ(e|η) é definido como a cov(e, e) − cov(e, η)cov(η, e)−1 cov(η, e), a coerência parcial [101].
Enquanto que a correlação parcial remove a influência conhecida de uma variável
exógena de uma medida fundamentalmente bivariada, a causalidade de Granger parcial tenta controlar a influência de váriaveis desconhecidas medidas indiretamente através da influência dessas variáveis sobre os resíduos que compõem o modelo. Porém,
a causalidade de Granger parcial só pode controlar totalmente as variáveis latentes no
caso improvável em que elas tem efeitos equivalentes sobre todas as variáveis medidas.
Investigações numéricas mostram que a causalidade de Granger parcial nem sempre
detecta mais conexões e menos falsos positivos do que a causalidade de Granger condi-
CAPÍTULO 2. métodos
33
cional. No entanto, a causalidade de Granger parcial apresenta resultados melhores do
que a causalidade de Granger condicional quando aumentamos o número de influências desconhecidas, mas somente quando utilizamos inferência não paramétrica [20].
Sinais neurais são frequentemente interpretados no domínio das frequências. Interpretações no domínio das frequências (espectral) da causalidade de Granger e da
causalidade de Granger parcial podem ser obtidas dos componentes advindos das análises de Fourier dos modelos autorregressivos estimados no domínio temporal.
2.5.2 Ordem do Modelo
A estimativa do modelo autorregressivo necessita como parâmetro o número de observações defasadas (p), isto é, a ordem do modelo. Poucas observações defasadas podem
levar a uma fraca representação dos dados, no entando muitas observações podem
levar a problemas na estimativa do modelo. Uma forma de especificar a ordem do modelo é minimizar um critério que pondera a variância calculada pelo modelo, contra
o número de coeficientes que serão estimados . Dois critérios são comumente usados:
o critério de informação de Akaike (AIC) [102] e o critério de informação Bayesiano
(BIC) [103]. Para n variáveis:
2pn2
AIC(p) = ln(det(Σ)) +
,
T
BIC(p) = ln(det(Σ)) +
ln(T)pn2
,
T
(37)
(38)
onde T é o número de observações da série temporal e Σ é a matriz de covariância
dos resíduos. Em casos onde a ordem do modelo especificada pelo mínimo BIC/AIC
é muito alta para permitir uma computação viável, ou em casos onde o BIC/AIC não
atingem um mínimo claro sobre os valores testados, um modelo de menor ordem pode
ser escolhido na condição de que o BIC/AIC não apresenta reduções substanciais em
CAPÍTULO 2. métodos
34
ordens superiores [38]. Para o caso do AIC podemos utilizar outras definições que
levam em conta correções para o caso de amostras pequenas [104].
2.5.3 Significância Estatística
Após calcular a magnitude da causalidade de Granger, é importante avaliar sua significância estatística. A interação no domínio temporal é significativa se os coeficientes
Aij , excetos àqueles correspondentes a influência da série sobre ela mesma, são em
conjunto significativamente diferente de zero. Isto pode ser estabelecido através de
um teste F na hipótese nula de que os coeficientes Aij , correspondentes às influências
de outras séries de um determinado sistema, são nulos [11]. Estes testes devem ser
corrigidos por multiplas comparações. A correção mais conservativa é a correção de
Bonferroni, na qual o limiar aplicado é Pnom /n(n − 1), onde Pnom é o limiar nominal
(tipicamente 0, 01 ou 0, 05) e n é o número de variáveis. Uma alternativa menos conservativa é a razão de falsa descoberta (FDR) que controla a proporção esperada de
rejeitar incorretamente a hipótese nula (erro tipo 1), ou seja o número de falsos positivos no universo dos testes rejeitados [105]. Em alguns casos, como por exemplo nos
casos em que as amostras são pequenas, as distribuições assintóticas teóricas podem
não fornecer uma acurácia suficiente. Sendo assim, análises não-paramétricas derivadas das distribuições amostrais empíricas dos dados podem ser preferíveis para a
determinação da significância estatística. Para esses casos podemos utilizar o teste de
permutação [106] e o método do bootstrap [107].
2.6 medidas de causalidade no domínio das
frequências
Quando duas séries temporais relacionadas a diferentes áreas cerebrais são analizadas
no domínio espectral, o método mais utilizado para a determinação da ativação simul-
CAPÍTULO 2. métodos
35
tânea, ou grau de sincronização, entre as áreas é a função de coerência espectral (Eq.
19) . Porém, para frequências em que a coerência espectral é alta, existe uma ambiguidade na relação entre as séries temporais, já que não sabemos qual série temporal
influencia a outra, ou até mesmo se existe, de fato, uma relação de causa e efeito entre
as séries temporais.
A fim de resolver essa ambiguidade, Saito e Harashima [33] introduziaram o conceito
de Coerência Direcionada, que não apenas nos fornece informações sobre a sincronia entre as séries temporais, mas também nos da idéia sobre as relações de conectividade
entre as séries temporais. Isso é feito através da decomposição da coerência espectral
entre as séries temporais em duas coerências direcionadas, uma representando a relação de influência direcionada (feedforward) e outra representando a relação de feedback.
A descrição da interação entre séries temporais no domínio das frequências é baseado na estimativa da matriz de densidade espectral cruzada

S11 ( f ) S12 ( f ) · · · S1N ( f )





 S21 ( f ) S22 ( f ) · · · S2N ( f ) 

S( f ) = 
 ..
..
.. 
..
.
 .
.
. 


S N1 ( f ) S N2 · · · S NN ( f )
(39)
das séries temporais Xi (t), 1 ≤ i ≤ N. Onde Sij ( f ), i, j = 1, 2, ..., N, são definidos como
nas Eq. 21, Eq. 22 e Eq. 20. A matriz S( f ) pode ser fatorada como
S( f ) = H( f )ΣH H ( f ),
(40)
onde o superescrito H representa a matriz hermitiana transposta e

H ( f ) H12 ( f )
 11

 H21 ( f ) H22 ( f )
H( f ) = 
 ..
..
 .
.

HN1 ( f ) HN2
· · · H1N ( f )



· · · H2N ( f ) 


..
..
.

.

· · · HNN ( f )
(41)
CAPÍTULO 2. métodos
36
h
i
= h1 ( f ) h2 ( f ) · · · h N ( f ).
(42)
Para compreendermos melhor H( f ), consideremos X1 (t), . . . , X N (t) séries temporais
estacionárias de forma que podemos representa-las através de modelos autorregressivos,










X1 (t)
X (t − k)
w (t)
p

 1
  1 

  .. 
.. 
..
+ . 
.  = ∑ Ak 
.
 k=1

 

X N (t)
X N (t − k)
w N (t)
(43)
onde w1 (t), . . . , w N (t) são ruídos brancos. A matriz H( f ) é obtida por
H( f ) = A( f ) = (I − A( f ))−1 ,
(44)
enquanto,
p
A( f ) =
∑ Ak e−i2π f k ,
(45)
k=1


a (k) a12 (k) · · · a1N (k)

 11


 a21 (k) a22 (k) · · · a2N (k) 

A( f ) = 
 ..
..
.. 
..
.
 .
.
. 


a N1 (k) a N2 (k) · · · a NN (k)
(46)
onde os coeficientes aij (k) representam o efeito de interação linear entre x j (t − k) e xi (t).
Dado que a matriz de covariâncias Σ seja,

2
σ11
2
σ12
2
· · · σ1N



 2

2
2
 σ21 σ22 · · · σ2N 


Σ= .
..
.. 
...
.
 .
.
. 


2
2
2
σN1 σN2 · · · σNN
(47)
CAPÍTULO 2. métodos
37
a definição da coerência direcionada da série temporal j para a série temporal i é
σjj Hij ( f )
γij ( f ) = p
,
Sii ( f )
onde
(48)
N
Sii ( f ) = ∑ σjj2 | Hij ( f )|2 ,
(49)
j=1
que se reduz a definição de Saito e Harashima , quando N = 2. Uma condição relevante
da abordagem original de Saito e Harashima é que a matriz Σ é diagonal, ou seja σij é
igual a zero para valores de i diferentes de j. A coerência direcionada γij ( f ) pode ser
interpretada como uma medida da influência de X j (t) em Xi (t) na frequência f .
Para o caso em que Σ é diagonal podemos escrever a coerência espectral como,
Cij ( f ) = γiH ( f )γ j ( f ) =
N
∑ γik∗ ( f )γkj ( f ),
(50)
k=1
onde,
γi ( f ) , [γi1 ( f ), ..., γiN ( f )] T .
(51)
Podemos também redefinir a coerência direcionada através da normalização,
Hij ( f )
γij ( f ) = p
,
Sii ( f )
(52)
o que nos permite escrever a coerência espectral da seguinte forma,
Cij ( f ) = γiH ( f )Σγi ( f ),
(53)
γi ( f ) , [γi1 ( f ), ..., γiN ( f )] T ,
(54)
Sii ( f ) = hiH ( f )Σhi ( f ).
(55)
onde,
e
CAPÍTULO 2. métodos
38
Saito e Harashima [33] que introduziram o conceito de coerência direcionada, investigaram as relações de conectividade através da aplicação desta ferramenta em dados de
EEG. Wang e Takigawa [108] verificaram a comunicação entre hemisférios através da
utilização da coerência direcionada, partindo desse estudo os pesquisadores chegaram
a conclusão de que existem diferentes processamentos de informação em diferentes
bandas de frequência entre o hemisfério direito e esquerdo do cérebro, além disso,
eles verificaram que esses resultados não poderiam ser obtidos através da utilização da
coerência espectral ordinária (Eq 19)
Devido a condição imposta na metodologia original de Saito e Harashima, de que
a matriz Σ é diagonal, foi introduzido uma medida alternativa , que abandona Σ por
completo, para descrever as intereções entre séries temporais advindas de atividades
neurais [35]. Essa nova medida foi chamada de Função de Transferência Direcionada e é
dada por,
DTFij ( f ) = q
Hij ( f )
2
∑N
j=1 | Hij ( f )|
=q
Hij ( f )
hiH ( f )hi ( f )
.
(56)
Um dos problemas que ocorrem com as medidas de coerência direcionada e de função de transferência direcionada, é que para caso em que temos um estudo envolvendo
mais do que duas séries temporais (N > 2), os resultados obtidos através dessas duas
medidas não coincidem com os resultados obtidos através da causalidade de Granger condicional. Porém, quando N = 2, os resultados da coerência direcionada, da
função de transferência direcionada e da causalidade de Granger levam a resultados
concordantes.
A função de transferência direcionada foi utilizada em diversos estudos, desde estudos feitos para investigar a origem das oscilações teta no hipocampo do rato, até
estudos relacionados à tarefas motoras e cognitivas [40]. Dependendo do intuito do
estudo, a função de tranferência direcionada não é uma boa medida pelo fato de que
além de detectar o fluxo de informação direto entre duas séries temporais, ela detecta
o fluxo indireto de informação, esse caso é análogo ao caso da causalidade de Granger
não condicionada que foi mencionado anteriormente.
CAPÍTULO 2. métodos
39
Para fornecer uma medida equivalente da causalidade de Granger condicional no
domínio das frequências, ou seja, uma medida que permite inferir as conexões diretas
no domínio da frequência, Baccalá e Sameshima [35] propuseram o conceito de Coerência Parcial Direcionada. Este conceito é baseado na medida da função de coerência
parcial, que também é uma medida de relação entre pares de sinais. A função de coerência parcial, |κij |2 , descreve a interação entre Xi (t) e X j (t) quando a influência devido
a todas as outras N − 2 séries temporais é descontada. Então, temos que
κij ( f ) = q
aiH ( f )Σ−1 a j ( f )
(aiH ( f )Σ−1 ai ( f ))(a jH ( f )Σ−1 a j ( f ))
,
(57)
onde Σ é a matriz de covariâncias do erro de predição associado ao modelo autorregressivo (Eq. 43) e ak ( f ) é a k-ésima coluna da matriz
h
i
A( f ) = I − A = a1 ( f ) a2 ( f ) · · · a N ( f )
(58)
O fator de coerência parcial direcionada da série temporal X j (t) para a série temporal
Xi (t) é dado por
πij ( f ) , q
Aij ( f )
a jH Σ−1 a j
,
(59)
onde Aij ( f ) é o i,j-ésimo elemento da matriz A( f ). A partir disso segue que a coerência
parcial entre i e j é dada por
κij ( f ) = πiH ( f )Σ−1 π j ( f ),
(60)
πi ( f ) , [πi1 ( f ), ..., π Ni ( f )] T .
(61)
com
Pelo fato de Σ afetar o denominador, a coerência parcial mistura efeitos da causalidade de Granger com a causalida de de Granger instântanea, que é por exemplo, o
efeito do presente da série temporal X j (t) sobre o presente da série temporal Xi (t), ou
CAPÍTULO 2. métodos
40
seja, o presente de Xi (t) é melhor predito se o presente de X j (t) é incluído no modelo
de predição [35]. Para remover o efeito da causalidade de Granger instantânea, a
coerência parcial direcionada é definida como
Aij ( f )
π ij ( f ) , q
,
a jH a j
(62)
Baccalá e Sameshima verificaram que os valores da coerência parcial direcionada não
eram invariantes a escala das séries temporais, devido a isso, mudanças arbitrárias na
amplitude de uma série temporal podem ocasionar variações significativas no valor
da coerência parcial direcionada. Para solucionar esse problema Baccalá e Sameshima
introduziram a coerência parcial direcionada generalizada [40],
gπij ( f ) = r
1
σi Aij ( f ))
1
∑k=1
N σ2
kk
Akj ( f )2
(63)
Através da análise de dados gerados por modelos autorregressivos simples, os pesquisadores mostraram que a aplicação da coerência parcial direcionada generalizada
(GPDC) é uma alternativa melhor do que a normalização do sinal pela sua variância.
Além disso eles verificaram que a normalização do sinal antes da aplicação do GPDC
gera resultados essencialmente supérfulos e apenas quando a série temporal tem poucas observações (128 observações no estudo [45]).
Baccalá e Sameshima [35] efetuaram a comparação entre a função de transferência
direcionada e a coerência parcial direcionada, nesse estudo eles verificaram que através
da coerência parcial direcionada é possível eliminar os resultados relativos a transfereência de informação indireta entre séries temporais. A coerência parcial direcionada
tem sido amplamente utilizada nos estudos de conectividade em neurociência. Diversos pesquisadores tem aplicado a coerência parcial direcionada em sinais de EEG [109],
LFP [110] e em dados de ressonância magnética funcional [111]. Além da aplicação em
dado experimentais, alguns estudos teóricos foram feitos para analisar as formas de
CAPÍTULO 2. métodos
41
cálculo da significância estatística dos resultados obtidos através da utilização desse
método de conectividade efetiva [112].
2.7 implementação computacional
Nesse trabalho utilizamos a toolbox MVGC para o cálculo da causalidade de Granger.
A toolbox MVGC foi desenvolvida para aplicações em dados empíricos de neurociência. No entanto, a toolbox não é restrita a este tipo de aplicação.
Foi criado um programa granger.m baseado no programa mvgc_demo.m, que é um
dos programas de demonstração da utilização da toolbox. No granger.m, primeiramente passamos os parâmetros básicos para o cálculo da causalidade de Granger. O
primeiro parâmetro que passamos refere-se ao método de regressão utilizado para a
estimativa do modelo AR. No nosso caso essa estimativa foi feita através do método
dos mínimos quadrados (representado na toolbox pela string OLS) cuja solução foi obtida através da fatoração QR [113]. Necessitamos também, fixar o método de regressão
utilizado para o cálculo da ordem do modelo. A idéia de selecionar a ordem do modelo é balancear o número de parâmetros. No caso do modelo AR, determinamos o
número máximo de defasagens tal que alcançamos o melhor modelo por minimização
do erro ou maximização da função de verossimilhança. Para o cálculo da ordem do modelo foi escolhido o critério de informação de Akaike (representado no programa pela
string “AIC”), o método de regressão utilizado para o cálculo do critério de informação também foi o método dos mínimos quadrados. Duarante a simulação, o algoritmo
ajusta o modelo AR em todas as ordens, até a ordem máxima que é passada como
um parâmetro do programa. Em todas as simulações usamos 120 como ordem máxima. Deixamos o programa calcular automaticamente o número de defasagens para
o cálculo das autocovariâncias do modelo AR. O cálculo das autocovariâncias é realizado até a autocovariância atingir um valor mínimo, pois os valores da autocovariância
decaem exponencialmente.
CAPÍTULO 2. métodos
42
Foi estimado primeiramente a ordem do modelo AR através da função tsdata_to_infocrit,
cujos parâmetros de entrada são as séries temporais, a ordem máxima e o método de
regressão para o cálculo da ordem do modelo. Com a estimativa da ordem do modelo,
calculamos os valores dos coeficientes para o modelo AR. Para isso utilizamos a função tsdata_to_var, as entradas dessa função são: as séries temporais entre as quais será
verificada a relação de causalidade, a ordem do modelo e o método de regressão utilizado. A função retorna uma estrutura de dados em forma de matriz correpondente
aos coeficientes do modelo AR e a matriz de covariâncias para o modelo estimado. O
cálculo das autocovariâncias é feito utilizando-se da função var_to_autocov e os parâmetros de entrada para essa função são: a matriz com os coeficientes do modelo AR,
a matriz de covariâncias resultantes da estimativa do modelo AR, e o número máximo
de defasagens para a autocovariância. Para o cálculo da causalidade de Granger no
domínio temporal, necessitamos apenas da sequência de autocovariâncias para as séries temporais. A função autocov_to_pwcgc calcula as causalidades condicionais entre
todas as séries temporais. Para isso, é passado para a função a estrutura de dados
correspondente as autocovariâncias de todas as séries. A função calcula os parâmetros
do modelo AR reduzido e completo, a partir das sequências de autocovariâncias. Isso
é feito através da solução das equações de Yule-Walker.
Não foi feita análise da significância estatística dos valores para a causalidade de
Granger, pois na análise que fizemos utilizando essa medida, o nosso intuito foi verificar o comportamento dos valores da causalidade de Granger em relação ao aumento
do peso sináptico.
A coerência parcial direcionada e a coerência parcial direcionada generalizada foram
implementadas também em MatLab. Muitas das funções utilizadas foram trazidas
da toolbox MVGC, como a rotina para o cálculo da ordem do modelo AR e a rotina
para o cálculo do modelo AR. Após termos os valores dos coeficientes do modelo AR,
utilizamos um programa da toolbox eMVAR [114] para efetuar os cálculos necessários
para a obtenção da coerência parcial direcionada e da coerência parcial direcionada
generalizada.
CAPÍTULO 2. métodos
43
Para calcular a significância dos valores da coerência parcial direcionada, utilizamos
o método de bootstrap baseado na abordagem de Sato et al. [111]. Nessa abordagem
primeiramente calculamos o modelo AR para as séries temporais de cada trial separadamente. Obtemos os coeficientes do modelo AR e os resíduos para cada trial. Para
cada frequência, calculamos a coerência parcial direcionada e a coerência parcial direcionada generalizada. Com esses valores obtemos a média sobre os trials da coerência
parcial direcionada e da coerência parcial direcionada generalizada. Para cada trial
reamostramos os resíduos obtidos. A fim de testar a influência de uma série X j sobre
Xi , assumimos um modelo AR onde os coeficientes Aij ( f ), ou seja todos os coeficientes
relacionados à influência de X j sobre Xi , são zero. Os outros coeficientes permanecem
como foram originalmente estimados. Dessa forma assumimos o modelo na condição
de não haver causalidade entre X j e Xi , dessa forma podemos gerar amostras bootstrap
sobre a hipótese nula. Utilizando os resíduos reamostrados e os coeficientes na hipótese nula, simulamos séries temporais sobre a hipótese nula de não causalidade entre
X j e Xi . Obtemos os valores médios das medidas de conectividade para a amostra
bootstrap. Realizamos esse processo de reamostragem, geração de séries temporais na
hipótese nula e cálculo da coerência parcial direcionada média e da coerência parcial
direcionada generalizada média, até o número de amostras bootstrap ser atingido. Por
fim, estimamos o valor crítico para cada frequência utilizando as médias dos valores
dos métodos de conectividade para as amostras bootstrap. O valor crítico é definido
como o quantil (1 − α) das amostras bootstrap, onde α é o valor esperado para um erro
tipo 1, nesse trabalho α = 0, 05. Para verificar se os valores são significativos ou não,
comparamos os valores obtidos para a coerência parcial direcionada média e para a coerência parcial direcionada generalizada média com os valores críticos estimados [111].
3
MODELO
3.1 tipos de modelos
Em neurociência teórica e computacional são utilizados diversos modelos matemáticos
para descrever o comportamento dos neurônios. Esse modelos podem variar desde
um modelo mais simples como o integra e dispara [72], até modelos mais complexos
como o modelo de Hodgkin e Huxley [115]. A preferência por um modelo ou outro
está estritamente relacionada às características biológicas que queremos representar.
Além disso, quando trabalhamos com simulações de grandes populações neuronais,
a quantidade de parâmetros do modelo matemático e, consequentemente, a eficiência
computacional do modelo, são outras variáveis que devemos levar em conta.
Dentre as diversas formas de classificar os modelos, uma forma possível é dintinguílos entre modelos biofísicos e modelos fenomenológicos. Os modelos biofísicos podem
ser compostos por um ou vários compartimentos. Para o caso de vários compartimentos fica explícito no modelo a inclusão dos dendritos e axônios. Esses modelos
são tipicamente compostos por um número variável de correntes iônicas e a principal vantagem do uso desses modelos é que a dinâmica obtida através da simulação
pode ser comparada qualitativamente a dinâmica de neurônios reais. Por outro lado,
o comportamento dinâmico dos neurônios simulados através de modelos biofísicos é
altamente não linear e definido por um grande número de variáveis, fazendo com que
a análise matemática do comportamento dos neurônios seja extremamente complexa
e a simulação de grandes populações neuronais seja inviável, visto que esses modelos
são computacionalmente caros [116].
44
CAPÍTULO 3. modelo
45
Os modelos fenomenológicos contêm uma quantidade reduzida de parâmetros e
variáveis que, nem sempre, tem um equivalente biofísico direto. Esses modelos podem ser derivados diretamente da análise de neurônios reais ou como simplificação
de modelos biofísicos. A simplicidade dos modelos fenomenológicos permite a avaliação teórica e predições quantitativa da dinâmica do modelo [117]. Geralmente esses
modelos são compostos por apenas um compartimento, ou seja, nesse tipo de modelo
as dimensões espaciais do neurônio não são consideradas. Existem duas formas de
justificar esse tipo de abordagem. A primeira, considera que o potencial de membrana
e outras variáveis biofísicas, são identicas em qualquer lugar do neurônio. Os modelos
que seguem esse ponto de vista são ditos isopotenciais, uma possível explicação para
essa abordagem é que alguns neurônios tem árvores dendríticas pequenas de forma
que a atenuação do potencial é pequena, esse tipo de neurônio é chamado neurônio eletronicamente compacto. Uma outra forma de justificar a utilização de modelos de um
único compartimento é considerar que a variável de potencial representa o potencial
de membrana em uma localização particular, geralmente o soma [118].
3.2 modelo integra e dispara
Um dos modelos mais utilizados em neurociência computacional é o modelo integra
e dispara. Esse modelo descreve a evolução dinâmica do potencial de membrana de
um neurônio em termos da entrada sináptica ou externa que ele recebe. O modelo foi
construído por Lapicque [72] em 1907, baseado em um circuito elétrico. Na sua versão
mais simples o circuito equivalente ao modelo corresponde a apenas um capacitor
isolado representando a capacitância da membrana, a este modelo damos o nome de
modelo integra e dispara perfeito e a equação do modelo é,
Cm
dV
= I(t),
dt
(64)
CAPÍTULO 3. modelo
46
onde Cm é a capacitância da membrana, I(t) uma corrente aplicada sobre o neurônio e
V(t) é o potencial de membrana do neurônio. O capacitor é carregado até o potencial
atingir um valor limite Vtresh , assume-se que nesse ponto o neurônio que é representado pelo circuito emite um potencial de ação, imediatamente após o potencial de ação,
o potencial de membrana é reiniciado em um valor Vr . Em alguns trabalhos, é adicionado um período refratário tre f . Neste caso, após o potencial ser reiniciado no valor
Vr , espera-se um tempo tre f e V(t) passa a evoluir novamente. O neurônio descrito
pelo modelo integra e dispara perfeito é representado por apenas um compartimento, ou
seja, a estrutura espacial do neurônio relacionada aos dendritos e axônios são desconsideradas [119]. Uma das características do modelo integra e dispara é que pelo fato
dos potenciais de ação dos neurônios serem regulares, fica fácil determinar através dos
parâmetros do modelo a taxa de disparo dos neurônios. Um dos principais problemas
com o modelo integra e dispara perfeito é que o potencial de membrana aumenta linearmente com o tempo, o que obviamente não corresponde ao comportamento de um
neurônio biológico [120]. Vários outros modelos foram desenvolvidos com o intuito
de aumentar a plausibilidade biológica do modelo integra e dispara perfeito, dentre eles
podemos citar os modelos integra e dispara com vazamento, integra e dispara com adaptação,
integra e dispara com burstings, integra e dispara quadrático entre outros [121].
Apesar do modelo integra e dispara ser amplamente utilizado nos trabalhos envolvendo simulações computacionais de neurônios, as características e propriedades biológicas que estes modelos podem representar são muito limitadas, além disso, são
poucos os padrões de potencial de ação que podem ser reproduzidos através desse
modelo, de forma que em alguns casos ele não é a melhor opção para a construção de
redes de neurônios que representem, por exemplo, populações corticais .
CAPÍTULO 3. modelo
47
3.3 modelo de izhikevich
Através da aplicação de metodologias de sistemas dinâmicos, Izhikevich [59] reduziu
o modelo biofísico de Hodgkin e Huxley [115] para um modelo mais simples, o modelo de Izhikevich. Neste modelo a evolução temporal do estado de cada neurônio é
descrito por duas equações diferenciais ordinárias, da seguinte forma,
v̇ = 0, 04v2 + 5v + 140 − u + I,
(65)
u̇ = a(bv − u),
com a condição de potencial de ação: sempre que a variável v(t) chegar ao valor limite
de 30mV, então v(t) → c e u(t) → u(t) + d. A variável v representa o potencial de
membrana e a variável u representa uma variável de recuperação da membrana, que
leva em conta a ativação das correntes iônicas de K+ e a inativação das correntes iônicas de Na+ . O parâmetro a descreve a escala de tempo da variável de recuperação u,
quanto menor o valor de a mais lenta será a recuperação da membrana, o parâmetro
b está relacionado à sensibilidade da variável de recuperação u às flutuações sublimiares do potencial de membrana v. Como dito anteriormente, o parâmetro c e d estão
relacionados às condições de potencial de ação, o parâmetro c corresponde ao valor
para o qual o potencial de membrana v retorna após o potencial de ação. O valor
típico desse parâmetro é −65 mV, porém, o valor pode variar de acordo com o tipo de
padrão de potencial de ação que queremos representar. O parâmetro d, por sua vez,
está relacionado com o valor que a variável de recuperação assume após acontecer um
potencial de ação. O termo I corresponde a uma corrente de entrada sobre o neurônio.
Essa corrente de entrada pode ser de dois tipos: uma corrente externa ou uma corrente
sináptica.
Diferentes combinações dos quatro param̂etros (a, b, c, d) geram diferentes padrões
de potenciais de ação apresentados por neurônios corticais. Podemos agrupar esses
diferentes padrões em classes. As classes que correspondem aos padrões apresentados
por neurônios excitatórios são: regular spiking (RS), intrinsically bursting (IB) e chattering
CAPÍTULO 3. modelo
48
(CH). Os neurônios excitatórios das classes RS, IB e CH são geralmente piramidais e
glutamateŕgicos e correspondem a 80% das células corticais. As classes correspondentes aos padrões observados nas células inibitórias são: fast spiking (FS) e low-threshold
spiking (LTS), que são gabaérgicos [122]. Na tabela 1 são apresentadas as classes de
padrões do comportamento do potencial da membrana dos neurônios e os valores dos
parâmetros correspondentes. Na figura 1 são apresentados os padrões de potencial de
ação correspondentes as diferentes classes de neurônios. Cada uma das classes pode
ser relacionada a uma ou mais propriedades neurocomputacionais apresentadas na
figura 2.
Classe
Regular Spiking
Chattering
Fast Spiking
Low-threshold Spiking
a
0, 02
0, 02
0, 10
0, 02
b
0, 20
0, 20
0, 20
0, 25
c
d
−65 8
−50 2
−65 2
−65 2
Tabela 1: Classes de padrões apresentados pelos neurônios simulados através do modelo de Izhikevich e os respectivos parâmetros necessários para reproduzir
esses padrões.
Na figura 2 são mostradas algumas das principais características neurocomputacionais do comportamento do potencial de membrana dos neurônios. Os padrões foram
gerados através da aplicação de uma corrente de entrada sobre um neurônio isolado
que é representado pelo modelo matemático de Izhikevich. De acordo com a figura,
podemos verificar que existe uma ampla variedade de padrões que podem ser reproduzidos através da utilização de modelos. Esses padrões estão relacionados com os parâmetros que descrevem o comportamento dinâmico do neurônio. Além disso, podemos
verificar que a corrente de entrada tem diferentes formas para os diferentes padrões
do potencial de ação dos neurônios. Outras características neurocomputacionais, além
das mostradas na figura 2 podem ser obtidas através da utilização de modelos [123].
É possível comparar os diversos modelos existentes na literatura de acordo com a
sua eficiência computacional e as características neurocomputacionais que eles apresentam. Izhikevich [121] fez essa comparação e os principais resultados são mostrados na
figura 3. No gráfico e na tabela da figura 3, a plausibilidade biológica é relacionada as
CAPÍTULO 3. modelo
49
A
B
C
D
Figura 1: Classes de padrões apresentados pelos neurônios simulados através do modelo de Izhikevich (Eq. 66) que serão utilizadas nesse trabalho. (A) Regular
Spiking, (B) Chattering, (C) Fast spiking e (D) Low-threshold Spiking. Foi aplicada
uma corrente externa I = 10 para cada simulação.
propriedades neurocomputacionais que são possíveis de serem reproduzidas através
do modelo e a eficiência computacional de cada modelo é representado pelo número
de FLOPS, ou seja, o número aproximado de operações computacionais com ponto
flutuante necessárias para simular o modelo por 1 ms. Os modelos correspondentes
aos pontos com valores mais altos no eixo das abcissas são os modelos com maiores
custos computacionais e os pontos que apresentam baixos valores no eixo das abcissas
correspondem aos modelos mais eficientes. No eixo das ordenadas é representado a
plausibilidade biológica dos modelos, valores baixos no eixo das ordenadas representam modelos com boa plausibilidade biológica, valores altos nesse mesmo eixo representam modelos que representam poucas características observadas biologicamente.
CAPÍTULO 3. modelo
(A) tonic spiking
50
(B) phasic spiking
(C) tonic bursting
(D) phasic bursting
input dc-current
20 ms
(E) mixed mode
(F) spike frequency
adaptation
(G) Class 1 excitable
(H) Class 2 excitable
(I) spike latency
(J) subthreshold
oscillations
(K) resonator
(L) integrator
(M) rebound spike
(N) rebound burst
(O) threshold
variability
(P) bistability
(Q) depolarizing
after-potential
(R) accommodation
(S) inhibition-induced
spiking
(T) inhibition-induced
bursting
DAP
Figura 2: Resumo das características neurocomputacionais apresentadas por neurônios
biológicos. Esta figura foi retirada do artigo [121].
CAPÍTULO 3. modelo
51
É importante ressaltar que a definição da plausibilidade biológica que foi utilizada
na avaliação feita na figura 3 foi introduzida por Izhikevich [121]. No entanto, existem
diversas formas de definir a plausibilidade biológica em modelos matemáticos. Uma
das principais formas é o quão significativo biologicamente é o modelo, ou seja, quão
próximo das características apresentadas por neurônios reais são as características reproduzidas pelo modelo. Dentres essas características estão, por exemplo, o potencial
e a geometria das diferentes partes dos neurônios, além das características fisiológicas
dos canais iônicos. Definindo a plausibilidade biológica dessa forma reduziria consideravelmente o número de modelos plausíveis citados na figura 3.
Na tabela da figura 3 são mostrados quais características neurocomputacionais, como
por exemplo alguns padrões da figura 2, podem ser reproduzidas através dos modelos.
As células da tabela que contém o sinal + indicam que o modelo matemático reproduz a
determinada característica. O sinal − significa o oposto, ou seja, não é possível simular
o determinado padrão ou característica através da utilização daquele modelo. Para os
casos em que a célula da tabela está vazia, o modelo teoricamente deveria representar
as características de acordo com o ajuste nos parâmetros, porém, as características não
foram observadas pelo autor do artigo.
Como podemos verificar através da figura 3, um dos poucos modelos que reproduz um grande número de propriedades neurocomputacionais e apresenta um baixo
custo computacional é o modelo de Izhikevich [59]. Comparado ao modelo integra
e dispara, apresentado anteriormente, o modelo de Izhikevich permite que exploremos vários padrões de comportamento do potencial de membrana, podendo assim
representar neurônios de diversas regiões cerebrais, a um custo computacional não
muito mais alto. Diversos trabalhos [37, 64, 122] tem sido feitos utilizando o modelo
de Izhikevich, devido ao fato de que através da utilização desse modelo podemos representar algumas características observadas em neurônios biológicos, além de que,
devido a eficiência computacional do modelo, é possível realizarmos simulações de populações com um grande número de neurônios. Matias et al. [37] utilizaram o modelo
de Izhikevich para investigar o fenômeno da sincronização antecipada entre sinais de
LFP obtidos através da simulação de redes neuronais. Tomov et al. [122] estudaram
CAPÍTULO 3. modelo
52
Figura 3: Comparação entre diferentes modelos matemáticos para o comportamento
dos neurônios. Nas figuras são feitas comparações entre as características
neurocomputacionais que podem ser reproduzidas através dos modelos e o
número de operações com ponto flutuante necessárias para simular o modelo
por 1ms de simulação (FLOPS). Esta figura foi retirada do artigo [121].
CAPÍTULO 3. modelo
53
a atividade auto-sustentada utilizando redes neuronais onde cada neurônio é descrito
pelo modelo de Izhikevich, através desse estudo os pesquisadores verificaram que a
atividade auto-sustentada depende tanto da topologia da rede de neurônios quanto da
mistura de classes de neurônios que compõem a rede. Outros trabalhos relacionados
ao estudo da plasticidade neural, sincronização, oscilações e memória [64, 124], vêm
sendo desenvolvidos através da utilização do modelo de Izhikevich.
3.4 sinapses
O comportamento complexo do cérebro é coordenado pela atividade conjunta dos
neurônios. Devido a isso, é de grande interesse da comunidade científica entender
como acontece a conexão entre os neurônios e de que forma isso pode ser modelado
computacionalmente.
Sabemos que quando a despolarização do potencial de membrana do neurônio chega
a um limite ocorre um potencial de ação. O potencial de ação se propaga através do
axônio do neurônio, pois a membrana do axônio é excitável e tem canais de sódio
dependentes do potencial. Para que a informação presente no sinal de um neurônio
chegue aos demais neurônios do sistemas nervoso, é necessário que haja uma comunicação entre os neurônios [125]. Essa comunicação acontece através das sinapses, que
são regiões que permitem a troca de sinais entre os neurônios, ou entre os neurônios e
outras células, como por exemplo, as fibras musculares. Podemos classificar as sinapses em sinapses químicas e sinapses elétricas.
Nas sinapses químicas, o espaço entre o neurônio pré-sináptico e o neurônio pós
sináptico é chamado fenda sináptica. Do lado pré-sináptico temos geralmente o terminal do axônio e do lado pós-sináptico temos geralmente um dendrito. O terminal do
axônio contém dezenas de pequenas esférulas, chamadas de vesículas sinápticas, que
se aglomeram nas proximidades da membrana pré-sináptica. Essas vesículas armazenam os neuromediadores que são moléculas reponsáveis pela comunicação entre os
CAPÍTULO 3. modelo
54
neurônios nesse tipo de sinapse [126]. Quando o potencial de ação do neurônio présináptico chega ao terminal do axônio existe uma conversão do sinal elétrico em um
sinal químico. O potencial de ação provoca a liberação dos neuromediadores na fenda
sináptica. Após a liberação dos neuromediadores a informação química pode ser reconvertida em informação elétrica, através da modificação da condutância da membrana
pós-sináptica, causando assim um potencial pós-sináptico, ou pode transferir informação para uma cadeia de sinais moleculares no interior da célula pós-sináptica sem
necessariamente interferir na atividade elétrica dessa célula. O potencial pós-sináptico
pode despolarizar o neurônio (excitação) ou hiperpolarizar (inibição), e a atividade elétrica do neurônio pós-sináptico será o resultado da somação, temporal ou espacial, dos
potenciais pós-sinápticos relacionados às diversas sinapses que esse neurônio faz.
Nas sinapses elétricas ocorre a transferência direta da corrente iônica de um neurônio
para o outro. As estruturas onde ocorrem esse tipo de sinapse são chamadas junções
comunicantes. Nessas junções as membranas das duas células ficam separadas por
uma espaço de aproximadamente 3 nm, a membrana dessa região possui proteínas especiais chamadas conexinas que se combinam para formar um canal chamado conexon,
e dois conexons formam um canal de junção comunicante. Esses canais são maiores
em diâmetro do que os outros canais do neurônio, devido a isso, quando um neurônio
está acoplado a outro por junção comunicante é possível a troca de correntes iônicas e
até de algumas moléculas pequenas. Ao contrário da maioria das sinapses químicas, as
sinapses elétricas são bidirecionais, além disso, as sinpases elétricas são mais rápidas,
de forma que um potencial de ação no neurônio pré-sináptico pode, quase que instantâneamente, produzir uma mudança de potencial no neurônio pós-sináptico [125] As
sinapses elétricas ocorrem mais frequentemente no período de desenvolvimento dos
vertebrados e também na vida adulta, no entanto, a grande maioria das sinapses dos
animais é química.
CAPÍTULO 3. modelo
55
3.5 delay
Devido a alguns fatores morfofisiológicos dos neurônios ocorre um tempo de atraso,
que chamamos de delay, entre o potencial de ação do neurônio pré-sináptico e a ocorrência de um potencial pós-sináptico. O delay acontece devido ao tempo necessário
para ocorrência de cada um dos processos que resulta na comunicação entre neurônios
por sinapse química.
Sabendo que o potencial de ação se inicia na região do soma, leva um tempo para
que esse potencial chegue até o teminal do axônio. Esse tempo depende do comprimento do axônio e da velocidade de condução do potencial de ação. A condução do
potencial de ação do início do axônio até o terminal, depende das propriedades do
axônio relativas a forma, a excitabilidade e mielinização.
Durante a propagação do potencial de ação, as correntes iônicas podem fluir de formas distintas: atravessando a membrana axonal ou através do axoplasma. As correntes
locais no axoplasma ocorrem devido a transferência de carga entre íons. A despolarização devido a essa corrente é capaz de gerar um novo potencial de ação, o processo
é repetido nas regiões vizinhas em direção ao terminal do axônio, porém, devido ao
período refratário, causado pela inativação dos canais iônicos, o potencial de ação não
se propaga no sentido oposto. A eficiência do fluxo de cargas através do axoplasma
ou da membrana axonal está relacionado ao diâmetro do axônio e a quantidade de
canais iônicos presentes. Quando o diâmetro do axônio é pequeno e a quantidade
de canais é grande, a resistência axoplasmática é menor do que a resistência da membrana, sendo assim o fluxo de cargas irá ocorrer principalmente através da membrana
axonal, porém, se o axônio é largo e a quantidade de poros é pequena, a resistência
axoplasmática é maior do que a resistência da membrana e a principal via do fluxo de
carga será o interior do axônio. Em geral, quanto maior o diâmetro do axônio maior a
velocidade de propagação do potencial de ação através do axônio. Além das características relacionadas a geometria do axônio e ao número de poros na membrana axonal,
a propagação do potencial de ação nos neurônios dos vertebrados envolve a bainha de
CAPÍTULO 3. modelo
56
mielina. A bainha de mielina consiste de um espiral de gliócitos, as células de Schawan
e os oligodendrócitos, que envolvem os axônios facilitando o fluxo de cargas através
do axoplasma. Conexões locais em uma região cerebral geralmente são feitas via axônios não mielinizados, por outro lado, células separadas por grandes distâncias são
conectadas via axônios mielinizados a fim de aumentar a velocidade de propagação
do potencial de ação [125, 126].
Apesar das características apresentadas anteriormente, sabemos que em alguns modelos não é possível ter acesso as caraceterísticas morfofisiológicas do axônio, devido
a isso, em modelos simplificados os delays são baseados nas distâncias entre os somas
dos neurônios que fazem sinapse. Desta forma, são definidos diferentes intervalos de
valores para os delays relacionados às diferentes conexões [127].
3.6 redes de neurônios
A funções motoras e cognitivas são propriedades relacionadas à atividade e à estrutura
das regiões cerebrais. Essas regiões cerebrais podem ser representadas por redes de
neurônios que interagem entre si e com neurônios de outras redes através das sinapses.
Em neurociência computacional, quando aumentamos a complexidade e o tamanho
da rede de neurônios, utilizamos modelos simplificados para representar a atividade
de cada neurônio. Por outro lado, quando estamos preocupados com características
específicas dos neurônios utilizados, como por exemplo a morfologia, trabalhamos
com redes pequenas. O principal motivo de termos que escolher entre a complexidade
da rede de neurônios ou do modelo utilizado para representar o neurônio, decorre
do fato de buscarmos simulações computacionais eficientes. Uma outra limitação que
lidamos quando trabalhamos com simulações de redes neuronais, é que ainda não
existe dados completos sobre as propriedades estruturais e funcionais dos neurônios,
e de como é a organização neuronal, ou seja, qual é a arquitetura das regiões cerebrais.
CAPÍTULO 3. modelo
57
As redes neuronais utilizadas em simulações computacionais são redes complexas
que podem ter diferentes tipos de topologia. A topologia da rede complexa utilizada
geralmente é representada nos programas computacionais por uma matriz de adjacências e a escolha entre as possíveis topologias é feita de acordo com qual região queremos simular, entre as principais redes utilizadas estão as redes aleatórias [59], a redes
do tipo mundo pequeno [128] e as redes sem escala [129]. Vários estudos apontam o
fato de que essas redes são uma aproximação interessante para a arquitetura de algumas regiões cerebrais. Além da escolha do tipo de rede utilizada, outra propriedade
importante das redes neuronais simuladas é a quantidade de neurônios excitatórios
e inibitórios. É comum em estudos envolvendo simulações simples de redes corticais
utilizarmos a razão 4 : 1 entre neurônios excitatórios e inibitórios, ou seja, dado que
temos por exemplo uma rede com 1000 neurônios, 800 neurônios serão excitatórios e
200 inibitórios.
As principais características observadas em simulações de redes neuronais estão relacionadas a como a atividade conjunta dos neurônios que compõem a rede se modifica
conforme variamos os pesos sinápticos ou a quantidade de conexões entre os neurônios. Uma das principais propriedades das redes neuronais são as oscilações, que são
estados em que a atividade de uma população de neurônios está periodicamente sincronizada. Essas oscilações podem ocorrer devido a diversos mecanismos neuronais.
Em alguns casos os neurônios individuais disparam regularmente e são trazidos para
o estado de sincronização através das sinapses químicas ou elétricas. A ocorrência ou
não de um estado síncrono entre os neurônios neste caso, decorre de como a atividade
de cada neurônio da rede afeta a fase da atividade dos outros neurônios com os quais
ele está acoplado. Uma outra forma de ocorrer oscilações acontece quando os neurônios que compõem a rede disparam de forma irregular, porém, as oscilações emergem
da taxa de disparos da população neuronal. Neste caso, a taxa de disparos de cada
neurônio individual da rede pode ser altamente diferente das dos outros neurônios,
no entanto, a taxa de disparo da população coexiste com a atividade oscilatória [130].
Uma outra possibilidade para a investigação das oscilações das redes neuronais é atra-
CAPÍTULO 3. modelo
58
vés da verificação das frequências que compõem o sinal de LFP simulado através da
média da atividade elétrica dos neurônios da rede [37].
A simulação de redes neuronais é amplamente utilizada em neurociência computacional. Além das simulações com uma rede, é possível simularmos várias redes
neuronais, representando diversas áreas cerebrais, e verificar como as características
dinâmicas de cada rede são alteradas conforme modificamos as propriedades relativas
as conexões entre neurônios de diferentes redes. Nesses caso, obviamente, o número
de conexões dentro de cada rede é maior do que o número de conexões entre as diferentes redes. As redes neuronais simuladas tem sido utilizadas em estudos envolvendo
oscilações [130], memória associativa [131], sincronização de fase [132], plasticidade
sináptica [64] entre outros temas de interesse em neurociência.
3.7 implementação computacional
Toda a implementação dos programas utilizados nesse trabalho foram feitas em MATLAB. MATLAB é uma linguagem de programação de alto nível e de ambiente interativo usado por milhões de engenheiros e cientistas ao redor do mundo. O MATLAB
permite a análise numérica, manipulação de matrizes, criação de gráficos de funções
e dados, implementações de algorítmos complexos, criação de interfaces para o usuário, e a integração com programas escritos em outras linguagens, como C, C++, Java,
Fortran e Python. Nas nossas análises foram criadas diferentes redes de neurônios.
Os neurônios que compõem as redes são modelados através de equações diferencias
que descrevem o comportamento do potencial de membrana. As sinapses entre esses
neurônios foram modeladas através de uma função matemática, de forma que possamos levar em conta todas as influências entre os neurônios e o tipo de influência, ou
seja, se elas são excitatórias ou inibitórias. Simulamos também o tempo necessário
para que após ocorrer um potencial de ação no neurônio pré-sináptico, aconteça um
potencial pós-sináptico. Através de modificações na quantidade de conexões entre os
CAPÍTULO 3. modelo
59
neurônios e nos pesos sinápticos geramos diferentes sinais de LFP para as diferentes
redes.
Os neurônios que compõem as redes estudadas são descritos pelo modelo de Izhikevich [59]. Esse modelo foi escolhido, pois através dele podemos representar diversos
comportamentos dos neurônios do córtex cerebral de forma eficiente computacionalmente. Como não estamos interessados nas características biofísicas mas sim nos fenômenos ocorridos devido atividade conjunta dos neurônios a utilização de um modelo
simplificado é a melhor opção no nosso caso. Para efetuar a integração das equações
diferenciais do modelo de Izhikevich, utilizamos o método de Euler com passo de integração dt = 0, 05ms. Nos experimentos que fizemos nesse trabalho o valor inicial
do potencial de membrana é V = −65mV. Utilizamos as diversas classes de neurônios que podem ser representadas através do modelo de Izhikevich, figura 1. Com
o intuito de ter uma heterogeniedade nos comportamentos dinâmicos dos neurônios
que compõem as redes, variamos os parâmetros a , b, c e d do modelo dentro de uma
faixa de valores, de forma que as médias dessas faixas de valores correspondam a uma
determinada classe de neurônios, como mostrado na tabela 1, e os valores extremos do
intervalo não correspondam aos valores dos parâmetros dos neurônios de uma outra
classe. Para efetuar essa confirmação foram verificados os padrões apresentados pelo
modelo quando utilizamos os valores extremos do intervalo escolhido. A corrente aplicada sobre cada neurônio corresponde à soma das corrente sináptica com a corrente
externa.
Para simular a corrente sináptica, os potenciais de ação do neurônio pré-sináptico devem ser convertidos em condutâncias dinâmicas na célula pós-sináptica. A abordagem
mais geral para o cálculo da condutância é a operação de convolução,
ĝ(t) =
Z t
d
0
G(λ)S(t − λ − tt )dλ,
(66)
onde ĝ(t) é a condutância sináptica, G(t) é a forma de onda da condutância sináptica
para a célula pós-sináptica, S(t) é uma função corresponde aos potenciais de ação da célula pré-sináptica, td é o intervalo de tempo sobre o qual a função relativa aos potenciais
CAPÍTULO 3. modelo
60
de ação da célula pré-sináptica são convoluídos com a forma de onda da condutância
sináptica, e tt é o delay de propagação da célula pré-sináptica para a pós-sináptica. A
vantagem da utilização da convolução é que G(t) pode ser definida arbitrariamente.
No entanto, esse tipo de abordagem é custosa computacionalmente, pois um histórico
dos potenciais de ação deve ser mantido afim de que possamos calcular a condutância
sináptica em cada passo de tempo [133].
Para aumentar a eficiência computacional utilizamos nesse trabalho uma abordagem
adotada pelo simulador Genesis [134] onde cada entrada sináptica é modelada como
uma função impulso-resposta de um oscilador amortecido. Assim, a entrada sináptica
é descrita por uma equação diferencial de segunda-ordem. A vantagem de utilizarmos
essa abordagem é que o modelo para a entrada sináptica não necessita do histórico de
eventos dos potencias de ação, que é necessário quando utilizamos a convolução [133].
A equação para a forma de onda da condutância sináptica é,
G̈ + α Ġ + βG = x(t),
(67)
onde
α=
τ1 + τ2
τ1 τ2
e
β=
1
.
τ1 τ2
(68)
A entrada x(t) representa a contribuição das sinapses sobre a condutância do neurônio pós-sináptico. Os parâmetros τ1 e τ2 , nas equações 68, são as constantes de tempo
da condutância sináptica. As constantes de tempo da condutância sináptica são importantes pois determinam como as entradas sinápticas são integradas no tempo, ou seja
como é feita a somação temporal das entradas sinápticas. A função impulso-resposta
do sistema, com condição inicial de G(0) tem a forma exponencial dada por,
G(t) =
−t τ1 τ2 −τ t
e 1 − e τ2 ,
τ1 − τ2
(69)
CAPÍTULO 3. modelo
61
com o tempo do pico dado por,
t pico
τ τ2
= 1
ln
τ1 − τ2
τ1
τ2
.
(70)
Nos casos em que τ1 = τ2 a equação 69, resume-se a seguinte equação,
−t
G(t) = te τ .
(71)
A curva descrita pela equação 71 tem a forma de uma função alfa. Para calcular
as condutâncias sinápticas a equação 67 é descrita por duas equações diferenciais de
primeira ordem,
ż =
Ġ =
−1
z + x(t),
τ1
(72)
−1
G + z.
τ2
(73)
Neste trabalho utlizamos o método de Euler exponencial [133] para integrar as equações 72 e 73 e obtermos G(t). A integração numérica dessas equações permite que possamos contabilizar, a cada passo de tempo, a influência dos neurônios pré-sinápticos
sobre a condutância sináptica do neurônio pós-sináptico. Por fim, a condutância sináptica é calculada por,
ĝ(t) =
gmax
G(t)w(t),
G pico
(74)
onde gmax é o valor máximo da condutância sináptica e w(t) é o peso sináptico [133].
Nos modelos utilizados neste trabalho gmax é igual a 1. Os valores de w(t), para todo
t, também foram fixados como sendo 1, no entanto, as diferentes influências sobre
os neurônios pós-sinápticos foram contabilizadas em um vetor de ativação que foi
CAPÍTULO 3. modelo
62
incluído na equação 72 através da entrada x(t). Para cada neurônio pós-sináptico temos
um vetor de ativação x, onde cada elemento do vetor x(t) corresponde a um passo
de tempo da simulação. Assim, no tempo t em que a influência dos neurônios présinápticos chegam ao neurônio pós-sináptico temos um valor no elemento de vetor
correspondente a soma dos pesos sináptico de todas as influências que chegam no
mesmo tempo t. A vantagem da utilização dessa abordagem é que facilita a inclusão
dos delays ao modelo. Foram utlizados diferentes vetores de ativação para os diferentes
tipos de sinapse presentes no modelo, no nosso estudo simulamos sinapses AMPA
e GABA-A. A influência externa sobre cada neurônio também foi simulada através
de uma sinapse com características similares a sinapse AMPA, porém, para este caso
simulamos um gerador de potenciais de ação com distribuição de Poisson e taxa de
disparos de 10 Hz para cada neurônio da rede. Foram simuladas entradas externas
sobre todos os neurônios das redes estudadas.
A corrente total sobre cada neurônio é dada por,
I = I AMPA + IGABA + IEXT ,
(75)
onde,
I AMPA = ĝ AMPA (Eex − V),
(76)
IGABA = ĝGABA (Ein − V),
(77)
IEXT = ĝEXT (Eex − V).
(78)
As equações 76 e 77 representam as correntes sinápticas relacionadas as sinapses
AMPA e GABA-A e a equação 78 representa a corrente devido a uma influência externa.
A sinapse AMPA tem natureza excitatória com potencial de reversão Eex = 0mV e
constante de tempo τAMPA = 5ms. A sinapse GABA-A tem natureza inibitória com
CAPÍTULO 3. modelo
63
potencial de reversão Ein = −80mV e constante de tempo τGABA = 6ms. Os valores
para o constante de tempo e o potencial de reversão relativos a entrada externa IEXT ,
são os mesmos utilizados para a sinapse AMPA.
Grande parte dos estudos em neurociência computacional descartam a inclusão dos
delays justificando que é apenas uma complicação no modelo. No entanto, pudemos
verificar nos nossos estudos que alterações no valor do delay, ou da faixa de delays,
pode causar alterações consideráveis nos ritmos presentes nos sinais obtidos através
das redes de neurônios. Além disso, estudos mostram que os delays exercem influência
sobre a auto-organização dos padrões apresentados pela rede [64]. Nos nossos modelos
os delays são contabilizado em um vetor de ativação, de forma que, quando acontece
um potencial de ação no neurônio pré-sináptico no tempo t, o elemento de vetor x(t +
tdelay ) recebe um incremento de acordo com o tipo da sinapse. Onde t é o tempo atual
da simulação e tdelay é o delay para esta interação.
No nosso trabalho a arquitetura das redes utilizadas é aleatória. Fixamos, de acordo
com o experimento, a quantidade de conexões que cada neurônio recebe [135], e os pesos sinápticos, que são equivalentes a condutância sináptica do neurônio pós-sináptico.
Para ser mais específico, dividimos as conexões em quatro tipos de acordo com o
tipo do neurônio pré-sináptico e do pós-sináptico, assim, temos respectivamente as
conexões do tipo: Excitatório-Excitatório, Excitatório-Inibitório, Inibitório-Excitatório e
Inibitório-Inibitório. Como nas nossas simulações a quantidade de conexões entre os
neurônios é pequena, as matrizes de conexões entre eles são esparsas, isso geralmente
ocasiona um problema em simulações computacionais, pois mesmo sabendo que as
matrizes são esparsas, todos os valores do elementos dessas matrizes são salvos o que
faz com que os programas sejam pouco eficientes. Para melhorar a eficiência das nossas simulações, as matrizes de conexões entre as redes foram geradas com o auxílio da
função sparse do MATLAB, essa função foi desenvolvida especialmente para que os cálculos e simulações envolvendo matrizes esparsas não sejam tão custosos e economizem
memória computacional.
O número de neurônios das redes sempre eram fixados de forma a seguir proporção
de 80% excitatórios e 20% inibitórios. A atividade da rede era modificada de acordo
CAPÍTULO 3. modelo
64
com as alterações nos pesos sinápticos, nos delays ou na quantidade de conexões. Para
verificar as oscilações geradas através das modificações nas características das redes,
simulamos sinais de LFP. Para simular esses sinais primeiramente fizemos a somatória
dos potenciais de membrana dos neurônios que compõem a rede e no sinal resultante
aplicamos um filtro passa-baixa a 200Hz. Dividimos o sinal pelo número de neurônios
da rede, aplicamos as funções downsample a fim de baixar a taxa de amostragem do
sinal de 2.104 Hz para 200Hz e a função detrend, que remove as tendências lineares.
Ambas as funções são pré implementadas no MATLAB.
Todos os experimentos computacionais que fizemos foram simulados por 5 segundos de tempo simulado. Com os sinais de LFP fizemos avaliações da coerência e
causalidade entre as séries temporais e verificamos o quão efetivo são os métodos de
conectividade quando aplicados a estes sinais.
4
E X P E R I M E N T O S C O M P U TA C I O N A I S E
R E S U LTA D O S
Nesse capítulo investigamos a aplicação dos métodos de conectividade em modelos
compostos por redes de neurônios simulados computacionalmente. As redes de neurônios são compostas por neurônios de diferentes tipos, com diferentes número de conexões e diferentes pesos sinápticos. Foi variado também, o tipo de conexão entre
os neurônios das diferentes redes. O intuito dessas análises foi verificar se é possível
recuperar as conexões existentes entre as redes neuronais através dos valores estatisticamente significativos obtidos pelos métodos de conectividade. Além dos métodos de
conectividade efetiva (causalidade de Granger, PDC e GPDC), aplicamos alguns métodos de conectividade funcional (correlação de Spearman e coerência espectral) a fim
de comparar os diferentes tipos de conectividade. Verificamos também, como a taxa
de disparo dos neurônios e a quantidade de conexões entre as diferentes redes, pode
afetar as medidas feitas pelos métodos de conectividade.
4.1 redes estudadas
Os experimentos computacionais desse trabalho baseiam-se na verificação da conectividade efetiva entre redes neuronais. Para isso foram definidas 5 redes neuronais, com
diferentes características. Essas modificações nas características das redes foram feitas
a fim de obter uma heterogeneidade entre os sinais das diferentes redes. Apresentamos
uma tabela (tabela 2) com os valores dos parâmetros de cada uma das redes e gráficos
(figura 4) correspondentes aos disparos dos neurônios das redes, o sinal de LFP de
cada uma das redes e a frequência de oscilação de cada um desses sinais de LFP.
65
CAPÍTULO 4. experimentos computacionais e resultados
66
Para criar as 5 redes diferentes utilizadas nesse trabalho foram variados o número
de neurônios em cada rede e alguns dos parâmetros que controlam a dinâmica das
redes, como por exemplo, a quantidade de conexões entre os neurônios que compõem
cada uma das redes e o peso sináptico dessas conexões, de forma que cada rede gere
um sinal de LFP diferente. Os principais parâmetros das redes são, a porcentagem
de neurônios da rede pertencentes a uma mesma classe (Regular Spiking, Chattering,
Fast Spiking e Low Threshold Spiking ), a quantidades de sinapses (Q EE , Q IE ) que cada
neurônio excitatório recebe, a quantidades de sinapses (Q EI , Q I I ) que cada neurônio
inibitório recebe, os pesos sinápticos (WEE , WEI , WIE , WI I ), o peso sináptico relativo a
corrente externa aplicada sobre cada tipo de neurônio (WextE , Wext I ) e o intervalo de
delays para cada tipo de conexão ( d EE , d EI , d IE , d I I ) em milissegundos. Nos parâmetros
citados, o subscrito representa qual o tipo de sinapse, por exemplo EI, representa uma
sinapse onde o neurônio pré-sináptico é excitatório (E) e o neurônio pós-sináptico é
inibitório (I).
Na tabela 2 são mostrados os valores dos parâmetros que são diferentes entre as
redes. Os parâmetros relativos as sinapses cujo neurônio pré-sináptico é inibitório são
mantidos fixos entre as diferentes redes, assim Q IE = 20 conexões, Q I I = 10 conexões,
WIE = 12, 5, WI I = 10, 5, d IE = 1ms e d I I = 1ms, para todas as redes utilizadas nas
simulações. De acordo com o tipo de neurônio pré-sináptico, o peso sináptico é multiplicado por um fator de normalização. Implementamos os programas dessa forma
a fim de facilitar a construção do algorítmo e posteriormente a leitura do programa.
Para o caso em que o neurônio pré-sináptico é excitatório temos um fator de normalização f ator E = 0, 0528 e para o caso em que o neurônio pré-sináptico é inibitório temos
o fator f ator I = 0, 0059. Na figura 4 são mostrados o raster plot, o sinal de LFP e a
transformada de Fourier do sinal de LFP, para cada uma das redes que foram utilizadas. É importante ressaltar que os dados da figura 4 foram gerados para um trial.
Quando trabalhamos com város trials, os valores dos dados para cada um dos trials,
relativos a uma mesma rede de neurônios, podem ter algumas pequenas variações
de valor ao longo das simulações. No entanto, a dinâmica geral da rede permanece
aproximadamente a mesma visto que os delays, para algumas conexões, e os parâme-
CAPÍTULO 4. experimentos computacionais e resultados
67
tros do modelo de Izhikevich são escolhidos de forma aleatória, porém, dentro de um
intervalo determinado.
Redes
1
2
3
4
5
N
1000
1000
2000
2000
2000
RS
100%
100%
50%
50%
50%
CH
0%
0%
50%
50%
50%
FS
100%
100%
0%
0%
0%
LTS
0%
0%
100%
100%
100%
Q EE
40
40
45
45
45
Q EI
40
40
35
35
35
WEE
0, 3
0, 3
0, 3
0, 3
0, 3
WEI
0, 6
0, 4
0, 3
0, 3
0, 7
d EE
5 − 15
5 − 15
10 − 15
10 − 15
10 − 15
d EI
1−9
1−9
1−5
5 − 10
1 − 10
Wext E
22, 5
20, 5
23, 5
23, 5
23, 5
Wext I
20, 5
28, 5
13, 5
13, 5
13, 5
Tabela 2: Parâmetros para cada rede utilizada nas simulações computacionais. A coluna Redes corresponde aos índices usados para identificar cada uma das
redes, N é a quantidade de neurônios de cada rede, RS, CH, FS e LTS são
as porcentagens de neurônios , para cada rede, que pertencem as seguintes
classes, Regular Spiking, Chattering, Fast Spiking e Low Threshold Spiking, respectivamente. As demais colunas correspondem as quantidades de conexões,
ao pesos sinápticos, aos delays em milissegundos, e aos pesos da corrente externa. O valor do delay é escolhido aleatoriamente dentro de um intervalo
fechado limitado pelos valores apresentados na tabela.
Na figura 4 podemos verificar que através da alteração dos valores dos parâmetros
pudemos fazer com que as 5 redes tenham caraceterísticas diferentes, e oscilem em
4 frequências distintas. No raster plot dessa figura, verificamos a diferença entre a
quantidade de potenciais de ação dos neurônios excitatórios e inibitórios das redes.
Na rede 1 e rede 2 os neurônios excitatórios tem índice de 1 a 800, e os inibitórios de
801 a 1000. Nas redes 3, 4 e 5 os neurônios excitatórios são indexados de 1 a 1600 e
os inibitórios de 1601 a 2000. Através da transformada de Fourier do sinal de LFP na
figura 4 verificamos que a rede 1 oscila em ≈ 20Hz, a rede 2 oscila em ≈ 5Hz, a rede
3 oscila em ≈ 30Hz, a rede 4 em ≈ 50Hz e a rede 5 também em ≈ 20Hz, porém, com
caraceterísticas diferentes da rede 1. Nessa figura, as redes estão isoladas, ou seja, as
únicas sinapses que ocorrem são entre os neurônio pertencentes as mesmas redes.
CAPÍTULO 4. experimentos computacionais e resultados
LFP
1100
1200
1300
Tempo (ms)
1400
1500
Potência
100
0
50
0
3500
200
Potência
−1500
0
100
0
3500
200
Potência
−3500
0
100
0
2000
200
Potência
−3500
LFP
Índice do
Neurônio
2000
1600
1200
800
400
0
1000
1500
LFP
Índice do
Neurônio
2000
1600
1200
800
400
0
50
0
LFP
Índice do
Neurônio
2000
1600
1200
800
400
0
0
−1500
LFP
Índice do
Neurônio
1000
800
600
400
200
0
100
Potência
1500
Índice do
Neurônio
1000
800
600
400
200
0
0
−2000
1000
68
2000
3000
Tempo (ms)
4000
5000
100
0
0
50
Frequência (Hz)
Figura 4: Da esquerda para a direita, temos, na primeira coluna o raster plot, na segunda
coluna o sinal de LFP gerado através dos valores do potencial de membrana
dos neurônios que compõem a rede e na terceira coluna a transformada de
Fourier do sinal de LFP. Cada linha de gráficos na figura corresponde a um
índice da rede neuronal, onde a primeira linha de cima para baixo representa
a rede 1, a segunda representa a rede 2, a terceira representa a rede 3, a quarta
representa a rede 4 e a quinta linha representa a rede neuronal 5.
100
CAPÍTULO 4. experimentos computacionais e resultados
69
4.2 relação entre a conectividade e o aumento do peso sináptico
Com o intuito de verificar como o aumento do peso sináptico entre os neurônios de
diferentes redes, rede A e rede B, modifica os valores obtidos pelos métodos de conectividade, efetuamos dois experimentos onde em cada um deles aplicamos sobre os sinais
de LFP das diferentes redes a causalidade de Granger, a coerência parcial direcionada
(PDC), a correlação e a coerência espectral.
Fizemos o experimento para o caso em que as duas redes tem características similares, ou seja, a rede A e a rede B têm os mesmos parâmetros da rede 1, e para o caso
em que temos duas redes com caraterísticas diferentes, a rede A com os mesmos parâmetros da rede 1 e a rede B com os parâmetros da rede 4. Cada neurônio excitatório
da rede B recebe 5 conexões excitatórias da rede A com delay de 5 milissegundos. O
peso sináptico entre os neurônios é variado de 0 a 3, em passos de 0, 1. Foram feitos 15
trials para cada um dos 31 valores do peso sináptico e a cada trial foram gerados novos
valores dos delays para as novas conexões entre os neurônios das mesmas redes, novas
conexões entre os neurônios das diferentes redes e novos parâmetros para o modelo de
Izhikevich. Podemos representar as interações entre os neurônios das diferentes redes
através de um grafo direcionado onde os nós representam as redes de neurônios e as
arestas representam as interações direcionais entre as redes. Na figura 5 temos o grafo
representando a interação entre os neurônios da rede A e da rede B.
A
B
Figura 5: Grafo direcionado representado as interações entre os neurônios das redes A
e B. A seta preta representa conexões direcionais entre neurônios excitatórios.
Na figura 6, nos gráficos A e D, podemos verificar o comportamento de CGBA , que
corresponde a causalidade de Granger na direção do sinal da rede A para o sinal da
rede B, em relação ao aumento do peso sináptico. Verificamos que nesse caso existe
CAPÍTULO 4. experimentos computacionais e resultados
70
uma relação aproximadamente linear entre o aumento do peso sináptico e o aumento
dos valores da causalidade de Granger, porém, a partir de um valor do peso sináptico
WEE , aproximadamente WEE ≈ 2, a influência dos pesos sinápticos sobre a causalidade
de Granger começa a diminuir de forma que os valores da causalidade de Granger
tem uma variação menor com relação ao aumento do peso sináptico. Nos seis gráficos
da figura 6 cada ponto corresponde a um trial. Não foi feito análise da significância
estatística nesse caso pois o intuito desse estudo foi verificar o comportamento da causalidade de Granger em relação ao aumento da influência de uma rede sobre a outra,
de forma que não foi necessário verificar em quais casos a causalidade de Granger
apresenta ou não um valor significativo.
No contexto da teoria da causalidade de Granger, a explicação para o comportamento observado nos gráficos A e D da figura 6, é que conforme aumentamos o valor
do peso sináptico entre os neurônios das diferentes redes, a informação dos valores
passados do sinal de LFP da rede que envia as conexões (rede A), melhora a previsão
dos valores futuros do sinal de LFP da rede que recebe as conexões (rede B), porém,
a partir do momento que o peso sináptico chega a um determinado valor, a taxa de
aumento na melhoria da previsão dos valores do sinal de LFP da rede B através da
inclusão de informações dos valores passados do sinal da rede A diminui. Nesses
casos, geralmente a rede que recebe as conexões está em um estado altamente sincronizado, como podemos verificar através da figura 7. Na figura 7 podemos verificar que
os disparos dos neurônios da rede B ocorrem em tempos próximos caracterizando a
sincronização da atividade dentro dessa rede, além disso, podemos verificar também
que a coerência espectral tem um pico em aproximadamente 20 Hz, o que significa que
existe uma sincronização entre os sinais de LFP das diferentes redes em uma frequência proxima à 20 Hz. Isso é esperado visto que em ambos os casos a rede que envia
o sinal esta oscilando nessa frequência. Na figura 7 o gráfico da rede B para redes
diferentes apresenta diferentes comportamentos para os neurônios excitatórios. Isso
ocorre devido ao fato da rede ser composta por dois tipos de neurônios excitatórios:
Regular Spiking e Chattering.
CAPÍTULO 4. experimentos computacionais e resultados
0.5
0.5
0.5
B
A
0.4
71
0.4
C
0.4
0.3
0.2
ρ
CGAB
0.3
CGBA
0.3
0.1
0.2
0.2
0
0.1
0.1
−0.1
−0.2
0
0
0.5
1
1.5
WEE
2
2.5
0
0
3
0.5
0.5
1
1.5
WEE
2
2.5
−0.3
0
3
0.5
D
1
1.5
WEE
2
2.5
3
1
1.5
WEE
2
2.5
3
0.5
E
0.4
0.5
0.4
F
0.4
0.3
0.2
ρ
CGAB
0.3
CGBA
0.3
0.1
0.2
0.2
0
0.1
0.1
−0.1
−0.2
0
0
0.5
1
1.5
WEE
2
2.5
3
0
0
0.5
1
1.5
WEE
2
2.5
3
−0.3
0
0.5
Figura 6: Variação da causalidade de Granger e da correlação com o aumento do peso
sináptico entre os neurônios excitatórios de diferentes redes. Nos gráfico A
e D são mostrados os aumentos da causalidade de Granger CGBA no sentido
da rede A para a rede B em função do aumento no peso sináptico WEE , e nos
gráficos B e E são mostrados os comportamentos da causalidade de Granger
no sentido contrário ou seja, da rede B para a rede A. Os gráficos C e F mostram os valores dos coeficientes de correlação de Spearman de acordo com o
aumento do peso sináptico. Nos gráficos A, B e C as redes têm parâmetros
da rede 1 (tabela 2) e nos gráficos D, E e F a rede A tem parâmetros da rede
1 e a rede B tem parâmetros equivalentes a rede 4 (tabela 2).
Na causalidade de Granger no sentido contrário CG AB (gráficos B e E da figura 6)
o valor permanece estável com média aproximadamente constante. Esse comportamento da causalidade de Granger CG AB era esperado, visto que, não há influência dos
neurônios da rede B sobre os neurônios da rede A.
Verificamos também os valores da correlação de Spearman [136] de acordo com o
aumento no peso sináptico (gráficos C e F da figura 6). Utilizamos a correlação de
CAPÍTULO 4. experimentos computacionais e resultados
800
800
ìndice do
Neurônio
1000
Índice do
Neurônio
1000
600
400
600
400
200
0
1000
200
1100
1200
1300
Tempo (ms)
1400
0
1000
1500
800
1600
Índice do
Neurônio
2000
Índice do
Neurônio
1000
600
400
1400
1500
1100
1200
1300
Tempo (ms)
1400
1500
20
40
60
Frequência (Hz)
80
100
400
1100
1200
1300
Tempo (ms)
1400
0
1000
1500
1
0.8
0.8
Coerência
Coerência
1200
1300
Tempo (ms)
800
1
0.6
0.4
0.2
0
0
1100
1200
200
0
1000
72
0.6
0.4
0.2
20
40
60
Frequência (Hz)
80
100
0
0
Figura 7: Gráficos mostrado a sincronização na atividade da rede B e entre os sinais
de LFP das diferentes redes. De cima para baixo temos primeiramente os
gráficos da rede A, ambos com parâmetros equivalentes a rede 1, na linha do
meio temos os gráficos da rede B, no lado esquerdo a rede B é equivalente
a rede 1 e no lado direito a rede B é equivalente a rede 4. Por fim temos o
gráfico da coerência espectral entre os sinais de LFP das redes A e B, no lado
esquerdo para o caso em que as duas redes tem parâmetros similares e no
lado direito para os casos em que as redes tem parâmetros diferentes. Os
dados foram gerados para 1 trial e com peso sináptico WEE = 2, 5 entre os
neurônios excitatórios das diferentes redes.
Spearman pois ela é uma medida não-paramétrica da correlação, de forma que, não
faz nenhuma suposição sobre a distribuição dos dados, além disso, essa medida não é
sensível a presença de outliers. Para o caso em que as duas redes oscilam em frequências próximas e têm aproximadamente os mesmos parâmetros (grafico C da figura 6),
os valores da correlação de Spearman crescem de acordo com o aumento no peso si-
CAPÍTULO 4. experimentos computacionais e resultados
73
náptico, porém ficam aproximadamente estáveis a partir de um certo valor do peso
sináptico. Esse valor é próximo ao valor em que ocorre uma diminuição da taxa de
crescimento do valor da causalidade de Granger (WEE ≈ 2). Para o caso em que as
redes são diferentes (gráfico F da figura 6) o valor da correlação de Spearman decai
para valores negativos a medida que aumentamos o peso sináptico entre os neurônios
das diferentes redes. Esse descrescimento e os valores negativos da correlação podem
estar relacionados à diferença entre as frequências de oscilação dos sinais de LFP das
diferentes redes. Assim, mesmo que exista um aumento do efeito dos neurônios excitatórios da rede A sobre os neurônios excitatórios da rede B, a dinâmica do sinal de LFP
das diferentes redes permance diferente. Já para o caso das redes com comportamentos equivalentes, o aumento no peso sináptico faz com a dinâmica dos sinais de LFP
seja cada vez mais próxima até um valor limite que equivale a correlação estável. Essa
proximidade na dinâmica pode estar relacionada a diminuição na diferença de fase
entre os sinais. É importante ressaltar que assim como para o caso da causalidade de
Granger, não foi feita a análise da significância estatística da correlação de Spearman,
então, sabendo que os valores máximos da correlação são −1 e 1 podemos afirmar que
para os dois casos estudados as correlações entre os sinais são fracas.
Utilizamos os mesmos dados das redes para fazer uma análise similar a anterior,
porém, no domínio das frequências. Sendo assim, verificamos os valores do PDC
máximo e da coerência espectral máxima entre os sinais, de acordo com o aumento
do peso sináptico entre os neurônios excitatórios das diferentes redes. Na figura 8 são
apresentados os gráficos com os resultados dessa análise. Verificamos que os valores
do PDC A → B (gráficos A e D) aumentam conforme aumentamos os valores do peso
sináptico WEE . Esse crescimento do PDC A → B é rápido e para valores próximos ao
início do intervalo de pesos sinápticos, como WEE = 1, o PDC A → B apresenta valores
próximos a 1, que é o valor máximo para o PDC. O comportamento dos valores do
PDC A → B com o aumento do peso sináptico tem um comportamento muito parecido
para o caso em que as redes têm parâmetros equivalentes e para o caso em que as redes
são diferentes.
CAPÍTULO 4. experimentos computacionais e resultados
74
Avaliamos o PDC no sentido contrário, PDC B → A, e verificamos que para o caso
em que as redes têm parâmetros equivalentes, o PDC apresenta um valor intermediário quando o peso sináptico é próximo a 0. Isso significa que devido a frequência de
oscilação das redes serem próximas, é possível que exista uma conectividade efetiva
entre os sinais dessas redes, mesmo não havendo conexões entre os neurônios delas.
Em outras palavras, quando o peso sináptico é próximo a zero, o coeficiente do modelo autorregressivo que representam a influência no sentido da rede B para a rede A
não é nulo. Isso significa que podemos prever os valores do sinal de LFP da rede A
através dos valores passados do sinal de LFP da rede B. Para verificarmos se esse caso
corresponde a um falso positivo, deveríamos avaliar se os valores obtidos para o PDC
são estatisticamente significativos. No entanto, esse não foi o objetivo dessa análise.
Conforme aumentamos o valor do peso sináptico, os valores do PDC B → A descrescem. O motivo disso ocorrer é que conforme aumentamos a influência de uma rede
sobre a outra, mesmo quando elas têm parâmetros equivalentes, a heterogeneidade
entre os sinais de LFP aumenta, dessa forma, não é possível mais prever os valores do
sinal da rede A através dos valores do sinal da rede B. No gráfico E da figura 8, os
valores do PDC no sentido da rede B para a rede A também descrescem, porém o valor
inicial do PDC é baixo, diferente do que acontece no gráfico B. O motivo desse caso
ser diferente é que as redes oscilam em frequências diferentes quando isoladas, ou seja,
quando o peso sináptico entre os neurônios das diferentes redes é zero. Sendo assim,
as séries temporais dos sinais de LFP são heterogêneas desde o início, fazendo com
que seja menos provável que possamos prever os valores do sinal da rede A através
dos valores passados do sinal da rede B. Os valores da coerência espectral máxima
para ambos os casos crescem conforme aumentamos o peso sináptico. Isso mostra que
existe um aumento da sincronização entre os sinais das diferentes redes. O crescimento
da coerência para o caso em que as redes tem parâmetros equivalentes (gráfico C) é
similar para o caso em que as redes são diferentes (gráfico F).
CAPÍTULO 4. experimentos computacionais e resultados
1
1
A
1
B
0.9
C
0.9
0.8
0.7
Coerência
0.8
PDC B−>A
PDC A−>B
0.8
0.6
0.4
0.6
0.7
0.6
0.2
0.5
0.4
0
0.5
1
1.5
WEE
2
2.5
0
0
3
1
0.5
0.5
1
1.5
WEE
2
2.5
0.4
0
3
1
D
0.5
1
1.5
WEE
2
2.5
3
1
1.5
WEE
2
2.5
3
1
E
F
0.9
0.8
Coerência
PDC B−>A
0.8
PDC A−>B
0.9
0.6
0.4
0.8
0.7
0.6
0.2
0.7
0
75
0.5
1
1.5
WEE
2
2.5
3
0
0
0.5
0.5
1
1.5
WEE
2
2.5
3
0.4
0
0.5
Figura 8: Variação da coerência parcial direcionada máxima (PDC) e da coerência espectral máxima com o aumento do peso sináptico entre os neurônios excitatórios de diferentes redes. Nos gráfico A e D são mostrados os aumentos
do valor da coerência parcial direcionada máxima no sentido da rede A para
a rede B (PDC A → B) em função do aumento no peso sináptico WEE , e
nos gráficos B e E são mostrados os comportamentos da coerência parcial
direcionada máxima no sentido contrário ou seja, da rede B para a rede A
(PDC B → A). Os gráficos C e F mostram os valores da coerência espectral
de acordo com o aumento do peso sináptico. Nos gráficos A, B e C as redes
têm parâmetros da rede 1 (tabela 2) e nos gráficos D, E e F a rede A tem
parâmetros da rede 1 e a rede B tem parâmetros equivalentes a rede 4 (tabela
2).
CAPÍTULO 4. experimentos computacionais e resultados
76
4.3 coerência parcial direcionada aplicada
a redes de neurônios
Nessa parte do trabalho verificamos a aplicação da coerência parcial direcionada (PDC)
e da coerência parcial direcionada generalizada (GPDC) sobre modelos compostos pelas redes apresentadas anteriormente. Nesses modelos as redes podem ou não interagir
entre si, quando há interação, ela pode ocorrer de duas formas principais, através de
sinapses do tipo excitatório-excitatório (EE), ou sinapses do tipo inibitório-excitatório
(IE), nesses casos a quantidade de sinapses que cada neurônio recebe e o peso sináptico
são fixos.
Nas interações entre neurônios excitatórios, cada neurônio excitatório recebe 10 siij
napses excitatórias com pesos sináptico WEE = 0, 5. Nas interações do tipo inibitórioexcitatório, cada neurônio excitatório recebe 5 sinapses inibitórias com peso sináptico
ij
WIE = 10, 0, onde as sinapses partem da rede j para a rede i. Assim como é feito
para as sinapses entre os neurônio que compõem cada uma das redes, o valor do
peso sináptico é multiplicado por um fator que é diferente para os diferentes tipos
de neurônio pré-sináptico (excitatório ou inibitório). Os mesmo fatores utilizados nas
sinapses entre os neurônios de uma mesma rede são multiplicados pelos pesos sinápticos entre os neurônios de diferentes redes. Os delays também são diferentes para os
ij
diferentes tipos de sinapse. No caso das sinapses inibitório-excitatório o delay d IE = 1
ij
milissegundo e para os casos das sinapses excitatório-excitatório o delay é d EE = 5 milissegundos. Foram feitos 6 modelos baseados nos modelos utilzados por Baccalá e
Sameshima [35]. Porém, substituímos as séries geradas por modelos autorregressivos
pelos sinais de LFP das redes simuladas. Nas interações em que o coeficiente do modelo autorregressivo era negativo, utilizamos nos nossos modelos conexões do tipo
inibitório-excitatório e para os casos em que o coeficiente era positivo, utilizamos no
nosso modelo conexões do tipo excitatório-excitatório. Modificamos entre os modelos
o número de redes utlizadas e os tipos de conexões entre os neurônios dessas redes.
CAPÍTULO 4. experimentos computacionais e resultados
77
4.3.1 Modelo 1
No primeiro modelo supomos 3 redes de neurônios que não interagem entre si, de
forma que as únicas sinapses que ocorrem nesse modelo são entre os neurônios que
compõem as mesmas redes. Na figura 9 é mostrado o grafo que representa modelo
em estudo. A importância do estudo desse modelo é que devido ao fato de não haver
interações entre as redes de neurônios, espera-se que a coerência parcial direcionada
não registre valores significativos para as conexões, caso contrário, poderíamos concluir
que a aplicação da coerência parcial direcionada em dados como os gerados pelas redes
aqui apresentadas, não nos dão informações reais sobre a conectividade.
Na figura 10 mostramos os gráficos com os valores da coerência parcial direcionada
para 200 valores de frequência entre 0 e 100 Hz. A linha contínua vermelha nos gráficos
representa o valor do PDC médio entre 15 trials. A linha azul tracejada representa a
coerência espectral média entre os trials e a linha preta pontilhada representa o valor
crítico do PDC médio para cada frequência obtido através do bootstrap. Acima do valor
crítico o valor do PDC médio é estatisticamente significativo.
Podemos verificar que não há valores significativos para o PDC médio o que corrobora com o fato de não haver conectividade entre as redes neurais. No entanto
verificamos um comportamento estranho dos valores do PDC médio e dos valores críticos para o caso em que é avaliado se a rede 3 recebe sinapses de alguma das outras
duas redes. Nesse caso, mesmo não sendo significativo, os valores do PDC médio
não são baixos, levando em conta que os valores do PDC vão de 0 a 1. Segundo Baccalá e Sameshima [45] isso pode ocorrer devido a diferenças de escala entre os sinais
em estudo, ou seja, mudaças na amplitude de uma das séries temporais pode levar a
mudanças consideráveis no valor do PDC. Como solução para esse problema, os pesquisadores sugerem o uso da coerência parcial direcionada generalizada (GPDC) que
é invariante a escala. O que diferencia o cálculo do PDC do cálculo do GPDC, é que
no GPDC são introduzidos termos relacionados a variância dos resíduos dos modelos
autorregressivos. Para verificar a diferença entre o PDC e o GPDC aplicamos o GPDC
sobre os mesmo dados do modelo 1. Os resultados são apresentados na figura 11.
CAPÍTULO 4. experimentos computacionais e resultados
1
2
78
3
0.8
0.8
0.6
0.6
PDC 3−>1
PDC 2−>1
Figura 9: Grafo direcionado representado o modelo 1. O índice de cada nó é equivalente a rede que ele representa. Nesse modelo temos as redes 1, 2 e 3 cujos
parâmetros são apresentados na tabela 2.
0.4
0.2
0.2
20
40
60
80
Frequência (Hz)
0.8
0.8
0.6
0.6
0.4
0.2
0
0
20
40
60
80
Frequência (Hz)
40
60
80
Frequência (Hz)
100
20
40
60
80
Frequência (Hz)
100
0.4
0
0
100
0.8
0.8
0.6
0.6
0.4
0.2
0
0
20
0.2
PDC 2−>3
PDC 1−>3
0
0
100
PDC 3−>2
PDC 1−>2
0
0
0.4
0.4
0.2
20
40
60
80
Frequência (Hz)
100
0
0
20
40
60
80
Frequência (Hz)
100
Figura 10: Gráficos do PDC médio (linha contínua vermelha), da coerência espectral
média (linha tracejada azul) e do valor crítico do PDC médio (linha preta
pontilhada) versus a frequência. A indicação da direção das interações é
feita ao lado do eixo das ordenadas.
CAPÍTULO 4. experimentos computacionais e resultados
79
Podemos verificar através da figura 11 que todos os valores do GPDC médio são
estatisticamente não significativos, ou seja, abaixo dos valores críticos, e não ocorre
mais de termos valores que não são baixos e não significativos. Todos os valores no
0.8
0.8
0.6
0.6
0.4
0.2
20
40
60
80
Frequência (Hz)
0.4
0.2
0
0
100
0.8
0.6
0.6
GPDC 3−>2
0.8
0.4
0.2
0
0
20
40
60
80
Frequência (Hz)
0.8
0.8
0.6
0.6
0.4
0.2
0
0
20
40
60
80
Frequência (Hz)
100
20
40
60
80
Frequência (Hz)
100
20
40
60
80
Frequência (Hz)
100
0.4
0.2
0
0
100
GPDC 2−>3
GPDC 1−>2
0
0
GPDC 1−>3
GPDC 3−>1
GPDC 2−>1
GPDC médio estão em uma mesma faixa de valores para os diferentes gráficos.
0.4
0.2
0
0
20
40
60
80
Frequência (Hz)
100
Figura 11: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral
média (linha tracejada azul) e do valor crítico do GPDC médio (linha preta
pontilhada) versus a frequência para o modelo 1. A indicação da direção das
interações é feita ao lado do eixo das ordenadas
Devido ao fato do GPDC fornecer uma melhor resultado para a análise da conectividade quando comparado ao PDC, usaremos apenas o GPDC como método de conetividade efetiva no domínio das frequências na avaliação dos demais modelos.
CAPÍTULO 4. experimentos computacionais e resultados
80
4.3.2 Modelo 2
No modelo 2 também é avaliada a conectividade entre 3 redes de neurônios, porém,
nesse caso temos conexões entre os neurônios das diferentes redes. Na figura 12 são
mostradas as conexões através de um grafo direcionado. As setas pretas no grafo
indicam as conexões do tipo excitatório-excitatório e as setas vermelhas indicam as
conexões do tipo inibitório-excitatório, sendo assim a única conexão inexistente é da
rede 1 em direção a rede 3. O interessante desse modelo é que podemos verificar
como as interações estão relacionadas aos valores obtidos pelo GPDC médio. Em uma
primeira análise podemos verificar através da figura 13 que os valores obtidos para o
GPDC médio correspondem as conexões entre as redes de neurônios. O GPDC médio
apresenta diferentes valores para as diferentes interações. Esses diferentes valores são
causados pelo fato de termos diferentes números de conexões para cada rede.
Verificamos que o valor do GPDC médio da rede 1 para a rede 2, mesmo sendo uma
interação inibitória, tem um pico bem definido em aproximadamente 20 Hz, que é a
frequência aproximada com que a rede 1 oscila quando está isolada. O fato do GPDC
da rede 1 para a rede 2 ter um valor alto esta relacionada com o fato das conexões
partindo da rede 1 ter apenas uma outra rede alvo, a rede 2. O GPDC assim como
o PDC classifica o peso da interação entre os sinais com respeito a fonte do sinal.
Além disso, um outro fato que pode contribuir para o valor alto do GPDC da rede
1 para a rede 2 é o fato da rede 1 não receber conexões inibitórias, apenas conexões
excitatórias, fazendo com que os neurônios excitatórios dessa rede tornem-se mais
ativos, essa atividade é propagada para os neurônios inibitórios através das sinapses
que ocorrem dentro da rede.
A rede 2 por sua vez, recebe sinapses excitatórias e inibitórias sobre os seus neurônios excitatórios. O valores mais altos do GPDC médio da rede 2 para a rede 1 são
próximos aos valores que a rede 2 oscila, porém, os valores do GPDC médio da rede 2
para a rede 3, apesar de serem estatisticamente significativos, são baixos. Como a rede
2 faz conexões com duas redes alvo, a rede 1 e a rede 3, é esperado que os valores do
GPDC para essas conexões sejam menores do que o encontrado no caso da conexão
CAPÍTULO 4. experimentos computacionais e resultados
81
da rede 1 para a rede 2. A rede 3 recebe apenas conexões inibitórias da rede 2. Os
valores do GPDC da rede 3 para a rede 1 e da rede 3 para a rede 2 são baixo porém
estatisticamente significativos.
4.3.3 Modelo 3
No modelo 3 aumentamos o número de redes no modelo acrescentando as redes 4 e 5.
Nesse modelo temos a rede 1 fazendo conexões do tipo excitatório-excitatório com a
rede 2, e do tipo inibitório-excitatório com as rede 3 e a rede 4, a rede 4 está conectada
a rede 5 de forma que formariam um oscilador independente caso não houvesse a
conexão da rede 1 com a rede 4. Na figura 14 podemos verificar através do grafo as
conexões entre as redes pertencentes ao modelo. Podemos verificar através do modelo
que a rede 1 não recebe conexão de nenhuma das outras redes, e as redes 2 e 3 não
enviam conexões para nenhuma outra rede do modelo.
Podemos verificar através da figura 15 que o GPDC médio entre as conexões que
partem da rede 1 são aproximadamente iguais, independente se é do tipo excitatórioexcitatório ou inibitório-excitatório, e com pico em uma frequência próxima a frequência de oscilação da rede 1. Como esperado não há valores estatisticamente significativos
para o GPDC médio de conexões que partam da rede 2, ou para conexões que partam
da rede 3 e nem para conexões que cheguem a rede 1. Os valores do GPDC médio da
rede 5 para a rede 4 e da rede 4 para a rede 5 são pequenos porém estatisticamente
significativos.
Na figura 15 mostramos também os valores da coerência espectral média entre os
sinais das diferentes redes que compõem o modelo 3. Podemos verificar que se utilizássemos a coerência espectral média entre os trials como método de conectividade
a fim de identificar as conexões reais entre as redes de neurônios, chegaríamos a resultados equivocados visto que existem vários casos nesse modelo em que o valor da
coerência espectral média é alto porém não existe conexões entre as redes de neurônios.
Esse resultado mostra a vantagem da utilização de métodos de conectividade efetiva
CAPÍTULO 4. experimentos computacionais e resultados
1
2
82
3
Figura 12: Grafo direcionado representado o modelo 2. O índice de cada nó é equivalente a rede que ele representa. As setas pretas no grafo indicam as
conexões do tipo excitatório-excitatório e as setas vermelhas indicam as
conexões do tipo inibitório-excitatório. Nesse modelo temos as redes 1, 2
e 3 cujos parâmetros são apresentados na tabela 2.
1
GPDC 3−>1
GPDC 2−>1
1
0.5
0
0
20
40
60
80
Frequência (Hz)
0
0
100
0.5
20
40
60
80
Frequência (Hz)
100
20
40
60
80
Frequência (Hz)
100
1
GPDC 2−>3
GPDC 1−>3
40
60
80
Frequência (Hz)
0.5
0
0
100
1
0.5
0
0
20
1
GPDC 3−>2
GPDC 1−>2
1
0
0
0.5
20
40
60
80
Frequência (Hz)
100
0.5
0
0
20
40
60
80
Frequência (Hz)
100
Figura 13: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha
preta pontilhada) versus a frequência para o modelo 2. A indicação da
direção das interações é feita ao lado do eixo das ordenadas
CAPÍTULO 4. experimentos computacionais e resultados
83
sobre os métodos de conectividade funcional quando aplicados a fim de identificar as
conexões reais entre as redes.
4.3.4 Modelo 4
No modelo 4 , figura 16, a influência sobre as redes é propagada sequencialmente.
Assim, a rede 1 faz conexão do tipo inibitório-excitatório com a rede 2, a rede 2 faz
conexão do tipo excitatório-excitatório com a rede 3, a rede 3 faz conexão do tipo
inibitório-excitatório com a rede 4, a rede 4, por sua vez, assim como para o caso do
modelo 3, formaria um oscilador independente com a rede 5 caso a rede 4 não estivesse
ligada a rede 3. Na figura 17 podemos verificar que os resultados para o GPDC médio
estão de acordo com as conexões apresentadas no modelo. Assim como para o caso do
modelo 2, existe um pico do GPDC médio para as conexões da rede 1 para a rede 2,
novamente isso ocorre devido ao fato da rede 1 fazer conexões com apenas uma outra
rede alvo, a rede 2. Além disso essa rede não recebe conexões inibitórias o que poderia
fazer com que a atividade dessa rede fosse diminuída.
Na conexão da rede 3 para a rede 4 acontece uma situação semelhante, porém nesse
caso a rede 3 recebe conexões excitatórias da rede 2, o valor do GPDC médio para
essa conexão tem um pico em um frequência aproximadamente igual a frequência de
oscilação da rede 3 quando ela esta isolada.
Nas conexões da rede 2 para a rede 3 também temos um valor do GPDC médio
próximo a frequência de oscilação da rede 2, no entanto, nesse caso não há um pico
acentuado. Assim como para o caso do modelo 3, os valores do GPDC médio da rede
4 para a rede 5 e da rede 5 para a rede 4, são pequenos, porém, esses valores são
estatisticamente significativos.
CAPÍTULO 4. experimentos computacionais e resultados
84
2
1
4
5
3
0.9
0.6
0.3
GPDC 1−>5
0
0
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
50
100
Frequência (Hz)
50
100
Frequência (Hz)
0.3
0
0
0.9
0.6
0.3
0
0
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
GPDC 4−>3
0.6
50
100
Frequência (Hz)
50
100
Frequência (Hz)
0
0
0.9
0.6
0.3
0
0
0.9
0.6
0.3
0.9
0.6
0.3
0
0
0.9
0.6
0.3
0
0
GPDC 5−>1
50
100
Frequência (Hz)
GPDC 5−>2
0.3
0
0
50
100
Frequência (Hz)
GPDC 3−>4
GPDC 1−>4
0
0
0.3
0.9
GPDC 3−>5
0.3
GPDC 2−>3
0.6
0.6
0
0
50
100
Frequência (Hz)
GPDC 2−>4
GPDC 1−>3
0.9
0.9
50
100
Frequência (Hz)
0.6
50
100
Frequência (Hz)
GPDC 5−>3
0.3
0
0
0.9
50
100
Frequência (Hz)
GPDC 5−>4
0.6
0
0
50
100
Frequência (Hz)
GPDC 3−>2
0.9
GPDC 2−>5
GPDC 1−>2
0
0
0.3
GPDC 4−>1
0.3
0.6
GPDC 4−>2
0.6
0.9
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
GPDC 4−>5
0.9
GPDC 3−>1
GPDC 2−>1
Figura 14: Grafo direcionado representado o modelo 3. O índice de cada nó é equivalente a rede que ele representa. As setas pretas no grafo indicam as
conexões do tipo excitatório-excitatório e as setas vermelhas indicam as
conexões do tipo inibitório-excitatório. Nesse modelo temos as redes 1, 2,
3, 4 e 5 cujos parâmetros são apresentados na tabela 2.
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
Figura 15: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha
preta pontilhada) versus a frequência para o modelo 3. A indicação da
direção das interações é feita ao lado do eixo das ordenadas
CAPÍTULO 4. experimentos computacionais e resultados
1
2
3
85
4
5
0.2
GPDC 1−>4
0
0
0.8
0.6
0.4
0.2
GPDC 1−>5
0
0
0.8
0.6
0.4
0.2
0
0
50
100
Frequência (Hz)
50
100
Frequência (Hz)
50
100
Frequência (Hz)
0.4
0.2
0.4
0.2
0
0
0.8
0.6
0.4
0.2
0
0
0.8
0.6
0.4
0.2
0
0
50
100
Frequência (Hz)
50
100
Frequência (Hz)
GPDC 4−>3
0.6
50
100
Frequência (Hz)
50
100
Frequência (Hz)
0
0
0.8
0.6
0.4
0.2
0
0
0.8
0.6
0.4
0.2
0.8
0.6
0.4
0.2
0
0
0.8
0.6
0.4
0.2
0
0
GPDC 5−>1
0.2
0
0
50
100
Frequência (Hz)
GPDC 3−>4
0.2
0.6
0.8
GPDC 3−>5
0.4
GPDC 2−>3
0.6
0.8
0
0
50
100
Frequência (Hz)
GPDC 2−>4
GPDC 1−>3
0.8
0
0
0.4
50
100
Frequência (Hz)
GPDC 5−>2
0.4
0.2
0.6
50
100
Frequência (Hz)
GPDC 5−>3
0.6
0
0
50
100
Frequência (Hz)
GPDC 3−>2
0.8
GPDC 2−>5
GPDC 1−>2
0
0
0.4
0.8
50
100
Frequência (Hz)
GPDC 5−>4
0.2
0.6
GPDC 4−>1
0.4
0.8
GPDC 4−>2
0.6
50
100
Frequência (Hz)
0.8
0.6
0.4
0.2
0
0
50
100
Frequência (Hz)
0.8
0.6
0.4
0.2
0
0
50
100
Frequência (Hz)
0.8
0.6
0.4
0.2
0
0
50
100
Frequência (Hz)
0.8
0.6
0.4
0.2
0
0
50
100
Frequência (Hz)
GPDC 4−>5
0.8
GPDC 3−>1
GPDC 2−>1
Figura 16: Grafo direcionado representado o modelo 4. O índice de cada nó é equivalente a rede que ele representa. As setas pretas no grafo indicam as
conexões do tipo excitatório-excitatório e as setas vermelhas indicam as
conexões do tipo inibitório-excitatório. Nesse modelo temos as redes 1, 2,
3, 4 e 5 cujos parâmetros são apresentados na tabela 2.
50
100
Frequência (Hz)
0.8
0.6
0.4
0.2
0
0
50
100
Frequência (Hz)
Figura 17: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha
preta pontilhada) versus a frequência para o modelo 4. A indicação da
direção das interações é feita ao lado do eixo das ordenadas.
CAPÍTULO 4. experimentos computacionais e resultados
86
4.3.5 Modelo 5
No modelo 5, figura 18 temos uma situação parecida com a do modelo 4, porém fechamos as conexões de forma que a última rede influencia a primeira, ou seja, a rede 5
exerce influência sobre a rede 1. Sendo assim, o fluxo do sinal passa por todas as redes
do modelo 5.
O interessante desse modelo é que para métodos de conectividade que detectam
as conexões indiretas, como por exemplo a função de transferência direcionada (DTF)
poderiam ser registradas conexões entre redes que não interagem entre si. No entanto
para o caso de conexões diretas o resultado obtido é diferente.
Verificamos através da análise do GPDC médio, figura 19, que os resultados são
bem próximos aos resultados obtidos para o modelo 4, figura 17, porém existe valores
estatisticamente significativos da conexão da rede 5 para a rede 1, correspondendo
exatamente ao que era esperado desse modelo.
4.3.6 Modelo 6
Analisamos o modelo 6, figura 20. Nesse modelo temos conexões inibitórias ligando
a rede 1 a rede 2, a rede 2 a rede 3, a rede 3 a rede 4 e a rede 4 a rede 5, as únicas
conexões excitatórias são da rede 1 para a rede 3 e da rede 5 para a rede 4.
Na figura 21 temos o GPDC médio para as diferentes interações do modelo. Verificamos que o GPDC médio consegue registrar algumas das conexões presentes no
modelo, como para a influência sobre a rede 3 devido a rede 1, porém falha no registro
da conexão da rede 2 para a rede 3. Isso pode acontecer devido a redução da atividade
na rede 2 provocada pelos neurônio inibitórios da rede 1. Essa redução da atividade
não faz com que os neurônios da rede 2 deixem de apresentar potenciais de ação, porém, pode fazer com que a atividade da rede seja reduzida. Somado a isso, o número
de influências inibitórias que a rede 3 recebe da rede 2, pode ser muito pequena para
que seja gerada uma influência significativa.
CAPÍTULO 4. experimentos computacionais e resultados
2
3
87
4
5
1
0.9
0.6
0.3
GPDC 1−>5
0
0
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
50
100
Frequência (Hz)
50
100
Frequência (Hz)
0.3
0
0
0.9
0.6
0.3
0
0
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
GPDC 4−>3
0.6
50
100
Frequência (Hz)
50
100
Frequência (Hz)
0
0
0.9
0.6
0.3
0
0
0.9
0.6
0.3
0.9
0.6
0.3
0
0
0.9
0.6
0.3
0
0
GPDC 5−>1
50
100
Frequência (Hz)
GPDC 5−>2
0.3
0
0
50
100
Frequência (Hz)
GPDC 3−>4
GPDC 1−>4
0
0
0.3
0.9
GPDC 3−>5
0.3
GPDC 2−>3
0.6
0.6
0
0
50
100
Frequência (Hz)
GPDC 2−>4
GPDC 1−>3
0.9
0.9
50
100
Frequência (Hz)
0.6
50
100
Frequência (Hz)
GPDC 5−>3
0.3
0
0
0.9
50
100
Frequência (Hz)
GPDC 5−>4
0.6
0
0
50
100
Frequência (Hz)
GPDC 3−>2
0.9
GPDC 2−>5
GPDC 1−>2
0
0
0.3
GPDC 4−>1
0.3
0.6
GPDC 4−>2
0.6
0.9
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
GPDC 4−>5
0.9
GPDC 3−>1
GPDC 2−>1
Figura 18: Grafo direcionado representado o modelo 5. O índice de cada nó é equivalente a rede que ele representa. As setas pretas no grafo indicam as
conexões do tipo excitatório-excitatório e as setas vermelhas indicam as
conexões do tipo inibitório-excitatório. Nesse modelo temos as redes 1, 2,
3, 4 e 5 cujos parâmetros são apresentados na tabela 2.
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
Figura 19: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha
preta pontilhada) versus a frequência para o modelo 5. A indicação da
direção das interações é feita ao lado do eixo das ordenadas
CAPÍTULO 4. experimentos computacionais e resultados
88
A fim de investigar a atividade da rede 2, apresentamos na tabela 3, os valores da
taxa de disparo média para os casos da rede 2 isolada (modelo 1) e da rede 2 no modelo
6. As taxas de disparos foram calculadas da seguinte forma, primeiramente, verificamos a quantidade de disparos para cada tipo de neurônio (excitatório ou inibtório) e
dividimos essas quantidades pelo número de neurônios correspondente. Somamos os
resultados obtidos para os diferentes trials e dividimos pelo número de trials. Como
podemos verificar através da tabela 3, houve uma diminuição na taxa de disparos na
rede 2 do modelo 6. No entanto, apenas com essa análise, não podemos inferir os motivos pelos quais a influência da rede 2 sobre a rede 3, não pode ser estimada através
dos valores GPDC. Para explorar esse caso, simulamos mais três modelos derivados
do modelo 6, os modelos 6.a, 6.b e 6.c. O que diferencia esses modelos do modelo 6
original, são, em alguns casos, os tipos de conexões que a rede 2 envia ou recebe, e, em
um outro caso, a quantidade de conexões que a rede 3 recebe da rede 2.
Modelo
1
1
6
6
Tipo dos Neurônios
Excitatórios
Inibitórios
Excitatórios
Inibitórios
Taxa de Disparos (Hz)
1, 59
6, 17
0, 95
5, 50
Tabela 3: Taxa de disparos média dos neurônios da rede 2. A primeira coluna da tabela
corresponde ao modelo no qual foi avaliado a taxa de disparos dos neurônios
da rede 2, a segunda coluna corresponde ao tipo de neurônios avaliados e na
terceira coluna temos a taxa de disparos média dos neurônios da rede 2 para
cada um dos casos.
4.3.6.1 Modelo 6.a
No modelo 6.a substituímos as conexões inibitórias da rede 2 para a rede 3 por conexões excitatórias. Como dissemos anteriormente, o número de conexões excitatórias é
maior do que o número de conexões inibitórias nos diferentes modelos. Sendo assim,
esperamos que, substituindo o tipo de conexão, possamos verificar valores significativos para o GPDC médio relacionado a conexão da rede 2 para a rede 3.
CAPÍTULO 4. experimentos computacionais e resultados
89
2
1
3
4
5
0.2
GPDC 1−>4
0
0
0.8
0.6
0.4
0.2
GPDC 1−>5
0
0
0.8
0.6
0.4
0.2
0
0
50
100
Frequência (Hz)
50
100
Frequência (Hz)
50
100
Frequência (Hz)
0.4
0.2
0.4
0.2
0
0
0.8
0.6
0.4
0.2
0
0
0.8
0.6
0.4
0.2
0
0
50
100
Frequência (Hz)
50
100
Frequência (Hz)
GPDC 4−>3
0.6
50
100
Frequência (Hz)
50
100
Frequência (Hz)
0
0
0.8
0.6
0.4
0.2
0
0
0.8
0.6
0.4
0.2
0.8
0.6
0.4
0.2
0
0
0.8
0.6
0.4
0.2
0
0
GPDC 5−>1
0.2
0
0
50
100
Frequência (Hz)
GPDC 3−>4
0.2
0.6
0.8
GPDC 3−>5
0.4
GPDC 2−>3
0.6
0.8
0
0
50
100
Frequência (Hz)
GPDC 2−>4
GPDC 1−>3
0.8
0
0
0.4
50
100
Frequência (Hz)
GPDC 5−>2
0.4
0.2
0.6
50
100
Frequência (Hz)
GPDC 5−>3
0.6
0
0
50
100
Frequência (Hz)
GPDC 3−>2
0.8
GPDC 2−>5
GPDC 1−>2
0
0
0.4
0.8
50
100
Frequência (Hz)
GPDC 5−>4
0.2
0.6
GPDC 4−>1
0.4
0.8
GPDC 4−>2
0.6
50
100
Frequência (Hz)
0.8
0.6
0.4
0.2
0
0
50
100
Frequência (Hz)
0.8
0.6
0.4
0.2
0
0
50
100
Frequência (Hz)
0.8
0.6
0.4
0.2
0
0
50
100
Frequência (Hz)
0.8
0.6
0.4
0.2
0
0
50
100
Frequência (Hz)
GPDC 4−>5
0.8
GPDC 3−>1
GPDC 2−>1
Figura 20: Grafo direcionado representado o modelo 6. O índice de cada nó é equivalente a rede que ele representa. As setas pretas no grafo indicam as
conexões do tipo excitatório-excitatório e as setas vermelhas indicam as
conexões do tipo inibitório-excitatório. Nesse modelo temos as redes 1, 2,
3, 4 e 5 cujos parâmetros são apresentados na tabela 2.
50
100
Frequência (Hz)
0.8
0.6
0.4
0.2
0
0
50
100
Frequência (Hz)
Figura 21: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha
preta pontilhada) versus a frequência para o modelo 6. A indicação da
direção das interações é feita ao lado do eixo das ordenadas.
CAPÍTULO 4. experimentos computacionais e resultados
90
No grafo da figura 22 são mostradas as conexões entre as redes. Podemos verificar através dos resultados apresentados nos gráficos da figura 23 que temos valores
significativos para o GPDC médio da rede 2 para a rede 3.
É interessante verificar que a taxa de disparos da rede 2 nesse modelo, não tem
mudanças consideráveis em relação a rede 2 do modelo 6, pois a rede 2 continua
recebendo o mesmo número de conexões inibitórias da rede 1. Devido ao fato da rede
3 receber mais conexões excitatórias, ocorre um aumento na atividade dos neurônios
excitatórios da rede 3. Esses neurônios excitatórios, estão conectados com neurônios
inibitórios fazendo com que a atividade desses também seja aumentada. Na tabela
4, são mostados os valores da taxa de disparos média para a rede 3 no modelo 6 e
no modelo 6.a. O aumento da taxa de disparos é refletido no valor do GPDC médio
da rede 3 para a rede 4. Diferente do que ocorre no modelo 6 onde temos um pico
pequeno, no modelo 6.a, temos dois picos com valores relativamente altos para o GPDC
médio. Os valores do GPDC médio para as outras conexões do modelo permanecem
similares aos valores obtidos no modelo 6.
Modelo
6
6
6.a
6.a
Tipo dos Neurônios
Excitatórios
Inibitórios
Excitatórios
Inibitórios
Taxa de Disparos (Hz)
2, 91
12, 23
4, 80
15, 98
Tabela 4: Taxa de disparos média dos neurônios da rede 3. A primeira coluna da tabela
corresponde ao modelo no qual foi avaliado a taxa de disparos dos neurônios
da rede 3, a segunda coluna corresponde ao tipo de neurônios avaliados e na
terceira coluna temos a taxa de disparos média dos neurônios da rede 3 para
cada um dos casos.
4.3.6.2 Modelo 6.b
No modelo 6.b substituímos as conexões inibitórias da rede 1 para a rede 2 por conexões excitatórias. As conexões da rede 2 para a rede 3 foram mantidas como estavam
no modelo 6. Na figura 24 é mostrado o grafo direcionada representando as conexões
entre as redes que compõem o modelo.
CAPÍTULO 4. experimentos computacionais e resultados
91
2
1
3
4
5
GPDC 5−>1
GPDC 5−>2
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
GPDC 5−>3
GPDC 4−>1
GPDC 4−>2
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
GPDC 5−>4
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
GPDC 4−>3
GPDC 3−>1
GPDC 3−>2
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
GPDC 4−>5
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
GPDC 3−>4
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
GPDC 3−>5
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
GPDC 2−>3
GPDC 1−>4
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
GPDC 2−>4
GPDC 1−>3
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
GPDC 2−>5
GPDC 1−>2
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
GPDC 1−>5
GPDC 2−>1
Figura 22: Grafo direcionado representado o modelo 6a. O índice de cada nó é equivalente a rede que ele representa. As setas pretas no grafo indicam as
conexões do tipo excitatório-excitatório e as setas vermelhas indicam as
conexões do tipo inibitório-excitatório. Nesse modelo temos as redes 1, 2,
3, 4 e 5 cujos parâmetros são apresentados na tabela 2.
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
1
0.75
0.5
0.25
0
0
50
100
Frequência (Hz)
Figura 23: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha
preta pontilhada) versus a frequência para o modelo 6a. A indicação da
direção das interações é feita ao lado do eixo das ordenadas
CAPÍTULO 4. experimentos computacionais e resultados
92
Com esse modelo esperamos que as conexões excitatórias da rede 1 para a rede 2
façam com que a taxa de disparos dos neurônios excitatórios e dos neurônios inibitórios
da rede 2 aumentem. Sendo assim, esperamos verificar um valor significativo do GPDC
médio da rede 2 para a rede 3. Na figura 25 são mostrados os valores do GPDC médio
para as diferentes conexões entre as redes do modelo 6.b. Como podemos verificar
existem valores significativos do GPDC médio para a conexão da rede 2 em direção à
rede 3. Com esse resultado reforçamos a idéia de que a taxa de disparos da rede que
envia as conexões esta relacionada aos valores obtidos do GPDC médio. Diferente do
modelo 6.a os valores do GPDC médio da rede 3 para a rede 4 permancem similares aos
obtidos para o modelo 6. Isso ocorreu porque não há nenhuma mudança na atividade
da rede 3. O GPDC médio para as outras conexões entre as redes têm valores similares
aos obtidos no modelo 6 e 6.a.
4.3.6.3 Modelo 6.c
No modelo 6.c mativemos as mesmas conexões do modelo 6, porém dobramos o número de conexões inibitórias que a rede 3 recebe da rede 2. O intuito dessa análise é
verificar se mesmo quando a taxa de disparos da rede que envia as conexões (rede 2)
diminui, é possível inferir a conectividade através do GPDC médio entre as redes, se
aumentarmos o número de conexões entre elas. Na figura 26 mostramos o grafo direcionado representando as redes e as conexões entre elas para o modelo 6.c. A taxa de
disparos média da rede 2 é aproximadamente igual a taxa da mesma rede nos modelos
6 e 6.a. Verificamos através da figura 27 que os valores do GPDC médio entre as redes
2 e 3, apesar de serem baixos, são estatisticamente significativos. Assim, podemos verificar que o aumento do número de conexões melhora a inferência da conectividade
através dos valores do GPDC médio. A atividade dos neurônios da rede 3 é diminuída
nesse modelo devido a forte influência inibitória da rede 2. Mesmo assim, é possível
verificar através dos valores do GPDC médio a conexão entre a rede 3 e a rede 4. É
interessante verificar também, que o aumento da influência inibitória sobre a rede 3
não faz com que seja diminuída as influências excitatórias, assim, o GPDC médio da
rede 1 para a rede 3 permanece apresentando valores significativos. Isso decorre da
CAPÍTULO 4. experimentos computacionais e resultados
93
2
1
3
4
5
50
100
Frequência (Hz)
GPDC 3−>2
0.6
0.3
50
100
Frequência (Hz)
50
100
Frequência (Hz)
GPDC 2−>4
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.6
0.3
0
0
50
100
Frequência (Hz)
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
GPDC 5−>1
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
GPDC 5−>4
0
0
0.9
GPDC 4−>3
0.3
50
100
Frequência (Hz)
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
GPDC 4−>5
0.6
0
0
0.9
GPDC 3−>4
GPDC 2−>3
0.9
GPDC 3−>5
0
0
0.3
0.9
GPDC 5−>2
0
0
0.6
GPDC 5−>3
0.3
0.9
GPDC 4−>1
0.6
GPDC 4−>2
GPDC 3−>1
0.9
0.9
GPDC 2−>5
GPDC 1−>5
GPDC 1−>4
GPDC 1−>3
GPDC 1−>2
GPDC 2−>1
Figura 24: Grafo direcionado representado o modelo 6b. O índice de cada nó é equivalente a rede que ele representa. As setas pretas no grafo indicam as
conexões do tipo excitatório-excitatório e as setas vermelhas indicam as
conexões do tipo inibitório-excitatório. Nesse modelo temos as redes 1, 2,
3, 4 e 5 cujos parâmetros são apresentados na tabela 2.
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
Figura 25: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha
preta pontilhada) versus a frequência para o modelo 6b. A indicação da
direção das interações é feita ao lado do eixo das ordenadas
CAPÍTULO 4. experimentos computacionais e resultados
94
forma como são desenvolvidos esses métodos, onde a normalização é feita pela fonte
da influência e não por quem a recebe.
Nesse capítulo verificamos as relações dos métodos de conectividade com as características das redes e das interações entre as redes simuladas. Verificamos, para o caso de
um modelo com apenas duas redes, que tanto para a causalidade de Granger quanto
para o PDC, medidos na direção da influência do sinal, existe um aumento dos valores
dos métodos de conectividade em relação ao aumento no peso sináptico. A correlação
de Spearman [136] para esse caso apresenta resultados interessantes que podem estar
relacionados com a diferença na frequência e na fase dos sinais. A coerência espectral máxima cresce a medida que aumentamos o peso sináptico entre as redes. Para a
maioria dos modelos avaliados verificamos que é possível inferir as conexões através
do GPDC médio. Essa medida falha em apenas um caso, onde a rede recebe e envia
conexões inibitórias. Foi feita uma breve avaliação qualitativa, para alguns casos, da
relação entre o GPDC médio e a taxa de disparos média das redes.
CAPÍTULO 4. experimentos computacionais e resultados
95
2
1
3
4
5
50
100
Frequência (Hz)
GPDC 3−>2
0.6
0.3
50
100
Frequência (Hz)
50
100
Frequência (Hz)
GPDC 2−>4
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.6
0.3
0
0
50
100
Frequência (Hz)
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
GPDC 5−>1
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
GPDC 5−>4
0
0
0.9
GPDC 4−>3
0.3
50
100
Frequência (Hz)
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
GPDC 4−>5
0.6
0
0
0.9
GPDC 3−>4
GPDC 2−>3
0.9
GPDC 3−>5
0
0
0.3
GPDC 5−>2
0
0
0.6
0.9
GPDC 5−>3
0.3
GPDC 4−>1
0.6
0.9
GPDC 4−>2
GPDC 3−>1
0.9
0.9
GPDC 2−>5
GPDC 1−>5
GPDC 1−>4
GPDC 1−>3
GPDC 1−>2
GPDC 2−>1
Figura 26: Grafo direcionado representado o modelo 6c. O índice de cada nó é equivalente a rede que ele representa. Nesse modelo temos as redes 1, 2, 3,
4 e 5 cujos parâmetros são apresentados na tabela 2. As setas pretas no
grafo indicam as conexões do tipo excitatório-excitatório e as setas vermelhas indicam as conexões do tipo inibitório-excitatório. A seta vermelha
indicando a conexão da rede 2 para a rede 3 é mais grossa do que as
demais, pois representa um número maior de conexões do tipo inibitórioexcitatório.
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
0.9
0.6
0.3
0
0
50
100
Frequência (Hz)
Figura 27: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha
preta pontilhada) versus a frequência para o modelo 6c. A indicação da
direção das interações é feita ao lado do eixo das ordenadas
5
CONCLUSÃO
O principal objetivo deste trabalho foi investigar a aplicação dos métodos de conectividade: causalidade de Granger, coerência parcial direcionada (PDC) e coerência parcial
direcionada generalizada (GPDC), em redes neuronais simuladas. Para simular os
neurônios que compuseram as redes utilizamos o modelo matemático de Izhikevich.
Através desse modelo foi possível representar diferentes classes eletrofisiológicas de
padrões de potencias de ação dos neurônios. Foram criadas redes com 1000 e 2000
neurônios, além disso, variamos as classes de padrões de potenciais de ação dos neurônios e os parâmetros relativos à dinâmica do modelo, que eram, as quantidades de
conexões entre os neurônios, os pesos sinápticos, os delays e os pesos relativos a influência externa sobre os neurônios das redes. Dessa forma obtivemos redes com diferentes
comportamentos. O sinal de LFP (Local field potential) foi simulado através da média
dos potenciais de membrana dos neurônios para cada uma das redes.
Na primeira análise verificamos a relação entre a causalidade de Granger e o peso
sináptico das conexões entre os neurônios excitatórios das diferentes redes. Para isso
aplicamos a causalidade de Granger sobre os valores de LFP simulados para duas
redes, rede A e rede B. Consideramos os casos em que as redes avaliadas tinham
parâmetros equivalentes e o caso em que os parâmetros das redes eram diferentes. No
experimento, as conexões partiam da rede A em direção a rede B. Verificamos que
conforme aumentamos o peso sináptico, o valor da causalidade de Granger, da rede
que enviava conexões (rede A) para a rede que recebia conexões (rede B), aumentava.
Após uma determinado valor do peso sináptico, WEE ≈ 2, houve uma diminuição da
taxa de variação da causalidade de Granger. Na avaliação da causalidade de Granger
no sentido contrário (rede B para rede A), verificamos, como esperado, que não houve
96
CAPÍTULO 5. conclusão
97
mudanças significativas. Ou seja, os valores da causalidade de Granger permaneceram
aproximadamente estáveis visto que não havia conexões da rede B para a rede A.
Avaliamos a correlação de Spearman entre os sinais de LFP das redes neuronais
utilizados na primeira análise. Verificamos que o comportamento da correlação em
relação ao peso sináptico é diferente para o caso em que temos redes com parâmetros
equivalentes e para o caso em que temos redes com parâmetros diferentes. No caso
em que as redes têm parâmetros equivalentes os valores da correlação de Spearman
cresceram até um determinado limiar e então permanecem estáveis. O valor do peso
sináptico relativo ao começo do comportamento estável da correlação é próximo ao
valor em que ocorre a diminuição da taxa de variação da causalidade de Granger no
primeiro experimento. Nesse caso, o aumento da correlação pode estar relacionado a
uma diminuição da diferença de fase entre os sinais que estão aproximadamente na
mesma frequência. Para o caso em que as redes têm parâmetros diferentes, os valores
da correlação decresceram para valores negativos. Isso pode estar relacionado ao fato
de que os sinais avaliados nesse caso estão em frequências diferentes. Em ambos os
casos avaliados, os valores da correlação de Spearman obtidos são baixos o que nos
leva a concluir que a correlação entre os sinais é fraca.
Utilizando os mesmos dados de LFP das redes, analisamos como os valores PDC e
da coerência espectral se comportam quando aumentamos o peso sináptico entre os
neurônios excitatórios das redes avaliadas. Tanto na análise do PDC quando na análise
da coerência espectral, consideramos os valores máximos obtidos. Os valores do PDC
máximo da rede A para a rede B cresceram rapidamente até valores próximos do valor
máximo do PDC que é 1, isso ocorreu tanto para o caso em que as redes oscilam em
frequências próximas quando para o caso em que as redes são diferentes. No sentido
contrário, ou seja, da rede B para a rede A, os valores do PDC máximo tiveram comportamentos interessantes. Para o caso em que as redes oscilam em frequências próximas,
quando o peso sináptico é próximo a 0, o PDC máximo apresentou um valor alto. Isso
pode ocorrer devido ao fato da similaridade entre as redes neuronais, fazendo com
que mesmo desconectadas seja possível prever os valores do sinal da rede A considerando os valores passados do sinal da rede B. Conforme aumentamos o peso sináptico,
CAPÍTULO 5. conclusão
98
os sinais entre as redes ficaram cada vez mais heterogêneos, o sinal da rede B sofreu
influência do sinal da rede A, porém o sinal da rede A não sofreu influência da rede
B. Isso ocasionou em uma diminuição dos valores do PDC da rede B para a rede A.
Para os valores do PDC máximo na direção da rede B para a rede A, no caso em que
as redes eram diferentes, os valores iniciais do PDC máximo são baixos. Isso era esperado pois devido a diferenças nas redes neuronais, não seria possível prever os valores
do sinal da rede A através dos valores passados do sinal da rede B. Verificamos, para
ambos os casos, que a coerência espectral máxima cresceu em relação ao aumento no
peso sináptico. Isso nos mostra que conforme aumentamos o peso sináptico entre os
neurônios das diferentes redes, a sincronização entre os sinais dessas redes, para uma
determinada frequência, aumenta. Nessas análises foram investigados os métodos de
conectividade efetiva, que permitem inferir a direção da influência de um sistema neural sobre outro, e os métodos de conectividade funcional, que registram dependências
estatísticas relacionadas a correlação e a coerência entre séries temporais advindas de
diferentes redes neurais. Não foram feitas avaliações da significância estatística, pois
queríamos observar o comportamento dos valores em relação ao aumento da influência
de uma série sobre a outra e não se eles eram ou não estatisticamente significativos.
Em uma segunda análise, criamos 9 modelos baseados nos modelos utilizados por
Baccalá e Sameshima. Variamos o número de redes, o tipo e a quantidade de conexões
entre essas redes, nos diferentes modelos. Observamos que a aplicação da coerência
parcial direcionada (PDC) média sobre os dados simulados podem gerar resultados
que variam de acordo com a escala das séries temporais. Assim, preferimos usar a coerência parcial direcionada média (GPDC) na maioria das análises que fizemos. Através
do GPDC conseguimos recuperar a maioria das conexões entre as redes simuladas. Verificamos que os resultados condizem com a teoria da coerência parcial direcionada,
no que se refere a normalização pela fonte da influência e não pelo alvo. Para um
dos modelos, não conseguimos obter valores estatisticamente significativos do GPDC
quando havia conexões entre as redes avaliadas. Nesse caso tínhamos uma situação
em que a rede 2 recebia conexões inibitórias da rede 1 e enviava conexões inibitórias
para a rede 3. Essa conexão da rede 2 para a rede 3 não foi possível de ser verificada
CAPÍTULO 5. conclusão
99
através dos valores do GPDC médio. Investigamos através da criação de novos modelos baseados nesse último, quais as possíveis razões para a falha no inferência da
conexão. Verificamos que para três modificações é possível verificar a conexão da rede
2 para a rede 3 são essas: (1) substituir as conexões inibitórias da rede 1 para a rede 2
por conexões excitatórias, (2) substituir as conexões inibitórias da rede 2 para a rede 3
por conexões excitatórios e (3) dobrar o número de conexões inibitórias da rede 2 para
a rede 3. Devidos a esses resultados acreditamos que a inferência das conexões através
do GPDC médio para o caso de redes neurais simuladas pode estar relacionada a taxa
de disparos média dos neurônios que compõem as redes e a quantidade de conexões
entre as redes.
Observamos em alguns modelos que apesar de não haver um valor estatisticamente
significativo do GPDC médio, existe um valor alto da coerência espectral média entre
os sinais. Isso mostra que a coerência espectral não é uma boa medida para inferir as
conexões reais entre as redes de neurônios.
Concluindo, verificamos nesse trabalho que os métodos de conectividade apresentaram bons resultados quando aplicados a dados de LFP obtidos através de redes de
neurônios simulados. Verificamos que nos casos em que a inferência das conexões
falha, isso pode estar relacionado a taxa de disparo ou o número de conexões entre
as redes neuronais. Como trabalhos futuros pretendemos investigar a performance do
GPDC quando aplicados a rede de neurônios. Para isso usaremos a curva ROC [65]
para avaliar a taxa de falsos positivos para as conexões entre as redes. Outra análise
que efetuaremos consiste em verificar a relação dos métodos de conectividade com a
fase e a frequência dos sinais considerados. Os resultados desse estudo podem nos dar
informações para a aplicação dos métodos de conectividade na detecção de multiplexing entre sinais neurais [130].
REFERÊNCIAS BIBLIOGRÁFICAS
1 FRACKOWIAK, R.; FRISTON, K.; FRITH, C.; DOLAN, R.; PRICE, C.; ZEKI, S.;
ASHBURNER, J.; PENNY, W. Human Brain Function. 2. ed. Burlington: Academic
Press, 2004. Citado na página 1.
2 RAMNANI, N.; BEHRENS, T. E.; PENNY, W.; MATTHEWS, P. M. New approaches
for exploring anatomical and functional connectivity in the human brain. Biological
psychiatry, Elsevier, v. 56, n. 9, p. 613–619, 2004. Citado na página 1.
3 ESSEN, D. C. V.; UGURBIL, K. The future of the human connectome. Neuroimage,
Elsevier, v. 62, n. 2, p. 1299–1310, 2012. Citado na página 1.
4 KLEINNIJENHUIS, M. Imaging fibres in the brain. Tese (Doutorado) — Radboud
University Nijmegen, Nijmegen, Netherlands, 2014. Citado na página 2.
5 GRESCHNER, M.; SHLENS, J.; BAKOLITSA, C.; FIELD, G. D.; GAUTHIER, J. L.;
JEPSON, L. H.; SHER, A.; LITKE, A. M.; CHICHILNISKY, E. Correlated firing among
major ganglion cell types in primate retina. The Journal of Physiology, Wiley Online
Library, v. 589, n. 1, p. 75–86, 2011. Citado na página 2.
6 REID, R. C.; ALONSO, J. M. et al. Specificity of monosynaptic connections from
thalamus to visual cortex. Nature, Nature Publishing Group, v. 378, n. 6554, p. 281–283,
1995. Citado na página 2.
7 AERTSEN, A. M.; GERSTEIN, G. L.; HABIB, M. K.; PALM, G. Dynamics
of neuronal firing correlation: modulation of "effective connectivity". Journal of
Neurophysiology, American Physiological Society, v. 61, n. 5, p. 900–917, 1989. Citado
na página 2.
8 KOHN, A.; SMITH, M. A. Stimulus dependence of neuronal correlation in primary
visual cortex of the macaque. The Journal of Neuroscience, Society for Neuroscience,
v. 25, n. 14, p. 3661–3673, 2005. Citado na página 2.
9 WANG, Y.; COHEN, J. D.; LI, K.; TURK-BROWNE, N. B. Full correlation matrix
analysis of fmri data. Princeton, 2014. Citado na página 3.
10 GUEVARA, M. A.; CORSI-CABRERA, M. EEG coherence or EEG correlation?
International Journal of Psychophysiology, Elsevier, v. 23, n. 3, p. 145–153, 1996. Citado
na página 3.
11 GRANGER, C. W. Investigating causal relations by econometric models and
cross-spectral methods. Econometrica: Journal of the Econometric Society, JSTOR, p.
424–438, 1969. Citado 7 vezes nas páginas 3, 4, 15, 16, 28, 29e 34.
100
Referências Bibliográficas
101
12 COBEN, R.; MOHAMMAD-REZAZADEH, I. Neural connectivity in epilepsy as
measured by granger causality. Frontiers in Human Neuroscience, Frontiers Media SA,
v. 9, 2015. Citado na página 4.
13 COBEN, R.; MOHAMMAD-REZAZADEH, I.; CANNON, R. L. Using quantitative
and analytic eeg methods in the understanding of connectivity in autism spectrum
disorders: a theory of mixed over-and under-connectivity. Frontiers in Human
Nuroscience, Frontiers Media SA, v. 8, 2014. Citado na página 4.
14 MIAO, X.; WU, X.; LI, R.; CHEN, K.; YAO, L. Altered connectivity pattern of hubs
in default-mode network with alzheimer’s disease: an granger causality modeling
approach. PloS one, Public Library of Science, v. 6, n. 10, p. e25546, 2011. Citado na
página 4.
15 CADOTTE, A. J.; DEMARSE, T. B.; MARECI, T. H.; PAREKH, M. B.; TALATHI,
S. S.; HWANG, D.-U.; DITTO, W. L.; DING, M.; CARNEY, P. R. Granger causality
relationships between local field potentials in an animal model of temporal lobe
epilepsy. Journal of Neuroscience Methods, Elsevier, v. 189, n. 1, p. 121–129, 2010. Citado
na página 4.
16 BARNETT, L.; SETH, A. K. The mvgc multivariate granger causality toolbox: a
new approach to granger-causal inference. Journal of Neuroscience Methods, Elsevier,
v. 223, p. 50–68, 2014. Citado 3 vezes nas páginas 4, 6e 24.
17 GUO, S.; SETH, A. K.; KENDRICK, K. M.; ZHOU, C.; FENG, J. Partial granger
causality—eliminating exogenous inputs and latent variables. Journal of Neuroscience
Methods, Elsevier, v. 172, n. 1, p. 79–93, 2008. Citado 3 vezes nas páginas 4, 5e 32.
18 KRISHNA, R.; GUO, S. A partial granger causality approach to explore causal
networks derived from multi-parameter data. In: INTERNATIONAL CONFERENCE
COMPUTATIONAL METHODS IN SYSTEMS BIOLOGY, 6., 2008. Rostock, Germany:
Springer Berlin Heidelberg, 2008. p. 9–27. Citado na página 5.
19 YOUSSOFZADEH, V.; PRASAD, G.; NAEEM, M.; WONG-LIN, K. Partial
granger causality analysis for brain connectivity based on event related potentials. In:
CONGRESS OF NEUROINFORMATICS, 6., 2013. Stockholm, Sweden: Karolinska
Institutet, 2013. Citado na página 5.
20 ROELSTRAETE, B.; ROSSEEL, Y. Does partial granger causality really eliminate
the influence of exogenous inputs and latent variables? Journal of Neuroscience Methods,
Elsevier, v. 206, n. 1, p. 73–77, 2012. Citado 3 vezes nas páginas 5, 32e 33.
21 KAYSER, A. S.; SUN, F. T.; D’ESPOSITO, M. A comparison of granger causality
and coherency in fmri-based analysis of the motor system. Human Brain Mapping,
Wiley Online Library, v. 30, n. 11, p. 3475–3494, 2009. Citado na página 5.
Referências Bibliográficas
102
22 NOLTE, G.; ZIEHE, A.; KRÄMER, N.; POPESCU, F.; MÜLLER, K.-R. Comparison
of granger causality and phase slope index. In: CITESEER. NIPS Causality: Objectives
and Assessment. British Columbia, Canada, 2010. p. 267–276. Citado na página 5.
23 SCHREIBER, T. Measuring information transfer. Physical Review Letters, APS, v. 85,
n. 2, p. 461, 2000. Citado na página 5.
24 BARNETT, L.; BARRETT, A. B.; SETH, A. K. Granger causality and transfer
entropy are equivalent for gaussian variables. Physical Review Letters, APS, v. 103, n. 23,
p. 238701, 2009. Citado 5 vezes nas páginas 5, 12, 14, 16e 31.
25 HLAVÁCKOVÁ-SCHINDLER, K. Equivalence of granger causality and transfer
entropy: a generalization. Applied Mathematical Sciences, v. 5, n. 73, p. 3637–3648, 2011.
Citado na página 5.
26 SETH, A. K. A matlab toolbox for granger causal connectivity analysis. Journal of
Neuroscience Methods, Elsevier, v. 186, n. 2, p. 262–273, 2010. Citado na página 6.
27 GUIDE, M. U. The mathworks. Inc., Natick, MA, v. 5, p. 333, 1998. Citado na
página 6.
28 NISO, G.; BRUÑA, R.; PEREDA, E.; GUTIÉRREZ, R.; BAJO, R.; MAESTÚ, F.;
POZO, F. del. Hermes: towards an integrated toolbox to characterize functional and
effective brain connectivity. Neuroinformatics, Springer, v. 11, n. 4, p. 405–434, 2013.
Citado na página 6.
29 OOSTENVELD, R.; FRIES, P.; MARIS, E.; SCHOFFELEN, J. M. Fieldtrip: open
source software for advanced analysis of meg, eeg, and invasive electrophysiological
data. Computational Intelligence and Neuroscience, Hindawi Publishing Corporation,
v. 2011, 2010. Citado na página 6.
30 CUI, J.; XU, L.; BRESSLER, S. L.; DING, M.; LIANG, H. Bsmart: a matlab/C
toolbox for analysis of multichannel neural time series. Neural Networks, Elsevier, v. 21,
n. 8, p. 1094–1104, 2008. Citado na página 6.
31 SEABOLD, S.; PERKTOLD, J. Statsmodels: Econometric and statistical modeling
with python. In: SCIPY, 9., 2010. Proceedings of the 9th Python in Science Conference. [S.l.],
2010. p. 57–61. Citado na página 6.
32 PFAFF, B. et al. VAR, SVAR and SVEC models: Implementation within R package
vars. Journal of Statistical Software, v. 27, n. 4, p. 1–32, 2008. Citado na página 6.
33 SAITO, Y.; HARASHIMA, H. Tracking of information within multichannel EEG
record causal analysis in EEG. Recent advances in EEG and EMG data processing. Elsevier,
Elsevier, p. 133–146, 1981. Citado 4 vezes nas páginas 6, 7, 35e 38.
34 KAMIŃSKI, M.; DING, M.; TRUCCOLO, W. A.; BRESSLER, S. L. Evaluating
causal relations in neural systems: Granger causality, directed transfer function and
Referências Bibliográficas
103
statistical assessment of significance. Biological Cybernetics, Springer, v. 85, n. 2, p.
145–157, 2001. Citado 3 vezes nas páginas 6, 7e 8.
35 BACCALÁ, L. A.; SAMESHIMA, K. Partial directed coherence: a new concept in
neural structure determination. Biological Cybernetics, Springer, v. 84, n. 6, p. 463–474,
2001. Citado 8 vezes nas páginas 6, 7, 8, 28, 38, 39, 40e 76.
36 GEWEKE, J. Measurement of linear dependence and feedback between multiple
time series. Journal of the American Statistical Association, Taylor & Francis, v. 77, n. 378,
p. 304–313, 1982. Citado 2 vezes nas páginas 6e 30.
37 MATIAS, F. S.; GOLLO, L. L.; CARELLI, P. V.; BRESSLER, S. L.; COPELLI, M.;
MIRASSO, C. R. Modeling positive granger causality and negative phase lag between
cortical areas. NeuroImage, v. 99, p. 411 – 418, 2014. Citado 3 vezes nas páginas
7, 51e 58.
38 BROVELLI, A.; DING, M.; LEDBERG, A.; CHEN, Y.; NAKAMURA, R.; BRESSLER,
S. L. Beta oscillations in a large-scale sensorimotor cortical network: directional
influences revealed by granger causality. Proceedings of the National Academy of Sciences
of the United States of America, National Academy Sciences, v. 101, n. 26, p. 9849–9854,
2004. Citado 2 vezes nas páginas 7e 34.
39 CHEN, Y.; BRESSLER, S. L.; DING, M. Frequency decomposition of conditional
granger causality and application to multivariate neural field potential data. Journal of
Neuroscience Methods, Elsevier, v. 150, n. 2, p. 228–237, 2006. Citado na página 7.
40 SAMESHIMA, K.; BACCALA, L. A. Methods in brain connectivity inference through
multivariate time series analysis. [S.l.]: CRC press, 2014. Citado 5 vezes nas páginas
7, 8, 9, 38e 40.
41 SCHNIDER, S.; KWONG, R.; KWAN, H.; LENZ, F. Detection of feedback in
the central nervous system of parkinsonian patients. In: IEEE CONFERENCE ON
DECISION AND CONTROL, 25., 1986. Athens, Greece, 1986. p. 291–294. Citado na
página 7.
42 WHALEY, M. L. Applying the Short-Time Direct Directed Transfer Function to
Human Electrocorticographic Recordings from a Language Task. Tese (Doutorado) — Rice
University, Houston, United States, 2012. Citado na página 8.
43 PETTI, M.; CASCHERA, S.; ANZOLIN, A.; TOPPI, J.; PICHIORRI, F.; BABILONI,
F.; CINCOTTI, F.; MATTIA, D.; ASTOLFI, L. Effect of inter-trials variability on the
estimation of cortical connectivity by partial directed coherence. In: IEEE, 37., 2015.
Engineering in Medicine and Biology Society (EMBC), Annual International Conference of
the IEEE. Milan, Spain, 2015. p. 3791–3794. Citado na página 8.
44 WANG, G.; SUN, Z.; TAO, R.; LI, K.; BAO, G.; YAN, X. Epileptic seizure detection
based on partial directed coherence analysis. IEEE, 2015. Citado na página 8.
Referências Bibliográficas
104
45 BACCALÁ, L. Generalized partial directed coherence. In: IEEE, 15., 2007. Digital
Signal Processing, 2007 15th International Conference on. Cardiff,Wales, 2007. p. 163–166.
Citado 3 vezes nas páginas 8, 40e 77.
46 TAKAHASHI, D. Y.; BACCALÁ, L. A.; SAMESHIMA, K. Information theoretic
interpretation of frequency domain connectivity measures. Biological Cybernetics,
Springer, v. 103, n. 6, p. 463–469, 2010. Citado na página 8.
47 FAES, L.; NOLLO, G. Extended causal modeling to assess partial directed
coherence in multiple time series with significant instantaneous interactions. Biological
Cybernetics, Springer, v. 103, n. 5, p. 387–400, 2010. Citado na página 9.
48 FAES, L.; ERLA, S.; PORTA, A.; NOLLO, G. A framework for assessing frequency
domain causality in physiological time series with instantaneous effects. Philosophical
Transactions of the Royal Society of London A: Mathematical, Physical and Engineering
Sciences, The Royal Society, v. 371, n. 1997, p. 20110618, 2013. Citado na página 9.
49 DAVID, O.; COSMELLI, D.; FRISTON, K. J. Evaluation of different measures of
functional connectivity using a neural mass model. Neuroimage, Elsevier, v. 21, n. 2, p.
659–673, 2004. Citado 2 vezes nas páginas 9e 10.
50 DAVID, O.; FRISTON, K. J. A neural mass model for meg/eeg:: coupling and
neuronal dynamics. NeuroImage, Elsevier, v. 20, n. 3, p. 1743–1755, 2003. Citado na
página 9.
51 CARTER, G. C. Coherence and time delay estimation. Proceedings of the IEEE, IEEE,
v. 75, n. 2, p. 236–255, 1987. Citado na página 10.
52 ROULSTON, M. S. Estimating the errors on measured entropy and mutual
information. Physica D: Nonlinear Phenomena, Elsevier, v. 125, n. 3, p. 285–294, 1999.
Citado 2 vezes nas páginas 10e 12.
53 RULKOV, N. F.; SUSHCHIK, M. M.; TSIMRING, L. S.; ABARBANEL, H. D.
Generalized synchronization of chaos in directionally coupled chaotic systems.
Physical Review E, APS, v. 51, n. 2, p. 980, 1995. Citado na página 10.
54 PIKOVSKY, A.; ROSENBLUM, M.; KURTHS, J. Synchronization: a universal concept
in nonlinear sciences. [S.l.]: Cambridge University Press, 2003. Citado na página 10.
55 SETH, A. K. Causal networks in simulated neural systems. Cognitive Neurodynamics,
Springer, v. 2, n. 1, p. 49–64, 2008. Citado 2 vezes nas páginas 10e 11.
56 KRICHMAR, J. L.; SETH, A. K.; NITZ, D. A.; FLEISCHER, J. G.; EDELMAN,
G. M. Spatial navigation and causal analysis in a brain-based device modeling
cortical-hippocampal interactions. Neuroinformatics, Springer, v. 3, n. 3, p. 197–221,
2005. Citado na página 10.
Referências Bibliográficas
105
57 KRICHMAR, J. L.; EDELMAN, G. M. Machine psychology: autonomous behavior,
perceptual categorization and conditioning in a brain-based device. Cerebral Cortex,
Oxford University Press, v. 12, n. 8, p. 818–830, 2002. Citado na página 11.
58 CADOTTE, A. J.; DEMARSE, T. B.; HE, P.; DING, M. Causal measures of structure
and plasticity in simulated and living neural networks. PloS one, Public Library of
Science, v. 3, n. 10, p. e3355, 2008. Citado 3 vezes nas páginas 11, 12e 17.
59 IZHIKEVICH, E. Simple model of spiking neurons. IEEE Transactions on
Neural Networks, v. 14, n. 6, p. 1569–1572, 2003. Citado 9 vezes nas páginas
11, 13, 14, 15, 17, 47, 51, 57e 59.
60 GAROFALO, M.; NIEUS, T.; MASSOBRIO, P.; MARTINOIA, S. Evaluation of the
performance of information theory-based methods and cross-correlation to estimate
the functional connectivity in cortical networks. PloS one, Public Library of Science,
v. 4, n. 8, p. e6482, 2009. Citado 2 vezes nas páginas 12e 14.
61 TOYAMA, K.; KIMURA, M.; TANAKA, K. Cross-correlation analysis of
interneuronal connectivity in cat visual cortex. Journal of Neurophysiology, v. 46, n. 2, p.
191–201, 1981. Citado 3 vezes nas páginas 13, 15e 27.
62 HAHNLOSER, R. H. Cross-intensity functions and the estimate of spike-time
jitter. Biological Cybernetics, Springer, v. 96, n. 5, p. 497–506, 2007. Citado na página 13.
63 FAWCETT, T. An introduction to roc analysis. Pattern Recognition Letters, Elsevier,
v. 27, n. 8, p. 861–874, 2006. Citado na página 13.
64 IZHIKEVICH, E. M. Polychronization: Computation with spikes. Neural
Computation, MIT Press, v. 18, n. 2, p. 245–282, 2006. Citado 5 vezes nas páginas
14, 51, 53, 58e 63.
65 ITO, S.; HANSEN, M. E.; HEILAND, R.; LUMSDAINE, A.; LITKE, A. M.; BEGGS,
J. M. Extending transfer entropy improves identification of effective connectivity in
a spiking cortical network model. PloS one, Public Library of Science, v. 6, n. 11, p.
e27431, 2011. Citado 2 vezes nas páginas 15e 99.
66 WU, X.; WANG, W.; ZHENG, W. X. Inferring topologies of complex networks
with hidden variables. Physical Review E, APS, v. 86, n. 4, p. 046106, 2012. Citado na
página 15.
67 RAUCH, J.; SMOLLER, J. Qualitative theory of the fitzhugh-nagumo equations.
Advances in Mathematics, Elsevier, v. 27, n. 1, p. 12–44, 1978. Citado na página 15.
68 KIM, S.; PUTRINO, D.; GHOSH, S.; BROWN, E. N. A granger causality measure
for point process models of ensemble neural spiking activity. PLoS Comput Biol, Public
Library of Science, v. 7, n. 3, p. e1001110, 2011. Citado na página 16.
Referências Bibliográficas
106
69 SHAO, P.-C.; HUANG, J.-J.; SHANN, W.-C.; YEN, C.-T.; TSAI, M.-L.; YEN, C.-C.
Granger causality-based synaptic weights estimation for analyzing neuronal networks.
Journal of Computational Neuroscience, Springer, v. 38, n. 3, p. 483–497, 2015. Citado na
página 16.
70 PARK, I. M.; SETH, S.; PAIVA, A.; LI, L.; PRINCIPE, J. Kernel methods on spike
train space for neuroscience: a tutorial. Signal Processing Magazine, IEEE, IEEE, v. 30,
n. 4, p. 149–160, 2013. Citado na página 17.
71 SHIMAZAKI, H.; SHINOMOTO, S. A method for selecting the bin size of a time
histogram. Neural computation, MIT Press, v. 19, n. 6, p. 1503–1527, 2007. Citado na
página 17.
72 LAPICQUE, L. Recherches quantitatives sur l’excitation electrique des nerfs traitee
comme une polarization. Journal de Physiologie et de Pathologie Générale, v. 9, p. 620–635,
1907. Citado 3 vezes nas páginas 17, 44e 45.
73 KIRCHGÄSSNER, G.; WOLTERS, J.; HASSLER, U. Introduction to modern time
series analysis. [S.l.]: Springer Science & Business Media, 2008. Citado na página 20.
74 EHLERS, R. S. Análise de séries temporais. Laboratório de Estatística e Geoinformação.
Universidade Federal do Paraná, 2007. Citado na página 20.
75 MORETTIN, P. A.; TOLOI, C. Análise de séries temporais. 2. ed. [S.l.]: Edgard
Blücher, 2006. Citado 2 vezes nas páginas 20e 21.
76 KOOPMANS, L. H. The spectral analysis of time series. 1. ed. San Diego: Academic
press, 1995. Citado na página 20.
77 POLLOCK, D. S. G.; GREEN, R. C.; NGUYEN, T. Handbook of time series analysis,
signal processing, and dynamics. [S.l.]: Academic Press, 1999. Citado 4 vezes nas páginas
21, 23, 29e 30.
78 HAMILTON, J. D. Time series analysis. 1. ed. Princeton: Princeton University Press,
1994. Citado na página 22.
79 SHUMWAY, R. H.; STOFFER, D. S. Time series analysis and its applications: with R
examples. 3. ed. [S.l.]: Springer Science & Business Media, 2010. Citado 2 vezes nas
páginas 22e 27.
80 BRESSLER, S. L.; RICHTER, C. G.; CHEN, Y.; DING, M. Cortical functional
network organization from autoregressive modeling of local field potential oscillations.
Statistics in medicine, Citeseer, v. 26, n. 21, p. 3875–3885, 2007. Citado na página 24.
81 HUBERDEAU, D.; WALKER, H.; HUANG, H.; MONTGOMERY, E.; SARMA, S. V.
Analysis of local field potential signals: A systems approach. In: ENGINEERING IN
MEDICINE AND BIOLOGY SOCIETY, 2011. 2011 Annual International Conference of the
IEEE. [S.l.], 2011. Citado na página 24.
Referências Bibliográficas
107
82 SCHLÖGL, A. The electroencephalogram and the adaptive autoregressive model: theory
and applications. Aachen, Germany: Shaker, 2000. Citado na página 24.
83 STOICA, P.; MOSES, R. L. Spectral analysis of signals. 1. ed. [S.l.]: Prentice Hall,
2005. Citado na página 25.
84 COHEN, M. X. Analyzing neural time series data: theory and practice. [S.l.]: MIT Press,
2014. Citado na página 25.
85 DRONGELEN, W. V. Signal processing for neuroscientists: an introduction to the
analysis of physiological signals. Burlington: Academic press, 2006. Citado na página 25.
86 COOLEY, J. W.; TUKEY, J. W. An algorithm for the machine calculation of complex
fourier series. Mathematics of computation, JSTOR, v. 19, n. 90, p. 297–301, 1965. Citado
na página 26.
87 SÁ, A. M. F.; SIMPSON, D.; INFANTOSI, A. F. C. Estudo da função de coerência
aplicada a sinais eeg. Research on Biomedical Engineering, SBEB, v. 10, n. 2, p. 39–55,
1994. Citado na página 27.
88 DUCKROW, R. B.; SPENCER, S. S. Regional coherence and the transfer of ictal
activity during seizure onset in the medial temporal lobe. Electroencephalography and
clinical neurophysiology, Elsevier, v. 82, n. 6, p. 415–422, 1992. Citado na página 27.
89 SILVA, F. L. D.; LIEROP, T. V.; SCHRIJER, C.; LEEUWEN, W. S. V. Organization
of thalamic and cortical alpha rhythms: spectra and coherences. Electroencephalography
and clinical neurophysiology, Elsevier, v. 35, n. 6, p. 627–639, 1973. Citado na página 27.
90 BARLOW, J. S. Computerized clinical electroencephalography in perspective.
Biomedical Engineering, IEEE Transactions on, IEEE, n. 7, p. 377–391, 1979. Citado na
página 28.
91 GE, T.; KENDRICK, K. M.; FENG, J. A novel extended granger causal model
approach demonstrates brain hemispheric differences during face recognition learning.
PLoS Comput Biol, Public Library of Science, v. 5, n. 11, p. e1000570, 2009. Citado na
página 28.
92 ZOU, C. Applications of Granger causality to biological data. Tese (Doutorado) —
University of Warwick, 2010. Citado na página 28.
93 GOEBEL, R.; ROEBROECK, A.; KIM, D.-S.; FORMISANO, E. Investigating
directed cortical interactions in time-resolved fmri data using vector autoregressive
modeling and granger causality mapping. Magnetic resonance imaging, Elsevier, v. 21,
n. 10, p. 1251–1261, 2003. Citado na página 29.
94 SCHELTER, B.; WINTERHALDER, M.; TIMMER, J. Handbook of time series analysis:
recent theoretical developments and applications. [S.l.]: John Wiley & Sons, 2006. Citado
na página 29.
Referências Bibliográficas
108
95 KIM, S.; PUTRINO, D.; GHOSH, S.; BROWN, E. N. A granger causality measure
for point process models of ensemble neural spiking activity. PLoS Comput Biol, Public
Library of Science, v. 7, n. 3, p. e1001110, 2011. Citado na página 29.
96 WIENER, N. The theory of prediction. Modern mathematics for engineers,
McGraw-Hill New York, v. 1, p. 125–139, 1956. Citado na página 29.
97 DING, M.; BRESSLER, S. L.; YANG, W.; LIANG, H. Short-window spectral
analysis of cortical event-related potentials by adaptive multivariate autoregressive
modeling: data preprocessing, model validation, and variability assessment. Biological
cybernetics, Springer, v. 83, n. 1, p. 35–45, 2000. Citado na página 30.
98 ROEBROECK, A.; FORMISANO, E.; GOEBEL, R. The identification of interacting
networks in the brain using fmri: model selection, causality and deconvolution.
Neuroimage, Elsevier, v. 58, n. 2, p. 296–302, 2011. Citado na página 32.
99 PEARL, J. Causality: models, reasoning and inference. Economet. Theor, Cambridge
Univ Press, v. 19, p. 675–685, 2003. Citado na página 32.
100 KENDALL, M.; STUART, A. Vol. 2: Inference and relationship. London: Griffin,
1961. Citado na página 32.
101 BRESSLER, S. L.; SETH, A. K. Wiener–granger causality: a well established
methodology. Neuroimage, Elsevier, v. 58, n. 2, p. 323–329, 2011. Citado na página 32.
102 AKAIKE, H. A new look at the statistical model identification. Automatic Control,
IEEE Transactions on, Ieee, v. 19, n. 6, p. 716–723, 1974. Citado na página 33.
103 SCHWARZ, G. et al. Estimating the dimension of a model. The annals of statistics,
Institute of Mathematical Statistics, v. 6, n. 2, p. 461–464, 1978. Citado na página 33.
104 HURVICH, C. M.; TSAI, C.-L. Regression and time series model selection in
small samples. Biometrika, Biometrika Trust, v. 76, n. 2, p. 297–307, 1989. Citado na
página 34.
105 STOREY, J. D. A direct approach to false discovery rates. Journal of the Royal
Statistical Society: Series B (Statistical Methodology), Wiley Online Library, v. 64, n. 3, p.
479–498, 2002. Citado na página 34.
106 ANDERSON, M. J.; ROBINSON, J. Permutation tests for linear models. Australian
& New Zealand Journal of Statistics, Wiley Online Library, v. 43, n. 1, p. 75–88, 2001.
Citado na página 34.
107 EFRON, B.; EFRON, B. The jackknife, the bootstrap and other resampling plans. [S.l.]:
SIAM, 1982. Citado na página 34.
108 WANG, G.; TAKIGAWA, M. Directed coherence as a measure of interhemispheric
correlation of eeg. International journal of psychophysiology, Elsevier, v. 13, n. 2, p.
119–128, 1992. Citado na página 38.
Referências Bibliográficas
109
109 HAUFE, S.; NIKULIN, V.; NOLTE, G. Identifying brain effective connectivity
patterns from eeg: performance of granger causality, dtf, pdc and psi on simulated
data. BMC Neuroscience, BioMed Central Ltd, v. 12, n. Suppl 1, p. P141, 2011. Citado
na página 40.
110 HOERZER, G. M.; LIEBE, S.; SCHLOEGL, A.; LOGOTHETIS, N. K.; RAINER,
G. Directed coupling in local field potentials of macaque v4 during visual short-term
memory revealed by multivariate autoregressive models. Frontiers in Computational
Neuroscience, v. 4, n. 14, 2010. Citado na página 40.
111 SATO, J. R.; TAKAHASHI, D. Y.; ARCURI, S. M.; SAMESHIMA, K.; MORETTIN,
P. A.; BACCALÁ, L. A. Frequency domain connectivity identification: an application
of partial directed coherence in fmri. Human brain mapping, Wiley Online Library, 30,
n. 2, p. 452– 461, 2009. Citado 2 vezes nas páginas 40e 43.
112 TAKAHASHI, D. Y.; BACCALÁ, L. A.; SAMESHIMA, K. Partial directed
coherence asymptotics for var processes of infinite order. International Journal of
Bioelectromagnetism, v. 10, n. 1, p. 31–36, 2008. Citado na página 41.
113 GANDER, W. Algorithms for the qr decomposition. Res. Rep, v. 80, n. 02, p.
1251–1268, 1980. Citado na página 41.
114 FAES, L.; NOLLO, G. Multivariate frequency domain analysis of causal interactions in
physiological time series. [S.l.]: INTECH Open Access Publisher, 2011. Citado na página
42.
115 HODGKIN, A. L.; HUXLEY, A. F. A quantitative description of membrane
current and its application to conduction and excitation in nerve. The Journal of
Physiology, v. 117, n. 4, p. 500–544, 1952. Citado 2 vezes nas páginas 44e 47.
116 SCHUTTER, E. D. (Ed.). Computational modeling methods for neuroscientists. [S.l.]:
The MIT Press, 2009. Citado na página 44.
117 BENDA, J.; BETHGE, M.; HENNIG, M.; PAWELZIK, K.; HERZ, A. V.
Spike-frequency adaptation: phenomenological model and experimental tests.
Neurocomputing, Elsevier, v. 38, p. 105–110, 2001. Citado na página 45.
118 BRETTE, R. What is the most realistic single-compartment model of spike
initiation? PLoS Comput Biol, Public Library of Science, v. 11, n. 4, p. e1004114, 2015.
Citado na página 45.
119 BURKITT, A. N. A review of the integrate-and-fire neuron model: I.
homogeneous synaptic input. Biological Cybernetics, v. 95, n. 1, p. 1–19, 2006. Citado
na página 46.
120 ROQUE, A. Notas de Aula de Introdução à Neurociência Computacional. [S.l.]:
Universidade de São Paulo, Ribeirão Preto, 2015. Citado na página 46.
Referências Bibliográficas
110
121 IZHIKEVICH, E. Which model to use for cortical spiking neurons? IEEE
Transactions on Neural Networks,, v. 15, n. 5, p. 1063–1070, 2004. Citado 5 vezes nas
páginas 46, 48, 50, 51e 52.
122 TOMOV, P.; PENA, R. F. D. O.; ZAKS, M. A.; ROQUE, A. C. Sustained
oscillations, irregular firing and chaotic dynamics in hierarchical modular networks
with mixtures of electrophysiological cell types. Frontiers in Computational Neuroscience,
v. 8, n. 103, 2014. Citado 2 vezes nas páginas 48e 51.
123 RULKOV, N. F. Regularization of synchronized chaotic bursts. Phys. Rev. Lett.,
American Physical Society, v. 86, p. 183–186, Jan 2001. Citado na página 48.
124 SZATMáRY, B.; IZHIKEVICH, E. M. Spike-timing theory of working memory.
PLoS Computational Biology, Public Library of Science, v. 6, p. e1000879, 08 2010.
Citado na página 53.
125 BEAR, M. F.; CONNORS, B. W.; PARADISO, M. A. Neuroscience. 3. ed. [S.l.]:
Lippincott Williams & Wilkins, 2006. Citado 3 vezes nas páginas 53, 54e 56.
126 LENT, R. Cem Bilhões de Neurônios. Conceitos Fundamentais de Neurociência. [S.l.]:
Brasil: Editora Atheneu, 2001. Citado 2 vezes nas páginas 54e 56.
127 EECKMAN, F. Analysis and modeling of neural systems. [S.l.]: Springer Science &
Business Media, 1993. Citado na página 56.
128 QU, J.; WANG, R.; YAN, C.; DU, Y. Oscillations and synchrony in a cortical
neural network. Cognitive Neurodynamics, v. 8, n. 2, p. 157–166, 2013. Citado na página
57.
129 EGUÍLUZ, V. M.; CHIALVO, D. R.; CECCHI, G. A.; BALIKI, M.; APKARIAN,
A. V. Scale-free brain functional networks. Phys. Rev. Lett., American Physical Society,
v. 94, p. 018102, Jan 2005. Citado na página 57.
130 AKAM, T.; KULLMANN, D. M. Oscillatory multiplexing of population codes for
selective communication in the mammalian brain. Nature Reviews Neuroscience, Nature
Publishing Group, v. 15, n. 2, p. 111–122, 2014. Citado 3 vezes nas páginas 57, 58e 99.
131 IZHIKEVICH, E. Weakly pulse-coupled oscillators, fm interactions, synchronization, and oscillatory associative memory. Neural Networks, IEEE Transactions on, v. 10,
n. 3, p. 508–526, 1999. Citado na página 58.
132 HOPPENSTEADT, F.; IZHIKEVICH, E. Pattern recognition via synchronization
in phase-locked loop neural networks. Neural Networks, IEEE Transactions on, v. 11, n. 3,
p. 734–738, 2000. Citado na página 58.
133 KOCH, C.; SEGEV, I. Methods in neuronal modeling: from ions to networks. 2. ed.
[S.l.]: MIT press, 1998. Citado 2 vezes nas páginas 60e 61.
Referências Bibliográficas
111
134 BOWER, J. M.; BEEMAN, D. The book of GENESIS: exploring realistic neural models
with the GEneral NEural SImulation System. [S.l.]: Springer Science & Business Media,
2012. Citado na página 60.
135 AKAM, T.; KULLMANN, D. M. Oscillations and filtering networks support
flexible routing of information. Neuron, Elsevier, v. 67, n. 2, p. 308–320, 2010. Citado
na página 63.
136 SPEARMAN, C. Correlation calculated from faulty data. British Journal of
Psychology, 1904-1920, Wiley Online Library, v. 3, n. 3, p. 271–295, 1910. Citado 2 vezes
nas páginas 71e 94.
Download