UNIVERSIDADE FEDERAL DO ABC CENTRO DE MATEMÁTICA, COMPUTAÇÃO E COGNIÇÃO PROGRAMA DE PÓS-GRADUAÇÃO EM NEUROCIÊNCIA E COGNIÇÃO Ronaldo Valter Nunes INFERÊNCIA DA CONECTIVIDADE EM MODELOS DE REDES NEURAIS BIOLOGICAMENTE PLAUSÍVEIS São Bernardo do Campo, 2016 Ronaldo Valter Nunes INFERÊNCIA DA CONECTIVIDADE EM MODELOS DE REDES NEURAIS BIOLOGICAMENTE PLAUSÍVEIS Dissertação de mestrado apresentada ao Programa de Pós-Graduação em Neurociência e Cognição da Universidade Federal do ABC como requisito parcial para à obtenção do título de Mestre em Neurociência e Cognição. Orientador: Prof. Dr. Raphael Yokoingawa de Camargo Coorientador: Prof. Dr. Marcelo Bussotti Reyes São Bernardo do Campo, 2016 Sistema de Bibliotecas da Universidade Federal do ABC Elaborada pelo Sistema de Geração de Ficha Catalográfica da UFABC com os dados fornecidos pelo(a) autor(a). Nunes, Ronaldo Valter Inferência da Conectividade em Modelos de Redes Neurais Biologicamente Plausíveis / Ronaldo Valter Nunes. — 2016. 118 fls. : il. Orientador: Raphael Yokoingawa de Camargo Coorientador: Marcelo Bussotti Reyes Dissertação (Mestrado) — Universidade Federal do ABC, Programa de Pós Graduação em Neurociência e Cognição, São Bernardo do Campo, 2016. 1. Conectividade. I. Camargo, Raphael Yokoingawa de. II. Reyes, Marcelo Bussotti. III. Programa de Pós-Graduação em Neurociência e Cognição, 2016. IV. Título. Este exemplar foi revisado e alterado em relação à versão original, de acordo com as observações levantadas pela banca no dia da defesa, sob responsabilidade única do autor e com a anuência de seu orientador. São Bernardo do Campo, ____de _______________ de 20___. Assinatura do autor: _____________________________________ Assinatura do orientador: _________________________________ F O L H A D E A S S I N AT U R A S iv RESUMO Sabe-se que o comportamento, a percepção e a cognição estão relacionados à atividade conjunta de uma ou mais regiões cerebrais. Sendo assim, é interessante verificar como as regiões cerebrais interagem e como acontece a transferência de informação entre elas. Nesse trabalho avaliamos a efetividade da coerência parcial direcionada e da coerência parcial direcionada generalizada na inferência da conectividade efetiva entre redes neurais simuladas. As redes neurais foram utilizadas para simular regiões cerebrais. A atividade elétrica dos neurônios que compõem as redes neurais foi descrita pelo modelo matemático de Izhikevich. Através da variação dos parâmetros responsáveis pelo comportamento dinâmico dos neurônios das redes, simulamos diferentes sinais de LFP (local field potential). Os métodos de conectividade foram aplicados sobre esses sinais de LFP simulados afim de recuperar, para cada um dos modelos estudados, a conectividade previamente estabelecida entre as diferentes redes neurais. Avaliamos também o comportamento da causalidade de Granger, da coerência parcial direcionada, da correlação de Spearman e da coerência espectral de acordo com o aumento no peso sináptico das conexões entre os neurônios de diferentes redes. Os resultados desse trabalho nos fornece informações sobre aplicabilidade desses métodos de conectividade em dados com características similares a dados eletrofisiológicos. Palavras-chave: Causalidade de Granger, Conectividade, Coerência Parcial Direcionada, Modelagem Matemática. v ABSTRACT It is known that behavior, perception and cognition are the result of the combined activity of multiple brain regions. This way, it is interesting to understand how the brain regions interact and how information transfer occurs. In this work we verified the efficacy of partial directed coherence and generalized partial directed coherence to infer the effective connectivity between simulated neuronal networks. Neuronal networks was used to simulate brain regions. The electrical activity of neurons that belong to networks was described by Izhikevich mathematical model. Through the variation of parameters responsible for the dynamical behavior of neurons we simulated different LFP signals. The connectivity methods were applied to simulated LFP signals to recovery the previously established connections. We analysed the values obtained by Granger causality, partial directed coherence, Spearman correlation and spectral coherence according to increasing synaptic strengths of connections among different networks. These results provide information about to what extent the methods might be applied to the analysis of actual electrophysiological data. Keywords: Granger Causality, Connectivity, Partial Directed Coherence, Mathematical Modeling vi ÍNDICE 1 2 introdução 1.1 Conectividade no cérebro 1.2 Coerência Parcial Direcionada 1.3 Trabalhos Computacionais Relacionados 1.4 Objetivos 1.5 Estrutura da Dissertação métodos 1 9 18 20 Séries Temporais 2.2 Série temporal estacionária 2.3 Representação Autorregressiva 2.4 Análise Espectral 2.5 8 18 2.1 2.4.1 3 1 20 21 22 25 Coerência Espectral Causalidade de Granger 26 28 2.5.1 Causalidade de Granger Parcial 2.5.2 Ordem do Modelo 2.5.3 Significância Estatística 31 33 34 2.6 Medidas de causalidade no domínio das frequências 2.7 Implementação Computacional modelo 41 44 3.1 Tipos de Modelos 3.2 Modelo Integra e Dispara 3.3 Modelo de Izhikevich 3.4 Sinapses 44 45 47 53 vii 34 ÍNDICE 4 5 viii 3.5 Delay 3.6 Redes de Neurônios 3.7 Implementação Computacional 55 56 58 experimentos computacionais e resultados 65 4.1 Redes Estudadas 4.2 Relação entre a conectividade e o aumento do peso sináptico 69 4.3 Coerência parcial direcionada aplicada a redes de neurônios 76 65 4.3.1 Modelo 1 77 4.3.2 Modelo 2 80 4.3.3 Modelo 3 81 4.3.4 Modelo 4 83 4.3.5 Modelo 5 86 4.3.6 Modelo 6 86 conclusão 96 Referência Bibliográfica 99 1 INTRODUÇÃO Um dos maiores desafios da neurociência é identificar como as regiões cerebrais estão relacionadas a determinadas funções perceptivas, cognitivas e comportamentais. Estudos mostram que existem casos em que não temos apenas uma região cerebral relacionada a uma determinada função, mas o que acontece, é que as regiões cerebrais comunicam-se através das sinapses dos neurônios que as compõem, fazendo com que a atividade conjunta dessas regiões cerebrais sejam responsáveis pelo funcionamento de algumas funções essenciais para os seres vivos [1]. Sabendo disso, é de grande interesse da comunidade científica, saber quais são essas regiões cerebrais, por quais funções elas são responsáveis e como acontece a transferência de informação entre elas. 1.1 conectividade no cérebro Ao longo dos anos houve um avanço nos métodos de avaliação da conectividade entre as regiões cerebrais. Alguns métodos são baseados na análise anatômica das regiões, como por exemplo no caso da identificação da conectividade sináptica através da aplicação de traçadores em uma região alvo e a observação dos padrões de transporte dos traçadores no cerébro. Esse método pode identificar até mesmo a conectividade entre sinapses individuais, porém, devido à invasividade desse método, ele é inadequado para a utilização em humanos, e através dele é possível investigar apenas um número limitado de regiões cerebrais [2] . Alguns estudos da conectividade cerebral em humanos foram feitos através de análises ex vivo utilizando dissecção [3]. Apesar de alguns 1 CAPÍTULO 1. introdução 2 resultados interessantes terem sido obtidos através desses métodos, essas análises são limitadas em relação especificidade e a reprodutibilidade [4]. O avanço tecnológico em neurociência que ocasionou na possibilidade de registros eletrofisiológicos da atividade das regiões cerebrais e, até mesmo da atividade de neurônios isolados, fez com que se iniciasse a aplicação de métodos estatísticos na análise desses dados. Um dos métodos mais populares, não só por ser um dos mais antigos, mas também por ser fácil de compreendê-lo, é a correlação. A correlação é a medida normalizada da dependência linear entre duas variáveis aleatórias. Através dessa medida é possível obter informações sobre a arquitetura funcional das redes neuronais. Análises da correlação tem sido utilizadas para inferir a conectividade na retina [5], entre o tálamo visual e o córtex [6], e entre neurônios no córtex [7]. Os resultados relacionados à conectividade são geralmente analisados através da verificação da sincronização da atividade entre as diferentes regiões cerebrais. Além disso, a correlação pode ser utilizada para outras análises em neurociência que não envolvem diretamente o estudo da conectividade entre regiões cerebrais ou neurônios. Podemos utilizar a correlação para verificar a similaridade entre a resposta dos neurônios a um conjunto de estímulos, ou podemos quantificar como são as flutuações trial a trial na atividade de um par de neurônios quando apresentados a um mesmo estímulo sobre as mesmas condições comportamentais [8]. Devido ao fato de que sinais neuronais tais como eletroencefalograma (EEG) são na maioria das vezes interpretados fisiologicamente em termos dos rítmos cerebrais (alfa, beta, gama e teta), uma das medidas muito utilizadas em neurociência para a avaliação da relação ente sinais neurais advindos de diferentes regiões ou neurônios, é a coerência espectral, que é a medida análoga da correlação no domínio das frequências. Através da coerência espectral é possível verificar como duas séries temporais estão relacionadas e em quais frequências do espectro essas relações são mais evidentes. Na maioria dos estudos envolvendo oscilações, a coerência espectral é utilizada como ferramenta de análise da sincronização entre a atividade de diferentes séries temporais. Em estudos de conectividade funcional, onde é avaliada a correlação temporal entre eventos neurofisiológicos espacialmente remotos, a coerência espectral é a principal CAPÍTULO 1. introdução 3 medida utilizada. Estudos envolvendo a coerência espectral foram utilizados para medir a conectividade entre regiões cerebrais através de dados de ressonância magnética funcional [9]. Guevara et al. compararam a utilização da correlação e da coerência para a avaliação de dados de eletroencefalografia [10]. Apesar da correlação e da coerência, e de outras medidas derivadas dessas duas serem extensamente utilizadas em neurociência, elas têm algumas limitações quando aplicadas ao estudo da conectividade do cérebro. Através dessas medidas não é possível verificar se de fato existe uma conexão entre as regiões cerebrais, isso porque, a atividade elétrica de duas regiões podem estar correlacionadas mesmo se as regiões estiverem anatomicamente desconectadas. Nesse caso, a correlação encontrada entre os sinais pode ser devido a atividade de uma terceira região que se comunica com as duas regiões nas quais as medidas foram feitas. Além disso podem ocorrer casos em que uma região intermedeia a comunicação entre duas regiões cerebrais. Devido a esses casos dividimos a natureza das conexões entre conexões diretas e indiretas. Nas conexões diretas a comunicação entre as regiões cerebrais ocorre sem a intervenção de uma outra estrutura intermediária. Nas conexões indiretas existem estruturas intermediárias ligadas às regiões de interesse. A direcionalidade das conexões também é um tema de grande interesse dos pesquisadores que investigam conectividade. Essa direcionalidade também não é possível de ser verificada através das medidas de conectividade funcional (correlação e coerência), devido a isso passou-se a investigar novos métodos estatísticos que sejam capazes de investigar as relações de causa e efeito em séries temporais. Uma das principais medidas de conectividade que permite a análise da direção das conexões é a causalidade de Granger. A causalidade de Granger baseia-se na premissa de que a uma série temporal Xt causa uma outra série Yt se o conhecimento dos valores passados de Xt ajudam a predizer os valores de Yt , além do que é possível apenas com os valores de passados de Yt [11] . Uma das principais propriedades da causalidade de Granger é que ela é direcional, ou seja, o fato da série Xt causar a série Yt , não implica em Yt causar Xt . Esta é a pincipal diferença entre a causalidade de Granger e a correlação, que é simétrica e não nos dá informações sobre a direcionalidade das conexões. Vários trabalhos onde são feitos estudos da conectividade entre regiões CAPÍTULO 1. introdução 4 cerebrais através da avaliação de séries temporais no domínio temporal, utilizam a causalidade de Granger como medida de conectividade. Coben et al. usaram dados de eletroencefalografia (EEG) para verificar a conectividade entre regiões cerebrais em eventos ictais [12], e investigaram também a conectividade em desordens do espectro autista [13] . Miao et al. estudaram a alteração na conectividade dos hubs da rede de modo padrão em casos de doença de Alzheimer através da avaliação de dados de ressonância magnética funcional [14]. A causalidade de Granger também pode ser utilizada para o estudo da conectividade em dados de potencial de campo local (LFP). Cadotte et al. estudaram a intensidade e a direção das conexões do CA1 com o giro dentado através de dados de LFP em episódios de epilepsia [15]. Apesar da causalidade de Granger fornecer informações sobre a direcionalidade das conexões entre as regiões cerebrais, não é possível verificar, através da abordagem mais simples da causalidade de Granger [11], se as conexões são diretas ou indiretas. Para solucionar esse problema, introduziram-se os conceitos de causalidade de Granger condicional, não-condicional [16] e parcial [17]. Na causalidade de Granger não-condicional as séries temporais consideradas na análise são apenas aquelas relativas as regiões entre as quais queremos verificar a conectividade. No entanto, existem casos em que uma terceira região está conectada a duas regiões cerebrais desconectadas, ocasionando em uma causalidade espúria medida pela causalidade de Granger não-condicional. Devido a isso foi criado o conceito de causalidade de Granger condicional [16] onde consideramos as possíveis influências comuns entre as séries temporais. Para isso incluímos nos modelos autorregressivos informações sobre os valores passados das outras séries temporais que podem estar influênciando as séries temporais em que queremos verificar a relação de causalidade. Nesse caso, uma série temporal causa uma segunda série temporal, se o passado dessa segunda série temporal melhora a predição dos valores da primeira série, além do que é possível com a inclusão dos valores passados de todas as outras séries temporais que foram medidas. É importante ressaltar que para aplicarmos a causalidade de Granger condicional, devemos ter as séries temporais das regiões que acreditamos estarem influenciando duas ou mais regiões em comum. CAPÍTULO 1. introdução 5 Existem casos em que as regiões entre as quais queremos verificar a relação de conectividade podem estar sendo influenciadas por outras regiões desconhecidas o cujas séries temporais não foram registradas. Devido a isso, Guo et al. baseados nos conceitos de causalidade de Granger e correlação parcial, introduziram a idéia de causalidade de Granger parcial [17]. Na causalidade de Granger parcial as séries temporais exógenas (desconhecidas) e latentes (não registradas) são representadas nos modelos autorregressivos através vetores de valores aleatórios que são comuns entre os diferentes modelos autorregressivos porém com coeficientes diferentes que representam a influência desses valores sobre as séries temporais. Apesar da causalidade de Granger parcial ter sido usada em alguns trabalhos relacionados à conectividade entre regiões cerebrais [18, 19], foi verificado por Roelstraete e Rossel que podem ter sido feitas algumas considerações equivocadas no trabalho original que introduz essa medida [20]. Os pesquisadores compararam a causalidade de Granger parcial com a causalidade condicional para os casos em que existem variáveis latentes e exógenas nos modelos considerados. Foi verificado que a causalidade de Granger parcial nem sempre detecta mais conexões e menos falsos positivos do que a causalidade de Granger condicional, no entanto, a causalidade de Granger parcial é melhor do que a condicional conforme aumentamos o número de variáveis latentes ou exógenas, mas somente quando foi utilizada inferência não paramétrica. Além de novas abordagens para a causalidade de Granger, como mostrado anteriormente, foi estudado a relação da causalidade de Granger com outras medidas de conectividade [21, 22]. Barnett, Bossomaier e Seth estudaram a relação entre a causalidade de Granger e a entropia de transferência, que é uma medida não paramétrica da transferência de informação direcionada entre séries temporais [23]. Barnett et al. verificaram que a causalidade de Granger é equivalente a entropia de transferência quando as séries temporais seguem uma distribuição normal [24]. Mais tarde foi verificado que essa equivalência pode ser expandida para outras distribuições, como por exemplo a distribuição exponencial de Weinman e a distribuição log-normal [25]. A causalidade de Granger é uma das medidas de conectividade mais populares utilizada em neurociência. Ela permite observar a direcionalidade das conexões e devido CAPÍTULO 1. introdução 6 a isso vários pacotes para linguagens de programação permitem o cálculo dessa medida. A toolbox GCCA (Granger Causal Connectivity Analysis) permite o cálculo de várias medidas relacionadas à causalidade de Granger aplicadas a séries temporais, como a causalidade de Granger condicional, a causalidade de Granger parcial, a densidade e o fluxo causal [26]. Em 2014 os mesmos criadores da toolbox GCCA, divulgaram a toolbox MVGC (Multivariate Granger Causality Toolbox) que é uma atualização da toolbox GCCA, com algumas adaptações nas rotinas a fim de melhorar a performance do pacote, como por exemplo ajustando a rotina para o cálculo da regressão de forma que evite separar o cálculo da regressão completa da regressão reduzida [16]. Algumas funcionalidades da toolbox GCCA foram retiradas na MVGC, uma delas é a função para o cálculo da causalidade de Granger parcial. Essas duas toolboxes foram desenvolvidas para serem utilizadas na linguagem de programação MATLAB [27]. Outras toolboxes também foram desenvolvidas para o anaálise da conectividade em linguagem MATLAB como por exemplo HERMES [28], FieldTrip [29], BSMART [30] entre outras. Existem também bibliotecas em Python [31] e R [32] para o cálculo da causalidade de Granger. Apesar da causalidade de Granger ser uma medida robusta da conectividade entre regiões cerebrais, ela nos permite apenas verificar as relações causais no domínio temporal. Assim como para o caso da coerência espectral, houve um interesse dos pesquisadores em investigar possíveis aplicações da causalidade de Granger no domínio das frequências, a fim de verificar em quais frequências das séries temporais advindas das regiões cerebrais, uma região está exercendo influência sobre a outra. Vários métodos foram propostos a fim de investigar as relações causais no domínio das frequências, alguns deles são, a causalidade de Granger espectral [16], a coerência direcionada (DC) [33] a função de transferência direcionada (DTF) [34] e a coerência parcial direcionada (PDC) [35]. Um dos primeiros métodos propostos com o intuito de investigar as relações causais no domínio espectral foi a causalidade de Granger espectral proposta por Geweke [36]. Nessa abordagem é aplicada uma transformada de Fourier sobre os coeficientes dos modelos autorregressivos e com os valores dos coeficientes no domínio espectral são criadas uma matriz de transferência e uma matriz espectral. A partir dos valores dessas CAPÍTULO 1. introdução 7 matrizes é feito o cálculo da relação de causalidade entre os sinais que estão sendo analisados. Apesar desse medida ter sido usada em alguns trabalhos onde são avaliados a conectividade entre os sinais eletrofisiológicos [37, 38], não foi proposto por Geweke em seu artigo original uma avaliação clara da significância estatística dessa medida. Alguns pesquisadores, como Chen [39], propuseram melhorias para a causalidade de Granger espectral. Saito e Harashima [33] introduziram uma medida de conetividade chamada de coerência direcionada (DC). A coerência direcionada foi formulada no conceito do modelo autorregressivo, baseado na consideração de que os sinais em estudo são gerados por um modelo bidirecional. Uma fonte de ruído comum é adicionada ao modelo autorregressivo, a fim de levar em conta possíveis fontes externas influenciando os sinais de interesse. Esta fonte de ruído comum pode ser utilizada também para modelar o acoplamento, com delay zero, entre os sinais. A direção da coerência direcionada é determinada pela relação temporal dos sinais. De forma geral, a coerência direcionada mede a sincronização entre dois sinais, Xt e Yt , em determinada frequência e em determinada direção, e descreve a sincronização entre Xt e Yt como a coerência para Xt temporalmente conduzir Yt e Yt conduzir Xt , respectivamente [40]. A coerência direcionada foi utilizada para verificar as relações entre as séries temporais obtidas por eletromiografia em pacientes com doença de Parkinson [41]. O principal problema com a coerência direcionada é que ela é definida apenas para pares de canais de forma que permite a análise de apenas duas séries temporais. Generalizações para mais séries temporais foram feitas por Kaminski e Blinowska [34], e por Baccalá e Sameshima [35]. Uma outra medida criada para a verificação da conectividade no domínio das frequências foi a função de transferência direcionada (DTF). A principal vantagem desse método sobre a coerência direcionada é que a função de trasferência direcionada pode ser aplicada em análises com um número arbitrário de séries temporais. Porém um dos problemas na utilização dessa medida ocorre quando queremos verificar apenas conexões diretas. A função de transferência direcionada registra não apenas os fluxos diretos mas também os fluxos indiretos, de forma que não podemos distinguir esses CAPÍTULO 1. introdução 8 casos através dessa medida. No entanto, a função de transferência direcionada foi utilizada em diversos estudos relacionados à conectividade [34, 42]. 1.2 coerência parcial direcionada Em 2001 Baccalá e Sameshima [35] propuseram a coerência parcial direcionada (PDC). Essa medida de conectividade no domínio das frequências, ao contrário da função de transferência direcionada, permite a verificação das conexões diretas. A coerência parcial direcionada π ij ( f ) é uma medida normalizada que representa o peso do acoplamento relativo, na frequência f , da interação de um dado sinal de uma estrutura fonte j com o sinal de uma estrutura i em comparação com todas as interações do sinal da estrutura j com os sinais relacionados as outras estruturas. A coerência parcial direcionada classifica o peso da interação com respeito a um dado sinal fonte. Diferentemente da abordagem da causalidade de Granger, na coerência parcial direcionada não são comparados os erros de predição entre os modelos. Nesse método de conectividade são estimados os modelos autorregressivos para todos os canais e são verificados os coeficientes que conectam os sinais dos diferentes canais. Se os coeficientes são próximos a zero, dizemos que não há influência de uma série temporal sobre a outra. A coerência parcial direcionada apresenta bons resultados quando aplicada a séries temporais não-lineares, no entanto, é preciso utilizar um modelo com ordem alta [40]. Desde a publicação do artigo de Baccalá e Sameshima em 2001, muitos estudos em neurociência foram feitos através da utilização dessa medida de conectividade. Petti et al. investigaram os efeitos da variabilidade entre tentativas na estimação da conectividade cortical através da coerência parcial direcionada [43]. Wang et al. estudaram a detecção de episódios de epilepsia baseado na análise da coerência parcial direcionada [44]. Foram criadas outras medidas de conectividade baseadas na coerência parcial direcionada (PDC), são elas: a coerência parcial direcionada generalizada (GPDC) [45], a coerência parcial direcionada informacional (iPDC) [46], a coerência CAPÍTULO 1. introdução 9 parcial direcionada extendida (ePDC) [47], a coerência parcial direcionada defasada (lPDC) [40] e a coerência parcial direcionada defasada e normalizada (nPDC) [48]. 1.3 trabalhos computacionais relacionados Apesar de terem sido feitas várias aplicações dos métodos de conectividade em sinais neurais de vários tipos, como eletroencefalograma (EEG) e potencial de campo local (LFP), ainda são poucos os trabalhos na literatura científica que estão relacionados à aplicação desses métodos em sinais obtidos através de modelos computacionais de redes neurais. A aplicação dos métodos de conectividade sobre dados obtidos através de modelos computacionais permite que possamos investigar se as conexões inferidas através dos métodos de conectividade correspondem exatamente às conexões presentes nas redes modeladas computacionalmente. A vantagem desse tipo de estudo é que, conhecendo previamente as conexões presentes no sistema, podemos validar os resultados obtidos através dos métodos de conectividade. Os dados gerados através da modelagem computacional de redes neuronais não são necessariamente lineares, estacionários e criados por um modelo autorregressivo, dessa forma podemos avaliar a robustez dos métodos quando aplicados a dados mais próximos de dados reais em neurociências. Além disso, podemos verificar através da utilização de modelos computacionais, se os valores obtidos para as medidas de conectividade correspondem à intensidade do acoplamento entre as redes neurais. Dentre os poucos trabalhos que fazem esse tipo de avaliação, temos um estudo efetuado por David et al. [49]. Nesse trabalho, os pesquisadores avaliaram as diferentes medidas de conectividade funcional usando um modelo de massa neural [50]. Esse modelo descreve a atividade média com um número pequeno de variáveis de estado. As variáveis de estado representam o comportamento de milhões de neurônios que interagem entre si. Através dos modelos de massa neural é possível simular sinais de MEG (magnetoencefalografia) e EEG (eletroencefalografia) e as dependências, de- CAPÍTULO 1. introdução 10 vido ao acoplamento neuronal, entre os sinais medidos. David, Cosmelli e Friston aplicaram, nos dados de MEG e EEG simulados, as seguintes medidas: correlação cruzada [51], informação mútua [52], sincronização generalizada [53] e sincronização de fase [54]. Os resultados obtidos pelos pesquisadores mostraram que os métodos aplicados podem detectar dependências entre os sinais, porém, com diferentes perfis de sensibilidade. Essa sensibilidade é uma avaliação em termos da capacidade de cada medida para detectar dependências estatísticas entre os índices neurofisiológicos remotos. A sensibilidade depende da especificidade da frequência da interação, ou seja, se a banda de frequências é estreita ou ampla, e da natureza do acoplamento, ou seja, se ele é linear ou não-linear. Os pesquisadores verificaram também que para o caso de banda ampla de frequências o método de sincronização generalizada é o mais sensível. Porém, quando a banda de frequências é estreita, a informação mútua é o método com maior sensibilidade para verificar acoplamentos em uma frequência específica. As medidas de sincronização generalizada e sincronização de fase apresentam resultados interessantes quando aplicadas a acoplamentos não-lineares. Através desse estudo os pesquisadores mostraram que a escolha da medida de conectividade pode ter efeitos dramáticos na identificação de redes corticais [49]. Anil Seth publicou em 2008 um trabalho onde é feita a avaliação de redes causais em sistemas neurais simulados [55]. Neste trabalho as técnicas de análise de séries temporais baseadas na causalidade de Granger são combinadas com teoria de redes a fim de caracterizar redes causais [56]. Seth apresenta em seu artigo a distinção entre "redes causais"e "redes estruturais". A rede causal é a rede de interações causais significantes entre os neurônios, que reflete um aspecto da conectividade funcional e/ou efetiva. A rede estrutural, por sua vez, representa a conectividade física entre neurônios ou regiões cerebrais. Seth ilustra a abordagem da rede causal através da análise de uma simulação simples utilizando um modelo que envolve a coordenação sensório motora. Neste modelo, algorítmos genéticos são utilizados para especificar os controladores da rede neural que servem de apoio para comportamentos de fixação de alvo em um sistema cabeça/olho simulado. As redes causais foram comparadas com as redes estruturais subjacentes. Foi verificado que as redes causais fornecem CAPÍTULO 1. introdução 11 uma descrição intuitiva da dinâmica neural que reflete as interações agente-ambiente durante o comportamento. Foi mostrado também que as redes causais predizem os efeitos das lesões em redes estruturais. Para mostrar que a análise das redes causais fornecem ferramentas úteis para a interpretação de dados empíricos foi necessário utilizar um modelo mais detalhado que incorpora aspectos de neuroanatomia e neurofisiologia. Para isso Seth utilizou um robô do tipo Dispositivo Baseado no Cérebro (do inglês Brain Based Device) [57]. Este robô incorpora um modelo detalhado do hipocampo de mamíferos. Assim é possível utilizar esse dispositivo para análises que envolvam aprendizado. A análise das redes causais do dispositivo revelaram caminhos causais envolvendo o hipocampo que medeiam a entrada (input) sensorial e a saída (output) motora e que mapeiam conexões anatomicas conhecidas. Seth verificou que esses caminhos são modulados como um resultado do aprendizado. Uma contribuição importante desse trabalho é a introdução do conceito de core causal que refere-se a um conjunto de interações neuronais que são significantes para uma dada saída (output). Por fim, o pesquisador utilizou redes causais aplicadas à dinâmica neural em investigações envolvendo consciência [55]. Cadotte et al. estudaram medidas causais da estrutura e da plasticidade em redes neuronais simuladas e em dados empíricos [58]. Os pesquisadores utilizaram três métodos analíticos baseados na causalidade de Granger para fornecer uma descrição relativamente completa das interações causais em redes neuronais. Essas três abordagens são: a causalidade de Granger não-condicional, a causalidade de Granger condicional e a causalidade de Granger direta, que é um método menos conhecido baseado na combinação entre os valores da causalidade de Granger condicional e não-condicional. Esse terceiro método foi introduzido a fim de que seja possível relacionar os pesos sinápticos com os valores obtidos para a causalidade de Granger nos casos de conexões indiretas, ou seja, conexões mediadas por outros neurônios. Cada neurônio no estudo foi descrito por um modelo de Izhikevich [59]. Primeiramente verificou-se que o peso das interações diretas entre dois neurônios simulados era refletido no valor da causalidade de Granger. Para obter uma relação matemática entre os valores da causalidade de Granger e os pesos sinápticos para a conexão entre esses neurônios, os pesquisa- CAPÍTULO 1. introdução 12 dores fizeram um experimento onde aumentaram sistematicamente o peso sináptico da conexão entre os dois neurônios simulados e registraram os valores da causalidade de Granger para essa conexão. Foi verificado que a relação entre o peso sináptico e a causalidade de Granger segue uma função do tipo sigmoidal, porém, para um determinado intervalo, os valores do peso sináptico estão relacionados linearmente com os valores da causalidade de Granger. Os pesquisadores verificaram que, quando utilizamos a causalidade de Granger não-condicional ou a condicional para a avaliação das conexões em redes compostas por mais de 2 neurônios, a relação entre o peso sináptico e a causalidade de Granger falha. Para solucionar esse problema foi aplicada a causalidade de Granger direta. Após esses estudos utilizando modelos simplificados, os pesquisadores aplicaram os métodos desenvolvidos para a análise de dados de uma rede cortical simulada com 100 neurônios conectados de forma aleatória. Por fim, foi descrito um experimento de plasticidade em uma rede de neurônios corticais in vitro em que os valores da causalidade de Granger foram diretamente relacionados com os resultados das taxas de disparos. Os resultados desse experimento mostraram que a causalidade de Granger pode fornecer uma representação detalhada para a detecção da plasticidade. Os pesquisadores também apontam as limitações da aplicação da causalidade de Granger na detecção das conexões entre neurônios. A primeira limitação é que se a taxa de amostragem dos dados é baixa, pode ser difícil detectar influências defasadas. Isso porque os sistemas podem estar interagindo em uma frequência maior do que a taxa de disparos. Uma outra limitação apresentada esta relacionada ao problema de detectar influências inibitórias através da causalidade de Granger. Isso acontece porque as sinapses inibitórias causam uma diminuição da atividade das células-alvo. Assim, a influência desses neurônios inibitórios sobre as células-alvo resultaria em uma redução da causalidade medida entre outros neurônios e estas células-alvo [58]. Garofalo et al. utilizaram os métodos baseados na teoria da informação e a correlação cruzada para estimar a conectividade funcional em redes corticais in vitro [60]. Os métodos baseados na teoria da informação que foram utilizados foram a informação mútua [52], a entropia de transferência [24] e a entropia conjunta. A informação mútua nesse caso, é uma medida estatística da dependência entre séries de potenciais de ação CAPÍTULO 1. introdução 13 dos neurônios registrados por microeletrodos. A entropia de transferência é uma medida que permite estimar relações causais entre séries temporais, levando em conta o passado de cada série. A entropia conjunta, foi introduzida pela primeira vez em neurociência nesse trabalho. Esse método é linear assim como a correlação cruzada [61], mas ele é construído através da consideração de intervalos entre disparos cruzados (do inglês cross inter-spike-interval) [62] que é calculado entre pares de neurônios. Foram criadas redes de neurônios que imitam o comportamento da atividade eletrofisiológica da cultura de células corticais. Cada um dos neurônios das redes criadas é descrito por um modelo de Izhikevich [59]. Primeiramente foi implementada uma rede neuronal somente com conexões excitatórias e com pesos sinápticos extraídos de uma distribuição normal. Essa rede foi chamada de rede E. Foi contruída também uma rede com conexões excitatórias e inibitórias e a essa rede foi dado o nome de rede EI. Para contruir essa rede foram considerados dois tipos de neurônios os que apresentam padrões do tipo Regular Spiking e os que apresentam padrões do tipo Fast Spiking. Para preservar as características das redes corticais in vitro, foi fixada a proporção 4 : 1 entre neurônios excitatórios e neurônios inibitórios. A rede E é composta por 60 neurônios excitatórios e a rede EI é composta por 48 neurônios excitatórios e 12 neurônios inibitórios. Os neurônios de ambas as redes foram conectados de forma aleatória, de forma que cada neurônio fazia um número máximo de conexões. A atividade espontânea da rede foi obtida através da introdução de um estímulo aleatório que reproduz o efeito da flutuação no potencial de membrana. Para avaliar a performance dos métodos aplicados foram utilizadas a curva ROC (Receiver Operating Characteristic Curve) [63] e a curva de precisão positiva (PPC), que foi introduzida nesse trabalho. A curva ROC nos permite verificar a taxa de falsos positivos para uma dado limiar, já a curva de precisão positiva é um gráfico onde no eixo x temos a quantidade de elementos analisados, que corresponde ao número de falsos positivos mais o número de verdadeiros positivos; no eixo y temos a porcentagem de verdadeiros positivos detectados relativos aos falsos positivos. Foi mostrado que os melhores resultados, para ambas as redes E e EI, são obtidos através da aplicação da entropia de transferência. Os pesquisadores mostraram também que a entropia conjunta tem melhores performances com respeito CAPÍTULO 1. introdução 14 a correlação cruzada quando aplicadas às redes EI. No entanto, a correlação cruzada tem melhores resultados do que a entropia conjunta quando aplicados às redes do tipo E. Os resultados obtidos através da informação mútua são os piores quando comparados aos outros métodos estudados. A entropia de transferência, a entropia conjunta e a correlação cruzada são também bons métodos quando aplicados a dados registrados de redes corticais in vitro [60]. Assim como no trabalho de Garofalo et al. [60], Ito et al. investigaram a aplicação da entropia de transferência [24] em redes corticais modeladas através do modelo de Izhikevich [59]. Nesse trabalho os pesquisadores investigaram os casos em que temos múltiplos delays entre as interações, isso porque, na maioria dos trabalhos envolvendo entropia de transferência, é utilizado apenas um valor de delay entre as interações. No entanto, como apontado pelos pesquisadores, considerar apenas um valor de delay é um problema, visto que os delays entre um potencial de ação e um potencial pós-sináptico tipicamente estão na faixa de 1 a 20 milissegundos no córtex dos mamíferos [64]. Uma possível abordagem para solucionar esse problema seria utilizar entropia de transferência de um único delay, porém com uma grande intervalo de tempo (time bin) de aproximadamente 20 milissegundos, mas essa abordagem poderia sacrificar a resolução temporal. Um outro problema verificado pelos pesquisadores é que na maioria dos casos, as mensagens entre os neurônios consideradas tem comprimento de um único bin. Enquanto tais medidas podem capturar informações enviadas entre neurônios na forma de um disparo único, elas poderiam excluir mensagens que abrangem múltiplos bins de tempo, como para o caso de bursts. Como os bursts podem ser um tipo de mensagem importante entre os neurônios, é interessante medir a entropia de transferência para mensagens com mais de um bin. Para resolver esses problemas Ito et al. introduziram duas extensões da entropia de transferência: a entropia de transferência atrasada (Delayed Transfer Entropy) e a entropia de transferência de ordem mais alta (Higher-Order Transfer Entropy) ou HOTE. A entropia de transferência atrasada permite a aplicação da entropia de transferência para o caso de múltiplos delays. A entropia de transferência de ordem mais alta permite que seja avaliada mensagens com até 5 bins em mútiplos delays. Para avaliar essas extensões os pesquisadores compararam-nas CAPÍTULO 1. introdução 15 com a entropia de transferência de um único delay e com a correlação cruzada [61]. Para efetuar uma validação dos métodos, eles foram aplicados na identificação da conectividade efetiva em redes de neurônios simuladas. Cada rede é composta por 1000 neurônios sendo 800 excitatórios e 200 inibitórios e cada neurônio é descrito por um modelo de Izhikevich [59]. Os pesos sinápticos excitatórios foram evoluídos por uma plasticidade dependente do tempo do disparo (STDP). Cada neurônio da rede faz 100 sinapses com delay. As conexões do tipo excitatório-excitatório tem delays de 1 a 20 milissegundos. Conexões do tipo inibitória tem delay fixo em 1 milissegundo. Foram criadas curvas ROC para a verificação da performance dos métodos estudados. Foi verificado que a entropia de transferência de um único delay poderia identificar 36% das conexões verdadeiras quando avaliada para uma taxa de falsos positivos de 1%. Para as versões extendidas da entropia de transferência houve uma melhora significativa na deteccão e o foi possível identificar 73% das conexões verdadeiras. A correlação cruzada não teve uma performance tão boa quanto a das versões extendidas da entropia de transferência. No entanto, essa medida é útil quando temos dados com poucas observações [65]. Wu et al. investigaram como detectar a topologia de uma rede de neurônios através da aplicação da causalidade de Granger [66]. Para isso, os pesquisadores criaram redes de neurônios onde o comportamento de cada neurônio é descrito pelo modelo de FitzHugh-Nagumo [67]. A causalidade de Granger [11] foi aplicada nos dados não-lineares obtidos simultaneamente através das redes neuronais contaminadas com ruídos. Somente uma variável de estado dos neurônios foi observada. Foi estudada também a influência do peso sináptico entre os neurônios e da intensidade do ruído sobre as medidas obtidas através da causalidade de Granger. Foi verificado que para séries com poucas observações o valor da causalidade de Granger pode ser mais baixo e em alguns casos algumas conexões podem não ser detectadas. Porém, para o caso de séries temporais muito longas o número de falsas conexões detectadas pode aumentar. Os pesquisadores mostraram também que para conexões com pesos sinápticos muito pequenos, a causalidade de Granger pode não detectar a interação. O aumento na intensidade do ruído pode fazer com que sejam detectadas falsas conexões [66]. CAPÍTULO 1. introdução 16 Kim et al. investigaram a aplicação da causalidade de Granger em modelos de processos pontuais de um conjunto de neurônios em atividade [68]. A causalidade de Granger [11] apesar de ser uma técnica amplamente utilizada como método de conectividade em sistemas neurais, não pode ser aplicado diretamente em séries de potencias de ação devido a natureza discreta desses dados. Muitos métodos foram propostos para a aplicação da causalidade de Granger em séries de potenciais de ação. A maioria desses métodos baseia-se na idéia de transformar uma série de dados discretos em dados contínuos através da convolução da série de dados discretos com um kernel ou um filtro passa-baixa. A entropia de transferência [24] é uma opção nesses casos porém sua aplicação é restrita a casos bivariados. Kim et al. propuseram uma abordagem baseada em processos pontuais para avaliar a causalidade de Granger entre múltiplos neurônios. A atividade de cada neurônio é afetada simultaneamente por múltiplas covariáveis tais como o próprio histórico de potenciais de ação e a atividade conjunta concorrente dos outros neurônios. O efeito desses fatores na atividade do neurônio é caraterizado por uma estrutura estatística baseada na função de verossimilhança do processo pontual, que relaciona a probabilidade de ocorrer um potencial de ação no neurônio com as covariáveis. Utilizando a função de verossimilhança, a causalidade de Granger entre neurônios é estimada baseada na razão entre verossimilhanças. Seguindo essa abordagem, a causalidade de Granger do neurônio j para o neurônio i é medida baseada na redução relativa da verossimilhança do processo pontual do neurônio i obtida pela exclusão das covariáveis correspondentes ao efeito do neurônio j, comparada a verossimilhança baseada usando todas as covariáveis. Se a razão entre as verossimilhança é menor do que 1, dizemos que existe influência causal de j para i, e se a razão é 1 dizemos que não há influência causal. Essa abordagem proposta foi utilizada para a verificação da conectividade em dados simulados e em dados registrados do córtex motor primário do gato a fim de verificar as relações causais que ocorrem entre múltiplos neurônios simultaneamente registrados durante a realização de uma tarefa motora [68]. Shao et al. estudaram a determinação dos pesos sinápticos através da aplicação da causalidade de Granger [69]. Dois problemas enfrentados pelos pesquisadores que CAPÍTULO 1. introdução 17 efetuaram estudos nessa área são que: (1) a causalidade de Granger, na sua forma original, é designida para não apresentar valores negativos, de forma que não é possível distinguir os efeitos de excitação e inibição entre os neurônios, (2) como relacionar a causalidade de Granger com os pesos sinápticos. A fim de solucionar esses problemas, os pesquisadores propuseram um algorítmo computacional sob a consideração do melhor preditor linear para analisar redes neuronais pela estimativa do peso sináptico entre os neurônios. A idéia da consideração matemática do melhor preditor linear é que a flutuação na voltagem do neurônio pré-sináptico seria a melhor explicação linear para a flutuação na voltagem do neurônio pós-sináptico. Usando esta interpretação, a causalidade de Granger pode ser extendida para a medida de efeitos inibitórios e excitatórios entre os neurônios, sem necessitar muita complexidade computacional. Os pesquisadores avaliaram através desses método três tipos de redes simuladas, aquelas com estruturas lineares, quase-lineares e não-lineares. Para ilustrar a aplicação do método proposto os pesquisadores aplicaram a medida em dados reais de séries de potenciais de ação do córtex cingulado anterior e do estriado. As séries discretas foram convertidas em dados contínuos através da aplicação de um kernel Gaussiano [70] ou de um binning [71]. Para a rede com estruturas lineares os dados foram gerados a partir de modelos autorregressivos, para o caso de estruturas quase-lineares foi utilizado o modelo integra-e-dispara [72] para simular o comportamento dos neurônios da rede e para o caso não-linear foi utilizado o modelo de Izhikevich [59]. O método proposto motrou-se ser um método eficiente na detecção de conexões excitatórias e inibitórias. Para o caso de dados reais o método identificou efeitos excitatórios dentro do córtex cingulado anterior, efeitos excitatórios do córtex cingulado anterior para o cingulado e efeitos inibitórios dentro do cingulado. Os pesquisadores encontraram uma relação similar a encontrada por Cadotte et al. [58] para a relação entre a causalidade de Granger e os pesos sinápticos. Os trabalhos apresentados, apesar de aplicarem métodos de conectividade em dados simulados, não utilizam métodos no domínio das frequências. Além disso, eles não fazem nenhuma suposição para a aplicação de métodos de conectividade para a identificação da conectividade entre redes cerebrais. Sabendo que as oscilações nas redes CAPÍTULO 1. introdução 18 cerebrais podem ser um mecanismo de comunicação entre elas, seria interessante então, a realização de um estudo em que fosse levado em conta a aplicação de métodos no domínio das frequências a dados simulados que representem a atividade de redes neuronais. Dessa forma, poderíamos verificar qual a aplicabilidade desses métodos na identificação das conexões entre regiões cerebrais. 1.4 objetivos O objetivo desse trabalho foi investigar a aplicação da coerência parcial direcionada (PDC) e da coerência parcial direcionada generalizada (GPDC) em dados de potencial de campo local gerados através de simulações de redes neuronais. Avaliamos diferentes tipos de conectividade entre as redes neuronais cujos sinais de LFP oscilam em diferentes frequências. Verificamos em quais situações é possível inferir as conexões entre as redes através dos métodos de conectividade utilizados. Estudamos também como o aumento no peso sináptico, da conexão entre neurônios de diferentes redes, influencia os valores obtidos através dos métodos de conectividade efetiva (PDC e causalidade de Granger) e funcional (correlação de Spearman e coerência espectral). 1.5 estrutura da dissertação No capítulo 2 dessa dissertação partimos do conceito de séries temporais e introduzimos a abordagem matemática dos métodos de conectividade funcional e efetiva mais utilizados e os que são utilizados nesse trabalho. Além disso, explicitamos como foi feita a implementação computacional dos métodos de conectividade e dos testes de significância utilizados nos estudos envolvendo a coerência parcial direcionada. No capítulo 3 apresentamos o modelo matemático que será utilizado para descrever o comportamento dos neurônios das redes. Explicamos as vantagens da utilização CAPÍTULO 1. introdução 19 desse modelo em relação aos outros. Mostramos como foram feitas as implementações das principais características das redes neurais utilizadas e como foram gerados os dados de potencial de campo local através dos potenciais de membrana dos neurônios da rede. No capítulo 4 são mostrados e discutidos os resultados dos experimentos computacionais feitos através da aplicação da coerência parcial direcionada e da coerência parcial direcionada generalizada sobre as séries temporais geradas. São mostrados também os resultados da análise da relação entre os pesos sinápticos e os valores obtidos através dos métodos de conectividade. Por fim, no capítulo 5 são feitas as conclusões, as considerações finais e as sugestões de trabalhos futuros. 2 MÉTODOS 2.1 séries temporais Uma série temporal é definida como um conjunto de observações quantitativas arranjadas em ordem cronológica [73]. A análise de séries temporais tem ampla aplicação em astronomia, meteorologia, oceonografia, engenharia e processamento de sinais em telecomunicações, economia e neurociências. Uma série temporal é dita contínua quando as observações são feitas continuamente no tempo. Definindo o conjunto T = {t : t1 < t < t2 } a série temporal será denotada por { X(t) : t ∈ T }. Uma série temporal é dita discreta quando as observações são feitas em tempos específicos, geralmente equiespaçados. Para simplificar podemos fazer T = {1, 2, ..., n} [74]. Muitas vezes, uma série temporal discreta é obtida através da amostragem de uma série temporal contínua em intervalos de tempos iguais, ∆T. Assim, dada uma série contínua podemos amostrá-la, convertendo a série observada no T intervalo [0, T], em uma série discreta com N pontos, onde N = [75]. Em outros ∆T casos, podemos obter uma série temporal discreta acumulando ou agregando valores de uma série temporal contínua, em intervalos de tempos iguais. Geralmente, na análise de séries temporais o principal objetivo é construir modelos matemáticos para as séries. Esses modelos são contruídos de tal forma que os parâmetros dos modelos são identificados através de características importantes de um processo físico que a série temporal representa [76]. Para a construção desses modelos existem duas possíveis abordagens que são amplamente usadas, a análise no domínio temporal e a análise no domínio das frequências, ou análise espectral. Essas abordagens são distintas, no entanto, em muitos casos são utilizadas de forma que uma complementa a outra. 20 CAPÍTULO 2. métodos 21 2.2 série temporal estacionária Nas situações em que pretendemos utilizar modelos para descrever séries temporais, é necessário extrair propriedades gerais de interesse para toda a série temporal. Desta forma, podemos ter as séries estacionárias ou não-estacionárias, de acordo com a dependência temporal das propriedades estatísticas da série. Dado que { X(t) : t ∈ T } é uma série temporal. Então a série é estacionária se o desenvolvimento temporal da série não depende da origem dos tempos. Ou seja, as características de X(t − τ) para todo τ , são as mesmas de X(t) [75]. Tecnicamente, existem duas formas de estacionariedade: fraca (ou de segunda ordem) e forte (ou estrita). Seja { X(τ + 1), X(τ + 2), ..., X(τ + n)} uma sequência de n elementos consecutivos de uma série temporal. Então a série é dita estritamente estacionária se a distribuição de probabilidade conjunta destes elementos não depende de τ, independente do tamanho de n. Isso significa que qualquer dois segmentos da sequência, do mesmo comprimento, terão funções de distribuição de probabilidade idênticas [77]. Uma série temporal fracamente estacionária, X, é um processo de variância finita tal que a média e a função de autocovariância não dependem do tempo. Neste trabalho, ao nos referirmos a séries estacionárias, será entendido estacionariedade de segunda ordem (ou fraca). A função de autocovariância, com atraso τ, de uma série temporal X, é definida por ΓX (t, τ) = Cov(X(t), X(t − τ)), ∀t, τ ∈ Z, (1) ΓX (t, τ) = E[(X(t) − µ)(X(t − τ) − µ)], (2) ou onde E[X] = µ é o valor esperado da série temporal X. Em particular ΓX (t, 0) = Var(X(t)) = σX2 . Se a série é estacionária de segunda ordem, a covariância entre X(t) e X(t − τ) depende somente de τ, a separação temporal entre as observações, e não de t, o tempo relativo as observações. Disto, segue que para uma série temporal estacioná- CAPÍTULO 2. métodos 22 ria de segunda ordem, ΓX (t, τ) e ΓX (t, −τ) são iguais [78]. Assim temos que para uma série temporal estacionária ΓX (τ) = ΓX (0, τ) = ΓX (t, τ), ∀t, τ ∈ Z. (3) Tipicamente, a função autocovariância de uma série estacionária tende a zero, para |τ |→ ∞. A função de autocorrelação de uma série temporal é definida por ρ X (τ) = ΓX (τ) ΓX (0) (4) A desigualdade de Cauchy-Schwarz mostra que −1 ≤ ρ(τ) ≤ 1 para todo τ. 2.3 representação autorregressiva A representação autorregressiva de séries temporais é baseada na idéia de que o valor atual da série, Xt , pode ser explicado como uma função dos valores passados, Xt−1 , Xt−2 , ..., Xt− p , onde p determina o número de passos no passado necessários para predizer o valor atual [79]. Um modelo autorregressivo de ordem p, AR(p), é representado pela seguinte equação de diferenças, p Xt = ∑ A k Xt − k + et (5) k=1 onde et é uma série de ruído branco gaussiano com média zero e variância σ2 . O ruído branco não é relacionado com seu passado (nem futuro), podendo ser interpretado nesse modelo como uma inovação, que não pode ser explicada pelo passado de Xt . CAPÍTULO 2. métodos 23 Uma forma usual de escrever a equação 5, é utilizando o operador de defasagem, Lk Xt = Xt−k , assim o modelo AR(p), pode ser escrito como (1 − A1 L − A2 L2 − ... − A p L p )Xt = et , (6) ou de forma mais concisa como A(L)Xt = et (7) As propriedades de A(L) são importantes na solução da equação 7 para Xt . Assim podemos definir o operador autorregressivo como A(L) = 1 − A1 L − A2 L2 − ... − A p L p . (8) Para a série ser estacionária, as raízes da equação A(z) = A0 + A1 z + ... + A p z p = 0 devem estar fora do círculo unitário [77]. Consideremos, por exemplo, o modelo AR(1), dado por Xt = AXt−1 + et . Iterando inversamente k vezes, nós obtemos Xt = A k Xt − k + k −1 ∑ A j et − j . (9) j=0 Este método sugere que, através da continuação da iteração inversa, e fornecendo que | A|< 1 e Xt é estacionária, nós podemos representar um AR(1) como um processo linear dado por ∞ Xt = ∑ A j et − j . (10) j=0 O modelo AR(1) definido pela equação 10 é estacionário com média ∞ E(Xt ) = ∑ A j E(et− j ) = 0, j=0 (11) CAPÍTULO 2. métodos 24 e função de autocovariância, " ΓX (τ) = Cov(Xt , Xt−τ ) = E ∞ ∑ A et − j j j=0 ΓX (τ) = ! ∞ ∑A !# k et − τ − k (12) k=0 σ2 Aτ , 1 − A2 (13) para τ ≥ 0. Nesse caso a função autocorrelação pode ser escrita como, ρ X (τ) = Aτ , (14) e ρ X (τ) satisfaz a recursão ρ X (τ) = Aρ X (τ − 1) com τ = 1, 2, ... . Para um processo autorregressivo, como o da equação 5, a sequência de autocovariâncias é relacionada aos parâmetros do modelo autorregressivo, através das equações de Yule-Walker [16]: p ΓX (τ) = ∑ Al ΓX (τ − l) + δτ0 Σ, (15) l=1 onde δτ0 é a função delta de Kronecker e Σ é a covariância dos resíduos (ruído branco). A representação autorregressiva de séries temporais é muito utilizada em neurociência e suas principais aplicações são nos estudos baseados na avaliação de dados eletrofisiológicos. Bressler et al. utilizaram a modelagem autorregressiva de séries temporais, aplicada a dados de LFP (local fiel potential), para investigar a organização funcional de uma rede cortical durante uma atividade de discriminação visual [80]. Huberdeau et al. propuseram uma forma de análise de dados, baseados no modelo autorregressivo, que é útil para descrever características de dependência temporal no sinal de LFP [81]. Schlögl em sua tese de doutorado [82] faz um estudo do modelo autorregressivo aplicado a dados de EEG (eletroencefalograma), neste estudo são mostradas aplicações desse tipo de modelagem em interface cérebro-máquina e no estudo de dados de sono. CAPÍTULO 2. métodos 25 2.4 análise espectral Na análise espectral de séries temporais o objetivo principal é estimar quanto da amplitude total da série está distribuída entre as frequências do espectro [83], ou seja, a série temporal original é decomposta, onde cada componente é relacionada a uma frequência específica. Para decompor a série temporal utilizamos a transformada de Fourier, que é a somatória do produto entre as observações de uma série temporal discreta, ou uma função contínua, e ondas senoidais de diferentes frequências. As ondas senoidais de diferentes frequências são representadas por exponenciais complexas. O resultado da transformada de Fourier é uma representação tridimensional da série temporal em que as três dimensões são: frequência, amplitude (potência) e fase [84]. A equação da transformada de Fourier de uma função contínua g(t) na frequência f é dada por, F( f ) = Z ∞ −∞ g(t)e−2πi f t dt. (16) Frequentemente em processamento de sinais, utilizamos a definição da transformada discreta de Fourier. A equação da transformada discreta de Fourier da série temporal X na frequência f é, N cf = ∑ Xk e − 2πi f N (k−1) , (17) k=1 onde N refere-se ao número de observações da série temporal X, e c é o coeficiente de Fourier da série temporal X na frequência f . O resultado em valores complexos da transformada de Fourier geralmente é difícil de ser interpretado diretamente. A abordagem mais comum é apresentar o espectro de potência da série temporal, que é dado por, S( f ) = c f c∗f N , (18) que é o produto do coeficiente de Fourier c f pelo seu conjugado complexo c∗f . O resultado dessa multiplicação é normalizado através da divisão pelo número de observações N [85]. CAPÍTULO 2. métodos 26 A análise espectral é amplamente utilizada em dados eletrofisiológicos de animais e humanos. Em neurociência a principal aplicação da análise espectral é na identificação das frequências de oscilação da atividade neural. Essas oscilações podem ser verificadas, por exemplo, em sinais que registram a atividade elétrica dos neurônios, como os sinais de EEG (eletroencefalograma) ou LFP (local field potential). Geralmente, em registros da atividade elétrica dos neurônios, são utilizados filtros para eliminar a influência de flutuações de origem não neural sobre o sinal, como por exemplo, flutuações advindas do movimento dos eletrodos utilizados para o registro do sinal ou interferência causada pela rede elétrica. Através da decomposição dos sinais da atividade elétrica neural em frequências, são definidas as bandas de frequência, ou ritmos cerebrais, que são eles: o ritmo Delta, Teta, Alfa, Beta e Gama, correpondendo respectivamente as seguintes bandas de frequência: 0 a 4 Hz, 4 a 8 Hz, 8 a 12 Hz, 12 a 30 Hz e 30 a 70 Hz. Para verificar as frequências que compõem os sinais da atividade neural das redes utilizadas nesse trabalho, foi utilizada a implementação em MatLab da trasformação rápida de Fourier (Fast Fourier Transform). Na transformação rápida de Fourier o cálculo da transformação discreta de Fourier de uma série temporal com T observações é dividido recursivamente em transformações discretas de Fourier menores com séries de tamanho T1 e T2 onde T = T1 ∗ T2. Desta forma a transformação rápida de Fourier não é um novo cálculo para a transformação discreta de Fourier mas sim, um algorítmo mais eficiente reduzindo a complexidade computacional de O(T 2 ) para O(TlogT) [86]. 2.4.1 Coerência Espectral A coerência espectral é uma medida da similariedade entre duas séries temporais no domínio das frequências. A coerência C entre as séries temporais X e Y é definida como, CXY ( f ) = |SXY ( f )|2 , SXX ( f )SYY ( f ) (19) CAPÍTULO 2. métodos 27 onde SXY ( f ), SXX ( f ) e SYY ( f ) são as funcões de densidade espectral cruzada entre X e Y, densidade auto-espectral da série temporal X e densidade auto-espectral da série temporal Y [87], respectivamente, onde, ∞ SXY ( f ) = ∑ τ=−∞ ΓXY (τ)e−2πi f τ , (20) ΓX (τ)e−2πi f τ , (21) ΓY (τ)e−2πi f τ , (22) ∞ SXX ( f ) = ∑ τ=−∞ ∞ SYY ( f ) = ∑ τ=−∞ a função de densidade espectral cruzada SXY ( f ) é definida como a transformada de Fourier da função de covariância cruzada entre as séries temporais X e Y [79], que é dada por, ΓXY (τ) = E[(Xt+τ − µ X )(Yt − µY )]. (23) As funções de densidade auto-espectral, SXX ( f ) e SYY ( f ), são as transformadas de Fourier da função de autocovariância (Eq. 2) das séries temporais X e Y, respectivamente. O valor de SXY ( f ) é elevado ao quadrado na Eq. 19, para que o valor da coerência seja um número adimensional entre 0 e 1. A coerência espectral é muito utilizada em neurociência, já que existe uma importante hipótese de que a conectividade no cérebro pode ser estudada através da análise da relação entre os padrões de atividade em diferentes regiões cerebrais [87]. A principal utilização da análise da coerência espectral em neurociência é no estudo da sincronização entre séries temporais registradas em diferentes regiões cerebrais, como por exemplo, sinais registrados por diferentes eletrodos em um estudo envolvendo eletroencefalograma. A coerência espectral também é utilizada no estudo da determinação da fonte de atividade neural em convulsões epilépticas [88], no estudo de oscilações fisiológicas, como por exemplo, ritmos cerebrais [89], na análise da ativação de centros cerebrais relacionados à uma tarefa específica ou a um processo cognitivo [61] e em estudos de correlação entre formas de onda do eletroencefalograma e estados cerebrais CAPÍTULO 2. métodos 28 caracterizados por padrões de amplitude e frequência, como por exemplo, durante o sono [90]. Em neurociência as interações entre os componentes do cérebro são classificados em, anatômicas (estruturais), funcionais ou efetivas. Por exemplo, uma sinapse ou uma junção comunicante constitui uma conexão anatômica entre os neurônios; a correlação ou a coerência espectral entre sinais de diferentes regiões cerebrais constitui uma conexão funcional entre estas regiões e a capacidade de predizer os sinais de uma região baseados nos sinais de uma outra região caracteriza uma conexão efetiva entre as regiões relacionadas aos sinais avaliados. Apesar da coerência espectral ser amplamente utilizada em estudos de conectividade neural, é importante ressaltar que as medidas de conectividade funcional são úteis para inferir se existe alguma relação, como por exemplo sincronização, entre duas séries temporais, porém, não é possível inferir através dessas medidas relações de causalidade entre as séries temporais. Para este fim, são utlizadas as medidas de conectividade efetiva, como exemplo dessas medidas temos: a causalidade de Granger [11] e a coerência parcial direcionada (PDC) [35]. 2.5 causalidade de granger O conceito de causalidade de Granger foi primeiramente estudado em econometria [11] e recentemente está sendo generalizado para outras áreas, como sistemas biológicos [91] . A causalidade de Granger é baseada em medidas temporais, e como elas podem influenciar uma a outra. O conceito direcional da causalidade de Granger vem da relação entre passado, presente e futuro: o presente e o passado influenciam desenvolvimentos futuros mas não o contrário [92]. De acordo com a causalidade de Granger, para duas séries temporais medidas simultaneamente, uma série pode ser a causa da segunda se pudermos melhor prever o comportamento da segunda série incorporando um conhecimento prévio da primeira. Este conceito é formalizado no contexto de modelos de regressão linear de processos estocásticos [11] . Especifica- CAPÍTULO 2. métodos 29 mente, se a variância do erro previsto para a segunda série no presente é reduzida pela inclusão de uma medida anterior da primeira série no modelo de regressão linear, então é possível dizer que a primeira série influencia a segunda [93]. As séries temporais podem ser invertidas, assim podemos investigar a influência causal na direção oposta. A partir disso, é evidente que o fluxo temporal desempenha um papel vital em permitir inferências direcionais causais nos dados de séries temporais [94]. A causalidade de Granger tem provado ser um método efetivo para a investigação de relação direcional entre sinais de valores contínuos em muitas aplicações [95]. A idéia basica da causalidade entre sinais foi introduzida por Wiener mas era geral demais para ser implementada [96]. Granger formalizou esta idéia a fim de permitir a implementação baseada nos modelos autoregressivos multivariados [11]. Para ilustrar, supomos que a dinâmica temporal de duas séries temporais Xt e Yt (ambas de comprimento T), possa ser descrita pelo modelo linear autoregressivo bivariado: p p j=1 j=1 p p j=1 j=1 Xt = ∑ A xx,j Xt− j + ∑ A xy,j Yt− j + ex,t , (24) Yt = ∑ Ayx,j Xt− j + ∑ Ayy,j Yt− j + ey,t , (25) onde p é o número máximo de observações defasadas incluídas no modelo (a ordem do modelo). O valores de A xx,j , A xy,j , Ayx,j e Ayy,j , são os coeficientes do modelo, isto é a contribuição de cada observação defasada para os valores preditos de Xt e Yt . ex,t e ey,t são os resíduos para cada série, que podem ser obtidos através dos métodos padrões para regressão, como por exemplo o método dos mínimos quadrados [77]. Os subscritos j e t representam as defasagens e o tempo, respectivamente. A matriz de covariâncias para o modelo pode ser escrita como: Σ= Σxx Σxy Σyx Σyy = cov(ex,t , ex,t ) cov(ex,t , ey,t ) cov(ey,t , ex,t ) cov(ey,t , ey,t ) (26) CAPÍTULO 2. métodos 30 Os modelos das equações 24 e 25 são ditos irrestritos pois além do próprio passado da série temporal que está sendo modelada, o modelo leva em conta o passado de uma outra série que pode ajudar na predição dos valores presentes da série que está sendo modelada. Consideremos agora os modelos autorregressivos restritos para as mesmas séries temporais Xt e Yt , p 0 0 0 0 Xt = ∑ A xx,j Xt− j + ex,t , (27) j=1 p Yt = ∑ Ayy,j Yt− j + ey,t . (28) j=1 Se a variância dos resíduos do modelo irrestrito ex,t (ou ey,t ) é significativamente 0 0 menor do que a variância do modelo restrito ex,t (ou ey,t ), então é dito que Yt (ou Xt ) Granger-causa Xt (ou Yt ) [36]. Assumindo que Xt e Yt são estacionárias, a magnitude desta interação pode ser medida pelo logarítmo natural da razão entre a variância dos resíduos para os modelos restrito e irrestrito. Assim, temos a causalidade de Granger de Yt para Xt , 0 FY → X |Σ | = ln xx , |Σxx | (29) e a causalidade de Granger de Xt para Yt , 0 FX →Y 0 0 0 |Σyy | = ln , |Σyy | 0 (30) 0 0 onde Σxx = cov(ex,t , ex,t ), Σxx = cov(ex,t , ex,t ), Σyy = cov(ey,t , ey,t ) e Σyy = cov(ey,t , ey,t ). Para dados compostos por um único e longo trial, podemos utilizar o método dos 0 mínimos quadrados ordinários [77] para calcular os coeficientes A e A . De forma alternativa, se os dados são formados por múltiplas repetições de trials relativamente curtos, o método proposto por Ding é usado [97]. Neste método, cada trial é considerado uma realização independente de um único processo estacionário. A causalidade de Granger introduzida anteriormente apresenta uma característica indesejável se uma dada variável Z influencia ambas as variáveis X e Y. Ao considerar apenas a dependência entre X e Y, desconsiderando a variável Z, uma causalidade CAPÍTULO 2. métodos 31 espúria pode ser registrada. Assim, por exemplo, se não há uma influência causal direta Y → X, mas, há dependências de X e Y em Z, então uma causalidade Y → X poderá ser encontrada. Esta causalidade espúria pode ser eliminada através da utiização da causalidade de Granger condicionada. No caso condicionado, supomos que temos três séries temporais, identificadas através de 3 variáveis, sendo elas X, Y e Z. Nós desejamos eliminar qualquer efeito conjunto de Z na inferência da causalidade de Y para X. Assim, neste caso temos o seguinte modelo autorregressivo irrestrito, p p p j=1 j=1 j=1 Xt = ∑ A xx,j Xt− j + ∑ A xy,j Yt− j + ∑ A xz,j Zt− j + ex,t , (31) o modelo restrito será o modelo onde as influência do passado da série Yt sobre a série Xt serão desconsideradas. Assim temos, p 0 p 0 0 Xt = ∑ A xx,j Xt− j + ∑ A xz,j Zt− j + ex,t , j=1 (32) j=1 Assim a causalidade de Granger de Yt para Xt condicionada a Zt é dada por, 0 FY → X |Z |Σ | = ln xx , |Σxx | (33) 0 onde Σxx e Σxx são as covariâncias dos resíduos dos modelos restritos e irrestritos, respectivamente. A inclusão de Z em ambos os modelos leva em conta o efeito conjunto. FY →X |Z pode ser lido como “o grau com que o passado de Y ajuda a predizer X, além do grau com que X já é predito pelo seu próprio passado e o passado de Z ” [24]. 2.5.1 Causalidade de Granger Parcial Todos os modelos de conectividade para o cérebro envolvem a etapa de seleção estrutural do modelo, em que um conjunto relevante de variáveis é selecionado para a CAPÍTULO 2. métodos 32 análise [98]. Na prática, pode ocorrer de algumas várias relevantes serem desconsideradas, o que pode levar a deteccão de interações causais aparentes que na verdade são espúrias [99]. Como resposta para esse problema Guo et al. propuseram a chamada causalidade de Granger parcial [17]. A idéia é que as variáveis latentes possam dar origem à correlações detectáveis entre os resíduos dos modelos autorregressivos. Por analogia com o conceito de correlação parcial [100], um termo adicional baseado nessas correlações pode reduzir a influência das variáveis latentes [20]. Consideramos os modelos autorregressivos dados pelas equações 31 e 32 e os modelos autorregressivos para a variável condicional Z, p p p j=1 j=1 j=1 Zt = ∑ Bzx,j Xt− j + ∑ Bzy,j Yt− j + ∑ Bzz,j Zt− j + ηz,t , p 0 p 0 0 Zt = ∑ Bzx,j Xt− j + ∑ Bzz,j Zt− j + ηz,t , j=1 (34) (35) j=1 0 tais que os coeficientes B e B são os coeficientes dos modelos autorregressivos. Então a causalidade de Granger parcial de Y para X dado Z é definida como, 0 FYP→ X |Z 0 Σ(ex,t |ηz,t ) = ln , Σ(ex,t |ηz,t ) (36) onde, Σ(e|η) é definido como a cov(e, e) − cov(e, η)cov(η, e)−1 cov(η, e), a coerência parcial [101]. Enquanto que a correlação parcial remove a influência conhecida de uma variável exógena de uma medida fundamentalmente bivariada, a causalidade de Granger parcial tenta controlar a influência de váriaveis desconhecidas medidas indiretamente através da influência dessas variáveis sobre os resíduos que compõem o modelo. Porém, a causalidade de Granger parcial só pode controlar totalmente as variáveis latentes no caso improvável em que elas tem efeitos equivalentes sobre todas as variáveis medidas. Investigações numéricas mostram que a causalidade de Granger parcial nem sempre detecta mais conexões e menos falsos positivos do que a causalidade de Granger condi- CAPÍTULO 2. métodos 33 cional. No entanto, a causalidade de Granger parcial apresenta resultados melhores do que a causalidade de Granger condicional quando aumentamos o número de influências desconhecidas, mas somente quando utilizamos inferência não paramétrica [20]. Sinais neurais são frequentemente interpretados no domínio das frequências. Interpretações no domínio das frequências (espectral) da causalidade de Granger e da causalidade de Granger parcial podem ser obtidas dos componentes advindos das análises de Fourier dos modelos autorregressivos estimados no domínio temporal. 2.5.2 Ordem do Modelo A estimativa do modelo autorregressivo necessita como parâmetro o número de observações defasadas (p), isto é, a ordem do modelo. Poucas observações defasadas podem levar a uma fraca representação dos dados, no entando muitas observações podem levar a problemas na estimativa do modelo. Uma forma de especificar a ordem do modelo é minimizar um critério que pondera a variância calculada pelo modelo, contra o número de coeficientes que serão estimados . Dois critérios são comumente usados: o critério de informação de Akaike (AIC) [102] e o critério de informação Bayesiano (BIC) [103]. Para n variáveis: 2pn2 AIC(p) = ln(det(Σ)) + , T BIC(p) = ln(det(Σ)) + ln(T)pn2 , T (37) (38) onde T é o número de observações da série temporal e Σ é a matriz de covariância dos resíduos. Em casos onde a ordem do modelo especificada pelo mínimo BIC/AIC é muito alta para permitir uma computação viável, ou em casos onde o BIC/AIC não atingem um mínimo claro sobre os valores testados, um modelo de menor ordem pode ser escolhido na condição de que o BIC/AIC não apresenta reduções substanciais em CAPÍTULO 2. métodos 34 ordens superiores [38]. Para o caso do AIC podemos utilizar outras definições que levam em conta correções para o caso de amostras pequenas [104]. 2.5.3 Significância Estatística Após calcular a magnitude da causalidade de Granger, é importante avaliar sua significância estatística. A interação no domínio temporal é significativa se os coeficientes Aij , excetos àqueles correspondentes a influência da série sobre ela mesma, são em conjunto significativamente diferente de zero. Isto pode ser estabelecido através de um teste F na hipótese nula de que os coeficientes Aij , correspondentes às influências de outras séries de um determinado sistema, são nulos [11]. Estes testes devem ser corrigidos por multiplas comparações. A correção mais conservativa é a correção de Bonferroni, na qual o limiar aplicado é Pnom /n(n − 1), onde Pnom é o limiar nominal (tipicamente 0, 01 ou 0, 05) e n é o número de variáveis. Uma alternativa menos conservativa é a razão de falsa descoberta (FDR) que controla a proporção esperada de rejeitar incorretamente a hipótese nula (erro tipo 1), ou seja o número de falsos positivos no universo dos testes rejeitados [105]. Em alguns casos, como por exemplo nos casos em que as amostras são pequenas, as distribuições assintóticas teóricas podem não fornecer uma acurácia suficiente. Sendo assim, análises não-paramétricas derivadas das distribuições amostrais empíricas dos dados podem ser preferíveis para a determinação da significância estatística. Para esses casos podemos utilizar o teste de permutação [106] e o método do bootstrap [107]. 2.6 medidas de causalidade no domínio das frequências Quando duas séries temporais relacionadas a diferentes áreas cerebrais são analizadas no domínio espectral, o método mais utilizado para a determinação da ativação simul- CAPÍTULO 2. métodos 35 tânea, ou grau de sincronização, entre as áreas é a função de coerência espectral (Eq. 19) . Porém, para frequências em que a coerência espectral é alta, existe uma ambiguidade na relação entre as séries temporais, já que não sabemos qual série temporal influencia a outra, ou até mesmo se existe, de fato, uma relação de causa e efeito entre as séries temporais. A fim de resolver essa ambiguidade, Saito e Harashima [33] introduziaram o conceito de Coerência Direcionada, que não apenas nos fornece informações sobre a sincronia entre as séries temporais, mas também nos da idéia sobre as relações de conectividade entre as séries temporais. Isso é feito através da decomposição da coerência espectral entre as séries temporais em duas coerências direcionadas, uma representando a relação de influência direcionada (feedforward) e outra representando a relação de feedback. A descrição da interação entre séries temporais no domínio das frequências é baseado na estimativa da matriz de densidade espectral cruzada S11 ( f ) S12 ( f ) · · · S1N ( f ) S21 ( f ) S22 ( f ) · · · S2N ( f ) S( f ) = .. .. .. .. . . . . S N1 ( f ) S N2 · · · S NN ( f ) (39) das séries temporais Xi (t), 1 ≤ i ≤ N. Onde Sij ( f ), i, j = 1, 2, ..., N, são definidos como nas Eq. 21, Eq. 22 e Eq. 20. A matriz S( f ) pode ser fatorada como S( f ) = H( f )ΣH H ( f ), (40) onde o superescrito H representa a matriz hermitiana transposta e H ( f ) H12 ( f ) 11 H21 ( f ) H22 ( f ) H( f ) = .. .. . . HN1 ( f ) HN2 · · · H1N ( f ) · · · H2N ( f ) .. .. . . · · · HNN ( f ) (41) CAPÍTULO 2. métodos 36 h i = h1 ( f ) h2 ( f ) · · · h N ( f ). (42) Para compreendermos melhor H( f ), consideremos X1 (t), . . . , X N (t) séries temporais estacionárias de forma que podemos representa-las através de modelos autorregressivos, X1 (t) X (t − k) w (t) p 1 1 .. .. .. + . . = ∑ Ak . k=1 X N (t) X N (t − k) w N (t) (43) onde w1 (t), . . . , w N (t) são ruídos brancos. A matriz H( f ) é obtida por H( f ) = A( f ) = (I − A( f ))−1 , (44) enquanto, p A( f ) = ∑ Ak e−i2π f k , (45) k=1 a (k) a12 (k) · · · a1N (k) 11 a21 (k) a22 (k) · · · a2N (k) A( f ) = .. .. .. .. . . . . a N1 (k) a N2 (k) · · · a NN (k) (46) onde os coeficientes aij (k) representam o efeito de interação linear entre x j (t − k) e xi (t). Dado que a matriz de covariâncias Σ seja, 2 σ11 2 σ12 2 · · · σ1N 2 2 2 σ21 σ22 · · · σ2N Σ= . .. .. ... . . . . 2 2 2 σN1 σN2 · · · σNN (47) CAPÍTULO 2. métodos 37 a definição da coerência direcionada da série temporal j para a série temporal i é σjj Hij ( f ) γij ( f ) = p , Sii ( f ) onde (48) N Sii ( f ) = ∑ σjj2 | Hij ( f )|2 , (49) j=1 que se reduz a definição de Saito e Harashima , quando N = 2. Uma condição relevante da abordagem original de Saito e Harashima é que a matriz Σ é diagonal, ou seja σij é igual a zero para valores de i diferentes de j. A coerência direcionada γij ( f ) pode ser interpretada como uma medida da influência de X j (t) em Xi (t) na frequência f . Para o caso em que Σ é diagonal podemos escrever a coerência espectral como, Cij ( f ) = γiH ( f )γ j ( f ) = N ∑ γik∗ ( f )γkj ( f ), (50) k=1 onde, γi ( f ) , [γi1 ( f ), ..., γiN ( f )] T . (51) Podemos também redefinir a coerência direcionada através da normalização, Hij ( f ) γij ( f ) = p , Sii ( f ) (52) o que nos permite escrever a coerência espectral da seguinte forma, Cij ( f ) = γiH ( f )Σγi ( f ), (53) γi ( f ) , [γi1 ( f ), ..., γiN ( f )] T , (54) Sii ( f ) = hiH ( f )Σhi ( f ). (55) onde, e CAPÍTULO 2. métodos 38 Saito e Harashima [33] que introduziram o conceito de coerência direcionada, investigaram as relações de conectividade através da aplicação desta ferramenta em dados de EEG. Wang e Takigawa [108] verificaram a comunicação entre hemisférios através da utilização da coerência direcionada, partindo desse estudo os pesquisadores chegaram a conclusão de que existem diferentes processamentos de informação em diferentes bandas de frequência entre o hemisfério direito e esquerdo do cérebro, além disso, eles verificaram que esses resultados não poderiam ser obtidos através da utilização da coerência espectral ordinária (Eq 19) Devido a condição imposta na metodologia original de Saito e Harashima, de que a matriz Σ é diagonal, foi introduzido uma medida alternativa , que abandona Σ por completo, para descrever as intereções entre séries temporais advindas de atividades neurais [35]. Essa nova medida foi chamada de Função de Transferência Direcionada e é dada por, DTFij ( f ) = q Hij ( f ) 2 ∑N j=1 | Hij ( f )| =q Hij ( f ) hiH ( f )hi ( f ) . (56) Um dos problemas que ocorrem com as medidas de coerência direcionada e de função de transferência direcionada, é que para caso em que temos um estudo envolvendo mais do que duas séries temporais (N > 2), os resultados obtidos através dessas duas medidas não coincidem com os resultados obtidos através da causalidade de Granger condicional. Porém, quando N = 2, os resultados da coerência direcionada, da função de transferência direcionada e da causalidade de Granger levam a resultados concordantes. A função de transferência direcionada foi utilizada em diversos estudos, desde estudos feitos para investigar a origem das oscilações teta no hipocampo do rato, até estudos relacionados à tarefas motoras e cognitivas [40]. Dependendo do intuito do estudo, a função de tranferência direcionada não é uma boa medida pelo fato de que além de detectar o fluxo de informação direto entre duas séries temporais, ela detecta o fluxo indireto de informação, esse caso é análogo ao caso da causalidade de Granger não condicionada que foi mencionado anteriormente. CAPÍTULO 2. métodos 39 Para fornecer uma medida equivalente da causalidade de Granger condicional no domínio das frequências, ou seja, uma medida que permite inferir as conexões diretas no domínio da frequência, Baccalá e Sameshima [35] propuseram o conceito de Coerência Parcial Direcionada. Este conceito é baseado na medida da função de coerência parcial, que também é uma medida de relação entre pares de sinais. A função de coerência parcial, |κij |2 , descreve a interação entre Xi (t) e X j (t) quando a influência devido a todas as outras N − 2 séries temporais é descontada. Então, temos que κij ( f ) = q aiH ( f )Σ−1 a j ( f ) (aiH ( f )Σ−1 ai ( f ))(a jH ( f )Σ−1 a j ( f )) , (57) onde Σ é a matriz de covariâncias do erro de predição associado ao modelo autorregressivo (Eq. 43) e ak ( f ) é a k-ésima coluna da matriz h i A( f ) = I − A = a1 ( f ) a2 ( f ) · · · a N ( f ) (58) O fator de coerência parcial direcionada da série temporal X j (t) para a série temporal Xi (t) é dado por πij ( f ) , q Aij ( f ) a jH Σ−1 a j , (59) onde Aij ( f ) é o i,j-ésimo elemento da matriz A( f ). A partir disso segue que a coerência parcial entre i e j é dada por κij ( f ) = πiH ( f )Σ−1 π j ( f ), (60) πi ( f ) , [πi1 ( f ), ..., π Ni ( f )] T . (61) com Pelo fato de Σ afetar o denominador, a coerência parcial mistura efeitos da causalidade de Granger com a causalida de de Granger instântanea, que é por exemplo, o efeito do presente da série temporal X j (t) sobre o presente da série temporal Xi (t), ou CAPÍTULO 2. métodos 40 seja, o presente de Xi (t) é melhor predito se o presente de X j (t) é incluído no modelo de predição [35]. Para remover o efeito da causalidade de Granger instantânea, a coerência parcial direcionada é definida como Aij ( f ) π ij ( f ) , q , a jH a j (62) Baccalá e Sameshima verificaram que os valores da coerência parcial direcionada não eram invariantes a escala das séries temporais, devido a isso, mudanças arbitrárias na amplitude de uma série temporal podem ocasionar variações significativas no valor da coerência parcial direcionada. Para solucionar esse problema Baccalá e Sameshima introduziram a coerência parcial direcionada generalizada [40], gπij ( f ) = r 1 σi Aij ( f )) 1 ∑k=1 N σ2 kk Akj ( f )2 (63) Através da análise de dados gerados por modelos autorregressivos simples, os pesquisadores mostraram que a aplicação da coerência parcial direcionada generalizada (GPDC) é uma alternativa melhor do que a normalização do sinal pela sua variância. Além disso eles verificaram que a normalização do sinal antes da aplicação do GPDC gera resultados essencialmente supérfulos e apenas quando a série temporal tem poucas observações (128 observações no estudo [45]). Baccalá e Sameshima [35] efetuaram a comparação entre a função de transferência direcionada e a coerência parcial direcionada, nesse estudo eles verificaram que através da coerência parcial direcionada é possível eliminar os resultados relativos a transfereência de informação indireta entre séries temporais. A coerência parcial direcionada tem sido amplamente utilizada nos estudos de conectividade em neurociência. Diversos pesquisadores tem aplicado a coerência parcial direcionada em sinais de EEG [109], LFP [110] e em dados de ressonância magnética funcional [111]. Além da aplicação em dado experimentais, alguns estudos teóricos foram feitos para analisar as formas de CAPÍTULO 2. métodos 41 cálculo da significância estatística dos resultados obtidos através da utilização desse método de conectividade efetiva [112]. 2.7 implementação computacional Nesse trabalho utilizamos a toolbox MVGC para o cálculo da causalidade de Granger. A toolbox MVGC foi desenvolvida para aplicações em dados empíricos de neurociência. No entanto, a toolbox não é restrita a este tipo de aplicação. Foi criado um programa granger.m baseado no programa mvgc_demo.m, que é um dos programas de demonstração da utilização da toolbox. No granger.m, primeiramente passamos os parâmetros básicos para o cálculo da causalidade de Granger. O primeiro parâmetro que passamos refere-se ao método de regressão utilizado para a estimativa do modelo AR. No nosso caso essa estimativa foi feita através do método dos mínimos quadrados (representado na toolbox pela string OLS) cuja solução foi obtida através da fatoração QR [113]. Necessitamos também, fixar o método de regressão utilizado para o cálculo da ordem do modelo. A idéia de selecionar a ordem do modelo é balancear o número de parâmetros. No caso do modelo AR, determinamos o número máximo de defasagens tal que alcançamos o melhor modelo por minimização do erro ou maximização da função de verossimilhança. Para o cálculo da ordem do modelo foi escolhido o critério de informação de Akaike (representado no programa pela string “AIC”), o método de regressão utilizado para o cálculo do critério de informação também foi o método dos mínimos quadrados. Duarante a simulação, o algoritmo ajusta o modelo AR em todas as ordens, até a ordem máxima que é passada como um parâmetro do programa. Em todas as simulações usamos 120 como ordem máxima. Deixamos o programa calcular automaticamente o número de defasagens para o cálculo das autocovariâncias do modelo AR. O cálculo das autocovariâncias é realizado até a autocovariância atingir um valor mínimo, pois os valores da autocovariância decaem exponencialmente. CAPÍTULO 2. métodos 42 Foi estimado primeiramente a ordem do modelo AR através da função tsdata_to_infocrit, cujos parâmetros de entrada são as séries temporais, a ordem máxima e o método de regressão para o cálculo da ordem do modelo. Com a estimativa da ordem do modelo, calculamos os valores dos coeficientes para o modelo AR. Para isso utilizamos a função tsdata_to_var, as entradas dessa função são: as séries temporais entre as quais será verificada a relação de causalidade, a ordem do modelo e o método de regressão utilizado. A função retorna uma estrutura de dados em forma de matriz correpondente aos coeficientes do modelo AR e a matriz de covariâncias para o modelo estimado. O cálculo das autocovariâncias é feito utilizando-se da função var_to_autocov e os parâmetros de entrada para essa função são: a matriz com os coeficientes do modelo AR, a matriz de covariâncias resultantes da estimativa do modelo AR, e o número máximo de defasagens para a autocovariância. Para o cálculo da causalidade de Granger no domínio temporal, necessitamos apenas da sequência de autocovariâncias para as séries temporais. A função autocov_to_pwcgc calcula as causalidades condicionais entre todas as séries temporais. Para isso, é passado para a função a estrutura de dados correspondente as autocovariâncias de todas as séries. A função calcula os parâmetros do modelo AR reduzido e completo, a partir das sequências de autocovariâncias. Isso é feito através da solução das equações de Yule-Walker. Não foi feita análise da significância estatística dos valores para a causalidade de Granger, pois na análise que fizemos utilizando essa medida, o nosso intuito foi verificar o comportamento dos valores da causalidade de Granger em relação ao aumento do peso sináptico. A coerência parcial direcionada e a coerência parcial direcionada generalizada foram implementadas também em MatLab. Muitas das funções utilizadas foram trazidas da toolbox MVGC, como a rotina para o cálculo da ordem do modelo AR e a rotina para o cálculo do modelo AR. Após termos os valores dos coeficientes do modelo AR, utilizamos um programa da toolbox eMVAR [114] para efetuar os cálculos necessários para a obtenção da coerência parcial direcionada e da coerência parcial direcionada generalizada. CAPÍTULO 2. métodos 43 Para calcular a significância dos valores da coerência parcial direcionada, utilizamos o método de bootstrap baseado na abordagem de Sato et al. [111]. Nessa abordagem primeiramente calculamos o modelo AR para as séries temporais de cada trial separadamente. Obtemos os coeficientes do modelo AR e os resíduos para cada trial. Para cada frequência, calculamos a coerência parcial direcionada e a coerência parcial direcionada generalizada. Com esses valores obtemos a média sobre os trials da coerência parcial direcionada e da coerência parcial direcionada generalizada. Para cada trial reamostramos os resíduos obtidos. A fim de testar a influência de uma série X j sobre Xi , assumimos um modelo AR onde os coeficientes Aij ( f ), ou seja todos os coeficientes relacionados à influência de X j sobre Xi , são zero. Os outros coeficientes permanecem como foram originalmente estimados. Dessa forma assumimos o modelo na condição de não haver causalidade entre X j e Xi , dessa forma podemos gerar amostras bootstrap sobre a hipótese nula. Utilizando os resíduos reamostrados e os coeficientes na hipótese nula, simulamos séries temporais sobre a hipótese nula de não causalidade entre X j e Xi . Obtemos os valores médios das medidas de conectividade para a amostra bootstrap. Realizamos esse processo de reamostragem, geração de séries temporais na hipótese nula e cálculo da coerência parcial direcionada média e da coerência parcial direcionada generalizada média, até o número de amostras bootstrap ser atingido. Por fim, estimamos o valor crítico para cada frequência utilizando as médias dos valores dos métodos de conectividade para as amostras bootstrap. O valor crítico é definido como o quantil (1 − α) das amostras bootstrap, onde α é o valor esperado para um erro tipo 1, nesse trabalho α = 0, 05. Para verificar se os valores são significativos ou não, comparamos os valores obtidos para a coerência parcial direcionada média e para a coerência parcial direcionada generalizada média com os valores críticos estimados [111]. 3 MODELO 3.1 tipos de modelos Em neurociência teórica e computacional são utilizados diversos modelos matemáticos para descrever o comportamento dos neurônios. Esse modelos podem variar desde um modelo mais simples como o integra e dispara [72], até modelos mais complexos como o modelo de Hodgkin e Huxley [115]. A preferência por um modelo ou outro está estritamente relacionada às características biológicas que queremos representar. Além disso, quando trabalhamos com simulações de grandes populações neuronais, a quantidade de parâmetros do modelo matemático e, consequentemente, a eficiência computacional do modelo, são outras variáveis que devemos levar em conta. Dentre as diversas formas de classificar os modelos, uma forma possível é dintinguílos entre modelos biofísicos e modelos fenomenológicos. Os modelos biofísicos podem ser compostos por um ou vários compartimentos. Para o caso de vários compartimentos fica explícito no modelo a inclusão dos dendritos e axônios. Esses modelos são tipicamente compostos por um número variável de correntes iônicas e a principal vantagem do uso desses modelos é que a dinâmica obtida através da simulação pode ser comparada qualitativamente a dinâmica de neurônios reais. Por outro lado, o comportamento dinâmico dos neurônios simulados através de modelos biofísicos é altamente não linear e definido por um grande número de variáveis, fazendo com que a análise matemática do comportamento dos neurônios seja extremamente complexa e a simulação de grandes populações neuronais seja inviável, visto que esses modelos são computacionalmente caros [116]. 44 CAPÍTULO 3. modelo 45 Os modelos fenomenológicos contêm uma quantidade reduzida de parâmetros e variáveis que, nem sempre, tem um equivalente biofísico direto. Esses modelos podem ser derivados diretamente da análise de neurônios reais ou como simplificação de modelos biofísicos. A simplicidade dos modelos fenomenológicos permite a avaliação teórica e predições quantitativa da dinâmica do modelo [117]. Geralmente esses modelos são compostos por apenas um compartimento, ou seja, nesse tipo de modelo as dimensões espaciais do neurônio não são consideradas. Existem duas formas de justificar esse tipo de abordagem. A primeira, considera que o potencial de membrana e outras variáveis biofísicas, são identicas em qualquer lugar do neurônio. Os modelos que seguem esse ponto de vista são ditos isopotenciais, uma possível explicação para essa abordagem é que alguns neurônios tem árvores dendríticas pequenas de forma que a atenuação do potencial é pequena, esse tipo de neurônio é chamado neurônio eletronicamente compacto. Uma outra forma de justificar a utilização de modelos de um único compartimento é considerar que a variável de potencial representa o potencial de membrana em uma localização particular, geralmente o soma [118]. 3.2 modelo integra e dispara Um dos modelos mais utilizados em neurociência computacional é o modelo integra e dispara. Esse modelo descreve a evolução dinâmica do potencial de membrana de um neurônio em termos da entrada sináptica ou externa que ele recebe. O modelo foi construído por Lapicque [72] em 1907, baseado em um circuito elétrico. Na sua versão mais simples o circuito equivalente ao modelo corresponde a apenas um capacitor isolado representando a capacitância da membrana, a este modelo damos o nome de modelo integra e dispara perfeito e a equação do modelo é, Cm dV = I(t), dt (64) CAPÍTULO 3. modelo 46 onde Cm é a capacitância da membrana, I(t) uma corrente aplicada sobre o neurônio e V(t) é o potencial de membrana do neurônio. O capacitor é carregado até o potencial atingir um valor limite Vtresh , assume-se que nesse ponto o neurônio que é representado pelo circuito emite um potencial de ação, imediatamente após o potencial de ação, o potencial de membrana é reiniciado em um valor Vr . Em alguns trabalhos, é adicionado um período refratário tre f . Neste caso, após o potencial ser reiniciado no valor Vr , espera-se um tempo tre f e V(t) passa a evoluir novamente. O neurônio descrito pelo modelo integra e dispara perfeito é representado por apenas um compartimento, ou seja, a estrutura espacial do neurônio relacionada aos dendritos e axônios são desconsideradas [119]. Uma das características do modelo integra e dispara é que pelo fato dos potenciais de ação dos neurônios serem regulares, fica fácil determinar através dos parâmetros do modelo a taxa de disparo dos neurônios. Um dos principais problemas com o modelo integra e dispara perfeito é que o potencial de membrana aumenta linearmente com o tempo, o que obviamente não corresponde ao comportamento de um neurônio biológico [120]. Vários outros modelos foram desenvolvidos com o intuito de aumentar a plausibilidade biológica do modelo integra e dispara perfeito, dentre eles podemos citar os modelos integra e dispara com vazamento, integra e dispara com adaptação, integra e dispara com burstings, integra e dispara quadrático entre outros [121]. Apesar do modelo integra e dispara ser amplamente utilizado nos trabalhos envolvendo simulações computacionais de neurônios, as características e propriedades biológicas que estes modelos podem representar são muito limitadas, além disso, são poucos os padrões de potencial de ação que podem ser reproduzidos através desse modelo, de forma que em alguns casos ele não é a melhor opção para a construção de redes de neurônios que representem, por exemplo, populações corticais . CAPÍTULO 3. modelo 47 3.3 modelo de izhikevich Através da aplicação de metodologias de sistemas dinâmicos, Izhikevich [59] reduziu o modelo biofísico de Hodgkin e Huxley [115] para um modelo mais simples, o modelo de Izhikevich. Neste modelo a evolução temporal do estado de cada neurônio é descrito por duas equações diferenciais ordinárias, da seguinte forma, v̇ = 0, 04v2 + 5v + 140 − u + I, (65) u̇ = a(bv − u), com a condição de potencial de ação: sempre que a variável v(t) chegar ao valor limite de 30mV, então v(t) → c e u(t) → u(t) + d. A variável v representa o potencial de membrana e a variável u representa uma variável de recuperação da membrana, que leva em conta a ativação das correntes iônicas de K+ e a inativação das correntes iônicas de Na+ . O parâmetro a descreve a escala de tempo da variável de recuperação u, quanto menor o valor de a mais lenta será a recuperação da membrana, o parâmetro b está relacionado à sensibilidade da variável de recuperação u às flutuações sublimiares do potencial de membrana v. Como dito anteriormente, o parâmetro c e d estão relacionados às condições de potencial de ação, o parâmetro c corresponde ao valor para o qual o potencial de membrana v retorna após o potencial de ação. O valor típico desse parâmetro é −65 mV, porém, o valor pode variar de acordo com o tipo de padrão de potencial de ação que queremos representar. O parâmetro d, por sua vez, está relacionado com o valor que a variável de recuperação assume após acontecer um potencial de ação. O termo I corresponde a uma corrente de entrada sobre o neurônio. Essa corrente de entrada pode ser de dois tipos: uma corrente externa ou uma corrente sináptica. Diferentes combinações dos quatro param̂etros (a, b, c, d) geram diferentes padrões de potenciais de ação apresentados por neurônios corticais. Podemos agrupar esses diferentes padrões em classes. As classes que correspondem aos padrões apresentados por neurônios excitatórios são: regular spiking (RS), intrinsically bursting (IB) e chattering CAPÍTULO 3. modelo 48 (CH). Os neurônios excitatórios das classes RS, IB e CH são geralmente piramidais e glutamateŕgicos e correspondem a 80% das células corticais. As classes correspondentes aos padrões observados nas células inibitórias são: fast spiking (FS) e low-threshold spiking (LTS), que são gabaérgicos [122]. Na tabela 1 são apresentadas as classes de padrões do comportamento do potencial da membrana dos neurônios e os valores dos parâmetros correspondentes. Na figura 1 são apresentados os padrões de potencial de ação correspondentes as diferentes classes de neurônios. Cada uma das classes pode ser relacionada a uma ou mais propriedades neurocomputacionais apresentadas na figura 2. Classe Regular Spiking Chattering Fast Spiking Low-threshold Spiking a 0, 02 0, 02 0, 10 0, 02 b 0, 20 0, 20 0, 20 0, 25 c d −65 8 −50 2 −65 2 −65 2 Tabela 1: Classes de padrões apresentados pelos neurônios simulados através do modelo de Izhikevich e os respectivos parâmetros necessários para reproduzir esses padrões. Na figura 2 são mostradas algumas das principais características neurocomputacionais do comportamento do potencial de membrana dos neurônios. Os padrões foram gerados através da aplicação de uma corrente de entrada sobre um neurônio isolado que é representado pelo modelo matemático de Izhikevich. De acordo com a figura, podemos verificar que existe uma ampla variedade de padrões que podem ser reproduzidos através da utilização de modelos. Esses padrões estão relacionados com os parâmetros que descrevem o comportamento dinâmico do neurônio. Além disso, podemos verificar que a corrente de entrada tem diferentes formas para os diferentes padrões do potencial de ação dos neurônios. Outras características neurocomputacionais, além das mostradas na figura 2 podem ser obtidas através da utilização de modelos [123]. É possível comparar os diversos modelos existentes na literatura de acordo com a sua eficiência computacional e as características neurocomputacionais que eles apresentam. Izhikevich [121] fez essa comparação e os principais resultados são mostrados na figura 3. No gráfico e na tabela da figura 3, a plausibilidade biológica é relacionada as CAPÍTULO 3. modelo 49 A B C D Figura 1: Classes de padrões apresentados pelos neurônios simulados através do modelo de Izhikevich (Eq. 66) que serão utilizadas nesse trabalho. (A) Regular Spiking, (B) Chattering, (C) Fast spiking e (D) Low-threshold Spiking. Foi aplicada uma corrente externa I = 10 para cada simulação. propriedades neurocomputacionais que são possíveis de serem reproduzidas através do modelo e a eficiência computacional de cada modelo é representado pelo número de FLOPS, ou seja, o número aproximado de operações computacionais com ponto flutuante necessárias para simular o modelo por 1 ms. Os modelos correspondentes aos pontos com valores mais altos no eixo das abcissas são os modelos com maiores custos computacionais e os pontos que apresentam baixos valores no eixo das abcissas correspondem aos modelos mais eficientes. No eixo das ordenadas é representado a plausibilidade biológica dos modelos, valores baixos no eixo das ordenadas representam modelos com boa plausibilidade biológica, valores altos nesse mesmo eixo representam modelos que representam poucas características observadas biologicamente. CAPÍTULO 3. modelo (A) tonic spiking 50 (B) phasic spiking (C) tonic bursting (D) phasic bursting input dc-current 20 ms (E) mixed mode (F) spike frequency adaptation (G) Class 1 excitable (H) Class 2 excitable (I) spike latency (J) subthreshold oscillations (K) resonator (L) integrator (M) rebound spike (N) rebound burst (O) threshold variability (P) bistability (Q) depolarizing after-potential (R) accommodation (S) inhibition-induced spiking (T) inhibition-induced bursting DAP Figura 2: Resumo das características neurocomputacionais apresentadas por neurônios biológicos. Esta figura foi retirada do artigo [121]. CAPÍTULO 3. modelo 51 É importante ressaltar que a definição da plausibilidade biológica que foi utilizada na avaliação feita na figura 3 foi introduzida por Izhikevich [121]. No entanto, existem diversas formas de definir a plausibilidade biológica em modelos matemáticos. Uma das principais formas é o quão significativo biologicamente é o modelo, ou seja, quão próximo das características apresentadas por neurônios reais são as características reproduzidas pelo modelo. Dentres essas características estão, por exemplo, o potencial e a geometria das diferentes partes dos neurônios, além das características fisiológicas dos canais iônicos. Definindo a plausibilidade biológica dessa forma reduziria consideravelmente o número de modelos plausíveis citados na figura 3. Na tabela da figura 3 são mostrados quais características neurocomputacionais, como por exemplo alguns padrões da figura 2, podem ser reproduzidas através dos modelos. As células da tabela que contém o sinal + indicam que o modelo matemático reproduz a determinada característica. O sinal − significa o oposto, ou seja, não é possível simular o determinado padrão ou característica através da utilização daquele modelo. Para os casos em que a célula da tabela está vazia, o modelo teoricamente deveria representar as características de acordo com o ajuste nos parâmetros, porém, as características não foram observadas pelo autor do artigo. Como podemos verificar através da figura 3, um dos poucos modelos que reproduz um grande número de propriedades neurocomputacionais e apresenta um baixo custo computacional é o modelo de Izhikevich [59]. Comparado ao modelo integra e dispara, apresentado anteriormente, o modelo de Izhikevich permite que exploremos vários padrões de comportamento do potencial de membrana, podendo assim representar neurônios de diversas regiões cerebrais, a um custo computacional não muito mais alto. Diversos trabalhos [37, 64, 122] tem sido feitos utilizando o modelo de Izhikevich, devido ao fato de que através da utilização desse modelo podemos representar algumas características observadas em neurônios biológicos, além de que, devido a eficiência computacional do modelo, é possível realizarmos simulações de populações com um grande número de neurônios. Matias et al. [37] utilizaram o modelo de Izhikevich para investigar o fenômeno da sincronização antecipada entre sinais de LFP obtidos através da simulação de redes neuronais. Tomov et al. [122] estudaram CAPÍTULO 3. modelo 52 Figura 3: Comparação entre diferentes modelos matemáticos para o comportamento dos neurônios. Nas figuras são feitas comparações entre as características neurocomputacionais que podem ser reproduzidas através dos modelos e o número de operações com ponto flutuante necessárias para simular o modelo por 1ms de simulação (FLOPS). Esta figura foi retirada do artigo [121]. CAPÍTULO 3. modelo 53 a atividade auto-sustentada utilizando redes neuronais onde cada neurônio é descrito pelo modelo de Izhikevich, através desse estudo os pesquisadores verificaram que a atividade auto-sustentada depende tanto da topologia da rede de neurônios quanto da mistura de classes de neurônios que compõem a rede. Outros trabalhos relacionados ao estudo da plasticidade neural, sincronização, oscilações e memória [64, 124], vêm sendo desenvolvidos através da utilização do modelo de Izhikevich. 3.4 sinapses O comportamento complexo do cérebro é coordenado pela atividade conjunta dos neurônios. Devido a isso, é de grande interesse da comunidade científica entender como acontece a conexão entre os neurônios e de que forma isso pode ser modelado computacionalmente. Sabemos que quando a despolarização do potencial de membrana do neurônio chega a um limite ocorre um potencial de ação. O potencial de ação se propaga através do axônio do neurônio, pois a membrana do axônio é excitável e tem canais de sódio dependentes do potencial. Para que a informação presente no sinal de um neurônio chegue aos demais neurônios do sistemas nervoso, é necessário que haja uma comunicação entre os neurônios [125]. Essa comunicação acontece através das sinapses, que são regiões que permitem a troca de sinais entre os neurônios, ou entre os neurônios e outras células, como por exemplo, as fibras musculares. Podemos classificar as sinapses em sinapses químicas e sinapses elétricas. Nas sinapses químicas, o espaço entre o neurônio pré-sináptico e o neurônio pós sináptico é chamado fenda sináptica. Do lado pré-sináptico temos geralmente o terminal do axônio e do lado pós-sináptico temos geralmente um dendrito. O terminal do axônio contém dezenas de pequenas esférulas, chamadas de vesículas sinápticas, que se aglomeram nas proximidades da membrana pré-sináptica. Essas vesículas armazenam os neuromediadores que são moléculas reponsáveis pela comunicação entre os CAPÍTULO 3. modelo 54 neurônios nesse tipo de sinapse [126]. Quando o potencial de ação do neurônio présináptico chega ao terminal do axônio existe uma conversão do sinal elétrico em um sinal químico. O potencial de ação provoca a liberação dos neuromediadores na fenda sináptica. Após a liberação dos neuromediadores a informação química pode ser reconvertida em informação elétrica, através da modificação da condutância da membrana pós-sináptica, causando assim um potencial pós-sináptico, ou pode transferir informação para uma cadeia de sinais moleculares no interior da célula pós-sináptica sem necessariamente interferir na atividade elétrica dessa célula. O potencial pós-sináptico pode despolarizar o neurônio (excitação) ou hiperpolarizar (inibição), e a atividade elétrica do neurônio pós-sináptico será o resultado da somação, temporal ou espacial, dos potenciais pós-sinápticos relacionados às diversas sinapses que esse neurônio faz. Nas sinapses elétricas ocorre a transferência direta da corrente iônica de um neurônio para o outro. As estruturas onde ocorrem esse tipo de sinapse são chamadas junções comunicantes. Nessas junções as membranas das duas células ficam separadas por uma espaço de aproximadamente 3 nm, a membrana dessa região possui proteínas especiais chamadas conexinas que se combinam para formar um canal chamado conexon, e dois conexons formam um canal de junção comunicante. Esses canais são maiores em diâmetro do que os outros canais do neurônio, devido a isso, quando um neurônio está acoplado a outro por junção comunicante é possível a troca de correntes iônicas e até de algumas moléculas pequenas. Ao contrário da maioria das sinapses químicas, as sinapses elétricas são bidirecionais, além disso, as sinpases elétricas são mais rápidas, de forma que um potencial de ação no neurônio pré-sináptico pode, quase que instantâneamente, produzir uma mudança de potencial no neurônio pós-sináptico [125] As sinapses elétricas ocorrem mais frequentemente no período de desenvolvimento dos vertebrados e também na vida adulta, no entanto, a grande maioria das sinapses dos animais é química. CAPÍTULO 3. modelo 55 3.5 delay Devido a alguns fatores morfofisiológicos dos neurônios ocorre um tempo de atraso, que chamamos de delay, entre o potencial de ação do neurônio pré-sináptico e a ocorrência de um potencial pós-sináptico. O delay acontece devido ao tempo necessário para ocorrência de cada um dos processos que resulta na comunicação entre neurônios por sinapse química. Sabendo que o potencial de ação se inicia na região do soma, leva um tempo para que esse potencial chegue até o teminal do axônio. Esse tempo depende do comprimento do axônio e da velocidade de condução do potencial de ação. A condução do potencial de ação do início do axônio até o terminal, depende das propriedades do axônio relativas a forma, a excitabilidade e mielinização. Durante a propagação do potencial de ação, as correntes iônicas podem fluir de formas distintas: atravessando a membrana axonal ou através do axoplasma. As correntes locais no axoplasma ocorrem devido a transferência de carga entre íons. A despolarização devido a essa corrente é capaz de gerar um novo potencial de ação, o processo é repetido nas regiões vizinhas em direção ao terminal do axônio, porém, devido ao período refratário, causado pela inativação dos canais iônicos, o potencial de ação não se propaga no sentido oposto. A eficiência do fluxo de cargas através do axoplasma ou da membrana axonal está relacionado ao diâmetro do axônio e a quantidade de canais iônicos presentes. Quando o diâmetro do axônio é pequeno e a quantidade de canais é grande, a resistência axoplasmática é menor do que a resistência da membrana, sendo assim o fluxo de cargas irá ocorrer principalmente através da membrana axonal, porém, se o axônio é largo e a quantidade de poros é pequena, a resistência axoplasmática é maior do que a resistência da membrana e a principal via do fluxo de carga será o interior do axônio. Em geral, quanto maior o diâmetro do axônio maior a velocidade de propagação do potencial de ação através do axônio. Além das características relacionadas a geometria do axônio e ao número de poros na membrana axonal, a propagação do potencial de ação nos neurônios dos vertebrados envolve a bainha de CAPÍTULO 3. modelo 56 mielina. A bainha de mielina consiste de um espiral de gliócitos, as células de Schawan e os oligodendrócitos, que envolvem os axônios facilitando o fluxo de cargas através do axoplasma. Conexões locais em uma região cerebral geralmente são feitas via axônios não mielinizados, por outro lado, células separadas por grandes distâncias são conectadas via axônios mielinizados a fim de aumentar a velocidade de propagação do potencial de ação [125, 126]. Apesar das características apresentadas anteriormente, sabemos que em alguns modelos não é possível ter acesso as caraceterísticas morfofisiológicas do axônio, devido a isso, em modelos simplificados os delays são baseados nas distâncias entre os somas dos neurônios que fazem sinapse. Desta forma, são definidos diferentes intervalos de valores para os delays relacionados às diferentes conexões [127]. 3.6 redes de neurônios A funções motoras e cognitivas são propriedades relacionadas à atividade e à estrutura das regiões cerebrais. Essas regiões cerebrais podem ser representadas por redes de neurônios que interagem entre si e com neurônios de outras redes através das sinapses. Em neurociência computacional, quando aumentamos a complexidade e o tamanho da rede de neurônios, utilizamos modelos simplificados para representar a atividade de cada neurônio. Por outro lado, quando estamos preocupados com características específicas dos neurônios utilizados, como por exemplo a morfologia, trabalhamos com redes pequenas. O principal motivo de termos que escolher entre a complexidade da rede de neurônios ou do modelo utilizado para representar o neurônio, decorre do fato de buscarmos simulações computacionais eficientes. Uma outra limitação que lidamos quando trabalhamos com simulações de redes neuronais, é que ainda não existe dados completos sobre as propriedades estruturais e funcionais dos neurônios, e de como é a organização neuronal, ou seja, qual é a arquitetura das regiões cerebrais. CAPÍTULO 3. modelo 57 As redes neuronais utilizadas em simulações computacionais são redes complexas que podem ter diferentes tipos de topologia. A topologia da rede complexa utilizada geralmente é representada nos programas computacionais por uma matriz de adjacências e a escolha entre as possíveis topologias é feita de acordo com qual região queremos simular, entre as principais redes utilizadas estão as redes aleatórias [59], a redes do tipo mundo pequeno [128] e as redes sem escala [129]. Vários estudos apontam o fato de que essas redes são uma aproximação interessante para a arquitetura de algumas regiões cerebrais. Além da escolha do tipo de rede utilizada, outra propriedade importante das redes neuronais simuladas é a quantidade de neurônios excitatórios e inibitórios. É comum em estudos envolvendo simulações simples de redes corticais utilizarmos a razão 4 : 1 entre neurônios excitatórios e inibitórios, ou seja, dado que temos por exemplo uma rede com 1000 neurônios, 800 neurônios serão excitatórios e 200 inibitórios. As principais características observadas em simulações de redes neuronais estão relacionadas a como a atividade conjunta dos neurônios que compõem a rede se modifica conforme variamos os pesos sinápticos ou a quantidade de conexões entre os neurônios. Uma das principais propriedades das redes neuronais são as oscilações, que são estados em que a atividade de uma população de neurônios está periodicamente sincronizada. Essas oscilações podem ocorrer devido a diversos mecanismos neuronais. Em alguns casos os neurônios individuais disparam regularmente e são trazidos para o estado de sincronização através das sinapses químicas ou elétricas. A ocorrência ou não de um estado síncrono entre os neurônios neste caso, decorre de como a atividade de cada neurônio da rede afeta a fase da atividade dos outros neurônios com os quais ele está acoplado. Uma outra forma de ocorrer oscilações acontece quando os neurônios que compõem a rede disparam de forma irregular, porém, as oscilações emergem da taxa de disparos da população neuronal. Neste caso, a taxa de disparos de cada neurônio individual da rede pode ser altamente diferente das dos outros neurônios, no entanto, a taxa de disparo da população coexiste com a atividade oscilatória [130]. Uma outra possibilidade para a investigação das oscilações das redes neuronais é atra- CAPÍTULO 3. modelo 58 vés da verificação das frequências que compõem o sinal de LFP simulado através da média da atividade elétrica dos neurônios da rede [37]. A simulação de redes neuronais é amplamente utilizada em neurociência computacional. Além das simulações com uma rede, é possível simularmos várias redes neuronais, representando diversas áreas cerebrais, e verificar como as características dinâmicas de cada rede são alteradas conforme modificamos as propriedades relativas as conexões entre neurônios de diferentes redes. Nesses caso, obviamente, o número de conexões dentro de cada rede é maior do que o número de conexões entre as diferentes redes. As redes neuronais simuladas tem sido utilizadas em estudos envolvendo oscilações [130], memória associativa [131], sincronização de fase [132], plasticidade sináptica [64] entre outros temas de interesse em neurociência. 3.7 implementação computacional Toda a implementação dos programas utilizados nesse trabalho foram feitas em MATLAB. MATLAB é uma linguagem de programação de alto nível e de ambiente interativo usado por milhões de engenheiros e cientistas ao redor do mundo. O MATLAB permite a análise numérica, manipulação de matrizes, criação de gráficos de funções e dados, implementações de algorítmos complexos, criação de interfaces para o usuário, e a integração com programas escritos em outras linguagens, como C, C++, Java, Fortran e Python. Nas nossas análises foram criadas diferentes redes de neurônios. Os neurônios que compõem as redes são modelados através de equações diferencias que descrevem o comportamento do potencial de membrana. As sinapses entre esses neurônios foram modeladas através de uma função matemática, de forma que possamos levar em conta todas as influências entre os neurônios e o tipo de influência, ou seja, se elas são excitatórias ou inibitórias. Simulamos também o tempo necessário para que após ocorrer um potencial de ação no neurônio pré-sináptico, aconteça um potencial pós-sináptico. Através de modificações na quantidade de conexões entre os CAPÍTULO 3. modelo 59 neurônios e nos pesos sinápticos geramos diferentes sinais de LFP para as diferentes redes. Os neurônios que compõem as redes estudadas são descritos pelo modelo de Izhikevich [59]. Esse modelo foi escolhido, pois através dele podemos representar diversos comportamentos dos neurônios do córtex cerebral de forma eficiente computacionalmente. Como não estamos interessados nas características biofísicas mas sim nos fenômenos ocorridos devido atividade conjunta dos neurônios a utilização de um modelo simplificado é a melhor opção no nosso caso. Para efetuar a integração das equações diferenciais do modelo de Izhikevich, utilizamos o método de Euler com passo de integração dt = 0, 05ms. Nos experimentos que fizemos nesse trabalho o valor inicial do potencial de membrana é V = −65mV. Utilizamos as diversas classes de neurônios que podem ser representadas através do modelo de Izhikevich, figura 1. Com o intuito de ter uma heterogeniedade nos comportamentos dinâmicos dos neurônios que compõem as redes, variamos os parâmetros a , b, c e d do modelo dentro de uma faixa de valores, de forma que as médias dessas faixas de valores correspondam a uma determinada classe de neurônios, como mostrado na tabela 1, e os valores extremos do intervalo não correspondam aos valores dos parâmetros dos neurônios de uma outra classe. Para efetuar essa confirmação foram verificados os padrões apresentados pelo modelo quando utilizamos os valores extremos do intervalo escolhido. A corrente aplicada sobre cada neurônio corresponde à soma das corrente sináptica com a corrente externa. Para simular a corrente sináptica, os potenciais de ação do neurônio pré-sináptico devem ser convertidos em condutâncias dinâmicas na célula pós-sináptica. A abordagem mais geral para o cálculo da condutância é a operação de convolução, ĝ(t) = Z t d 0 G(λ)S(t − λ − tt )dλ, (66) onde ĝ(t) é a condutância sináptica, G(t) é a forma de onda da condutância sináptica para a célula pós-sináptica, S(t) é uma função corresponde aos potenciais de ação da célula pré-sináptica, td é o intervalo de tempo sobre o qual a função relativa aos potenciais CAPÍTULO 3. modelo 60 de ação da célula pré-sináptica são convoluídos com a forma de onda da condutância sináptica, e tt é o delay de propagação da célula pré-sináptica para a pós-sináptica. A vantagem da utilização da convolução é que G(t) pode ser definida arbitrariamente. No entanto, esse tipo de abordagem é custosa computacionalmente, pois um histórico dos potenciais de ação deve ser mantido afim de que possamos calcular a condutância sináptica em cada passo de tempo [133]. Para aumentar a eficiência computacional utilizamos nesse trabalho uma abordagem adotada pelo simulador Genesis [134] onde cada entrada sináptica é modelada como uma função impulso-resposta de um oscilador amortecido. Assim, a entrada sináptica é descrita por uma equação diferencial de segunda-ordem. A vantagem de utilizarmos essa abordagem é que o modelo para a entrada sináptica não necessita do histórico de eventos dos potencias de ação, que é necessário quando utilizamos a convolução [133]. A equação para a forma de onda da condutância sináptica é, G̈ + α Ġ + βG = x(t), (67) onde α= τ1 + τ2 τ1 τ2 e β= 1 . τ1 τ2 (68) A entrada x(t) representa a contribuição das sinapses sobre a condutância do neurônio pós-sináptico. Os parâmetros τ1 e τ2 , nas equações 68, são as constantes de tempo da condutância sináptica. As constantes de tempo da condutância sináptica são importantes pois determinam como as entradas sinápticas são integradas no tempo, ou seja como é feita a somação temporal das entradas sinápticas. A função impulso-resposta do sistema, com condição inicial de G(0) tem a forma exponencial dada por, G(t) = −t τ1 τ2 −τ t e 1 − e τ2 , τ1 − τ2 (69) CAPÍTULO 3. modelo 61 com o tempo do pico dado por, t pico τ τ2 = 1 ln τ1 − τ2 τ1 τ2 . (70) Nos casos em que τ1 = τ2 a equação 69, resume-se a seguinte equação, −t G(t) = te τ . (71) A curva descrita pela equação 71 tem a forma de uma função alfa. Para calcular as condutâncias sinápticas a equação 67 é descrita por duas equações diferenciais de primeira ordem, ż = Ġ = −1 z + x(t), τ1 (72) −1 G + z. τ2 (73) Neste trabalho utlizamos o método de Euler exponencial [133] para integrar as equações 72 e 73 e obtermos G(t). A integração numérica dessas equações permite que possamos contabilizar, a cada passo de tempo, a influência dos neurônios pré-sinápticos sobre a condutância sináptica do neurônio pós-sináptico. Por fim, a condutância sináptica é calculada por, ĝ(t) = gmax G(t)w(t), G pico (74) onde gmax é o valor máximo da condutância sináptica e w(t) é o peso sináptico [133]. Nos modelos utilizados neste trabalho gmax é igual a 1. Os valores de w(t), para todo t, também foram fixados como sendo 1, no entanto, as diferentes influências sobre os neurônios pós-sinápticos foram contabilizadas em um vetor de ativação que foi CAPÍTULO 3. modelo 62 incluído na equação 72 através da entrada x(t). Para cada neurônio pós-sináptico temos um vetor de ativação x, onde cada elemento do vetor x(t) corresponde a um passo de tempo da simulação. Assim, no tempo t em que a influência dos neurônios présinápticos chegam ao neurônio pós-sináptico temos um valor no elemento de vetor correspondente a soma dos pesos sináptico de todas as influências que chegam no mesmo tempo t. A vantagem da utilização dessa abordagem é que facilita a inclusão dos delays ao modelo. Foram utlizados diferentes vetores de ativação para os diferentes tipos de sinapse presentes no modelo, no nosso estudo simulamos sinapses AMPA e GABA-A. A influência externa sobre cada neurônio também foi simulada através de uma sinapse com características similares a sinapse AMPA, porém, para este caso simulamos um gerador de potenciais de ação com distribuição de Poisson e taxa de disparos de 10 Hz para cada neurônio da rede. Foram simuladas entradas externas sobre todos os neurônios das redes estudadas. A corrente total sobre cada neurônio é dada por, I = I AMPA + IGABA + IEXT , (75) onde, I AMPA = ĝ AMPA (Eex − V), (76) IGABA = ĝGABA (Ein − V), (77) IEXT = ĝEXT (Eex − V). (78) As equações 76 e 77 representam as correntes sinápticas relacionadas as sinapses AMPA e GABA-A e a equação 78 representa a corrente devido a uma influência externa. A sinapse AMPA tem natureza excitatória com potencial de reversão Eex = 0mV e constante de tempo τAMPA = 5ms. A sinapse GABA-A tem natureza inibitória com CAPÍTULO 3. modelo 63 potencial de reversão Ein = −80mV e constante de tempo τGABA = 6ms. Os valores para o constante de tempo e o potencial de reversão relativos a entrada externa IEXT , são os mesmos utilizados para a sinapse AMPA. Grande parte dos estudos em neurociência computacional descartam a inclusão dos delays justificando que é apenas uma complicação no modelo. No entanto, pudemos verificar nos nossos estudos que alterações no valor do delay, ou da faixa de delays, pode causar alterações consideráveis nos ritmos presentes nos sinais obtidos através das redes de neurônios. Além disso, estudos mostram que os delays exercem influência sobre a auto-organização dos padrões apresentados pela rede [64]. Nos nossos modelos os delays são contabilizado em um vetor de ativação, de forma que, quando acontece um potencial de ação no neurônio pré-sináptico no tempo t, o elemento de vetor x(t + tdelay ) recebe um incremento de acordo com o tipo da sinapse. Onde t é o tempo atual da simulação e tdelay é o delay para esta interação. No nosso trabalho a arquitetura das redes utilizadas é aleatória. Fixamos, de acordo com o experimento, a quantidade de conexões que cada neurônio recebe [135], e os pesos sinápticos, que são equivalentes a condutância sináptica do neurônio pós-sináptico. Para ser mais específico, dividimos as conexões em quatro tipos de acordo com o tipo do neurônio pré-sináptico e do pós-sináptico, assim, temos respectivamente as conexões do tipo: Excitatório-Excitatório, Excitatório-Inibitório, Inibitório-Excitatório e Inibitório-Inibitório. Como nas nossas simulações a quantidade de conexões entre os neurônios é pequena, as matrizes de conexões entre eles são esparsas, isso geralmente ocasiona um problema em simulações computacionais, pois mesmo sabendo que as matrizes são esparsas, todos os valores do elementos dessas matrizes são salvos o que faz com que os programas sejam pouco eficientes. Para melhorar a eficiência das nossas simulações, as matrizes de conexões entre as redes foram geradas com o auxílio da função sparse do MATLAB, essa função foi desenvolvida especialmente para que os cálculos e simulações envolvendo matrizes esparsas não sejam tão custosos e economizem memória computacional. O número de neurônios das redes sempre eram fixados de forma a seguir proporção de 80% excitatórios e 20% inibitórios. A atividade da rede era modificada de acordo CAPÍTULO 3. modelo 64 com as alterações nos pesos sinápticos, nos delays ou na quantidade de conexões. Para verificar as oscilações geradas através das modificações nas características das redes, simulamos sinais de LFP. Para simular esses sinais primeiramente fizemos a somatória dos potenciais de membrana dos neurônios que compõem a rede e no sinal resultante aplicamos um filtro passa-baixa a 200Hz. Dividimos o sinal pelo número de neurônios da rede, aplicamos as funções downsample a fim de baixar a taxa de amostragem do sinal de 2.104 Hz para 200Hz e a função detrend, que remove as tendências lineares. Ambas as funções são pré implementadas no MATLAB. Todos os experimentos computacionais que fizemos foram simulados por 5 segundos de tempo simulado. Com os sinais de LFP fizemos avaliações da coerência e causalidade entre as séries temporais e verificamos o quão efetivo são os métodos de conectividade quando aplicados a estes sinais. 4 E X P E R I M E N T O S C O M P U TA C I O N A I S E R E S U LTA D O S Nesse capítulo investigamos a aplicação dos métodos de conectividade em modelos compostos por redes de neurônios simulados computacionalmente. As redes de neurônios são compostas por neurônios de diferentes tipos, com diferentes número de conexões e diferentes pesos sinápticos. Foi variado também, o tipo de conexão entre os neurônios das diferentes redes. O intuito dessas análises foi verificar se é possível recuperar as conexões existentes entre as redes neuronais através dos valores estatisticamente significativos obtidos pelos métodos de conectividade. Além dos métodos de conectividade efetiva (causalidade de Granger, PDC e GPDC), aplicamos alguns métodos de conectividade funcional (correlação de Spearman e coerência espectral) a fim de comparar os diferentes tipos de conectividade. Verificamos também, como a taxa de disparo dos neurônios e a quantidade de conexões entre as diferentes redes, pode afetar as medidas feitas pelos métodos de conectividade. 4.1 redes estudadas Os experimentos computacionais desse trabalho baseiam-se na verificação da conectividade efetiva entre redes neuronais. Para isso foram definidas 5 redes neuronais, com diferentes características. Essas modificações nas características das redes foram feitas a fim de obter uma heterogeneidade entre os sinais das diferentes redes. Apresentamos uma tabela (tabela 2) com os valores dos parâmetros de cada uma das redes e gráficos (figura 4) correspondentes aos disparos dos neurônios das redes, o sinal de LFP de cada uma das redes e a frequência de oscilação de cada um desses sinais de LFP. 65 CAPÍTULO 4. experimentos computacionais e resultados 66 Para criar as 5 redes diferentes utilizadas nesse trabalho foram variados o número de neurônios em cada rede e alguns dos parâmetros que controlam a dinâmica das redes, como por exemplo, a quantidade de conexões entre os neurônios que compõem cada uma das redes e o peso sináptico dessas conexões, de forma que cada rede gere um sinal de LFP diferente. Os principais parâmetros das redes são, a porcentagem de neurônios da rede pertencentes a uma mesma classe (Regular Spiking, Chattering, Fast Spiking e Low Threshold Spiking ), a quantidades de sinapses (Q EE , Q IE ) que cada neurônio excitatório recebe, a quantidades de sinapses (Q EI , Q I I ) que cada neurônio inibitório recebe, os pesos sinápticos (WEE , WEI , WIE , WI I ), o peso sináptico relativo a corrente externa aplicada sobre cada tipo de neurônio (WextE , Wext I ) e o intervalo de delays para cada tipo de conexão ( d EE , d EI , d IE , d I I ) em milissegundos. Nos parâmetros citados, o subscrito representa qual o tipo de sinapse, por exemplo EI, representa uma sinapse onde o neurônio pré-sináptico é excitatório (E) e o neurônio pós-sináptico é inibitório (I). Na tabela 2 são mostrados os valores dos parâmetros que são diferentes entre as redes. Os parâmetros relativos as sinapses cujo neurônio pré-sináptico é inibitório são mantidos fixos entre as diferentes redes, assim Q IE = 20 conexões, Q I I = 10 conexões, WIE = 12, 5, WI I = 10, 5, d IE = 1ms e d I I = 1ms, para todas as redes utilizadas nas simulações. De acordo com o tipo de neurônio pré-sináptico, o peso sináptico é multiplicado por um fator de normalização. Implementamos os programas dessa forma a fim de facilitar a construção do algorítmo e posteriormente a leitura do programa. Para o caso em que o neurônio pré-sináptico é excitatório temos um fator de normalização f ator E = 0, 0528 e para o caso em que o neurônio pré-sináptico é inibitório temos o fator f ator I = 0, 0059. Na figura 4 são mostrados o raster plot, o sinal de LFP e a transformada de Fourier do sinal de LFP, para cada uma das redes que foram utilizadas. É importante ressaltar que os dados da figura 4 foram gerados para um trial. Quando trabalhamos com város trials, os valores dos dados para cada um dos trials, relativos a uma mesma rede de neurônios, podem ter algumas pequenas variações de valor ao longo das simulações. No entanto, a dinâmica geral da rede permanece aproximadamente a mesma visto que os delays, para algumas conexões, e os parâme- CAPÍTULO 4. experimentos computacionais e resultados 67 tros do modelo de Izhikevich são escolhidos de forma aleatória, porém, dentro de um intervalo determinado. Redes 1 2 3 4 5 N 1000 1000 2000 2000 2000 RS 100% 100% 50% 50% 50% CH 0% 0% 50% 50% 50% FS 100% 100% 0% 0% 0% LTS 0% 0% 100% 100% 100% Q EE 40 40 45 45 45 Q EI 40 40 35 35 35 WEE 0, 3 0, 3 0, 3 0, 3 0, 3 WEI 0, 6 0, 4 0, 3 0, 3 0, 7 d EE 5 − 15 5 − 15 10 − 15 10 − 15 10 − 15 d EI 1−9 1−9 1−5 5 − 10 1 − 10 Wext E 22, 5 20, 5 23, 5 23, 5 23, 5 Wext I 20, 5 28, 5 13, 5 13, 5 13, 5 Tabela 2: Parâmetros para cada rede utilizada nas simulações computacionais. A coluna Redes corresponde aos índices usados para identificar cada uma das redes, N é a quantidade de neurônios de cada rede, RS, CH, FS e LTS são as porcentagens de neurônios , para cada rede, que pertencem as seguintes classes, Regular Spiking, Chattering, Fast Spiking e Low Threshold Spiking, respectivamente. As demais colunas correspondem as quantidades de conexões, ao pesos sinápticos, aos delays em milissegundos, e aos pesos da corrente externa. O valor do delay é escolhido aleatoriamente dentro de um intervalo fechado limitado pelos valores apresentados na tabela. Na figura 4 podemos verificar que através da alteração dos valores dos parâmetros pudemos fazer com que as 5 redes tenham caraceterísticas diferentes, e oscilem em 4 frequências distintas. No raster plot dessa figura, verificamos a diferença entre a quantidade de potenciais de ação dos neurônios excitatórios e inibitórios das redes. Na rede 1 e rede 2 os neurônios excitatórios tem índice de 1 a 800, e os inibitórios de 801 a 1000. Nas redes 3, 4 e 5 os neurônios excitatórios são indexados de 1 a 1600 e os inibitórios de 1601 a 2000. Através da transformada de Fourier do sinal de LFP na figura 4 verificamos que a rede 1 oscila em ≈ 20Hz, a rede 2 oscila em ≈ 5Hz, a rede 3 oscila em ≈ 30Hz, a rede 4 em ≈ 50Hz e a rede 5 também em ≈ 20Hz, porém, com caraceterísticas diferentes da rede 1. Nessa figura, as redes estão isoladas, ou seja, as únicas sinapses que ocorrem são entre os neurônio pertencentes as mesmas redes. CAPÍTULO 4. experimentos computacionais e resultados LFP 1100 1200 1300 Tempo (ms) 1400 1500 Potência 100 0 50 0 3500 200 Potência −1500 0 100 0 3500 200 Potência −3500 0 100 0 2000 200 Potência −3500 LFP Índice do Neurônio 2000 1600 1200 800 400 0 1000 1500 LFP Índice do Neurônio 2000 1600 1200 800 400 0 50 0 LFP Índice do Neurônio 2000 1600 1200 800 400 0 0 −1500 LFP Índice do Neurônio 1000 800 600 400 200 0 100 Potência 1500 Índice do Neurônio 1000 800 600 400 200 0 0 −2000 1000 68 2000 3000 Tempo (ms) 4000 5000 100 0 0 50 Frequência (Hz) Figura 4: Da esquerda para a direita, temos, na primeira coluna o raster plot, na segunda coluna o sinal de LFP gerado através dos valores do potencial de membrana dos neurônios que compõem a rede e na terceira coluna a transformada de Fourier do sinal de LFP. Cada linha de gráficos na figura corresponde a um índice da rede neuronal, onde a primeira linha de cima para baixo representa a rede 1, a segunda representa a rede 2, a terceira representa a rede 3, a quarta representa a rede 4 e a quinta linha representa a rede neuronal 5. 100 CAPÍTULO 4. experimentos computacionais e resultados 69 4.2 relação entre a conectividade e o aumento do peso sináptico Com o intuito de verificar como o aumento do peso sináptico entre os neurônios de diferentes redes, rede A e rede B, modifica os valores obtidos pelos métodos de conectividade, efetuamos dois experimentos onde em cada um deles aplicamos sobre os sinais de LFP das diferentes redes a causalidade de Granger, a coerência parcial direcionada (PDC), a correlação e a coerência espectral. Fizemos o experimento para o caso em que as duas redes tem características similares, ou seja, a rede A e a rede B têm os mesmos parâmetros da rede 1, e para o caso em que temos duas redes com caraterísticas diferentes, a rede A com os mesmos parâmetros da rede 1 e a rede B com os parâmetros da rede 4. Cada neurônio excitatório da rede B recebe 5 conexões excitatórias da rede A com delay de 5 milissegundos. O peso sináptico entre os neurônios é variado de 0 a 3, em passos de 0, 1. Foram feitos 15 trials para cada um dos 31 valores do peso sináptico e a cada trial foram gerados novos valores dos delays para as novas conexões entre os neurônios das mesmas redes, novas conexões entre os neurônios das diferentes redes e novos parâmetros para o modelo de Izhikevich. Podemos representar as interações entre os neurônios das diferentes redes através de um grafo direcionado onde os nós representam as redes de neurônios e as arestas representam as interações direcionais entre as redes. Na figura 5 temos o grafo representando a interação entre os neurônios da rede A e da rede B. A B Figura 5: Grafo direcionado representado as interações entre os neurônios das redes A e B. A seta preta representa conexões direcionais entre neurônios excitatórios. Na figura 6, nos gráficos A e D, podemos verificar o comportamento de CGBA , que corresponde a causalidade de Granger na direção do sinal da rede A para o sinal da rede B, em relação ao aumento do peso sináptico. Verificamos que nesse caso existe CAPÍTULO 4. experimentos computacionais e resultados 70 uma relação aproximadamente linear entre o aumento do peso sináptico e o aumento dos valores da causalidade de Granger, porém, a partir de um valor do peso sináptico WEE , aproximadamente WEE ≈ 2, a influência dos pesos sinápticos sobre a causalidade de Granger começa a diminuir de forma que os valores da causalidade de Granger tem uma variação menor com relação ao aumento do peso sináptico. Nos seis gráficos da figura 6 cada ponto corresponde a um trial. Não foi feito análise da significância estatística nesse caso pois o intuito desse estudo foi verificar o comportamento da causalidade de Granger em relação ao aumento da influência de uma rede sobre a outra, de forma que não foi necessário verificar em quais casos a causalidade de Granger apresenta ou não um valor significativo. No contexto da teoria da causalidade de Granger, a explicação para o comportamento observado nos gráficos A e D da figura 6, é que conforme aumentamos o valor do peso sináptico entre os neurônios das diferentes redes, a informação dos valores passados do sinal de LFP da rede que envia as conexões (rede A), melhora a previsão dos valores futuros do sinal de LFP da rede que recebe as conexões (rede B), porém, a partir do momento que o peso sináptico chega a um determinado valor, a taxa de aumento na melhoria da previsão dos valores do sinal de LFP da rede B através da inclusão de informações dos valores passados do sinal da rede A diminui. Nesses casos, geralmente a rede que recebe as conexões está em um estado altamente sincronizado, como podemos verificar através da figura 7. Na figura 7 podemos verificar que os disparos dos neurônios da rede B ocorrem em tempos próximos caracterizando a sincronização da atividade dentro dessa rede, além disso, podemos verificar também que a coerência espectral tem um pico em aproximadamente 20 Hz, o que significa que existe uma sincronização entre os sinais de LFP das diferentes redes em uma frequência proxima à 20 Hz. Isso é esperado visto que em ambos os casos a rede que envia o sinal esta oscilando nessa frequência. Na figura 7 o gráfico da rede B para redes diferentes apresenta diferentes comportamentos para os neurônios excitatórios. Isso ocorre devido ao fato da rede ser composta por dois tipos de neurônios excitatórios: Regular Spiking e Chattering. CAPÍTULO 4. experimentos computacionais e resultados 0.5 0.5 0.5 B A 0.4 71 0.4 C 0.4 0.3 0.2 ρ CGAB 0.3 CGBA 0.3 0.1 0.2 0.2 0 0.1 0.1 −0.1 −0.2 0 0 0.5 1 1.5 WEE 2 2.5 0 0 3 0.5 0.5 1 1.5 WEE 2 2.5 −0.3 0 3 0.5 D 1 1.5 WEE 2 2.5 3 1 1.5 WEE 2 2.5 3 0.5 E 0.4 0.5 0.4 F 0.4 0.3 0.2 ρ CGAB 0.3 CGBA 0.3 0.1 0.2 0.2 0 0.1 0.1 −0.1 −0.2 0 0 0.5 1 1.5 WEE 2 2.5 3 0 0 0.5 1 1.5 WEE 2 2.5 3 −0.3 0 0.5 Figura 6: Variação da causalidade de Granger e da correlação com o aumento do peso sináptico entre os neurônios excitatórios de diferentes redes. Nos gráfico A e D são mostrados os aumentos da causalidade de Granger CGBA no sentido da rede A para a rede B em função do aumento no peso sináptico WEE , e nos gráficos B e E são mostrados os comportamentos da causalidade de Granger no sentido contrário ou seja, da rede B para a rede A. Os gráficos C e F mostram os valores dos coeficientes de correlação de Spearman de acordo com o aumento do peso sináptico. Nos gráficos A, B e C as redes têm parâmetros da rede 1 (tabela 2) e nos gráficos D, E e F a rede A tem parâmetros da rede 1 e a rede B tem parâmetros equivalentes a rede 4 (tabela 2). Na causalidade de Granger no sentido contrário CG AB (gráficos B e E da figura 6) o valor permanece estável com média aproximadamente constante. Esse comportamento da causalidade de Granger CG AB era esperado, visto que, não há influência dos neurônios da rede B sobre os neurônios da rede A. Verificamos também os valores da correlação de Spearman [136] de acordo com o aumento no peso sináptico (gráficos C e F da figura 6). Utilizamos a correlação de CAPÍTULO 4. experimentos computacionais e resultados 800 800 ìndice do Neurônio 1000 Índice do Neurônio 1000 600 400 600 400 200 0 1000 200 1100 1200 1300 Tempo (ms) 1400 0 1000 1500 800 1600 Índice do Neurônio 2000 Índice do Neurônio 1000 600 400 1400 1500 1100 1200 1300 Tempo (ms) 1400 1500 20 40 60 Frequência (Hz) 80 100 400 1100 1200 1300 Tempo (ms) 1400 0 1000 1500 1 0.8 0.8 Coerência Coerência 1200 1300 Tempo (ms) 800 1 0.6 0.4 0.2 0 0 1100 1200 200 0 1000 72 0.6 0.4 0.2 20 40 60 Frequência (Hz) 80 100 0 0 Figura 7: Gráficos mostrado a sincronização na atividade da rede B e entre os sinais de LFP das diferentes redes. De cima para baixo temos primeiramente os gráficos da rede A, ambos com parâmetros equivalentes a rede 1, na linha do meio temos os gráficos da rede B, no lado esquerdo a rede B é equivalente a rede 1 e no lado direito a rede B é equivalente a rede 4. Por fim temos o gráfico da coerência espectral entre os sinais de LFP das redes A e B, no lado esquerdo para o caso em que as duas redes tem parâmetros similares e no lado direito para os casos em que as redes tem parâmetros diferentes. Os dados foram gerados para 1 trial e com peso sináptico WEE = 2, 5 entre os neurônios excitatórios das diferentes redes. Spearman pois ela é uma medida não-paramétrica da correlação, de forma que, não faz nenhuma suposição sobre a distribuição dos dados, além disso, essa medida não é sensível a presença de outliers. Para o caso em que as duas redes oscilam em frequências próximas e têm aproximadamente os mesmos parâmetros (grafico C da figura 6), os valores da correlação de Spearman crescem de acordo com o aumento no peso si- CAPÍTULO 4. experimentos computacionais e resultados 73 náptico, porém ficam aproximadamente estáveis a partir de um certo valor do peso sináptico. Esse valor é próximo ao valor em que ocorre uma diminuição da taxa de crescimento do valor da causalidade de Granger (WEE ≈ 2). Para o caso em que as redes são diferentes (gráfico F da figura 6) o valor da correlação de Spearman decai para valores negativos a medida que aumentamos o peso sináptico entre os neurônios das diferentes redes. Esse descrescimento e os valores negativos da correlação podem estar relacionados à diferença entre as frequências de oscilação dos sinais de LFP das diferentes redes. Assim, mesmo que exista um aumento do efeito dos neurônios excitatórios da rede A sobre os neurônios excitatórios da rede B, a dinâmica do sinal de LFP das diferentes redes permance diferente. Já para o caso das redes com comportamentos equivalentes, o aumento no peso sináptico faz com a dinâmica dos sinais de LFP seja cada vez mais próxima até um valor limite que equivale a correlação estável. Essa proximidade na dinâmica pode estar relacionada a diminuição na diferença de fase entre os sinais. É importante ressaltar que assim como para o caso da causalidade de Granger, não foi feita a análise da significância estatística da correlação de Spearman, então, sabendo que os valores máximos da correlação são −1 e 1 podemos afirmar que para os dois casos estudados as correlações entre os sinais são fracas. Utilizamos os mesmos dados das redes para fazer uma análise similar a anterior, porém, no domínio das frequências. Sendo assim, verificamos os valores do PDC máximo e da coerência espectral máxima entre os sinais, de acordo com o aumento do peso sináptico entre os neurônios excitatórios das diferentes redes. Na figura 8 são apresentados os gráficos com os resultados dessa análise. Verificamos que os valores do PDC A → B (gráficos A e D) aumentam conforme aumentamos os valores do peso sináptico WEE . Esse crescimento do PDC A → B é rápido e para valores próximos ao início do intervalo de pesos sinápticos, como WEE = 1, o PDC A → B apresenta valores próximos a 1, que é o valor máximo para o PDC. O comportamento dos valores do PDC A → B com o aumento do peso sináptico tem um comportamento muito parecido para o caso em que as redes têm parâmetros equivalentes e para o caso em que as redes são diferentes. CAPÍTULO 4. experimentos computacionais e resultados 74 Avaliamos o PDC no sentido contrário, PDC B → A, e verificamos que para o caso em que as redes têm parâmetros equivalentes, o PDC apresenta um valor intermediário quando o peso sináptico é próximo a 0. Isso significa que devido a frequência de oscilação das redes serem próximas, é possível que exista uma conectividade efetiva entre os sinais dessas redes, mesmo não havendo conexões entre os neurônios delas. Em outras palavras, quando o peso sináptico é próximo a zero, o coeficiente do modelo autorregressivo que representam a influência no sentido da rede B para a rede A não é nulo. Isso significa que podemos prever os valores do sinal de LFP da rede A através dos valores passados do sinal de LFP da rede B. Para verificarmos se esse caso corresponde a um falso positivo, deveríamos avaliar se os valores obtidos para o PDC são estatisticamente significativos. No entanto, esse não foi o objetivo dessa análise. Conforme aumentamos o valor do peso sináptico, os valores do PDC B → A descrescem. O motivo disso ocorrer é que conforme aumentamos a influência de uma rede sobre a outra, mesmo quando elas têm parâmetros equivalentes, a heterogeneidade entre os sinais de LFP aumenta, dessa forma, não é possível mais prever os valores do sinal da rede A através dos valores do sinal da rede B. No gráfico E da figura 8, os valores do PDC no sentido da rede B para a rede A também descrescem, porém o valor inicial do PDC é baixo, diferente do que acontece no gráfico B. O motivo desse caso ser diferente é que as redes oscilam em frequências diferentes quando isoladas, ou seja, quando o peso sináptico entre os neurônios das diferentes redes é zero. Sendo assim, as séries temporais dos sinais de LFP são heterogêneas desde o início, fazendo com que seja menos provável que possamos prever os valores do sinal da rede A através dos valores passados do sinal da rede B. Os valores da coerência espectral máxima para ambos os casos crescem conforme aumentamos o peso sináptico. Isso mostra que existe um aumento da sincronização entre os sinais das diferentes redes. O crescimento da coerência para o caso em que as redes tem parâmetros equivalentes (gráfico C) é similar para o caso em que as redes são diferentes (gráfico F). CAPÍTULO 4. experimentos computacionais e resultados 1 1 A 1 B 0.9 C 0.9 0.8 0.7 Coerência 0.8 PDC B−>A PDC A−>B 0.8 0.6 0.4 0.6 0.7 0.6 0.2 0.5 0.4 0 0.5 1 1.5 WEE 2 2.5 0 0 3 1 0.5 0.5 1 1.5 WEE 2 2.5 0.4 0 3 1 D 0.5 1 1.5 WEE 2 2.5 3 1 1.5 WEE 2 2.5 3 1 E F 0.9 0.8 Coerência PDC B−>A 0.8 PDC A−>B 0.9 0.6 0.4 0.8 0.7 0.6 0.2 0.7 0 75 0.5 1 1.5 WEE 2 2.5 3 0 0 0.5 0.5 1 1.5 WEE 2 2.5 3 0.4 0 0.5 Figura 8: Variação da coerência parcial direcionada máxima (PDC) e da coerência espectral máxima com o aumento do peso sináptico entre os neurônios excitatórios de diferentes redes. Nos gráfico A e D são mostrados os aumentos do valor da coerência parcial direcionada máxima no sentido da rede A para a rede B (PDC A → B) em função do aumento no peso sináptico WEE , e nos gráficos B e E são mostrados os comportamentos da coerência parcial direcionada máxima no sentido contrário ou seja, da rede B para a rede A (PDC B → A). Os gráficos C e F mostram os valores da coerência espectral de acordo com o aumento do peso sináptico. Nos gráficos A, B e C as redes têm parâmetros da rede 1 (tabela 2) e nos gráficos D, E e F a rede A tem parâmetros da rede 1 e a rede B tem parâmetros equivalentes a rede 4 (tabela 2). CAPÍTULO 4. experimentos computacionais e resultados 76 4.3 coerência parcial direcionada aplicada a redes de neurônios Nessa parte do trabalho verificamos a aplicação da coerência parcial direcionada (PDC) e da coerência parcial direcionada generalizada (GPDC) sobre modelos compostos pelas redes apresentadas anteriormente. Nesses modelos as redes podem ou não interagir entre si, quando há interação, ela pode ocorrer de duas formas principais, através de sinapses do tipo excitatório-excitatório (EE), ou sinapses do tipo inibitório-excitatório (IE), nesses casos a quantidade de sinapses que cada neurônio recebe e o peso sináptico são fixos. Nas interações entre neurônios excitatórios, cada neurônio excitatório recebe 10 siij napses excitatórias com pesos sináptico WEE = 0, 5. Nas interações do tipo inibitórioexcitatório, cada neurônio excitatório recebe 5 sinapses inibitórias com peso sináptico ij WIE = 10, 0, onde as sinapses partem da rede j para a rede i. Assim como é feito para as sinapses entre os neurônio que compõem cada uma das redes, o valor do peso sináptico é multiplicado por um fator que é diferente para os diferentes tipos de neurônio pré-sináptico (excitatório ou inibitório). Os mesmo fatores utilizados nas sinapses entre os neurônios de uma mesma rede são multiplicados pelos pesos sinápticos entre os neurônios de diferentes redes. Os delays também são diferentes para os ij diferentes tipos de sinapse. No caso das sinapses inibitório-excitatório o delay d IE = 1 ij milissegundo e para os casos das sinapses excitatório-excitatório o delay é d EE = 5 milissegundos. Foram feitos 6 modelos baseados nos modelos utilzados por Baccalá e Sameshima [35]. Porém, substituímos as séries geradas por modelos autorregressivos pelos sinais de LFP das redes simuladas. Nas interações em que o coeficiente do modelo autorregressivo era negativo, utilizamos nos nossos modelos conexões do tipo inibitório-excitatório e para os casos em que o coeficiente era positivo, utilizamos no nosso modelo conexões do tipo excitatório-excitatório. Modificamos entre os modelos o número de redes utlizadas e os tipos de conexões entre os neurônios dessas redes. CAPÍTULO 4. experimentos computacionais e resultados 77 4.3.1 Modelo 1 No primeiro modelo supomos 3 redes de neurônios que não interagem entre si, de forma que as únicas sinapses que ocorrem nesse modelo são entre os neurônios que compõem as mesmas redes. Na figura 9 é mostrado o grafo que representa modelo em estudo. A importância do estudo desse modelo é que devido ao fato de não haver interações entre as redes de neurônios, espera-se que a coerência parcial direcionada não registre valores significativos para as conexões, caso contrário, poderíamos concluir que a aplicação da coerência parcial direcionada em dados como os gerados pelas redes aqui apresentadas, não nos dão informações reais sobre a conectividade. Na figura 10 mostramos os gráficos com os valores da coerência parcial direcionada para 200 valores de frequência entre 0 e 100 Hz. A linha contínua vermelha nos gráficos representa o valor do PDC médio entre 15 trials. A linha azul tracejada representa a coerência espectral média entre os trials e a linha preta pontilhada representa o valor crítico do PDC médio para cada frequência obtido através do bootstrap. Acima do valor crítico o valor do PDC médio é estatisticamente significativo. Podemos verificar que não há valores significativos para o PDC médio o que corrobora com o fato de não haver conectividade entre as redes neurais. No entanto verificamos um comportamento estranho dos valores do PDC médio e dos valores críticos para o caso em que é avaliado se a rede 3 recebe sinapses de alguma das outras duas redes. Nesse caso, mesmo não sendo significativo, os valores do PDC médio não são baixos, levando em conta que os valores do PDC vão de 0 a 1. Segundo Baccalá e Sameshima [45] isso pode ocorrer devido a diferenças de escala entre os sinais em estudo, ou seja, mudaças na amplitude de uma das séries temporais pode levar a mudanças consideráveis no valor do PDC. Como solução para esse problema, os pesquisadores sugerem o uso da coerência parcial direcionada generalizada (GPDC) que é invariante a escala. O que diferencia o cálculo do PDC do cálculo do GPDC, é que no GPDC são introduzidos termos relacionados a variância dos resíduos dos modelos autorregressivos. Para verificar a diferença entre o PDC e o GPDC aplicamos o GPDC sobre os mesmo dados do modelo 1. Os resultados são apresentados na figura 11. CAPÍTULO 4. experimentos computacionais e resultados 1 2 78 3 0.8 0.8 0.6 0.6 PDC 3−>1 PDC 2−>1 Figura 9: Grafo direcionado representado o modelo 1. O índice de cada nó é equivalente a rede que ele representa. Nesse modelo temos as redes 1, 2 e 3 cujos parâmetros são apresentados na tabela 2. 0.4 0.2 0.2 20 40 60 80 Frequência (Hz) 0.8 0.8 0.6 0.6 0.4 0.2 0 0 20 40 60 80 Frequência (Hz) 40 60 80 Frequência (Hz) 100 20 40 60 80 Frequência (Hz) 100 0.4 0 0 100 0.8 0.8 0.6 0.6 0.4 0.2 0 0 20 0.2 PDC 2−>3 PDC 1−>3 0 0 100 PDC 3−>2 PDC 1−>2 0 0 0.4 0.4 0.2 20 40 60 80 Frequência (Hz) 100 0 0 20 40 60 80 Frequência (Hz) 100 Figura 10: Gráficos do PDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do PDC médio (linha preta pontilhada) versus a frequência. A indicação da direção das interações é feita ao lado do eixo das ordenadas. CAPÍTULO 4. experimentos computacionais e resultados 79 Podemos verificar através da figura 11 que todos os valores do GPDC médio são estatisticamente não significativos, ou seja, abaixo dos valores críticos, e não ocorre mais de termos valores que não são baixos e não significativos. Todos os valores no 0.8 0.8 0.6 0.6 0.4 0.2 20 40 60 80 Frequência (Hz) 0.4 0.2 0 0 100 0.8 0.6 0.6 GPDC 3−>2 0.8 0.4 0.2 0 0 20 40 60 80 Frequência (Hz) 0.8 0.8 0.6 0.6 0.4 0.2 0 0 20 40 60 80 Frequência (Hz) 100 20 40 60 80 Frequência (Hz) 100 20 40 60 80 Frequência (Hz) 100 0.4 0.2 0 0 100 GPDC 2−>3 GPDC 1−>2 0 0 GPDC 1−>3 GPDC 3−>1 GPDC 2−>1 GPDC médio estão em uma mesma faixa de valores para os diferentes gráficos. 0.4 0.2 0 0 20 40 60 80 Frequência (Hz) 100 Figura 11: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha preta pontilhada) versus a frequência para o modelo 1. A indicação da direção das interações é feita ao lado do eixo das ordenadas Devido ao fato do GPDC fornecer uma melhor resultado para a análise da conectividade quando comparado ao PDC, usaremos apenas o GPDC como método de conetividade efetiva no domínio das frequências na avaliação dos demais modelos. CAPÍTULO 4. experimentos computacionais e resultados 80 4.3.2 Modelo 2 No modelo 2 também é avaliada a conectividade entre 3 redes de neurônios, porém, nesse caso temos conexões entre os neurônios das diferentes redes. Na figura 12 são mostradas as conexões através de um grafo direcionado. As setas pretas no grafo indicam as conexões do tipo excitatório-excitatório e as setas vermelhas indicam as conexões do tipo inibitório-excitatório, sendo assim a única conexão inexistente é da rede 1 em direção a rede 3. O interessante desse modelo é que podemos verificar como as interações estão relacionadas aos valores obtidos pelo GPDC médio. Em uma primeira análise podemos verificar através da figura 13 que os valores obtidos para o GPDC médio correspondem as conexões entre as redes de neurônios. O GPDC médio apresenta diferentes valores para as diferentes interações. Esses diferentes valores são causados pelo fato de termos diferentes números de conexões para cada rede. Verificamos que o valor do GPDC médio da rede 1 para a rede 2, mesmo sendo uma interação inibitória, tem um pico bem definido em aproximadamente 20 Hz, que é a frequência aproximada com que a rede 1 oscila quando está isolada. O fato do GPDC da rede 1 para a rede 2 ter um valor alto esta relacionada com o fato das conexões partindo da rede 1 ter apenas uma outra rede alvo, a rede 2. O GPDC assim como o PDC classifica o peso da interação entre os sinais com respeito a fonte do sinal. Além disso, um outro fato que pode contribuir para o valor alto do GPDC da rede 1 para a rede 2 é o fato da rede 1 não receber conexões inibitórias, apenas conexões excitatórias, fazendo com que os neurônios excitatórios dessa rede tornem-se mais ativos, essa atividade é propagada para os neurônios inibitórios através das sinapses que ocorrem dentro da rede. A rede 2 por sua vez, recebe sinapses excitatórias e inibitórias sobre os seus neurônios excitatórios. O valores mais altos do GPDC médio da rede 2 para a rede 1 são próximos aos valores que a rede 2 oscila, porém, os valores do GPDC médio da rede 2 para a rede 3, apesar de serem estatisticamente significativos, são baixos. Como a rede 2 faz conexões com duas redes alvo, a rede 1 e a rede 3, é esperado que os valores do GPDC para essas conexões sejam menores do que o encontrado no caso da conexão CAPÍTULO 4. experimentos computacionais e resultados 81 da rede 1 para a rede 2. A rede 3 recebe apenas conexões inibitórias da rede 2. Os valores do GPDC da rede 3 para a rede 1 e da rede 3 para a rede 2 são baixo porém estatisticamente significativos. 4.3.3 Modelo 3 No modelo 3 aumentamos o número de redes no modelo acrescentando as redes 4 e 5. Nesse modelo temos a rede 1 fazendo conexões do tipo excitatório-excitatório com a rede 2, e do tipo inibitório-excitatório com as rede 3 e a rede 4, a rede 4 está conectada a rede 5 de forma que formariam um oscilador independente caso não houvesse a conexão da rede 1 com a rede 4. Na figura 14 podemos verificar através do grafo as conexões entre as redes pertencentes ao modelo. Podemos verificar através do modelo que a rede 1 não recebe conexão de nenhuma das outras redes, e as redes 2 e 3 não enviam conexões para nenhuma outra rede do modelo. Podemos verificar através da figura 15 que o GPDC médio entre as conexões que partem da rede 1 são aproximadamente iguais, independente se é do tipo excitatórioexcitatório ou inibitório-excitatório, e com pico em uma frequência próxima a frequência de oscilação da rede 1. Como esperado não há valores estatisticamente significativos para o GPDC médio de conexões que partam da rede 2, ou para conexões que partam da rede 3 e nem para conexões que cheguem a rede 1. Os valores do GPDC médio da rede 5 para a rede 4 e da rede 4 para a rede 5 são pequenos porém estatisticamente significativos. Na figura 15 mostramos também os valores da coerência espectral média entre os sinais das diferentes redes que compõem o modelo 3. Podemos verificar que se utilizássemos a coerência espectral média entre os trials como método de conectividade a fim de identificar as conexões reais entre as redes de neurônios, chegaríamos a resultados equivocados visto que existem vários casos nesse modelo em que o valor da coerência espectral média é alto porém não existe conexões entre as redes de neurônios. Esse resultado mostra a vantagem da utilização de métodos de conectividade efetiva CAPÍTULO 4. experimentos computacionais e resultados 1 2 82 3 Figura 12: Grafo direcionado representado o modelo 2. O índice de cada nó é equivalente a rede que ele representa. As setas pretas no grafo indicam as conexões do tipo excitatório-excitatório e as setas vermelhas indicam as conexões do tipo inibitório-excitatório. Nesse modelo temos as redes 1, 2 e 3 cujos parâmetros são apresentados na tabela 2. 1 GPDC 3−>1 GPDC 2−>1 1 0.5 0 0 20 40 60 80 Frequência (Hz) 0 0 100 0.5 20 40 60 80 Frequência (Hz) 100 20 40 60 80 Frequência (Hz) 100 1 GPDC 2−>3 GPDC 1−>3 40 60 80 Frequência (Hz) 0.5 0 0 100 1 0.5 0 0 20 1 GPDC 3−>2 GPDC 1−>2 1 0 0 0.5 20 40 60 80 Frequência (Hz) 100 0.5 0 0 20 40 60 80 Frequência (Hz) 100 Figura 13: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha preta pontilhada) versus a frequência para o modelo 2. A indicação da direção das interações é feita ao lado do eixo das ordenadas CAPÍTULO 4. experimentos computacionais e resultados 83 sobre os métodos de conectividade funcional quando aplicados a fim de identificar as conexões reais entre as redes. 4.3.4 Modelo 4 No modelo 4 , figura 16, a influência sobre as redes é propagada sequencialmente. Assim, a rede 1 faz conexão do tipo inibitório-excitatório com a rede 2, a rede 2 faz conexão do tipo excitatório-excitatório com a rede 3, a rede 3 faz conexão do tipo inibitório-excitatório com a rede 4, a rede 4, por sua vez, assim como para o caso do modelo 3, formaria um oscilador independente com a rede 5 caso a rede 4 não estivesse ligada a rede 3. Na figura 17 podemos verificar que os resultados para o GPDC médio estão de acordo com as conexões apresentadas no modelo. Assim como para o caso do modelo 2, existe um pico do GPDC médio para as conexões da rede 1 para a rede 2, novamente isso ocorre devido ao fato da rede 1 fazer conexões com apenas uma outra rede alvo, a rede 2. Além disso essa rede não recebe conexões inibitórias o que poderia fazer com que a atividade dessa rede fosse diminuída. Na conexão da rede 3 para a rede 4 acontece uma situação semelhante, porém nesse caso a rede 3 recebe conexões excitatórias da rede 2, o valor do GPDC médio para essa conexão tem um pico em um frequência aproximadamente igual a frequência de oscilação da rede 3 quando ela esta isolada. Nas conexões da rede 2 para a rede 3 também temos um valor do GPDC médio próximo a frequência de oscilação da rede 2, no entanto, nesse caso não há um pico acentuado. Assim como para o caso do modelo 3, os valores do GPDC médio da rede 4 para a rede 5 e da rede 5 para a rede 4, são pequenos, porém, esses valores são estatisticamente significativos. CAPÍTULO 4. experimentos computacionais e resultados 84 2 1 4 5 3 0.9 0.6 0.3 GPDC 1−>5 0 0 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 50 100 Frequência (Hz) 50 100 Frequência (Hz) 0.3 0 0 0.9 0.6 0.3 0 0 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) GPDC 4−>3 0.6 50 100 Frequência (Hz) 50 100 Frequência (Hz) 0 0 0.9 0.6 0.3 0 0 0.9 0.6 0.3 0.9 0.6 0.3 0 0 0.9 0.6 0.3 0 0 GPDC 5−>1 50 100 Frequência (Hz) GPDC 5−>2 0.3 0 0 50 100 Frequência (Hz) GPDC 3−>4 GPDC 1−>4 0 0 0.3 0.9 GPDC 3−>5 0.3 GPDC 2−>3 0.6 0.6 0 0 50 100 Frequência (Hz) GPDC 2−>4 GPDC 1−>3 0.9 0.9 50 100 Frequência (Hz) 0.6 50 100 Frequência (Hz) GPDC 5−>3 0.3 0 0 0.9 50 100 Frequência (Hz) GPDC 5−>4 0.6 0 0 50 100 Frequência (Hz) GPDC 3−>2 0.9 GPDC 2−>5 GPDC 1−>2 0 0 0.3 GPDC 4−>1 0.3 0.6 GPDC 4−>2 0.6 0.9 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) GPDC 4−>5 0.9 GPDC 3−>1 GPDC 2−>1 Figura 14: Grafo direcionado representado o modelo 3. O índice de cada nó é equivalente a rede que ele representa. As setas pretas no grafo indicam as conexões do tipo excitatório-excitatório e as setas vermelhas indicam as conexões do tipo inibitório-excitatório. Nesse modelo temos as redes 1, 2, 3, 4 e 5 cujos parâmetros são apresentados na tabela 2. 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) Figura 15: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha preta pontilhada) versus a frequência para o modelo 3. A indicação da direção das interações é feita ao lado do eixo das ordenadas CAPÍTULO 4. experimentos computacionais e resultados 1 2 3 85 4 5 0.2 GPDC 1−>4 0 0 0.8 0.6 0.4 0.2 GPDC 1−>5 0 0 0.8 0.6 0.4 0.2 0 0 50 100 Frequência (Hz) 50 100 Frequência (Hz) 50 100 Frequência (Hz) 0.4 0.2 0.4 0.2 0 0 0.8 0.6 0.4 0.2 0 0 0.8 0.6 0.4 0.2 0 0 50 100 Frequência (Hz) 50 100 Frequência (Hz) GPDC 4−>3 0.6 50 100 Frequência (Hz) 50 100 Frequência (Hz) 0 0 0.8 0.6 0.4 0.2 0 0 0.8 0.6 0.4 0.2 0.8 0.6 0.4 0.2 0 0 0.8 0.6 0.4 0.2 0 0 GPDC 5−>1 0.2 0 0 50 100 Frequência (Hz) GPDC 3−>4 0.2 0.6 0.8 GPDC 3−>5 0.4 GPDC 2−>3 0.6 0.8 0 0 50 100 Frequência (Hz) GPDC 2−>4 GPDC 1−>3 0.8 0 0 0.4 50 100 Frequência (Hz) GPDC 5−>2 0.4 0.2 0.6 50 100 Frequência (Hz) GPDC 5−>3 0.6 0 0 50 100 Frequência (Hz) GPDC 3−>2 0.8 GPDC 2−>5 GPDC 1−>2 0 0 0.4 0.8 50 100 Frequência (Hz) GPDC 5−>4 0.2 0.6 GPDC 4−>1 0.4 0.8 GPDC 4−>2 0.6 50 100 Frequência (Hz) 0.8 0.6 0.4 0.2 0 0 50 100 Frequência (Hz) 0.8 0.6 0.4 0.2 0 0 50 100 Frequência (Hz) 0.8 0.6 0.4 0.2 0 0 50 100 Frequência (Hz) 0.8 0.6 0.4 0.2 0 0 50 100 Frequência (Hz) GPDC 4−>5 0.8 GPDC 3−>1 GPDC 2−>1 Figura 16: Grafo direcionado representado o modelo 4. O índice de cada nó é equivalente a rede que ele representa. As setas pretas no grafo indicam as conexões do tipo excitatório-excitatório e as setas vermelhas indicam as conexões do tipo inibitório-excitatório. Nesse modelo temos as redes 1, 2, 3, 4 e 5 cujos parâmetros são apresentados na tabela 2. 50 100 Frequência (Hz) 0.8 0.6 0.4 0.2 0 0 50 100 Frequência (Hz) Figura 17: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha preta pontilhada) versus a frequência para o modelo 4. A indicação da direção das interações é feita ao lado do eixo das ordenadas. CAPÍTULO 4. experimentos computacionais e resultados 86 4.3.5 Modelo 5 No modelo 5, figura 18 temos uma situação parecida com a do modelo 4, porém fechamos as conexões de forma que a última rede influencia a primeira, ou seja, a rede 5 exerce influência sobre a rede 1. Sendo assim, o fluxo do sinal passa por todas as redes do modelo 5. O interessante desse modelo é que para métodos de conectividade que detectam as conexões indiretas, como por exemplo a função de transferência direcionada (DTF) poderiam ser registradas conexões entre redes que não interagem entre si. No entanto para o caso de conexões diretas o resultado obtido é diferente. Verificamos através da análise do GPDC médio, figura 19, que os resultados são bem próximos aos resultados obtidos para o modelo 4, figura 17, porém existe valores estatisticamente significativos da conexão da rede 5 para a rede 1, correspondendo exatamente ao que era esperado desse modelo. 4.3.6 Modelo 6 Analisamos o modelo 6, figura 20. Nesse modelo temos conexões inibitórias ligando a rede 1 a rede 2, a rede 2 a rede 3, a rede 3 a rede 4 e a rede 4 a rede 5, as únicas conexões excitatórias são da rede 1 para a rede 3 e da rede 5 para a rede 4. Na figura 21 temos o GPDC médio para as diferentes interações do modelo. Verificamos que o GPDC médio consegue registrar algumas das conexões presentes no modelo, como para a influência sobre a rede 3 devido a rede 1, porém falha no registro da conexão da rede 2 para a rede 3. Isso pode acontecer devido a redução da atividade na rede 2 provocada pelos neurônio inibitórios da rede 1. Essa redução da atividade não faz com que os neurônios da rede 2 deixem de apresentar potenciais de ação, porém, pode fazer com que a atividade da rede seja reduzida. Somado a isso, o número de influências inibitórias que a rede 3 recebe da rede 2, pode ser muito pequena para que seja gerada uma influência significativa. CAPÍTULO 4. experimentos computacionais e resultados 2 3 87 4 5 1 0.9 0.6 0.3 GPDC 1−>5 0 0 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 50 100 Frequência (Hz) 50 100 Frequência (Hz) 0.3 0 0 0.9 0.6 0.3 0 0 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) GPDC 4−>3 0.6 50 100 Frequência (Hz) 50 100 Frequência (Hz) 0 0 0.9 0.6 0.3 0 0 0.9 0.6 0.3 0.9 0.6 0.3 0 0 0.9 0.6 0.3 0 0 GPDC 5−>1 50 100 Frequência (Hz) GPDC 5−>2 0.3 0 0 50 100 Frequência (Hz) GPDC 3−>4 GPDC 1−>4 0 0 0.3 0.9 GPDC 3−>5 0.3 GPDC 2−>3 0.6 0.6 0 0 50 100 Frequência (Hz) GPDC 2−>4 GPDC 1−>3 0.9 0.9 50 100 Frequência (Hz) 0.6 50 100 Frequência (Hz) GPDC 5−>3 0.3 0 0 0.9 50 100 Frequência (Hz) GPDC 5−>4 0.6 0 0 50 100 Frequência (Hz) GPDC 3−>2 0.9 GPDC 2−>5 GPDC 1−>2 0 0 0.3 GPDC 4−>1 0.3 0.6 GPDC 4−>2 0.6 0.9 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) GPDC 4−>5 0.9 GPDC 3−>1 GPDC 2−>1 Figura 18: Grafo direcionado representado o modelo 5. O índice de cada nó é equivalente a rede que ele representa. As setas pretas no grafo indicam as conexões do tipo excitatório-excitatório e as setas vermelhas indicam as conexões do tipo inibitório-excitatório. Nesse modelo temos as redes 1, 2, 3, 4 e 5 cujos parâmetros são apresentados na tabela 2. 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) Figura 19: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha preta pontilhada) versus a frequência para o modelo 5. A indicação da direção das interações é feita ao lado do eixo das ordenadas CAPÍTULO 4. experimentos computacionais e resultados 88 A fim de investigar a atividade da rede 2, apresentamos na tabela 3, os valores da taxa de disparo média para os casos da rede 2 isolada (modelo 1) e da rede 2 no modelo 6. As taxas de disparos foram calculadas da seguinte forma, primeiramente, verificamos a quantidade de disparos para cada tipo de neurônio (excitatório ou inibtório) e dividimos essas quantidades pelo número de neurônios correspondente. Somamos os resultados obtidos para os diferentes trials e dividimos pelo número de trials. Como podemos verificar através da tabela 3, houve uma diminuição na taxa de disparos na rede 2 do modelo 6. No entanto, apenas com essa análise, não podemos inferir os motivos pelos quais a influência da rede 2 sobre a rede 3, não pode ser estimada através dos valores GPDC. Para explorar esse caso, simulamos mais três modelos derivados do modelo 6, os modelos 6.a, 6.b e 6.c. O que diferencia esses modelos do modelo 6 original, são, em alguns casos, os tipos de conexões que a rede 2 envia ou recebe, e, em um outro caso, a quantidade de conexões que a rede 3 recebe da rede 2. Modelo 1 1 6 6 Tipo dos Neurônios Excitatórios Inibitórios Excitatórios Inibitórios Taxa de Disparos (Hz) 1, 59 6, 17 0, 95 5, 50 Tabela 3: Taxa de disparos média dos neurônios da rede 2. A primeira coluna da tabela corresponde ao modelo no qual foi avaliado a taxa de disparos dos neurônios da rede 2, a segunda coluna corresponde ao tipo de neurônios avaliados e na terceira coluna temos a taxa de disparos média dos neurônios da rede 2 para cada um dos casos. 4.3.6.1 Modelo 6.a No modelo 6.a substituímos as conexões inibitórias da rede 2 para a rede 3 por conexões excitatórias. Como dissemos anteriormente, o número de conexões excitatórias é maior do que o número de conexões inibitórias nos diferentes modelos. Sendo assim, esperamos que, substituindo o tipo de conexão, possamos verificar valores significativos para o GPDC médio relacionado a conexão da rede 2 para a rede 3. CAPÍTULO 4. experimentos computacionais e resultados 89 2 1 3 4 5 0.2 GPDC 1−>4 0 0 0.8 0.6 0.4 0.2 GPDC 1−>5 0 0 0.8 0.6 0.4 0.2 0 0 50 100 Frequência (Hz) 50 100 Frequência (Hz) 50 100 Frequência (Hz) 0.4 0.2 0.4 0.2 0 0 0.8 0.6 0.4 0.2 0 0 0.8 0.6 0.4 0.2 0 0 50 100 Frequência (Hz) 50 100 Frequência (Hz) GPDC 4−>3 0.6 50 100 Frequência (Hz) 50 100 Frequência (Hz) 0 0 0.8 0.6 0.4 0.2 0 0 0.8 0.6 0.4 0.2 0.8 0.6 0.4 0.2 0 0 0.8 0.6 0.4 0.2 0 0 GPDC 5−>1 0.2 0 0 50 100 Frequência (Hz) GPDC 3−>4 0.2 0.6 0.8 GPDC 3−>5 0.4 GPDC 2−>3 0.6 0.8 0 0 50 100 Frequência (Hz) GPDC 2−>4 GPDC 1−>3 0.8 0 0 0.4 50 100 Frequência (Hz) GPDC 5−>2 0.4 0.2 0.6 50 100 Frequência (Hz) GPDC 5−>3 0.6 0 0 50 100 Frequência (Hz) GPDC 3−>2 0.8 GPDC 2−>5 GPDC 1−>2 0 0 0.4 0.8 50 100 Frequência (Hz) GPDC 5−>4 0.2 0.6 GPDC 4−>1 0.4 0.8 GPDC 4−>2 0.6 50 100 Frequência (Hz) 0.8 0.6 0.4 0.2 0 0 50 100 Frequência (Hz) 0.8 0.6 0.4 0.2 0 0 50 100 Frequência (Hz) 0.8 0.6 0.4 0.2 0 0 50 100 Frequência (Hz) 0.8 0.6 0.4 0.2 0 0 50 100 Frequência (Hz) GPDC 4−>5 0.8 GPDC 3−>1 GPDC 2−>1 Figura 20: Grafo direcionado representado o modelo 6. O índice de cada nó é equivalente a rede que ele representa. As setas pretas no grafo indicam as conexões do tipo excitatório-excitatório e as setas vermelhas indicam as conexões do tipo inibitório-excitatório. Nesse modelo temos as redes 1, 2, 3, 4 e 5 cujos parâmetros são apresentados na tabela 2. 50 100 Frequência (Hz) 0.8 0.6 0.4 0.2 0 0 50 100 Frequência (Hz) Figura 21: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha preta pontilhada) versus a frequência para o modelo 6. A indicação da direção das interações é feita ao lado do eixo das ordenadas. CAPÍTULO 4. experimentos computacionais e resultados 90 No grafo da figura 22 são mostradas as conexões entre as redes. Podemos verificar através dos resultados apresentados nos gráficos da figura 23 que temos valores significativos para o GPDC médio da rede 2 para a rede 3. É interessante verificar que a taxa de disparos da rede 2 nesse modelo, não tem mudanças consideráveis em relação a rede 2 do modelo 6, pois a rede 2 continua recebendo o mesmo número de conexões inibitórias da rede 1. Devido ao fato da rede 3 receber mais conexões excitatórias, ocorre um aumento na atividade dos neurônios excitatórios da rede 3. Esses neurônios excitatórios, estão conectados com neurônios inibitórios fazendo com que a atividade desses também seja aumentada. Na tabela 4, são mostados os valores da taxa de disparos média para a rede 3 no modelo 6 e no modelo 6.a. O aumento da taxa de disparos é refletido no valor do GPDC médio da rede 3 para a rede 4. Diferente do que ocorre no modelo 6 onde temos um pico pequeno, no modelo 6.a, temos dois picos com valores relativamente altos para o GPDC médio. Os valores do GPDC médio para as outras conexões do modelo permanecem similares aos valores obtidos no modelo 6. Modelo 6 6 6.a 6.a Tipo dos Neurônios Excitatórios Inibitórios Excitatórios Inibitórios Taxa de Disparos (Hz) 2, 91 12, 23 4, 80 15, 98 Tabela 4: Taxa de disparos média dos neurônios da rede 3. A primeira coluna da tabela corresponde ao modelo no qual foi avaliado a taxa de disparos dos neurônios da rede 3, a segunda coluna corresponde ao tipo de neurônios avaliados e na terceira coluna temos a taxa de disparos média dos neurônios da rede 3 para cada um dos casos. 4.3.6.2 Modelo 6.b No modelo 6.b substituímos as conexões inibitórias da rede 1 para a rede 2 por conexões excitatórias. As conexões da rede 2 para a rede 3 foram mantidas como estavam no modelo 6. Na figura 24 é mostrado o grafo direcionada representando as conexões entre as redes que compõem o modelo. CAPÍTULO 4. experimentos computacionais e resultados 91 2 1 3 4 5 GPDC 5−>1 GPDC 5−>2 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) GPDC 5−>3 GPDC 4−>1 GPDC 4−>2 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) GPDC 5−>4 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) GPDC 4−>3 GPDC 3−>1 GPDC 3−>2 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) GPDC 4−>5 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) GPDC 3−>4 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) GPDC 3−>5 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) GPDC 2−>3 GPDC 1−>4 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) GPDC 2−>4 GPDC 1−>3 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) GPDC 2−>5 GPDC 1−>2 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) GPDC 1−>5 GPDC 2−>1 Figura 22: Grafo direcionado representado o modelo 6a. O índice de cada nó é equivalente a rede que ele representa. As setas pretas no grafo indicam as conexões do tipo excitatório-excitatório e as setas vermelhas indicam as conexões do tipo inibitório-excitatório. Nesse modelo temos as redes 1, 2, 3, 4 e 5 cujos parâmetros são apresentados na tabela 2. 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) 1 0.75 0.5 0.25 0 0 50 100 Frequência (Hz) Figura 23: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha preta pontilhada) versus a frequência para o modelo 6a. A indicação da direção das interações é feita ao lado do eixo das ordenadas CAPÍTULO 4. experimentos computacionais e resultados 92 Com esse modelo esperamos que as conexões excitatórias da rede 1 para a rede 2 façam com que a taxa de disparos dos neurônios excitatórios e dos neurônios inibitórios da rede 2 aumentem. Sendo assim, esperamos verificar um valor significativo do GPDC médio da rede 2 para a rede 3. Na figura 25 são mostrados os valores do GPDC médio para as diferentes conexões entre as redes do modelo 6.b. Como podemos verificar existem valores significativos do GPDC médio para a conexão da rede 2 em direção à rede 3. Com esse resultado reforçamos a idéia de que a taxa de disparos da rede que envia as conexões esta relacionada aos valores obtidos do GPDC médio. Diferente do modelo 6.a os valores do GPDC médio da rede 3 para a rede 4 permancem similares aos obtidos para o modelo 6. Isso ocorreu porque não há nenhuma mudança na atividade da rede 3. O GPDC médio para as outras conexões entre as redes têm valores similares aos obtidos no modelo 6 e 6.a. 4.3.6.3 Modelo 6.c No modelo 6.c mativemos as mesmas conexões do modelo 6, porém dobramos o número de conexões inibitórias que a rede 3 recebe da rede 2. O intuito dessa análise é verificar se mesmo quando a taxa de disparos da rede que envia as conexões (rede 2) diminui, é possível inferir a conectividade através do GPDC médio entre as redes, se aumentarmos o número de conexões entre elas. Na figura 26 mostramos o grafo direcionado representando as redes e as conexões entre elas para o modelo 6.c. A taxa de disparos média da rede 2 é aproximadamente igual a taxa da mesma rede nos modelos 6 e 6.a. Verificamos através da figura 27 que os valores do GPDC médio entre as redes 2 e 3, apesar de serem baixos, são estatisticamente significativos. Assim, podemos verificar que o aumento do número de conexões melhora a inferência da conectividade através dos valores do GPDC médio. A atividade dos neurônios da rede 3 é diminuída nesse modelo devido a forte influência inibitória da rede 2. Mesmo assim, é possível verificar através dos valores do GPDC médio a conexão entre a rede 3 e a rede 4. É interessante verificar também, que o aumento da influência inibitória sobre a rede 3 não faz com que seja diminuída as influências excitatórias, assim, o GPDC médio da rede 1 para a rede 3 permanece apresentando valores significativos. Isso decorre da CAPÍTULO 4. experimentos computacionais e resultados 93 2 1 3 4 5 50 100 Frequência (Hz) GPDC 3−>2 0.6 0.3 50 100 Frequência (Hz) 50 100 Frequência (Hz) GPDC 2−>4 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.6 0.3 0 0 50 100 Frequência (Hz) 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) GPDC 5−>1 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 GPDC 5−>4 0 0 0.9 GPDC 4−>3 0.3 50 100 Frequência (Hz) 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 GPDC 4−>5 0.6 0 0 0.9 GPDC 3−>4 GPDC 2−>3 0.9 GPDC 3−>5 0 0 0.3 0.9 GPDC 5−>2 0 0 0.6 GPDC 5−>3 0.3 0.9 GPDC 4−>1 0.6 GPDC 4−>2 GPDC 3−>1 0.9 0.9 GPDC 2−>5 GPDC 1−>5 GPDC 1−>4 GPDC 1−>3 GPDC 1−>2 GPDC 2−>1 Figura 24: Grafo direcionado representado o modelo 6b. O índice de cada nó é equivalente a rede que ele representa. As setas pretas no grafo indicam as conexões do tipo excitatório-excitatório e as setas vermelhas indicam as conexões do tipo inibitório-excitatório. Nesse modelo temos as redes 1, 2, 3, 4 e 5 cujos parâmetros são apresentados na tabela 2. 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) Figura 25: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha preta pontilhada) versus a frequência para o modelo 6b. A indicação da direção das interações é feita ao lado do eixo das ordenadas CAPÍTULO 4. experimentos computacionais e resultados 94 forma como são desenvolvidos esses métodos, onde a normalização é feita pela fonte da influência e não por quem a recebe. Nesse capítulo verificamos as relações dos métodos de conectividade com as características das redes e das interações entre as redes simuladas. Verificamos, para o caso de um modelo com apenas duas redes, que tanto para a causalidade de Granger quanto para o PDC, medidos na direção da influência do sinal, existe um aumento dos valores dos métodos de conectividade em relação ao aumento no peso sináptico. A correlação de Spearman [136] para esse caso apresenta resultados interessantes que podem estar relacionados com a diferença na frequência e na fase dos sinais. A coerência espectral máxima cresce a medida que aumentamos o peso sináptico entre as redes. Para a maioria dos modelos avaliados verificamos que é possível inferir as conexões através do GPDC médio. Essa medida falha em apenas um caso, onde a rede recebe e envia conexões inibitórias. Foi feita uma breve avaliação qualitativa, para alguns casos, da relação entre o GPDC médio e a taxa de disparos média das redes. CAPÍTULO 4. experimentos computacionais e resultados 95 2 1 3 4 5 50 100 Frequência (Hz) GPDC 3−>2 0.6 0.3 50 100 Frequência (Hz) 50 100 Frequência (Hz) GPDC 2−>4 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.6 0.3 0 0 50 100 Frequência (Hz) 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) GPDC 5−>1 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 GPDC 5−>4 0 0 0.9 GPDC 4−>3 0.3 50 100 Frequência (Hz) 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 GPDC 4−>5 0.6 0 0 0.9 GPDC 3−>4 GPDC 2−>3 0.9 GPDC 3−>5 0 0 0.3 GPDC 5−>2 0 0 0.6 0.9 GPDC 5−>3 0.3 GPDC 4−>1 0.6 0.9 GPDC 4−>2 GPDC 3−>1 0.9 0.9 GPDC 2−>5 GPDC 1−>5 GPDC 1−>4 GPDC 1−>3 GPDC 1−>2 GPDC 2−>1 Figura 26: Grafo direcionado representado o modelo 6c. O índice de cada nó é equivalente a rede que ele representa. Nesse modelo temos as redes 1, 2, 3, 4 e 5 cujos parâmetros são apresentados na tabela 2. As setas pretas no grafo indicam as conexões do tipo excitatório-excitatório e as setas vermelhas indicam as conexões do tipo inibitório-excitatório. A seta vermelha indicando a conexão da rede 2 para a rede 3 é mais grossa do que as demais, pois representa um número maior de conexões do tipo inibitórioexcitatório. 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) 0.9 0.6 0.3 0 0 50 100 Frequência (Hz) Figura 27: Gráficos do GPDC médio (linha contínua vermelha), da coerência espectral média (linha tracejada azul) e do valor crítico do GPDC médio (linha preta pontilhada) versus a frequência para o modelo 6c. A indicação da direção das interações é feita ao lado do eixo das ordenadas 5 CONCLUSÃO O principal objetivo deste trabalho foi investigar a aplicação dos métodos de conectividade: causalidade de Granger, coerência parcial direcionada (PDC) e coerência parcial direcionada generalizada (GPDC), em redes neuronais simuladas. Para simular os neurônios que compuseram as redes utilizamos o modelo matemático de Izhikevich. Através desse modelo foi possível representar diferentes classes eletrofisiológicas de padrões de potencias de ação dos neurônios. Foram criadas redes com 1000 e 2000 neurônios, além disso, variamos as classes de padrões de potenciais de ação dos neurônios e os parâmetros relativos à dinâmica do modelo, que eram, as quantidades de conexões entre os neurônios, os pesos sinápticos, os delays e os pesos relativos a influência externa sobre os neurônios das redes. Dessa forma obtivemos redes com diferentes comportamentos. O sinal de LFP (Local field potential) foi simulado através da média dos potenciais de membrana dos neurônios para cada uma das redes. Na primeira análise verificamos a relação entre a causalidade de Granger e o peso sináptico das conexões entre os neurônios excitatórios das diferentes redes. Para isso aplicamos a causalidade de Granger sobre os valores de LFP simulados para duas redes, rede A e rede B. Consideramos os casos em que as redes avaliadas tinham parâmetros equivalentes e o caso em que os parâmetros das redes eram diferentes. No experimento, as conexões partiam da rede A em direção a rede B. Verificamos que conforme aumentamos o peso sináptico, o valor da causalidade de Granger, da rede que enviava conexões (rede A) para a rede que recebia conexões (rede B), aumentava. Após uma determinado valor do peso sináptico, WEE ≈ 2, houve uma diminuição da taxa de variação da causalidade de Granger. Na avaliação da causalidade de Granger no sentido contrário (rede B para rede A), verificamos, como esperado, que não houve 96 CAPÍTULO 5. conclusão 97 mudanças significativas. Ou seja, os valores da causalidade de Granger permaneceram aproximadamente estáveis visto que não havia conexões da rede B para a rede A. Avaliamos a correlação de Spearman entre os sinais de LFP das redes neuronais utilizados na primeira análise. Verificamos que o comportamento da correlação em relação ao peso sináptico é diferente para o caso em que temos redes com parâmetros equivalentes e para o caso em que temos redes com parâmetros diferentes. No caso em que as redes têm parâmetros equivalentes os valores da correlação de Spearman cresceram até um determinado limiar e então permanecem estáveis. O valor do peso sináptico relativo ao começo do comportamento estável da correlação é próximo ao valor em que ocorre a diminuição da taxa de variação da causalidade de Granger no primeiro experimento. Nesse caso, o aumento da correlação pode estar relacionado a uma diminuição da diferença de fase entre os sinais que estão aproximadamente na mesma frequência. Para o caso em que as redes têm parâmetros diferentes, os valores da correlação decresceram para valores negativos. Isso pode estar relacionado ao fato de que os sinais avaliados nesse caso estão em frequências diferentes. Em ambos os casos avaliados, os valores da correlação de Spearman obtidos são baixos o que nos leva a concluir que a correlação entre os sinais é fraca. Utilizando os mesmos dados de LFP das redes, analisamos como os valores PDC e da coerência espectral se comportam quando aumentamos o peso sináptico entre os neurônios excitatórios das redes avaliadas. Tanto na análise do PDC quando na análise da coerência espectral, consideramos os valores máximos obtidos. Os valores do PDC máximo da rede A para a rede B cresceram rapidamente até valores próximos do valor máximo do PDC que é 1, isso ocorreu tanto para o caso em que as redes oscilam em frequências próximas quando para o caso em que as redes são diferentes. No sentido contrário, ou seja, da rede B para a rede A, os valores do PDC máximo tiveram comportamentos interessantes. Para o caso em que as redes oscilam em frequências próximas, quando o peso sináptico é próximo a 0, o PDC máximo apresentou um valor alto. Isso pode ocorrer devido ao fato da similaridade entre as redes neuronais, fazendo com que mesmo desconectadas seja possível prever os valores do sinal da rede A considerando os valores passados do sinal da rede B. Conforme aumentamos o peso sináptico, CAPÍTULO 5. conclusão 98 os sinais entre as redes ficaram cada vez mais heterogêneos, o sinal da rede B sofreu influência do sinal da rede A, porém o sinal da rede A não sofreu influência da rede B. Isso ocasionou em uma diminuição dos valores do PDC da rede B para a rede A. Para os valores do PDC máximo na direção da rede B para a rede A, no caso em que as redes eram diferentes, os valores iniciais do PDC máximo são baixos. Isso era esperado pois devido a diferenças nas redes neuronais, não seria possível prever os valores do sinal da rede A através dos valores passados do sinal da rede B. Verificamos, para ambos os casos, que a coerência espectral máxima cresceu em relação ao aumento no peso sináptico. Isso nos mostra que conforme aumentamos o peso sináptico entre os neurônios das diferentes redes, a sincronização entre os sinais dessas redes, para uma determinada frequência, aumenta. Nessas análises foram investigados os métodos de conectividade efetiva, que permitem inferir a direção da influência de um sistema neural sobre outro, e os métodos de conectividade funcional, que registram dependências estatísticas relacionadas a correlação e a coerência entre séries temporais advindas de diferentes redes neurais. Não foram feitas avaliações da significância estatística, pois queríamos observar o comportamento dos valores em relação ao aumento da influência de uma série sobre a outra e não se eles eram ou não estatisticamente significativos. Em uma segunda análise, criamos 9 modelos baseados nos modelos utilizados por Baccalá e Sameshima. Variamos o número de redes, o tipo e a quantidade de conexões entre essas redes, nos diferentes modelos. Observamos que a aplicação da coerência parcial direcionada (PDC) média sobre os dados simulados podem gerar resultados que variam de acordo com a escala das séries temporais. Assim, preferimos usar a coerência parcial direcionada média (GPDC) na maioria das análises que fizemos. Através do GPDC conseguimos recuperar a maioria das conexões entre as redes simuladas. Verificamos que os resultados condizem com a teoria da coerência parcial direcionada, no que se refere a normalização pela fonte da influência e não pelo alvo. Para um dos modelos, não conseguimos obter valores estatisticamente significativos do GPDC quando havia conexões entre as redes avaliadas. Nesse caso tínhamos uma situação em que a rede 2 recebia conexões inibitórias da rede 1 e enviava conexões inibitórias para a rede 3. Essa conexão da rede 2 para a rede 3 não foi possível de ser verificada CAPÍTULO 5. conclusão 99 através dos valores do GPDC médio. Investigamos através da criação de novos modelos baseados nesse último, quais as possíveis razões para a falha no inferência da conexão. Verificamos que para três modificações é possível verificar a conexão da rede 2 para a rede 3 são essas: (1) substituir as conexões inibitórias da rede 1 para a rede 2 por conexões excitatórias, (2) substituir as conexões inibitórias da rede 2 para a rede 3 por conexões excitatórios e (3) dobrar o número de conexões inibitórias da rede 2 para a rede 3. Devidos a esses resultados acreditamos que a inferência das conexões através do GPDC médio para o caso de redes neurais simuladas pode estar relacionada a taxa de disparos média dos neurônios que compõem as redes e a quantidade de conexões entre as redes. Observamos em alguns modelos que apesar de não haver um valor estatisticamente significativo do GPDC médio, existe um valor alto da coerência espectral média entre os sinais. Isso mostra que a coerência espectral não é uma boa medida para inferir as conexões reais entre as redes de neurônios. Concluindo, verificamos nesse trabalho que os métodos de conectividade apresentaram bons resultados quando aplicados a dados de LFP obtidos através de redes de neurônios simulados. Verificamos que nos casos em que a inferência das conexões falha, isso pode estar relacionado a taxa de disparo ou o número de conexões entre as redes neuronais. Como trabalhos futuros pretendemos investigar a performance do GPDC quando aplicados a rede de neurônios. Para isso usaremos a curva ROC [65] para avaliar a taxa de falsos positivos para as conexões entre as redes. Outra análise que efetuaremos consiste em verificar a relação dos métodos de conectividade com a fase e a frequência dos sinais considerados. Os resultados desse estudo podem nos dar informações para a aplicação dos métodos de conectividade na detecção de multiplexing entre sinais neurais [130]. REFERÊNCIAS BIBLIOGRÁFICAS 1 FRACKOWIAK, R.; FRISTON, K.; FRITH, C.; DOLAN, R.; PRICE, C.; ZEKI, S.; ASHBURNER, J.; PENNY, W. Human Brain Function. 2. ed. Burlington: Academic Press, 2004. Citado na página 1. 2 RAMNANI, N.; BEHRENS, T. E.; PENNY, W.; MATTHEWS, P. M. New approaches for exploring anatomical and functional connectivity in the human brain. Biological psychiatry, Elsevier, v. 56, n. 9, p. 613–619, 2004. Citado na página 1. 3 ESSEN, D. C. V.; UGURBIL, K. The future of the human connectome. Neuroimage, Elsevier, v. 62, n. 2, p. 1299–1310, 2012. Citado na página 1. 4 KLEINNIJENHUIS, M. Imaging fibres in the brain. Tese (Doutorado) — Radboud University Nijmegen, Nijmegen, Netherlands, 2014. Citado na página 2. 5 GRESCHNER, M.; SHLENS, J.; BAKOLITSA, C.; FIELD, G. D.; GAUTHIER, J. L.; JEPSON, L. H.; SHER, A.; LITKE, A. M.; CHICHILNISKY, E. Correlated firing among major ganglion cell types in primate retina. The Journal of Physiology, Wiley Online Library, v. 589, n. 1, p. 75–86, 2011. Citado na página 2. 6 REID, R. C.; ALONSO, J. M. et al. Specificity of monosynaptic connections from thalamus to visual cortex. Nature, Nature Publishing Group, v. 378, n. 6554, p. 281–283, 1995. Citado na página 2. 7 AERTSEN, A. M.; GERSTEIN, G. L.; HABIB, M. K.; PALM, G. Dynamics of neuronal firing correlation: modulation of "effective connectivity". Journal of Neurophysiology, American Physiological Society, v. 61, n. 5, p. 900–917, 1989. Citado na página 2. 8 KOHN, A.; SMITH, M. A. Stimulus dependence of neuronal correlation in primary visual cortex of the macaque. The Journal of Neuroscience, Society for Neuroscience, v. 25, n. 14, p. 3661–3673, 2005. Citado na página 2. 9 WANG, Y.; COHEN, J. D.; LI, K.; TURK-BROWNE, N. B. Full correlation matrix analysis of fmri data. Princeton, 2014. Citado na página 3. 10 GUEVARA, M. A.; CORSI-CABRERA, M. EEG coherence or EEG correlation? International Journal of Psychophysiology, Elsevier, v. 23, n. 3, p. 145–153, 1996. Citado na página 3. 11 GRANGER, C. W. Investigating causal relations by econometric models and cross-spectral methods. Econometrica: Journal of the Econometric Society, JSTOR, p. 424–438, 1969. Citado 7 vezes nas páginas 3, 4, 15, 16, 28, 29e 34. 100 Referências Bibliográficas 101 12 COBEN, R.; MOHAMMAD-REZAZADEH, I. Neural connectivity in epilepsy as measured by granger causality. Frontiers in Human Neuroscience, Frontiers Media SA, v. 9, 2015. Citado na página 4. 13 COBEN, R.; MOHAMMAD-REZAZADEH, I.; CANNON, R. L. Using quantitative and analytic eeg methods in the understanding of connectivity in autism spectrum disorders: a theory of mixed over-and under-connectivity. Frontiers in Human Nuroscience, Frontiers Media SA, v. 8, 2014. Citado na página 4. 14 MIAO, X.; WU, X.; LI, R.; CHEN, K.; YAO, L. Altered connectivity pattern of hubs in default-mode network with alzheimer’s disease: an granger causality modeling approach. PloS one, Public Library of Science, v. 6, n. 10, p. e25546, 2011. Citado na página 4. 15 CADOTTE, A. J.; DEMARSE, T. B.; MARECI, T. H.; PAREKH, M. B.; TALATHI, S. S.; HWANG, D.-U.; DITTO, W. L.; DING, M.; CARNEY, P. R. Granger causality relationships between local field potentials in an animal model of temporal lobe epilepsy. Journal of Neuroscience Methods, Elsevier, v. 189, n. 1, p. 121–129, 2010. Citado na página 4. 16 BARNETT, L.; SETH, A. K. The mvgc multivariate granger causality toolbox: a new approach to granger-causal inference. Journal of Neuroscience Methods, Elsevier, v. 223, p. 50–68, 2014. Citado 3 vezes nas páginas 4, 6e 24. 17 GUO, S.; SETH, A. K.; KENDRICK, K. M.; ZHOU, C.; FENG, J. Partial granger causality—eliminating exogenous inputs and latent variables. Journal of Neuroscience Methods, Elsevier, v. 172, n. 1, p. 79–93, 2008. Citado 3 vezes nas páginas 4, 5e 32. 18 KRISHNA, R.; GUO, S. A partial granger causality approach to explore causal networks derived from multi-parameter data. In: INTERNATIONAL CONFERENCE COMPUTATIONAL METHODS IN SYSTEMS BIOLOGY, 6., 2008. Rostock, Germany: Springer Berlin Heidelberg, 2008. p. 9–27. Citado na página 5. 19 YOUSSOFZADEH, V.; PRASAD, G.; NAEEM, M.; WONG-LIN, K. Partial granger causality analysis for brain connectivity based on event related potentials. In: CONGRESS OF NEUROINFORMATICS, 6., 2013. Stockholm, Sweden: Karolinska Institutet, 2013. Citado na página 5. 20 ROELSTRAETE, B.; ROSSEEL, Y. Does partial granger causality really eliminate the influence of exogenous inputs and latent variables? Journal of Neuroscience Methods, Elsevier, v. 206, n. 1, p. 73–77, 2012. Citado 3 vezes nas páginas 5, 32e 33. 21 KAYSER, A. S.; SUN, F. T.; D’ESPOSITO, M. A comparison of granger causality and coherency in fmri-based analysis of the motor system. Human Brain Mapping, Wiley Online Library, v. 30, n. 11, p. 3475–3494, 2009. Citado na página 5. Referências Bibliográficas 102 22 NOLTE, G.; ZIEHE, A.; KRÄMER, N.; POPESCU, F.; MÜLLER, K.-R. Comparison of granger causality and phase slope index. In: CITESEER. NIPS Causality: Objectives and Assessment. British Columbia, Canada, 2010. p. 267–276. Citado na página 5. 23 SCHREIBER, T. Measuring information transfer. Physical Review Letters, APS, v. 85, n. 2, p. 461, 2000. Citado na página 5. 24 BARNETT, L.; BARRETT, A. B.; SETH, A. K. Granger causality and transfer entropy are equivalent for gaussian variables. Physical Review Letters, APS, v. 103, n. 23, p. 238701, 2009. Citado 5 vezes nas páginas 5, 12, 14, 16e 31. 25 HLAVÁCKOVÁ-SCHINDLER, K. Equivalence of granger causality and transfer entropy: a generalization. Applied Mathematical Sciences, v. 5, n. 73, p. 3637–3648, 2011. Citado na página 5. 26 SETH, A. K. A matlab toolbox for granger causal connectivity analysis. Journal of Neuroscience Methods, Elsevier, v. 186, n. 2, p. 262–273, 2010. Citado na página 6. 27 GUIDE, M. U. The mathworks. Inc., Natick, MA, v. 5, p. 333, 1998. Citado na página 6. 28 NISO, G.; BRUÑA, R.; PEREDA, E.; GUTIÉRREZ, R.; BAJO, R.; MAESTÚ, F.; POZO, F. del. Hermes: towards an integrated toolbox to characterize functional and effective brain connectivity. Neuroinformatics, Springer, v. 11, n. 4, p. 405–434, 2013. Citado na página 6. 29 OOSTENVELD, R.; FRIES, P.; MARIS, E.; SCHOFFELEN, J. M. Fieldtrip: open source software for advanced analysis of meg, eeg, and invasive electrophysiological data. Computational Intelligence and Neuroscience, Hindawi Publishing Corporation, v. 2011, 2010. Citado na página 6. 30 CUI, J.; XU, L.; BRESSLER, S. L.; DING, M.; LIANG, H. Bsmart: a matlab/C toolbox for analysis of multichannel neural time series. Neural Networks, Elsevier, v. 21, n. 8, p. 1094–1104, 2008. Citado na página 6. 31 SEABOLD, S.; PERKTOLD, J. Statsmodels: Econometric and statistical modeling with python. In: SCIPY, 9., 2010. Proceedings of the 9th Python in Science Conference. [S.l.], 2010. p. 57–61. Citado na página 6. 32 PFAFF, B. et al. VAR, SVAR and SVEC models: Implementation within R package vars. Journal of Statistical Software, v. 27, n. 4, p. 1–32, 2008. Citado na página 6. 33 SAITO, Y.; HARASHIMA, H. Tracking of information within multichannel EEG record causal analysis in EEG. Recent advances in EEG and EMG data processing. Elsevier, Elsevier, p. 133–146, 1981. Citado 4 vezes nas páginas 6, 7, 35e 38. 34 KAMIŃSKI, M.; DING, M.; TRUCCOLO, W. A.; BRESSLER, S. L. Evaluating causal relations in neural systems: Granger causality, directed transfer function and Referências Bibliográficas 103 statistical assessment of significance. Biological Cybernetics, Springer, v. 85, n. 2, p. 145–157, 2001. Citado 3 vezes nas páginas 6, 7e 8. 35 BACCALÁ, L. A.; SAMESHIMA, K. Partial directed coherence: a new concept in neural structure determination. Biological Cybernetics, Springer, v. 84, n. 6, p. 463–474, 2001. Citado 8 vezes nas páginas 6, 7, 8, 28, 38, 39, 40e 76. 36 GEWEKE, J. Measurement of linear dependence and feedback between multiple time series. Journal of the American Statistical Association, Taylor & Francis, v. 77, n. 378, p. 304–313, 1982. Citado 2 vezes nas páginas 6e 30. 37 MATIAS, F. S.; GOLLO, L. L.; CARELLI, P. V.; BRESSLER, S. L.; COPELLI, M.; MIRASSO, C. R. Modeling positive granger causality and negative phase lag between cortical areas. NeuroImage, v. 99, p. 411 – 418, 2014. Citado 3 vezes nas páginas 7, 51e 58. 38 BROVELLI, A.; DING, M.; LEDBERG, A.; CHEN, Y.; NAKAMURA, R.; BRESSLER, S. L. Beta oscillations in a large-scale sensorimotor cortical network: directional influences revealed by granger causality. Proceedings of the National Academy of Sciences of the United States of America, National Academy Sciences, v. 101, n. 26, p. 9849–9854, 2004. Citado 2 vezes nas páginas 7e 34. 39 CHEN, Y.; BRESSLER, S. L.; DING, M. Frequency decomposition of conditional granger causality and application to multivariate neural field potential data. Journal of Neuroscience Methods, Elsevier, v. 150, n. 2, p. 228–237, 2006. Citado na página 7. 40 SAMESHIMA, K.; BACCALA, L. A. Methods in brain connectivity inference through multivariate time series analysis. [S.l.]: CRC press, 2014. Citado 5 vezes nas páginas 7, 8, 9, 38e 40. 41 SCHNIDER, S.; KWONG, R.; KWAN, H.; LENZ, F. Detection of feedback in the central nervous system of parkinsonian patients. In: IEEE CONFERENCE ON DECISION AND CONTROL, 25., 1986. Athens, Greece, 1986. p. 291–294. Citado na página 7. 42 WHALEY, M. L. Applying the Short-Time Direct Directed Transfer Function to Human Electrocorticographic Recordings from a Language Task. Tese (Doutorado) — Rice University, Houston, United States, 2012. Citado na página 8. 43 PETTI, M.; CASCHERA, S.; ANZOLIN, A.; TOPPI, J.; PICHIORRI, F.; BABILONI, F.; CINCOTTI, F.; MATTIA, D.; ASTOLFI, L. Effect of inter-trials variability on the estimation of cortical connectivity by partial directed coherence. In: IEEE, 37., 2015. Engineering in Medicine and Biology Society (EMBC), Annual International Conference of the IEEE. Milan, Spain, 2015. p. 3791–3794. Citado na página 8. 44 WANG, G.; SUN, Z.; TAO, R.; LI, K.; BAO, G.; YAN, X. Epileptic seizure detection based on partial directed coherence analysis. IEEE, 2015. Citado na página 8. Referências Bibliográficas 104 45 BACCALÁ, L. Generalized partial directed coherence. In: IEEE, 15., 2007. Digital Signal Processing, 2007 15th International Conference on. Cardiff,Wales, 2007. p. 163–166. Citado 3 vezes nas páginas 8, 40e 77. 46 TAKAHASHI, D. Y.; BACCALÁ, L. A.; SAMESHIMA, K. Information theoretic interpretation of frequency domain connectivity measures. Biological Cybernetics, Springer, v. 103, n. 6, p. 463–469, 2010. Citado na página 8. 47 FAES, L.; NOLLO, G. Extended causal modeling to assess partial directed coherence in multiple time series with significant instantaneous interactions. Biological Cybernetics, Springer, v. 103, n. 5, p. 387–400, 2010. Citado na página 9. 48 FAES, L.; ERLA, S.; PORTA, A.; NOLLO, G. A framework for assessing frequency domain causality in physiological time series with instantaneous effects. Philosophical Transactions of the Royal Society of London A: Mathematical, Physical and Engineering Sciences, The Royal Society, v. 371, n. 1997, p. 20110618, 2013. Citado na página 9. 49 DAVID, O.; COSMELLI, D.; FRISTON, K. J. Evaluation of different measures of functional connectivity using a neural mass model. Neuroimage, Elsevier, v. 21, n. 2, p. 659–673, 2004. Citado 2 vezes nas páginas 9e 10. 50 DAVID, O.; FRISTON, K. J. A neural mass model for meg/eeg:: coupling and neuronal dynamics. NeuroImage, Elsevier, v. 20, n. 3, p. 1743–1755, 2003. Citado na página 9. 51 CARTER, G. C. Coherence and time delay estimation. Proceedings of the IEEE, IEEE, v. 75, n. 2, p. 236–255, 1987. Citado na página 10. 52 ROULSTON, M. S. Estimating the errors on measured entropy and mutual information. Physica D: Nonlinear Phenomena, Elsevier, v. 125, n. 3, p. 285–294, 1999. Citado 2 vezes nas páginas 10e 12. 53 RULKOV, N. F.; SUSHCHIK, M. M.; TSIMRING, L. S.; ABARBANEL, H. D. Generalized synchronization of chaos in directionally coupled chaotic systems. Physical Review E, APS, v. 51, n. 2, p. 980, 1995. Citado na página 10. 54 PIKOVSKY, A.; ROSENBLUM, M.; KURTHS, J. Synchronization: a universal concept in nonlinear sciences. [S.l.]: Cambridge University Press, 2003. Citado na página 10. 55 SETH, A. K. Causal networks in simulated neural systems. Cognitive Neurodynamics, Springer, v. 2, n. 1, p. 49–64, 2008. Citado 2 vezes nas páginas 10e 11. 56 KRICHMAR, J. L.; SETH, A. K.; NITZ, D. A.; FLEISCHER, J. G.; EDELMAN, G. M. Spatial navigation and causal analysis in a brain-based device modeling cortical-hippocampal interactions. Neuroinformatics, Springer, v. 3, n. 3, p. 197–221, 2005. Citado na página 10. Referências Bibliográficas 105 57 KRICHMAR, J. L.; EDELMAN, G. M. Machine psychology: autonomous behavior, perceptual categorization and conditioning in a brain-based device. Cerebral Cortex, Oxford University Press, v. 12, n. 8, p. 818–830, 2002. Citado na página 11. 58 CADOTTE, A. J.; DEMARSE, T. B.; HE, P.; DING, M. Causal measures of structure and plasticity in simulated and living neural networks. PloS one, Public Library of Science, v. 3, n. 10, p. e3355, 2008. Citado 3 vezes nas páginas 11, 12e 17. 59 IZHIKEVICH, E. Simple model of spiking neurons. IEEE Transactions on Neural Networks, v. 14, n. 6, p. 1569–1572, 2003. Citado 9 vezes nas páginas 11, 13, 14, 15, 17, 47, 51, 57e 59. 60 GAROFALO, M.; NIEUS, T.; MASSOBRIO, P.; MARTINOIA, S. Evaluation of the performance of information theory-based methods and cross-correlation to estimate the functional connectivity in cortical networks. PloS one, Public Library of Science, v. 4, n. 8, p. e6482, 2009. Citado 2 vezes nas páginas 12e 14. 61 TOYAMA, K.; KIMURA, M.; TANAKA, K. Cross-correlation analysis of interneuronal connectivity in cat visual cortex. Journal of Neurophysiology, v. 46, n. 2, p. 191–201, 1981. Citado 3 vezes nas páginas 13, 15e 27. 62 HAHNLOSER, R. H. Cross-intensity functions and the estimate of spike-time jitter. Biological Cybernetics, Springer, v. 96, n. 5, p. 497–506, 2007. Citado na página 13. 63 FAWCETT, T. An introduction to roc analysis. Pattern Recognition Letters, Elsevier, v. 27, n. 8, p. 861–874, 2006. Citado na página 13. 64 IZHIKEVICH, E. M. Polychronization: Computation with spikes. Neural Computation, MIT Press, v. 18, n. 2, p. 245–282, 2006. Citado 5 vezes nas páginas 14, 51, 53, 58e 63. 65 ITO, S.; HANSEN, M. E.; HEILAND, R.; LUMSDAINE, A.; LITKE, A. M.; BEGGS, J. M. Extending transfer entropy improves identification of effective connectivity in a spiking cortical network model. PloS one, Public Library of Science, v. 6, n. 11, p. e27431, 2011. Citado 2 vezes nas páginas 15e 99. 66 WU, X.; WANG, W.; ZHENG, W. X. Inferring topologies of complex networks with hidden variables. Physical Review E, APS, v. 86, n. 4, p. 046106, 2012. Citado na página 15. 67 RAUCH, J.; SMOLLER, J. Qualitative theory of the fitzhugh-nagumo equations. Advances in Mathematics, Elsevier, v. 27, n. 1, p. 12–44, 1978. Citado na página 15. 68 KIM, S.; PUTRINO, D.; GHOSH, S.; BROWN, E. N. A granger causality measure for point process models of ensemble neural spiking activity. PLoS Comput Biol, Public Library of Science, v. 7, n. 3, p. e1001110, 2011. Citado na página 16. Referências Bibliográficas 106 69 SHAO, P.-C.; HUANG, J.-J.; SHANN, W.-C.; YEN, C.-T.; TSAI, M.-L.; YEN, C.-C. Granger causality-based synaptic weights estimation for analyzing neuronal networks. Journal of Computational Neuroscience, Springer, v. 38, n. 3, p. 483–497, 2015. Citado na página 16. 70 PARK, I. M.; SETH, S.; PAIVA, A.; LI, L.; PRINCIPE, J. Kernel methods on spike train space for neuroscience: a tutorial. Signal Processing Magazine, IEEE, IEEE, v. 30, n. 4, p. 149–160, 2013. Citado na página 17. 71 SHIMAZAKI, H.; SHINOMOTO, S. A method for selecting the bin size of a time histogram. Neural computation, MIT Press, v. 19, n. 6, p. 1503–1527, 2007. Citado na página 17. 72 LAPICQUE, L. Recherches quantitatives sur l’excitation electrique des nerfs traitee comme une polarization. Journal de Physiologie et de Pathologie Générale, v. 9, p. 620–635, 1907. Citado 3 vezes nas páginas 17, 44e 45. 73 KIRCHGÄSSNER, G.; WOLTERS, J.; HASSLER, U. Introduction to modern time series analysis. [S.l.]: Springer Science & Business Media, 2008. Citado na página 20. 74 EHLERS, R. S. Análise de séries temporais. Laboratório de Estatística e Geoinformação. Universidade Federal do Paraná, 2007. Citado na página 20. 75 MORETTIN, P. A.; TOLOI, C. Análise de séries temporais. 2. ed. [S.l.]: Edgard Blücher, 2006. Citado 2 vezes nas páginas 20e 21. 76 KOOPMANS, L. H. The spectral analysis of time series. 1. ed. San Diego: Academic press, 1995. Citado na página 20. 77 POLLOCK, D. S. G.; GREEN, R. C.; NGUYEN, T. Handbook of time series analysis, signal processing, and dynamics. [S.l.]: Academic Press, 1999. Citado 4 vezes nas páginas 21, 23, 29e 30. 78 HAMILTON, J. D. Time series analysis. 1. ed. Princeton: Princeton University Press, 1994. Citado na página 22. 79 SHUMWAY, R. H.; STOFFER, D. S. Time series analysis and its applications: with R examples. 3. ed. [S.l.]: Springer Science & Business Media, 2010. Citado 2 vezes nas páginas 22e 27. 80 BRESSLER, S. L.; RICHTER, C. G.; CHEN, Y.; DING, M. Cortical functional network organization from autoregressive modeling of local field potential oscillations. Statistics in medicine, Citeseer, v. 26, n. 21, p. 3875–3885, 2007. Citado na página 24. 81 HUBERDEAU, D.; WALKER, H.; HUANG, H.; MONTGOMERY, E.; SARMA, S. V. Analysis of local field potential signals: A systems approach. In: ENGINEERING IN MEDICINE AND BIOLOGY SOCIETY, 2011. 2011 Annual International Conference of the IEEE. [S.l.], 2011. Citado na página 24. Referências Bibliográficas 107 82 SCHLÖGL, A. The electroencephalogram and the adaptive autoregressive model: theory and applications. Aachen, Germany: Shaker, 2000. Citado na página 24. 83 STOICA, P.; MOSES, R. L. Spectral analysis of signals. 1. ed. [S.l.]: Prentice Hall, 2005. Citado na página 25. 84 COHEN, M. X. Analyzing neural time series data: theory and practice. [S.l.]: MIT Press, 2014. Citado na página 25. 85 DRONGELEN, W. V. Signal processing for neuroscientists: an introduction to the analysis of physiological signals. Burlington: Academic press, 2006. Citado na página 25. 86 COOLEY, J. W.; TUKEY, J. W. An algorithm for the machine calculation of complex fourier series. Mathematics of computation, JSTOR, v. 19, n. 90, p. 297–301, 1965. Citado na página 26. 87 SÁ, A. M. F.; SIMPSON, D.; INFANTOSI, A. F. C. Estudo da função de coerência aplicada a sinais eeg. Research on Biomedical Engineering, SBEB, v. 10, n. 2, p. 39–55, 1994. Citado na página 27. 88 DUCKROW, R. B.; SPENCER, S. S. Regional coherence and the transfer of ictal activity during seizure onset in the medial temporal lobe. Electroencephalography and clinical neurophysiology, Elsevier, v. 82, n. 6, p. 415–422, 1992. Citado na página 27. 89 SILVA, F. L. D.; LIEROP, T. V.; SCHRIJER, C.; LEEUWEN, W. S. V. Organization of thalamic and cortical alpha rhythms: spectra and coherences. Electroencephalography and clinical neurophysiology, Elsevier, v. 35, n. 6, p. 627–639, 1973. Citado na página 27. 90 BARLOW, J. S. Computerized clinical electroencephalography in perspective. Biomedical Engineering, IEEE Transactions on, IEEE, n. 7, p. 377–391, 1979. Citado na página 28. 91 GE, T.; KENDRICK, K. M.; FENG, J. A novel extended granger causal model approach demonstrates brain hemispheric differences during face recognition learning. PLoS Comput Biol, Public Library of Science, v. 5, n. 11, p. e1000570, 2009. Citado na página 28. 92 ZOU, C. Applications of Granger causality to biological data. Tese (Doutorado) — University of Warwick, 2010. Citado na página 28. 93 GOEBEL, R.; ROEBROECK, A.; KIM, D.-S.; FORMISANO, E. Investigating directed cortical interactions in time-resolved fmri data using vector autoregressive modeling and granger causality mapping. Magnetic resonance imaging, Elsevier, v. 21, n. 10, p. 1251–1261, 2003. Citado na página 29. 94 SCHELTER, B.; WINTERHALDER, M.; TIMMER, J. Handbook of time series analysis: recent theoretical developments and applications. [S.l.]: John Wiley & Sons, 2006. Citado na página 29. Referências Bibliográficas 108 95 KIM, S.; PUTRINO, D.; GHOSH, S.; BROWN, E. N. A granger causality measure for point process models of ensemble neural spiking activity. PLoS Comput Biol, Public Library of Science, v. 7, n. 3, p. e1001110, 2011. Citado na página 29. 96 WIENER, N. The theory of prediction. Modern mathematics for engineers, McGraw-Hill New York, v. 1, p. 125–139, 1956. Citado na página 29. 97 DING, M.; BRESSLER, S. L.; YANG, W.; LIANG, H. Short-window spectral analysis of cortical event-related potentials by adaptive multivariate autoregressive modeling: data preprocessing, model validation, and variability assessment. Biological cybernetics, Springer, v. 83, n. 1, p. 35–45, 2000. Citado na página 30. 98 ROEBROECK, A.; FORMISANO, E.; GOEBEL, R. The identification of interacting networks in the brain using fmri: model selection, causality and deconvolution. Neuroimage, Elsevier, v. 58, n. 2, p. 296–302, 2011. Citado na página 32. 99 PEARL, J. Causality: models, reasoning and inference. Economet. Theor, Cambridge Univ Press, v. 19, p. 675–685, 2003. Citado na página 32. 100 KENDALL, M.; STUART, A. Vol. 2: Inference and relationship. London: Griffin, 1961. Citado na página 32. 101 BRESSLER, S. L.; SETH, A. K. Wiener–granger causality: a well established methodology. Neuroimage, Elsevier, v. 58, n. 2, p. 323–329, 2011. Citado na página 32. 102 AKAIKE, H. A new look at the statistical model identification. Automatic Control, IEEE Transactions on, Ieee, v. 19, n. 6, p. 716–723, 1974. Citado na página 33. 103 SCHWARZ, G. et al. Estimating the dimension of a model. The annals of statistics, Institute of Mathematical Statistics, v. 6, n. 2, p. 461–464, 1978. Citado na página 33. 104 HURVICH, C. M.; TSAI, C.-L. Regression and time series model selection in small samples. Biometrika, Biometrika Trust, v. 76, n. 2, p. 297–307, 1989. Citado na página 34. 105 STOREY, J. D. A direct approach to false discovery rates. Journal of the Royal Statistical Society: Series B (Statistical Methodology), Wiley Online Library, v. 64, n. 3, p. 479–498, 2002. Citado na página 34. 106 ANDERSON, M. J.; ROBINSON, J. Permutation tests for linear models. Australian & New Zealand Journal of Statistics, Wiley Online Library, v. 43, n. 1, p. 75–88, 2001. Citado na página 34. 107 EFRON, B.; EFRON, B. The jackknife, the bootstrap and other resampling plans. [S.l.]: SIAM, 1982. Citado na página 34. 108 WANG, G.; TAKIGAWA, M. Directed coherence as a measure of interhemispheric correlation of eeg. International journal of psychophysiology, Elsevier, v. 13, n. 2, p. 119–128, 1992. Citado na página 38. Referências Bibliográficas 109 109 HAUFE, S.; NIKULIN, V.; NOLTE, G. Identifying brain effective connectivity patterns from eeg: performance of granger causality, dtf, pdc and psi on simulated data. BMC Neuroscience, BioMed Central Ltd, v. 12, n. Suppl 1, p. P141, 2011. Citado na página 40. 110 HOERZER, G. M.; LIEBE, S.; SCHLOEGL, A.; LOGOTHETIS, N. K.; RAINER, G. Directed coupling in local field potentials of macaque v4 during visual short-term memory revealed by multivariate autoregressive models. Frontiers in Computational Neuroscience, v. 4, n. 14, 2010. Citado na página 40. 111 SATO, J. R.; TAKAHASHI, D. Y.; ARCURI, S. M.; SAMESHIMA, K.; MORETTIN, P. A.; BACCALÁ, L. A. Frequency domain connectivity identification: an application of partial directed coherence in fmri. Human brain mapping, Wiley Online Library, 30, n. 2, p. 452– 461, 2009. Citado 2 vezes nas páginas 40e 43. 112 TAKAHASHI, D. Y.; BACCALÁ, L. A.; SAMESHIMA, K. Partial directed coherence asymptotics for var processes of infinite order. International Journal of Bioelectromagnetism, v. 10, n. 1, p. 31–36, 2008. Citado na página 41. 113 GANDER, W. Algorithms for the qr decomposition. Res. Rep, v. 80, n. 02, p. 1251–1268, 1980. Citado na página 41. 114 FAES, L.; NOLLO, G. Multivariate frequency domain analysis of causal interactions in physiological time series. [S.l.]: INTECH Open Access Publisher, 2011. Citado na página 42. 115 HODGKIN, A. L.; HUXLEY, A. F. A quantitative description of membrane current and its application to conduction and excitation in nerve. The Journal of Physiology, v. 117, n. 4, p. 500–544, 1952. Citado 2 vezes nas páginas 44e 47. 116 SCHUTTER, E. D. (Ed.). Computational modeling methods for neuroscientists. [S.l.]: The MIT Press, 2009. Citado na página 44. 117 BENDA, J.; BETHGE, M.; HENNIG, M.; PAWELZIK, K.; HERZ, A. V. Spike-frequency adaptation: phenomenological model and experimental tests. Neurocomputing, Elsevier, v. 38, p. 105–110, 2001. Citado na página 45. 118 BRETTE, R. What is the most realistic single-compartment model of spike initiation? PLoS Comput Biol, Public Library of Science, v. 11, n. 4, p. e1004114, 2015. Citado na página 45. 119 BURKITT, A. N. A review of the integrate-and-fire neuron model: I. homogeneous synaptic input. Biological Cybernetics, v. 95, n. 1, p. 1–19, 2006. Citado na página 46. 120 ROQUE, A. Notas de Aula de Introdução à Neurociência Computacional. [S.l.]: Universidade de São Paulo, Ribeirão Preto, 2015. Citado na página 46. Referências Bibliográficas 110 121 IZHIKEVICH, E. Which model to use for cortical spiking neurons? IEEE Transactions on Neural Networks,, v. 15, n. 5, p. 1063–1070, 2004. Citado 5 vezes nas páginas 46, 48, 50, 51e 52. 122 TOMOV, P.; PENA, R. F. D. O.; ZAKS, M. A.; ROQUE, A. C. Sustained oscillations, irregular firing and chaotic dynamics in hierarchical modular networks with mixtures of electrophysiological cell types. Frontiers in Computational Neuroscience, v. 8, n. 103, 2014. Citado 2 vezes nas páginas 48e 51. 123 RULKOV, N. F. Regularization of synchronized chaotic bursts. Phys. Rev. Lett., American Physical Society, v. 86, p. 183–186, Jan 2001. Citado na página 48. 124 SZATMáRY, B.; IZHIKEVICH, E. M. Spike-timing theory of working memory. PLoS Computational Biology, Public Library of Science, v. 6, p. e1000879, 08 2010. Citado na página 53. 125 BEAR, M. F.; CONNORS, B. W.; PARADISO, M. A. Neuroscience. 3. ed. [S.l.]: Lippincott Williams & Wilkins, 2006. Citado 3 vezes nas páginas 53, 54e 56. 126 LENT, R. Cem Bilhões de Neurônios. Conceitos Fundamentais de Neurociência. [S.l.]: Brasil: Editora Atheneu, 2001. Citado 2 vezes nas páginas 54e 56. 127 EECKMAN, F. Analysis and modeling of neural systems. [S.l.]: Springer Science & Business Media, 1993. Citado na página 56. 128 QU, J.; WANG, R.; YAN, C.; DU, Y. Oscillations and synchrony in a cortical neural network. Cognitive Neurodynamics, v. 8, n. 2, p. 157–166, 2013. Citado na página 57. 129 EGUÍLUZ, V. M.; CHIALVO, D. R.; CECCHI, G. A.; BALIKI, M.; APKARIAN, A. V. Scale-free brain functional networks. Phys. Rev. Lett., American Physical Society, v. 94, p. 018102, Jan 2005. Citado na página 57. 130 AKAM, T.; KULLMANN, D. M. Oscillatory multiplexing of population codes for selective communication in the mammalian brain. Nature Reviews Neuroscience, Nature Publishing Group, v. 15, n. 2, p. 111–122, 2014. Citado 3 vezes nas páginas 57, 58e 99. 131 IZHIKEVICH, E. Weakly pulse-coupled oscillators, fm interactions, synchronization, and oscillatory associative memory. Neural Networks, IEEE Transactions on, v. 10, n. 3, p. 508–526, 1999. Citado na página 58. 132 HOPPENSTEADT, F.; IZHIKEVICH, E. Pattern recognition via synchronization in phase-locked loop neural networks. Neural Networks, IEEE Transactions on, v. 11, n. 3, p. 734–738, 2000. Citado na página 58. 133 KOCH, C.; SEGEV, I. Methods in neuronal modeling: from ions to networks. 2. ed. [S.l.]: MIT press, 1998. Citado 2 vezes nas páginas 60e 61. Referências Bibliográficas 111 134 BOWER, J. M.; BEEMAN, D. The book of GENESIS: exploring realistic neural models with the GEneral NEural SImulation System. [S.l.]: Springer Science & Business Media, 2012. Citado na página 60. 135 AKAM, T.; KULLMANN, D. M. Oscillations and filtering networks support flexible routing of information. Neuron, Elsevier, v. 67, n. 2, p. 308–320, 2010. Citado na página 63. 136 SPEARMAN, C. Correlation calculated from faulty data. British Journal of Psychology, 1904-1920, Wiley Online Library, v. 3, n. 3, p. 271–295, 1910. Citado 2 vezes nas páginas 71e 94.