+5 - Bacharelado em Ciência da Computação

Propaganda
Universidade Federal do ABC
Rua Santa Adélia, 166 - Bairro Bangu - Santo André - SP - Brasil
CEP 09.210-170 - Telefone/Fax: +55 11 4996-3166
1. CÓDIGO E NOME DA DISCIPLINA
BC1506 - COMPUTAÇÃO EVOLUTIVA E CONEXIONISTA
2. DISCIPLINA REQUISITO (RECOMENDAÇÃO)
.
3. INDICAÇÃO DE CONJUNTO (BCC)
Opção Limitada
4. CURSO
5. CRÉDITOS
BACHARELADO EM CIÊNCIA DA COMPUTAÇÃO T P I: 4-0-4
6. QUADRIMESTRE IDEAL
7. NÍVEL
Graduação
8. Nº. MÁXIMO DE ALUNOS POR TURMA
TEORIA: 60 alunos
LABORATÓRIO: 30 alunos
9. OBJETIVOS
Proporcionar ao aluno um domínio teórico-prático de tópicos fundamentais das redes neurais e dos
algoritmos genéticos. Considerando-se a existência de múltiplos modelos conexionistas e
evolutivos, esta disciplina pretende fornecer ao aluno não somente as peculiaridades, mas também
os princípios gerais de funcionamento destes modelos, que poderão permitir ao aluno a criação de
novos modelos de redes neurais. Devido a característica multidisciplinar da disciplina, pretende-se
proporcionar ao aluno um conhecimento mínimo sobre neurociência e informação genética, a fim
de que ele possa contextualizar os modelos artificiais de redes neurais e algoritmos genéticos que
ele venha a desenvolver no futuro.
10. COMPETÊNCIAS
Ao final da disciplina o aluno deverá ser capaz de aplicar os conceitos e técnicas de Inteligência
Artificial Conexionista, dando ênfase ao projeto e à construção de sistemas com aplicabilidade na
prática.
11. PROGRAMA RESUMIDO (EMENTA)
Redes neurais artificiais. Algoritmos genéticos.
12. PROGRAMA
1. Redes neurais artificiais
- Introdução
- Histórico das Redes Neurais (RNs)
- Definição e conceitos básicos
- Aplicações
- O neurônio artificial (modelo matemático)
- Regras de propagação e funções de ativação.
- Estruturas de interconexão
- Tipos de aprendizado: supervisionado e não-supervisionado
- Perceptron e redes Adaline e Madaline
- O Perceptron
- Redes Adaline e Madaline
- A metodologia feedforward e backpropagation
- O modelo feedforward de propagação
- O modelo backpropagation
- Aplicações
- Tipos de RNs
- Rede de Hopfield
- Redes de Função de Base Radial
- Redes ART (Adaptive Resonance Theory)
- Redes IAC (Interactive Activation and Competition)
- Aplicações gerais
2. Algoritmos genéticos (24h/a)
- Introdução
- Revisão de genética, evolução e seleção natural
- Definição e conceitos básicos
- Métodos de busca global e otimização de funções complexas
- Aplicações
- Componentes de um AG
- Representação binária (cromossomas)
- Avaliação
- Seleção e reprodução
- Operadores genéticos: crossover, mutação, inversão
- Desenvolvimento de AGs
- Representação: binário codificando real
- Decodificação e avaliação de cromossomas
- Parâmetros: taxas de crossover e mutação, tamanho da população, gerações
- Avaliação de desempenho de um AG: curvas offline, online e Média de Experimentos
- Reprodução e Seleção
- Métodos de seleção de genitores baseados em aptidão
- Aptidão relativa, probabilidade de seleção
- Aptidão como avaliação, normalização linear e windowing
- Aptidão para problemas de máximo e mínimo
- Elitismo, reprodução steady-state com e sem duplicados
13. MÉTODOS UTILIZADOS
A teoria e os métodos da disciplina são apresentados através de aulas expositivas, intercaladas
com aulas de laboratório.
14. ATIVIDADES DISCENTES
Aulas teóricas expositivas, exercícios e trabalhos extra-classe (em grupo ou individual), pesquisa
bibliográfica, seminários e debates, atividades de avaliação propostas.
15. CARGA HORÁRIA
AULAS TEÓRICAS: 48 horas
TOTAL: 48 horas
RECOMENDADO PARA DEDICAÇÃO INDIVIDUAL: 4 horas semanais
16. CRITÉRIOS DE AVALIAÇÃO DE APRENDIZAGEM
Média ponderada de duas provas, exercícios e trabalho de conclusão da disciplina.
17. NORMAS DE RECUPERAÇÃO (CRITÉRIOS DE APROVAÇÃO E ÉPOCAS DE REALIZAÇÃO
DAS PROVAS OU TRABALHOS)
As notas serão dadas por conceito, conforme estabelecido pelas normas internas da UFABC.
Alunos que não atingiram um nível de aprendizado adequado, e sem reprovação por faltas,
poderão fazer uma prova de exame para mais uma oportunidade de avaliação. A prova de exame
será realizada após as provas normais, no final do trimestre.
18. BIBLIOGRAFIA RECOMENDADA
BIBLIOGRAFIA BÁSICA:
1. BRAGA, Antônio de Pádua; CARVALHO, André Ponce de Leon F de; LUDERMIR, Teresa
Bernarda. Redes neurais artificiais: teoria e aplicações. 2 ed.. Rio de Janeiro: LTC, 2007.
225 p. ISBN 9788521615644.
2. HAYKIN, Simon. Redes neurais: princípios e prática. 2 ed. Porto Alegre: Bookman, 2001.
900 p. ISBN 9788573077186.
3. REZENDE, Solange Oliveira. Sistemas inteligentes: fundamentos e aplicações. Barueri:
Manole, 2005. xxxiii, 517 p. (RECOPE-IA - Rede cooperativa de pesquisa em inteligência
Artificial). ISBN 9788520416839.
BIBLIOGRAFIA COMPLEMENTAR:
1. BISHOP, Christopher M.. Neural networks for pattern recognition. New York: Oxford
University Press, 1995. xvii, 482 p. ISBN 9780198538646.
2. FAUSETT, Laurene. Fundamentals of neural networks: architectures, algorithms, and
applications. Englewood Cliffs, N.J: Prentice-Hall, 1994. xvi, 461 p. Includes bibliographical
references and index. ISBN 9780133341867.
3. GOLDBERG, David E. Genetic Algorithms: in Search, Optimization, and Machine Learning.
Boston: Addison Wesley, 1989. 412 p. ISBN 9780201157673.
4. KOZA, John R.. Genetic programming: on the programming of computer by means of natural
selection. London: Cambridge, 1992. 819 p. (Complex adaptive systems). ISBN
9780262111706.
5. MITCHELL, Tom m. Machine learning. Boston: WCB McGraw-Hill, c1997. 414 p. (McgrawHill series in computer science). ISBN 9780070428072.
6. Genetic Algorithm TOOLBOX For Use with MATLAB. Disponível em
http://www.sheffield.ac.uk/content/1/c6/03/35/06/manual.pdf.
7. Townsend, A.A.R. Genetic Algorithms, a tutorial. Disponível em http://wwwcourse.cs.york.ac.uk/evo/Resources/TutorialGAs.pdf
19. PLANO SUGERIDO PARA AS AULAS (em semanas letivas)
Semana 1
Aula 1.1:Teórica:
Introdução às redes neurais biológicas e artificiais. Comparação do neurônio biológico
e o neurônio artificial. O primeiro modelo de neurônio artificial:o modelo de McCullochPitts.
Aula 1.2: Laboratório:
Introdução ao Matlab/WEKA. Implementação (em planilha de cálculo e/ou no
Matlab/WEKA) do modelo de McCulloch-Pitts.
Semana 2
Aula 2.1:Teórica:
O modelo de McCulloch-Pitts como discriminador linear básico. Efeito da mudança do
limiar e dos pesos no discriminador. Limitações do discriminador na porta ou-exclusivo.
Efeito do aumento da dimensionalidade do espaço de entrada no discriminador linear.
Aula 2.2:Laboratório:
Implementação (em planilha de cálculo e/ou no Matlab) de modelo de McCulloch-Pitts
para modelagem de funções lógicas básicas (AND, OR e EX-OR).
Semana 3
Aula 3.1:Teórica: Plasticidade sináptica e reforço Hebbiano. Limitações da ley de Hebb. Efeito
de ajuste do fator de treinamento. Regra delta. Adaline. Limitações da regra delta.
Outras regras para o ajuste de pesos. Regra de Oja. Regra pré-sináptica e regra póssináptica. Perceptron de Rosemblatt.
Aula 3.2: Laboratório:
Implementação (em planilha de cálculo e/ou no Matlab) do Perceptron de Rosemblatt.
Semana 4
Aula 4.1:Teórica: Redes feed-forward e representação matricial destas redes. A regra de Hebb
matricial. Padrões, iterações e épocas. Mínimos locais e mínimos globais. Fenômeno
do “crosstalk”. Ortogonalidade dos padrões de entrada para evitar o crosstalk no
aprendizado de Hebb. Independencia linear dos padrões de entrada para evitar o
crosstalk na regra delta.
Aula 4.2: Laboratório:
Implementação (em planilha de cálculo e/ou no Matlab) de modelo de rede feedforward e teste destas redes com diversos padrões.
Semana 5
Aula 5.1:Teórica: Redes multicamada. e regra de retropropagação do erro para ajuste dos
pesos. Sobre-treinamento e generalização em função do número de neurônios na
camada intermediária. “Momentum” e fator de aprendizado. Efeito no treinamento da
adição de ruído aos padrões de entrada. Redes auto-associativas. Redes de base
radial.
Aula .2: Laboratório:
Implementação em Matlab de modelos de redes multicamada e teste destas redes
alteando-se o número de neurônios, o fator de aprendizado e o “momentum”.
Semana 6
Aula 6.1:Teórica: Redes não supervisionadas. Rede SOM de Kohonen. Distorção de borda na
rede SOM. Rede Linear Vector Quantization. Modelos biológicamente plausíveis de
redes não supervisionadas.
Aula 6.2: Laboratório:
Implementação (em planilha de cálculo e/ou no Matlab) da rede SOM. Exemplos.
Semana 7
Aula 5.1:Revisão para a 1ª Avaliação. Exemplos de aplicações de redes neurais.
Aula .2: Prova 1
Semana 8
Aula 8.1:Teórica: Introdução aos algoritmos genéticos. O DNA, cromossomos, genes
nucleotídeos e informação genética. Codificação e seleção da população inicial.
Medida de aptidão da população inicial
Aula 8.2: Laboratório:
Utilização do Matlab para criar codificar e avaliar a aptidão da população inicial.
Semana 9
Aula 9.1: Operadores genéticos: cruzamento, mutação, inversão. Cruzamento de um ponto,
multipontos e uniforme.
Aula 9.2: Laboratório:
Utilização do Matlab para implementar os operadores genéticos.
Semana 10
Aula 10.1: Seleção e métodos de seleção: método da roleta, método de amostragem
estocástico universal, seleção por ranking, etc. cruzamento, mutação, inversão.
Cruzamento de um ponto, multipontos e uniforme. Mutação e taxa de mutação
Aula 10.2: Laboratório:
Utilização do Matlab num projeto completo de algoritmos genéticos.
Semana 11
Aula 11.1: Revisão para a 2ª Avaliação
Aula 10.2: Prova 2
Semana 12
Aula 12.1: Apresentação trabalhos da disciplina.
Aula 12.2: Apresentação trabalhos da disciplina e/ou prova substitutiva.
20. PROFESSOR(A) RESPONSÁVEL
Francisco Javier Ropero Peláez
Download