IA - Redes neurais artificiais
Por: Carolina234 • 30/5/2018 • 1.232 Palavras (5 Páginas) • 459 Visualizações
...
McCulloch-Pitts
- Viu-se o cérebro como um sistema computacional.
- Este modelo é uma simplificação do que se sabia então a respeito do neurônio biológico.
- Modelo do neurônio de McCulloch Pitts
[pic 7]
- Entradas binárias (0 ou 1).
- Os pesos Wi, é positivo se a conexão (sinapse) é excitatória e negativa se a sinapse é inibitória.
- Equação de disparo:
[pic 8]
- Equação de ativação:
[pic 9]
- Portas lógicas.
[pic 10]
Exemplo - Memória Associativa
- Memória associativa:
- Associar o conceito A ao conceito B (dado A, “lembra-se” de B).
- Pares de associação
[pic 11]
- [pic 12]Codificação
Entradas: [A1 A2 A3 A4 A5]
Borges = [1,-1, 1, -1, 1]
Bach = [1, 1, 1, -1,-1]
Picasso = [1, 1,-1, -1, 1]
Saídas: [F1 F2 F3 F4]
literatura= [1,-1, 1,-1]
música = [1, 1,-1,-1]
pintura = [1,-1,-1, 1]
Projeto
- Neurônio McCulloch-Pitts:
- ativado = 1, inibido = -1
- Função de ativação (degrau):
- Se net > 0: saída = 1,
- Se net
- Se net = 0: saída inalterada
- Arquitetura:
- 5 neurônios de entrada
- 4 de saída (codificação da informação)
- Algoritmo de treinamento:
- Hebb
[pic 13]
Aprendizado
[pic 14]
[pic 15]
[pic 16]
[pic 17]
[pic 18]
[pic 19]
Memória Associativa
- Algoritmo de Treinamento:
- Hebb
- O que acontece se treinar com pares “ruidosos”?
- O que acontece se alterar a ordem de apresentação dos pares?
- O que acontece se treinar mais de uma vez com um par?
Exemplo - Memória Associativa
Recall
- Operação
[pic 20]
[pic 21]
Exercício – 01
Projete um neurônio tipo McCulloch-Pitts que calcula a função lógica implicação
y = x1 → x2, descrita na Tabela 1.
[pic 22]
[pic 23]
---------------------------------------------------------------
[pic 24]Exercício – 02
Considere as seguintes associações desejadas (tabela ao lado) para uma RN do tipo memória associativas.
Determine a matriz de pesos W para esta memória, após apresentação de cada um dos 3 pares (entrada, saída) da tabela acima.
Considere que inicialmente a matriz de pesos está zerada, e que é utilizado o aprendizado de Hebb com taxa de aprendizagem a = 1,0.
Perceptron
Perceptron (Rosenblatt, 1959)
- [pic 25]Similar ao neurônio de McCulloch- Pitts.
- Valores de entrada e níveis de ativação: -1ou +1
- Pesos com valores reais
- Função de ativação (t = limiar)
- +1 se ;[pic 26]
- -1 se caso contrário.[pic 27]
- Uma camada de entrada e uma camada de saída.
- Aprendizado Supervisionado
- Minimiza o erro médio sobre o conjunto de treinamento.
- Se existe um conjunto de pesos que forneça a saída correta para todos os membros do conjunto de treinamento, o procedimento de aprendizagem do perceptron irá aprendê-lo (Minsky e Papert, 1969).
Perceptron (aprendizado supervisionado)
[pic 28]
Perceptron (Exemplo).
- Considerando um limiar T.
- y = 1 se e somente se ;[pic 29]
- y = -1 se somente se [pic 30]
- Regra Delta
- c = taxa de aprendizagem, d = valor de saída desejado. Sinal = valor de saída obtido.
[pic 31]
Perceptron (Exemplo).
Conjunto de dados para classificação:
[pic
...