Essays.club - TCC, Modelos de monografias, Trabalhos de universidades, Ensaios, Bibliografias
Pesquisar

IA - Redes neurais artificiais

Por:   •  30/5/2018  •  1.232 Palavras (5 Páginas)  •  398 Visualizações

Página 1 de 5

...

McCulloch-Pitts

- Viu-se o cérebro como um sistema computacional.

- Este modelo é uma simplificação do que se sabia então a respeito do neurônio biológico.

- Modelo do neurônio de McCulloch Pitts

[pic 7]

- Entradas binárias (0 ou 1).

- Os pesos Wi, é positivo se a conexão (sinapse) é excitatória e negativa se a sinapse é inibitória.

- Equação de disparo:

[pic 8]

- Equação de ativação:

[pic 9]

- Portas lógicas.

[pic 10]

Exemplo - Memória Associativa

- Memória associativa:

- Associar o conceito A ao conceito B (dado A, “lembra-se” de B).

- Pares de associação

[pic 11]

- [pic 12]Codificação

Entradas: [A1 A2 A3 A4 A5]

Borges = [1,-1, 1, -1, 1]

Bach = [1, 1, 1, -1,-1]

Picasso = [1, 1,-1, -1, 1]

Saídas: [F1 F2 F3 F4]

literatura= [1,-1, 1,-1]

música = [1, 1,-1,-1]

pintura = [1,-1,-1, 1]

Projeto

- Neurônio McCulloch-Pitts:

- ativado = 1, inibido = -1

- Função de ativação (degrau):

- Se net > 0: saída = 1,

- Se net

- Se net = 0: saída inalterada

- Arquitetura:

- 5 neurônios de entrada

- 4 de saída (codificação da informação)

- Algoritmo de treinamento:

- Hebb

[pic 13]

Aprendizado

[pic 14]

[pic 15]

[pic 16]

[pic 17]

[pic 18]

[pic 19]

Memória Associativa

- Algoritmo de Treinamento:

- Hebb

- O que acontece se treinar com pares “ruidosos”?

- O que acontece se alterar a ordem de apresentação dos pares?

- O que acontece se treinar mais de uma vez com um par?

Exemplo - Memória Associativa

Recall

- Operação

[pic 20]

[pic 21]

Exercício – 01

Projete um neurônio tipo McCulloch-Pitts que calcula a função lógica implicação

y = x1 → x2, descrita na Tabela 1.

[pic 22]

[pic 23]

---------------------------------------------------------------

[pic 24]Exercício – 02

Considere as seguintes associações desejadas (tabela ao lado) para uma RN do tipo memória associativas.

Determine a matriz de pesos W para esta memória, após apresentação de cada um dos 3 pares (entrada, saída) da tabela acima.

Considere que inicialmente a matriz de pesos está zerada, e que é utilizado o aprendizado de Hebb com taxa de aprendizagem a = 1,0.

Perceptron

Perceptron (Rosenblatt, 1959)

- [pic 25]Similar ao neurônio de McCulloch- Pitts.

- Valores de entrada e níveis de ativação: -1ou +1

- Pesos com valores reais

- Função de ativação (t = limiar)

- +1 se ;[pic 26]

- -1 se caso contrário.[pic 27]

- Uma camada de entrada e uma camada de saída.

- Aprendizado Supervisionado

- Minimiza o erro médio sobre o conjunto de treinamento.

- Se existe um conjunto de pesos que forneça a saída correta para todos os membros do conjunto de treinamento, o procedimento de aprendizagem do perceptron irá aprendê-lo (Minsky e Papert, 1969).

Perceptron (aprendizado supervisionado)

[pic 28]

Perceptron (Exemplo).

- Considerando um limiar T.

- y = 1 se e somente se ;[pic 29]

- y = -1 se somente se [pic 30]

- Regra Delta

- c = taxa de aprendizagem, d = valor de saída desejado. Sinal = valor de saída obtido.

[pic 31]

Perceptron (Exemplo).

Conjunto de dados para classificação:

[pic

...

Baixar como  txt (8.9 Kb)   pdf (59.4 Kb)   docx (577.5 Kb)  
Continuar por mais 4 páginas »
Disponível apenas no Essays.club