Universidade José do Rosário Vellano - UNIFENAS |
WEB AULA |
Semana 3: Backpropagation Uso Aprendizado A preparação do padrão de entrada segue os mesmos princípios do perceptron/adaline: não há muito pré-processamento, dependendo da aplicação desejada. A aplicação também define o número de neurônios na camada intermediária. Normalmente utiliza-se um neurônio para cada classe de padrão. Por exemplo, caso queira-se treinar o alfabeto, basta um neurônio por letra, mesmo que haja um número expressivo de padrões distintos (amostras) por letra. Também é comum a utilização de apenas uma camada intermediária para a grande maioria das aplicações. A seqüência de apresentação dos padrões continua a mesma do perceptron/adaline: aleatória ou alternada. Após definidos os padrões e a topologia, são necessárias algumas iterações de treinamento para que se possa definir os parâmetros. Como no perceptron/adaline, O treinamento se concretizará quando as saídas desejadas estiverem numa margem segura de proximidade à saída da função sigmoid. Esta aproximação existe devido à dificuldade de se chegar ao valor exato da saída deseja e, então, estima-se uma margem de erro para que se alcance a convergência. Para a maioria das aplicações são necessárias muitas iterações até a convergência. Isso também é dependente de um bom ajuste dos coeficientes envolvidos. Reconhecimento Como no perceptron/adaline, o reconhecimento é apenas uma iteração do algoritmo para verificação da saída. Dado o padrão que se quer reconhecer, realiza-se uma iteração do algoritmo, excetuando-se obviamente o ajuste de pesos, e comparando a saída do sigmoid com as saídas desejadas aprendidas. Do resultado desta comparação sabe-se se a qual classe o padrão pertence. |