Les erreurs de prévision sont utilisés pour modifier la force ou le poids de connexion de chaque neurone, de sorte que au cours des itérations de formation ultérieures, les prévisions du système sera plus proche de la valeur réelle. La «loi d'apprentissage» pour un réseau donné régit comment modifier ces poids de connexion pour minimiser les erreurs de sortie au cours des itérations de formation plus tard.
Bien qu'il existe de nombreuses lois d'apprentissage qui peuvent être appliquées à des systèmes neuronaux, l'un des plus populaires est la règle ou Retour propagation méthode généralisée Delta. Au cours de chaque itération de la formation, les données présentées appariées au réseau génère une ow avant l'activation de l'entrée vers la couche de sortie. Ensuite, si les sorties prévues par le système sont incorrects, un ow d'information est généré en arrière à partir de la couche de sortie vers la couche d'entrée, l'ajustement des poids de connexion.
Puis, sur la prochaine itération de la formation, lorsque le système est présenté avec les mêmes données d'entrée appariés, il sera plus précis dans ses prévisions. Le temps nécessaire pour effectuer la formation peut être considérable selon la vitesse de votre ordinateur, le nombre de jours de données (connu comme «fait-jours»), et le nombre de neurones dans chaque couche. Lorsque le système atteint un état stable, il est prêt pour des tests supplémentaires.
Vous pouvez effectuer des tests "de plain-pied en avant" en créant un le de test composé de fiches-jours qui ne sont pas utilisés pendant la formation. Selon les résultats du test, vous pourriez avoir besoin de repenser le système, y compris son architecture, le droit d'apprendre, les données d'entrée, ou des méthodes et de l'étendue du prétraitement. Vous pouvez même avoir besoin de changer la sortie prévue que vous voulez prévoir. Contrairement à la formation, au cours de tester les forces de connexion ne sont pas ajustées pour compenser les erreurs.
Si votre système ne peut pas entraîner sur cer