Par exemple, dans un système de prévision des prix de Tbond, si vos données d'entrée comprend le cours de clôture de la propagation de chaque jour entre TBonds et l'DMark, Yen japonais, Tbills, Eurodollar, le franc suisse et le Dollar Index, ainsi que le taux des Fed Funds et Dow Jones Utility Moyenne (un total de huit catégories de données), d'abord la couche d'entrée serait composé de huit neurones.
Si vous prétraiter les données en prenant un élan d'une journée sur le prix de clôture de chacun de ces marchés, ou lissage de la série de temps avec les moyennes mobiles, vous allez augmenter le nombre de neurones d'entrée en conséquence. Selon le nombre de marchés des intrants et l'étendue de l'prétraitement, il est pas rare pour un système neuronal d'avoir plusieurs centaines de neurones d'entrée. Avec l'apprentissage supervisé, les données de chaque jour d'entrée fournies au système lors de la formation devraient également inclure les prix de Tbond du lendemain.
Avant de formation devrait shufe hasard les données d'entrée paires, de sorte que les données ne sont pas présentées au système chronologiquement. Les neurones de la couche cachée ne pas interagir directement avec le monde extérieur. Ceci est où le réseau crée son symbole interne mis à enregistrer les données d'entrée dans un formulaire qui capture les relations cachées dans les données, permettant au système de généraliser. Sélection du nombre approprié de neurones dans la couche cachée et le nombre de couches cachées à utiliser, se trouve souvent par l'expérimentation.
Trop peu de neurones empêchent le système de la formation. Si trop de neurones sont sélectionnés, le système mémorise les modèles cachés sans être en mesure de généraliser. Ensuite, si elle est par la suite présenté avec des motifs différents, il sera incapable de prévoir avec précision parce qu'il n'a pas discerné les relations cachées. Le format