Apprentissage du model LSTM
On est avec l'algorithme de prédiction Tensorflow et Keras dans les couches LSTM du modèle et l'on va essayer de déterminer l'influence du nombre de couches LSTM.
Faisons varier LSTM Units pour "voir" l'influence de ce paramètre sur la prédiction :
![]() |
LSTM 10 |
100
![]() |
LSTM 100 |
200
![]() |
LSTM 200 |
230
![]() |
LSTM 203 |
300
![]() |
LSTM 300 |
400
![]() |
LSTM 400 |
500
![]() |
LSTM 500 |
Je pensais ne faire varier ce paramètre qu'entre 20 et 100 mais 300 apporte une certaine précision et que le score est encore amélioré d'un facteur presque 2.
Le problème de l'augmentation de LSTM Units c'est le surapprentissage.
Et puis je pose la question de la variabilité des résultats à ChatGpt et là, oh surprise, il me parle de "fixer les graines aléatoires". Tout un programme.
Commentaires
Enregistrer un commentaire
Merci pour votre commentaire.
S'il n'apparaît pas tout de suite c'est qu'il est en attente de modération.
Merci de votre compréhension.