This shows you the differences between two versions of the page.
| Both sides previous revision Previous revision Next revision | Previous revision | ||
|
memento-value-function-approximation [2025/11/05 10:54] 66.249.70.198 old revision restored (2025/08/30 01:27) |
memento-value-function-approximation [2025/11/13 21:10] (current) 216.73.216.15 old revision restored (2025/11/04 10:55) |
||
|---|---|---|---|
| Line 9: | Line 9: | ||
| * ... | * ... | ||
| - | ===Algorithme du gradient=== | + | ===Descente de gradient=== |
| Avec J(w), une fonction dérivable de paramètre w (w étant un vector contenant toutes les valeurs des états). | Avec J(w), une fonction dérivable de paramètre w (w étant un vector contenant toutes les valeurs des états). | ||
| Line 35: | Line 35: | ||
| Questions : | Questions : | ||
| * Qu'est ce qu'on appelle une feature ? | * Qu'est ce qu'on appelle une feature ? | ||
| - | |||
| - | ===Least Squares Prediction=== | ||
| - | |||
| - | Algorithme qui trouve le paramètre w qui minimise la somme des carrés des erreurs entre la fonction approximation et la la valeur cible. | ||
| - | |||
| - | ===Stochastic Gradient Descent with Experience Replay=== | ||
| - | |||
| - | Expérience donnée sous la forme de pair <Etat, Valeur>. | ||
| - | (Voir diapo 37 pour plus de détails) | ||
| - | |||
| - | ===Experience Replay in Deep Q-Network=== | ||
| - | |||
| - | * DQN utilisent l' | ||
| - | * Choix d' | ||
| - | * Sauvegarde les transitions en replay memomry | ||
| - | * Optimise le MSE (mean squarred error) entre les cibles du QNetwork et du QLearning | ||
| - | * Utilise une variante de la descente de gradient stochastique | ||
| - | | ||