This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision | ||
memento-value-function-approximation [2025/02/23 18:52] 47.128.63.79 old revision restored (2025/02/09 10:55) |
memento-value-function-approximation [2025/04/02 05:32] (current) 47.128.54.124 old revision restored (2025/02/28 18:16) |
||
---|---|---|---|
Line 9: | Line 9: | ||
* ... | * ... | ||
- | ===Descente | + | Définitions : |
+ | * Off-policy : Actualisation des valeurs à partir | ||
+ | * On-policy : Actualisation des valeurs à partir de l' | ||
- | Avec J(w), une fonction dérivable de paramètre w. | + | ===Algorithme du gradient=== |
+ | |||
+ | Avec J(w), une fonction dérivable de paramètre w (w étant un vector contenant toutes les valeurs des états). | ||
Le gradient de J(w) est défini sous forme matricielle, | Le gradient de J(w) est défini sous forme matricielle, | ||
Permet de trouver un minimum local J(w) | Permet de trouver un minimum local J(w) | ||
+ | |||
+ | Objectif : Trouver le paramètre w qui minimise le carré de l' | ||
+ | |||
+ | |||
+ | Questions : | ||
+ | * Que représente Δw (une valeur, un vector, ...), et à quoi s'en sert-on ? | ||
+ | |||
+ | ===Représentation d'un état dans un vector=== | ||
+ | |||
+ | Ranger dans le vector les n valeurs du même état. | ||
+ | |||
+ | ===Fonction approximation de valeur linéaire=== | ||
+ | (Linear Value Function Approximation) | ||
+ | |||
+ | * La descente de gradient stochastique converge vers un optimum global. | ||
+ | * Actualisation = step-size * prediction error * feature value | ||
+ | |||
+ | Questions : | ||
+ | * Qu'est ce qu'on appelle une feature ? | ||
+ | |||
+ | ===Least Squares Prediction=== | ||
+ | |||
+ | Algorithme qui trouve le paramètre w qui minimise la somme des carrés des erreurs entre la fonction approximation et la la valeur cible. | ||
+ | |||
+ | ===Stochastic Gradient Descent with Experience Replay=== | ||
+ | |||
+ | Expérience donnée sous la forme de pair <Etat, Valeur>. | ||
+ | (Voir diapo 37 pour plus de détails) | ||
+ | |||
+ | ===Experience Replay in Deep Q-Network=== | ||
+ | |||
+ | * DQN utilisent l' | ||
+ | * Choix d' | ||
+ | * Sauvegarde les transitions en replay memomry | ||
+ | * Optimise le MSE (mean squarred error) entre les cibles du QNetwork et du QLearning | ||
+ | * Utilise une variante de la descente de gradient stochastique | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||