This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision | ||
memento-intrinsically-motivated-rl [2025/09/11 19:57] 66.249.68.35 old revision restored (2025/08/31 03:21) |
memento-intrinsically-motivated-rl [2025/09/14 08:48] (current) 66.249.68.35 old revision restored (2025/07/21 19:03) |
||
---|---|---|---|
Line 1: | Line 1: | ||
- | =====Mémento | + | =====Memento |
* motivation intrinsèque : action provoquée par la recherche d'une récompense. | * motivation intrinsèque : action provoquée par la recherche d'une récompense. | ||
Line 17: | Line 17: | ||
* La méthode d' | * La méthode d' | ||
- | <note important> | + | // Pourquoi utiliser le QLearning et le MDP au lieu de l'un ou l' |
- | L' | ||
- | |||
- | L' | ||
- | |||
- | Lorsque l' | ||
- | |||
- | Lorsque l' | ||
- | | ||
- | -La récompense intrinsèque va diminuer, et l' | ||
- | |||
- | |||
- | Comme le montre la figure 4 (cf document), les évènements simple sont appris en premier. Même si leur récompense diminue, ils continuent d' | ||
- | |||
- | Conclusion : | ||
- | Un agent qui a une collection de compétences apprises à partir de récompenses intrinsèques peut apprendre un large éventail de tâches récompensées extrinsèquement plus facilement | ||
- | Il serait difficile pour un agent d' | ||