This shows you the differences between two versions of the page.
| Both sides previous revision Previous revision Next revision | Previous revision | ||
|
memento-intrinsically-motivated-rl [2025/12/31 00:42] 47.128.53.211 old revision restored (2025/11/19 06:51) |
memento-intrinsically-motivated-rl [2026/01/08 17:01] (current) 66.249.70.198 old revision restored (2025/11/01 16:40) |
||
|---|---|---|---|
| Line 1: | Line 1: | ||
| - | =====Memento | + | =====Mémento |
| * motivation intrinsèque : action provoquée par la recherche d'une récompense. | * motivation intrinsèque : action provoquée par la recherche d'une récompense. | ||
| Line 17: | Line 17: | ||
| * La méthode d' | * La méthode d' | ||
| + | <note important> | ||
| + | |||
| + | L' | ||
| + | |||
| + | L' | ||
| + | |||
| + | Lorsque l' | ||
| + | |||
| + | Lorsque l' | ||
| + | | ||
| + | -La récompense intrinsèque va diminuer, et l' | ||
| + | |||
| + | |||
| + | Comme le montre la figure 4 (cf document), les évènements simple sont appris en premier. Même si leur récompense diminue, ils continuent d' | ||
| + | |||
| + | Conclusion : | ||
| + | Un agent qui a une collection de compétences apprises à partir de récompenses intrinsèques peut apprendre un large éventail de tâches récompensées extrinsèquement plus facilement | ||
| + | Il serait difficile pour un agent d' | ||