This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision | ||
realisation_env_grille_cqlearning_cmu_tr_ttg [2025/08/18 00:04] 206.204.50.140 old revision restored (2025/07/07 04:10) |
realisation_env_grille_cqlearning_cmu_tr_ttg [2025/09/24 23:39] (current) 216.73.216.148 old revision restored (2025/08/12 19:13) |
||
---|---|---|---|
Line 6: | Line 6: | ||
Le CQ-Learning permet la coordination d' | Le CQ-Learning permet la coordination d' | ||
+ | |||
+ | Les agents suivent leur politique optimale jusqu' | ||
Etant donné que certaines parties de l' | Etant donné que certaines parties de l' | ||
Line 12: | Line 14: | ||
L' | L' | ||
+ | |||
CMU | CMU | ||
{{: | {{: | ||
- | TR | + | Les cases de couleurs sont les objectifs des agents de même couleur (sauf dans le ttg où il les deux agent sont le même objectif). |
- | {{: | + | |
- | TTG | + | Seul les résultats pour le CMU seront montrés. |
- | {{: | + | |
==== Resultats ==== | ==== Resultats ==== | ||
+ | Les moyennes sont effectuées sur 125 itérations. | ||
+ | |||
+ | === CMU === | ||
+ | |||
+ | A la 4 000eme itération, la politique devient déterministe, | ||
+ | |||
+ | Moyenne des sommes des récompenses :\\ | ||
+ | {{: | ||
+ | |||
+ | Moyenne du nombre de collisions :\\ | ||
+ | {{: | ||
+ | |||
+ | Moyenne du nombre d' | ||
+ | {{: | ||
+ | |||
+ | Petite optimisation sur les états joints, lorsqu' | ||
+ |