This shows you the differences between two versions of the page.
| Both sides previous revision Previous revision Next revision | Previous revision | ||
|
realisation_env_grille_cqlearning_cmu_tr_ttg [2025/11/05 10:40] 161.123.80.84 old revision restored (2025/10/05 10:44) |
realisation_env_grille_cqlearning_cmu_tr_ttg [2025/11/13 02:36] (current) 216.73.216.15 old revision restored (2025/11/11 23:23) |
||
|---|---|---|---|
| Line 6: | Line 6: | ||
| Le CQ-Learning permet la coordination d' | Le CQ-Learning permet la coordination d' | ||
| + | |||
| + | Les agents suivent leur politique optimale jusqu' | ||
| Etant donné que certaines parties de l' | Etant donné que certaines parties de l' | ||
| Line 12: | Line 14: | ||
| L' | L' | ||
| + | |||
| CMU | CMU | ||
| {{: | {{: | ||
| - | TR | + | Les cases de couleurs sont les objectifs des agents de même couleur (sauf dans le ttg où il les deux agent sont le même objectif). |
| - | {{: | + | |
| - | TTG | + | Seul les résultats pour le CMU seront montrés. |
| - | {{: | + | |
| ==== Resultats ==== | ==== Resultats ==== | ||
| + | |||
| + | === CMU === | ||
| + | |||
| + | A la 3 000eme itération, la politique devient déterministe, | ||
| + | |||
| + | Moyenne des sommes des récompenses :\\ | ||
| + | {{: | ||
| + | |||
| + | Moyenne du nombre de collisions :\\ | ||
| + | {{: | ||
| + | |||
| + | Moyenne du nombre d' | ||
| + | {{: | ||
| + | |||
| + | Petite optimisation sur les états joints, lorsqu' | ||
| + | |||
| + | Voici les stats obtenues en lançant l' | ||
| + | |||
| + | En moyenne, les agents ont besoin de -10.9 etapes \\ | ||
| + | Avec un ecart-type de | ||
| + | |||
| + | En moyenne, les agents ont 0.0 collisions \\ | ||
| + | Avec un ecart-type de 0.0 | ||
| + | |||
| + | En moyenne, les agents ont 1.9 etats joints \\ | ||
| + | Avec un ecart-type de | ||
| + | |||
| + | |||
| + | |||