Site Tools


Hotfix release available: 2024-02-06b "Kaos". upgrade now! [55.2] (what's this?)
Hotfix release available: 2024-02-06a "Kaos". upgrade now! [55.1] (what's this?)
New release available: 2024-02-06 "Kaos". upgrade now! [55] (what's this?)
Hotfix release available: 2023-04-04b "Jack Jackrum". upgrade now! [54.2] (what's this?)
Hotfix release available: 2023-04-04a "Jack Jackrum". upgrade now! [54.1] (what's this?)
New release available: 2023-04-04 "Jack Jackrum". upgrade now! [54] (what's this?)
Hotfix release available: 2022-07-31b "Igor". upgrade now! [53.1] (what's this?)
Hotfix release available: 2022-07-31a "Igor". upgrade now! [53] (what's this?)
New release available: 2022-07-31 "Igor". upgrade now! [52.2] (what's this?)
New release candidate 2 available: rc2022-06-26 "Igor". upgrade now! [52.1] (what's this?)
New release candidate available: 2022-06-26 "Igor". upgrade now! [52] (what's this?)
Hotfix release available: 2020-07-29a "Hogfather". upgrade now! [51.4] (what's this?)
realisation_env_grille_qlearning_sma

Environnement grille fonctionnant avec plusieurs agents (testé avec un QLearning)

Environnement

La grille fonctionne sur le même principe que la dernière fois, les cases vertes sont parcourables, les blanches sont des murs et les points bleus sont des agents.

Voir ici pour plus de détails.

La grille est générée à parti d'un fichier texte. Il est possible de passer le nombre d'agents voulu dans le fichier texte, ils sont placés automatiquement sur la grille sur les positions désignés (l'utilisateur ne choisi pas spécifiquement d'un agent).

Exemple de fichier :

2

BBBBBB
BSEEEB
BBBBEB
BFEEEB
BBBBEB
BSEEEB
BBBBBB

Le 2 indique que deux agents seront sur la grille. Ils seront placés sur les deux cases “S”. (Note à moi même - inutile de préciser le nombre d'agents, il suffirait d'en créer autant qu'il y a de cases “S”).

Déroulement d'un épisode

Au début de l'épisode, les agents sont sur leur position de départ. Ils se déplacent l'un après l'autre sur la grille jusqu'à trouver la case objectif. A chaque déplacement l'agent reçoit une récompense de -1, s'il se déplace sur la case d'un autre agent, il reçoit une récompense de -10. Sinon, s'il trouve l'objectif sa récompense est de 0.
L'épisode est terminé lorsque les deux agents ont atteint la case objectif. Si un agent la trouve avant l'autre, l'épisode continue, mais l'agent qui l'a trouvé ne bouge plus. Pendant ce temps le second agent continue de le chercher.

grille_sma.png

Experience Tunnel To Goal

Deux IL évoluent sur une grille de forme Tunnel To Goal avec un QLearning (grille ci-dessus). Les deux agents essaient d'apprendre une politique optimale, mais se court-circuitent en arrivant devant le tunnel.

reward_grille_sma_ils.png
(Somme des récompenses des deux agents - l'un en violet, l'autre en marron)

La récompense de -10 sur la collision à l'entrée du tunnel les empêche d'apprendre la politique optimale

Experience Sans collisions

Même test en prenant une grille dans laquelle il n'y a pas de collisions.

sans_collisions_sma_grille.png

On peut voir que la somme des récompenses tend vers un minimum et que les agents ne se perturbent pas.

sans_collisions_sma_grille_ils.png

(Somme des récompenses des deux agents - l'un en violet, l'autre en marron)

realisation_env_grille_qlearning_sma.txt · Last modified: 2024/10/26 17:38 by 47.128.127.8