Differences
This shows you the differences between two versions of the page.
Both sides previous revision
Previous revision
Next revision
|
Previous revision
|
reflexion-gng-qc [2025/02/23 17:37] 47.128.115.51 old revision restored (2025/02/14 17:37) |
reflexion-gng-qc [2025/04/03 06:56] (current) 47.128.127.51 old revision restored (2025/03/04 18:17) |
Pour cela l'algo donne un ensemble d'états propre à chaque agents. Ceux-ci les développe et les trie en deux catégories "safe" et "dangerous". Un état "dangerous" est un état partagé avec un autre agent. | Pour cela l'algo donne un ensemble d'états propre à chaque agents. Ceux-ci les développe et les trie en deux catégories "safe" et "dangerous". Un état "dangerous" est un état partagé avec un autre agent. |
| |
GNG permet de partitionner l'ensemble des états et de les regrouper par noeuds où tous les états d'un même noeud auront le même tuple <état, action> et les même Qvaleurs. Ce procédé réduit artificiellement le nombre d'états et induit une convergence plus rapide des Qvaleurs tout en limitant l'usage de la mémoire. | GNG permet de limiter le nombre d'états dont s'occupe un agent, ce qui induit une convergence plus rapide des Qvaleurs et limite l'usage de la mémoire. |
| |
=== Piste === | === Piste === |
L'algo limite le nombre d'états des agents dans sa partie "anti-collision", mais comme dit la phrase précédente, nous sommes déjà censé avoir une politique optimale pour chaque agent. C'est à dire qu'individuellement ils remplissent tous très bien les tâches demandées. | L'algo limite le nombre d'états des agents dans sa partie "anti-collision", mais comme dit la phrase précédente, nous sommes déjà censé avoir une politique optimale pour chaque agent. C'est à dire qu'individuellement ils remplissent tous très bien les tâches demandées. |
| |
A priori, l'algo GNG peut donc très bien utilisé en complémentarité de CQ-Learning. Il permettrait de réduire un peu plus l'ensemble d'états pour chaque agent. | A priori, l'algo GNG peut donc très bien utilisé en complémentarité de CQ-Learning. Il permettrait de réduire un peu plus l'ensemble d'états pour chaque agents. |
| |
Bon voila, maintenant que j'ai écrit ces lignes ça me parait assez évident, mais ce n'était pas le cas avant... | Bon voila, maintenant que j'ai écrit ces lignes ça me parait assez évident, mais ce n'était pas le cas avant... |