Site Tools


Hotfix release available: 2025-05-14b "Librarian". upgrade now! [56.2] (what's this?)
Hotfix release available: 2025-05-14a "Librarian". upgrade now! [56.1] (what's this?)
New release available: 2025-05-14 "Librarian". upgrade now! [56] (what's this?)
Hotfix release available: 2024-02-06b "Kaos". upgrade now! [55.2] (what's this?)
Hotfix release available: 2024-02-06a "Kaos". upgrade now! [55.1] (what's this?)
New release available: 2024-02-06 "Kaos". upgrade now! [55] (what's this?)
Hotfix release available: 2023-04-04b "Jack Jackrum". upgrade now! [54.2] (what's this?)
Hotfix release available: 2023-04-04a "Jack Jackrum". upgrade now! [54.1] (what's this?)
New release available: 2023-04-04 "Jack Jackrum". upgrade now! [54] (what's this?)
Hotfix release available: 2022-07-31b "Igor". upgrade now! [53.1] (what's this?)
Hotfix release available: 2022-07-31a "Igor". upgrade now! [53] (what's this?)
New release available: 2022-07-31 "Igor". upgrade now! [52.2] (what's this?)
New release candidate 2 available: rc2022-06-26 "Igor". upgrade now! [52.1] (what's this?)
New release candidate available: 2022-06-26 "Igor". upgrade now! [52] (what's this?)
Hotfix release available: 2020-07-29a "Hogfather". upgrade now! [51.4] (what's this?)
memento-learning-multi-agent-state-space-representations

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
memento-learning-multi-agent-state-space-representations [2025/12/12 12:17]
47.128.124.35 old revision restored (2025/04/15 03:11)
memento-learning-multi-agent-state-space-representations [2026/01/05 01:40] (current)
189.188.242.245 old revision restored (2025/09/24 23:39)
Line 1: Line 1:
-=====Learning multi-agent state space representations====+====Learning multi-agent state space representations====
- +
-==== Définitions ==== +
- +
-   * Feed forward neural network : Réseau de neurone dans lequel il n'y a pas de boucle. +
-   * CQ-Learning : Coordination QLearning +
-==== Quelques informations ==== +
- +
-Markov game -> Système multi-agent avec plusieurs sets d'actions, la proba de transition dépend de s, a et s', récompense unique à chaque agent et une transition. +
- +
-Une variante consiste à donner une récompense commune aux agents. +
- +
- +
-Comment apprendre le bon moment auquel doivent se coordonnés les agents ? Quelques ressources dispo : +
-   * Kok & Vlassis, Utile coordination : Learning indepedenies among cooperative agents. +
-   * Spaan & Melo IDMG +
- +
-Détails sur l'IDMG : +
-   * Interaction Driven Markov Game +
-   * Les agents peuvent connaitre la position des autres par la communication ou en les détectant avec les capteurs +
-   * Plus de détails sur l'article de Spaan & Melo... +
- +
-Learning Coordination States : +
-   * Identification des états dans lequel un agent devrait prendre en compte les autres agents quand il choisi une action et qu'il y a besoin de coordination sur celle-ci avec un autre agent. +
- +
-==== CQ-Learning ==== +
- +
-En partant du principe que les agents ont une politique optimale ainsi qu'une récompense associée à chaque tuple <état, action>+
- +
-Les agents ont deux ensembles d'états, un classique qui répertorie tous les états (hors joint) et un "joint" qui répertorie les états qui sont en collisions avec d'autres agents. C'est à dire accessibles par deux agents ou plus. +
- +
-L'algorithme utilise alors test de Student pour détecter des changements dans la valeur d'une récompense sur un <état, action> ciblé. Deux situations peuvent arriver : +
-   * L'algorithme détecte un changement, s'en suivent alors les étapes suivantes :  +
-      - Marquage de l'état +
-      - Recherche de la cause du changement +
-      - Paire <état, action> marquée comme "dangereuse" +
-      - Ajout de l'état à l'ensemble d'états "joint" de l'agent +
-      - Les <états, action> qui n'ont pas provoqués la collision sont marqué comme "safe" +
-    L'algorithme ne détecte aucun changement, aucune instruction n'a lieu +
- +
-A chaque fois qu'un état est marqué, l'algorithme regarde si c'est un état joint dans lequel il faut prendre en considération les autres agents. +
-Si c'est le cas l'actualsisation de QjValeur de l'état sera effectué avec la formule : +
- +
-{{:capture.png?400|}} +
- +
-Sinon pas d'actualisation. +
- +
- +
- +
memento-learning-multi-agent-state-space-representations.1765538256.txt.gz · Last modified: 2025/12/12 12:17 by 47.128.124.35