Site Tools


Hotfix release available: 2024-02-06b "Kaos". upgrade now! [55.2] (what's this?)
Hotfix release available: 2024-02-06a "Kaos". upgrade now! [55.1] (what's this?)
New release available: 2024-02-06 "Kaos". upgrade now! [55] (what's this?)
Hotfix release available: 2023-04-04b "Jack Jackrum". upgrade now! [54.2] (what's this?)
Hotfix release available: 2023-04-04a "Jack Jackrum". upgrade now! [54.1] (what's this?)
New release available: 2023-04-04 "Jack Jackrum". upgrade now! [54] (what's this?)
Hotfix release available: 2022-07-31b "Igor". upgrade now! [53.1] (what's this?)
Hotfix release available: 2022-07-31a "Igor". upgrade now! [53] (what's this?)
New release available: 2022-07-31 "Igor". upgrade now! [52.2] (what's this?)
New release candidate 2 available: rc2022-06-26 "Igor". upgrade now! [52.1] (what's this?)
New release candidate available: 2022-06-26 "Igor". upgrade now! [52] (what's this?)
Hotfix release available: 2020-07-29a "Hogfather". upgrade now! [51.4] (what's this?)
memento-learning-multi-agent-state-space-representations

This is an old revision of the document!


Learning multi-agent state space representations

Quelques informations

Markov game -> Système multi-agent avec plusieurs sets d'actions, la proba de transition dépend de s, a et s', récompense unique à chaque agent et une transition.

Une variante consiste à donner une récompense commune aux agents.

Comment apprendre le bon moment auquel doivent se coordonnés les agents ? Quelques ressources dispo :

  • Kok & Vlassis, Utile coordination : Learning indepedenies among cooperative agents.
  • Spaan & Melo IDMG

Détails sur l'IDMG :

  • Interaction Driven Markov Game
  • Les agents peuvent connaitre la position des autres par la communication ou en les détectant avec les capteurs
  • Plus de détails sur l'article de Spaan & Melo...

Learning Coordination States :

  • Identification des états dans lequel un agent devrait prendre en compte les autres agents quand il choisi une action et qu'il y a besoin de coordination sur celle-ci avec un autre agent.

CQ-Learning

En partant du principe que les agents ont une politique optimale ainsi qu'une récompense associée à chaque tuple <état, action>.

Les agents ont deux ensembles d'états, un classique qui répertorie tous les états (hors joint) et un “joint” qui répertorie les états qui sont en collisions avec d'autres agents. C'est à dire accessibles par deux agents ou plus.

L'algorithme utilise alors test de Student pour détecter des changements dans la valeur d'une récompense sur un <état, action> ciblé. Deux situations peuvent arriver :

  • L'algorithme détecte un changement, s'en suivent alors les étapes suivantes :
    1. Marquage de l'état
    2. Recherche de la cause du changement
    3. Paire <état, action> marquée comme “dangereuse”
    4. Ajout de l'état à l'ensemble d'états “joint” de l'agent
    5. Les <états, action> qui n'ont pas provoqués la collision sont marqué comme “safe”
  • L'algorithme ne détecte aucun changement, aucune instruction n'a lieu
memento-learning-multi-agent-state-space-representations.1740850613.txt.gz · Last modified: 2025/03/01 18:36 by 47.128.116.157