This shows you the differences between two versions of the page.
| Both sides previous revision Previous revision Next revision | Previous revision | ||
|
memento-learning-multi-agent-state-space-representations [2025/12/13 01:18] 47.128.53.186 old revision restored (2025/08/10 22:02) |
memento-learning-multi-agent-state-space-representations [2026/01/05 23:35] (current) 47.128.112.30 old revision restored (2025/11/28 12:25) |
||
|---|---|---|---|
| Line 1: | Line 1: | ||
| =====Learning multi-agent state space representations===== | =====Learning multi-agent state space representations===== | ||
| - | ==== Définitions ==== | ||
| - | |||
| - | * Feed forward neural network : Réseau de neurone dans lequel il n'y a pas de boucle. | ||
| - | * CQ-Learning : Coordination QLearning | ||
| ==== Quelques informations ==== | ==== Quelques informations ==== | ||
| Line 25: | Line 21: | ||
| ==== CQ-Learning ==== | ==== CQ-Learning ==== | ||
| - | |||
| - | === Gérer la coordination === | ||
| - | |||
| - | En partant du principe que les agents ont une politique optimale ainsi qu'une récompense associée à chaque tuple <état, action>. | ||
| - | |||
| - | Les agents ont deux ensembles d' | ||
| - | |||
| - | L' | ||
| - | * L' | ||
| - | - Marquage de l' | ||
| - | - Recherche de la cause du changement | ||
| - | - Paire <état, action> marquée comme " | ||
| - | - Ajout de l' | ||
| - | - Les <états, action> qui n'ont pas provoqués la collision sont marqué comme " | ||
| - | | ||
| - | |||
| - | A chaque fois qu'un état est marqué, l' | ||
| - | Si c'est le cas l' | ||
| - | |||
| - | {{: | ||
| - | |||
| - | Sinon pas d' | ||
| - | |||
| - | " | ||
| - | |||
| - | Il faut alors réduire l' | ||
| - | |||
| - | |||
| - | === Gérer les collisions === | ||
| - | |||
| - | Comment gérer les collisions ? | ||
| - | * Utiliser les connaissances rassemblées durant l' | ||
| - | * Adapter l' | ||
| - | |||
| - | * Centrée sur agent -> car la représentation est relative à l' | ||
| - | * Factored -> indique que les états sont représentés par l' | ||
| - | |||
| - | Question : | ||
| - | * Je ne vois pas à quoi sert le coté factored et de cette histoire de valeurs aléatoires. A quoi s'en sert-on ? | ||
| - | |||
| - | Utilisation d'un réseau de neurones. | ||
| - | |||
| - | -> Entrainement en utilisant les actions préférées a1 et a2 des états s1 et s2. | ||
| - | -> La localisation absolue est " | ||
| - | |||
| - | L' | ||
| - | |||
| - | Chaque agent utilise un réseau de neurone pour généraliser ses états " | ||
| - | |||
| - | Pour chaque échantillon, | ||
| - | En pratique le réseau peut servir à l' | ||
| - | |||