This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision | ||
memento-learning-multi-agent-state-space-representations [2025/04/18 19:03] 52.15.120.29 old revision restored (2025/02/10 19:47) |
memento-learning-multi-agent-state-space-representations [2025/05/20 23:50] (current) 166.108.193.186 old revision restored (2025/05/14 04:24) |
||
---|---|---|---|
Line 1: | Line 1: | ||
=====Learning multi-agent state space representations===== | =====Learning multi-agent state space representations===== | ||
- | ==== Définitions ==== | ||
- | |||
- | * Feed forward neural network : Réseau de neurone dans lequel il n'y a pas de boucle. | ||
- | * CQ-Learning : Coordination QLearning | ||
==== Quelques informations ==== | ==== Quelques informations ==== | ||
Line 25: | Line 21: | ||
==== CQ-Learning ==== | ==== CQ-Learning ==== | ||
- | |||
- | === Gérer la coordination === | ||
- | |||
- | En partant du principe que les agents ont une politique optimale ainsi qu'une récompense associée à chaque tuple <état, action>. | ||
- | |||
- | Les agents ont deux ensembles d' | ||
- | |||
- | L' | ||
- | * L' | ||
- | - Marquage de l' | ||
- | - Recherche de la cause du changement | ||
- | - Paire <état, action> marquée comme " | ||
- | - Ajout de l' | ||
- | - Les <états, action> qui n'ont pas provoqués la collision sont marqué comme " | ||
- | | ||
- | |||
- | A chaque fois qu'un état est marqué, l' | ||
- | Si c'est le cas l' | ||
- | |||
- | {{: | ||
- | |||
- | Sinon pas d' | ||
- | |||
- | " | ||
- | |||
- | Il faut alors réduire l' | ||
- | |||
- | |||
- | === Gérer les collisions === | ||
- | |||
- | Comment gérer les collisions ? | ||
- | * Utiliser les connaissances rassemblées durant l' | ||
- | * Adapter l' | ||
- | |||
- | * Centrée sur agent -> car la représentation est relative à l' | ||
- | * Factored -> indique que les états sont représentés par l' | ||
- | |||
- | Question : | ||
- | * Je ne vois pas à quoi sert le coté factored et de cette histoire de valeurs aléatoires. A quoi s'en sert-on ? | ||
- | |||
- | Utilisation d'un réseau de neurones. | ||
- | |||
- | -> Entrainement en utilisant les actions préférées a1 et a2 des états s1 et s2. | ||
- | -> La localisation absolue est " | ||
- | |||
- | L' | ||
- | |||
- | Chaque agent utilise un réseau de neurone pour généraliser ses états " | ||
- | |||
- | Pour chaque échantillon, | ||
- | En pratique le réseau peut servir à l' | ||
- | |||