This shows you the differences between two versions of the page.
Both sides previous revision Previous revision | |||
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/03/16 04:36] 47.128.61.204 old revision restored (2025/02/22 19:58) |
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/04/03 07:27] (current) 47.128.123.108 old revision restored (2025/02/21 18:25) |
||
---|---|---|---|
Line 12: | Line 12: | ||
* Observalité : L' | * Observalité : L' | ||
* Observalité partielle : L' | * Observalité partielle : L' | ||
+ | * Jeu matriciel : n-uplet <m, A1, ..., Am, R1, ..., Rm> dans lequel m est le nombre d' | ||
+ | * Stratégie : Fonction π : Ai -> [0; 1] qui définit une distribution de probabilité sur les actions du joueur i. | ||
+ | * Stratégie pure : Stratégie déterministe. | ||
+ | * Stratégie mixte : Stratégie non déterministe. | ||
+ | * Gain espéré : Esperance de récompense étant donné la stratégie de l' | ||
+ | * Equilibre de Nash : Une stratégie jointe est un équilibre de Nash lorsque chaque joueur ne peut améliorer son gain en changeant de stratégie (chaque joueur suit une stratégie " | ||
+ | * Optimum de Pareto : Une stratégie domine au sens de Pareto si tous les joueurs gagnent au moins autant qu'en suivant leur stratégie dominante et qu'au moins un joueur ai un gain supérieur à ce qu'il recevrait en suivran sa stratégie dominante. | ||
+ | * Pareto Optimal : Si la stratégie jointe n'est dominée par aucune autre stratégie. | ||
+ | * MMDP : Processus décisionnels de Markov multi-agents. Définit par un n-uplet <m, S, A1, ..., Am, T, R> où S, A, et T sont définis comme pour un jeu de Markov. | ||
+ | * DEC-POMDP : Processuss décisionnel de Markov décentralisé partiellement observable. Définit par un n-uplet <m, S, A1, ..., Am, T, Ω1, ..., Ωm, O, R> où le n-uplet <m, S, A1, ..., Am, T, R> est un jeu de Markov, Ω est l' | ||
- | ==== ==== | + | |
+ | ==== Généralités sur les SMA ==== | ||
Les états, actions et fonctions de récompense d'un PDM (processus décisionnel de Markov) peuvent être défini à 2 niveaux : | Les états, actions et fonctions de récompense d'un PDM (processus décisionnel de Markov) peuvent être défini à 2 niveaux : | ||
Line 38: | Line 49: | ||
* -Coordination inter-agent | * -Coordination inter-agent | ||
+ | ==== Jeux matriciels ==== | ||
+ | |||
+ | Types de jeux matriciels : | ||
+ | * Jeu d' | ||
+ | * Jeu à somme nulle : La somme des fonctions de récompense de tous les joueurs est nulle. | ||
+ | * Jeu à somme générale : N'est ni un jeu d' | ||
+ | |||
+ | Théorème : Tout jeu en forme stratégique fini admet au moins un équilibre de Nash. | ||
+ | |||
+ | |||
+ | ==== Jeux de Markov ==== | ||
+ | MMDP = spécialisation du jeu de Markov dans laquelle la fonction récompense est la même pour tous les agents. | ||