Site Tools


Hotfix release available: 2024-02-06b "Kaos". upgrade now! [55.2] (what's this?)
Hotfix release available: 2024-02-06a "Kaos". upgrade now! [55.1] (what's this?)
New release available: 2024-02-06 "Kaos". upgrade now! [55] (what's this?)
Hotfix release available: 2023-04-04b "Jack Jackrum". upgrade now! [54.2] (what's this?)
Hotfix release available: 2023-04-04a "Jack Jackrum". upgrade now! [54.1] (what's this?)
New release available: 2023-04-04 "Jack Jackrum". upgrade now! [54] (what's this?)
Hotfix release available: 2022-07-31b "Igor". upgrade now! [53.1] (what's this?)
Hotfix release available: 2022-07-31a "Igor". upgrade now! [53] (what's this?)
New release available: 2022-07-31 "Igor". upgrade now! [52.2] (what's this?)
New release candidate 2 available: rc2022-06-26 "Igor". upgrade now! [52.1] (what's this?)
New release candidate available: 2022-06-26 "Igor". upgrade now! [52] (what's this?)
Hotfix release available: 2020-07-29a "Hogfather". upgrade now! [51.4] (what's this?)
memento-processus-decisionnels-de-markov-et-systemes-multiagents

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/03/16 04:36]
47.128.61.204 old revision restored (2025/02/22 19:58)
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/04/03 07:27] (current)
47.128.123.108 old revision restored (2025/02/21 18:25)
Line 12: Line 12:
    * Observalité : L'observalité d'un environnement caractérise l'ensemble des informations qui sont accessibles à un agent.    * Observalité : L'observalité d'un environnement caractérise l'ensemble des informations qui sont accessibles à un agent.
    * Observalité partielle : L'observalité est partielle quand toutes les informations nécessaires à la connaissance de l'état du système ne sont pas accessibles.    * Observalité partielle : L'observalité est partielle quand toutes les informations nécessaires à la connaissance de l'état du système ne sont pas accessibles.
 +   * Jeu matriciel : n-uplet <m, A1, ..., Am, R1, ..., Rm> dans lequel m est le nombre d'agents (joueurs), Ai est l'ensemble des action pour le joueur i, Ri est la fonction de récompense pour l'agent i qui dépend de l'action jointe des agents.
 +   * Stratégie : Fonction π : Ai -> [0; 1] qui définit une distribution de probabilité sur les actions du joueur i.
 +   * Stratégie pure : Stratégie déterministe.
 +   * Stratégie mixte : Stratégie non déterministe.
 +   * Gain espéré : Esperance de récompense étant donné la stratégie de l'agent i et celle des autres agents.
 +   * Equilibre de Nash : Une stratégie jointe est un équilibre de Nash lorsque chaque joueur ne peut améliorer son gain en changeant de stratégie (chaque joueur suit une stratégie "égoïste" => pas forcément très efficace).
 +   * Optimum de Pareto : Une stratégie domine au sens de Pareto si tous les joueurs gagnent au moins autant qu'en suivant leur stratégie dominante et qu'au moins un joueur ai un gain supérieur à ce qu'il recevrait en suivran sa stratégie dominante.
 +   * Pareto Optimal : Si la stratégie jointe n'est dominée par aucune autre stratégie.
 +   * MMDP : Processus décisionnels de Markov multi-agents. Définit par un n-uplet <m, S, A1, ..., Am, T, R> où S, A, et T sont définis comme pour un jeu de Markov.
 +   * DEC-POMDP : Processuss décisionnel de Markov décentralisé partiellement observable. Définit par un n-uplet <m, S, A1, ..., Am, T, Ω1, ..., Ωm, O, R> où le n-uplet <m, S, A1, ..., Am, T, R> est un jeu de Markov, Ω est l'ensemble des observations oi de l'agent i, O est une fonction d'observation définissant une distribution de probabilité sur les actions et observations jointes.
  
-====  ====+ 
 +==== Généralités sur les SMA ====
  
 Les états, actions et fonctions de récompense d'un PDM (processus décisionnel de Markov) peuvent être défini à 2 niveaux : Les états, actions et fonctions de récompense d'un PDM (processus décisionnel de Markov) peuvent être défini à 2 niveaux :
Line 38: Line 49:
      * -Coordination inter-agent      * -Coordination inter-agent
  
 +==== Jeux matriciels ====
 +
 +Types de jeux matriciels :
 +   * Jeu d'équipe : Tous les joueurs ont la même fonction de récompense.
 +   * Jeu à somme nulle : La somme des fonctions de récompense de tous les joueurs est nulle.
 +   * Jeu à somme générale : N'est ni un jeu d'équipe ni un jeu à somme nulle
 +
 +Théorème : Tout jeu en forme stratégique fini admet au moins un équilibre de Nash.
 +
 +
 +==== Jeux de Markov ====
  
 +MMDP = spécialisation du jeu de Markov dans laquelle la fonction récompense est la même pour tous les agents.
  
  
memento-processus-decisionnels-de-markov-et-systemes-multiagents.1742096193.txt.gz · Last modified: 2025/03/16 04:36 by 47.128.61.204