Site Tools


Hotfix release available: 2024-02-06b "Kaos". upgrade now! [55.2] (what's this?)
Hotfix release available: 2024-02-06a "Kaos". upgrade now! [55.1] (what's this?)
New release available: 2024-02-06 "Kaos". upgrade now! [55] (what's this?)
Hotfix release available: 2023-04-04b "Jack Jackrum". upgrade now! [54.2] (what's this?)
Hotfix release available: 2023-04-04a "Jack Jackrum". upgrade now! [54.1] (what's this?)
New release available: 2023-04-04 "Jack Jackrum". upgrade now! [54] (what's this?)
Hotfix release available: 2022-07-31b "Igor". upgrade now! [53.1] (what's this?)
Hotfix release available: 2022-07-31a "Igor". upgrade now! [53] (what's this?)
New release available: 2022-07-31 "Igor". upgrade now! [52.2] (what's this?)
New release candidate 2 available: rc2022-06-26 "Igor". upgrade now! [52.1] (what's this?)
New release candidate available: 2022-06-26 "Igor". upgrade now! [52] (what's this?)
Hotfix release available: 2020-07-29a "Hogfather". upgrade now! [51.4] (what's this?)
memento-processus-decisionnels-de-markov-et-systemes-multiagents

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/03/07 18:10]
47.128.125.109 old revision restored (2025/02/15 03:16)
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/04/04 20:36] (current)
3.144.128.235 old revision restored (2025/03/16 04:36)
Line 12: Line 12:
    * Observalité : L'observalité d'un environnement caractérise l'ensemble des informations qui sont accessibles à un agent.    * Observalité : L'observalité d'un environnement caractérise l'ensemble des informations qui sont accessibles à un agent.
    * Observalité partielle : L'observalité est partielle quand toutes les informations nécessaires à la connaissance de l'état du système ne sont pas accessibles.    * Observalité partielle : L'observalité est partielle quand toutes les informations nécessaires à la connaissance de l'état du système ne sont pas accessibles.
-   * Jeu matriciel : n-uplet <m, A1, ..., Am, R1, ..., Rm> dans lequel m est le nombre d'agents (joueurs), Ai est l'ensemble des action pour le joueur i, Ri est la fonction de récompense pour l'agent i qui dépend de l'action jointe des agents. 
-   * Stratégie : Fonction π : Ai -> [0; 1] qui définit une distribution de probabilité sur les actions du joueur i. 
-   * Stratégie pure : Stratégie déterministe. 
-   * Stratégie mixte : Stratégie non déterministe. 
-   * Gain espéré : Esperance de récompense étant donné la stratégie de l'agent i et celle des autres agents. 
-   * Equilibre de Nash : Une stratégie jointe est un équilibre de Nash lorsque chaque joueur ne peut améliorer son gain en changeant de stratégie (chaque joueur suit une stratégie "égoïste" => pas forcément très efficace). 
-   * Optimum de Pareto : Une stratégie domine au sens de Pareto si tous les joueurs gagnent au moins autant qu'en suivant leur stratégie dominante et qu'au moins un joueur ai un gain supérieur à ce qu'il recevrait en suivran sa stratégie dominante. 
-   * Pareto Optimal : Si la stratégie jointe n'est dominée par aucune autre stratégie. 
-   * MMDP : Processus décisionnels de Markov multi-agents. Définit par un n-uplet <m, S, A1, ..., Am, T, R> où S, A, et T sont définis comme pour un jeu de Markov. 
-   * DEC-POMDP : Processuss décisionnel de Markov décentralisé partiellement observable. Définit par un n-uplet <m, S, A1, ..., Am, T, Ω1, ..., Ωm, O, R> où le n-uplet <m, S, A1, ..., Am, T, R> est un jeu de Markov, Ω est l'ensemble des observations oi de l'agent i, O est une fonction d'observation définissant une distribution de probabilité sur les actions et observations jointes. 
  
- +====  ====
-==== Généralités sur les SMA ====+
  
 Les états, actions et fonctions de récompense d'un PDM (processus décisionnel de Markov) peuvent être défini à 2 niveaux : Les états, actions et fonctions de récompense d'un PDM (processus décisionnel de Markov) peuvent être défini à 2 niveaux :
Line 48: Line 37:
      * -Communication inter-agent      * -Communication inter-agent
      * -Coordination inter-agent      * -Coordination inter-agent
- 
-==== Jeux matriciels ==== 
- 
-Types de jeux matriciels : 
-   * Jeu d'équipe : Tous les joueurs ont la même fonction de récompense. 
-   * Jeu à somme nulle : La somme des fonctions de récompense de tous les joueurs est nulle. 
-   * Jeu à somme générale : N'est ni un jeu d'équipe ni un jeu à somme nulle 
- 
-Théorème : Tout jeu en forme stratégique fini admet au moins un équilibre de Nash. 
  
  
-==== Jeux de Markov ==== 
  
-MMDP = spécialisation du jeu de Markov dans laquelle la fonction récompense est la même pour tous les agents. 
  
-==== Pistes de recherche pour la coordination inter-agent ==== 
  
-Chapitre 6 p124 : https://tel.archives-ouvertes.fr/file/index/docid/362529/filename/these_matignon.pdf 
  
  
memento-processus-decisionnels-de-markov-et-systemes-multiagents.1741367454.txt.gz · Last modified: 2025/03/07 18:10 by 47.128.125.109