This shows you the differences between two versions of the page.
| Both sides previous revision Previous revision Next revision | Previous revision | ||
|
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/10/30 20:51] 185.251.46.38 old revision restored (2025/10/13 00:31) |
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/11/13 02:36] (current) 216.73.216.15 old revision restored (2025/10/29 22:58) |
||
|---|---|---|---|
| Line 10: | Line 10: | ||
| * Kénétique : Désigne la science qui étudie les organisations artificielles et les interactions entre entités, qu' | * Kénétique : Désigne la science qui étudie les organisations artificielles et les interactions entre entités, qu' | ||
| * Situation de coopération : Lorsque des agents ont des objectifs compatibles mais que les ressources ou les compétences d'un ou plusieurs agents sont insuffisantes. | * Situation de coopération : Lorsque des agents ont des objectifs compatibles mais que les ressources ou les compétences d'un ou plusieurs agents sont insuffisantes. | ||
| + | * Observalité : L' | ||
| + | * Observalité partielle : L' | ||
| + | * Jeu matriciel : n-uplet <m, A1, ..., Am, R1, ..., Rm> dans lequel m est le nombre d' | ||
| + | * Stratégie : Fonction π : Ai -> [0; 1] qui définit une distribution de probabilité sur les actions du joueur i. | ||
| + | * Stratégie pure : Stratégie déterministe. | ||
| + | * Stratégie mixte : Stratégie non déterministe. | ||
| + | * Gain espéré : Esperance de récompense étant donné la stratégie de l' | ||
| + | * Equilibre de Nash : Une stratégie jointe est un équilibre de Nash lorsque chaque joueur ne peut améliorer son gain en changeant de stratégie (chaque joueur suit une stratégie " | ||
| + | |||
| + | ==== Généralités sur les SMA ==== | ||
| + | |||
| + | Les états, actions et fonctions de récompense d'un PDM (processus décisionnel de Markov) peuvent être défini à 2 niveaux : | ||
| + | * niveau global : observation de la dynamique globale du système, observation de l' | ||
| + | * niveau local : les agents perçoivent leur environnement et prennent leur décisions. | ||
| + | |||
| + | Problème de distribution des récompenses : | ||
| + | Objectif est défini de manière globale, la récompense peut-être définie par une fonction commune à tous les agents selon l' | ||
| + | Deux possibilités : | ||
| + | * La récompense peut être distribuée individuellement à chaque agent (tout en dépendant des actions jointe, maximiser ses satisfactions individuelles ne conduit pas forcément à maximiser celle du groupe) | ||
| + | * Distribuer une récompense globale et laisser les agents décider eux-même dans quelle mesure leur comportement a participé à la résolution du problème. | ||
| + | |||
| + | Définir les politiques individuelles : | ||
| + | * Architecture centralisée : un contrôleur central dispose de l' | ||
| + | * +Nombre limité d' | ||
| + | * +Pas de mécanisme de coordination inter-agent | ||
| + | * -Peu robuste | ||
| + | * -Difficilement modifiable (pas de modularité) | ||
| + | * Architecture décentralisée (architecture hétérarchique) : chaque agent construit sa propre politique à partir de ses connaissances. Avantages/ | ||
| + | * +Meilleure modularité | ||
| + | * +Meilleure robustesse | ||
| + | * -Perception partielle | ||
| + | * -Communication inter-agent | ||
| + | * -Coordination inter-agent | ||
| + | |||
| + | ==== Jeux matriciels ==== | ||
| + | |||
| + | Types de jeux matriciels : | ||
| + | * Jeu d' | ||
| + | * Jeu à somme nulle : La somme des fonctions de récompense de tous les joueurs est nulle. | ||
| + | * Jeu à somme générale : N'est ni un jeu d' | ||
| + | |||
| + | |||
| + | |||
| + | |||
| - | Reprendre la lecture p86 | ||