This shows you the differences between two versions of the page.
Both sides previous revision Previous revision | |||
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/07/06 18:42] 47.128.62.133 old revision restored (2025/03/04 17:59) |
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/07/06 18:54] (current) 47.128.37.43 old revision restored (2025/03/03 17:41) |
||
---|---|---|---|
Line 18: | Line 18: | ||
* Gain espéré : Esperance de récompense étant donné la stratégie de l' | * Gain espéré : Esperance de récompense étant donné la stratégie de l' | ||
* Equilibre de Nash : Une stratégie jointe est un équilibre de Nash lorsque chaque joueur ne peut améliorer son gain en changeant de stratégie (chaque joueur suit une stratégie " | * Equilibre de Nash : Une stratégie jointe est un équilibre de Nash lorsque chaque joueur ne peut améliorer son gain en changeant de stratégie (chaque joueur suit une stratégie " | ||
- | * Optimum de Pareto : Une stratégie domine au sens de Pareto si tous les joueurs gagnent au moins autant qu'en suivant leur stratégie dominante et qu'au moins un joueur ai un gain supérieur à ce qu'il recevrait en suivran sa stratégie dominante. | ||
- | * Pareto Optimal : Si la stratégie jointe n'est dominée par aucune autre stratégie. | ||
- | * MMDP : Processus décisionnels de Markov multi-agents. Définit par un n-uplet <m, S, A1, ..., Am, T, R> où S, A, et T sont définis comme pour un jeu de Markov. | ||
- | |||
==== Généralités sur les SMA ==== | ==== Généralités sur les SMA ==== | ||
Line 58: | Line 54: | ||
- | ==== Jeux de Markov ==== | ||
- | |||
- | MMDP = spécialisation du jeu de Markov dans laquelle la fonction récompense est la même pour tous les agents. | ||