This shows you the differences between two versions of the page.
| Both sides previous revision Previous revision Next revision | Previous revision | ||
|
compte-rendu-etat-art-these [2026/01/01 23:01] 66.118.142.156 old revision restored (2025/11/28 07:58) |
compte-rendu-etat-art-these [2026/01/10 12:38] (current) 66.249.70.200 old revision restored (2025/08/31 01:45) |
||
|---|---|---|---|
| Line 1: | Line 1: | ||
| ===== Compte-rendu de l' | ===== Compte-rendu de l' | ||
| + | |||
| + | ==Types d’apprentissage artificiel== | ||
| + | * Mémorisation par cœur (rote learning) : implémentation directe du savoir et des compétences, | ||
| + | * Apprendre par instruction : transformation du savoir en représentation interne pour intégration au savoir préexistant. | ||
| + | * Apprendre par l’exemple et par entrainement : à partir d’exemples positifs ou négatifs et expérience pratique. | ||
| + | * Par analogie : extension d’un savoir d’un problème résolu vers un problème non résolu. | ||
| + | * Par découverte : faire des observations, | ||
| + | |||
| + | ==Caractéristiques de l’apprentissage pour les systèmes artificiels== | ||
| + | * Apprentissage hors ligne (offline): la période d’apprentissage est préalable et indépendante à l’éxécution du programme. | ||
| + | * Apprentissage en ligne (online): le programme apprend au cours de son activité. | ||
| + | * Apprentissage par lots (batch learning): technique intermédiaire (des phases d’apprentissages offline à intervalle de temps régulier durant l’activité). | ||
| + | |||
| + | ====Principaux types d’apprentissage==== | ||
| + | |||
| + | ===Apprentissage supervisé=== | ||
| + | le feedback spécifie exactement l’activité désirée de l’apprenant. L’objectif de l’apprentissage est de s’y conformer le plus possible. | ||
| + | Permet l' | ||
| + | Exemple : Réseaux de neurones et reconnaissance d' | ||
| + | |||
| + | ===Apprentissage non supervisé=== | ||
| + | Pas de feedback explicite. L’objectif est de trouver les activités utiles et désirées sur la base du tâtonnement. | ||
| + | Recherche de points commun dans les données contextuellement à l' | ||
| + | Exemple : ? | ||
| + | |||
| + | ===Apprentissage par récompense=== | ||
| + | le feedback spécifie seulement l’utilité du comportement | ||
| + | |||
| + | ==Apprentissage par récompense (renforcement)== | ||
| + | Apprend un comportement par tatonnement. Recoit en entrée une perception, genère une action puis la valeur de cette action lui est passé. | ||
| + | Exemple : TPs Mif24 bras qui avance / robot qui sort du labyrinthe. | ||
| + | |||
| + | ==Apprentissage par récompense (Stochastique)== | ||
| + | Evaluer, selectionner, | ||
| + | Exemple : Algo génétique | ||
| + | |||
| + | |||
| + | ====L’apprentissage dans le cadre de l’AmI==== | ||
| + | |||
| + | ===Les techniques de classification=== | ||
| + | Efficace pour apprendre un concept ciblé dans un environnement maîtrisé. | ||
| + | Pas de capacité d' | ||
| + | Exemple : Algorithme d' | ||
| + | |||
| + | ===L’apprentissage par renforcement=== | ||
| + | Difficilement utilisable pour l'AmI, car : | ||
| + | | ||
| + | | ||
| + | |||
| + | Bilan : Besoin d'une approche plus globale ne se limitant pas à mettre en place des solutions pour des sous problèmes indépendants. | ||
| + | |||
| + | ===Exemple d’une approche globale=== | ||
| + | Triplet de capteurs (O, M, C) [Objet, Mouvement, Contextuel], | ||
| + | Représentations définies sur un triplet (E, C, A) [Evenement, Condition, Action], | ||