You've loaded an old revision of the document! If you save it, you will create a new version with this data.
Articles / tuto utilisés :
Selon les ressources choisies sur internet, les algorithmes n'ont pas la même manière de mettre à jour les neurones voisins du gagnant.
pluspres.png
majgagnant.png
Avec Θ(t) la fonction de voisinage et L(t) le taux d'apprentissage :
Θ(t) = exp( -dist² / 2σ²(t)) et L(t) = L0 * exp(-t / λ)
J'ai testé l'algorithme décrit au dessus sur un espace vide en deux dimensions. Les données sont choisies aléatoirement en tirant un x et un y tel que x, y [0, 100[ ∈ N.
vide.png
Les noeuds (100 ici) sont placés aléatoirement dans cet espace comme décrit à l'étape 1 de l'algorithme.
debut.png
Voila le résultat après environ 6 000 itérations. Il est meilleur que ceux obtenus précedemment, les noeuds sont répartis dans l'espace et contrairement à ce matin, on voit un maillage.
Le taux d'apprentissage a été diminué plusieurs fois pour permettre de bouger les noeuds avec plus de précision. Il était de 1 sur les premiers tests et diminuait petit à petit lors de l'exécution avec cette équation : L(t) = L0 * exp(-t / λ) Au lieu de commencer à 1 il commence maintenant à 0.10. A la fin de l'exécution les noeuds bougent beaucoup moins et se placent assez correctement pour avoir un maillage -relativement- régulier.
fin.png