Articles / tuto utilisés :
Selon les ressources choisies sur internet, les algorithmes n'ont pas la même manière de mettre à jour les neurones voisins du gagnant.
Avec Θ(t) la fonction de voisinage et L(t) le taux d'apprentissage :
Θ(t) = exp( -dist² / 2σ²(t))
et
L(t) = L0 * exp(-t / λ)
J'ai testé l'algorithme décrit au dessus sur un espace vide en deux dimensions. Les données sont choisies aléatoirement en tirant un x et un y tel que x, y [0, 100[ ∈ N.
Les noeuds (25 ici) sont placés aléatoirement dans cet espace comme décrit à l'étape 1 de l'algorithme.
Il y a probablement un petit souci quelque part, les noeuds se collent et vont de plus en plus loin ( [170, 170] dans l'exemple ci-dessous). Ceci ne devrait pas arriver puisque les données choisies ont une limite de 100 en x et en y.
Comment résoudre le problème :