1 / 8

Apprentissage (III)

Dynamique des systèmes complexes et applications aux SHS : modèles, concepts méthodes. Apprentissage (III). Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble. apprentissage non supervisé. clustering.

shima
Download Presentation

Apprentissage (III)

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Dynamique des systèmes complexes et applications aux SHS :modèles, concepts méthodes Apprentissage (III) Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble

  2. apprentissage non supervisé

  3. clustering • problème : classer (partager en sous-ensembles : clusters) un ensemble de données LM = { xm }1≤m≤M • critère : la similarité entre les données • il faut connaître le degré de similarité (distances) entre toutes les paires de points • plusieurs algorithmes • K-means : • on se donne a priori le nombre de classes K • on cherche K hypersphères qui partagent au mieux les points • classifications hiérarchique : • on cherche le meilleur arbre (hiérarchie) en fonction des degrés de similarité (ne donne pas la classe des données) • super-paramagnetic clustering • la classe et le nombre de classes donnés par l’algorithme, à ≠ granularités mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage III

  4. SPC (Blatt, Wiseman & Domany, 1996) • soit une fonction positive fortement décroissante de la distance entre les points xm et xn • on attribue à chaque point xm une étiquette smpouvant prendre un grand nombre de valeurs discrètes • fonction de coût : • modèle de Potts : sm= spin de Potts delta de Kroenecker mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage III

  5. propriétés • tous les points interagissent, mais leur interaction décroit avec la distance • si tous les sm sont égaux, E=minimum • si sm  sn la contribution Jmn disparaît : l’énergie augmente • au minimum : tous les points auront le même spin (la même étiquette) mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage III

  6. clustering • évolution Montecarlo à temperature T=1/b : • si Jmn est grand, les spins m et n resteront égaux plus souvent que si Jmn est petit mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage III

  7. exemple apprentissage_figures\3Conc.OPJ mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage III

  8. références • Hertz, Krogh et Palmer. Introduction to the Theory of Neural Computation. Addison Wesley, 1991. • Tom Mitchell. Machine Learning. McGraw Hill, 1997. • SPC : Blatt, Wiseman & Domany, Physical Review Letters 76 (N°18) 1996. • SVM : V. Vapnik. Statistical Learning Theory, Wiley, 1998. Merci ! mirta.gordon@imag.fr - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage III

More Related