1 / 19

CAPITOLO 14

CLASSIFICAZIONE. CAPITOLO 14. La Clusterizzazione e La Classificazione non supervisionata. A. Dermanis, L. Biagi. . .  .  . 1 n i. S i = ( x – m i )( x – m i ) T. 1 n i. 1 N. m i = x. C T = S T. C i = S i. x  i. x  i. i x  i.

happy
Download Presentation

CAPITOLO 14

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. CLASSIFICAZIONE CAPITOLO 14 La Clusterizzazione e La Classificazione non supervisionata A. Dermanis, L. Biagi

  2.    1 ni Si = (x – mi)(x – mi)T 1 ni 1 N mi = x CT = ST Ci = Si xi xi i xi i xi ST = (x–m)(x–m)T 1 N m = x Clusterizzazione Clusterizzazione = divisione di N pixel in K classiω1, ω2, …, ωK matrice di dispersione della classeωi : media della classeωi : matrice di covarianza della classeωi : matrice di dispersione totale: media globale matrice di covarianza totale: A. Dermanis, L. Biagi

  3. Sex = ni (mi – m)(mi – m)T  i xi  mk = xk, Sk = 0, Sin = Sk = 0 = min, Sex = ST =max Sin = Si = (x–mi)(x–mi)T   k i i Criteri di clusterizzazione indice di coerenza delle classi matrice di dispersione interna indice di distanza fra le classi matrice di dispersione esterna ST = Sin + Sex = costante Algoritmo ottimale: Sin = min e Sex = max contemporaneamente Problema: Quanti cluster? (K = ?) Scelta estrema: K = N (una classe per ogni pixel) k = {xk} Scelta estrema: K = 1 (un’unica classe) Sin = ST, Sex = 0 A. Dermanis, L. Biagi

  4. AGGLOMERATIVE B DIVISIVE C D E F Clusterizzazione gerarchica 1 2 3 4 5 6 A Agglomerativa: Ad ogni passo vengono uniti i due cluster più vicini Divisiva: Ad ogni passo il cluster più disperso viene diviso in due nuovi cluster Sono necesssari: Criteri di unione. Criteri di divisione. A. Dermanis, L. Biagi

  5. 6 AGGLOMERATIVE B 5 DIVISIVE C 4 D 3 E F 1 2 Clusterizzazione gerarchica 1 2 3 4 5 6 A A B C D E F A. Dermanis, L. Biagi

  6. Distanza fra due cluster (alternative): distanza media: distanza minima: distanza massima: Utilizzate nella clusterizzazione gerarchica A. Dermanis, L. Biagi

  7. 9 16 14 8 15 13 12 7 6 11 5 4 10 4 6 3 5 2 2 3 8 9 1 1 7 1 2 3 4 5 6 7 8 9 L’algoritmo K-means (o delle medie mobili) A. Dermanis, L. Biagi

  8. 9 16 14 8 15 13 12 7 6 11 5 4 10 4 6 3 5 2 2 3 8 9 1 1 7 1 2 3 4 5 6 7 8 9 L’algoritmo K-means (o delle medie mobili) Passo 0: Selezione di K = 3 pixel come posizioni iniziali delle medie A. Dermanis, L. Biagi

  9. 9 16 14 8 15 13 12 7 6 11 5 4 10 4 6 3 5 2 2 3 8 9 1 1 7 1 2 3 4 5 6 7 8 9 L’algoritmo K-means (o delle medie mobili) Passo 1: Assegnazione di ogni altro pixel al cluster con la media più vicina. Ricalcolo delle nuove medie per ogni cluster. A. Dermanis, L. Biagi

  10. 9 16 14 8 15 13 12 7 6 11 5 4 10 4 6 3 5 2 2 3 8 9 1 1 7 1 2 3 4 5 6 7 8 9 L’algoritmo K-means (o delle medie mobili) Passo 2: Riassegnazione di ogni pixel al cluster con la media più vicina. Ricalcolo delle nuove medie per ogni cluster. A. Dermanis, L. Biagi

  11. 9 16 14 8 15 13 12 7 6 11 5 4 10 4 6 3 5 2 2 3 8 9 1 1 7 1 2 3 4 5 6 7 8 9 L’algoritmo K-means (o delle medie mobili) Passo 3: Riassegnazione di ogni pixel al cluster con la media più vicina. Ricalcolo delle nuove medie per ogni cluster. A. Dermanis, L. Biagi

  12. 9 16 14 8 15 13 12 7 6 11 5 4 10 4 6 3 5 2 2 3 8 9 1 1 7 1 2 3 4 5 6 7 8 9 L’algoritmo K-means (o delle medie mobili) Passo 4: Riassegnazione di ogni pixel al cluster con la media più vicina. Tutti i pixel rimangono nella classe in cui erano. Le medie non cambiano. Fine della clusterizzazione ! A. Dermanis, L. Biagi

  13. L’algoritmo Isodata Una variante di quello K means. Ad ogni passo una delle 3 seguenti procedure: 1. ELIMINAZIONE Elimina cluster con pochi pixel 2. UNIONE Unisci coppie di cluster reciprocamente vicini 3. DIVISIONE Dividi cluster dispersi in due nuovi cluster A. Dermanis, L. Biagi

  14. L’algoritmo Isodata 1. ELIMINAZIONE Elimina cluster con pochi pixel A. Dermanis, L. Biagi

  15. L’algoritmo Isodata 2. UNIONE Unisci coppie di cluster reciprocamente vicini A. Dermanis, L. Biagi

  16. L’algoritmo Isodata 3. DIVISIONE Dividi cluster dispersi in due nuovi cluster A. Dermanis, L. Biagi

  17. m2+kσ2 m2–kσ2 L’algoritmo Isodata Il processo di unione Il processo di divisione m2 m1 A. Dermanis, L. Biagi

  18. Esempi di classificazione: l’algoritmo K-means K-means: 5 classi K-means: 3 classi K-means: 7 classi K-means: 9 classi A. Dermanis, L. Biagi

  19. Esempi di classificazione: l’algoritmo ISODATA ISODATA: 5 classi ISODATA: 3 classi ISODATA: 7 classi ISODATA: 9 classi A. Dermanis, L. Biagi

More Related