1 / 19

Identificabilità a priori: esperimento “ideale” Esperimento reale: raccolta di dati sperimentali

Identificabilità a priori: esperimento “ideale” Esperimento reale: raccolta di dati sperimentali y 1 , y 2 ,…,y n in corrispondenza delle variabili x 1 , x 2 ,…,x n ( t 1 , t 2 ,…, t n ) Ad ogni dato sperimentale è associato un errore sperimentale:  1 ,  2 , …,  n.

tao
Download Presentation

Identificabilità a priori: esperimento “ideale” Esperimento reale: raccolta di dati sperimentali

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Identificabilità a priori: esperimento “ideale” Esperimento reale: raccolta di dati sperimentali y1, y2,…,yn in corrispondenza delle variabili x1, x2,…,xn (t1, t2,…, tn) Ad ogni dato sperimentale è associato un errore sperimentale: 1, 2, …, n

  2. In corrispondenza delle variabili x1, x2,…,xn (t1, t2,…, tn) il modello fornisce le sue previsioni: fi=f(ti,p1,p2,…,pp) Confronto tra misure e previsioni del modello: errori di misura errori nel segnale di input errori nella struttura del modello

  3. STIMATORI Unbiasedness: la funzione di distribuzione probabilità dei vettori p è distribuita simmetricamente intorno al valore vero p0 Varianza minima: tra tutti i possibili stimatori unbiased, deve avere varianza minima: Efficienza: uno stimatore efficiente è quello che raggiunge il valore più basso della covarianza (limite inferiore di Cramer-Rao). Consistenza: Al tendere all’infinito della dimensione del campione (del numero di misure effettuate) la stima tende al valore vero p0:

  4. METODO DEI MINIMI QUADRATI e= differenza tra valore misurato e previsione del modello R = matrice di covarianza degli errori di misura. HP: MODELLO LINEARE NEI PARAMETRI Questo stimatore verifica le condizioni richieste sopra (in particolare, la varianza minima, che non è invece verificata se non c’è la matrice di covarianza). Nel caso in cui gli errori di misura sono bianchi (cioè, non correlati) la matrice di covarianza è diagonale. Se inoltre gli errori di misura sono gaussiani, allora le stime sui parametri ricavate con questo stimatore sono distribuite normalmente con media e deviazione standard come ricavate dal fit. E’ quindi possibile fare tutta una serie di considerazioni di tipo statistico riguardanti la bontà del fit e gli intervalli di confidenza.

  5. METODO DEI MINIMI QUADRATI Squared sums of the weighted residuals (objective function)

  6. METODO DEI MINIMI QUADRATI modello lineare nei parametri

  7. METODO DEI MINIMI QUADRATI Modello non lineare nei parametri In questo caso, la funzione da minimizzare non è più quadratica nei parametri incogniti, e quindi quando si considerano le derivate per la minimizzazione non si ha più un sistema di equazioni lineari del prim’ordine in p: soluzioni possibili utilizzando procedure iterative. PROCEDURA PIU’ COMUNE: Algoritmo di Levenberg-Marquardt Metodo delle approssimazioni quadratiche Metodo della massima pendenza (steepest descent)

  8. ALGORITMO DI LEVENBERG-MARQUARDT Metodo delle approssimazioni quadratiche Approssimazione della funzione obiettivo in un intorno di un dato set di valore del vettore dei parametri p dove b è un vettore p-dimensionale legato al gradiente della funzione obiettivo, e A una matrice di dimensioni pxp

  9. ALGORITMO DI LEVENBERG-MARQUARDT Metodo delle approssimazioni quadratiche Si valutano i valori dei componenti di A e b in corrispondenza di un determinato valore pjdel vettore dei parametri, e si calcola poi pj+1=pj+A-1b Metodo della steepest descent In questo caso l’incremento in ogni iterazione si calcola pj+1=pj+c·b ove c è una opportuna costante. Il primo metodo più efficace vicino al minimo, il secondo metodo più efficace lontano dal minimo.

  10. METODO DELLA MASSIMA VEROSIMIGLIANZA Questo metodo richiede in anticipo una conoscenza di qual è la distribuzione di probabilità attesa per i risultati delle misure. Al processo di raccolta dei dati sperimentali va associata una FUNZIONE DI DISTRIBUZIONE DI PROBABILITA’, che sarà in qualche modo dipendente dai parametri del modello: L(y, p). Dato un set di misure y1, y2,…, yn, viene quindi ricercato il valore dei parametri che rendono massima la probabilità di ottenere quei valori misurati: Lo stimatore ML possiede tutte le proprietà asintotiche richieste nel caso in cui le misure sono statisticamente indipendenti, ma questo non è garantito nel caso di numero piccolo di misure.

  11. METODO DELLA MASSIMA VEROSIMIGLIANZA Nel caso in cui la funzione di probabilità è gaussiana, allora la funzione da massimizzare risulta la seguente: essendo R la matrice di covarianza degli errori, che nel caso siano tutti indipendenti è diagonale e quindi: I due metodi coincidono, e quindi anche nel caso di modelli non lineari valgono le proprietà asintotiche dello stimatore ML.

  12. DISTRIBUZIONE DEL CHI-QUADRATO Si consideri una serie di misure (x1,…,xn) rappresentative di una popolazione con valore vero μ e con varianza σ. Si definisce chi-quadrato: Funzione di distribuzione di probabilità per ν gradi di libertà ove: Γ(x+1) = xΓ(x); Γ(1) = 1 Γ(1/2) = All'aumentare dei gradi di libertà, la distribuzione del chi-quadrato tende alla distribuzione normale.

  13. DISTRIBUZIONE DEL CHI-QUADRATO

  14. DISTRIBUZIONE DEL CHI-QUADRATO SI DIMOSTRA CHE, SE LE OSSERVABILI SONO DISTRIBUITE NORMALMENTE, IL VALORE MINIMO ASSUNTO DA SSWR E' DISTRIBUITO COME UNA VARIABILE χ2 CON (n-p) GRADI DI LIBERTA’ POSSIBILITA' DI VALUTARE IN MANIERA STATISTICA LA BONTA' DEL FIT.

  15. DISTRIBUZIONE DEL CHI-QUADRATO SI DIMOSTRA CHE, SE LE OSSERVABILI SONO DISTRIBUITE NORMALMENTE, IL VALORE MINIMO ASSUNTO DA SSWR E' DISTRIBUITO COME UNA VARIABILE χ2 CON (n-p) GRADI DI LIBERTA’ POSSIBILITA' DI VALUTARE IN MANIERA STATISTICA LA BONTA' DEL FIT. Nel caso dell'analisi compartimentale, sono stati sviluppati degli indicatori appositi che permettono di avere informazioni sulla bontà del fit, ma che in particolare sono utili per confrontare tra loro strutture compartimentali "concorrenti": AIC (Akaike Information Criterion): uMIN + 2n SC (Schwarz Criterion): uMIN + n·ln(N)

  16. Criterio di convergenza Come varia il peso associato ad un dato sperimentale a seconda delle opzioni scelte ERRORE ESPRESSO COME SD=d FSD=f Dati Modello Dati Modello ASSO LUTO RELA TIVO

  17. Modello di varianza In ogni iterazione, il programma cerca valori dei parametri che risultano in una diminuzione del valore della funzione obiettivo. Se, per ogni parametro, la differenza tra il valore assunto dal p nella i-esima iterazione e quello assunto nella iterazione precedente verifica la relazione: allora si considera soddisfatto il criterio di convergenza.

  18. RESIDUI: CHIQUADRO: Iniettato Ingerito Residuo Chiquadro Residuo Chiquadro 0.147 0.022 0.202 0.041 -0.735 0.540 -0.356 0.127 0.365 0.133 0.622 0.387 0.965 0.931 0.114 0.013 -0.335 0.112 0.246 0.061 0.653 0.426 0.160 0.026 0.039 1.52e-3 0.517 0.267 -0.286 0.082 0.101 0.010 -1.876 3.519 -0.233 0.054 1.090 1.188 -1.436 2.062 0.476 0.227 0.494 0.244 1.882 3.542 -0.748 0.560 10.724 3.851 14.575

  19. CHI QUADRO Chiquadro calcolato: 14.575 Numero di gradi di libertà: numero di dati sperimentali meno numero di parametri determinati: 24-7 = 17 Chiquadro ridotto: 0.857 Probabilità: 62.88 % (0.8: 70%; 1.0: 45%)

More Related