Comments
Description
Transcript
Diapositiva 1 - e
Corso di Laurea magistrale in Psicologia Clinica, dello Sviluppo e Neuropsicologia Esame di Analisi Multivariata dei Dati La regressione lineare multipla Martedì 15 ottobre 2012 A cura di Matteo Forgiarini 1 La regressione multipla Esercitazione N°2 – La regressione lineare multipla Nelle precedenti analisi abbiamo ipotizzato che una variabile dipendente venga spiegata – prevista – da una sola variabile indipendente: abbiamo analizzato il modello di regressione semplice. Ma non sempre la realtà è semplice… In alcuni casi occorre utilizzare più di una variabile indipendente per spiegare (la varianza di) una variabile dipendente. Un modello di regressione che preveda 2 o più variabili indipendenti e una sola variabile dipendete è chiamato modello di regressione multipla. 2 La regressione multipla Esercitazione N°2 – La regressione lineare multipla yˆ a byx.w x byw. x w Come nella regressione semplice, la costante “a” rappresenta l’intercetta della retta, ovvero il valore di y quando tutte le x hanno valore 0. I coefficienti di regressione b cosa rappresentano? Nella regressione semplice i coefficienti b esprimono l’intero legame tra la x e la y. Nella regressione multipla la loro interpretazione è più complessa… Nella regressione multipla, il coefficiente b di ogni x esprime solo l’effetto diretto della x sulla y al netto degli effetti indiretti prodotti mediante l’interazione con le altre variabili indipendenti. Infatti l’effetto indiretto di una VI sulla y esiste solo se la correlazione tra le VI è diversa da 0; in caso contrario, non essendoci interazione tra le VI, gli effetti indiretti saranno nulli. Il coefficiente di ogni VI è chiamato coefficiente parziale di regressione tra la VI e y ed è ottenuto parzializzando l’effetto delle altre VI su y. 3 La regressione multipla Esercitazione N°2 – La regressione lineare multipla Con spss è possibile stimare i parametri della retta di regressione multipla… Nell’esempio proposto, la “peso” viene considerata dipendente. variabile variabile Il modello prevede due VI. Selezioniamo questa opzione per ottenere le stime dei coefficienti di un modello di regressione sia con una 4 sola VI sia con le due VI. La regressione multipla Coefficientsa Model Summary Model 1 2 R R Square ,789 a ,622 ,957 b ,916 Adjus ted R Square ,605 ,908 Esercitazione N°2 – La regressione lineare multipla Std. Error of the Es timate 107,63258 52,02760 a. Predictors : (Constant), potenza del motore b. Predictors : (Constant), potenza del motore, lunghezza (cm) Model 1 2 (Cons tant) potenza del motore (Cons tant) potenza del motore lunghezza (cm) Uns tandardized Coefficients B Std. Error 717,510 91,659 4,248 ,706 -794,052 182,197 3,283 ,360 3,651 ,427 Standardized Coefficients Beta ,789 ,609 ,571 t 7,828 6,015 -4,358 9,130 8,553 Sig. ,000 ,000 ,000 ,000 ,000 a. Dependent Variable: peso (in Kg) Modello 1: regressione semplice: y=“peso”, x=“potenza del motore”. Modello 1: regressione multipla: y=“peso”, x1=“potenza”,x2=“lunghezza”. I parametri del modello di regressione multipla sono tutti significativi (p-value<0.05). Il modello con due VI infatti ottiene una proporzione di varianza spiegata (0,916) maggiore del modello con una sola VI (0,622). Possiamo concludere che utilizzare anche “lunghezza” per spiegare “peso” migliora significativamente il modello; infatti il coefficiente parziale di regressione stimato per “lunghezza” risulta significativamente diverso da 0 Notiamo come il metodo “stepwise” permetta di confrontare la bontà dei due modelli ottenuti e di verificare la significatività dei parametri di tutti i modelli. Al contrario, con il metodo “enter” vengono 5 considerate contemporaneamente tutte le VI inserite. La regressione multipla Esercitazione N°2 – La regressione lineare multipla Continuiamo l’analisi degli output del modello di regressione multiplo… Coefficientsa Model 1 2 (Cons tant) potenza del motore (Cons tant) potenza del motore lunghezza (cm) Uns tandardized Coefficients B Std. Error 717,510 91,659 4,248 ,706 -794,052 182,197 3,283 ,360 3,651 ,427 Standardized Coefficients Beta ,789 ,609 ,571 t 7,828 6,015 -4,358 9,130 8,553 Sig. ,000 ,000 ,000 ,000 ,000 a. Dependent Variable: peso (in Kg) I coefficienti parziali di regressione indicano solo l’effetto diretto che ogni VI produce sulla y e vengono infatti stimati parzializzando l’effetto delle altre VI. Il segno della loro stima permette di capire la direzione della relazione (positiva o negativa) tra la VI e la y. Se il segno è positivo al crescere della VI, anche la y cresce; se il segno è negativo, ad un aumento della VI corrisponde una diminuzione della y. In particolare nel modello proposto i coefficienti indicano che il crescere della potenza del motore e della lunghezza, producono un aumento del peso dell’auto. Ma… La stima dei coefficienti parziali non ci permette di comprendere in modo chiaro il contributo unico di ogni VI: per l’analisi di un modello di regressione multipla è importante avere anche una stima della quantità di varianza della y che ogni VI permette di spiegare… 6 Il contributo unico delle VI Esercitazione N°2 – La regressione lineare multipla In particolare occorre distinguere due indici che permettono di comprendere il contributo unico di ogni VI: Il contributo unico di una VI può essere stimato grazie al quadrato della correlazione parziale: ipotizzando che y venga spiegata da x e w, Il contributo unico di una VI può anche essere valutato come la varianza della y spiegata unicamente dalla VI: ipotizzando che y venga spiegata da x e w, il quadrato della correlazione semi-parziale tra y e w Pr2yw.x indica l’effetto di w dopo aver rimosso tutta la variabilita’ spiegata da x. Sr2yw.x indica la varianza unicamente da w. di y spiegata Pr2yw.x indica la proporzione di varianza spiegata da w rispetto alla parte di varianza di y che non viene spiegata da x. 7 Il contributo unico delle VI Esercitazione N°2 – La regressione lineare multipla e b a c X W pr 2 yw. x a ae sr 2 yw. x a a acbe 8 La correlazione parziale Esercitazione N°2 – La regressione lineare multipla Per stimare i contributi unici di ogni VI in un modello di regressione multipla risulta quindi importante calcolare la matrice di correlazioni parziali tra un set di variabili... In questa finestra occorre inserire le variabili fra le quali si vuole calcolare la correlazione parziale. Nell’esempio proposto le correlazioni vengono parzializzate mantenendo costante la variabile “lunghezza”. 9 La correlazione parziale Esercitazione N°2 – La regressione lineare multipla Correlations Control Variables lunghezza (cm) capienza bagagliaio (litri) pes o (in Kg) potenza del motore capienza s erbatoio (litri) prezzo da catalogo (lire) Correlation Significance (2-tailed) df Correlation Significance (2-tailed) df Correlation Significance (2-tailed) df Correlation Significance (2-tailed) df Correlation Significance (2-tailed) df capienza bagagliaio (litri) 1,000 . 0 -,001 ,996 21 ,046 ,834 21 ,152 ,489 21 ,011 ,960 21 pes o (in Kg) -,001 ,996 21 1,000 . 0 ,894 ,000 21 ,545 ,007 21 ,745 ,000 21 potenza del motore ,046 ,834 21 ,894 ,000 21 1,000 . 0 ,663 ,001 21 ,820 ,000 21 capienza s erbatoio (litri) ,152 ,489 21 ,545 ,007 21 ,663 ,001 21 1,000 . 0 ,695 ,000 21 prezzo da catalogo (lire) ,011 ,960 21 ,745 ,000 21 ,820 ,000 21 ,695 ,000 21 1,000 . 0 La matrice contiene le correlazioni tra le coppie di variabili calcolate parzializzando l’effetto di “lunghezza”. Ogni cella (non appartenente alla diagonale principale) contiene la correlazione prxy.lunghezza. Nell’esempio proposto, 0.894=prpotenza peso.lunghezza è la correlazione parziale tra potenza e peso; pr2=(0,894)2=0,799 indica la proporzione di varianza di “peso” spiegata da “potenza” rispetto alla quantità di varianza di “peso” non spiegata dall’altra VI “lunghezza”. Nell’esempio proposto la correlazione parziale tra “potenza” e “peso” risulta significativa (p.value<0,01): possiamo quindi concludere che rispetto alla varianza di “peso” non spiegata da “lunghezza”, la variabile “potenza” permette di spiegare una quantità di varianza della VD 10 statisticamente significativa. La correlazione parziale Esercitazione N°2 – La regressione lineare multipla Selezioniamo questa opzione per ottenere le correlazioni semplici, parziali e semi-parziali Attraverso questa procedura possiamo ottenere, oltre alle stime dei coefficienti del modello di regressione multiplo, anche le stime delle correlazioni semplici, parziali e semi-parziali (cfr. diapositive successive) che ci permettono di analizzare più in profondità il contributo unico delle singole variabili. 11 La correlazione parziale Esercitazione N°2 – La regressione lineare multipla Coefficientsa Model 1 2 (Cons tant) potenza del motore (Cons tant) potenza del motore lunghezza (cm) Uns tandardized Coefficients B Std. Error 717,510 91,659 4,248 ,706 -794,052 182,197 3,283 ,360 3,651 ,427 Standardized Coefficients Beta ,789 ,609 ,571 t 7,828 6,015 -4,358 9,130 8,553 Sig. ,000 ,000 ,000 ,000 ,000 Zero-order Correlations Partial Part ,789 ,789 ,789 ,789 ,762 ,894 ,881 ,579 ,542 a. Dependent Variable: peso (in Kg) I coefficienti del modello sono uguali a quelli stimati in precedenza. In questa colonna troviamo le correlazioni semplici tra le due VI e la VD. In questa colonna troviamo le correlazioni parziali tra le due VI e la VD; in particolare: 0,894=prpotenza peso.lunghezza; 0,881=prlunghezza peso.potenza. Notiamo che 0,894 corrisponde alla stima ottenuta calcolando la matrice delle correlazioni parziali tra le variabili. Per stimare 0,881 all’interno della matrice delle pr, avremmo dovuto eseguire la medesima procedura per creare la matrice, ma parzializzando l’effetto della variabile “potenza”. Elevando al quadrato le pr possiamo calcolare il contributo unico delle due VI. (0,894)2=0,799; la variabile “potenza” spiega il 79% della varianza di “peso” che non viene spiegata da “lunghezza”. (0,881)2=0,776; la variabile “lunghezza” spiega il 77% 12 della varianza di “peso” che non viene spiegata da “potenza”. La correlazione semi-parziale Esercitazione N°2 – La regressione lineare multipla Come accennato in precedenza, è possibile stimare il contributo unico di una VI anche mediante la correlazione semi-parziale tra le VI e la VD. In particolare il quadrato della correlazione semi-parziale indica la parte di varianza della VD spiegata unicamente dalla VI al netto della varianza della VD che la VI spiega in comune con le altre VI. Sr2xy.w indica la parte di varianza della y spiegata dalla x al netto della parte di varianza della y che x spiega in comune con w. Coefficientsa Model 1 2 (Cons tant) potenza del motore (Cons tant) potenza del motore lunghezza (cm) Uns tandardized Coefficients B Std. Error 717,510 91,659 4,248 ,706 -794,052 182,197 3,283 ,360 3,651 ,427 Standardized Coefficients Beta ,789 ,609 ,571 t 7,828 6,015 -4,358 9,130 8,553 Sig. ,000 ,000 ,000 ,000 ,000 Zero-order Correlations Partial Part ,789 ,789 ,789 ,789 ,762 ,894 ,881 ,579 ,542 Correlazioni semi-parziali a. Dependent Variable: peso (in Kg) Nell’esempio proposto, 0,579 indica la correlazione semi-parziale srpotenza peso.lunghezza. In modo analogo 0,542=srlunghezza peso.potenza. Possiamo quindi affermare che la variabile “potenza” spiega, senza tenere conto del contributo in comune con “lunghezza”, il 33,5% della varianza di “peso”: (0,579)2=0,335. Similmente, il contributo unico della variabile “lunghezza” al netto del contributo comune a “potenza” risulta: (0,542)2=0,293: la variabile “lunghezza” spiega il 29,3% della varianza di 13 “peso”. Esercitazione N°2 – La regressione lineare multipla Una particolarità Procediamo con l’analisi dei tre tipi di correlazione… Coefficientsa Model 1 2 (Cons tant) potenza del motore (Cons tant) potenza del motore lunghezza (cm) Uns tandardized Coefficients B Std. Error 717,510 91,659 4,248 ,706 -794,052 182,197 3,283 ,360 3,651 ,427 Standardized Coefficients Beta ,789 ,609 ,571 t 7,828 6,015 -4,358 9,130 8,553 Sig. ,000 ,000 ,000 ,000 ,000 Zero-order Correlations Partial Part ,789 ,789 ,789 ,789 ,762 ,894 ,881 ,579 ,542 a. Dependent Variable: peso (in Kg) Notiamo che se ipotizziamo un modello di regressione semplice la correlazione semplice, parziale e semi-parziale sono uguali… perché!?! Perché in un modello di regressione semplice il legame diretto tra x e y è l’unico che vi sia… non esiste altro legame che si debba parzializzare: la proporzione di varianza spiegata di y da parte di x coincide con il contributo unico di x poiché non occorre parzializzare nessun effetto di altre VI: r2xy=pr2xy=sr2xy 14 L’R2 Esercitazione N°2 – La regressione lineare multipla del modello Model Summary Regr. Sempl. Change Statis tics Model 1 2 Regr. Mult. R Square R ,622 ,789 a b ,916 ,957 Adjus ted R Square ,605 ,908 Std. Error of the Es timate 107,63258 52,02760 R Square Change ,622 ,294 F Change 36,180 73,155 df2 df1 22 21 1 1 Sig. F Change ,000 ,000 a. Predictors : (Cons tant), potenza del motore b. Predictors : (Cons tant), potenza del motore, lunghezza (cm) Coefficientsa Model 1 2 (Cons tant) potenza del motore (Cons tant) potenza del motore lunghezza (cm) Uns tandardized Coefficients B Std. Error 717,510 91,659 4,248 ,706 -794,052 182,197 3,283 ,360 3,651 ,427 Standardized Coefficients Beta ,789 ,609 ,571 t 7,828 6,015 -4,358 9,130 8,553 Sig. ,000 ,000 ,000 ,000 ,000 Zero-order Correlations Partial Part ,789 ,789 ,789 ,789 ,762 ,894 ,881 ,579 ,542 a. Dependent Variable: peso (in Kg) Notiamo come nel modello di regressione semplice la proporzione di varianza spiegata dalla VI sia coincidente con il quadrato della correlazione semplice corr(xy): R2=0,7892=0,622. Nel modello di regressione multipla è più complesso: la proporzione di varianza spiegata R2 del modello è formata dai contributi di ogni variabile… R2=r2potenza peso + sr2lunghezza peso.potenza=(0,789)2 + (0,542)2=0,622 + 0,293=0,9157 R2=r2lunghezza peso + sr2potenza peso.lunghezza=(0,762)2 + (0,579)2=0,58 + 0,335=0,9152 15