sabato 27 febbraio 2010

Come creare un InkBlot graph con R

Questo post è dedicato alla creazione con R di un InkBlot chart, anche chiamato Kaleidoscope Chart, di cui potete vedere un esempio a questo link.
Ciò di cui necessitiamo è la library ggplot2, che è il gold standard della grafica con R. E ovviamente dobbiamo procurarci i giusti dati da analizzare!

I dati che utilizzerò sono presi dal sito ISTAT; in particolare userò alcune tabelle con le previsioni della popolazione residente nelle varie regioni italiane, dal 2007 al 2051. Questo è il link da cui ho preso i file csv: LINK.

Per prima cosa importiamo i file csv delle 20 regioni italiane in R:


mydata_piem <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Piemonte.csv", sep=",")
mydata_vall <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Valle_D_Aosta.csv", sep=",")
mydata_lomb <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Lombardia.csv", sep=",")
mydata_trnt <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Trentino-Alto_Adige.csv", sep=",")
mydata_vene <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Veneto.csv", sep=",")
mydata_friu <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Friuli-Venezia_Giulia.csv", sep=",")
mydata_ligu <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Liguria.csv", sep=",")
mydata_emil <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Emilia_Romagna.csv", sep=",")
mydata_tosc <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Toscana.csv", sep=",")
mydata_umbr <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Umbria.csv", sep=",")
mydata_marc <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Marche.csv", sep=",")
mydata_lazi <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Lazio.csv", sep=",")
mydata_abru <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Abruzzo.csv", sep=",")
mydata_moli <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Molise.csv", sep=",")
mydata_camp <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Campania.csv", sep=",")
mydata_pugl <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Puglia.csv", sep=",")
mydata_basi <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Basilicata.csv", sep=",")
mydata_cala <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Calabria.csv", sep=",")
mydata_sici <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Sicilia.csv", sep=",")
mydata_sard <- read.table("http://demo.istat.it/uniprev/dati/Residenti-Regione_Sardegna.csv", sep=",")


Se andiamo a studiare uno qualsiasi dei dataframe appena creati, ad esempio con il comando mydata_piem[, 1:10], possiamo immediatamente capire quali dati dobbiamo estrarre.
Osservando difatti la struttura del dataframe, deduciamo che:
- le colonne 4, 7, 10, ..., 136 contengono il valore totale della popolazione (maschi + femmine) per ogni anno
- la riga 107 contiene il totale secondo lo "scenario centrale"
- la riga 212 contiene il totale secondo lo "scenario basso"
- la riga 317 contiene il totale secondo lo "scenario alto"
(fa eccezione il file della Valle d'Aosta, in cui vanno estratte le righe 105, 210, 315: forse un errore?).

Supponiamo quindi di voler estrarre l'ammontare della popolazione totale del Piemonte, per tutti gli anni, secondo lo scenario centrale. Usiamo i seguenti comandi:


sequenza <- seq(from=4, to=136, by=3)
aa <- mydata_piem[107, sequenza]


Il vettore sequenza contiene i numeri della colonna che ci servono (a partire dalla quarta, fino alla 136, ogni 3). La riga 107 contiene i totali che ci occorrono. Verifichiamo il formato della variabile appena creata:


class(aa)
[1] "data.frame"


E' un dataframe, ma per il nostro scopo dobbiamo convertirlo in un vettore. Non ho trovato alcun metodo per convertire un dataframe in un vettore, per cui dobbiamo fare qualche operazione in più. Convertire il dataframe in una matrice; estrarre i dati; trasformarli in un vettore contenente dati numerici. Ecco il codice:


aa <- as.matrix(mydata_piem)[107, sequenza]
piemonte <- as.vector(as.numeric(aa1.c))


A questo punto abbiamo ottenuto il vettore piemonte contenente i dati numerici che ci occorrono.

E ora arriva la parte noiosa: dobbiamo ripetere la stessa operazione per tutt'e 20 le regioni italiane, e per i 3 scenari (centrale, basso, alto). Riporto di seguito l'intero codice, indicando con:
- NOME_REGIONE1 = scenario centrale
- NOME_REGIONE2 = scenario basso
- NOME_REGIONE3 = scenario alto


sequenza <- seq(from=4, to=136, by=3)

aa1.c <- as.matrix(mydata_piem)[107, sequenza]
piemonte1 <- as.vector(as.numeric(aa1.c))
aa1.b <- as.matrix(mydata_piem)[212, sequenza]
piemonte2 <- as.vector(as.numeric(aa1.b))
aa1.a <- as.matrix(mydata_piem)[317, sequenza]
piemonte3 <- as.vector(as.numeric(aa1.a))

aa2.c <- as.matrix(mydata_vall)[105, sequenza]
valle_daosta1 <- as.vector(as.numeric(aa2.c))
aa2.b <- as.matrix(mydata_vall)[210, sequenza]
valle_daosta2 <- as.vector(as.numeric(aa2.b))
aa2.a <- as.matrix(mydata_vall)[315, sequenza]
valle_daosta3 <- as.vector(as.numeric(aa2.a))

aa3.c <- as.matrix(mydata_lomb)[107, sequenza]
lombardia1 <- as.vector(as.numeric(aa3.c))
aa3.b <- as.matrix(mydata_lomb)[212, sequenza]
lombardia2 <- as.vector(as.numeric(aa3.b))
aa3.a <- as.matrix(mydata_lomb)[317, sequenza]
lombardia3 <- as.vector(as.numeric(aa3.a))

aa4.c <- as.matrix(mydata_trnt)[107, sequenza]
trentino_alto_adige1 <- as.vector(as.numeric(aa4.c))
aa4.b <- as.matrix(mydata_trnt)[212, sequenza]
trentino_alto_adige2 <- as.vector(as.numeric(aa4.b))
aa4.a <- as.matrix(mydata_trnt)[317, sequenza]
trentino_alto_adige3 <- as.vector(as.numeric(aa4.a))

aa5.c <- as.matrix(mydata_vene)[107, sequenza]
veneto1 <- as.vector(as.numeric(aa5.c))
aa5.b <- as.matrix(mydata_vene)[212, sequenza]
veneto2 <- as.vector(as.numeric(aa5.b))
aa5.a <- as.matrix(mydata_vene)[317, sequenza]
veneto3 <- as.vector(as.numeric(aa5.a))

aa6.c <- as.matrix(mydata_friu)[107, sequenza]
friuli_venezia_giulia1 <- as.vector(as.numeric(aa6.c))
aa6.b <- as.matrix(mydata_friu)[212, sequenza]
friuli_venezia_giulia2 <- as.vector(as.numeric(aa6.b))
aa6.a <- as.matrix(mydata_friu)[317, sequenza]
friuli_venezia_giulia3 <- as.vector(as.numeric(aa6.a))

aa7.c <- as.matrix(mydata_ligu)[107, sequenza]
liguria1 <- as.vector(as.numeric(aa7.c))
aa7.b <- as.matrix(mydata_ligu)[212, sequenza]
liguria2 <- as.vector(as.numeric(aa7.b))
aa7.a <- as.matrix(mydata_ligu)[317, sequenza]
liguria3 <- as.vector(as.numeric(aa7.a))

aa8.c <- as.matrix(mydata_emil)[107, sequenza]
emilia_romagna1 <- as.vector(as.numeric(aa8.c))
aa8.b <- as.matrix(mydata_emil)[212, sequenza]
emilia_romagna2 <- as.vector(as.numeric(aa8.b))
aa8.a <- as.matrix(mydata_emil)[317, sequenza]
emilia_romagna3 <- as.vector(as.numeric(aa8.a))

aa9.c <- as.matrix(mydata_tosc)[107, sequenza]
toscana1 <- as.vector(as.numeric(aa9.c))
aa9.b <- as.matrix(mydata_tosc)[212, sequenza]
toscana2 <- as.vector(as.numeric(aa9.b))
aa9.a <- as.matrix(mydata_tosc)[317, sequenza]
toscana3 <- as.vector(as.numeric(aa9.a))

aa10.c <- as.matrix(mydata_umbr)[107, sequenza]
umbria1 <- as.vector(as.numeric(aa10.c))
aa10.b <- as.matrix(mydata_umbr)[212, sequenza]
umbria2 <- as.vector(as.numeric(aa10.b))
aa10.a <- as.matrix(mydata_umbr)[317, sequenza]
umbria3 <- as.vector(as.numeric(aa10.a))

aa11.c <- as.matrix(mydata_marc)[107, sequenza]
marche1 <- as.vector(as.numeric(aa11.c))
aa11.b <- as.matrix(mydata_marc)[212, sequenza]
marche2 <- as.vector(as.numeric(aa11.b))
aa11.a <- as.matrix(mydata_marc)[317, sequenza]
marche3 <- as.vector(as.numeric(aa11.a))

aa12.c <- as.matrix(mydata_lazi)[107, sequenza]
lazio1 <- as.vector(as.numeric(aa12.c))
aa12.b <- as.matrix(mydata_lazi)[212, sequenza]
lazio2 <- as.vector(as.numeric(aa12.b))
aa12.a <- as.matrix(mydata_lazi)[317, sequenza]
lazio3 <- as.vector(as.numeric(aa12.a))

aa13.c <- as.matrix(mydata_abru)[107, sequenza]
abruzzo1 <- as.vector(as.numeric(aa13.c))
aa13.b <- as.matrix(mydata_abru)[212, sequenza]
abruzzo2 <- as.vector(as.numeric(aa13.b))
aa13.a <- as.matrix(mydata_abru)[317, sequenza]
abruzzo3 <- as.vector(as.numeric(aa13.a))

aa14.c <- as.matrix(mydata_moli)[107, sequenza]
molise1 <- as.vector(as.numeric(aa14.c))
aa14.b <- as.matrix(mydata_moli)[212, sequenza]
molise2 <- as.vector(as.numeric(aa14.b))
aa14.a <- as.matrix(mydata_moli)[317, sequenza]
molise3 <- as.vector(as.numeric(aa14.a))

aa15.c <- as.matrix(mydata_camp)[107, sequenza]
campania1 <- as.vector(as.numeric(aa15.c))
aa15.b <- as.matrix(mydata_camp)[212, sequenza]
campania2 <- as.vector(as.numeric(aa15.b))
aa15.a <- as.matrix(mydata_camp)[317, sequenza]
campania3 <- as.vector(as.numeric(aa15.a))

aa16.c <- as.matrix(mydata_pugl)[107, sequenza]
puglia1 <- as.vector(as.numeric(aa16.c))
aa16.b <- as.matrix(mydata_pugl)[212, sequenza]
puglia2 <- as.vector(as.numeric(aa16.b))
aa16.a <- as.matrix(mydata_pugl)[317, sequenza]
puglia3 <- as.vector(as.numeric(aa16.a))

aa17.c <- as.matrix(mydata_basi)[107, sequenza]
basilicata1 <- as.vector(as.numeric(aa17.c))
aa17.b <- as.matrix(mydata_basi)[212, sequenza]
basilicata2 <- as.vector(as.numeric(aa17.b))
aa17.a <- as.matrix(mydata_basi)[317, sequenza]
basilicata3 <- as.vector(as.numeric(aa17.a))

aa18.c <- as.matrix(mydata_cala)[107, sequenza]
calabria1 <- as.vector(as.numeric(aa18.c))
aa18.b <- as.matrix(mydata_cala)[212, sequenza]
calabria2 <- as.vector(as.numeric(aa18.b))
aa18.a <- as.matrix(mydata_cala)[317, sequenza]
calabria3 <- as.vector(as.numeric(aa18.a))

aa19.c <- as.matrix(mydata_sici)[107, sequenza]
sicilia1 <- as.vector(as.numeric(aa19.c))
aa19.b <- as.matrix(mydata_sici)[212, sequenza]
sicilia2 <- as.vector(as.numeric(aa19.b))
aa19.a <- as.matrix(mydata_sici)[317, sequenza]
sicilia3 <- as.vector(as.numeric(aa19.a))

aa20.c <- as.matrix(mydata_sard)[107, sequenza]
sardegna1 <- as.vector(as.numeric(aa20.c))
aa20.b <- as.matrix(mydata_sard)[212, sequenza]
sardegna2 <- as.vector(as.numeric(aa20.b))
aa20.a <- as.matrix(mydata_sard)[317, sequenza]
sardegna3 <- as.vector(as.numeric(aa20.a))


La parte noiosa è quasi terminata. Creiamo adesso un vettore contenente gli anni, e 3 dataframes contenenti i dati appena ricavati:


anni <- seq(2007, 2051, 1)

mydata.c <- data.frame(piemonte1, valle_daosta1, lombardia1, trentino_alto_adige1, veneto1, friuli_venezia_giulia1, liguria1, emilia_romagna1, toscana1, umbria1, marche1, lazio1, abruzzo1, molise1, campania1, puglia1, basilicata1, calabria1, sicilia1, sardegna1)
mydata.b <- data.frame(piemonte2, valle_daosta2, lombardia2, trentino_alto_adige2, veneto2, friuli_venezia_giulia2, liguria2, emilia_romagna2, toscana2, umbria2, marche2, lazio2, abruzzo2, molise2, campania2, puglia2, basilicata2, calabria2, sicilia2, sardegna2)
mydata.a <- data.frame(piemonte3, valle_daosta3, lombardia3, trentino_alto_adige3, veneto3, friuli_venezia_giulia3, liguria3, emilia_romagna3, toscana3, umbria3, marche3, lazio3, abruzzo3, molise3, campania3, puglia3, basilicata3, calabria3, sicilia3, sardegna3)



Passiamo ora alla parte grafica.
La library ggplot2 ha una sintassi che si discosta moltissimo (a mio parere) dalla sintassi classica di R. E' un mondo a parte, e pertanto preferisco riportare l'esempio svolto, anzichè spiegare sistematicamente tutti i comandi (spiegazione che potrete trovare su altri numerosi siti dedicati esclusivamente a questa library)

Per prima cosa modifichiamo i dataframe creati in modo da renderli leggibili per la funzione ggplot, usando il comando melt:


library(ggplot2)

mydata.c <- melt(mydata.c)
mydata.b <- melt(mydata.b)
mydata.a <- melt(mydata.a)


A questo punto possiamo mettere in grafico direttamente il risultato. Oppure possiamo salvare il grafico in formato .jpg (o altri), scrivendo una apposita funzione, che sfrutta la library ggplot:


save_plot2 <- function(name, width, height){
filename <- paste("name", "jpg", sep = ".")
ggsave(filename, width = width, height = height)
}


Possiamo modificare il formato jpg, e scegliere ad esempio bmp, oppure pdf, o altri.

A questo punto creiamo i grafici, dando loro un nome, in modo da passarli subito dopo alla funzione save_plot2:


gg1 <- ggplot(data=mydata.c, aes(fill=variable)) +
facet_grid(variable~.,space="free", scales="free_y") +
opts(legend.position="none") +
geom_ribbon(aes(x=anni,ymin=-value,ymax=+value))

gg2 <- ggplot(data=mydata.b, aes(fill=variable)) +
facet_grid(variable~.,space="free", scales="free_y") +
opts(legend.position="none") +
geom_ribbon(aes(x=anni,ymin=-value,ymax=+value))

gg3 <- ggplot(data=mydata.a, aes(fill=variable)) +
facet_grid(variable~.,space="free", scales="free_y") +
opts(legend.position="none") +
geom_ribbon(aes(x=anni,ymin=-value,ymax=+value))


Ora possiamo salvare i grafici, scegliendo anche le dimensioni (in pollici: larghezza, altezza):


save_plot2(gg1, 6, 20)
save_plot2(gg2, 6, 20)
save_plot2(gg3, 6, 20)


Il risultato è il seguente:


-- Continua a leggere! --


venerdì 26 febbraio 2010

Quando le assunzioni dell'ANOVA sono violate: tests e post-hoc tests

Il capitolo dei confronti multipli è uno dei più vasti nella letteratura statistica. Cominciamo con un riepilogo. Le due principali assunzioni della ANOVA sono:
1. tutti i gruppi seguono una distribuzione normale
2. le varianze sono omogenee (omoschedasticità)

Queste due assunzioni vengono verificate rispettivamente con i test di normalità, e con i test di omogeneità della varianza.
Se queste due assunzioni sono confermate, si può procedere con una ANOVA parametrica omoschedastica, già discussa in questo post. Se essa risulta significativa, si procede con i test post-hoc per i confronti multipli, tra cui il test HSD di Tukey, il test LSD di Fisher, il test di Bonferroni e il test di Scheffé, e il test di Student-Newman-Keuls (SNK test).

Supponiamo che sia violata la assunzione 1., ma che sia valida la assunzione 2. In questo caso si procede con una ANOVA omoschedastica non parametrica, più nota come test di Kruskal-Wallis, di cui si è parlato in questo post. Se questo test risulta significativo (ossia se le medie risultano non uguali), occorre procedere con test post-hoc non parametrici, tra cui:
- Nemenyi-Damico-Wolfe-Dunn test
- Behrens-Fisher test
- Steel test (Nonparametric Multiple Comparisons)
Ricordo che per poter procedere con il test di Kruskal-Wallis, occorre fare l'assunzione di omogeneità delle varianze dei k gruppi in analisi.

Supponiamo ora che i dati siano normali, ma che le varianze non siano omogenee. In questo caso si procede con una ANOVA eteroschedastica: gli approcci sono:
- Welch one-way ANOVA (disponibile in R)
- Brown-Forsythe procedure (non disponibile in R, ma presente in SPSS)
- James first-and-second-order procedure (non disponibile in R)
Tra breve parlerò del primo metodo.

Se il test di Welch (siamo quindi sotto l'assunzione di non omogeneità delle varianze) risulta significativo, si deve procedere con test post-hoc per i confronti multipli non omoschedastici. Tra i test noti vi sono:
- test di Tamhane
- test di Games-Howell
- test di Duncan
i quali però non sono disponibili in R (se non ricordo male sono però implementati in SPSS).

Infine può accadere che i dati non siano normali, e che le varianze non siano omogenee. In tal caso si procede con il test di Friedman, e con i relativi post-hoc test: Schaich and Hamerle test, e Conover test.

Prima di procedere con gli esempi, ecco una tabella riassuntiva sulla situazione. Mi preme però fare 3 precisazioni:
1) esistono altri test oltre a quelli qui citati e discussi;
2) ciascun test offre a considerare proprie caratteristiche che qui non vengono considerate. Ad esempio il test di Friedman è maggiormente raccomandato per una "ANOVA con misure ripetute", mentre qui si parla di violazioni delle assunzioni della ANOVA classica. Non è un errore, ma è sempre bene fare riferimento alla letteratura specifica di ogni test;
3) ogni tanto può capitare qualche errore. Per cui consiglio sempre di controllare quanto è scritto qui (prima di incorrere in "rimproveri" da parte dei referer statistici!). Se trovate qualche errore, sarei grato se me lo segnalate nei commenti, così che possa correggere il tutto.

Ho compilato questa tabella per riassumere i test che possono essere utilizzati nei vari casi:



Tenendo ben presente questi concetti, vediamo qui di seguito 3 esempi:
- come fare i confronti multipli dopo un test di Kruskal-Wallis significativo
- come procedere con una ANOVA eteroschedastica
- come effettuare una ANOVA nonparametrica eteroschedastica, e il relativo post-hoc test




ANOVA non parametrica in R e Kruskal-Wallis post-hoc test

Consideriamo i seguenti dati:

a <- c(1, 2, 3, 4, 4, 5, 6)
b <- c(3, 3, 4, 5, 6, 6, 7)
c <- c(10, 11, 13, 17, 9, 15)
d <- c(10, 21, 25, 27, 22, 23)
Verifichiamo la normalità dei 4 gruppi con il test di Shapiro-Wilk:
> shapiro.test(a)

        Shapiro-Wilk normality test

data:  a 
W = 0.4172, p-value = 4.706e-07

> shapiro.test(b)

        Shapiro-Wilk normality test

data:  b 
W = 0.5481, p-value = 5.458e-06

> shapiro.test(c)

        Shapiro-Wilk normality test

data:  c 
W = 0.5142, p-value = 2.786e-06

> shapiro.test(d)

        Shapiro-Wilk normality test

data:  d 
W = 0.6986, p-value = 0.000163
Tutt'e 4 i gruppi risultano non normali. Ora verifichiamo la omoschedasticità. Essendo gruppi che non seguono una distribuzione normale, dobbiamo usare il test di Levene non parametrico:
dati <- a="" b="" br="" c="" d="">gruppi <- br="" c="" d="" factor="" length="" letters="" rep="" times="c(length(a),length(b),">
> levene.test(dati, gruppi, location="mean", kruskal.test=T)

        rank-based (Kruskal-Wallis) classical Levene's test based on the absolute deviations from
        the mean ( none not applied because the location is not set to median )

data:  dati 
Test Statistic = 5.484, p-value = 0.1396
Essendo p-value > 0.05, accettiamo l'ipotesi di omogeneità delle varianze. Alla luce di questi due dati (distribuzione non-normale, varianze omogenee), possiamo procedere con il test di Kruskal-Wallis:
kruskal.test(dati, gruppi)

        Kruskal-Wallis rank sum test

data:  dati and gruppi 
Kruskal-Wallis chi-squared = 31.4139, df = 3, p-value = 6.955e-07
Essendo p-value < 0.05, rifiutiamo l'ipotesi nulla: le medie sono significativamente differenti. Dobbiamo quindi indagare tra quali gruppi vi è una forte differenza. Prima di procedere, proviamo a mettere in grafico i dati, in questo modo:
plot(gruppi, dati)
Se osserviamo il grafico, risulta abbastanza evidente che: 1. le medie sono differenti (come afferma il test di Kruskal-Wallis che è significativo) 2. le varianze sono omogenee (questo non è molto evidente, essendo presente degli outliers). I test post-hoc non parametrici a nostra disposizione sono: - Nemenyi-Damico-Wolfe-Dunn test - Behrens-Fisher test (Nonparametric Multiple Comparisons) - Steel test Il codice per effettuare il Nemenyi-Damico-Wolfe-Dunn test (o più semplicemente Dunn's test) è disponibile nel package coin, nell'help relativo alla funzione oneway_test. Occorre installare anche la library multcomp. Innanzitutto creiamo un dataframe con i dati, e i gruppi:
dft
Ora utilizziamo il seguente codice, e analizziamo l'output:
library(coin)
if (require("multcomp")) {

    NDWD <- data="dft,<br" dati="" gruppi="" oneway_test="">        ytrafo = function(data) trafo(data, numeric_trafo = rank),
        xtrafo = function(data) trafo(data, factor_trafo = function(x)
            model.matrix(~x - 1) %*% t(contrMat(table(x), "Tukey"))),
        teststat = "max", distribution = approximate(B = 90000))

    
    print(pvalue(NDWD))

    
    print(pvalue(NDWD, method = "single-step"))
  }

#output

[1] 0
99 percent confidence interval:
 0.000000e+00 5.886846e-05 

                  
b - a 0.3819666667
c - a 0.0015555556
d - a 0.0000000000
c - b 0.2104555556
d - b 0.0009666667
d - c 0.3237666667
Le coppie con medie significativamente differenti sono quelle con p-value < 0.05. Quindi risultano significativamente differenti le coppie a-c, a-d, b-d (come possiamo controllare dal plot). Doveroso da citare anche il Mann-Whitney U test, utilizzato in diversi articoli scientifici, anche se non tutti sono d'accordo sulla correttezza di tale test come analisi post-hoc. Nella library pgirmess è disponibile la funzione kruskalmc che permette di ottenere i confronti multipli per dati non parametrici (anche se non viene specificato quale test è implementato). Si citano inoltre il test di Conover-Iman, e il test di Dwass-Steel-Citchlow-Fligner. Può essere utile, infine la funzione nparcomp della library omonima nparcomp, che implementa diversi algoritmi ("Tukey", "Dunnett", "Sequen", "Williams", "Changepoint", "AVE", "McDermott", "Marcus", "UmbrellaWilliams"). Il test non parametrico per i confronti multipli di Behrens-Fisher e quello di Steel sono disponibili nella library npmc. Anche in questo caso dobbiamo creare un dataframe, in cui necessariamente le due colonne relative ai dati e ai gruppi devono avere i nomi rispettivamente var e class:
var <- br="" dati="">class <- br="" gruppi="">
dft <- br="" class="" data.frame="" var="">
> summary(npmc(dft))

                                       
 /////////////////////////////////////////////////////////////
 / npmc executed                                             /
 /                                                           /
 / NOTE:                                                     /
 / -Used Satterthwaite t-approximation (df=15.4762442214526) /
 / -Calculated simultaneous (1-0.05) confidence intervals    /
 / -The one-sided tests 'a-b' reject if group 'a' tends to   /
 /  smaller values than group 'b'                            /
 /////////////////////////////////////////////////////////////
 
 
$`Data-structure`
  group.index class.level nobs
a           1           a   16
b           2           b   16
c           3           c   16
d           4           d   16

$`Results of the multiple Behrens-Fisher-Test`
  cmp    effect  lower.cl upper.cl   p.value.1s   p.value.2s
1 1-2 0.7558594 0.4902196 1.021499 3.184958e-02 0.0613214501
2 1-3 0.8867188 0.6698053 1.103632 2.877271e-04 0.0005863507
3 1-4 0.9257812 0.7521589 1.099404 7.622567e-06 0.0000321084
4 2-3 0.8007812 0.5482831 1.053279 8.410051e-03 0.0170268058
5 2-4 0.8652344 0.6317030 1.098766 9.485910e-04 0.0020723217
6 3-4 0.7988281 0.5544711 1.043185 7.261303e-03 0.0142616548

$`Results of the multiple Steel-Test`
  cmp    effect  lower.cl upper.cl   p.value.1s   p.value.2s
1 1-2 0.7558594 0.4917138 1.020005 0.0329254942 0.0616483846
2 1-3 0.8867188 0.6213672 1.152070 0.0005619949 0.0010558237
3 1-4 0.9257812 0.6600126 1.191550 0.0002169494 0.0001998778 *
4 2-3 0.8007812 0.5353070 1.066256 0.0096495950 0.0186865845
5 2-4 0.8652344 0.5990248 1.131444 0.0012742103 0.0025523271
6 3-4 0.7988281 0.5326920 1.064964 0.0102897944 0.0206920249
Nell'output vengono forniti i risultati dei due test separatamente.

ANOVA parametrica eteroschedastica in R Utilizziamo il dataset presente in questa pagina. Ho caricato i dati nel dataframe di nome data. Per prima cosa effettuiamo un test di Levene non parametrico, poichè 4 dei 5 gruppi risultano non-normali secondo il test di Shapiro-Wilk, per la verifica dell'omoschedasticità:
data[1:5,]
  group smell
1     1 1.381
2     1 1.322
3     1 1.162
4     1 1.275
5     1 1.381
...

group5 <- 2="" br="" data="">group4 <- 2="" br="" data="">group3 <- 2="" br="" data="">group2 <- 2="" br="" data="">group1 <- 2="" br="" data="">
> shapiro.test(group1)

        Shapiro-Wilk normality test

data:  group1 
W = 0.9201, p-value = 0.009898

> shapiro.test(group2)

        Shapiro-Wilk normality test

data:  group2 
W = 0.9167, p-value = 0.01008

> shapiro.test(group3)

        Shapiro-Wilk normality test

data:  group3 
W = 0.9323, p-value = 0.1529

> shapiro.test(group4)

        Shapiro-Wilk normality test

data:  group4 
W = 0.8499, p-value = 5.181e-05

> shapiro.test(group5)

        Shapiro-Wilk normality test

data:  group5 
W = 0.9034, p-value = 0.001820


dati <- br="" c="" group1="" group2="" group3="" group4="" group5="">gruppi <- factor="" letters="" rep="" times="c(length(group1),length(group2),length(group3),length(group4),length(group5))))<br">levene.test(dati, gruppi, location="mean", kruskal.test=T)

        rank-based (Kruskal-Wallis) classical Levene's test based on the absolute
        deviations from the mean ( none not applied because the location is not set
        to median )

data:  dati 
Test Statistic = 35.486, p-value = 3.691e-07
Essendo p-value < 0.05, rifiutiamo l'ipotesi di omogeneità delle varianze. Per confrontare le medie, dobbiamo quindi procedere con una ANOVA eteroschedastica (questi sono metodi parametrici, anche se i dati sono non-normali. Non avendo trovato dataset maggiormente adatti a questo esempio, dobbiamo fingere che i dati siano normali), utilizzando una delle seguenti procedure: - Welch one-way ANOVA - Brown-Forsythe procedure (non disponibile in R) - James first-and-second-order procedure (non disponibile in R) Per procedere con il test di Welch, il codice è il seguente:
oneway.test(smell ~ group, data=data, var.equal=F)

        One-way analysis of means (not assuming equal variances)

data:  smell and group 
F = 13.7208, num df = 4.000, denom df = 78.749, p-value = 1.555e-08
Essendo p-value < 0.05, rifiutiamo l'ipotesi nulla: le medie tra gruppi sono significativamente differenti. A questo punto dovremmo procedere con i confronti multipli. Nel caso di eteroschedasticità, i test che dovremmo eseguire sono: - Games-Howell post-hoc test (non disponibile in R) - Tamhane post-hoc test (disponibile in SPSS) - Duncan-Waller post-hoc test Solo il terzo test è disponibile in R, e questo è il codice:
library(agricolae)  
model <- br="" dati="" gruppi="" lm="">df<-df .residual="" br="" model="">MSerror<-deviance br="" df="" model="">Fc<-anova br="" model="">comparison <- dati="" df="" fc="" group="FALSE)<br" gruppi="" mserror="" waller.test="">
Study:

Waller-Duncan K-ratio t Test for dati 

This test minimizes the Bayes risk under additive
loss and certain other assumptions.
                               ......
K ratio                  100.00000000
Error Degrees of Freedom 175.00000000
Error Mean Square          0.03211259
F value                   16.65064329
Critical Value of Waller   1.79200000

Treatment Means
  gruppi     dati    std.err replication
1      a 1.316895 0.01681486          38
2      b 1.345139 0.01762372          36
3      c 1.306143 0.02782045          21
4      d 1.201093 0.03349086          43
5      e 1.059619 0.03795035          42

Different MSD for each comparison
Comparison between treatments means

   tr.i tr.j       diff        MSD significant
1     1    2 0.02824415 0.07468760       FALSE
2     1    3 0.01075188 0.08731729       FALSE
3     1    4 0.11580171 0.07149772        TRUE
4     1    5 0.25727569 0.07189592        TRUE
5     2    3 0.03899603 0.08817637       FALSE
6     2    4 0.14404587 0.07254438        TRUE
7     2    5 0.28551984 0.07293687        TRUE
8     3    4 0.10504983 0.08549128        TRUE
9     3    5 0.24652381 0.08582458        TRUE
10    4    5 0.14147398 0.06966687        TRUE
Nell'ultima tabella, la colonna significant ci dice quali sono le coppie di gruppi con medie statisticamente differenti. In pratica sono i gruppi 4 e 5 che presentano differenze tra loro e con tutti gli altri gruppi. Si può notare questo plottando i dati con il codice:
plot(gruppi, dati)

ANOVA non-parametrica eteroschedastica in R Immaginiamo infine che entrambe le assunzioni (normalità ed omoschedasticità) siano violate. In questo caso si può procedere con il test di Friedman, e con i post-hoc test di Schaich-Hamerle, e Conover. Il test di Friedman viene facilmente richiamato con la funzione friedman.test(), mentre il codice per il test post-hoc è disponibile qui. Rimando a questo link per un esempio svolto: LINK.
-- Continua a leggere! --


Statistiche... del blog!

In questo blog ci sono posts e commenti.

Visualizzazioni totali (dal 01.06.2010)

Follow me on...