La
replica di Agodi – data “a nome dell’intero direttivo AIS” – al mio post del 14
febbraio 2012 (Ranking AIS: una nota di
metodo) è poco soddisfacente: da un lato elude buona parte delle questioni salienti
che avevo sollevato nel mio intervento, dall’altro fraintende completamente
alcune delle mie osservazioni. Mi sembra opportuno, quindi, fare alcune
puntualizzazioni, non tanto per offrire una contro-replica capillare al post di
Agodi, quanto per mettere un po’ di ordine nella discussione e porre l’accento
sui termini della questione “ranking AIS” che a me sembrano essenziali e
problematici. Nelle righe che seguono, in primo luogo riassumerò la procedura
seguita dall’AIS per costruire il proprio “indice di qualità e rilevanza delle
riviste italiane di sociologia”; in seguito mostrerò gli elementi di debolezza
di ciascuna fase della procedura; infine terminerò con qualche osservazione
sulla rilevanza del tema oggetto di discussione.
La procedura AIS
Agodi
sostiene che l’indice di qualità e rilevanza delle riviste italiane di
sociologia costruito dall’AIS è multidimensionale per disegno. Precisamente,
l’AIS ha costruito il proprio indice utilizzando la seguente procedura:
1)
Ai
direttori di oltre cinquanta riviste italiane di sociologia è stato chiesto di indicare
quali fossero gli aspetti più importanti della qualità di una rivista. L’analisi
fattoriale delle “variabili rappresentative di questi aspetti” ha rivelato che,
secondo i direttori delle riviste italiane di sociologia, gli aspetti più
importanti della qualità di una rivista possono essere ordinati lungo tre
dimensioni: Rigore nella peer review, Presenza on line, Distribuzione
commerciale.
2)
Alle
tre “dimensioni di qualità” individuate dall’analisi fattoriale, sono state
aggiunte – in base a criteri non dichiarati – altre due dimensioni: Grado di
istituzionalizzazione della rivista nell’ambito della sociologia italiana,
Nucleo identitario della rivista.
3)
Alle
cinque dimensioni descritte sopra è stata aggiunta una sesta dimensione
funzione dell’indice bibliometrico H: l’indice H medio annuo calcolato per il
periodo di vita della rivista.
4)
Ognuna
delle prime cinque dimensioni è stata misurata (a) normalizzando ciascuno dei
suoi indicatori nell’intervallo [0,1], e (b) calcolando una media aritmetica
semplice dei valori di tali indicatori. La sesta dimensione, invece, è stata
misurata normalizzando l’indice H medio annuo nell’intervallo [0,1].
5)
I
sei indici così ottenuti sono stati combinati in un unico indice sintetico pari
alla loro media aritmetica semplice.
I limiti della procedura
AIS
Il
direttivo AIS sostiene che la procedura illustrata sopra è valida, mentre io affermo
che presenta diversi limiti concettuali e/o operativi. Specificamente:
1)
La
definizione delle tre “dimensioni di qualità” individuate dall’analisi
fattoriale è contestabile sotto due aspetti. Innanzitutto si basa su
auto-dichiarazioni non controllabili dei direttori delle riviste; questo fatto solleva
seri dubbi sulla validità degli indici corrispondenti, specialmente rispetto
alla dimensione “Rigore nella peer review”. A questo proposito, è interessante
notare come il punteggio massimo su questa dimensione sia stato ottenuto dall’ignota
rivista In-Formazione che, se ho
capito bene, è una rivista del Dipartimento di Comunicazione e Ricerca Sociale
dell’Università La Sapienza di Roma realizzata in collaborazione con l’Università
della Valle d’Aosta e diretta da Mario Morcellini, Teresa Sergi Grange e
Giacomo Sado. Specificamente, secondo la misurazione AIS la rivista In-Formazione raggiunge livelli di “Rigore
nella peer review” che altre riviste più blasonate come la Rassegna Italiana di Sociologia e Quality & Quantity si sognano: a fronte di una media generale
pari a 0,52, infatti, In-Formazione
svetta con un impressionante 0,7, mentre la Rassegna
Italiana di Sociologia e Quality
& Quantity non raggiungono neppure la media e devono accontentarsi,
rispettivamente, di 0,47 e 0,34. Ora, se prendessimo sul serio questi punteggi,
tutti i direttori di rivista dovrebbero chiedere a In-Formazione di svelare i segreti del suo invidiabile rigore,
mentre la Rassegna Italiana di Sociologia
e Quality & Quantity dovrebbero
chiudere i battenti per ignominia. Nella sua replica, Agodi ha glissato
sull’incredibile caso di In-Formazione
(e, più in generale, sulla validità dell’indice “Rigore della peer review”), ma
credo che tutti saremmo interessati a saperne di più. Passando al secondo
aspetto problematico della prima fase della procedura AIS, non è chiaro come la
“Presenza on line” e la “Distribuzione commerciale” possano avere a che fare
con la qualità scientifica di una rivista. Usando nuovamente qualche
contro-esempio, consideriamo il caso della rivista Rassegna Italiana di Sociologia, ritenuta una delle migliori
riviste di sociologia del nostro paese: tale rivista, sulle dimensioni
“Presenza on line” e “Distribuzione commerciale”, non va oltre 0,5, cioè
esibisce un livello di qualità mediocre. Un’altra rivista riconosciuta per la
sua qualità scientifica, Sociologica,
assume addirittura valore 0 sulla dimensione “Distribuzione commerciale” (cioè
è di pessima qualità rispetto a tale dimensione). Insomma, le tre “dimensioni
di qualità” identificate dall’analisi fattoriale sulla base delle auto-dichiarazioni
dei direttori di rivista presentano più ombre che luci.
2)
Le
due dimensioni aggiuntive “Grado di istituzionalizzazione della rivista nell’ambito
della sociologia italiana” e “Nucleo identitario della rivista” sono
ingiustificate: da nessuna parte il direttivo AIS offre una giustificazione
razionale della loro scelta, né della loro operativizzazione. Sono due
dimensioni oscure e fumose, specialmente la seconda, di cui mi sfugge
totalmente la relazione con la “qualità e rilevanza” delle riviste.
3)
La
sesta dimensione equivale all’indice H medio annuo “calcolato per il periodo di
vita della rivista”. Su questa dimensione non ho nulla da eccepire: è l’unica
che poggia su una buona letteratura scientifica di riferimento e della quale si
conoscono abbastanza bene pregi e difetti. Ringrazio Agodi per avere chiarito
il modo in cui l’indice è stato calcolato.
4)
La
normalizzazione dell’indice H è stata realizzata senza tenere conto del fatto
che la distribuzione dei valori di tale indice contiene due casi estremi (outliers): le riviste Quality & Quantity e Stato e mercato. La presenza di questi
due casi estremi, entrambi situati nella coda destra della distribuzione, fa sì
che la normalizzazione “appiattisca” i valori della sesta dimensione,
rendendoli artatamente bassi. Per comprendere meglio gli effetti di tale
normalizzazione, ipotizziamo di ricalcolare l’indice H medio annuo normalizzato
escludendo dal computo i due casi estremi. In seguito a questa “correzione”, il
valore medio dell’indice H normalizzato sale da 0,2 a 0,43; il valore di Sociologica, ad esempio, sale da 0,41 a
0,98: un notevole avanzamento! Nella sua replica Agodi elude completamente
questo problema, trascurando che, in situazioni del genere, trattare i casi
estremi in modo adeguato è d’obbligo.
5)
A
questo punto dovrebbe essere chiaro che, anche presi uno per uno, i sei indici
di “qualità e rilevanza” calcolati dall’AIS presentano diversi limiti che ne
inficiano la validità. Ma facciamo finta di nulla e usiamoli per creare
l’indice sintetico finale. Ora, secondo il direttivo AIS creare un indice
sintetico di “qualità e rilevanza” delle riviste mediante una combinazione
lineare dei sei indici (parzialmente) ortogonali prescelti – ciò che io ho
definito “sommare mele e pere” – è un’operazione legittima e priva di problemi.
Per me, invece, un “indice sintetico multidimensionale” è un ossimoro: se le
dimensioni soggiacenti sono veramente ortogonali, allora misurano proprietà
diverse delle riviste e sommarle non ha molto senso (il contro-esempio del voto
medio usato da Agodi nella sua replica non è molto appropriato: la ricerca
empirica mostra che i voti nelle diverse discipline tendono a essere correlati
fra loro, cioè a misurare la stessa dimensione – il rendimento scolastico,
appunto). Il problema non è matematico, ovviamente, ma sostanziale. In presenza
di costrutti multidimensionali, la strategia di misurazione più appropriata
consiste nella creazione di tipologie o tassonomie, non di indici quantitativi
sintetici. Ma facciamo ancora finta di nulla e assumiamo che la creazione di un
indice sintetico additivo abbia un senso. In questo caso, però, il direttivo
AIS dovrebbe spiegare perché, nel calcolo dell’indice sintetico, a ogni
dimensione è stato attribuito lo stesso peso esplicito (1/6). Qual è la
giustificazione razionale di questa scelta? Da nessuna parte sono offerti
chiarimenti al proposito.
6)
Nella
fretta di rispondere alle mie osservazioni critiche, il direttivo AIS afferma
che il mio calcolo del contributo medio di ogni dimensione all’indice sintetico
è “del tutto fuorviante” perché effettuato “in base all’alpha di Cronbach”. Non
so da dove i miei interlocutori abbiano tratto questa conclusione – e nemmeno,
francamente, cosa significhi – ma purtroppo è completamente fuori luogo. In
realtà, il mio calcolo del “peso implicito” di ogni dimensione è un semplice
calcolo del contributo offerto dalle sei dimensioni alla loro combinazione
lineare nell’indice sintetico: algebra elementare, nulla di più. Esempio
chiarificatore per chi non ricordasse l’algebra delle combinazioni lineari: (a)
la somma dei valori medi delle sei dimensioni è pari a 2,28; (b) il valore
medio della dimensione “Indice H medio annuo” è pari a 0,2 (valore artatamente
basso a causa della normalizzazione distorta richiamata sopra); (c) quindi, il
contributo medio (peso implicito) della dimensione “Indice H medio annuo”
all’indice sintetico è pari a 0,2/2,28 = 0,09 (9%). Calcoli analoghi possono
essere fatti per le altre cinque dimensioni. Naturalmente, la somma dei pesi è
pari a 1 (100%).
Conclusione
Insomma,
come si può vedere, le spiegazioni offerte dal direttivo AIS sono tutt’altro
che rassicuranti: non solo le dimensioni prescelte per costruire il ranking AIS
sono di dubbia validità, sia concettuale sia operativa, ma anche la loro
combinazione lineare in un indice sintetico è ampiamente discutibile. Lascio ai
lettori decidere se le questioni sollevate da me e altri colleghi siano
“polemiche sterili” e “mal indirizzate che gettano indiscriminatamente ombre e
discredito sugli organi istituzionali dell’Associazione e su chi lavora per
essa”. A me pare, piuttosto, che la questione sia un’altra: il ranking dell’AIS,
se preso sul serio dall’ANVUR, avrebbe effetti indesiderabili non solo sui
sociologi iscritti all’Associazione, ma anche su tutti quelli che – come me –
non fanno parte dell’AIS e, quindi, non riconoscono all’Associazione alcun
potere di rappresentanza, né politica, né scientifica. Di fronte a questa
eventualità, far sentire la propria voce è più un dovere che un diritto.
Maurizio Pisati
Nessun commento:
Posta un commento
Il tuo commento verrà visualizzato dopo qualche ora dall'invio. Affinché il tuo post sia pubblicato è necessario inserire in calce il tuo nome e cognome per esteso e la tua afferenza accademica: es: Mario Rossi (Università di Roma). Se dopo 24 ore non vedi il tuo post, o se hai dubbi, scrivi direttamente una mail a perlasociologia@gmail.com