sabato 21 gennaio 2012

Ranking delle riviste e cultura (scientifica) della professione



Nel dibattito in corso sul Forum Ais dedicato alla classificazione delle riviste di sociologia (http://www.ais-sociologia.it/forum/classificazione-delle-riviste-italiane-di-sociologia/) sono emersi tre argomenti che pongono questioni rilevanti per la professione e richiedono un’attenzione supplementare, anche perché sono stati talvolta sviluppati, a mio giudizio, in modo scorretto o quanto meno fuorviante. Di seguito, richiamerò i tre argomenti facendo seguire a ciascuno di essi un mio commento o una mia replica.

A1) Gli indicatori bibliometrici non misurano la qualità ma la diffusione.

Verissimo, ma questo è un problema che esiste a monte, e vale per tutte le comunità scientifiche di tutti i paesi. Oserei dire che è un problema che vale per ogni tipo di produzione culturale – al punto da non essere neppure un problema. Sulla qualità dei prodotti culturali c’è un continuo e inesauribile confronto e dibattito, che è parte integrante del mondo della cultura e della sua storia. Diceva Adorno più o meno così: “cultura è ciò che si sottrae alla sua misurazione”. Non sbagliava, in fondo. Ciò che gli indici bibliometrici misurano non è infatti “la cultura” ma appunto l’impatto sociale che un certo prodotto culturale ha sulla comunità intellettuale di riferimento. Questo può essere misurato in modo obiettivo. La qualità no. O meglio, la “misurazione” della qualità e ancor più l’accettazione dei suoi responsi è operazione così complessa e delicata che presuppone un accordo di fondo, costitutivo lo chiamerei, su chi possa legittimamente esprimere un giudizio di qualità – sia esso un’associazione professionale, un’agenzia o persino un singolo studioso (o una scuola).


La comunità sociologica italiana si è strutturata a partire dagli anni sessanta in termini e forme tali da rendere oggi (sottolineo oggi) questo accordo molto difficile, se non impossibile. E’ comunque un accordo sempre difficile da trovare, anche nelle migliori situazioni. Si radica qui la forza degli indicatori bibliometrici, strumenti che offrono un giudizio terzo rispetto agli attori in campo, super partes, in quanto tale “oggettivo”, sul valore delle riviste in quanto – questo il punto – istituzioni intellettuali chiamate a promuovere e a segnare il dibattito scientifico. Non è in questione la qualità in assoluto delle riviste (posto che si sappia cosa sia), ma quella sua dimensione cruciale che è l’efficacia intellettuale, per così dire, la capacità di attirare attenzione e di alimentare la crescita scientifica (anche la capacità di stimolare critica fa parte della scienza, come noto). Il giudizio “terzo” non è poi definitivo ma si modifica nel corso del tempo a seconda delle performance delle singole riviste. Che possono ovviamente scegliere di battere strade mainstream o alternative, di essere generaliste o di nicchia, di essere mono- o interdisciplinari. Lo fanno le riviste italiane come tutte le riviste del mondo.

Per fare qualche esempio noto, l’ASR e AJS seguono (e in realtà fanno) il mainstream, “Theory and Society” no. Non sorprende di trovare in testa al ranking delle riviste internazionali ASR e AJS. Ma T&S segue a distanza di poco. E importanti e brillanti studiosi continuano a mandare articoli anche a T&S, perché comunque rivista prestigiosa e perché attratti dalla prospettiva di pubblicare su una rivista che ha una certa politica e identità intellettuale. Riviste come “Ethnography” e il “Journal of Contemporary Ethnography” non sono certo in vetta alla classifica delle riviste sociologiche (sono rispettivamente al 97° e al 68° posto della graduatoria ISI per la sociologia). Nessuno però afferma per questo che si tratti di riviste di scarsa qualità. Solo, sono riviste settoriali, di nicchia, in cui è possibile pubblicare studi anche di gran valore ma che non aspirano a uscire dalla cerchia degli etnografi di professione. Chi le dirige, persino chi le ha fondate, lo sa molto bene, e non reclama improbabili primati. Né chiede che il suo “gioiello” sia valutato e “conti” in astratto come se fosse ASR o AJS o anche “Gender and Society”, che sono riviste di qualità e però anche di rilevanza generale (ebbene sì, sono di rilevanza generale anche le questioni di genere, sebbene in Italia molti non se ne siano ancora accorti), e pubblicano articoli di presumibile maggior rilievo e significato per la disciplina nel suo complesso.

Qualcuno nel Forum ha sostenuto l’idea che gli indici bibliometrici soffocherebbero le riviste specialistiche e quelle interdisciplinari (Campelli). Il caso di “Gender and Society” negli USA, e quello di “Stato e Mercato” in Italia, provano chiaramente che così non è. Perché ci sono riviste che possono esibire ottime performance proprio perché puntano la loro scommessa di qualità su ambiti di studio meno generali – anche se non proprio di nicchia, magari. E quando c’è la qualità, questa viene riconosciuta anche dal pubblico dei lettori, traducendosi in maggiore diffusione. E’ stato anche sollevato da altri colleghi il caso di “Archives européennes de sociologie” (alias European Journal of Sociology), rivista in effetti “storica” e prestigiosa che in Scopus – ma anche in ISI web, aggiungo – ha un ranking molto più basso di riviste apparentemente meno prestigiose e di qualità. Non ci vuole molto però a capire perché. Intanto, non è detto che una rivista solo perché specialistica (dedicata allo sport o all’abitazione, per fare due esempi evocati in questo forum) o relativamente recente debba essere di minor qualità. Mi pare che qui ci sia in gioco un bel po’ di senso comune e di spirito conservatore (le riviste che conosciamo bene perché le abbiamo lette quando andavamo a scuola e perché ci hanno scritto e ci scrivono autori importanti ai nostri tempi devono essere per definizione migliori di quelle più recenti e specialistiche, peraltro dedicate a temi di grande rilevanza sociale oggi come, ancora, lo sport o la casa). Non so da quanto tempo le riviste in questione sono entrate in questi repertori citazionali, e si sa che anche questo conta. Ma soprattutto, Fele et al. dimenticano o trascurano di ricordare un fatto essenziale, e cioè che “Arch. Eur. de soc.” pubblica in tre lingue (inglese, francese, e tedesco) e questo non può non riflettersi anche sulla sua diffusione in un mondo scientifico che è di fatto (e a meno di svolte epocali resterà ancora un bel po’) anglofono. Tra l’altro, se Fele & co. si fossero presi la briga di confrontare Scopus con Google Scholar, avrebbero scoperto (incredibile!!!) che quest’ultimo riconosce ad AES alias EJS una posizione molto più in linea con il loro giudizio (“European Journal of Sociology” ha un indice-h = 54, cui dovrebbe aggiungersi, credo, quanto si ottiene sotto il nome, o alias, “Archives Européennes de Sociologie” che ha indice-h = 16. Come prevedibile, il “Journal of Sport and Social Issues” ha un indice-h alto ma inferiore, pari a 44).

Nulla di strano, dunque, nulla di preoccupante. Tutto nella norma. Questo è il normalissimo gioco della scienza che si svolge in tutto il mondo civile. Ma sembra che i sociologi italiani questo gioco non lo conoscano, o meglio non lo vogliano accettare: soprattutto, sembra di poter dire conoscendoli un po’, quando si sentono colpiti e penalizzati nel loro particulare.


A2) Non è dalla classificazione delle riviste che può passare la neutralizzazione delle componenti, e questo perché
     a) le componenti potrebbero facilmente far propria la logica dell’IF con effetti perversi immaginabili (Baldissera et al.)
     b) le componenti potranno scomparire solo a seguito di una modifica radicale nel meccanismo di reclutamento, e in particolare grazie all’introduzione di un sistema di reclutamento tendenzialmente su base locale e con limitatissima interferenza dal centro – sistema più o meno in nuce nell’attuale legge – attraverso cui i dipartimenti potranno finalmente chiamare direttamente chi vogliono (Fele et al.)

A questo duplice argomento, che chiama in causa un soggetto (le componenti) su cui si sono concentrate negli ultimi tempi le attenzioni critiche se non criticissime di molti sociologi incluso chi scrive, replico come segue.
Ovviamente, le riviste sono solo un tassello di un programma o progetto di riforma professionale della sociologia italiana che è molto più ampio e a 360 gradi. Ma sono un tassello importante, strategico, su cui fare leva per innescare circuiti virtuosi.

E’ abbastanza scontato che il sistema delle componenti proverà ad utilizzare l’indice-h come strumento di lotta accademica distorcendone il senso, mettendosi ad organizzare non più solo il consenso a fini concorsuali ma persino la diffusione delle idee (o dei testi). Non c’è quasi nulla che quel perverso sistema non abbia utilizzato, fatto proprio e distorto da quando si è costituito. Quindi, farà anche quello che si paventa. Si tratta però, a ben vedere, di un problema minore e forse mal posto.

Da un lato, questa appropriazione indebita comunque già c’è anche se per ragioni diverse dalla costruzione di ranking (le citazioni come tutti sappiamo seguono da tempo abbastanza rigorosamente i confini delle componenti e dei loro sottogruppi o tribù…c’è una ricca aneddotica al riguardo, che nasce da esperienze diffuse e su cui molti potrebbero offrire racconti più o meno divertenti, alcuni al limite del credibile): introdurre il ranking peraltro non solo renderebbe visibili a questo punto gli effetti di questa pratica, che già c’è, ma consentirebbe al contempo di misurare paradossalmente i limiti delle componenti quando si tratti di agire sul piano – che è ad esse totalmente estraneo – del confronto scientifico: perché per citare e far crescere gli indici bisogna anche pubblicare, e pubblicare ad un certo livello, quanto meno su riviste o in luoghi che possano essere “catturati” dalle banche dati a partire dalle quali si costruiscono gli indici bibliometrici.

Dall’altro lato, si tratta di un rischio che si può correre senza paura di farsi troppo male e soprattutto di minare alle radici l’auspicabile futuro buon funzionamento della nostra disciplina: come non solo la sociologia della scienza ha mostrato in lungo e in largo, ma la stessa retorica professionale della scienza dichiara, la citazione (anche se selettiva) è un’arma consentita e legittima (anche perché a doppio taglio: c’è un punto oltre il quale se non citi X o Y non danneggi X o Y ma fai male a te stesso che non li citi!) in quel campo di battaglia che è il campo scientifico, a differenza delle collusioni spartitorie e soprattutto del reclutamento al ribasso di portaborse e simili cui ci hanno abituato 30 anni di malgoverno disciplinare.

Lungi dal neutralizzarlo, a me pare che le chiamate dirette auspicate e anzi invocate da Fele et al. (sulla base di una proposta originaria di Dal Lago e Giglioli già discussa e criticata in questo blog sotto il titolo "Baroni e imprenditori") accentuerebbero il potere delle componenti, di fatto “normalizzando” e “legalizzando” ciò che adesso viene fatto sottobanco e con un dispendio di energie di certo altrimenti meglio utilizzabile (fossimo in una sana comunità scientifica) ma che almeno funziona, a volte, da deterrente. Ora, si pensi a un dipartimento che ha spuntato le risorse per avere un posto. Chi chiamerebbe in quattro e quattr’otto il ristretto club degli ordinari di quel dipartimento se non un membro patentato della componente (o di una sua sottotribù) che in quel dipartimento ha la maggioranza se non l’unanimità (come spesso accade), e questo a prescindere dalla qualità e dal valore intellettuale dei potenziali candidati o “chiamabili” o idonei? Si invoca non a caso, come contraltare a questa deriva, la responsabilità del dipartimento, cioè l’assunzione del rischio di perderci se si persegue una politica di selezione e reclutamento che premia candidati comparativamente non all’altezza. Ma come si fa a credere che una comunità che sinora ha mostrato di essere assolutamente irresponsabile sul piano intellettuale – e lo scadimento della disciplina negli ultimi anni denunciata da tanti anche autorevolissimi colleghi lo prova senza ombra di dubbio – possa diventare all’improvviso, grazie ad un colpo di spugna legislativo o meglio ad un suo furbo utilizzo, una comunità responsabile? Come si fa a pensare seriamente che d’un tratto, e senza l’ausilio di strumenti di classificazione del valore professionale come quelli che potrebbe offrire proprio un ranking istituzionalizzato delle riviste, un dipartimento di sociologia possa sentirsi responsabile delle proprie scelte e quindi evitare quelle che sono patentemente contrarie al merito e al valore intellettuale?

Un vantaggio con la chiamata diretta ci sarebbe, in effetti: si libererebbe di colpo un sacco di tempo ed energie al momento spesi per costruire cartelli e negoziare posti. Tempo ed energie da dedicare al lavoro di ricerca, magari, o magari – perché no? – alla famiglia e ai nipotini… Ma a che prezzo! La soluzione di Dal Lago e Giglioli et al. mi ricorda tanto quella di uno dei miei primi maestri (che non era un sociologo ma aveva anche lui un gusto spiccato della provocazione): per risolvere il problema della mafia c’è un solo modo, legalizzarla, cioè accettare i modi di pensare e di fare mafiosi perché essi sono parte integrante, ancestrale, della cultura e della vita sociale italiana (in quanto poi “mediterranea”). Non mi sono ancora rassegnato a questa soluzione. E di certo non la caldeggio per sanare la professione che ho scelto.


A3) Gli indici bibliometrici sono arbitrari e poco affidabili, meglio perciò ricorrere, per costruire eventuali ranking, a parametri di qualità di tipo… qualitativo.

Nessuno nega la rilevanza di parametri qualitativi, e bene ha fatto l’Ais a preparare e somministrare il questionario che tutti conosciamo (a parte qualche scivolata quantofrenica che forse si poteva evitare). Ma si deve anche onestamente riconoscere che i parametri qualitativi di cui sinora si è parlato – importanti senz’altro per porre almeno dei paletti al livello inferiore, o degli standard minimi – sono così generali e così facili da soddisfare da essere di fatto inutilizzabili a fini di classificazione gerarchica e di una seria valutazione, che è tale solo quando è capace di discriminare. Si considerino i quattro parametri suggeriti da De Nardis:

“A) modalità di selezione dei paper pubblicati, trasparente e rigorosa (peer review et similia)
B) internazionalizzazione (effettiva e non solo nominale) del comitato scientifico
C) internazionalizzazione dei contributi (sia che siano scritti in inglese sia che siano stati tradotti in italiano per scelta redazionale)
D) continuità e puntualità di uscita.”

Non occorre molta immaginazione sociologica per intuire che qualunque rivista, anche la più scalcinata e provinciale, potrebbe soddisfare o dichiarare di soddisfare in poco tempo tutti questi parametri, seguendo alcune facili tattiche di aggiramento (che già ahimè vengono utilizzate, mi pare: anche perché non ci vuole molto oggi a trovare un oscuro collega straniero in qualche oscura università straniera da infilare nel board, o un qualunque paper di un qualunque studioso più o meno giovane ma naturalmente “straniero” da tradurre come “contributo internazionale”…). Con il risultato perverso, peraltro, non solo di riprodurre l’esistente ma di aggravarlo e stabilizzarlo, aggiungendo una vernice – solo una vernice, si badi – di legittimità scientifica e credibilità a riviste che sono di fatto gestite in modo familiare se non familistico, con scarsa cognizione del dibattito internazionale che conta, e il cui raggio effettivo di azione a malapena oltrepassa i confini regionali.

Per concludere, una risposta all’invito al “buon gusto” di Baldissera et al.: essere valutati nel mondo della scienza è cosa più che normale, come è normale dire onestamente e apertamente la propria in sede di valutazione, suggerendo e argomentando. Si chiama controllo o giudizio dei pari, ed è un’istituzione fondamentale del campo scientifico come Baldissera certamente sa. Sembra però che in Italia i pari siano sempre un po’ dispari, e preferiscono forse “pilotare” nel retroscena e al telefono e non in pubblico e in modo trasparente, come invece hanno provato a fare – anche qui innovando – le direzioni delle sei riviste che hanno lanciato l’appello al ranking innescando questo dibattito: il più ampio a oggi sul sito dell’Ais, mi pare. Anche questo è un risultato.

Marco Santoro, Università di Bologna

Nessun commento:

Posta un commento

Il tuo commento verrà visualizzato dopo qualche ora dall'invio. Affinché il tuo post sia pubblicato è necessario inserire in calce il tuo nome e cognome per esteso e la tua afferenza accademica: es: Mario Rossi (Università di Roma). Se dopo 24 ore non vedi il tuo post, o se hai dubbi, scrivi direttamente una mail a perlasociologia@gmail.com