Gloria Origgi. Ricerche su Internet
in: La Rivista dei Libri, dicembre 2003
Se volessimo trarre un bilancio dell’impatto di Internet nella nostra vita
culturale e di ricerca, potremmo riassumere parte della storia come una serie
di promesse e minacce non mantenute. Libri e carte non sono spariti dai tavoli,
ancora cerchiamo strenuamente editori per i manoscritti e non ci basta il libero vagare
nel ciberspazio di testi che portano il nostro nome per rassicurarci sulla
nostra perennità. Le differenze linguistiche non sono state schiacciate da un
inglese imperante sulla rete: per 215 milioni di utenti anglofoni, ci sono oggi
più di 400 milioni di utenti non anglofoni[1],
e nonostante l’espansione dell’educazione superiore a distanza (solo negli
Stati Uniti le circa 1 500 istituzioni universitarie che offrivano
insegnamenti on line nel 1999 dovrebbero diventare 3 300 entro il
2004)[2],
le aule universitarie sono gremite di studenti e i manuali stampati circolano
ancora sui banchi e nelle librerie. Non solo: i costi degli abbonamenti on line
alle pubblicazioni scientifiche sono rimasti proibitivi, comparabili ai costi
delle edizioni cartacee, e le università e le istituzioni di ricerca e di
documentazione ancora oggi si differenziano
per l’investimento economico che sono in grado di sopportare per dare accesso
alla documentazione scientifica ai loro membri. Il libero accesso alle
pubblicazioni scientifiche on line è una battaglia in corso[3],
ma basta consultare il Directory of Open Access Journals (http://www.doaj.org) per rendersi conto che,
delle più di ventimila riviste scientifiche con comitato di lettura esistenti
al mondo, poche hanno intrapreso la via dell’accesso libero e totalmente
gratuito. Anche progetti editoriali come JSTOR (www.jstor.org)
- un archivio di riviste nelle scienze umane, sponsorizzato dalla Mellon
Foundation allo scopo di ridurre i costi di stockaggio dei vecchi numeri dei
periodici nelle biblioteche, assicurarne la conservazione e migliorarne la
facilità d’accesso – o come PubMed Central (www.pubmedcentral.nih.gov)– un
archivio digitale di riviste di medicina e biologia - rimangono un compromesso
tra gli interessi dei ricercatori e degli editori: oltre alla necessità di
accreditare la propria istituzione attraverso un abbonamento, JSTOR protegge
gli interessi dell’editore di riviste scientifiche garantendo un intervallo
temporale considerevole tra l’ultimo numero disponibile sull’archivio on line e
il numero più recente della rivista
pubblicato dall’editore (solitamente dai 3 ai 5 anni). L’iniziativa PubMed ha
ricevuto per ora le adesioni di un piccolo numero di giornali, che spesso
pubblicano solo una parte degli articoli. I giornali completamente in libero
accesso sono editi dalla casa editrice associata a PubMed, ossia BioMed
(www.BioMed.com) e non sempre costituiscono i titoli di riferimento per i
ricercatori.
La lista potrebbe
continuare a lungo: il “libro piramidale” annunciato dallo storico della
cultura Robert Darnton in un suo celebre articolo su The New York Review of
Books[4], prevedeva una sostanziale modificazione della
monografia scientifica in una gerarchia di livelli, di cui il più superficiale
poteva essere stampato e distribuito, lasciando invece all’edizione digitale i
livelli più profondi, con gli apparati
critici, le note, le appendici. Ebbene, il libro piramidale non si è
realizzato, e il nostro uso dei testi su Internet manifesta invece la tendenza
opposta: ricerca rapida del brano sulla rete, senza eccessivo controllo di
qualità e di affidabilità delle fonti, e verifica degli apparati su edizioni
critiche rinomate (e pubblicate in stampa)[5].
Eppure – e questa è
l’altra parte della storia – nessuno potrebbe negare che il mondo della ricerca
è stato cambiato radicalmente dall’avvento di Internet. La ricerca non è più la
stessa, e non solo: tutte le pratiche che accompagnano la vita scientifica – la
consultazione delle fonti, l’organizzazione del sapere, il sistema disciplinare,
il controllo della qualità scientifica, l’insegnamento, la costruzione della reputazione
scientifica – hanno subito una mutazione profonda, che merita un’analisi
dettagliata.
Com’è cambiata la ricerca?
Quali sono le mutazioni sostanziali e quali quelle solo di costume? Quali i
vantaggi? Quali i rischi?
Nell’ultimo decennio, la produzione, la trasmissione e la conservazione del
sapere scientifico hanno subito un cambiamento così radicale e così rapido a
scala storica da mettere in questione tutte le nostre istituzioni culturali. La
combinazione di Internet e del World Wide Web - ossia il protocollo sviluppato nel
1990 per la visualizzazione e l’interoperabilità dei documenti su Internet - ha
permesso di riversare una quantità di dati bibliografici, di articoli
scientifici, di voci enciclopediche, di classici del pensiero, di repertori, di
sistemi di rimandi attraverso gli iperlink e di altri testi di varia natura in
un solo repertorio attivo e potenzialmente infinito di informazioni tra loro
connesse.
Questo dato di fatto ci fa riflettere su com’è cambiata l’attività
intellettuale, cognitiva, “dentro” le nostre teste di ricercatori e di lettori
e insieme su come sono cambiati i supporti dell’informazione e i valori che
tradizionalmente associamo al loro accesso e consumo. Farò qualche esempio di
questo cambiamento riferendomi principalmente alle cosiddette “scienze umane”,
ma molte delle conclusioni sono estendibili a tutta la ricerca scientifica.
Gran parte dell’attività di ricerca nelle discipline umanistiche come la
storia, la filosofia, la critica letteraria, etc. è un’attivita di “filtro”
dell’informazione già prodotta su un certo argomento. Potremmo definire la
cultura stessa come la costruzione e l’istituzionalizzazione di “filtri”, ossia
di sistemi di selezione e recupero dell’informazione: esperti, accademie,
giornali, case editrici, biblioteche non sono altro che i condensati
istituzionali dell’attività culturale di filtraggio e recupero
dell’informazione. Come diceva Umberto Eco in un breve saggio in cui spiegava
agli studenti come si scrive una tesi di laurea, l’università non serve tanto
ad acquisire informazioni, ma ad acquisire metodi e meta-conoscenza per
“navigare” nella cultura[6].
Internet è una rivoluzione culturale profonda perché non cambia
semplicemente il nostro accesso al corpus del sapere, ma cambia i nostri
filtri, i nostri metodi di recupero dell’informazione. Nell’era di Google,
una delle attività cognitive principali della gestione della conoscenza, la meta-memoria,
ossia quell’insieme di euristiche apprese culturalmente- dalle rime agli indici
analitici- che ci permette di recuperare informazioni dal corpus culturale,
viene automatizzata e realizzata, almeno in parte, fuori di noi. Cito Google
non a caso. Google è un motore di ricerca di seconda generazione: a
differenza dei primi motori di ricerca, come Lycoos o Altavista
che stabilivano la gerarchia dei risultati di una ricerca in base alla ricorrenza
delle parole chiave nelle pagine Web, l’algoritmo di Google calcola il
risultato di una ricerca usando come informazione la struttura dei link tra le pagine: se
una pagina riceve molti link da altre pagine, allora risale nella gerarchia dei
risultati. La struttura dei link contiene un’enorme quantità di informazione sulle
conoscenze degli utilizzatori del Web. L’estrazione di questa conoscenza
implicita dal groviglio dei link tra pagine Web è uno dei risultati
scientifici più significativi della ricerca informatica negli ultimi anni.[7]
La struttura dei link, prodotta culturalmente dalle scelte individuali dei creatori
di pagine Web, è interpretata dagli algoritmi di ricerca come una gerarchia di
valore tra le pagine: ogni link dalla pagina A verso la pagina B è un voto che
la pagina A esprime sulla pagina B. La gerarchia dei risultati influenzerà a
sua volta le scelte degli utilizzatori, in un circolo virtuoso di collaborazione
tra umani e automi.
Google sfrutta quindi
la nostra cognizione e insieme realizza una nostra funzione cognitiva, quella
della meta-memoria, che ci permette di recuperare un pezzo di informazione
nella fitta rete della nostra cultura. Se non siete persuasi della divisione
del lavoro cognitivo tra macchine e umani resa possibile dai motori di ricerca,
e pensate che il filtraggio e il recupero dell’informazione siano attività
eminentemente umane e culturali, non demandabili ad automi artificiali, provate
a connettervi al sito Google News (http://www.news.google.com):
Google News è un algoritmo che filtra le notizie di tutto il mondo sempre
utilizzando l’informazione contenuta nella struttura dei link da un sito a un
altro. La notizia più “cliccata” mondialmente risale quindi automaticamente in
prima posizione. Confrontate ora la prima pagina di Google News, aggiornata
automaticamente di continuo, con la prima pagina di un giornale internazionale,
Herald Tribune, per esempio. Beh, vedrete che la distanza non è così grande,
anzi: Google News evita le notizie tendenziose, che un giornale può aver deciso
di pubblicare in prima pagina per ragioni che vanno al di là del puro compito
di informare.
Un’attività culturale,
come quella del recupero e del filtraggio dell’informazione, è realizzata grazie
a uno “scambio alla pari” di informazioni tra umani (chiunque crei un link da
una pagina a un’altra) e automi (gli algoritmi che leggono la struttura dei
link). La compenetrazione di tecnologia, cognizione e cultura è così profonda
in questo caso, che siamo costretti a ripensare alla natura stessa della nostra
attività intellettuale. In qualche modo, l’intelligenza artificiale di cui si sognava
quarant’anni fa si è realizzata, ma su basi completamente diverse da quelle che
ci aspettavamo: non il cyborg mezzo umano e mezzo artificiale che aveva
fatto sognare i padri della cibernetica, ma un’intelligenza collettiva
ibrida dove il sapere generato dagli automi non potrebbe esistere senza la
produzione continua e spontanea di cultura da parte degli esseri umani, e allo
stesso tempo questa produzione è influenzata dal filtraggio automatico
dell’informazione.
In che modo l’attività di ricerca viene trasformata dalle nuove tecniche collettive
di filtraggio e recupero dell’informazione? Facciamo qualche esempio. Mi capita
spesso di scrivere articoli interdisciplinari, per esempio a cavallo tra
filosofia e scienze cognitive. In un sistema tradizionale di classificazione e
filtraggio della cultura, dovrò decidere a priori a quale pubblicazione
destinare il mio articolo, rischiando così di perdere l’audience dei filosofi
se pubblico su una rivista di scienze cognitive e viceversa se scelgo una
rivista di filosofia. Ma un testo nel cyberspazio, che sia in un portale di riviste
accessibili on line, nella mia pagina Web personale, nell’archivio on line
della mia istituzione o in qualche archivio elettronico a pubblico accesso (si
veda per esempio l’archivio COGPRINT - http://cogprints.ecs.soton.ac.uk -
per le pubblicazioni in scienze
cognitive) sarà comunque raggiungibile da chiunque sia interessato
all’argomento attraverso una ricerca con parole-chiave. I motori di ricerca rompono
le classificazioni rigide della ricerca tradizionale, gli a priori storici
che orientano il sapere e stabiliscono gli oggetti possibili di conoscenza in
una certa epoca, e riorganizzano il materiale scientifico in strutture più
leggere, assemblate temporalmente secondo lo scopo preciso del ricercatore, e
aggiornabili di continuo.
Gli scettici diranno che sto dipingendo un’immagine idealizzata di come dovrebbero
funzionare i motori di ricerca nel migliore dei mondi possibili, e che in
realtà il reperimento dei siti dipende dal loro referenziamento, che è soggetto
a strategie commerciali, ossia più paghi più sali nella gerarchia dei
risultati. Ma provate a fare una ricerca con le parole chiave “neural basis
of numerical competence” o “Adanson, malacologie” e vedrete che
difficilmente i risultati saranno influenzati dalle logiche commerciali: questo
perché fare ricerca, con o senza Internet, significa manipolare combinazioni di
parole chiave molto improbabili, ossia estrarre informazioni dal corpus del
sapere sotto un’angolatura estremamente sottile. Questi assemblaggi di sapere
sono così rari e rilevanti per una piccola comunità che restano fuori dalle
logiche commerciali e non sono influenzabili più di quanto non lo siano i
sistemi di citazione tradizionale: le riviste accademiche infatti hanno spesso
la pratica di citare nella bibliografia gli articoli pubblicati nelle loro
pagine per aumentare il quotation ranking e quindi l’autorevolezza della
rivista. Certo, il discorso non vale per l’utente medio di Internet che cerca: “cinema
a Parma”, e che riceverà risposte influenzate da logiche commerciali. E ancor
meno varrà per lo studente alle prime armi che cerca “Nazismo” sul Web si vede
sflilare davanti e una cascata di pagine antisemite o negazioniste. Ma se il
caso dell’utente di Parma esula dal nostro discorso sulla ricerca, quello dello
studente invece ci serve proprio per sottolineare come Internet non cambia solo
il nostro modo di fare ricerca, ma anche di comunicarla.
In un mondo in cui l’informazione circola in strutture di conoscenze
leggere, rimanipolabili e riassemblabili secondo i nostri scopi, sarà meglio
insegnare agli studenti a ragionare in modo diverso: spesso le tassonomie
rigide tradizionali in cui il sapere è sezionato e trasmesso e che stabiliscono
il canone di una cultura, non costituiscono la maniera più adeguata di
recuperare l’informazione in quella cultura. Il canone infatti, ossia la
classificazione e l’organizzazione dei saperi che permette a una cultura di
identificarsi e tramandare una memoria collettiva, ha una funzione sociale ben
più ampia della semplice trasmissione delle conoscenze: esso definisce la
soglia di identità al di sotto della quale una cultura cessa di riconoscersi in
quanto tale, ed è quindi mantenuto non tanto come artefatto culturale di
trasmissione del sapere da una generazione all’altra, ma come “archivio sacro”
di una sociétà che costituisce la risposta alla domanda “chi siamo?”. Ma in una
società informazionalmente aperta, in cui il sapere circola e si riorganizza di
continuo al di là dei confini d’identità, i vari canoni sono spesso dissonanti tra
di loro mostrano il loro limite quali strumenti di trasmissione culturale.
Meglio forse abituare le giovani menti post-Internet ad euristiche di ricerca
più agili e contestuali e adattabili a nuove situazioni. In fondo è così che
funziona la nostra cognizione: recuperiamo informazione nella memoria nel
contesto di una certa esperienza, e possiamo creare un numero illimitato di
concetti ad hoc che ci servono per riflettere e pianificare un’azione in
una situazione particolare (per esempio, posso costruire il concetto che
corrisponde a: “le cose più importanti da salvare quando la casa brucia” che
conterrà un assemblaggio temporaneo di oggetti disparati come : bambini,
documenti, quadro della nonna, chiavi della cassetta di sicurezza, etc.). Certo,
la trasmissione delle conoscenze richiede una certa stabilità dei concetti: ma
se riuscissimo a separare ciò che di questa stabilità è essenziale per il
sapere e ciò che non lo è - e che serve a scopi pur nobili ma diversi come il
perpetuarsi dell’identità culturale - potremmo sviluppare nel futuro sistemi di
insegnamento più appropriati, adatti alle nostre menti e alle nuove strutture
di conoscenza prodotte dall’interazione tra menti e algoritmi. Nei prossimi
anni assisteremo a una co-evoluzione di strategie culturali e cognitive e di
sistemi di “knowledge management” che cambierà profondamente la trasmissione del
sapere (pensate solo al programma educativo “StarLogo”[8],
sviluppato al MIT Media Lab per familiarizzare gli studenti e i ricercatori al
pensiero distribuito e ai sistemi decentralizzati).
Questi esempi ci mostrano come la cultura à la carte che Internet
mette a disposizione sconvolge profondamente le pratiche mentali e i ruoli
istituzionali che tradizionalmente associamo alla produzione, alla
conservazione e alla trasmissione del sapere. E, come diceva Habermas, laddove
la scienza e la tecnologia si introducono nelle sfere istituzionali della
società, tutte le legittimazioni esistenti sono messe in questione[9].
Prendiamo il caso delle riviste scientifiche, uno dei filtri più autorevoli
del sapere nella comunità della ricerca: un ricercatore sottopone un articolo
alla rivista: la redazione della rivista lo trasmette almeno a due recensori
anonimi che lo valutano formulando critiche, proponendo miglioramenti e a volte
sconsigliandone la pubblicazione. Il ricercatore riceve i commenti, riformula
l’articolo e, molti mesi dopo, lo vede pubblicato sulla rivista. Il tutto,
ovviamente, non remunerato, il che distingue questa classe di pubblicazioni
dalle riviste normali che si acquistano in edicola. L’avvento di Internet ha
reso evidente un’apparente assurdità di questo mercato: in effetti sono i
ricercatori che producono gli articoli, che li consumano, e sono sempre loro
che ne garantiscono gratuitamente la valutazione. In più, sono le università e
le biblioteche che acquistano gli abbonamenti alle riviste, permettendone la
sopravvivenza. Ma perché allora passare per le riviste? Perché allungare e
rendere costoso un processo di scambio dell’informazione che è riservato a una
comunità di pari e può oggi essere realizzato a costo zero grazie a Internet?
Questa riflessione si è concretizzata in varie azioni: il movimento per
l’accesso libero alle riviste scientifiche sul Web che ho citato all’inizio
dell’articolo si propone proprio di ripensare ai ruoli istituzionali di
garanzia del sapere. L’Open Access ha permesso la creazione di nuove riviste
con comitato di lettura solo digitali (come le riviste di BioMed Central, o Psycholoquy),
lo sviluppo di programmi in libero accesso per l’archiviazione on line degli
articoli e per la costruzione di archivi interoperabili, e, cosa più
importante, ha incoraggiato la riflessione sui possibili nuovi modelli di
distribuzione del sapere scientifico. Per esempio, le biblioteche
universitarie, il cui ruolo è anch’esso minacciato dalla rivoluzione
informatica, potrebbero sviluppare nuove competenze e prendere il posto delle
riviste nel lavoro di filtraggio e di archiviazione degli articoli scientifici.
Oppure: un editore di riviste digitali può garantire il suo profitto facendo
pagare all’autore (o meglio: alla sua istituzione) per il servizio di
referaggio e messa on line in un certo formato (è il modello adottato da BioMed
Central). O ancora si possono pensare a sistemi di filtraggio e ridistribuzione
dell’informazione veramente differenti dalle riviste, come per esempio la Faculty
of 1000, ossia un progetto di selezione mensile dei più importanti articoli
in medicina e biologia proposta da 1000 scienziati di grande fama: ogni
articolo ha un certo voto, un po’ come le stellette dei critici
cinematografici, e, a seconda di dove è stato pubblicato può essere disponibile
in libero accesso o acquistabile direttamente sul sito. Certo è che in tutti
settori dell’edizione e della distribuzione di contenuti, dall’editoria
scientifica alle case discografiche, le battaglie di retroguardia per difendere
diritti acquisiti alle quali assistiamo in questi anni non sono il modo
migliore per sfruttare al meglio l’innovazione tecnologica.
Internet si è sviluppato a lungo, diciamo fino alla fine degli anni
Novanta, in modo anarchico e libertario. A differenza delle grandi reti del
passato, come la rete elettrica o quella stradale, Internet è un sistema
intrinsecamente decentrato: un fiume di informazione che ha inondato tutte le
strutture di gestione del sapere e che ha messo in questione diritti, norme,
abitudini mentali, ruoli sociali, non solo nel mondo della ricerca ma in generale
nel mondo della produzione, della trasmissione e della conservazione della
conoscenza. Il mondo reso possibile dall’ Internet degli esordi era forse
troppo lontano da quello che conosciamo, e abbiamo così assistito negli ultimi
anni a una reazione conservatrice in cui le antiche forme, i vecchi diritti e i
tradizionali privilegi sono stati rivendicati, spesso davanti a un tribunale
(si pensi al caso di Napster). La delusione della nuova economia ha incoraggiato
il ritorno al vecchio ordine. Oggi ci troviamo davanti a una scelta importante:
se concepire nuove strutture di gestione della conoscenza che davvero siano il
frutto di un’integrazione tra pratiche culturali, ruoli istituzionali ed
innovazione tecnologica o se difendere un antico status quo rischiando
così di perdere l’immagine reale di noi stessi come produttori e fruitori di
cultura, un’immagine per sempre trasformata dalla rivoluzione Internet.
[1] Cfr. http://glreach.com/globstats ; Daniel Door (2003): “From Englishization to Imposed Multilingualism: Globalization,
the Internet and the Political Economy of the Linguistic Code” in Public Culture (in pubblicazione)
[2] fonte IDC : http://www.idc.com. Nell’anno accademico 2001-2002 gli
studenti negli Stati Uniti che hanno seguito un programma completamente a
distanza sono 488 000. Il tasso di crescita delle immatricolazioni a
distanza è stimato a 30% annuo. Sul totale delle iscrizioni universitarie, oggi
negli Stati Uniti, più del 4% delle iscrizioni sono per programmi interamente
on line (cfr. S. R. Gallagher (2003) “The Future of on line learning: Key
trends and issues”, Proceedings of the DETC 77th Annual Conference, 13-15
Aprile 2003.
[3] Si veda su questo punto Stevan Harnad
(2001) : “Skyreading and Skywriting in the Post-Gutenberg Galaxy”, http://www.text-e.org .
[4] Cfr. R. Darnton (1999) « The New Age of the Book », NYRB,
18 Marzo, http://www.nybooks.com/articles/546
[5] Cfr. J.
Nielsen (1997) “How Users Read on the Web”, Alertbox,
Ottobre 1997; http://www.useit.com
[6] U. Eco (1977) Come si fa una tesi di
laurea, Tascabili Bompiani.
[7] Cfr. J.
Kleinberg (1998) “Authoritative Sources in a Hyperlinked Environnement”
Proccedings of the 9th ACM-SIAM Symposium
on Discrete Algorithms.
[9] Cf . Habermas (1968) Technik und
Wssenschaft als Ideologie, Francoforte.