Gloria Origgi. Ricerche su Internet    

in: La Rivista dei Libri, dicembre 2003

 

Se volessimo trarre un bilancio dell’impatto di Internet nella nostra vita culturale e di ricerca, potremmo riassumere parte della storia come una serie di promesse e minacce non mantenute. Libri e carte non sono spariti dai tavoli, ancora cerchiamo strenuamente editori per i  manoscritti e non ci basta il libero vagare nel ciberspazio di testi che portano il nostro nome per rassicurarci sulla nostra perennità. Le differenze linguistiche non sono state schiacciate da un inglese imperante sulla rete: per 215 milioni di utenti anglofoni, ci sono oggi più di 400 milioni di utenti non anglofoni[1], e nonostante l’espansione dell’educazione superiore a distanza (solo negli Stati Uniti le circa 1 500 istituzioni universitarie che offrivano insegnamenti on line nel 1999 dovrebbero diventare 3 300 entro il 2004)[2], le aule universitarie sono gremite di studenti e i manuali stampati circolano ancora sui banchi e nelle librerie. Non solo: i costi degli abbonamenti on line alle pubblicazioni scientifiche sono rimasti proibitivi, comparabili ai costi delle edizioni cartacee, e le università e le istituzioni di ricerca e di documentazione  ancora oggi si differenziano per l’investimento economico che sono in grado di sopportare per dare accesso alla documentazione scientifica ai loro membri. Il libero accesso alle pubblicazioni scientifiche on line è una battaglia in corso[3], ma basta consultare il Directory of Open Access Journals (http://www.doaj.org) per rendersi conto che, delle più di ventimila riviste scientifiche con comitato di lettura esistenti al mondo, poche hanno intrapreso la via dell’accesso libero e totalmente gratuito. Anche progetti editoriali come JSTOR (www.jstor.org) - un archivio di riviste nelle scienze umane, sponsorizzato dalla Mellon Foundation allo scopo di ridurre i costi di stockaggio dei vecchi numeri dei periodici nelle biblioteche, assicurarne la conservazione e migliorarne la facilità d’accesso – o come PubMed Central (www.pubmedcentral.nih.gov)– un archivio digitale di riviste di medicina e biologia - rimangono un compromesso tra gli interessi dei ricercatori e degli editori: oltre alla necessità di accreditare la propria istituzione attraverso un abbonamento, JSTOR protegge gli interessi dell’editore di riviste scientifiche garantendo un intervallo temporale considerevole tra l’ultimo numero disponibile sull’archivio on line e il numero più recente  della rivista pubblicato dall’editore (solitamente dai 3 ai 5 anni). L’iniziativa PubMed ha ricevuto per ora le adesioni di un piccolo numero di giornali, che spesso pubblicano solo una parte degli articoli. I giornali completamente in libero accesso sono editi dalla casa editrice associata a PubMed, ossia BioMed (www.BioMed.com) e non sempre costituiscono i titoli di riferimento per i ricercatori.

            La lista potrebbe continuare a lungo: il “libro piramidale” annunciato dallo storico della cultura Robert Darnton in un suo celebre articolo su The New York Review of Books[4],  prevedeva una sostanziale modificazione della monografia scientifica in una gerarchia di livelli, di cui il più superficiale poteva essere stampato e distribuito, lasciando invece all’edizione digitale i livelli  più profondi, con gli apparati critici, le note, le appendici. Ebbene, il libro piramidale non si è realizzato, e il nostro uso dei testi su Internet manifesta invece la tendenza opposta: ricerca rapida del brano sulla rete, senza eccessivo controllo di qualità e di affidabilità delle fonti, e verifica degli apparati su edizioni critiche rinomate (e pubblicate in stampa)[5].

            Eppure – e questa è l’altra parte della storia – nessuno potrebbe negare che il mondo della ricerca è stato cambiato radicalmente dall’avvento di Internet. La ricerca non è più la stessa, e non solo: tutte le pratiche che accompagnano la vita scientifica – la consultazione delle fonti, l’organizzazione del sapere, il sistema disciplinare, il controllo della qualità scientifica, l’insegnamento, la costruzione della reputazione scientifica – hanno subito una mutazione profonda, che merita un’analisi dettagliata.

            Com’è cambiata la ricerca? Quali sono le mutazioni sostanziali e quali quelle solo di costume? Quali i vantaggi? Quali i rischi?

Nell’ultimo decennio, la produzione, la trasmissione e la conservazione del sapere scientifico hanno subito un cambiamento così radicale e così rapido a scala storica da mettere in questione tutte le nostre istituzioni culturali. La combinazione di Internet e del World Wide Web - ossia il protocollo sviluppato nel 1990 per la visualizzazione e l’interoperabilità dei documenti su Internet - ha permesso di riversare una quantità di dati bibliografici, di articoli scientifici, di voci enciclopediche, di classici del pensiero, di repertori, di sistemi di rimandi attraverso gli iperlink e di altri testi di varia natura in un solo repertorio attivo e potenzialmente infinito di informazioni tra loro connesse.

Questo dato di fatto ci fa riflettere su com’è cambiata l’attività intellettuale, cognitiva, “dentro” le nostre teste di ricercatori e di lettori e insieme su come sono cambiati i supporti dell’informazione e i valori che tradizionalmente associamo al loro accesso e consumo. Farò qualche esempio di questo cambiamento riferendomi principalmente alle cosiddette “scienze umane”, ma molte delle conclusioni sono estendibili a tutta la ricerca scientifica.

Gran parte dell’attività di ricerca nelle discipline umanistiche come la storia, la filosofia, la critica letteraria, etc. è un’attivita di “filtro” dell’informazione già prodotta su un certo argomento. Potremmo definire la cultura stessa come la costruzione e l’istituzionalizzazione di “filtri”, ossia di sistemi di selezione e recupero dell’informazione: esperti, accademie, giornali, case editrici, biblioteche non sono altro che i condensati istituzionali dell’attività culturale di filtraggio e recupero dell’informazione. Come diceva Umberto Eco in un breve saggio in cui spiegava agli studenti come si scrive una tesi di laurea, l’università non serve tanto ad acquisire informazioni, ma ad acquisire metodi e meta-conoscenza per “navigare” nella cultura[6].

Internet è una rivoluzione culturale profonda perché non cambia semplicemente il nostro accesso al corpus del sapere, ma cambia i nostri filtri, i nostri metodi di recupero dell’informazione. Nell’era di Google, una delle attività cognitive principali della gestione della conoscenza, la meta-memoria, ossia quell’insieme di euristiche apprese culturalmente- dalle rime agli indici analitici- che ci permette di recuperare informazioni dal corpus culturale, viene automatizzata e realizzata, almeno in parte, fuori di noi. Cito Google non a caso. Google è un motore di ricerca di seconda generazione: a differenza dei primi motori di ricerca, come Lycoos o Altavista che stabilivano la gerarchia dei risultati di una ricerca in base alla ricorrenza delle parole chiave nelle pagine Web, l’algoritmo di Google calcola il risultato di una ricerca usando come informazione  la struttura dei link tra le pagine: se una pagina riceve molti link da altre pagine, allora risale nella gerarchia dei risultati. La struttura dei link contiene un’enorme quantità di informazione sulle conoscenze degli utilizzatori del Web. L’estrazione di questa conoscenza implicita dal groviglio dei link tra pagine Web è uno dei risultati scientifici più significativi della ricerca informatica negli ultimi anni.[7]

La struttura dei link, prodotta culturalmente dalle scelte individuali dei creatori di pagine Web, è interpretata dagli algoritmi di ricerca come una gerarchia di valore tra le pagine: ogni link dalla pagina A verso la pagina B è un voto che la pagina A esprime sulla pagina B. La gerarchia dei risultati influenzerà a sua volta le scelte degli utilizzatori, in un circolo virtuoso di collaborazione tra umani e automi.       

Google sfrutta quindi la nostra cognizione e insieme realizza una nostra funzione cognitiva, quella della meta-memoria, che ci permette di recuperare un pezzo di informazione nella fitta rete della nostra cultura. Se non siete persuasi della divisione del lavoro cognitivo tra macchine e umani resa possibile dai motori di ricerca, e pensate che il filtraggio e il recupero dell’informazione siano attività eminentemente umane e culturali, non demandabili ad automi artificiali, provate a connettervi al sito Google News (http://www.news.google.com): Google News è un algoritmo che filtra le notizie di tutto il mondo sempre utilizzando l’informazione contenuta nella struttura dei link da un sito a un altro. La notizia più “cliccata” mondialmente risale quindi automaticamente in prima posizione. Confrontate ora la prima pagina di Google News, aggiornata automaticamente di continuo, con la prima pagina di un giornale internazionale, Herald Tribune, per esempio. Beh, vedrete che la distanza non è così grande, anzi: Google News evita le notizie tendenziose, che un giornale può aver deciso di pubblicare in prima pagina per ragioni che vanno al di là del puro compito di informare.

            Un’attività culturale, come quella del recupero e del filtraggio dell’informazione, è realizzata grazie a uno “scambio alla pari” di informazioni tra umani (chiunque crei un link da una pagina a un’altra) e automi (gli algoritmi che leggono la struttura dei link). La compenetrazione di tecnologia, cognizione e cultura è così profonda in questo caso, che siamo costretti a ripensare alla natura stessa della nostra attività intellettuale. In qualche modo, l’intelligenza artificiale di cui si sognava quarant’anni fa si è realizzata, ma su basi completamente diverse da quelle che ci aspettavamo: non il cyborg mezzo umano e mezzo artificiale che aveva fatto sognare i padri della cibernetica, ma un’intelligenza collettiva ibrida dove il sapere generato dagli automi non potrebbe esistere senza la produzione continua e spontanea di cultura da parte degli esseri umani, e allo stesso tempo questa produzione è influenzata dal filtraggio automatico dell’informazione.

In che modo l’attività di ricerca viene trasformata dalle nuove tecniche collettive di filtraggio e recupero dell’informazione? Facciamo qualche esempio. Mi capita spesso di scrivere articoli interdisciplinari, per esempio a cavallo tra filosofia e scienze cognitive. In un sistema tradizionale di classificazione e filtraggio della cultura, dovrò decidere a priori a quale pubblicazione destinare il mio articolo, rischiando così di perdere l’audience dei filosofi se pubblico su una rivista di scienze cognitive e viceversa se scelgo una rivista di filosofia. Ma un testo nel cyberspazio, che sia in un portale di riviste accessibili on line, nella mia pagina Web personale, nell’archivio on line della mia istituzione o in qualche archivio elettronico a pubblico accesso (si veda per esempio l’archivio COGPRINT - http://cogprints.ecs.soton.ac.uk -  per le pubblicazioni in scienze cognitive) sarà comunque raggiungibile da chiunque sia interessato all’argomento attraverso una ricerca con parole-chiave. I motori di ricerca rompono le classificazioni rigide della ricerca tradizionale, gli a priori storici che orientano il sapere e stabiliscono gli oggetti possibili di conoscenza in una certa epoca, e riorganizzano il materiale scientifico in strutture più leggere, assemblate temporalmente secondo lo scopo preciso del ricercatore, e aggiornabili di continuo.

Gli scettici diranno che sto dipingendo un’immagine idealizzata di come dovrebbero funzionare i motori di ricerca nel migliore dei mondi possibili, e che in realtà il reperimento dei siti dipende dal loro referenziamento, che è soggetto a strategie commerciali, ossia più paghi più sali nella gerarchia dei risultati. Ma provate a fare una ricerca con le parole chiave “neural basis of numerical competence” o “Adanson, malacologie” e vedrete che difficilmente i risultati saranno influenzati dalle logiche commerciali: questo perché fare ricerca, con o senza Internet, significa manipolare combinazioni di parole chiave molto improbabili, ossia estrarre informazioni dal corpus del sapere sotto un’angolatura estremamente sottile. Questi assemblaggi di sapere sono così rari e rilevanti per una piccola comunità che restano fuori dalle logiche commerciali e non sono influenzabili più di quanto non lo siano i sistemi di citazione tradizionale: le riviste accademiche infatti hanno spesso la pratica di citare nella bibliografia gli articoli pubblicati nelle loro pagine per aumentare il quotation ranking e quindi l’autorevolezza della rivista. Certo, il discorso non vale per l’utente medio di Internet che cerca: “cinema a Parma”, e che riceverà risposte influenzate da logiche commerciali. E ancor meno varrà per lo studente alle prime armi che cerca “Nazismo” sul Web si vede sflilare davanti e una cascata di pagine antisemite o negazioniste. Ma se il caso dell’utente di Parma esula dal nostro discorso sulla ricerca, quello dello studente invece ci serve proprio per sottolineare come Internet non cambia solo il nostro modo di fare ricerca, ma anche di comunicarla.

In un mondo in cui l’informazione circola in strutture di conoscenze leggere, rimanipolabili e riassemblabili secondo i nostri scopi, sarà meglio insegnare agli studenti a ragionare in modo diverso: spesso le tassonomie rigide tradizionali in cui il sapere è sezionato e trasmesso e che stabiliscono il canone di una cultura, non costituiscono la maniera più adeguata di recuperare l’informazione in quella cultura. Il canone infatti, ossia la classificazione e l’organizzazione dei saperi che permette a una cultura di identificarsi e tramandare una memoria collettiva, ha una funzione sociale ben più ampia della semplice trasmissione delle conoscenze: esso definisce la soglia di identità al di sotto della quale una cultura cessa di riconoscersi in quanto tale, ed è quindi mantenuto non tanto come artefatto culturale di trasmissione del sapere da una generazione all’altra, ma come “archivio sacro” di una sociétà che costituisce la risposta alla domanda “chi siamo?”. Ma in una società informazionalmente aperta, in cui il sapere circola e si riorganizza di continuo al di là dei confini d’identità, i vari canoni sono spesso dissonanti tra di loro mostrano il loro limite quali strumenti di trasmissione culturale. Meglio forse abituare le giovani menti post-Internet ad euristiche di ricerca più agili e contestuali e adattabili a nuove situazioni. In fondo è così che funziona la nostra cognizione: recuperiamo informazione nella memoria nel contesto di una certa esperienza, e possiamo creare un numero illimitato di concetti ad hoc che ci servono per riflettere e pianificare un’azione in una situazione particolare (per esempio, posso costruire il concetto che corrisponde a: “le cose più importanti da salvare quando la casa brucia” che conterrà un assemblaggio temporaneo di oggetti disparati come : bambini, documenti, quadro della nonna, chiavi della cassetta di sicurezza, etc.). Certo, la trasmissione delle conoscenze richiede una certa stabilità dei concetti: ma se riuscissimo a separare ciò che di questa stabilità è essenziale per il sapere e ciò che non lo è - e che serve a scopi pur nobili ma diversi come il perpetuarsi dell’identità culturale - potremmo sviluppare nel futuro sistemi di insegnamento più appropriati, adatti alle nostre menti e alle nuove strutture di conoscenza prodotte dall’interazione tra menti e algoritmi. Nei prossimi anni assisteremo a una co-evoluzione di strategie culturali e cognitive e di sistemi di “knowledge management” che cambierà profondamente la trasmissione del sapere (pensate solo al programma educativo “StarLogo”[8], sviluppato al MIT Media Lab per familiarizzare gli studenti e i ricercatori al pensiero distribuito e ai sistemi decentralizzati).

Questi esempi ci mostrano come la cultura à la carte che Internet mette a disposizione sconvolge profondamente le pratiche mentali e i ruoli istituzionali che tradizionalmente associamo alla produzione, alla conservazione e alla trasmissione del sapere. E, come diceva Habermas, laddove la scienza e la tecnologia si introducono nelle sfere istituzionali della società, tutte le legittimazioni esistenti sono messe in questione[9].

Prendiamo il caso delle riviste scientifiche, uno dei filtri più autorevoli del sapere nella comunità della ricerca: un ricercatore sottopone un articolo alla rivista: la redazione della rivista lo trasmette almeno a due recensori anonimi che lo valutano formulando critiche, proponendo miglioramenti e a volte sconsigliandone la pubblicazione. Il ricercatore riceve i commenti, riformula l’articolo e, molti mesi dopo, lo vede pubblicato sulla rivista. Il tutto, ovviamente, non remunerato, il che distingue questa classe di pubblicazioni dalle riviste normali che si acquistano in edicola. L’avvento di Internet ha reso evidente un’apparente assurdità di questo mercato: in effetti sono i ricercatori che producono gli articoli, che li consumano, e sono sempre loro che ne garantiscono gratuitamente la valutazione. In più, sono le università e le biblioteche che acquistano gli abbonamenti alle riviste, permettendone la sopravvivenza. Ma perché allora passare per le riviste? Perché allungare e rendere costoso un processo di scambio dell’informazione che è riservato a una comunità di pari e può oggi essere realizzato a costo zero grazie a Internet? Questa riflessione si è concretizzata in varie azioni: il movimento per l’accesso libero alle riviste scientifiche sul Web che ho citato all’inizio dell’articolo si propone proprio di ripensare ai ruoli istituzionali di garanzia del sapere. L’Open Access ha permesso la creazione di nuove riviste con comitato di lettura solo digitali (come le riviste di BioMed Central, o Psycholoquy), lo sviluppo di programmi in libero accesso per l’archiviazione on line degli articoli e per la costruzione di archivi interoperabili, e, cosa più importante, ha incoraggiato la riflessione sui possibili nuovi modelli di distribuzione del sapere scientifico. Per esempio, le biblioteche universitarie, il cui ruolo è anch’esso minacciato dalla rivoluzione informatica, potrebbero sviluppare nuove competenze e prendere il posto delle riviste nel lavoro di filtraggio e di archiviazione degli articoli scientifici. Oppure: un editore di riviste digitali può garantire il suo profitto facendo pagare all’autore (o meglio: alla sua istituzione) per il servizio di referaggio e messa on line in un certo formato (è il modello adottato da BioMed Central). O ancora si possono pensare a sistemi di filtraggio e ridistribuzione dell’informazione veramente differenti dalle riviste, come per esempio la Faculty of 1000, ossia un progetto di selezione mensile dei più importanti articoli in medicina e biologia proposta da 1000 scienziati di grande fama: ogni articolo ha un certo voto, un po’ come le stellette dei critici cinematografici, e, a seconda di dove è stato pubblicato può essere disponibile in libero accesso o acquistabile direttamente sul sito. Certo è che in tutti settori dell’edizione e della distribuzione di contenuti, dall’editoria scientifica alle case discografiche, le battaglie di retroguardia per difendere diritti acquisiti alle quali assistiamo in questi anni non sono il modo migliore per sfruttare al meglio l’innovazione tecnologica.

Internet si è sviluppato a lungo, diciamo fino alla fine degli anni Novanta, in modo anarchico e libertario. A differenza delle grandi reti del passato, come la rete elettrica o quella stradale, Internet è un sistema intrinsecamente decentrato: un fiume di informazione che ha inondato tutte le strutture di gestione del sapere e che ha messo in questione diritti, norme, abitudini mentali, ruoli sociali, non solo nel mondo della ricerca ma in generale nel mondo della produzione, della trasmissione e della conservazione della conoscenza. Il mondo reso possibile dall’ Internet degli esordi era forse troppo lontano da quello che conosciamo, e abbiamo così assistito negli ultimi anni a una reazione conservatrice in cui le antiche forme, i vecchi diritti e i tradizionali privilegi sono stati rivendicati, spesso davanti a un tribunale (si pensi al caso di Napster). La delusione della nuova economia ha incoraggiato il ritorno al vecchio ordine. Oggi ci troviamo davanti a una scelta importante: se concepire nuove strutture di gestione della conoscenza che davvero siano il frutto di un’integrazione tra pratiche culturali, ruoli istituzionali ed innovazione tecnologica o se difendere un antico status quo rischiando così di perdere l’immagine reale di noi stessi come produttori e fruitori di cultura, un’immagine per sempre trasformata dalla rivoluzione Internet.

             



[1] Cfr. http://glreach.com/globstats ; Daniel Door (2003): “From Englishization to Imposed Multilingualism: Globalization, the Internet and the Political Economy of the Linguistic Code”  in Public Culture (in pubblicazione)

[2] fonte IDC : http://www.idc.com. Nell’anno accademico 2001-2002 gli studenti negli Stati Uniti che hanno seguito un programma completamente a distanza sono 488 000. Il tasso di crescita delle immatricolazioni a distanza è stimato a 30% annuo. Sul totale delle iscrizioni universitarie, oggi negli Stati Uniti, più del 4% delle iscrizioni sono per programmi interamente on line (cfr. S. R. Gallagher (2003) “The Future of on line learning: Key trends and issues”, Proceedings of the DETC 77th Annual Conference, 13-15 Aprile 2003.

[3] Si veda su questo punto Stevan Harnad (2001) : “Skyreading and Skywriting in the Post-Gutenberg Galaxy”, http://www.text-e.org .

[4] Cfr. R. Darnton (1999) « The New Age of the Book », NYRB, 18 Marzo, http://www.nybooks.com/articles/546

 

[5] Cfr. J. Nielsen (1997) “How Users Read on the Web”, Alertbox, Ottobre 1997; http://www.useit.com

[6] U. Eco (1977) Come si fa una tesi di laurea, Tascabili Bompiani.

[7] Cfr. J. Kleinberg (1998) “Authoritative Sources in a Hyperlinked EnvironnementProccedings of the 9th ACM-SIAM Symposium on Discrete Algorithms.

[8] Cf. http://education.mit.edu/starlogo/

 

[9] Cf . Habermas (1968) Technik und Wssenschaft als Ideologie, Francoforte.