Gloria Origgi

 

Recherches sur Internet

 

La Rivista dei Libri, décembre 2003

(Traduction de l’original en italien de Anne-Marie Varigault)

 

Si nous voulions tirer le bilan de l’impact d’Internet en ce qui concerne notre vie sur le plan de la culture et de la recherche, nous pourrions résumer une partie de l’histoire comme une série de promesses et de menaces non tenues. Les livres et les papiers n’ont pas disparu de nos tables, nous cherchons encore sans relâche des éditeurs pour nos manuscrits et le fait que des textes qui portent notre nom errent librement dans le cyberespace ne suffit pas à nous rassurer sur notre pérennité. Les différences linguistiques n’ont pas été anéanties par une langue anglaise qui dominerait le réseau : pour 215 millions d’usagers anglophones, il y a aujourd’hui plus de 400 millions d’usagers non anglophones[1] et malgré le développement de l’éducation supérieure à distance (dans les seuls Etats-Unis les quelques 1500 institutions universitaires qui offraient des enseignements on line en 1999 devraient devenir 3300 d’ici 2004)[2], les amphis sont remplis d’étudiants et les manuels imprimés circulent encore sur les bancs et dans les bibliothèques. Et ce n’est pas tout : les coûts des abonnements en ligne aux publications scientifiques sont restés prohibitifs, comparables aux coûts des éditions papier, et les universités et les institutions de recherche et de documentation se différencient encore aujourd’hui par l’investissement économique qu’elles sont en mesure d’assumer pour offrir à leurs membres l’accès à la documentation scientifique. Le libre accès aux publications scientifiques en ligne est une bataille en cours[3], mais il suffit de consulter le Directory of Open Access Journals ( http://www.doaj.org) pour se rendre compte que, parmi les plus de vingt mille revues scientifiques avec un comité de lecture existant au monde, peu se sont engagées sur le chemin d’un accès libre et totalement gratuit. Même des projets éditoriaux comme JSTOR (www.jstor.org) - un fichier de revues de sciences humaines, sponsorisé par la Mellon Foundation dans le but de réduire les coûts de stockage dans les bibliothèques des anciens numéros des périodiques, en assurer la conservation et en améliorer la facilité d’accès - ou comme PubMed Central ( www.pubmedcentral.nil.gov) - un fichier digital de revues de médecine et biologie - restent un compromis entre les intérêts des chercheurs et ceux des éditeurs : outre la nécessité d’apporter du crédit à sa propre institution grâce à un abonnement, JSTOR protège les intérêts des éditeurs de revues scientifiques en garantissant un intervalle de temps considérable entre le dernier numéro disponible sur le fichier en ligne et le numéro le plus récent de la revue publié par l’éditeur (généralement entre 3 à 5 ans). L’initiative de PubMed a reçu pour l’instant les adhésions d’un petit nombre de journaux, qui souvent ne publient qu’une partie des articles. Les journaux qui sont complètement en libre accès sont édités par la maison éditrice associée à PubMed, à savoir BioMed ( www.BioMed.com) et ne constituent pas toujours des titres de référence pour les chercheurs.

           La liste pourrait continuer sans fin : le « livre pyramidal » annoncé par l’historien de la culture Robert Darnton dans son célèbre article publié par The New York Review of Books[4] , prévoyait une transformation substantielle de la monographie scientifique en une hiérarchie de niveaux, dont le plus superficiel pouvait être imprimé et distribué, laissant au contraire à l’édition digitale les niveaux plus profonds, comprenant les appareils critiques, les notes, les appendices. Eh bien, le livre pyramidal ne s’est pas réalisé et notre utilisation des textes sur Internet manifeste au contraire la tendance opposée : recherche rapide d’un passage sur le réseau, sans contrôle excessif de la qualité et de la fiabilité des sources, et vérification des appareils dans les éditions critiques renommées (et publiées sur papier)[5].

           Cependant - et ceci est l’autre partie de l’histoire - personne ne peut nier que le monde de la recherche a été radicalement changé par l’avènement de Internet. La recherche n’est plus la même et pas seulement la recherche: toutes les pratiques qui accompagnent la vie scientifique - la consultation des sources, l’organisation du savoir, le système disciplinaire, le contrôle de la qualité scientifique, l’enseignement, la construction de la réputation scientifique - ont subi une mutation profonde qui mérite une analyse détaillée.

           En quoi la recherche a t’elle changé ? Quelles sont les mutations substantielles et quelles sont celles qui relèvent seulement de l’habitude ? Quels sont les avantages ? Quels sont les risques ?

           Dans la dernière décennie, la production, la transmission et la conservation du savoir scientifique ont subi à une échelle historique un changement tellement radical et tellement rapide qu’il a mis en question toutes nos institutions culturelles. La combinaison de Internet et du World Wide Web - c'est-à-dire le protocole développé en 1990 pour la visualisation et l’interopérabilité des documents sur Internet - a permis de déverser une quantité de données bibliographiques, d’articles scientifiques, d’articles encyclopédiques, de classiques de la pensée, de répertoires, de systèmes de renvois à travers les hyper liens, et d’autres textes de nature variée, en un seul répertoire actif et potentiellement infini d’informations connectées entre elles.

           Ceci nous porte à réfléchir à la façon dont a changé l’activité intellectuelle, cognitive, « à l’intérieur » de nos têtes de chercheurs et de lecteurs en même temps qu’à la façon dont ont changé les supports de l’information et les valeurs que nous associons traditionnellement à leur accès et à leur consommation. Je donnerai quelques exemples de ce changement en me référant principalement aux sciences dites humaines, mais on peut en étendre la plupart des conclusions à toute la recherche scientifique.

           Une grande partie de l’activité de recherche dans les disciplines humanistes comme l’histoire, la philosophie, la critique littéraire etc. est une activité de « filtre » de l’information déjà produite sur un certain sujet. Nous pourrions définir la culture elle-même comme la construction et l’institutionnalisation de « filtres », c'est-à-dire de systèmes de sélection et de récupération de l’information : les experts, les académies, les journaux, les maisons d’édition, les bibliothèques ne sont rien d’autre que des condensés institutionnalisés de l’activité culturelle de filtrage et de récupération de l’information. Comme disait Umberto Eco dans un court essai où il expliquait aux étudiants comment écrire un mémoire, l’université ne sert pas tant à acquérir des informations que des méthodes et une méta connaissance pour « naviguer » sur la culture[6].

           Internet est une révolution culturelle profonde parce qu’il ne change pas simplement notre accès au corpus du savoir, mais il change nos filtres, nos méthodes de récupération de l’information. Dans l’ère de Google, une des activités cognitives principales de la gestion de connaissance, la méta mémoire, soit cet ensemble d’heuristiques apprises culturellement - des rimes aux index analytiques - qui nous permet de récupérer les informations du corpus culturel, devient automatisé et réalisé, au moins en partie, à l’extérieur de nous. Je ne cite pas Google par hasard. Google est un moteur de recherche de seconde génération : à la différence des premiers moteurs de recherche, comme Lycos ou Altavista qui établissaient la hiérarchie des résultats d’une recherche par rapport à la récurrence des mots clés dans les pages Web, l’algorithme de Google calcule le résultat d’une recherche en utilisant comme information la structure des liens à travers les pages : si une page reçoit de nombreux liens d’autres pages, alors elle émerge dans la hiérarchie des résultats. La structure des liens contient une énorme quantité d’informations sur les connaissances des utilisateurs du Web. L’extraction de cette connaissance implicite de l’intrication des liens à travers les pages Web est un des résultats scientifiques les plus significatifs de la recherche informatique des dernières années[7].

           La structure des liens, produite culturellement par les choix individuels des créateurs de pages Web, est interprétée par les algorithmes de recherche comme une hiérarchie des valeurs à travers les pages : chaque lien de la page A vers la page B est un vote que la page A exprime à propos de la page B. La hiérarchie des résultats influencera à son tour les choix des utilisateurs en un cercle vertueux de collaboration entre humains et automates.

           Google exploite donc notre cognition et réalise en même temps notre fonction cognitive, celle de la méta mémoire, qui nous permet de récupérer un  morceau d’informations dans le filet aux mailles serrées de notre culture. Si vous n’êtes pas persuadé que la division du travail cognitif entre les machines et les humains est rendue possible par les moteurs de recherche, et que vous pensez que le filtrage et la récupération de l’information sont des activités éminemment humaines et culturelles, que l’on ne peut demander aux automates artificiels, essayez de vous connecter au site Google News (http://www.news.google.com): Google News est un algorithme qui filtre les nouvelles du monde entier en utilisant toujours l’information contenue dans la structure des liens d’un site à un autre. La nouvelle mondialement la plus « cliquée » arrive donc automatiquement en première position. Confrontez maintenant la première page de Google News, mise à jour automatiquement en continu, avec la première page d’un journal international, le Herald Tribune par exemple. Eh bien, vous verrez que la distance n’est pas si grande, et, même plus, que Google News évite les nouvelles tendancieuses, qu’un journal peut avoir décidé de publier en première page pour des raisons qui vont au-delà du simple devoir d’informer.

           Une activité culturelle, comme celle de récupérer et de filtrer de l’information, est réalisée grâce à un échange réciproque d’informations entre humains (tous ceux qui créent un lien d’une page à une autre) et automates (les algorithmes qui lient la structure des liens). La compénétration de la technologie, de la cognition et de la culture est tellement profonde dans ce cas, que nous sommes contraints à repenser à la nature même de notre activité intellectuelle. D’une certaine façon, l’intelligence artificielle à laquelle on rêvait il y a quarante ans s’est réalisée, mais sur des bases complètement différentes de celles que nous attendions : non le cyborg moitié humain et moitié artificiel qui avait fait rêver les pères de la cybernétique, mais une intelligence collective hybride où le savoir généré par les automates ne pourrait exister sans la production continue et spontanée de culture faite par les êtres humains, production qui est en même temps influencée par le filtrage automatique de l’information.

           De quelle façon l’activité de recherche est-elle transformée par les nouvelles techniques collectives de filtrage  et de récupération de l’information ? Donnons-en quelques aperçus. Il m’arrive souvent d’écrire des articles interdisciplinaires, par exemple à cheval sur la philosophie et les sciences cognitives. Dans un système traditionnel de classification et de filtrage de la culture, je devrais décider à priori à quelle publication destiner mon article, risquant ainsi de perdre l’audience des philosophes si je le publie dans une revue de sciences cognitives et vice-versa si je choisis une revue de philosophie. Mais un texte dans le cyber espace, qui soit un portail de revues accessibles en ligne, dans ma page Web personnelle, dans le fichier en ligne de mon institution ou dans quelque fichier électronique d’accès public ( voir par exemple le fichier COGRINT - http://cogprints.esc.soton.ac.uk - pour les publications en sciences cognitives) pourra de toutes façons être atteint par tous ceux qui sont intéressés par le sujet à travers une recherche avec des mots-clés. Les moteurs de recherche rompent les classifications rigides de la recherche traditionnelle, les a priori historiques qui orientent le savoir et stabilisent les objets possibles de connaissance à une époque donnée, et réorganisent le matériel scientifique en structures plus légères, assemblées temporairement selon l’objectif précis du chercheur et mises à jour en continu.

           Les sceptiques diront que je suis en train de dépeindre une image idéalisée de comment devraient fonctionner les moteurs de recherche dans le meilleur des mondes possibles et que, en réalité, la découverte des sites dépend de leur référencement, qui est sujet à des stratégies commerciales, c'est-à-dire que plus on paie, plus on sort dans la hiérarchie des résultats. Mais tentez de faire une recherche avec les mots clés « neural basis of numerical competence » ou « Adanson, malacologie » et vous verrez que les résultats seront difficilement influencés par les logiques commerciales : ceci parce que faire de la recherche, avec ou sans Internet, signifie manipuler des combinaisons de mots clés très improbables, c'est-à-dire extraire les informations du corpus du savoir sous un angle extrêmement ténu. Ces assemblages de savoir sont si rares et si différenciatifs pour une petite communauté qu’ils restent en dehors des logiques commerciales et ne subissent pas plus d’influence que les systèmes de citations traditionnels : les revues académiques ont en effet souvent l’habitude de citer dans les bibliographies des articles publiés dans leurs propres pages pour augmenter le quotation ranking et par conséquent l’autorité de la revue. Certes, le discours ne vaut pas pour l’usager moyen d’Internet qui cherche : « cinémas à Parme » et qui recevra des réponses influencées par des logiques commerciales. Et encore moins pour l’étudiant qui fait ses premières armes, qui cherche « Nazisme » sur le Web et va voir défiler devant lui une cascade de pages antisémites ou négationnistes. Mais si le cas de l’usager de Parme déborde le cadre de notre discours sur la recherche, celui de l’étudiant au contraire nous sert parfaitement pour souligner comment Internet ne change pas seulement notre façon de faire de la recherche mais aussi de la communiquer.

           Dans un monde où l’information circule dans des structures de connaissances légères, remanipulables et réassemblables selon nos objectifs, il vaudra mieux enseigner aux étudiants à raisonner de façon différente: les taxinomies rigides traditionnelles dans lesquelles le savoir est sectionné et transmis et qui stabilisent le canon d’une culture, ne constituent pas souvent la manière la plus adéquate de récupérer l’information dans cette culture. Le canon en effet, c'est-à-dire la classification et l’organisation des savoirs qui permet à une culture de s’identifier et de transmettre une mémoire collective, a une fonction sociale bien plus large que celle de la simple transmission des connaissances : c’est lui qui définit le seuil d’identité au-dessous duquel une culture cesse de se reconnaître en tant que telle, et il est par conséquent maintenu non en tant que artefact culturel de transmission du savoir d’une génération à une autre, mais comme « archive sacré » d’une société qui constitue la réponse à la question « qui sommes-nous ? ». Mais dans une société ouverte sur le plan de l’information, dans laquelle le savoir circule et se réorganise en continu au-delà des confins de l’identité, les divers canons entrent souvent en dissonance et montrent leurs limites en tant qu’instruments de transmission culturelle. Il vaut peut-être mieux habituer les jeunes esprits post-Internet à des heuristiques de recherche plus agiles et contextuelles et mieux adaptées à des situations nouvelles. Au fond c’est comme ça que fonctionne notre cognition : nous récupérons des informations dans la mémoire du contexte d’une certaine expérience et nous pouvons créer un nombre illimité de concepts ad hoc qui nous servent à refléter et à planifier une action dans une situation particulière (par exemple, je peux construire le concept qui correspond à « les choses les plus importantes à sauver quand la maison brûle » qui contiendra un assemblage temporaire d’objets disparates comme : les enfants, les documents, le portrait de la grand’mère, les clefs du coffre etc.). Certes, la transmission des connaissances demande une certaine stabilité des concepts : mais si nous réussissons à séparer ce qui dans cette stabilité est essentiel pour le savoir et ce qui ne l’est pas - et qui sert à des objectifs également nobles mais divers comme la perpétuation de l’identité culturelle - nous pourrions développer dans le futur des systèmes d’enseignement plus appropriés, adaptés à nos esprits et aux nouvelles structures de connaissance produites par l’interaction des esprits et des algorithmes. Dans les prochaines années nous assisterons à une co-évolution des stratégies culturelles et cognitives et des systèmes de « knowledge management » qui changera profondément la transmission du savoir (pensez seulement au programme éducatif « StarLogo »[8], développé au MIT Media Lab pour familiariser les étudiants et les chercheurs à la pensée distribuée et aux systèmes décentralisés).

           Ces exemples nous montrent comment la culture à la carte que Internet met à notre disposition bouleverse profondément les pratiques mentales et les rôles institutionnels que nous associons traditionnellement à la production, à la conservation et à la transmission du savoir. Et, comme disait Habermas, là où la science et la technologie s’introduisent dans les sphères institutionnelles de la société, toutes les justifications existantes sont mises en question[9].

           Prenons le cas des revues scientifiques, un des filtres les plus influents du savoir dans la communauté de la recherche ; un chercheur soumet un article à la revue, la rédaction de la revue le transmet à au moins deux critiques anonymes qui l’évaluent en formulant des critiques, proposant des améliorations et en déconseillant parfois sa publication. Le chercheur reçoit les commentaires, reformule l’article et, de longs mois après, le voit publié dans la revue. Le tout, bien évidemment, non rémunéré, ce qui distingue cette catégorie de publications des revues normales que l’on acquiert en kiosque. L’avènement de Internet a rendu évidente une apparente absurdité de ce marché : en effet ce sont les chercheurs qui produisent les articles, qui les consomment et ce sont encore eux qui en garantissent gratuitement l’évaluation. De plus, ce sont les universités et les bibliothèques qui achètent les abonnements aux revues, rendant ainsi possible leur survie. Mais pourquoi alors passer par les revues ? Pour allonger et rendre coûteux un processus  d’échange de l’information qui est réservé à une communauté de pairs et peut aujourd’hui être réalisé à un coût zéro grâce à Internet ? Cette réflexion s’est concrétisée dans diverses actions : le mouvement pour le libre accès aux revues scientifiques sur le Web que j’ai cité au début de l’article se propose justement de repenser aux rôles institutionnels de garantie du savoir. L’Open Access a permis la création de nouvelles revues avec un comité de lecture uniquement digital (comme les revues de BioMed Central, ou Psycholoquy), le développement de programmes en libre accès pour l’archivage en ligne des articles et pour la construction de fichiers inter opérables et, chose plus importante, a encouragé la réflexion sur les nouveaux modèles possibles de distribution du savoir scientifique. Par exemple, les bibliothèques universitaires, dont le rôle est lui aussi menacé par la révolution informatique, pourraient développer de nouvelles compétences et prendre le rôle des revues dans le travail de filtrage et d’archivage des articles scientifiques. Ou mieux encore : un éditeur de revues digitales peut garantir son profit en faisant payer à l’auteur (ou mieux, à son institution) le service de référencement et de mise en ligne en un certain format (c’est le modèle adopté par BioMed Central). Ou encore on peut penser à des systèmes de filtrage et de redistribution des informations vraiment différents de ceux des revues, comme par exemple la Faculty of 1000 , c'est-à-dire un projet de sélection mensuelle des articles les plus importants en médecine et biologie proposée par 1000 scientifiques de grande renommée ; chaque article obtient  un certain vote, un peu comme les petites étoiles des critiques de cinéma et, selon l’endroit où il a été publié, peut être disponible en libre accès ou acquis directement sur le site. Il est certain que dans tous les secteurs de l’édition et de la distribution des contenus, de l’édition scientifique aux maisons discographiques, les batailles d’arrière-garde pour défendre les droits acquis auxquels nous assistons ces temps-ci ne sont pas le meilleur moyen pour exploiter au mieux l’innovation technologique.

           Internet s’est développé pendant longtemps, disons jusqu’à la fin des années quatre vingt dix, de façon anarchique et libertaire. A la différence des grands réseaux du passé, comme le réseau électrique ou routier, Internet est un système intrinsèquement décentralisé : un fleuve d’informations qui a inondé toutes les structures de gestion du savoir et a mis en question les droits, les normes, les habitudes mentales, les rôles sociaux, non seulement dans le monde de la recherche mais en général dans le monde de la production, de la transmission et de la conservation de la connaissance. Le monde rendu possible par l’Internet des débuts était peut-être trop éloigné de celui que nous connaissons, et nous avons ainsi assisté dans les dernières années à une réaction conservatrice dans laquelle les formes anciennes, les vieux droits et les privilèges traditionnels ont été revendiqués, souvent devant un tribunal (on pense au cas Napster). La déception engendrée par la nouvelle économie a encouragé le retour à l’ordre ancien. Aujourd’hui nous nous trouvons devant un choix important: soit concevoir de nouvelles structures de gestion de la connaissance qui soient vraiment le fruit d’une intégration entre les pratiques culturelles, les rôles institutionnels et les innovations technologiques, soit défendre un antique status quo en risquant ainsi de perdre l’image réelle de nous-mêmes en tant que produits et fruits de la culture, image pour toujours transformée par la révolution Internet.



[1] Cf. http:.//glreach.com/globstats ; Daniel Door (2003): “ From Englishization to Imposed Multilingualism: Globalization, the Internet and the Political Economy of the Linguistic Code” in Public Culture ( en publication )

[2] Source IDC : http://www.idc.com.  Durant l’année académique 2001-2002 aux Etats-Unis 488000 étudiants ont suivi un programme complémentaire à distance. Le taux de croissance des inscriptions à distance est estimé à 30% par an. Sur le total des inscriptions universitaires aujourd’hui aux Etats-Unis, plus de 4% concerne des programmes entièrement en ligne ( cf. S.R. Gallagher ( 2003) « The Future of on line learning : Key trends and issues », Proceedings of the DETC 77th Annual Conference, 13-15 avril 2003.

[3] Voir sur ce point Stevan Harnad ( 2001) : « Skyreading and Skywriting in the Post-Gutenberg Galaxy », http://www.text-e.org

[4] Cf. R.Darnton (1999) « The New Age of Book », NYRB, 18 mars, http://www/nybooks.com/articles/546

[5] Cf. J.Nielsen (1997) « How Users Read on the Web », Alertbox, octobre 1997; http://www/useit.com

[6] U.Eco (1977) Come si fa una testa di laurea, Tascabili Bompiani.

[7] Cf. J.Kleinberg (1998) « Authoritative Sources in a Hyperlinked Environnement » Proccedings of the 9th ACM-SIAM Symposium on Discrete Algorithms.

[8] Cf. http://education.mit.edu/starlogo/

[9] Cf. Habermas (1968) Technik und Wssenschaft als Ideologie, Francfort.