Table des matières

Chapitre III

L'auto-médiationsur Internet comme forme politique

L'usage public d'Internet -nous laissons de côté, ici, ses fonctions purement commerciales- concrétise l'idéal d'un fonctionnement social fondé sur la pure circulation et sur l'inexistence d'intérêts contradictoires. La distance permet un refroidissement des conflits : ils se traitent alors comme de purs enjeux intellectuels et non comme des contradictions sociales. Les espoirs de Norbert Wiener, formulés dans Cybernétique et société, se renouvellent ici. Une prolifération des flux d'informations permettrait la libre discussion et l'obtention de consensus. Lequel consensus devient un mécanisme social idéal. La forme politique absolue qu'Internet promeut consiste à fonder directement la légitimité du pouvoir sur l'association de collectifs de base, sans référence à une instance qui les dépasse. Actualisant, sur un terrain technologique, une forme de pensée politique anarchiste, le pouvoir n'est, alors, légitime que s'il est immanent et toute transcendance, étatique ou privée, est vigoureusement combattue. La montée du relativisme, du scepticisme devant les vérités révélées (religieuses, économiques, morales) renforcent le sentiment qu'une nouvelle politique doit émerger, par une poussée ascendante, d'un mouvement brownien de contacts et contrats sociaux passés entre collectifs autonomes. Il y en, en effet, une profonde convergence entre une philosophie politique édifiée autour du concept de réseau et le constructivisme sociologique. Le social y est conçu précisément comme un ajustement progressif, entre individus et collectifs censés être autonomes. Internet peut servir de parabole à des processus plus généraux[1]. Les concepts de négociation et de contrat se substituent alors à ceux d'antagonisme social et de divergence d'intérêts[2].

Mais la transcendance, chassée par la porte, ne risque-t-elle pas de faire retour par la fenêtre ? La rencontre sur un même terrain (l'échange déterritorialisé) procède déjà d'un consensus aveugle : le désir de construire une association alternative et non de se replier sur une existence en pure autarcie. L'immanence est donc déjà encadrée par ce désir implicite. En outre, des collectifs autonomes, peuvent-ils exister comme collectifs sans une référence qui les dépasse et les fonde ? Sur quels principes (épistémologiques, moraux) peuvent-ils fonder leurs rapports ? (La communauté scientifique, par exemple, partage, non sans conflits, une conception pragmatique de la vérité scientifique basée notamment sur l'expérimentabilité, la réitérabilité, la régularité des résultats obtenus). La recherche de la vérité, la diffusion du savoir ou le partage des connaissances n'ont aucun sens sans que soit reconnue préalablement une valeur -même locale et temporaire- à l'authenticité et aux normes morales qui permettent de parler un langage social commun.

S'agit-il vraiment, avec Internet, d'un espace lisse, uniforme où, par glissements diaphanes, on rencontrerait, sans résistances, des millions de personnes connectées, dans une sorte de "village planétaire" bâti dans un tissu aux mailles aussi serrées que le réseau téléphonique mondial ? Il y a lieu d'en douter. L'océan calme qui baigne les rives des modemS est en train de révéler quelques aspérités. Par exemple, pour les éditeurs de sites, la "visibilité" des services offerts devient une qualité essentielle : pages d'accès chatoyantes, soigneusement designées, luxuriance de la navigation hypertextuelle. Les hiérarchies socio-économiques émergent à nouveau, dès lors qu'Internet devient une surface commerciale stratégique.

Le versant libertaire d'Internet doit-il être considéré comme une utopie malsaine ? Nullement. Mais il est truffé des contradictions sociales actuelles[3]. Bien qu'il soit soumis à l'idéologie individualiste (seul et libre face à des millions de partenaires), et à la pression libérale, l'esprit d'Internet mérite d'être défendu et Pierre Lévy a raison de rappeler, dans Cyberculture, que le réseau est le fruit d'un puissant mouvement social coopératif, né aux États-Unis dans les années soixante-dix, "visant la réappropriation au profit des individus d'une puissance technique jusqu'à lors monopolisée par de grandes institutions bureaucratiques"[4]. Mais cette défense des principes généreux qui ont présidé à l'émergence de la Toile, ne saurait dispenser de trier les propositions, ni ignorer que le développement du réseau ne garantit pas mécaniquement la poursuite du projet initial d'une démocratie informationnelle.

Internet symbolise incontestablement des dynamiques sociales qui assouplissent le modèle descendant du pouvoir. Comment ne pas jeter le bébé avec l'eau sale du bain, c'est-à-dire reconnaître les valeurs démocratiques qu'Internet représente et développe tout à la fois, sans pour autant succomber aux champs de sirènes des chantres de l'anarcho-libéralisme ? Autant, la description constructiviste du champ social est discutable, autant on peut afficher sa sympathie pour de nouveaux rapports démocratiques anti-étatiques dont le mérite est de déplacer et d'affaiblir certaines formes de domination devenues insupportables. On a souvent éclairé les convergences structurelles entre la forme pyramidale des massmedia et le fonctionnement ascendant de la démocratie représentative. Les uns comme l'autre sont actuellement déstabilisés. La parenté des mouvements qui les ébranlent a maintes fois été soulignée. Ce n'est pas le lieu d'approfondir ces questions, tout juste d'en rappeler certains fondements. Et la question des intermédiaires en est l'un des points cardinaux. La déstabilisation de l'état fordiste et du type de régulation des conflits qui l'accompagnent nourrit une recherche d'autres formes de gestion des antagonismes, formes que la culture des réseaux annoncerait. La crise du modèle des massmedia est en profonde convergence avec la recherche -annoncée par la Citizen Band et les premières messageries télématiques- de médias construits par mouvements concentriques et contrôlés par les agents sociaux qui l'utilisent. Internet est, à ce titre, emblématique d'une tentative partiellement réussie -jusqu'à présent- d'engendrement et de contrôle social d'un réseau de communication. Pour la première fois, un système de communication de masse ne distingue pas, dans son principe (et seulement dans son principe), l'émetteur et le récepteur. L'expression publique, directe de tous vers tous est-elle pour autant audible ? On verra à quel point un tel idéal est soumis à de vives contradictions, mais il continue d'inspirer massivement le développement du réseau. Et la question des intermédiaires -qu'il s'agisse de leur disparition, de la modification de leur rôle ou de l'apparition de nouvelles fonctions médiatrices- est au coeur de ces enjeux.

Ce sont ces mouvements que nous approchons par la notion paradoxale d'auto-médiation dans ses deux dimensions -en partie contradictoires- d'autonomisation et d'automatisation de la médiation. On parlera d'autonomisation lorsque l'acteur médiatise lui-même l'événement et construit ainsi directement l'espace de sa communication/diffusion. On caractérisera l'automatisation de la médiation par l'usage direct de logiciels permettant d'accomplir directement une tâche (par exemple, rechercher des informations sur Internet). On suivra ces mouvements dont la synthèse donne corps au concept d'auto-médiation, mouvements qui s'expriment dans la substitution directe d'intermédiaires mais aussi, bien que moins explicitement, dans l'évitement d'institutions par des relations horizontales.

Dans un deuxième temps, nous poursuivrons, sous un autre angle, l'interrogation sur l'éviction ou le déplacement des intermédiaires en comparant les deux grandes figures qui remettent en cause les formes usuelles de la médiation : le parcours interactif sur support local et la navigation sur réseau. Cette dichotomie, quelque peu rigide dans cet énoncé, doit être comprise, on le verra, comme l'étude de types idéaux et non comme une analyse factuelle.

Internet, un plurimédia

Mais avant de poursuivre, il convient de préciser le statut d'Internet en termes de relation médiatique. Nous proposons de qualifier Internet de plurimédia, car, c'est inédit, le réseau des réseaux cumule dans un seul espace les trois principales relations médiatiques. La communication d'individu à individu, développée par le courrier postal et le téléphone, se concrétise avec le courrier électronique. Bien qu'à réception interactive, l'édition commerciale de sites se rapproche, par certains aspects, (notoriété, logique publicitaire de l'Audimat) du fonctionnement des massmedia[5]. Enfin, Internet étend la communication collective (groupe de discussion, forum), rompant potentiellement, pour la première fois à cette échelle, la séparation entre émission et réception. Mais cette juxtaposition de ces trois grands types de communication n'épuise pas la spécificité d'Internet. On doit remarquer la coexistence, sur un même support, d'une production issue du monde des médias (sites de titres de presse, de radio, de télévision, etc.) avec une offre d'information plus spécialisée (banque de données, documents en version intégrale, etc.) et une production plus informelle (groupe de discussion, sites personnels). La pluralité des logiques éditoriales, des modes de traitement ainsi que des niveaux de légitimation de l'information ne sont pas les moindres des particularités du réseau.

A - L'auto-médiation versus autonomisation

L'autonomisation de la médiation s'exprime dans l'exercice direct d'une fonction sociale exigeant auparavant des savoir-faire spécialisés. À ce titre, comme tout nouveau média, Internet élimine ou redistribue le rôle des intermédiaires traditionnels. J'écris un livre, j'annonce sa parution, je fais sa promotion, je le distribue on line, j'anime un groupe de discussion sur son contenu, etc. Je court-circuite ainsi des fonctions séparées : édition, distribution, promotion, mise en vente, critique sur d'autres supports éditoriaux. Des logiciels permettent à chacun de composer, assez facilement, des hypermédias dont les graphes deviennent vite très complexes : on devient à la fois imprimeur, responsable d'un standard téléphonique et metteur en scène de textes audiovisuels. Des services apparaissent, comme Cylibris[6] qui proposent, par exemple à de jeunes talents d'éditer leur première oeuvre sur le réseau. Cylibris enchaîne d'ailleurs -par le biais de forums- avec une intervention directe des lecteurs encourageant ou critiquant les romans et nouvelles publiées, donnant ainsi forme à une sorte de salon littéraire disséminé. (La fonction de l'éditeur classique ne se limite pas au rôle de filtre -parfois exagéré- dans les procédures de sélection. Il participe, dans la version classique, à l'édition de l'ouvrage en aidant l'auteur à mieux exprimer sa pensée et en lui faisant bénéficier de son savoir-faire éditorial. Son absence, dans l'auto-édition, n'est donc pas sans poser problèmes. Les lectures croisées y remédient, mais en partie seulement).

Dans son article sur la presse face aux enjeux d'Internet, B. Giussi -cyberjournaliste ayant mis sur le Web le magazine L'Hebdo de Lausanne- explique que, dans le contexte de l'édition électronique, "le rôle du journaliste en tant qu'expert décline" et que le réseau confère à chacun "le même pouvoir communicationnel"[7]. Même si ce diagnostic demande à être discuté plus finement, il n'en reflète pas moins une part de vérité qui alimente les espoirs visant à contourner les médias établis. Affirmant que les fonctions de producteur et de consommateur d'informations tendent à se confondre, il ajoute : "les faits et les informations circulent souvent sans médiation du journaliste, amené à renoncer à une partie de son pouvoir traditionnel pour devenir animateur. C'est tantôt un agent qui dirige le trafic, parfois un explorateur, souvent un <<facilitateur>> de discussion". Internet ne supprime donc pas la médiation journalistique, mais la transforme. La profusion d'informations disponibles majorera l'importance du travail de tri, de comparaison, de recoupement des sources, bref tout ce qui constitue le savoir-faire d'un rédacteur. Mais il fera ce travail sans pouvoir se mettre à l'abri, en quelque sorte, du regard des lecteurs. Ceux-ci peuvent, à tout moment, vérifier par eux-mêmes certaines informations, en débusquer d'autres ou solliciter directement des experts, en ayant éventuellement recours à la communauté des Internautes intéressés par les mêmes sujets. C'est ce qui fait dire à Alain Simeray, rédacteur en chef de l'hebdomadaire en ligne LMB Actu[8] : "Le journaliste ne peut plus se placer comme celui qui révèle des informations qui lui étaient réservées, il devient le médiateur d'une ressource partagée"[9]. Deux mouvements semblent donc affecter la médiation journalistique. D'une part, le rôle de passeur s'affaiblit au profit de celui d'expert détenteur d'une connaissance en surplomb. De l'autre la médiation tend moins à s'exercer entre des informations et des personnes qu'entre les personnes elles-mêmes.

Ajoutons que la presse en ligne tend à s'émanciper de la pure restitution numérique. Elle offre de plus en plus, outre le journal, des documents in extenso qu'on ne peut publier faute de place, des liens avec d'autres sites, des adresses de banques de données consultables ainsi que des espaces de discussion. De plus, les nouveaux langages annoncés, d'édition de documents sur Internet (de type X.M.L. succédant à H.T.M.L.) autoriseront le récepteur à modifier les pages et lui permettront d'y intégrer ses propres informations. La rupture avec le mode de consultation de la presse classique en sera encore approfondie.

Internet commence aussi à modifier sérieusement les conditions de la publication scientifique. Un mouvement destiné à contourner le filtre des comités de lecture des revues prestigieuses se dessine, par publication d'articles on line. Parfois, avant qu'il n'épouse sa forme définitive, l'auteur le soumet à la discussion. Il questionne des spécialistes, leur demande des commentaires, garantissant ainsi à sa publication une visibilité dans la communauté des chercheurs concernés. Il peut ensuite enrichir son article par un dossier joint, contenant ses réponses et les modifications effectuées. C'est finalement un dossier "vivant" qu'il édite, évoluant au gré des interventions successives, (où il se vérifie que le changement de média modifie les formes de validation de la connaissance scientifique)[10]. En particulier, la vitesse de rétroaction entre l'auteur et ses lecteurs augmente considérablement ; et l'on sait à quel point cette augmentation conditionne l'acuité de toute recherche (cette affirmation générale demandant, bien sûr, à être contextualisée finement au cas par cas).

Le devenir-médiateur de l'acteur

L'empressement avec lequel des médias traditionnels (presse, chaînes de radio et télévision) se précipitent sur Internet ne saurait surprendre. C'est leur propre fonction d'intermédiaire spécialisé dans le traitement de l'information qui se joue. De la mise en ligne des titres de presse (changement de support à contenu invariant) à l'animation de sites ponctuels, la palette des initiatives est large. Notons cependant, qu'à l'heure actuelle, la mise sur le Web des journaux n'a pas cannibalisé leur édition papier, parfois bien au contraire[11]. Il ne faut donc pas pronostiquer mécaniquement la disparition des massmedia. Cependant, ces derniers -notamment dans leur quête du scoop comme dans l'affaire Monica Lewinsky[12]-se voient concurrencés par la relative facilité avec laquelle il devient possible de diffuser largement l'information à toute échelle grâce au Web, et spécialement par l'ouverture de sites événementiels.

Mais ce qui se profile remet en cause de manière bien plus profonde encore la structure de la médiation puisque le réseau permet aux acteurs d'un événement de devenir les producteurs et diffuseurs naturels de l'information qui concerne cet événement. Par exemple, parmi les sites qui ont couvert le procès Papon, l'un d'entre eux a été créé et tenu seul par l'un des plaignants, Jean- Marie Matisson. Il proposait la consultation du dossier d'accusation, la présentation des familles plaignantes, les témoignages tout aussi bien que des forums ou l'intervention de spécialistes ; toutes propositions hors de portée des médias traditionnels et qu'à lui seul il offrait. Ce qui en dit long sur les nouvelles possibilités éditoriales ouvertes par ce nouveau canal d'expression. Plus même que l'abondance de l'information, c'est la tonalité qui était remarquable. Acteur engagé, Jean-Marie Matisson ne s'encombrait pas du style impersonnel des médias de masse, employé même par ceux qui avaient ouvertement pris parti. Par ailleurs, il ne faut pas opposer mécaniquement médias de masse et édition de sites. La notoriété du site Matisson était fondée dans une large mesure sur des médias traditionnels : ce sont des articles de presse, en l'occurrence, qui ont annoncé et validé ce site.

On s'accorde à constater que la médiatisation accomplie par des institutions spécialisées (presse, télévision, etc.), participe de la construction de l'événement. Dans le contexte de l'auto-médiation, cette idée demande alors révision. Ici, en effet, événement et médiatisation sont inséparables puisque ce sont les mêmes acteurs qui les portent. Tout au plus peut-on considérer qu'il s'agit de moments particuliers dans un même processus.

On voit se dessiner, en fait, une double évolution. Avec de faibles moyens -et une grande dépense d'énergie- on peut atteindre une audience sans commune mesure avec ce que coûterait une diffusion par les médias classiques. Mais parallèlement, les principaux acteurs de l'édition en ligne (grands quotidiens, chaînes d'information comme CNN, etc.) investissent des sommes importantes dans des programmes et moteurs de recherche offrant exhaustivité, rapidité et convivialité aux utilisateurs. L'industrialisation de l'auto-médiation devient l'un des principaux enjeux socio-techniques d'Internet. Mais cette industrialisation porte dans ses flancs des outils facilitant l'expression directe des acteurs sociaux. Dans cette course-poursuite rien ne garantit le succès final des industries informationnelles.

Le on line devient une modalité idéale de service personnel. Quantité d'illustrations peuvent être invoquées. Ici, un site du syndicat américain AFL-CIO propose aux salariés de comparer leur feuille de paye avec celle des patrons de plusieurs centaines de grandes entreprises, incluant leur prime et autres émoluments adjacents. Là, on peut suivre quasiment en direct, sur le site d'un organisme de prévision météorologique[13], le résultat des simulations des effets de El Nino sur le climat actuel et futur du continent américain ainsi que des principales régions du globe. Là encore, des étudiants, en mal d'inspiration, de compétence ou de temps, s'adressent à des sites spécialisés pour télécharger des devoirs prêts à l'emploi[14].

Les activités boursières trouvent avec Internet un fantastique moyen d'effectuer directement des transactions en évitant les maisons de titres et de courtage[15]. Réalisée sur Internet aux États- Unis, le coût d'une opération est en effet près de huit fois plus faible que par l'entremise d'un courtier utilisant le téléphone, la télécopie ou le courrier. Le média incite à la création de services spécifiques, indépendants de l'industrie financière installée. De grands opérateurs (ainsi que certains fonds de placement), conscients du risque de perte de leur monopole, ouvrent, eux aussi, des sites Web pour permettre aux épargnants de placer directement leurs fonds. La substitution du courtage financier par des instruments automatiques commence à concurrencer, aux États- Unis, les sociétés boursières. Il est désormais possible de réaliser directement, via le Web, une introduction en Bourse, grâce à l'assistance de programmes spécialisés[16]. Opération coûteuse (jusqu'à plusieurs centaines de milliers de dollars), fastidieuse (des formulaires de plusieurs centaines de pages) et longue lorsqu'elle est réalisée par des institutions spécialisées, elle devient économique et plus rapide sur le Web.

"Do it yourself"

Le domaine musical est particulièrement exemplaire. Non pas seulement parce qu'il se prête assez facilement à l'envoi de fichiers sur le Net (des formats de codages, tels que MP3[17], accélèrent aujourd'hui notablement de tels échanges). Mais parce qu'avec deux logiciels gratuits disponibles sur le Web, n'importe quel amateur peut proposer à la ronde ses CD favoris. Les enjeux sont multiples et sérieux (laissons ici de côté l'épineuse question des droits d'auteur). Chaque artiste qui le souhaite peut alors distribuer directement sa production[18]. Des dizaines de milliers de personnes transforment, en toute illégalité, leur ordinateur en juke-box. Mais plus significative encore est l'activité moléculaire des milliers d'entre eux qui montent des sites spécialisés, offrent le téléchargement gratuit des logiciels nécessaires et améliorent régulièrement tous ces outils. Chacun devient ainsi un agent effectif d'une mise en cause pratique des majors de l'industrie du disque, lesquels étudient les différents moyens d'une riposte (notamment par la mise au point de robots de recherche spécialisés ainsi que par le tatouage numérique des titres).

On pourrait multiplier les exemples et convoquer d'autres réalisations dans des activités aussi variées que la formation, la culture (visite de musées), la banque, le jeu d'argent (cybercasino) ou les enchères en temps réel. L'éviction des anciens intermédiaires au profit d'un modèle fluide de rapports directs est l'un des messages centraux d'Internet (le vocable barbare de désintermédiation a même été forgé pour désigner ce phénomène). C'est un modèle d'organisation sociale à peine voilé qui se fait jour. Le visage public d'Internet s'y dessine et c'est ce qui alimente son dynamisme conquérant. Le combat contre toutes les formes de transcendance qui rassemble des courants ultra-libéraux et anarchistes trouve dans la suppression des intermédiaires un objectif majeur. L'affrontement des puissances établies devient un rapport social positif, substituant une ancienne domination. Par exemple, participer à la diffusion de titres musicaux gratuits sur le Web met en cause pratiquement un rapport marchand établi et on comprend d'où vient la formidable énergie sociale qui s'y investit : il s'agit bien d'une forme de militantisme que, pour le coup, les ultra-libéraux prisent assez peu. On peut parler d'une logique performative qui accomplit sa visée, ou encore qui affirme l'antagonisme et le supprime en instituant une alternative dans une logique proche, toutes proportions gardées, de celle du double-pouvoir des périodes révolutionnaires. Un double-pouvoir alternatif aux logiques marchandes et hiérarchiques, c'est bien ce que visent explicitement les courants les plus radicaux du cybermonde et qu'instaurent, de fait, les dizaines de milliers d'adeptes de la version cyber du "Do it yourself".

Évitement d'institutions

Délaisser des institutions traditionnelles (justice, santé, formation) pour assumer plus directement leurs missions, telle est l'une des dimensions du mouvement d'évitement des intermédiaires spécialisés. Il ne s'agit pas de substituer ces fonctions par des programmes automatiques, mais plutôt d'imaginer des formes de rapports sociaux plus horizontaux, plus souples et dont le fonctionnement est négocié entre les acteurs. Bien entendu ce mouvement ne menace pas la légitimité de ces institutions en tant que telles ; il manifeste cependant un désir d'autosuffisance, à l'écart de, voire contre, l'État. Ainsi, la justice se voit-elle contournée par des relations plus directes entre justiciables. Plusieurs types de cours de justice "virtuelles" existent déjà sur le réseau. Leur saisie, motivée par le souci d'éviter les longues et coûteuses démarches traditionnelles, suppose, bien entendu, l'accord des parties. Sur des sites Web aux États-Unis, les jurés disposent de forums de discussion et leurs votes sont sécurisés[19]. Autre exemple, des juristes québécois ont ouvert en juin 1998, le Cybertribunal, cour virtuelle spécialisée dans les litiges relatifs au commerce électronique mais aussi au droit d'auteur ou au respect de la vie privée. N'importe qui peut le saisir s'il s'estime victime, par exemple, d'un commerçant. Si, dans un premier temps, les efforts du médiateur s'avèrent infructueux, le Cybertribunal rendra un arrêt. Dénuée de tout contenu légal, cette décision puisera sa force dans la publicité donnée à la condamnation, risquant d'entamer le crédit d'une entreprise commerçant sur le Net. En fait, jouant la logique du certificat de bonne conduite, Cybertribunal incite les entreprises à afficher un logo indiquant aux clients qu'elles s'engagent à faire appel à cette cour virtuelle en cas de différend. Tenter de régler les conflits privés ou commerciaux en trouvant d'autres espaces neutres plus proches des justiciables que les institutions étatiques, semble être la principale motivation qui anime aussi bien les initiateurs des cours virtuelles que ceux qui y recourent.

Le secteur de la santé est lui aussi soumis à la même pression où se combinent télé-médecine et tendance à l'élimination des intermédiaires. Par exemple, à l'hôpital Rothschild, à Paris, la visioconférence permet d'ores et déjà de rassembler autour d'un patient des équipes médicales interdisciplinaires localisées dans plusieurs hôpitaux parisiens. Radicalisant cette perspective, l'installation de capteurs sensoriels à domicile permettant l'auscultation à distance est envisagée. Aux États-Unis, certaines autorités médicales pensent à installer en ville des bornes multimédias afin de pratiquer des check-up et même une auto-délivrance de médicaments. Ajoutons à cela un système de vidéoconférence pour se faire examiner à distance par un spécialiste et nous avons les premiers segments d'une offre d'équipements de télé-médecine que la réalité virtuelle en réseau et la télé-robotique médicale viendront progressivement compléter. Time Warner, dans le cadre de l'expérimentation du réseau FSN à Orlando, avait déjà conçu un service nommé Health TV (Canal Santé) basé sur l'installation à domicile de dispositifs permettant à des médecins de pratiquer des auscultations à distance : pouls, pression artérielle, niveau de stress. L'envoi de la force d'interposition américaine en Bosnie s'est accompagné d'une expérience en vraie grandeur de télé-médecine. Visioconférence, télé-radiologie, télé-dentisterie ont été mises à profit pour garantir qu'un soldat sera aussi bien soigné en Bosnie que chez lui. Ainsi, le général A. Lanoue, chef du service médical de l'armée américaine, affirmait : "Il y a toujours des spécialistes réveillés quelque part dans le monde. Si on a besoin d'un dermatologue, avec le réseau -sur le site Web dédié- on arrivera toujours à joindre quelqu'un de frais et dispos"[20]. (Ajoutons que la télé-médecine représente, pour les États-Unis, un enjeu industriel et géostratégique, spécialement dans leur nouvelle politique africaine). Il est vrai que la télé-médecine ne supprime pas, en tant que tels, les spécialistes sollicités à distance. Et l'auto-médication est loin de conduire les professionnels de la santé aux portes des agences pour l'emploi. Mais, l'augmentation du niveau général de connaissance médicale, tout comme l'incitation -pour certaines maladies- à déléguer aux patients une part croissante de la surveillance et des soins, élargissent la voie pour une prise en charge directe de certains soins. Le perfectionnement des systèmes de télésurveillance et de télé-diagnostic accentuera nécessairement cette tendance. Surveiller, c'est, en cas de problèmes, inciter à l'intervention, en particulier lorsque la visite d'un médecin est difficile voire impossible (navires en pleine mer, par exemple).

Le domaine de la formation est certainement celui qui résiste le plus à un strict passage au télé-enseignement, sauf dans certaines conditions exceptionnelles (lieux d'habitation isolés, formations de hauts niveaux s'adressant à des publics déjà fortement diplômés, par exemple). L'absence de co-présence physique est toujours considérée, par les enseignants et les élèves, comme une grave privation, même dans les expériences les plus accompagnées[21]. Il n'en demeure pas moins que, outre l'usage croissant de formes hybrides[22], des cursus complets ainsi que de véritables établissements d'enseignement en ligne commencent à voir le jour. Ces services deviennent alors des médiateurs spécialisés de télé-formation, mixant la communication médiatisée (contacts électroniques formateurs/formés) avec un recours croissant à l'auto-formation (circulation hypertextuelle, séquences d'auto-évaluation à correction automatisée, etc.).

La communication politique est, elle aussi, le siège de transformations notables. Lors de la dernière campagne présidentielle américaine (conclue par la seconde victoire de Cliton), Internet a commencé à concurrencer les moyens classiques de propagande (brochures, tracts, et même émissions de télévision). Une relation directe s'est établie, via le réseau, entre les sites des états-majors des candidats et des électeurs qui ne se contentaient pas de prendre connaissance des programmes mais questionnaient les candidats et discutaient leurs propositions. Des médias traditionnels comme CNN et Time ont réagi en créant un site -Allpolitics Politics Now- alimenté aussi par ABC, le Washington Post et Newsweek. Ce site offrit des informations quotidiennes, des articles de fond, des comparaisons de programmes, etc. Hotwired, le site de Wired, a par exemple recueilli plus de dix mille connexions quotidiennes sur Netizen, son Web politique créé pour l'occasion. Utilisé par des millions d'Américains, l'impact du Web sur la campagne fut considérable, aux dires de plusieurs observateurs spécialisés. On peut, sans prendre beaucoup de risques compte tenu de la progression des abonnements, prédire un essor marqué de cette forme de communication qui déplace, plus que toute autre, la fonction des intermédiaires consacrés et notamment celle de la télévision.

B - L'auto-médiation versus automatisation

Le moteur de recherche est le premier agent d'auto-médiation. Mobiliser des programmes informatiques à distance pour rechercher de l'information sur le Net : ainsi s'exprime clairement et massivement l'automatisation de la médiation. Mais comment choisir la bonne référence sur un sujet, comment apprécier la qualité d'un ouvrage ? L'inflation de publications -due à l'importance sociale de cette activité pour un nombre croissant de professions- trouve, avec Internet, un terrain naturel d'expansion. Mais peut-être aussi une limite, par indifférenciation explosive. On ne peut lire plusieurs centaines d'articles ou de livres par mois. Ce qui se profile tranche nettement avec le modèle de fluidité que pourrait laisser espérer l'éviction des courtiers en tout genre. Progressivement des différenciations apparaissent. Le secteur des logiciels de navigation sur le réseau se révèle stratégique. Parallèlement, des prestataires de services monnayent des services d'assistance à la recherche, offrant de la "valeur ajoutée" à l'information disponible. Ils éditent des catalogues, des index, des études d'évaluation sur les sources d'informations, bref des filtres. De nouveaux mécanismes d'évaluation émergent donc, tels que des comités de lecture, le chiffrage public des consultations de sites, des étoiles décernées[23] ou... des critiques sur les médias traditionnels rapportées dans les groupes de discussion.

Des méthodes plus systématiques font leur apparition. Par exemple, Lycos, robot chercheur d'information -le premier qui indexe aussi les images et les documents sonores- confectionne une liste de deux cent cinquante sites considérés comme les plus "populaires". Comment les repérer ? Suivant une logique "citationnelle" (comptage du nombre de références faites à un article scientifique dans les articles publiés sur les mêmes thèmes, afin d'en fixer le niveau d'intérêt général). Le robot parcourt plusieurs milliers de sites chaque jour et mémorise le nombre de liens qui mènent vers chacun d'entre eux. Plus il y a de liens, plus le site est dit "populaire". Les robots et les guides de recherche permettent une véritable industrialisation de cette logique d'automatisation de l'évaluation[24].

L'usage de ces programmes ne se limite pas à l'estimation automatique des consultations. Il s'étend aussi à l'édition automatique. Computist's Communique, par exemple, est un hebdomadaire électronique diffusé par messagerie, rassemblant des informations récentes disponibles sur l'Internet selon certaines spécialités. Non seulement le routage est automatisé, mais la sélection des articles et l'édition de la publication l'est aussi, assurée par des robots chercheurs.

En 1998, on dénombre déjà plus de mille trois cents robots de recherche. Comment trouver celui qui convient, compte tenu du domaine défini ? Dans une logique naturellement méta, des robots de robots ont été conçus, tel que Savy search, à l'Université de Colorado, qui n'exige que quelques indications sur la nature des informations recherchées (données existantes sur le Web, noms de personnes, des sites commerciaux, par exemple). Savy sélectionnera lui-même les robots les plus compétents selon les domaines prescrits, leur enverra la requête, réceptionnera les réponses, éliminera les croisements et présentera les résultats. Certains méta-robots testent plusieurs dizaines de moteurs et les classent par ordre de pertinence sur le domaine indiqué dans la requête. D'autres encore, comme Metacrawler, brassent les résultats de l'ensemble des autres robots.

Une nouvelle génération de méta-moteurs de recherche commence à apparaître qui assure des fonctions de filtrage et d'évaluation de l'information selon plusieurs niveaux de recherche incluant des méthodes d'analyse sémantique. Digout4U, à finalité plutôt professionnelle, en est un bon exemple. Ce moteur accepte l'interrogation en langage naturel, interrogation à laquelle il appliquera des procédures d'analyses sémantiques et syntaxiques. Il élargira de lui-même, par exemple, l'interrogation "trafic en Asie" à "drogue OU mafia OU blanchiment... ET Chine OU Thaïlande OU Laos...". Traquant moteurs de recherche, sites et même groupes de discussion, Digout4U hiérarchise les fruits de ses investigations par ordre de pertinence. Grâce à son module de traitement sémantique[25], coeur du système, la qualité des réponses obtenues est étonnante. Pour faire face à l'augmentation de la surface informationnelle du réseau et à l'acuité croissante des réponses espérées, verra-t-on apparaître des méta-méta-robots ?

Commerce, voyage et télescope

La vente de voyages est, elle aussi, en passe de subir de profonds remaniements qui menacent les intermédiaires habituels (agences, voyagistes, etc.). Exploitant la puissance des moteurs de recherches, de nombreux sites proposent des services de veille personnalisée sélectionnant sans relâche les destinations et les dates indiquées par l'Internaute tout en affichant des tableaux comparatifs de prix[26]. L'instantanéité est ici un atout essentiel : qu'une place se libère et le client est immédiatement prévenu par courrier électronique. Non seulement l'agence de voyage est ignorée, mais le rapport commercial s'automatise. Les logiciels personnalisés prennent, ici, la place de l'employé spécialisé.

Le cybercommerce offre un espace rêvé au déploiement de l'automatisation de la médiation. On sait que, par exemple, des bibliothèques et des librairies virtuelles se développent et offrent déjà des catalogues de plusieurs centaines de milliers de titres[27]. Plus précisément, le cybercommerce est un terrain privilégié pour les robots d'achats[28] -les shopbots. Ils parcourent le Web à l'affût de la bonne affaire ou affichent un tableau comparatif des prix avec descriptif des produits et disponibilités, et par-dessus le marché, c'est le cas de le dire, indiquent les liens hypertextes donnant accès aux sites choisis. Plus ambitieux encore, le Media Lab du M.I.T. met au point un programme, nommé tete@tete, pondérant les différents critères (prix, délais, conditions de livraison...) selon les choix de l'acheteur, évacuant même les références trop excentriques, donc probablement peu pertinentes.

Dans d'autres domaines, la propension à éviter les intermédiaires se traduit par la mobilisation à distance d'automates peu conventionnels. Par exemple, on peut commander, via Internet, une observation par télescope d'une portion du ciel. Depuis le remplissage du formulaire précisant la demande sur le Web jusqu'à réception par courrier électronique des images acquises, tout est automatique[29]. Le télescope est pour ainsi dire télécommandé à distance. Il décrypte les indications transmises et effectue les prises de vues correspondantes sans interposition de personnels spécialisés. La grande mécanique techno-scientifique devient ainsi mobilisable pour des usages personnalisés.

Auto-médiation, production de connaissances, transfert et acquisition de compétences.

Bien que ne relevant pas directement de l'auto-médiation pratiquée par le grand public, l'automatisation intensive des techniques d'analyses documentaires transforme considérablement certaines activités banales. La polémique politique, par exemple, s'est trouvée enrichie récemment de nouveaux et puissants instruments. Durant la campagne législative anglaise de 1998, l'état-major de Tony Blair s'est équipé du logiciel professionnel Retrievial/Ware -déjà utilisé par Bill Clinton en 1992- afin de découvrir rapidement, par exemple, une citation d'un ancien discours contredisant les propos actuels d'un leader conservateur. Des recherches qui mobilisaient des équipes entières durant des journées s'effectuent maintenant en quelques secondes[30].

L'automatisation de la médiation s'exprime non seulement à travers la recherche d'information, mais aussi comme instrument de production de connaissances. Le domaine de la recherche documentaire sur de vastes corpus -et, particulièrement le champ des hypertextes- est l'un de ceux où ces évolutions sont particulièrement visibles. Par exemple, des logiciels issus de l'ingénierie de consultation des bases de données, permettent de cataloguer automatiquement des chaînes de références dans un ensemble de publications numérisées. Ils cartographient des paysages en inscrivant graphiquement la géographie des proximités d'emprunts, grâce à tout un arsenal d'examen systématique des auteurs, articles et livres cités ainsi que des concepts utilisés. Il s'agit donc d'exprimer la configuration d'un ensemble de connaissances pour lui-même, indépendamment de toute exploration intentionnelle, afin de faire apparaître, par exemple, l'importance des différents emprunts transdisciplinaires. De tels exercices peuvent parfois éclairer les thématiques qui polarisent des domaines de recherches et révéler des tropismes auparavant invisibles. Ils accélèrent, en tous cas, la perception pour une communauté de chercheurs par exemple, de ses lignes conceptuelles migratoires, de ses modes intellectuelles ou de l'intensité de ses liens aux disciplines voisines. Ces méthodes sont en passe de révolutionner les métiers de veille technologique[31], tout comme les bases de données spécialisées ont transformé l'ingénierie documentaire traditionnelle. Bien sûr, ces outils ne concernent, aujourd'hui que les travailleurs intellectuels spécialisés. Mais leur diffusion vers des cercles plus vastes est en cours : certains de ces instruments sont déjà disponibles sur le Web.

L'automatisation des traitements alliée à la formation, grâce à Internet, d'un espace unifié mondial de l'information numérique crée une situation très nouvelle démultipliant la portée de chacun de ces deux facteurs pris isolément. L'idée d'auto-médiation ne doit pas être confondue avec celle d'automatisation, même si la première emprunte les voies de la seconde. Ce qui apparaît dans l'élimination d'intermédiaires traditionnels, c'est, en premier lieu, la possibilité d'effectuer directement des opérations qui exigeaient auparavant une maîtrise professionnelle des sources d'informations ainsi que des procédures opératoires. L'effet-réseau est d'abord une opération de rassemblement qui réunit en une seule base documentaire répartie ce qui auparavant était éparpillé en autant de sources spécialisées, dont la localisation était connue des seuls professionnels. Les logiciels de réservation de voyages sur le Web, par exemple, sont fonctionnels parce que les robots de recherche se chargent de trouver les adresses des sites concernés par une requête. La présence commune préalable de ces sites sur le réseau est la condition de l'efficacité de ces logiciels. L'automatisation de la recherche est, en deuxième lieu, le corollaire indispensable de cette possibilité d'accès démultiplié. C'est l'alliance de la réunion des sources et de l'automatisation qui permet l'auto-médiation versus automatisation.

Mais approchons-nous d'un peu plus près de cette notion. Quel est le contenu concret de l'extension du self-service informationnel ? Il requiert, de plus en plus, un apprentissage, quasi professionnel dans certains cas, de techniques de recherches documentaires, dont le perfectionnement actuel des requêtes sur les robots chercheurs donne un aperçu. Plus largement, l'usage approfondi du réseau relève d'une véritable compétence spécialisée, si on y inclut la maîtrise des téléchargements des programmes complémentaires nécessaires pour assurer une interactivité de l'image, le contrôle des push technologies, la réception d'applications en V.R.M.L., etc. En regard de l'informatique documentaire professionnelle, les techniques de recherches sur Internet sont, bien sûr, simplifiées. Mais elles se complexifient, pour peu qu'on souhaite en exploiter toutes les potentialités. Opérateurs booléens, parenthèsages, et bien d'autres méthodes se développent. Avec leur corollaire, des traductions graphiques sous forme d'arborescences, par exemple, aidant l'utilisateur à préciser ses choix. Internet étant, dans son principe, un média public, on voit d'un côté se complexifier et se raffiner ses modes d'usages, et de l'autre se développer des aides cognitives spécialisées. Il n'en demeure pas moins que l'usage du réseau exige et développe des compétences spécifiques nullement triviales, selon des niveaux d'exigence variables, des applications grand public aux activités professionnelles. L'auto-médiation requiert donc des apprentissages typiques, dont la sophistication varie selon les différentes activités effectuées. Rien ne serait plus inexact, que d'envisager ces pratiques comme relevant d'activités presse-boutons.

Croissance de la mémoire, agents intelligents et contraction temporelle

L'invention de ces programmes exprime aussi la contradiction entre la somme des informations produites et le temps humain de recherche et d'appropriation mobilisable. La recherche automatisée des robots réalise la contraction temporelle nécessaire pour dominer l'énorme masse d'informations produites sur un thème, masse qui surpasse la capacité de surveillance d'un individu, voire d'une équipe. Les simples techniques documentaires (fichier, index, mots clés, abstracts) ne suffisent plus à contracter la base de données. Il faut recourir à des automatismes de recherche sans cesse plus puissants. La vogue des agents intelligents personnalisés et évolutifs répond au souci de ne pas s'épuiser dans des recherches sans fin sur les mailles d'un réseau rassemblant des milliers de banques de données. On donne à ces agents quelques indications sur nos centres d'intérêts et ils commencent à butiner dans les sites, journaux, magazines, revues qui, de près où de loin, traitent de ces questions. Les réponses s'inscriront en temps voulu dans la mémoire de l'ordinateur sans qu'il soit nécessaire de rester connecté durant ces investigations. Il existe même des agents qui, d'emblée, nous demandent de préciser notre profil (hobby, émissions de télévision et lectures préférées, sports pratiqués, voyages souhaités, etc.) et dirigent leurs requêtes selon les indications fournies. Au début, les fruits de ces recherches s'accordent mal aux attentes exprimées. On fait part de sa frustration. L'agent en tient compte pour affiner ses démarches. De génération en génération, il se fait une idée toujours plus précise de nos attentes et affûte ses réponses. La "personnalisation" apparaît ainsi comme un objectif central. L'industrie publicitaire avec son obsession de cibles et autres profils, y voit un instrument rêvé ; tout comme la vente sur catalogue, qui envisage d'adresser à chacun un support calibré selon ses goûts.

Des effets pervers ?

Les robots de recherche et les guides de recherche sont-ils parfaitement "objectifs" ? Éliminent-ils les inclinations personnelles de leurs concepteurs ? La réponse doit être modulée. Certes, les critères sur lesquels robots chercheurs ou agents intelligents règlent leurs investigations dépendent des méthodologies choisies par leurs concepteurs. S'il n'y a pas lieu de suspecter des partis pris systématiques dans les méthodes d'indexation automatique ou humaine, celles-ci sont en revanche soumises aux effets de masse. Elle traduisent mécaniquement la présence inégalitaire des différents éclairages sous lesquels une même question est présente dans les sites, les publications ou les groupes de discussion. À charge pour l'Internaute de faire preuve de discernement et de perspicacité dans le libellé de ces requêtes, s'il veut débusquer les approches originales qui l'intéressent particulièrement. (La question de la compréhension du langage gouverne celle de l'interprétation des champs sémantiques des banques de données disponibles sur le réseau. Ces problèmes -cruciaux- sont loin d'être résolus.)

Il est vrai que l'auto-médiation engendrée par les moteurs et guides de recherche n'influe pas sur les contenus informationnels repérés. Elle compile des stocks et produit des liens logiques. Son élément, c'est essentiellement aujourd'hui la statistique et l'indexation des données. Mais le tournant est pris, on l'a vu avec Digout4U, vers l'interprétation sémantique des informations, et là, bien sûr, une subjectivité "machinale" -pas nécessairement intentionnelle- s'exprime nécessairement, de par la mise en procédures automatisées des méthodes d'extraction du sens imaginées par les concepteurs.

Par ailleurs, un média construit sur l'accès direct à l'information risque d'engendrer une certaine clôture des champs d'intérêts. En lisant un journal, la formulation d'un titre intriguant nous incite parfois à lire un article qu'on n'aurait jamais parcouru spontanément. La "personnalisation" inhibe ces effets de proximité. L'émiettement, le confinement et le compartimentage des aires de curiosité risque d'instituer un univers normatif et conservateur. La maîtrise accrue des procédures de recherches d'informations ou de participation à des collectifs thématiques véhicule une tendance à la spécialisation et peut traduire un désir de confinement. L'horizon relationnel risquerait d'être a priori rétréci, éloignant toute rencontre hors champ. Ces tendances à la personnalisation, incontestablement dans l'air du temps, ne doivent cependant pas être érigées en mécaniques fatales. L'usage de ces agents personnalisés, même s'il résonne avec de fortes tendances à la spécialisation, n'est pas exclusif d'autres formes de parcours plus intuitifs, plus collectifs et ouverts à des rencontres imprévues. Rien n'autorise, actuellement, à opposer mécaniquement individualisation et vagabondage intuitif. L'une, activité finalisée, limitée à des centres d'intérêt précis, peut parfaitement s'accommoder avec l'autre, à caractère plus ludique, dans des domaines aux frontières floues. Si la valorisation de l'individualisation des requêtes mérite d'être soulignée, il serait imprudent de déduire, à partir des usages actuels du réseau, des formes dominantes (individualisme, en particulier) qui le qualifierait définitivement. La médiation automatisée recule, et ce n'est pas rien, d'un cran (voire de deux, avec les méta-robots) la confrontation avec des décisions humaines. Est-ce à dire qu'elle a vocation à éliminer tous les courtages humains ? Ce serait aller vite en besogne.

C - L'auto-médiation, un concept paradoxal.

Auto, c'est soi-même, médiation c'est quasiment l'inverse : elle suppose l'intervention d'un tiers. L'auto-médiation est paradoxale. D'une part, loin d'instaurer une relation "im-médiate", elle mobilise des automates en position tierce -de nouveaux types de médiateurs- dont les robots et guides de recherche sont, on l'a vu, sont les plus purs exemples. D'autre part, comme on va le voir, elle est utilisée, à rebours, par les industriels du service en ligne face aux Internautes.

Bataille politique contre la prééminence de l'État ou de firmes privées dans le contrôle des communications, modèles de rapports interindividuels non médiatisés, valorisation de l'autonomie et de l'action libérée au maximum de toutes contingences extérieures, tous ces traits s'allient pour faire de la tentative de suppression des courtiers traditionnels un enjeu nodal. Il faut cependant souligner l'impossibilité logique du modèle qu'Internet promeut, plus ou moins délibérément, en annonçant une émancipation complète des intermédiaires.

Naviguer, surfer sur l'océan informationnel comme on navigue librement sur les mers du globe, est une métaphore douteuse. Seul, face aux Gigabits des centaines de milliers de services accessibles, on serait vite englouti sans les automates de recherche disponibles. Plutôt que d'une suppression d'intermédiaires, ne s'agit-il pas de leur substitution par une nouvelle catégorie, sécrétée par le média lui-même, dont la principale caractéristique consiste à automatiser la médiation. La maison de courtage en Bourse est substituée par des sociétés offrant des logiciels de recherche et de transaction en ligne, tout comme le voyagiste l'est par d'autres logiciels et moteurs de recherche spécialisés. La poste voit sa fonction avantageusement accomplie par les serveurs de courriers électroniques. L'institution éducative prend la forme d'un fournisseur de services en ligne de télé-formation. L'éditeur, le libraire sont remplacés par un gestionnaire de sites sur le réseau ou un diffuseur de logiciels de recherches hypertextuelles. Les nouveaux médiateurs combinent en réalité télé-relation entre acteurs humains et mise à disposition d'automates.

Convenons, enfin, que séparer autonomisation et automatisation de la médiation est quelque peu rigide. Bien souvent, les deux processus se combinent en proportion variable pour se renforcer mutuellement. Par exemple, mettre un titre musical en ligne (autonomisation) nécessite d'utiliser des automates (notamment de compression) et de faire référencer le titre sur les moteurs de recherches appropriés. De même, passer un ordre en Bourse s'effectue en utilisant un logiciel spécialisé. Inversement, se servir d'un moteur de recherche (automatisation), c'est accroître son autonomie informationnelle. C'est pour la commodité du propos que nous avons juxtaposé les deux composantes de l'auto- médiation. On pourrait fort bien, dans de nombreux cas, les entrelacer.

À rebours de l'auto-médiation : le profilage automatisé

L'auto-médiation est à double face. En effet, les outils de l'auto-médiation sont mis à profit par ceux qui se situent sur l'autre versant du réseau, les industriels du service en ligne, face aux Internautes. Amazon.com, par exemple, propose à l'acheteur des livres correspondant à son profil de lecteur. Des programmes, opérant par "filtrage collaboratif", lui adressent des propositions d'achats en compulsant inlassablement les listes de livres commandés par les autres acheteurs du même titre. D'autres applications de compilation automatique sont, en revanche, la conséquence directe de l'existence de la Toile. Par exemple, la multiplication des sites musicaux sur le Web (plus de vingt-sept mille, fin 1997) rend difficile le strict respect de la protection des droits d'auteurs. Qu'à cela ne tienne, une agence américaine de recouvrement de droits vient de mettre en service Musicbot, robot qui, à grande vitesse, surveille et recense la diffusion de musique sur le Net.

Dans le même esprit, certaines entreprises de cybercommerce ont développé des logiciels pour contrer l'usage des robots d'achat qui réduisent à néant leurs efforts publicitaires ou de marketing. Ils analysent systématiquement l'adresse du visiteur et ferment l'accès au site lorsqu'ils repèrent un robot ou réduisent les prix d'achat en majorant les frais de livraison. Enfin, frisant l'escroquerie, certains robots sont en fait rattachés à des "entreprises partenaires" ; d'autres sont rétribués selon les clients "rabattus".

Par ailleurs, cette logique provoque de grandes tensions dans le domaine sensible de la vie privée. Employée à grande échelle dans des pays comme les États-Unis, à législation laxiste en la matière, ces méthodes étendent considérablement le champ de l'enquête individuelle pratiquée par des sociétés privées[32]. Enfin, l'auto-médiation peut prendre le visage trouble de l'auto-censure. Des outils, qualifiés de censorware, commencent à être utilisés pour organiser l'automatisation individuelle de la censure dans la consultation des sites, non sans engendrer de graves contresens[33].

Partager le travail de la médiation

Que l'irruption de l'auto-médiation bouscule des séparations solidement établies entre producteurs et consommateurs informationnels, n'est pas surprenant. Les défenseurs du travail professionnel de la médiation, comme Dominique Wolton ou Jean- Marie Charron, insistent, à juste titre, sur l'indispensable labeur de tri, de mise en perspective, de recoupement et de hiérarchisation de l'information accompli par les spécialistes patentés (journalistes de la presse écrite et audiovisuelle, pour l'essentiel). Ainsi, les médiateurs seraient, selon Dominique Wolton, les "ouvriers de la démocratie" (d'où l'idée qui lui est chère d'un lien consubstantiel entre médias de masse, démocratie et espace public). L'erreur de Dominique Wolton n'est pas de valoriser le travail de la médiation. Non, l'erreur ou plutôt la limitation de ce positionnement, c'est de refuser le partage de ce travail avec les acteurs humains (acteurs individuels ou collectifs engagés dans l'événement) et les humains indirects (logiciels et autres moteurs et guides de recherche). La perspective ici énoncée consiste, en revanche, à reconnaître l'amateurisme -au sens littéral du terme "amateur", "celui qui aime"- de la médiation, comme une donnée marquante que l'espace Internet exprime, autorise et promeut tout à la fois. J'accorde une attention particulière au cyberespace comme révélateur et comme catalyseur de ces mouvements où émergent des savoir-faire intermédiaires, émergence qui m'apparaît comme l'une des grandes questions politiques actuelles (on la retrouvera dans le chapitre sur l'interactivité). Il ne s'agit donc pas, dans mon esprit, de dénoncer une médiation corruptrice, d'en appeler à l'immanence contre toutes formes de transcendance, mais de reconnaître une graduation de ces savoirs, des formes professionnelles les plus classiques aux pratiques d'expression directe.

Il est frappant de voir se généraliser, dans une forme d'espace public, une auto-médiation automatisée dont on n'a pas fini de découvrir la puissance parce qu'elle traduit un profond désir d'accroître notre puissance d'intervention pratique et relationnelle en profitant des formidables automates intellectuels mobilisables à distance par le réseau. Sous cet angle, la présence à distance intensifie l'existence sociale.

Expression, engagement et dissémination de l'auteur

Internet n'est pas seulement un espace fonctionnel où l'on résout des problèmes (trouver l'information pertinente, acheter un produit, réserver un voyage, etc.). C'est aussi un espace d'expression où chacun est censé pouvoir s'adresser, sans autorisation préalable, au monde entier. La multiplication des sites personnels et des home pages en témoigne. Cette situation, qui radicalise des tendances antérieures dont l'imprimerie a été l'un des vecteurs, comporte des aspects inédits. Il nous faudra prendre la mesure de la production exponentielle de textes et de documents multimédias sur le réseau, dont il est difficile de préciser le statut : productions à caractère informatif auxquelles il est impossible d'appliquer les règles usuelles de validation (notoriété, responsabilité, etc.), textes expressifs dont on ignore quasiment tout de l'auteur, dissimulation ou travestissement de l'émetteur, interventions fragmentaires dans des groupes de discussion ou encore messages reçus grâce à des listes de diffusion, etc. Des flux textuels sont mis en ligne sans être investis par leurs auteurs comme des matériaux qui les engagent ; une production expressive et documentaire souvent anonyme, en croissance permanente. Cette fontaine prolifique n'est plus soumise à des exigences de consistance, d'originalité, de responsabilité, de qualité littéraire, de pertinence et de style. Elle s'apparente beaucoup plus à une conversation orale, ou plutôt à un bruissement mondain, une profusion d'interpellations, des bribes de discussions aussitôt perdues qu'engagées -abdiquant d'emblée le prestige qui s'attache à la chose écrite et notamment sa conservation. Peut-elle se prêter à des enchaînements ? Constitue-t-elle autre chose qu'un espace projectif, où chacun peut trouver matière à alimenter ses propres associations et fantasmes ? De telles propositions, peuvent-elles faire penser ?

Nombre de prosélytes des réseaux nous invitent à abdiquer tout questionnement sur l'identité de l'auteur, mettant en cause son unicité même. Mais peut-on s'approprier un texte -ou un hypertexte- sans supposer qu'une intentionnalité (aussi ténue et difficile d'appropriation, soit-elle) y est déposée ? Comment apprécier un texte non délimité, dont l'unité formelle distinctive serait flottante et qui, donc ne pourrait être assigné à des intentions individuelles ou à celles de groupes réunis par un commun parti pris ? Que la signature individuelle d'un texte engage indirectement une cohorte d'auteurs rassemblés par les tribulations antérieures du rédacteur, c'est l'ordinaire de la condition moderne d'auteur. Mais qu'on puisse dissoudre cette exigence dans une prétendue virtualisation où plus aucune idée n'est assignable à un auteur individualisé, au profit d'une écriture collective, parallèle et disséminée est hautement problématique. Peut-on penser une communauté qui transcende immédiatement ses composantes et qui, d'emblée, fonctionnerait dans l'échange, sans pôle privilégié d'individuation assumant les fonctions d'accumulation et de mémorisation ? Nous le verrons, malgré bien des dénégations, une mémoire individuelle et collective s'édifie de fait autour du réseau. L'extension de l'expérience sociale que constitue Internet en est la preuve vivante.

Démocratie virtuelle, décision et conflits

La disparition de la médiation, ou son affaiblissement, gouverne la thèse de la possibilité (et de l'intérêt), d'une reprise directe par les acteurs des garants de leur organisation sociale ainsi que d'une définition directe des normes de leur coopération. Étendons donc cette question à la sphère politique. Se passer des médiateurs en général et des spécialistes de l'exercice du pouvoir en particulier, c'est redéfinir les formes de prise collective de décisions. Les usages du réseau qui court-circuitent la démocratie représentative (consultation électronique en temps réel, expression directe de communautés, etc.) relèvent de projets expérimentaux plus que d'alternatives consolidées. Il est plus intéressant, en revanche, d'interroger, sous cet angle, l'actuel mode de gouvernement propre à Internet. Christian Huitema[34] développe, à cet égard une argumentation provocatrice appuyée sur les idées de Dave Clark, premier président de l'I.A.B. (Internet Activities Board)[35] : "Nous rejetons les rois, les présidents et même les votes. Nous croyons au consensus approché et aux codes qui marchent"[36]. Le refus iconoclaste du vote est justifié par plusieurs types d'arguments. Les premiers concernent la définition de l'électeur : individu, adresse électronique (mais un individu peut en avoir plusieurs). On pourrait émettre des droits de vote en rapport avec le nombre de messages envoyés sur le réseau. Entre les experts et les utilisateurs occasionnels, le coefficient de décision varierait considérablement. Mais tous les messages ont-ils le même poids, le même intérêt pour la communauté ? Un vote par pays, comme dans les grandes organisations internationales, ne serait pas particulièrement démocratique, pas plus, évidemment, qu'un scrutin par grandes firmes. Une réflexion originale se développe donc à propos des agents de la décision : individus, groupe d'individus rassemblés dans une expérience d'élaboration commune (B.B.S., groupe de discussion privatif, par exemple), laboratoires, centre de documentation, firme commerciale, etc. Le réseau mélange tout cela. Il s'en suit une augmentation de complexité de la notion de "sujet décideur". Et cette indétermination est probablement stimulante pour renouveler les pratiques de décisions collectives.

Une autre série d'arguments remettent en cause le principe même du vote. Christian Huitema dénonce "l'effet pervers" de "ces systèmes de votes", lorsqu'aucune proposition en présence n'emporte la majorité absolue. "On verra se développer des négociations de coulisse qui conduiront à des compromis boiteux"[37]. Pourquoi répudier de telles négociations envisagées comme corruptrices ? La suite éclairera cette prévention contre les risques de "marchandages". La règle de l'I.E.T.F. (groupement responsable de l'évolution des standards de l'Internet[38]) est donc, non pas de décider par un vote, mais de rechercher un consensus. Mais comment l'I.A.B. s'applique-t-elle ces principes, afin de renouveler chaque année la moitié de ses membres ? Par tirage au sort d'une liste de volontaires qui décident souverainement quels seront les membres remerciés et qui les remplacera. Pourquoi rechercher un consensus ? Afin de convaincre. Comment ? "Seule compte la qualité technique, aidée si possible par une démonstration pragmatique"[39]. Et, Christian Huitema d'insister sur les deux critères de choix que sont la force d'une démonstration concrète par "un logiciel qui tourne" et la facilité de production. La conclusion coule de source : "La recherche du consensus conduit ainsi à l'élégance et à l'excellence"[40]. On pourrait ajouter : "par la preuve technique". Si Jürgen Habermas recherchait des exemples pour qualifier le mode de légitimation propre à la technique, il les trouverait là, "brut de décoffrage".

Mais n'oublions pas que les enjeux des décisions à prendre concernent le choix des standards de communication[41]. S'agissant de protocoles techniques, ceux-ci peuvent être publiés sur le réseau à des fins d'expérimentation conjointes. Les acheteurs de prototypes doivent pouvoir choisir entre "plusieurs produits de différents fournisseurs". Dans une logique libérale, "la responsabilité du choix", est laissée au "marché", sage instance qui régule l'adéquation entre l'offre et la demande. Il s'agit bien là d'un ordre social, exprimant la formation, non pas d'une opinion mais le fonctionnement pur d'un marché en situation libérale idéale, où la liberté et l'autonomie des acteurs le dispute à la rationalité technique de leur choix. Mais même dans ce cas, l'opérationalité technique n'est pas à l'abri des jeux de pouvoirs. Imposer une norme est souvent un enjeu commercial considérable qui mobilise des stratégies très rusées[42].

Dans la continuité de l'expérimentation conjointe des protocoles, une question, liée à la nature originale d'Internet, attire en particulier notre attention. Elle touche au règlement des conflits. Tous les conflits n'ont pas à être tranchés en faveur d'une solution exclusive. Dans ces cas, le contrat social peut alors redéfini à partir de l'acceptation de la coexistence d'expérimentations contradictoires. C'est d'autant plus facile sur le réseau qu'il s'agit d'un échange de signes. Dans d'autres compartiments sociaux, ce n'est pas si simple. Faut-il, à la place d'une usine désaffectée, construire un immeuble ou aménager un parc ? On ne peut pas entreprendre de véritables expériences urbaines ou sociales (la démarche expérimentale suppose la réversibilité, le retour aux conditions initiales). Sur un réseau, il est en revanche possible de faire coexister plus facilement différentes solutions antagoniques à un même problème parce que l'espace informationnel supporte beaucoup plus aisément la co-présence de propositions conflictuelles.

Le modèle libéral convient-il vraiment pour penser cette forme horizontale de rapport à la fois non totalement marchand et non-étatique qu'est Internet ? Pas pleinement. Le réseau est en effet aussi un espace public d'un type particulier, sans distinction entre centre et périphérie. Il n'appartient ni à des individus, ni à des États, ni à des groupes privés. Et enfin, il est mû, pour sa part non-marchande, par un idéal de participation active aux décisions. Dans le "management" d'Internet, il y a une recherche et une activité démocratique incontestables qui dépassent les limites de la démocratie représentative et qui reposent sur l'originalité des logiques du réseau. Cette recherche matérialise toujours aujourd'hui l'inspiration novatrice et l'énergie égalitaire qui avaient saisi le groupe social matriciel (chercheurs et jeunes universitaires américains des années soixante-dix) dont est issu Internet.

D - Scénographie de l'auto-médiation

Interactivité locale et navigation sur réseau

On sait que la forme des récits, les "dispositifs d'énonciation", véhicule l'essentiel de leur signification. Dans cette optique, je propose de comparer deux types, apparemment opposés de dispositifs : le récit interactif et la navigation sur réseau. Tous deux concrétisent, à première vue, l'idée d'autonomie narrative (ou "navigationnelle") et chacun se décline, par ailleurs, dans l'une des deux configurations privilégiées du multimédia : CD-Rom et Web. D'un côté la circulation dans un programme local, fermé mais avec des corpus de grandes dimensions -que les nouvelles générations de supports optiques (DVD-Rom) viendront démultiplier- de l'autre la présence à distance et l'activation de chaînages quasi infinis. D'un côté un grand livre déjà écrit, de l'autre un livre qu'idéalement, on peut augmenter soi-même. D'un côté la mémoire inscrite, mais inaltérable, de l'autre la circulation, l'échange, mais sans (ou quasiment sans) le souci de la mémorisation.

Avec les dispositifs auto-narratifs (récits qu'on se raconte à soi-même), le fantasme est d'éliminer toute référence extérieure, faire du sujet le seul auteur du récit. Fantasme d'autonomie absolue, où, dans un premier mouvement, le récit d'autrui est ignoré à travers l'interaction avec un moteur de propositions textuelles, imagées, et sonores. Les circulations sur CD-Rom, par exemple, imagent cette posture[43]. Que cette tentative soit vouée à l'échec ne la discrédite pas à l'avance. Car bien sûr le spect-acteur affronte des obstacles rédhibitoires dans cette quête d'autonomie. Il ne maîtrise ni les matériaux narratifs ni l'enchaînement des séquences. Ceux-ci apparaissent comme l'oeuvre du concepteur de l'hypermédia, bien que leur destination soit de se dissimuler en tant que déjà donné, pour laisser place à un certain espace libre de construction du récit ou du parcours par le spect-acteur, espace desserrant les contraintes propres aux supports stables (livre, film, etc.).

Avec le Web, ce serait, à première vue, l'inverse. Ici, l'interaction idéale se déroulerait -si elle le pouvait, et on sait la distance qui sépare ce voeu de la réalité des usages- sans intermédiaires. Laissons ici de côté les usages informationnels d'Internet (consultation de banques de données, de journaux, de revues, etc.). Non pas qu'ils soient secondaires mais ils relèvent d'une communication dans laquelle, on l'a vu, les procédures automatisées (navigateurs, robots chercheurs) occupent une place centrale et déplacent des anciennes médiations (édition, médecine, justice...). Intéressons-nous plutôt à la part vivante du réseau, celle qui ne mobilise pas essentiellement des programmes automatiques mais rassemble des sujets humains à distance : messageries, groupes de discussion, etc. Nous avançons pourtant l'hypothèse que, sous un visage différent de celui qui habille l'interactivité locale, le même fantasme d'autosuffisance est à l'oeuvre. Certes, il ne s'agit apparemment pas d'éliminer autrui. Plutôt de le rendre omniprésent, mais sous une forme abstraite. Dans les groupes de discussion, la scénographie de l'échange s'émiette dans les rebonds d'une conversation multipolaire, sans références stabilisées. Toujours évolutive, non dirigée vers la mémorisation des échanges, elle se déroule dans une temporalité constamment rafraîchie. D'un côté -avec le récit interactif- il s'agirait d'une tentative d'élimination de l'extérieur, de l'autre -avec le réseau- une inflation d'extériorité. Un récit auto-engendré contre un flux d'échanges sans récit ?

On soupçonne que l'hypertrophie de ces postures se rejoint dans leurs extrémités : tenter de dénier l'altérité en la rabattant sur l'objet local (cas du récit interactif), ou déjouer l'altérité en la diffractant dans un entrelacs de correspondances éparpillées dans les mailles du réseau. Dans les deux cas, on vise à la suppression d'une référence externe au dispositif narratif ou, plus largement, relationnel. Cette visée d'auto-référence s'accomplit de deux manières différentes. Avec le récit interactif, il s'agit, en tendance, d'être soi-même et tour à tour récepteur de ses décisions et, fantasmatiquement, auteur de son spectacle : spect-acteur. Avec la navigation sur réseau, sans intermédiaire, le fantasme -bien qu'apparemment inversé- est semblable : supprimer une instance surplombante et source de légitimité, annihiler une transcendance à laquelle se référerait la communication interindividuelle.

L'une des dimensions principales de cette tentative est la prédominance -apparente- de la spatialité (relation horizontale, immédiate) sur la temporalité (réduction de la mémorisation, obsolescence accélérée de la tradition, raréfaction de la référence au passé, dissuasion de constitution de corpus permanents)[44]. Pourtant, les relations spatiales dans le réseau sont adossées à d'intenses opérations temporelles telles que le remembrement des anciens corpus, la mise en disponibilité progressive de la mémoire écrite traditionnelle et surtout la coopération et l'entraide pour l'usage des nouveaux outils apparaissant régulièrement sur le réseau (logiciels de compression, d'affichage tridimensionnel, de visiophonie, etc.). L'horizontalité spatiale n'est toutefois privilégiée qu'apparemment. De manière souterraine, se creusent de complexes constructions temporelles dont nous aurons le loisir de décrypter ultérieurement les motifs.

En ignorant les intermédiaires, c'est-à-dire en dévalorisant leur fonction, on exprime un souhait : que la légitimation de l'information ne dépende que de ses producteurs et de ses récepteurs. Mais en instituant le face à face direct comme forme valorisée de l'échange, on recrée une transcendance "muette" qui fait rapidement retour comme en témoignent aussi bien cette fameuse question de la visibilité des sites sur Internet -témoignage d'une hiérarchisation de leur valeur- que l'émergence de nouveaux intermédiaires automatisés.

Ce type de situation manifeste le désir d'autonomie, le refus du dédoublement, mais qui reste de fait un dédoublement dans sa forme "rusée" ; comme la forme de transcendance que, dans son étude sur l'auto-référence et le dédoublement, Yves Barel qualifiait de particulièrement subtile, consistant à donner le sens de quelque chose en le lui refusant : "Ce que l'on chasse est recréé par la manière dont on le chasse"[45]. Ainsi, rapporte Howard Rheingold, "le programme du réseau WELL le plus utilisé s'appelle <<Who>> et permet de savoir qui est connecté à un moment donné"[46]. Le monde virtuel se regarde vivre, se met à distance de lui-même, mais par effet miroir : "À observer une communauté virtuelle donnée [...] on a un peu l'impression de regarder un feuilleton américain pour lequel il n'y aurait pas de séparation nette entre les acteurs et les spectateurs"[47]. Désir d'une reprise totalisante de la vie d'une communauté par elle-même, désir spéculaire qui manifeste non pas tellement l'auto-contrôle, mais l'auto-référence. Les résultats d'une étude sur les modes d'usages du Web, entreprise par un sociologue canadien, F. Bergeron vont dans le même sens. Ainsi, a-t-il eu l'idée de comptabiliser les occurrences du mot "je" dans les langues anglaise, française et espagnole, en lançant l'un des plus puissants moteurs de recherches, Altavista, sur le réseau. Deux fois plus de "je" que de "tu" et de "nous", telle fut la réponse[48]. Bien entendu, il faut accueillir ces résultats avec prudence compte tenu de l'absence de statistiques générales, mais l'indication est intéressante. La formidable explosion des pages d'accueil personnelle sur le Web nourrit une inflation de biographies, de récits des faits et gestes quotidiens, les uns aussi banals que les autres, bref une soirée "diapos de vacances" à l'échelle de la planète. Aussi, en guise de portrait type d'Internaute, dessine-t-il : "Un individu assez centré sur lui-même et qui fait de ce recentrement un projet mondial". Finalement cet exhibitionnisme de principe, qui transforme Internet en "lieu privilégié de l'admiration de soi", n'est peut-être pas aussi illusoire qu'on pourrait le croire. Ce qui compte, c'est de s'afficher sans espérer pour autant recevoir des connexions. L'affiliation au réseau par installation d'une carte de visite multimédia fait alors office de lien social, à l'image de ce que Michel de Certeau avait déjà remarqué à propos de ceux qui laissaient la télévision ouverte même lorsqu'ils quittaient leur domicile.

Ce que l'on chasse -la médiation- est recréé ici, en instituant l'échange permanent, multiplié, diffracté sur le réseau comme lieu social privilégié. Le média -supposé miroir- recrée une distance et dédouble les cybernophiles en observateurs d'eux-mêmes. Ils n'affirmeront jamais qu'ils se replient dans le réseau, que c'est un refuge. Bien au contraire, ils le présentent comme le symbole de l'ouverture au monde, avec, en prime, l'allégement des appartenances. On se définit par l'affiliation au réseau. Dans cette logique, être membre d'un groupe de discussion devient une marque sociale notable. Et une adresse électronique, un signe de reconnaissance de plus en plus courant. En fait la scénographie cyber transforme l'Internaute en centre privilégié, la périphérie n'est là que pour lui assurer cette position nodale. Mais cette certification dépend de la société des correspondants. C'est un compromis ingénieux entre une négation de l'altérité -en quoi consiste l'illusion d'être le centre du réseau- et une position constamment et directement référencée à l'assemblée mouvante des participants reliés. Ni une vraie solitude, ni une participation totale. Ni une confrontation engageante -du type de celle où l'on risque un échec- ni une flottaison indifférente, comme dans les foules anonymes. Drôle d'espace, ni vraiment public ni totalement privé. On livre toujours quelque chose de soi dans un réseau sans en maîtriser ni la signification, ni la trajectoire. Émerge ainsi une nouvelle formule d'interpénétration des espaces publics et privés, où l'espace public s'encarte en quelque sorte dans l'espace privé. L'interrogation porte, de fait, sur la nature d'un lien social "virtuel" non-hiérarchique et toujours fluide : que gagne-t-on et que perd-on en tentant d'éliminer les points d'accumulation de la mémoire, et par conséquent en affaiblissant sa temporalisation ? Il y a manifestement un vertige, un trouble à penser un espace social a- centré, formé de groupes à échanges partiels (à distance et par systèmes symboliques).

J'admets volontiers que cette appréhension "narcissique" de la communication sur le réseau est partielle, voire partiale. Elle ne s'ajuste ni à un abord sociologique, ni même psychologique. Des observations "de terrain" contrediraient sans doute cette approche, du moins la reléguerait-elle au rang d'une posture parmi d'autres. Elle vaut, en fait, plus comme composante, explicitant un paradigme présent selon des proportions variables dans tous les modes d'usages ; une sorte de fantasme collectif porté par tous et accompli par personne.

Expérience et espérance : le mythe performatif Internet

Si Internet est adossé à un mythe, celui-ci tiendrait plutôt des mythes de l'âge classique (récits fondateurs dans lesquels on s'inscrit) plutôt que de ceux de l'âge moderne (désir de dissiper les récits fondateurs par l'opérationalité techno-scientifique). Mais ce n'est pas simplement un récit fondateur qui distribuerait des réponses aux interrogations existentielles actuelles. C'est un dispositif pratico-imaginaire qui expérimente, dans l'actualité, son utopie. Tout comme les Anciens expérimentaient leurs mythes (danses rituelles, théâtre grec, cérémonies religieuses) en essayant de fonder l'organisation de leur vie sociale sur des règles qu'ils souhaitaient immuables, (et qui pourtant exigeaient une interprétation permanente).

Évidemment, Internet ne se présente pas comme un mythe, mais comme un dispositif socio-technique. Il en a pourtant tous les traits. Nous le nommons "présence à distance" et le définissons comme un mythe expérimental. Ce mythe, comme tout mythe, n'est ni un récit mensonger ni une illusion. Il possède la double efficacité d'être à la fois une espérance et une expérience. Espérance d'une vie plus "immatérielle", moins soumise aux pesanteurs des macros-objets, de la matière industrielle, des rapports sociaux de domination. Le cyberespace cumule la fonction imaginaire (ludique, onirique, relationnelle) avec la fonction opérative (formation, commerce, travail)[49]. Dans la pure veine des utopies du siècle passé, Internet permet d'éprouver conjointement l'évasion dans un outre-monde où les règles sociales seraient à inventer ex nihilo (comme les règles du management interne d'Internet ou l'établissement d'une constitution politique dans le "Deuxième monde" en seraient les prémisses) et parallèlement de conduire des activités variées (jeux, conversations, commerce, travail) où le média démontre sa pertinence. L'imaginaire et l'opératif s'allient pour accomplir cette utopie pratique.

Internet reconstitue une transcendance par son combat tangible contre les intermédiaires : une cause commune qui dépasse les acteurs et surtout qu'ils peuvent mettre en oeuvre directement. D'autant que la sphère de la communication interpersonnelle n'épuise pas la discussion des enjeux sociaux du réseau. Internet est aussi le porte-parole d'un vigoureux mouvement visant à augmenter nos espaces d'autonomie, notre puissance d'intervention sociale, notamment on l'a vu, en conquérant, par automatismes interposés, l'exercice de fonctions sociales qui nous échappaient ou en s'opposant à certaines logiques marchandes. Aussi, faisons-nous l'hypothèse que l'auto-médiation agit, dans ce cadre, comme principe quasi-moral, la lutte contre les intermédiaires faisant office d'objectif normatif. Comment imaginer une force plus transcendante (mais aussi pourvoyeuse de subjectivité) qu'une cause à laquelle on ne se contente pas d'adhérer mais qu'on actualise, qu'on performe. Il n'y a pas de discours plus efficaces que ceux qu'on propage parce qu'ils servent nos intérêts. Sous cet angle, au fil de nos multiples connexions, nous construisont indéfiniment le mythe Internet, inscrivont son récit et performont sa légende.


[1] Un exemple parmi cent possibles : dans le livre L'entreprise digitale de A. André et al. (Andersen Consulting, First, Paris, 1997) l'entreprise numérique est définie comme "un réseau de petites équipes autonomes, ouvert sur l'extérieur, affranchi des contraintes de l'espace et du temps, irrigué par une information disponible. Et capable de se reconfigurer instantanément pour s'adapter aux évolutions de son environnement."

[2] Ce constructivisme sociologique inspire nettement l'épistémologie basée sur les réseaux socio-techniques. Nous aurons l'occasion d'y revenir par la suite.

[3] Dans les "groupes de discussion", par exemple, une pression normative ne manque pas de s'exprimer : pas de texte flou et long (aucune chance d'être lu), ne pas ennuyer les participants, consulter les F.A.Q. (Frequently asked questions) pour ne pas alourdir la circulation de l'information, faire preuve de netiquette, bref être performant, circonstancié, opérationnel.

[4] Pierre Lévy, Cyberculture, Odile Jacob/Conseil de l'Europe, Paris, novembre 1997, pp. 147/148.

[5] La logique du massmedia est très lisible du point de vue de l'éditeur. En attestent les dépenses de publicité sur le réseau visant à retenir l'Internaute sur un même site ainsi que le développement de campagnes promotionnelles ciblées. Par exemple, le site d'IBM a reçu plus de quatre millions de visiteurs durant la confrontation entre Deep Blue et Gary Kasparov (dont 420 000 pour la dernière partie). Une telle audience comparable à celle d'un bon programme sur le câble, hisse cette opération au rang de principale campagne publicitaire menée sur le Net. En revanche, du côté du récepteur, cette caractérisation doit être nettement tempérée. L'Internaute circule interactivement dans un site édité, et, de plus, à la différence d'un journal ou d'une revue papier, il peut le quitter instantanément pour aller sur d'autres sites.

[6] Cylibris propose au lecteur tenté par l'offre, de passer à l'écriture à partir de textes téléchargés, et offre des conseils à destination des apprentis auteurs.

[7] "Dans le cyberespace, chacun est simultanément écrivain et journaliste, éditeur et lecteur, vendeur et acheteur." (B. Giussi, Révolution dans l'information, in Le Monde Diplomatique, oct.1997, p. 27).

[8] LMB Actu est publié par le C.N.R.S.

[9] Alain Simeray, La pêche à la ligne, in Libération, supplément multimédia, 21/11/1997, p. VII.

[10] Il faut entre six et dix-huit mois pour publier un article -s'il est accepté- dans une revue de renom. La publication directe est la conséquence, aussi, d'une certaine tendance des comités de lecture -assaillis par un nombre croissant de propositions d'articles- à privilégier, faute de temps, les articles les moins "fantaisistes", lesquels recèlent parfois de véritables innovations déstabilisatrices. Voir Jean Zinn-Justin, L'influence des nouveaux outils informatiques sur la publication des travaux en physique, in Terminal, ndeg.71/72, 1996, pp. 259/266.

[11] L'exemple du San Jose Mercury News aux États-Unis est symptomatique, qui a vu croître simultanément la lecture des deux versions.

[12] La publication sur le webjournal de Matt Drudge, d'informations non vérifiées à propos des liaisons extra-conjugales de Clinton a contraint les grands quotidiens à emboîter le pas de peur qu'ils ne soient devancés par leurs concurrents.

[13] Il s'agit de la N.O.A.A. (National Oceanographic and Atmospheric Administration).

[14] Des sites commerciaux ou coopératifs, aux États-Unis, se livrent une concurrence acharnée pour répondre aux demandes les plus diverses, grâce à leurs bibliothèques contenant des milliers de devoirs et à leurs moteurs de recherche. Le développement de ces pratiques suscite déjà, chez les enseignants des contre- mesures : demandes d'avant-projets ou sujets très contextualisés. Au Texas, une loi a été prise pour interdire ce type de commerce. À quand les logiciels de détection des devoirs pré-rédigés ? (Voir K. Granier-Deferre, Dissertations à vendre, in Le Monde, 7/8 Septembre 1997, p. 34.)

[15] En 1997, trois millions de compteS étaient gérés sur le réseau aux États-Unis. Fin 1998, leur nombre dépassait les cinq millions. Selon une étude (effectuée en 1997 par le cabinet Forester Research), plus de quatorze millions de comptes seront ouverts sur le réseau en 2002. Elle prévoit que les actifs gérés vont y être multipliés par 5. La société de placement direct en Bourse par le Web, E*Trade, basée à Palo Alto, arrivait sur le marché français à la fin 1998, accélérant l'ouverture de services similaires par des banques et des courtiers traditionnels.

[16] E*Trade réalise, en association avec une banque, l'introduction on line de sociétés sur le marché boursier. D'autres institutions s'apprêtent à offrir les mêmes services.

[17] Abréviation de MPEG 1 Audio Layer 3, MP3 est un standard de compression numérique divisant par 12 la taille des fichiers sans perte trop sensible pour l'oreille.

[18 ]En 1998, le groupe de rap Public Enemy a été le premier à offrir gratuitement le téléchargement de titres inédits, entamant ainsi une violente campagne contre sa propre maison de disques. Sommé de rentrer dans le rang par les dirigeants du label, le groupe a obtempéré non sans se réjouir d'avoir lu "la peur dans leurs yeux" et en ajoutant : "On sait que c'est quelque chose qu'ils ne pourront plus arrêter." Propos rapportés par Matt Richtel, Internet ouvre une brèche dans le monopole des maisons de disques, in Courrier International, ndeg. 425- 426 du 23/12/98, p. 46.

[19] Voir Yves Eudes, L'ère des cybertribunaux, in Le Monde, 29 et 30/09/96, p. 29, et Michel Arseneault, Les justiciers du Web, in Le Monde, 28 et 29/06/98, p. 34.

[20] Déclaration publiée dans Libération, supplément multimédia, 6/06/97, p. II.

[21] Enseignante d'anglais et pionnière du premier lycée public totalement en ligne aux États-Unis -la Florida High School d'Orlando-, L. Parrish, après avoir insisté sur la qualité humaine de ses contacts électroniques avec ses élèves, ajoute néanmoins : "Mais une vraie classe me manque beaucoup..." C. Lionet, Floride, lycée hors les murs, in Libération, supplément multimédia, 14/11/1997, p. II.

[22] L'activité du C.N.E.D. semble aller dans ce sens. Voir Jacques Perriault, La communication du savoir à distance, L'Harmattan, Paris, 1996.

[23] Magellan, moteur de recherche qui indexe plus de quatre millions de sites, en commente cinquante mille seulement et décerne des étoiles. Seuls cinq pour cent d'entre eux ont reçu quatre étoiles.

[24] Les "robots-chercheurs" -on le rappelle- sont des programmes qui vont rechercher des informations en fonction de centres d'intérêts particuliers et les ramènent en direct ou dans une boîte aux lettres. AltaVista -conçu par Digital- est devenu une référence incontournable. Les guides de recherche, comme Yahoo!, proviennent d'une indexation humaine organisant le contenu d'Internet dans de gigantesques structures de données. Certains robots, moins universels, visent des objectifs plus sophistiqués. Les "agents" de Verity, par exemple, vous préviennent que le vol que vous avez réservé est annulé, ceux de General Magic peuvent effectuer directement une réservation sur un autre vol. Nombre de grandes entreprises de Thomson à l'Aérospatiale, la Défense Nationale et la D.S.T. s'intéressent à ces robots chercheurs pour l'espionnage industriel. Une place particulière doit être réservée à Taïga (Traitement automatique de l'information géopolitique), développé pour la D.G.S.E., qui traite l'information secrète. Son architecte, C. Krumeich en a tiré une version civile, Noemic, capable de recherches sémantiques et qui prend en compte les concepts, les métaphores ou les associations d'idées. Sur les robots chercheurs, voir notamment A. Rouble, Internet Reporter, ndeg. 6.

[25] Digout4U exploite la méthode des "langages pivots" développée par Taïga. Plus puissante que le simple enregistrement de mots clefs, cette méthode associe, aux termes de l'interrogation initiale, un ensemble d'éléments contextuels (y compris la traduction anglaise) qui élargit considérablement les champs de recherche. À la fin, le moteur évaluera les informations récupérées sur le réseau en les rapprochant de la requête initiale. Voir E. Parody, Digout : de l'ordre dans vos recherches, in Planète Internet, ndeg. 24, nov. 1997, pp. 80/81.

[26] Travelocity, l'une des principales entreprises américaines de vente sur Internet, a mis au point un logiciel de recherche qui avertit l'usager, par courrier électronique, de toute variation de prix supérieure à vingt-cinq dollars sur la destination choisie. Grâce à Expedia, le logiciel spécialisé qui a permis à Microsoft de s'imposer dans ce secteur, on peut même visualiser un schéma de l'avion avec les places disponibles. Guides, locations de voitures, réservations d'hôtel sont les prolongements logiques de ces services, qui, encore minoritaires aujourd'hui, suscitent un engouement croissant. Images des hôtels, vues des paysages environnants et bandes sons sont en préparation.

[27] Aux États-Unis, Amazon.com -qui propose trois millions de titres sur le Net- s'est imposée en deux ans comme l'une des premières success story du commerce électronique. Barnes & Noble, la célèbre chaîne de librairies, offre un million et demi de titres. D'autres distributeurs se sont spécialisés par genre (science-fiction, mode, etc.) Sur Dial-a-book, on peut télécharger et lire gratuitement le sommaire et le premier chapitre, et commander ensuite le livre qui sera expédié par la poste. En France, l'ABU (Association des Bibliophiles Universels) a été fondée en avril 1993. Son ambition est de numériser et de rendre accessible sur le réseau une sélection d'oeuvres du patrimoine littéraire francophone libres de droits, du traité de Maastricht au Discours de la méthode de Descartes. Plus de cinq mille connexions par mois, en 1997, viennent, légitimer l'intérêt de ce patient travail. L'ABU propose aussi aux Internautes différents outils de recherches automatiques tels que des calculs d'occurrences pour chaque ouvrage ou pour l'ensemble du corpus. Enfin, en octobre 1998, un grand éditeur français, Le Seuil, doublait la distribution en librairie de deux livres par leur mise en ligne sur Internet. L'éditeur électronique 00h00, en proposait la commande par téléchargement direct ou l'impression à la demande relayée par un réseau d'imprimeurs disséminés sur la planète.

[28] On peut citer, parmi les plus répandus, Jungle équipant Yahoo! ou Jango disponible aussi sur le moteur Excite.

[29] Le télescope de Bradford en Grande-Bretagne, comme celui de Skyview, accessible depuis le site de la NASA, fonctionnent selon ces principes.

[30] Le logiciel, proposé par la firme Excalibur, indexe tous les mots d'un texte leur faisant correspondre une signature binaire. Exploitant les principes associatifs des réseaux neuronaux, il peut explorer une encyclopédie de 50 000 pages en dix secondes tout en tolérant des erreurs. Il est déjà utilisé sur Internet par deux moteurs de recherche (Yahoo! et Infoseek) pour identifier, selon les mêmes principes, l'énorme gisement d'images sur le Net et permettre la recherche de documents. La R.A.I. italienne, par exemple, l'utilise pour ses besoins. Avec un coucher de soleil comme image de départ, le logiciel proposera toutes les images proches et celles dont les couleurs voisinent où qui comportent un disque lumineux.

[31] Voici, par exemple, comment B. Dousset, concepteur du logiciel d'analyse statistique Tétralogie, le présente : "Tétralogie fouille Internet et opère des croisements de termes scientifiques, d'organismes, de noms de personnes... pour en extraire l'information cachée. Nous pouvons déceler les axes de recherche prometteurs, ceux où la concurrence est moins forte, identifier les <<mandarins>> du domaine, ou au contraire les chefs de labo qui émancipent leurs collaborateurs" (cité par C. Labbé et O. Rousseau, Internet veille sur les entreprises, in Le Monde, sup. Multimédia, 3 et 4/11/1996, p. 32). Le logiciel peut détecter les chercheurs qui ont fréquemment changé d'équipe, accumulant ainsi des savoir-faire variés. Il démasque aussi les notoriétés factices obtenues par citations réciproques (les classements obtenus par compilation automatique des noms cités dans les publications engendre effectivement ce genre de comportement chez nombre de chercheurs américains).

[32] Des sites commerciaux américains proposent pour des sommes allant de cent à deux cents dollars des enquêtes approfondies sur les individus. Exploitant de puissants moteurs de recherches, se constituant de vastes fichiers acquis auprès d'institutions financières, par exemple, ces services peuvent renseigner un employeur sur la véracité d'un C.V., vérifier les diplômes mentionnés, les sanctions pénales reçues ou le bon remboursement des emprunts contractés. Ils envisagent, d'ailleurs, de moissonner des gisements d'informations en Europe pour permettre aux entreprises du Vieux Continent de contourner des barrières législatives souvent beaucoup plus solides qu'outre-Atlantique. Sur les dangers de "l'autorégulation" à l'américaine, voir Mathieu O' Neil, "Internet, ou la fin de la vie privée", in Le Monde Diplomatique, septembre 1998, p. 23.

[33] Toute l'ingénierie des agents intelligents est mise à profit pour proposer l'installation sur les ordinateurs familiaux, ou dans les entreprises, de logiciels paramétrables filtrant les accès, qui aux sites à caractère sexuel, qui aux casinos virtuels, etc. Les forums de discussion, les moteurs de recherche et les bases de données sont aussi contrôlés. Ces censorware commencent à influencer le contenu du Web aux États-Unis, les sites commerciaux prenant garde de ne pas figurer sur des listes rouges.

[34] Christian Huitema, Et Dieu créa l'Internet..., Eyrolles, Paris, 1996

[35] Conseil créé en 1983, l'I.A.B. avait la charge d'organiser le développement de l'architecture technique d'Internet, mission à la fois technique (perfectionner les protocoles techniques), prosélyte (convaincre les utilisateurs de se raccorder) et commerciales (trouver les financements nécessaires).

[36] Op. cit., p. 80.

[37] Op. cit., p. 81.

[38] L'I.E.T.F. (pour Internet Engineering Task Force) est un organisme supervisé notamment par l'I.A.B.

[39] Loc. cit.

[40] Op. cit., p. 82.

[41] Les standards sont des programmes qui assurent la gestion des réseaux incluant, par exemple, le choix stratégique d'une méthode d'adressage adaptée à l'éventuelle croissance exponentielle des abonnés.

[42] Ainsi en va-t-il pour le perfectionnement de la norme HTML (spécifications permettent l'édition de documents multimédias comprenant la gestion des liens hypertextuels vers d'autres sites). Il est douteux que la simple comparaison "rationnelle" des qualités des différentes normes suffise à départager les concurrents. Ainsi, après s'être imposée en distribuant gratuitement son navigateur (programme permettant de se déplacer dans Internet), la firme Netscape se montre pugnace sur ce terrain stratégique de la définition des normes. Cette firme engrange d'ailleurs l'essentiel de son chiffre d'affaires sur le marché des navigateurs d'Intranet, réseaux fermés d'entreprises organisés selon les normes techniques d'Internet. Même si elle a finalement publié le code source de son navigateur, favoriser l'expansion d'Internet comme espace universel de communication gratuit n'est sans doute pas son objectif ultime. Mais c'était l'unique moyen de résister à la puissance de Microsoft. Ce faisant, Netscape reconnaît l'excellence et la robustesse des logiciels libres et en renforce la logique.

[43] Tel roman interactif sur CD Rom, par exemple, propose un seul début et 80 déroulements possibles.

[44] Ces considérations sont parfaitement résumées dans la conclusion que Pierre Lévy apporte à Cyberculture : "La cyberculture incarne la forme horizontale, simultanée, purement spatiale, de la transmission. Elle ne relie dans le temps que par surcroît. Sa principale opération est de connecter dans l'espace et d'étendre les rhizomes du sens" (op. cit., p. 308).

[45] Yves Barel, La société du vide, Le Seuil, Paris, 1984.

[46] Howard Rheingold, Les communautés virtuelles, Addison-Wesley, Paris, 1995.

[47] Howard Rheingold, op.cit.

[48] 77 044 332 "je, I" contre 43 325 875 "tu, you", précisément, mais en un temps non mentionné.

[49] Cette séparation est, bien entendu, à prendre comme un partage analytique et non descriptif. Nombre d'activités laborieuses possèdent des dimensions imaginaires, et à l'inverse le travail relationnel est aussi opératif.