Table des matières

Chapitre VII

Les paradoxes de la téléinformatique

Une société de l'immatérialité et de la vitesse : cette apparente constatation m'apparaît être une hypothèse discutable. Ce chapitre montrera en quoi. La réflexion proposée se donne pour objectif d'examiner les incidences culturelles des technologies intellectuelles actuelles basées sur la programmatique (disponibilité et diffusion de programmes informatiques) et la Téléprésence, que nous regroupons sous le vocable de téléinformatique. Dans cette voie, nous nous confrontons à la notion même de culture, dont toute tentative de définition met en abîme les concepts qu'elle mobilise. Nous nous en tiendrons donc au sens commun qui considère la culture comme l'ensemble des connaissances, croyances, représentations et pratiques qui structurent "l'être ensemble" d'une société. Nous espérons que la suite du propos contribuera à poursuivre une définition de la culture dans ses rapports aux télé- technologies.

Si l'on considère que l'effet majeur d'une technologie intellectuelle inédite est d'instituer, d'ouvrir une nouvelle manière d'accomplir certaines activités et de résoudre des problèmes, alors on comprend que son extension est une conquête, une colonisation mentale, à la différence près qu'il ne saurait y avoir de décolonisation. Il n'y a pas de possibilité de "dés-alphabétisation" ni de "dé-numérisation". Affirmer l'universalisme des télé- technologies procède précisément de cette observation. Précisons qu'il s'agit là d'un tout autre débat que celui qui concerne le caractère occidental de la raison, ou l'unicité de la logique. Avec les technologies intellectuelles, nous ne nous confrontons pas à une matière formelle ou axiomatique, mais à des pratiques culturelles collectives, à l'incubation de paradigmes, à l'intériorisation d'horizons qui façonnent notre être au monde. Si nous nous arrêtions à cette affirmation, nous renforcerions la doctrine de l'efficacité culturelle unilatérale (c'est-à-dire se déployant sans contradictions) des technologies intellectuelles en général et, aujourd'hui, de la téléinformatique en particulier. Nous tenterons de montrer, a contrario, que ce postulat d'efficacité unilatérale doit être discuté.

On trouve, par exemple, dans l'ethnométhodologie une approche qui tranche avec les logiques techno-centristes. Elle insiste, en effet, sur la manière dont les acteurs plient le matériel cognitif qui leur est offert à leurs jeux d'intérêts, à leurs mythes, à leur monde affectif et construisent ainsi leur éco-système culturel et technique. Cette thèse a souvent été invoquée, par exemple, à propos de la télévision pour rendre compte des multiples modalités à travers lesquelles des récits identiques sont interprétés par des cultures locales. Une étude a montré, par exemple, comment la réception du même feuilleton, Dallas, dans plusieurs pays du Tiers- monde, se moule selon des filtres locaux. La nocivité ou la bienfaisance des différents personnages s'apprécient différemment selon les structures familiales dominantes[159]. (Mais la télévision est- elle, à proprement parler, une technologie intellectuelle) ? Pour l'ethnométhodologie, la question du caractère structurant des technologies intellectuelles ne se pose pas ; on dira, par méthode. Focalisant son attention sur la manière dont les acteurs construisent socialement leur réalité, elle ne peut -ni ne veut- présupposer la manifestation "d'universaux", et notamment technologiques. Mais c'est justement cette éviction, "par méthode", de la question de l'universalisme technique qui résout le problème avant de l'avoir posé.

Mais revenons à la téléinformatique. Principale technologie intellectuelle contemporaine, elle transcenderait les cultures, non pas parce qu'elle serait porteuse d'une rationalité supérieure, celle du calcul, mais parce qu'elle diffuse un milieu indissolublement matériel et intellectuel dans lequel se construisent à la fois les questions et les réponses. On en déduit donc une transformation directe des cadres perceptif et cognitif, transformation qui s'imprimerait unilatéralement sur les visions du monde et dans les rapports sociaux. On s'accorde ainsi à considérer que la diffusion du livre imprimé engendre une culture de l'organisation hiérarchique, de la spatialisation planaire, du repérage, du résumé ; culture qui se fonde sur des programmes de mémorisation tels que catalogage, méta-mémorisation par la réalisation d'index, de fichiers documentaires. De même la diffusion de l'hypermédiation, de la programmatique (organisation des activités sociales par programmes informatiques) inscrirait, toujours selon la thèse énoncée, des conceptions du monde univoques sous les auspices de discours convenus annonçant la catastrophe d'un temps mondial, l'assomption de la vitesse, la victoire du "temps réel" ou, à l'inverse, la suprématie du savoir comme nouvel espace anthropologique laissant entrevoir la fin de toute transcendance sous les horizons radieux d'un cyber-communisme. (On aura reconnu les positions diamétralement opposées de Paul Virilio et de Pierre Lévy).

Les propositions qui tendent à nous persuader que nous sommes entrés dans une culture de l'immatériel, de la vitesse et de l'instantanéité abondent. Elles nous assurent à la fois de l'efficacité majeure des technologies intellectuelles dans le paysage culturel et de sa propension à s'imposer comme logique transcendant les diversités culturelles. Elles en appellent à des sentiments partagés qui reposent sur un jeu de renvois entre des évidences incontestables et leur surévaluation. Que la visée "dromologique" (logique de l'accélération, pour reprendre le néologisme de Paul Virilio) orientent nombre d'activités relationnelles, productives, logistiques, éducatives, etc., cela, bien sûr, ne saurait être négligé. Mais que ces observations soient érigées en quasi-théorèmes qui régleraient le devenir de notre monde, relève plus d'une certitude de principe -ou au mieux de hâtives généralisations- que d'observations soucieuses de la pluralité des logiques en cours.

La plupart des pensées du changement provoqué par la téléinformatique ne font que rééditer, en les prolongeant mécaniquement, les effets des bouleversements technologiques antérieurs. On découvre que l'auteur individuel est un sous-produit de la culture du livre. Qu'à cela ne tienne, on annonce que la culture du réseau provoquera sa disparition. L'idée selon laquelle l'écriture et le livre organisent une temporalité de la différance (au sens où Jacques Derrida a constitué ce concept) fait désormais partie de notre héritage culturel. On affirme donc que les réseaux numériques y substituent le règne du temps réel. Ainsi procède la mécanique quasi mystique du bouleversement culturel adossée au constat de l'accélération techno-scientifique. Nous souhaitons inquiéter ces considérations qui semblent faire consensus et attirer l'attention sur la difficulté de déduire des technologies intellectuelles contemporaines, un modèle culturel univoque.

Nous creusons l'hypothèse qu'avec ces technologies, se diffuse non pas une culture, ou des logiques culturelles, mais une méta-culture avec des incidences contradictoires enclenchant des dynamiques moins lisibles qu'il n'y paraît de prime abord. Tisser le nouveau avec, et non pas contre, l'ancien, faire resurgir au coeur des conjectures actuelles d'anciens principes qu'on a pu croire obsolètes, telle est l'observation commune qui réunit les différents parcours proposés. Bref, par-delà la problématique des résistances, suivre les contradictions constitutives des nouveaux paysages culturels en émergence. Nous tenterons de faire apparaître ces incidences contradictoires, manifestant une distorsion de la problématique des effets culturels, et cela selon six interrogations principales :

- Les réseaux : une disparition de l'inscription territoriale ?

- Internet : l'évanouissement des intermédiaires dans l'espace public ?

- Le contexte de l'hypermédiation : une éclipse de la séquentialité ?

- La retraite de l'auteur ?

- La représentation de l'espace : réglage individuel des trajets et nouvelle formule panoptique,

- Le régime temporel des télé-technologies : accélération et ralentissement.

A - Réseaux et présence à distance : une disparition de l'inscription territoriale ?

Le transport de la présence à distance -l'un des principaux paradigmes qui justement orientent les cultures contemporaines et pour lesquels l'informatique crée simultanément l'offre et les moyens de la satisfaire- interroge le rapport au territoire. Toutes les cultures modernes sont, à des titres divers, imprégnées de cette tendance technique universelle fondamentale, même si les déclinaisons locales prolifèrent. L'informatique, on l'a vu, a radicalisé cette tentative, comme jamais aucun autre projet ne l'avait fait auparavant. (Les premières expériences de calcul à distance précèdent même l'invention, stricto sensu, de l'ordinateur).

Rappelons d'abord quelques attendus déjà discutés. On doit considérer le mouvement d'augmentation tendancielle du coefficient charnel dans le transport de la présence comme relevant de technologies intellectuelles, car il opère essentiellement sur et par des signes. Le transfert de la présence opère bien entendu sur cette matière sémiotique : lettres acheminées, voie télé-portée, image télé- transmise, corps modélisés et transférés dans la téléprésence contemporaine. La génération actuelle de réseaux (perfectionnement d'Internet dans la voie de la réalité virtuelle, dialogue par avatar corporéisé, etc.) concrétise cette orientation fondamentale. Or l'appréciation de ce mouvement tend à considérer que le transfert des signes de la présence équivaut -ou équivaudra dans de brefs délais, avec les réseaux larges bandes et autres perfectionnements à venir- à la duplication de la présence, niant par là même l'opération de transport qui deviendrait ainsi totalement transparente aux acteurs. D'où l'idée que la localisation géographique, la territorialisation tendrait à devenir archaïque sous les feux croisés de la mondialisation et de l'efficacité croissante des télé-technologies.

Lorsqu'on examine les premiers effets des réseaux comme Internet, on en déduit que la croissance du transport de la présence se traduit par une déterritorialisation conçue comme mise entre parenthèses du territoire, voire comme sa négation. Une attention plus mobile permet de faire l'hypothèse que, loin de dissoudre l'importance de la localisation, les réseaux ne font que l'accroître. Par exemple, les communautés qui voient leurs liens les plus affectés par Internet sont des collectifs de proximité territoriale. Les communautés scientifiques, thématiques par nature, étaient déjà reliées par d'autres canaux (documents postés, courrier, colloques, etc.). En revanche, on peut faire l'hypothèse, vérifiée par quelques observations[160] que des collectifs territoriaux trouvent dans Internet un moyen de renforcer leurs liens, d'augmenter l'intensité et la fréquence de leurs rencontres de visu. À travers une localisation dans l'espace informationnel, on renforce donc souvent, et paradoxalement, l'importance de la localisation géographique.

Par ailleurs, signalons à nouveau, qu'à Paris, les entreprises du Web se regroupent aujourd'hui dans le même quartier -le Sentier- et que les activités boursières, éminemment consommatrices de réseaux, se localisent géographiquement, sur toute la planète, dans les quartiers d'affaires des grandes villes. Faire de la présence à distance son métier exige et engendre des communautés fondées sur la proximité géographique ; et ceci, plus que toute autre activité, peut-être. Le développement des systèmes cartographiques informatisés, du repérage spatial et de la communication mobile permettent de conforter ces premières hypothèses.

Systèmes d'Information Géographique et spatialisation de l'information

Les Systèmes d'Information Géographique (S.I.G.) participent d'une recomposition du rapport au territoire. De la carte de France, plein écran, aux villes de Caen, Auxerre ou Avallon, l'exploration s'accomplit sans discontinuité, par concentration et agrandissement de la zone choisie. Mais, outre la fonction de visualisation territoriale, l'exploration géographique ajoute une présentation de données thématiques, souvent à caractère commercial (connaître les ventes de journaux rues par rues, savoir où habitent les plus fidèles clients d'un supermarché, par exemple). Ces systèmes couplés à des capteurs de trafic[161], ou à des dispositifs de localisation de véhicules par satellites géostationnaires (comme le fameux G.P.S.) permettent d'organiser et de visualiser l'évolution temporelle d'une situation : planifier l'intervention des Canadairs lors d'incendies, traiter les demandes d'itinéraires, ceci en attendant la généralisation des calculs individualisés d'itinéraires à bord des véhicules. Bref, les Systèmes d'Information Géographique sont "géostratégiques". Ils croisent l'information cartographique avec l'analyse de données stratégiques (économiques, militaires, écologiques, etc.). C'est précisément l'intensification de l'alliage entre la topographie traditionnelle, matérialisée par la carte et le traitement d'information abstraites non spatiales (économiques, sociologiques, historiques) qui est remarquable. N'oublions pas que la carte traditionnelle concentre déjà en une seule figure, une pluralité de couches sémantiques permettant de commuter les cheminements du regard, d'acquérir une plus-value informationnelle, de faire travailler l'inscription pour qu'elle exsude plus de connaissances que celles qui y ont été déposées[162].

Le succès remporté par ces systèmes de spatialisation informatique des informations s'explique non seulement par la possibilité de mobiliser dans une seule surface de vastes corpus cartographiques, mais surtout par leur capacité à automatiser cette extraction du surplus informationnel en multipliant les strates d'images d'un territoire, en comparant par le calcul les différents parcours ou en fournissant au consultant des outils paramétrables d'interrogation.

Dès lors, on pourrait penser que le territoire a été colonisé par l'univers informationnel, qu'il se manifesterait, donc, comme simple substrat, nourriture de base alimentant l'espace informationnel qui tendrait à l'oblitérer. Plutôt que de suivre cette voie -celle du recouvrement du territoire par la carte- il me semble plus intéressant de mettre l'accent sur la reterritorialisation des informations, d'interpréter la croissance des S.I.G. comme l'indice d'une force qui pousse vers la spatialisation de l'information (et tout particulièrement pour la consultation d'informations qui n'ont pas d'attaches spécifiques avec le territoire, comme certaines données commerciales apparaissant visuellement sous forme de zones colorées). De cette inscription territoriale, on espère qu'elle ajoute quelque chose aux informations produites : la saisie d'un détail moléculaire significatif, la manifestation de causes dissimulées que la vision spatiale révélerait, la perception directe des grandes tendances qui orientent un paysage de données.

Mais au fait, quels types d'informations ne se prêtent-elles pas à une vision spatiale ? Assez peu échappent à cette injonction territoriale notamment dans les domaines commerciaux, militaires, médiatiques, logistiques en général. Où a lieu un événement ? La réponse est rarement indifférente. Mais ce qu'ajoute ce type de vision, c'est la puissance de traitement informatique : par exemple, dans quelles rues habitent les lecteurs d'un journal, à bas salaires et qui achètent leur quotidien tôt le matin ?

L'exploitation numérique de la carte ne relève plus seulement de la spatialisation de l'information (un cercle étendu pour une grande ville, un trait large et bicolore pour une autoroute). Radicalisant les calculs analogiques qu'autorisaient déjà les cartes imprimées (repérer l'importance de la proximité du littoral dans la répartition mondiale des grandes villes, par exemple), les S.I.G. composent directement des paysages informationnels à plusieurs dimensions. Le regard n'accomplit plus, comme sur les cartes traditionnelles, l'équivalent d'un cheminement réel, il déchiffre ces paysages et découvre un hybride territoire/espace informationnel abstrait. L'activité scopique et la saisie de l'espace se trouvent redéfinies par ces appareillages. Nous en proposerons quelques enjeux ultérieurement, car, ici, c'est la question de la localisation qui nous retient.

La cartographie du territoire réel et la localisation géographique se combinent à l'abstraction du traitement informationnel. Le territoire n'a donc pas disparu sous la poussée des réseaux informationnels. La localisation ne perd pas sa puissance. Elle s'exprime aujourd'hui à travers le traitement synthétique informatisé qui devient un organe de saisie et d'organisation géostratégique, une forme de relevés topo-informationnels, un révélateur carto-sémantique.

Mobilité et localisation

Le développement de la communication mobile a pris le relais des simulateurs de présence...ou d'absence que sont les répondeurs/enregistreurs téléphoniques, lesquels luttent déjà contre la coupure temporelle du flux communicationnel[163]. À l'heure des constellations satellitaires ceinturant la planète, pouvoir joindre quelqu'un en tout lieu et à tout moment augmente paradoxalement, sous un autre angle, l'assignation territoriale. D'ailleurs, les appels commencent, presque toujours, par une identification spatiale : "Je me trouve au Luxembourg, et..." Les premières études effectuées sur les technologies mobiles mettent l'accent sur le renforcement du contrôle spatial qu'elles induisent, notamment dans l'univers professionnel. Ces recherches raffinent la notion de localisation, dépassant l'opposition présent/absent. Ainsi dans son étude sur les technologies mobiles, Dominique Carré insiste sur deux figures de la mobilité : l'ubiquité et l'omniprésence : "Alors que l'ubiquité met l'accent sur la coïncidence entre déplacement et communication (l'utilisateur communique pendant son déplacement, précision ajoutée), l'omniprésence au contraire occulte le déplacement et permet au télé-communicant de continuer ses activités communicantes quand il est dans d'autres lieux que son travail habituel"[164].

"Ubiquité" n'est pas synonyme de mobilité, mais désigne au sens strict, le partage simultané de plusieurs lieux. C'est par assimilation de la continuité temporelle du lien communicationnel à une pluri-localisation instantanée, qu'on peut parler d'ubiquité à propos de la communication mobile. Ce qui en dit long sur l'insistance avec laquelle l'affiliation au réseau persiste à situer, non plus dans un espace strictement territorial, mais dans un hybride territoire/réseau communicationnel. Par ailleurs, même si "l'omniprésence" permet de s'affranchir de la localisation unique, on peut considérer qu'elle accroche les lieux de labeur aux épaules du travailleur nomade, multipliant ainsi les localisations possibles. Tout en pointant une incontestable relativisation de la localisation spatiale, ces notions d'ubiquité et d'omniprésence signalent, en creux, la persistance d'une préoccupation territoriale.

Le préfixe "télé" (à distance) indiquerait une liaison paradoxale -téléphonique, télé-textuelle, télévisuelle- où l'importance de la situation spatiale est majorée parce qu'elle est niée, comme ces victoires qui, une fois remportées, permettent aux vainqueurs de s'approprier les valeurs des vaincus. L'affiliation au réseau vaut localisation dans un espace à la fois non géographique et territorial. Les systèmes de positionnement satellitaire (tel G.P.S.) le montrent bien, qui s'émancipent de la géographie physique tout en assurant la localisation. Cependant, avec l'affichage de la localisation, la carte géographique reprend ses droits, combinant ainsi espace physique et espace informationnel. En ce sens, le réseau surplombe le territoire sans l'assujettir.

Entre proximité et éloignement

Le réseau ne dissoudrait donc pas la notion de lieu, mais il la retravaillerait en mêlant uni-présence physique et pluri-présence médiatisée. D'ailleurs une description fine des rapports entre l'ici et l'ailleurs ne devrait que rarement opposer présence et absence. Elle mériterait d'être attentive aux multiples strates qui jalonnent les liens entre participants à un même réseau : échange épistolaire entre chercheurs partageant les mêmes locaux, entre Internautes se rencontrant épisodiquement, préparation d'une réunion par télé-relations, etc. Jacques Perriault, dans son étude sur la formation à distance, le montre bien. À propos des dispositifs de formation actuels qui intègrent les nouvelles techniques de communication, il écrit : "Contrairement à ce qui a été fait dans le passé, ces systèmes n'opposent plus présence et distance, mais intègrent les deux. Tout se passe comme si un processus d'hybridation était en train de se développer"[165]. Le spécialiste de l'enseignement à distance souligne, à plusieurs reprises et notamment à propos des réseaux d'échanges de savoir, l'importance des formules mixtes associant communications à distance et rencontres collectives[166]. Les étudiants, en présence d'un tuteur, utilisent, en groupe, les techniques de communications telles que messageries, fax, téléphone pour se former à leur usage sur des études de cas. La communication à distance est ainsi préparée et ponctuée par des exercices collectifs en proximité. Il s'agit là d'un des nombreux exemples où présence et télé-relation se combinent[167]. De même, l'expérimentation des mediaspaces (espace de travail commun entre des collectifs à distance, mobilisant éditeurs partagés, visiophonie, équipements vidéos des locaux, notamment) concerne tout autant des équipes séparées par l'Atlantique[168] que des communautés de travail occupant les bureaux d'un même laboratoire, par exemple. Dans un cas comme dans l'autre il s'agit bien d'effacer les séparations pour créer un espace collectif unique muni, bien sûr, de fonctions séparatrices réglables (protection, disponibilité, etc.). La tentative de rapprocher le lointain s'étend à la réorganisation du proche dans le même mouvement qui a rendu évident l'usage local de la communication à distance (courrier interne, réseau téléphonique et messagerie locaux, etc.).

La notion de glocalisation a justement été forgée pour désigner l'usage local d'un média "global". Elle rend compte d'un des multiples agencements possibles entre le partage de l'ici- et- maintenant et la pure télé-relation. Plus radicalement encore et aux antipodes du "village global", le concept de "ville numérique" tend à désigner un moteur de recherche sur Internet repérant les prestataires de services situés à proximité géographique du demandeur (syndicats d'initiative, mairies, commerces, presse locale, météo locale, trafic local, etc.)[169].

La terminologie utilisée sur Internet (site, salle, salon...) n'a sans doute pas qu'une valeur métaphorique. Elle indique que le marquage de la nature de l'espace désigné (public, privé, intime) demeure une condition sociale de repérage des acteurs engagés dans l'échange à distance. Au terme de ces mixages, ce sont les concepts de proximité, de localisation, de territoire qui sont redéfinis, et non annihilés, par les nouvelles mises en relation du proche et du lointain. La présence cesserait totalement d'être territoriale si le transfert à distance devenait duplication de la présence et si la proximité pouvait, de ce fait, se jouer totalement des confrontations corporelles. On en est bien loin.

B - Internet : l'évanouissement des intermédiaires dans l'espace public ?

L'une des sources où Internet puise son dynamisme est, nous l'avons déjà mentionné dans le chapitre consacré à l'auto-médiation sur Internet, le désir d'une communication transparente où les acteurs maîtrisent à la fois l'information et le média qui la fait circuler. Un exemple parmi cent autres : présentant le site Parthénia, dans une émission de télévision[170], Mgr Gaillot explique ce qu'il apprécie dans Internet:"[...] c'est le réseau horizontal qui se tisse, sans passer par les pouvoirs, sans passer par les hiérarchies". Faire de chaque acteur aussi bien un récepteur qu'un émetteur : en ce sens le réseau des réseaux est bien une réaction au principe des massmedia. Il témoigne, dès sa prise main par les chercheurs américains dans les années soixante-dix, d'une volonté de se rendre "maître et possesseur" d'un appareil communicationnel, contre l'état et ses tendances naturelles à l'inquisition, aussi bien qu'en opposition aux entreprises et institutions qui souhaitent privatiser la communication sociale. Tisser le réseau par coopération, progressivement à partir des acteurs, en faire une construction collective, organiser sa croissance, toutes ces dispositions, rappelons-le affirment un modèle institutionnel ascendant, immanent ayant pour finalité son auto-développement. "La connectivité est sa propre récompense" affirme A. Rutkowski, directeur exécutif de l'Internet Society en 1995[171]. Connecter entre eux tous les ordinateurs du monde apparaît comme un projet social où se dessine la figure d'une transparence informationnelle, d'une communication immanente supprimant les intermédiaires spécialisés (éditeurs, groupe de presse, institution de l'audiovisuel).

Cependant, dans la sphère de la communication interindividuelle et collective, on constate déjà l'émergence de procédures qui expriment les normes relationnelles élaborées par les collectifs sur le réseau. Citons l'établissement de protocoles spécifiques de participation à des groupes de discussion (tel que, pour les novices, l'obligation de consulter les Frequently Asked Questions), le rôle dévolu aux animateurs de ces groupes, ou encore les codes de comportements (comme la fameuse netétiquette, code de bonne conduite sur le réseau), etc. Rappelons les observations déjà mentionnées dans le chapitre III : ces contraintes sociales témoignent du surgissement de fonctions médiatrices suscitées par l'usage du réseau alors même qu'il s'agissait d'en affaiblir les pressions.

Par ailleurs, et plus fondamentalement, l'objectif de suppression des intermédiaires se transforme, de par son propre mouvement, en création d'une nouvelle couche de mécanismes médiateurs automatisant la médiation. Le caractère auto-gouverné (cybernétique[172], au sens littéral "d'auto-commandement", ce qui n'est plus vraiment son sens usuel) de cette médiation, centré sur l'Internaute, résonne avec la valorisation de l'individualisme dans la sphère communicationnelle. En témoigne la vogue des logiciels de personnalisation de l'information. (Nommés aussi Webcasting, ces logiciels recueillent les thématiques sélectionnées par l'abonné, recherchent les informations et les assemblent en de véritables journaux parfaitement individualisés).

La croissance explosive du réseau (des milliers de banques de données, de revues, de journaux accessibles) a progressivement rendu impossible le projet initial d'une information transparente et d'une communication im-médiate. L'extension des fonds documentaires, le nombre d'ordinateurs connectés et les facultés de navigations hypermédiatiques ont rendu encore plus nettement incontournables les questions de l'aisance de la recherche, de l'évaluation, et de la pertinence de l'information. L'accès direct s'est estompé au profit d'agencements plus complexes. Des instruments extérieurs -transcendants ?- s'interposent désormais entre l'Internaute et l'immense marée informationnelle en crue permanente, afin d'assurer la recherche et l'évaluation des informations acquises. Les robots-chercheurs symbolisent nettement, on l'a vu, l'apparition d'une médiation automatisée, tirant profit des caractéristiques de l'informatique pour, en position de survol, sonder les milliers de sites, de banques de données et en extraire les denrées recherchées. Cette auto-médiation a induit, dans un mouvement itératif naturel, la mise en service de méta-robots qui sélectionnent les robots les plus adaptés à prendre en charge une requête. L'auto-médiation -déjà contenue en germe dans les pratiques de consultations de corpus imprimés (index, fichiers documentaires, etc.)- représente, certes, un rapport social qui se distingue nettement des formes professionnelles classiques de la médiation (éditeur, presse,...). Mais elle dénature le projet d'une relation directe, limpide avec des corpus d'informations. On peut d'ailleurs penser que la disponibilité de ces instruments va accroître l'importance des idées directrices qui forment l'horizon de sens de toute recherche d'informations, et ceci à l'encontre de ce que suggère la métaphore du surf souverain et opportuniste sur l'océan informationnel.

Qu'il s'agisse donc de la sphère interpersonnelle (bilatérale et de groupe) ou bien de la communication automatisée, la fonction médiatrice se renouvelle plus qu'elle ne disparaît, tout en s'inscrivant dans le cadre général d'une visée à l'élargissement des espaces d'autonomie individuels et collectifs. Si le projet initial consistait à promouvoir une relation directe de tous avec tous, ce qui se profile institue à nouveau, autour de l'auto-médiation, une fonction séparatrice singulière et prometteuse.

C - L'univers de l'hypermédiation : une éclipse de la séquentialité ?

On définira, ici, la séquentialité (ou la linéarité) comme une structure d'appropriation fondée sur la succession d'expression orales ou écrites, de figures, de sons, d'images contraintes par un support. Ces expressions relèvent d'une spatialisation (comme dans l'écriture alphabétique basée sur la ligne ou l'imprimé organisé en pages numérotées) ou d'une linéarité temporelle comme dans le flux cinématographique, radiophonique ou télévisuel... et dans le langage, ce qui n'est pas le moindre des enjeux. La séquentialité s'oppose à la présentation parallèle d'un ensemble d'informations telle que la page d'un quotidien -contenant simultanément plusieurs articles de poids éditorial équivalent ou inégal- en donne un premier exemple et les conversations d'une réception mondaine, un autre. Séquentialité rime avec ordre univoque, continuité, linéarité, accès par exploration systématique du support (comme sur une bande vidéo) et s'oppose à parallélisme, simultanéité, accès direct (comme sur un disque numérique).

Cette structure séquentielle serait, à première vue, bousculée par l'hypermédiation (parcours chaîné de d'informations sur le Web par hyperliens, consultation interactive de CD-Rom, etc.). Nous souhaitons montrer que la structure linéaire n'est peut-être pas si obsolète qu'on le dit souvent et que les modalités de fréquentation des corpus numérisés soulignent assez distinctement les qualités qu'elle véhicule, surtout lorsque ces qualités se combinent à la puissance des outils de recherche issus de l'informatique documentaire. On en déduira que les formes contemporaines d'organisation et de présentation des connaissances, décuplant la puissance des dispositifs de circulation dans les corpus, se doivent d'articuler -et non d'éliminer- les mérites propres de la séquentialité avec ceux de l'hypermédiation.

Nous envisagerons cette question sur trois axes :

- la circulation hypermédiatique,

- l'inscription de la pensée dans ses rapports avec l'ingénierie numérique,

- la réception des récits interactifs.

Séquentialité, circulation hypermédiatique et décontextualisation

Les gains cognitifs liés à l'exposition hypertextuelle de connaissances sont fréquemment rapportés à l'économie de contextualisation qu'elle permettrait. L'écriture hypertextuelle effacerait l'obligation de contextualiser l'information présentée parce que ce contexte serait toujours déjà présent dans les liens mobilisables. La mise en ligne par les réseaux numériques de la connaissance produite (banques et bases de données, édition électronique de revues scientifiques, de journaux, sites d'information de toute nature, etc.) réaliserait l'idéal encyclopédique d'une totalisation de la connaissance passée, augmentée d'une actualisation quasi instantanée. Nombre d'analyses contemporaines[173] insistent sur la décontextualisation ainsi obtenue par omniprésence du contexte qui ne requerrait plus une délimitation ferme entre un énoncé et les références qui lui sont connexes. La continuité référentielle découlerait des liens hypermédiatiques reliant chaque item à tous les autres sur la "toile".

Mais quel intérêt présente une activation continue des multiples liens qui rapprochent des thématiques dont les rapports, au bout de trois ou quatre générations de sélection de liens, deviennent opaques ? Suivre tous les liens est, bien sûr, impossible. Finalement, le lecteur pondérera les chemins suivis, retrouvant la nécessaire sélection, plus ou moins volontaire, qui est à la base de toute construction cognitive. L'idée d'une décontextualisation totalement explicitée et que l'on pourrait s'approprier complètement rabat la question du contexte sur la pure matérialité de son inscription. Elle ignore le volet subjectif, intentionnel et non intentionnel, de toute circulation dans un ensemble de connaissance.

Bernard Stiegler aborde, lui aussi, la question de la contextualisation, mais à partir des médias fondés sur le flux instantané : "Les objets temporels industriels (les produits des industries de programmes : radio et télévision principalement) dans la simultanéité et la mondialité de leur réception, tendent à suspendre toute contextualité. L'industrialisation de la mémoire accomplit la décontextualisation généralisée"[174]. Ses analyses procèdent par comparaison avec des problèmes similaires engendrés par la pratique de l'écriture. On sait que la décontextualisation provoquée par l'écriture entraîne une recontextualisation des interprétations par la lecture. Cette structure en deux temps, différant le moment de la réception, est bouleversée par l'instantanéité des télécommunications modernes. Mais doit-on dénier, pour autant, toute composante herméneutique à la réception des flux médiatiques sous prétexte que le destinataire ne peut plier le déroulement temporel du flux à son interprétation ? Négligeant le fait que toute réception, y compris celle d'une émission de télévision opère aussi par tri, pondération, rétention sélective, Bernard Stiegler a tendance à projeter la délocalisation de l'émission sur le destinataire ("...une rythmique quasi-intégralement délocalisée, provenant, par les réseaux de télécommunications, d'un ailleurs anonyme, satellitaire, sans ici ni maintenant..."[175]) comme si la réception n'était pas aussi une activité dans laquelle est impliquée le tout de l'histoire d'un sujet et des communautés qui le constituent. Et surtout, le contexte actuel de la crise de confiance, dont on s'est déjà expliqué, majore fortement cette activité, oeuvrant à l'encontre d'un couplage mécanique du récepteur avec l'industrie télévisuelle normalisée. À la figure du grand tout, totalement et librement offert des prosélytes du réseau, Bernard Stiegler oppose, dans le champ de la télévision, celle du grand "autre", tyrannique et prescripteur. Bien sûr, il laisse entendre, à raison, que les "idiotextes" en cours d'émergence (textes, hypertextes, hypermédias conçus et décryptés selon des situations singulières, locales) possèdent une dynamique relocalisante, recontextualisante, hétérogène à celle des produits de la culture de flux. On suivra ici Bernard Stiegler, en considérant que la réception de la connaissance hypermédiatique -qui consiste à métaboliser le traitement de l'information pour en s'en fabriquer de nouvelles connaissances- relève d'un nouveau régime de construction de la croyance, marqué par l'expérimentabilité, et dont nous avons tenté précédemment de situer les enjeux. La numérisation hypermédiatique peut, formellement, contester la linéarité d'un récit, d'une explication, d'une circulation dans un ensemble d'informations. Mais la circulation hypermédiatique par liens associatifs va probablement renforcer le caractère stratégique de l'énonciation séquentielle, parce que le choix d'une succession, l'élection d'un chemin unique enchaînant des idées et constituant une démonstration, va revêtir un caractère "luxueux", en rapport avec l'affirmation d'un regard, d'un point de vue, qui donne sens à la multitude des propositions qu'offre un hypermédia, selon toutes les combinaisons possibles[176].

Ces affirmations reposent sur l'un des enseignements à forte teneur heuristique issus de la problématique des technologies intellectuelles. Leur capacité à augmenter des connaissances ne procède jamais par une libération des contraintes qui président à leur inscription. Bien au contraire, c'est dans un travail contraint indexé sur ces inscriptions que gît leur vertu d'accroissement cognitif. C'est parce que Mendeleïev classe spatialement les éléments chimiques selon deux critères, et deux seulement, qu'il peut prévoir l'existence d'éléments non encore découverts. La force des contraintes, la concision de l'expression est dans un rapport direct avec la puissance d'élucidation obtenue. La séquentialité, sous cet angle, est une figure imposée, expressive en tant que telle. Ce texte, par exemple, pourrait fort bien être présenté sous forme d'ensembles d'énoncés reliés par des liens hypertextuels. L'effort du rédacteur s'en serait trouvé notablement allégé. Il n'est pas sûr, en revanche, que le lecteur y gagnerait en compréhension des idées développées et de leur articulation. Les écrire les unes après les autres -et l'ordre adopté n'est jamais le seul possible- transcrit un choix d'enchaînement ainsi que des pondérations qui expriment le sens, pour l'auteur comme pour le destinataire, des propos présentés. Pour le lecteur, s'affranchir de ces contraintes de séquentialité au profit d'une circulation/vagabondage dans des ensembles corrélés d'informations n'est pas une garantie d'augmentation cognitive, si tant est que l'intérêt d'une recherche dépend de la consistance des orientations qui y préside.

La tentation permanente que représente la possibilité d'activer des liens hypertextuels, obligent d'ailleurs les concepteurs de sites à imaginer des procédés destinés à capter le consultant afin qu'il ne quitte pas le site en cliquant sur la première zone colorée venue. La parade consiste, par exemple, à supprimer la possibilité de cliquer immédiatement sur un lien et à hiérarchiser les liens en ne donnant que les adresses électroniques non cliquables de certains sites jugés d'intérêts secondaires. Le zapping hypermédiatique est une affection que les producteurs de sites doivent combattre comme leurs homologues à la télévision.

Il est vrai qu'une lecture est aussi une recherche et que les orientations qui guident cette recherche peuvent, bien sûr, être modifiées par les cheminements empruntés. Mais, pour conserver leur productivité intellectuelle, ces orientations doivent, sinon préexister formellement, du moins procéder d'une interrogation préalable et se construire dans l'exploration. Sinon une lecture devient un vagabondage sans principe. Chaque passage dans un site se réduit à une commutation vers un autre et "surfer" dans des sites et des banques de données devient assez rapidement compulsif ou ennuyeux.

Une cartographie intensive des chemins de navigation

Afin d'offrir des outils intellectuels synthétisant les explorations de grands corpus de connaissances, de nombreuses recherches portent sur la visualisation tridimensionnelle de "paysages de données". À Montréal, des chercheurs ont mis au point une interface qui, par "copier/coller" permet d'associer à une requête, une portion du graphe de circulation dans des sites Web, afin de la renouveler automatiquement. Au Medialab du M.I.T. à Boston, c'est une interface de visualisation du Web en réalité virtuelle qui est étudiée. WW Movie Map présente des informations organisées sous forme de "paysages de données" : Galaxy of News pour la presse, Financial View Point pour la finance, Geo Space pour la géographie. Toujours dans le Massachusetts, mais à l'Institut de la visualisation et de la recherche sur la perception de l'Université Lowell, R. Pickett développe des programmes d'appréhension sensorielle de grands gisements de données, qu'il invite à parcourir en utilisant à la fois l'ouïe, la vue et le toucher (grâce à des interfaces à retour d'efforts qui permettent de ressentir physiquement des objets virtuels)[177]. L'idée centrale est d'appliquer à de grandes quantités d'informations brutes des procédures qui les organisent pour elles-mêmes et de constituer ainsi automatiquement des systèmes d'interprétation qui préparent la reconnaissance et l'exploration humaine. Exploitant des capacités humaines, telles que celles qui nous permettent de reconnaître facilement une personne, ces chercheurs préconisent de transformer, par exemple, des ensembles de données en visages afin qu'on puisse facilement les identifier et les regrouper en familles. D'autres recherches, relatives au séquençage du génome, visent à traduire en musiques spécifiques certaines séquences d'images d'acides aminés. Le système CAVE, développé à l'Université de l'Illinois, affiche, dans un environnement de réalité virtuelle, des images de données avec lesquelles on peut interagir.

D'autres outils, de facture plus simple, expriment aussi avantageusement la richesse de ces médias. Se fait jour, en particulier, la nécessité de cataloguer les liens en précisant leur degré d'intérêt et surtout la nature de l'association dont ils sont porteurs. Un site -ou une information- peut, en effet être associé à un autre selon une multitude de relations (caractère exemplaire ou au contraire généralisation, connexité faible ou forte, etc.). Celui qui consulte ces informations gagnerait à se voir préciser le type d'associativité mobilisé. Certains langages hypertextuels le permettent, notamment par l'ouverture de fenêtres associées au lien. Il serait très productif aussi -en conception de sites comme en navigation- de pouvoir graduer l'intensité du lien reliant une connaissance à une autre, une image à une autre, etc. L'objectif consiste à faire sentir, dans le graphe ou la carte d'un ensemble hypermédia, les chemins structurants, les colonnes vertébrales essentielles. On devrait pouvoir tester différents systèmes de catalogage des liens hypertextuels. Des cartographies d'ensembles d'informations feraient alors apparaître, non pas des items massivement interconnectés, mais des autoroutes, des nationales et des chemins vicinaux reflétant la vision subjective des concepteurs. Ces possibilités commencent à se concrétiser sur le Web[178].

Par de multiples canaux, la séquentialité qu'on a cru pouvoir chasser par la porte fait retour par la fenêtre. L'inscription des chemins suivis de site en site par la mobilisation de liens hypermédiatiques, en est un témoignage. La "traçabilité", ainsi que l'on nomme cette mémorisation, reconduit une forme de séquentialité sécrétée au coeur même de l'hypermédiation, puisqu'elle manifeste l'intérêt reconnu à conserver une trace de passage dans le foisonnement des sites parcourus. Bien entendu, à la différence d'autres supports (pages numérotées de livre ou bande vidéo, par exemple), cette linéarité est éminemment subjective, puisqu'elle inscrit la succession des choix propres à un parcours et disparaîtra ensuite, sauf action volontaire visant à la conserver. Ce marquage automatique ne sera vraiment exploité que si une orientation directrice préalable fonde le cheminement. Sinon, la trace inscrite n'aura d'autre fonction que de témoigner du papillonnage effectué. La vogue récente des "anneaux" -groupements thématiques par affinité de sites dans lesquels on passe nécessairement d'un site à son successeur dans la chaîne bouclée[179]- est sans doute aussi à verser au dossier de la résurgence de la linéarité.

De la même manière, l'intérêt d'une ligne directrice se fait particulièrement jour dans le cadre des consultations "savantes" sur Internet. S'y exprime le désir de pouvoir bénéficier d'une visite commentée par un spécialiste, des sites qu'il a sélectionnés, décrits, hiérarchisés et dont il a précisé les relations avec la thématique centrale. Prolongement de la bibliographie commentée, ce type de site devient, pour certains domaines, d'une urgente nécessité. On découvre, à nouveau, dans le contexte de l'hypermédiation, la pertinence d'un méta-parcours séquentiel. Apparaissent, ainsi, de nouveaux alliages entre linéarité et hypermédiation qui renforceront probablement les deux qualités, sans substituer la deuxième à la première. Fondamentalement il s'agit de résumer, de compacter, d'exprimer les structures organisatrices d'un champ de connaissances dans un schéma qu'on peut saisir par le regard. En effet, il ne faudrait pas penser cette question de la linéarité de manière régressive, en la rabattant, par nostalgie, sur la culture de l'imprimé, transformant celle-ci en horizon indépassable. Bien qu'épousant en apparence l'écoulement fléché de la temporalité, la linéarité n'est en rien "naturelle", comme en témoigne l'intense parallélisme de nos activités mentales, y compris intellectuelles. Et c'est précisément cette "artificialité" qui doit être exploitée comme contrainte heuristique. La question de la séquentialité est intimement liée à celle de la causalité : "après" sous-entend souvent "par conséquence". Le caractère fondamental de la linéarité tient au rapport entre la structure temporellement fléchée de notre perception et la malléabilité temporelle de nos mises en scène mentales individuelles et collectives. Sous cet angle, la linéarité est une force de rappel, trop souvent ignorée dans l'enthousiasme hypermédiatique actuel. Comme contrainte, elle assure une tension productive entre ces deux structures. Si l'on prétend l'ignorer, cette tension disparaît et sa productivité avec elle.

La carte, par exemple, est, apparemment, l'autre du guidage linéaire. Elle se consulte par saisie globale, parallèle, simultanée. Mais exploiter une carte, c'est aussi se construire des chemins, pratiquer des enchaînements de cause à effet, y compris si cette exploration s'opère à travers une saisie multi-sensorielle et s'ouvre à une multiplicité de séquences linéaires. Les outils cognitifs qui offrent des traductions cartographiques intensives par traitements automatiques répondent, à leur manière, aux exigences de causalités locales et générales tout en respectant la pluralité des inférences possibles.

Dans le domaine de la recherche documentaire sur de vastes corpus, Alain Lelu assure qu'on ne saurait se contenter d'interfaces de navigation définie une fois pour toutes, comme sur les CD- Roms, et qu'il sera donc indispensable "que l'utilisateur final puisse maîtriser l'appel aux diverses ressources, qu'il pourra paramétrer à sa guise ; il en ira ainsi de l'appel à des outils d'indexation automatique ou assistés, de la possibilité de sélectionner certains sous-ensembles de documents et de termes en fonction de divers critères..."[180]. Il insiste tout particulièrement sur le fait que la navigation à travers des corpus textuels étendus exige de cartographier ceux-ci en offrant à la fois une vue d'ensemble ainsi que des cartes locales.

Les outils d'analyse automatiques mis au point dans ce cadre (indexation et génération de mots-clés, cartographie) ont ceci d'original qu'ils appellent une intervention ultérieure de l'utilisateur pour éliminer ou filtrer certains résultats ou encore ajouter facilement des documents sans remettre en cause l'analyse déjà effectuée. Le mode de navigation est ainsi réglé par l'utilisateur qui peut combiner requêtes booléennes classiques, calculs statistiques de proximité, calcul de cartographie sémantique selon les requêtes composées, etc. ; bref, un véritable arsenal d'outils d'ergonomie cognitive, destinés à compacter le corpus documentaire selon plusieurs modèles possibles.

Une inscription directe, non-langagière, de la pensée ?

L'utilisation des outils intellectuels contemporains (modélisation numérique, cartographie dynamique, expertise assistée par ordinateur, etc.) nourrit l'espoir d'une représentation des situations et de la résolution de problèmes qui nous émanciperaient des contraintes propres à la séquentialité. Pierre Lévy, par exemple, théorise des propositions qui exploiteraient ces modalités cognitives. Ainsi souhaite-t-il éviter la littéralisation et la rationalisation des problèmes en leur substituant un décalque charnel de l'univers concerné qui le modéliserait automatiquement, sans devoir l'interpréter[181]. Par la suite, il écrira : "Le problème de l'intelligence collective est de découvrir ou d'inventer un au-delà de l'écriture, un au-delà du langage tel que le traitement de l'information soit partout distribué et partout coordonné..."[182].

D'où le projet d'une transmission infra-langagière transcendant les cultures nées de l'écriture et promettant un paradis communicationnel sans codes ni règles. Marshall McLuhan traçait déjà, à partir des caractéristiques de l'électricité, des perspectives similaires : "La technologie électrique n'a pas besoin de mots, pas plus que l'ordinateur numérique n'a besoin de nombres. L'électricité ouvre la voie à une extension du processus même de la conscience, à une échelle mondiale, et sans verbalisation aucune..."[183].

Pourtant l'organisation et la présentation de connaissances dans des environnements multimédias nécessitent bel et bien l'appropriation d'ensemble de savoirs syntaxiques dont on peut citer quelques linéaments : nouvelle grammaire des hyperdocuments (comme les langages de programmation H.T.M.L. ou V.R.M.L. sur Internet), engrammation de spatialisations à plusieurs dimensions, et surtout pratique des programmes quasi réflexifs. Le projet d'un saut par-dessus la phase langagière, scripturale de la pensée (quel que soit le degré de spécialisation de l'écriture), pour accéder à une phase idéographique post-langagière prétendant dépasser l'obstacle alphabético-centriste grâce aux possibilités ouvertes par l'automatisation de la gestion des inscriptions numériques, méconnaît la nature de la pensée. En effet, celle-ci se forme grâce aux pressions qu'elle subit pour s'extérioriser, s'écrire ou... s'hypertextualiser. Viser le sens indépendamment de sa transcription, c'est pointer vers une idéalité intangible[184]. Les cadres actuels d'élaboration, de stockage et de transmission de la pensée ne semblent nullement délivrés des pesanteurs de l'extériorisation dont les phases orales ou scripturaires traduisent des violences spécifiques... et productrices. Les technologies intellectuelles contemporaines initient d'autres types de violences, métabolisant sans les renier celles des phases antérieures, contraintes à tisser du sens avec et contre l'instantanéité, avec et contre la simultanéité, avec et contre l'hypertextualité. Et l'on pourrait ajouter : contre et avec la linéarité.

Linéarité et réception des récits interactifs

L'interactivité transforme le spectateur en spect-acteur et autorise l'intervention sur le déroulement des récits. Certes, la subjectivité des concepteurs s'exprime dans les cadres narratifs interactifs. Mais elle s'exprime plus difficilement que dans les formes séquentielles- si l'on conçoit que chacun des multiples parcours doit être porteur de significations ou d'émotions particulières- et plus indirectement, si le spect-acteur doit appréhender les qualités singulières des moteurs narratifs à la source des différentes propositions qu'il actualise. Mais la narration interactive n'a pas fait disparaître le récit séquentiel de l'horizon de nos désirs, et ceci pour des raisons fondamentales qui tiennent à ce que le récit séquentiel, explicitant les choix subjectifs d'un montage textuel ou cinématographique arrêté, manifeste clairement une intentionnalité, une altérité constituée. C'est pour cette raison que la forme narrative linéaire ne s'effondrera pas sous la pression de l'hypermédiation, même si elle en accueille l'influence. Elle exprime le désir qu'on nous raconte des histoires et non pas qu'on se les raconte soi-même en enchaînant des libres choix agencés par des machines narratives.

La culture hypertextuelle, ou hypermédiatique, ne dépasse pas l'ère alphabétique, elle la radicalise. De la même manière que, sous l'angle de la conservation, la culture du livre ne dépasse pas celle de l'écriture, mais la radicalise en réalisant les promesses qu'elle ne faisait que murmurer (le voeu d'une inscription définitive, voeu que seule la multiplication à l'identique de l'imprimé viendra exaucer).

D - La retraite de l'auteur et l'amour des génériques

La culture des réseaux rend-elle obsolète le statut de l'auteur individuel ? On sait que la notion d'auteur individuel et le souci de l'attribution personnelle des oeuvres (écrites ou picturales) prennent leur essor à l'ère de l'imprimerie[185]. On a vu comment, élargissant cette démarche, des courants de l'épistémologie contemporaine ont mis en lumière l'importance de la mobilisation de réseaux sociaux dans l'élaboration des connaissances nouvelles (l'étude, par Bruno Latour, de la découverte du vaccin par Pasteur est un modèle du genre). On rappelle, que dans cette perspective, l'auteur, le découvreur devient un noeud singulier par lequel passent des groupes sociaux ; il se réduit à une interface entre des réseaux, au mieux un agent capable de potentialiser la rencontre de lignages hétérogènes. Réactualisant une forme de pensée structuraliste (le locuteur prête ses lèvres au langage, ici l'inventeur prête son cerveau et ses instruments aux réseaux socio-techniques), ces courants s'en séparent cependant dans la mesure où ils n'ont pas recours à des structures universelles qui "surdétermineraient" les acteurs. Dans la "sociologie de la science", l'idée des grandes Idées fait place à l'étude des bricolages astucieux et des manipulations rusées qui permettent de contrôler et d'enrôler d'autres réseaux d'acteurs. L'acteur lui-même perd son individualité anthropologique. Il devient un élément composite, un alliage humain/non-humain mêlant des personnes, des stratégies de prélèvements sur la "nature" et des systèmes techniques.

Une vue superficielle pourrait laisser croire, qu'à travers les réseaux, l'auteur singulier disparaît au profit d'agencements collectifs qui seraient devenus la seule source productrice des connaissances[186]. Nous avons déjà discuté la validité de cette assertion. Qu'il faille prendre la mesure du caractère culturellement et techniquement distribué de toute création (artistique, scientifique, etc.), on ne le contestera évidemment pas. En revanche, doit-on tenir pour argent comptant l'idée que les télé-technologies annihilent le sujet créateur sous sa forme personnelle ? Ces vues -qui font signe (de manière nostalgique ?) vers l'époque classique où l'auteur, vu comme sujet individuel, n'a pas d'espace propre- font de la création un processus d'émergence absolument collectif.

À l'ère des réseaux et de la complexification des alliages numériques façonnant notre outillage intellectuel, le sujet individuel me semble devenir, a contrario, un point de passage stratégique, plus nettement même qu'à l'époque de l'imprimerie triomphante ou de l'audiovisuel conquérant. La profusion des sources de production d'informations et la densification -hypermédiatique, notamment- des relations entre ces corpus majore l'importance du moment de la synthèse individuelle, du jugement subjectif personnel, de la production d'idées réorganisatrices originales. Que ce moment soit pris et produit dans un chaînage techno-culturel, on l'accordera sans peine. Que les maillages actuels des réseaux densifient ces chaînages comme jamais auparavant et qu'ils mobilisent l'automaticité des programmes informatiques à un degré inédit, on ne saurait trop le souligner. Mais diagnostiquer, pour autant, la disparition de l'auteur, c'est aller bien vite en besogne.

Il n'est que de constater à quel point notre époque est amoureuse des génériques -et en particulier dans le multimédia- pour s'en convaincre. Dans le moindre CD-Rom, dès qu'un site sur le Web semble relever de la création artistique, personne ne doit être oublié (comme dans l'audiovisuel). L'importance croissante de la signature des articles scientifiques -de la hiérarchie des signatures, plus exactement- ainsi que le développement des logiques citationnelles (comptage du nombre de citations faites à un auteur dans les publications d'un domaine) abondent dans le même sens. (Certains logiciels sur Internet s'attachent même à débusquer les renvois systématiques d'ascenseurs pour éviter que des légitimités s'établissent sur le dénombrement automatique des références). Parallèlement à la systématisation de la coopération productive, plutôt qu'un évanouissement, c'est bien une hypertrophie de la signature qui se propage. Le contexte de l'hypermédiation devrait plutôt inciter à penser un concept d'auteur en collectif (et non d'auteur collectif) qui dépasse la dénégation de l'individualité au profit d'un renforcement parallèle des deux pôles.

E - Panoptisme et réglage individuel des trajets

Corrélativement à l'expansion des technologies de l'image, nos représentations de l'espace sont en mutation. De nouvelles formules de visibilité se découvrent, mues par de puissants mouvements inséparablement culturels et techniques qui, par exemple, transforment la cartographie, valorisent le réglage des échelles de vision et confèrent un nouveau statut au détail. S'y expriment aussi des confrontations originales entre individualisation et collectivisation du regard. Comment interpréter ces figures visuelles, non plus sous l'angle des rapports entre territoire et inscription, mais comme représentation de l'espace ? S'agit-il d'une abdication de tout dessein panoptique par prolifération des vues ? À moins que l'on y décèle une revanche d'un panoptisme d'auto-contrôle, sous les auspices d'une dissolution de toute expérience collective au profit d'une perception purement individuelle de l'espace. Après avoir décrit quelques propositions particulièrement exemplaires des nouvelles scènes spatiales en construction, nous montrerons que, sur ce terrain aussi, des régimes inédits combinent unicité collective et définition subjective individuelle des représentations spatiales. On verra donc comment la fragmentation et l'individualisation autorisent le maintien d'un nouveau genre de point de vue panoptique global.

Échelles de vision et libres ballades urbaines

Face à un écran géant, on tient la terre entière sous sa main, grâce à une manette de commande. La planète numérisée offre chacun de ses continents à une descente (aux enfers ?) par un zoom continu (ou presque, car les cartes qui correspondent aux différents niveaux de vision se raccordent avec un certain temps de latence). Le dispositif T-Vision[187] se rapproche progressivement d'une carte régionale, puis locale, enfin d'une vue aérienne (issue d'images satellitaires mapées sur ces cartes), dans laquelle on pénètre jusqu'à apercevoir des détails tels que des immeubles, des carrefours et des rues. Les Systèmes d'Informations Géographiques mettent en oeuvre les mêmes procédés. Par zooms ou agrandissements d'une rue, d'un quartier, d'une ville, on circule, en continuité, du plan local à la carte de France.

Comme dans le film Les puissances de dix, la plongée dans l'image ressemble plus à un survol, depuis l'espace, et à un atterrissage qu'à la saisie d'un panorama. L'effet de simulation réside ici dans l'irréalité d'un franchissement accéléré des échelles de vision, depuis l'observation à partir d'un satellite jusqu'à la focalisation rapprochée. Il ne s'agit pas seulement de l'hétérogénéité des échelles. À cela, les dispositifs optiques nous avaient déjà habitué. Ici, en revanche, le lissage est continu entre ce que le regard humain peut saisir (une rue, une place) et ce qui exige un artifice technique (voir simultanément la rue et le plan de la ville ou contempler la terre depuis l'espace, par exemple). L'élision de la frontière entre ces deux types de saisie dessine un espace lisse et partout disponible, ouvert à tous les trajets visuels, à l'image de la métaphore de la "toile", enserrant le globe dans ses mailles en constante densification. Une fois que toutes les données cartographiques et topographiques terrestres seront réunies et stockées dans la mémoire de la machine -ce qui est loin d'être le cas- le mythe panoptique sera-t-il réalisé ?

Le CD-Rom "Paris"[188] poursuit, à l'échelle d'une ville le même type de projet. Ici, on se ballade dans Paris ; sorte de flânerie urbaine sur écran, avec des fonctions de déplacement et de vision assez évoluées, prenant comme modèle la libre déambulation dans un espace urbain. Cette déambulation est assistée par les fonctions propres au visionnage numérique (déplacement sur plan, signalétique surimprimée par des flèches, fenêtres d'informations sur les sites, monuments, etc.). Face au plan de la ville, le promeneur choisit son point de départ : le pont Neuf, par exemple. À chaque carrefour, le flâneur peut choisir sa direction. Rotation d'un tour sur soi-même pour découvrir le panorama, zoom avant dans la direction indiquée par une flèche, la visite se poursuit selon ses inclinations. D'où la promesse de cette réalisation : un déplacement, par zoom, en un infini plan-séquence qui nous amènerait, à partir d'un site, en tous points de l'espace visible.

Mais est-il possible de s'engouffrer dans une ruelle entr'aperçue au détour d'une promenade, ou d'entrer dans l'échoppe, là juste à droite ? Fameux désir de transcrire l'infinie profondeur de la réalité dans un média nécessairement fini. Car les capacités de stockage limitées du CD-Rom ne permettent pas d'emmagasiner toutes les rues de Paris. Et la génération des DVD- Rom, reculant les limites, ne parviendra pas plus à capturer toutes les cours d'immeubles avec leurs recoins, tous les escaliers et tous les intérieurs d'appartements. Un système mondial omniprésent de Webcams, d'une densité aussi serrée qu'on voudra n'y suffirait pas plus. On comprend qu'il ne s'agit pas là d'une limitation de l'espace- mémoire des supports ni de la quantité d'équipements de transmission télécommandés nécessaire, mais de l'impossibilité constitutive d'envisager l'explosion fractale des curiosités potentielles : curiosités qui se révèlent, non pas en tant que projets préalables à l'exploration, mais dans son cours même. Faire reculer sans cesse les contraintes qui enserrent nos déplacements, augmenter sans répit nos latitudes exploratoires, nourrit parallèlement notre insatisfaction face à des promesses qui, se voulant approcher la vraie vie, nous font miroiter toujours plus de libertés. La frustration en est d'autant plus vive ; ce faisant, elle devient un moteur pour relancer une quête que l'on sait sans fin.

"Place" ou l'intérieur et l'extérieur en court-circuit

Avec Place-A User's Manual[189], l'artiste Jeffrey Shaw renouvelle, avec les moyens de l'imagerie interactive, le genre "diorama" et imagine ainsi une nouvelle formule panoptique. Placé sur une plate-forme, au centre d'un cylindre, le visiteur manipule une caméra-interface qui fait tourner la plate-forme motorisée. Sa rotation délimite une portion de l'écran circulaire, toujours en face de lui. L'image projetée représente une série de cylindres (une dizaine en tout) sur lesquels des panoramas (numérisés à partir de photographies prises avec de très grands angles), eux-mêmes circulaires, sont affichés[190]. La caméra-interface permet de contrôler le déplacement, deux boutons commandant les zooms dans les panoramas. Arrivé très près du cylindre, une rupture se produit et on se retrouve à l'intérieur du panorama circulaire, découvrant le paysage sur la surface englobante du cylindre devenu enceinte. Mais en arrière-fond, derrière le paysage affiché, se dessinent les autres cylindres aperçus précédemment. Un autre zoom et l'on franchit à nouveau la surface pour retrouver le paysage panoramique initial des cylindres.

L'exploration librement interactive de l'univers virtuel englobant prend la forme d'un franchissement permanent de la frontière entre intérieur et extérieur des cylindres. La scène cylindrique princeps (celle d'où le visiteur déclenche l'exploration), qu'on pourrait nommer le lieu réel de la visite, se redouble dans la forme cylindrique des lieux visités. Lesquels sont parcourus, selon notre choix, par leur surface externe ou interne. Vision d'un espace paradoxal où l'intérieur contient l'extérieur et où l'extérieur s'affiche à l'intérieur. Cet espace courbe se dérobe au contrôle panoramique (indissolublement visuel et moteur), non pas dans le point de fuite de l'espace perspectiviste, mais parce que les notions de proximité et d'éloignement, de successions hiérarchisées de plans, d'avant et d'après sont confondues, inversées, mises en abîme dans ce qui n'est plus une visite mais une circulation où chaque paysage contient tous les autres, à l'infini. Mixte de labyrinthe (où l'on revient sur ses pas sans s'en apercevoir), de figure paradoxale à la Escher, l'exploration rappelle la circulation hypermédiatique sans fin, où les chemins liant des sites sont parcourus plusieurs fois à partir de sites différents, si bien que naît le sentiment de découvrir à l'infini de nouveaux paysages d'un même lieu, dans une même enceinte. Une forme fractale -la partie contient bien le tout- mais selon un schéma qui se reproduit à l'identique (alors que dans une fractale pure, les générations de formes sont de même complexité mais toutes différentes). Finitude des composants spatiaux et multiplicité des trajectoires, l'oeuvre de Jeffrey Shaw -parfaite réunion de monades leibniziennes- est homogène à l'espace de la circulation hypermédiatique dans les réseaux.

"18 h 39" ou le panoptisme en surplomb

Le CD-Rom "18h39" propose de consulter "un instant photographique" présenté sous forme d'un quadrillage en seize pavés, chacun d'eux se prêtant à des avancées possibles sur quatre niveaux de profondeurs[191]. Le spect-acteur s'aperçoit très vite que le photogramme de départ est, en réalité, plus un sommaire multimédia qu'une surface opaque. Un sommaire et un instrument d'exploration tout à la fois, puisque que la photographie centrale contient les moyens de sa propre dissection. Le viseur photographique (ou celui de l'arme de précision) sert de pointeur et on peut, en effet, découvrir et actionner, à l'intérieur de l'image, des instruments de visionnage (dénommés "machine de vision" tels que panoramas, visionneuse de diapositive, séquences vidéo, plans de situation, cartes, etc.). La photographie apparaît alors comme une lucarne dont il est possible de déplacer les limites : repousser les bords, changer de point de vue pour découvrir ce qui se cache derrière un personnage ou un meuble, faire fonctionner un objet. Les limites temporelles sont, elles aussi, mobiles puisque certaines informations glanées au cours de l'exploration (films vidéo, par exemple) présentent des événements antérieurs.

Le regardeur acquiert des indices relatifs aux événements qui ont abouti à la vue de départ : séquences vidéo, analyse spectrale d'objets, sonogrammes d'un tir de fusil, fiches signalétiques d'objets, analyse d'empreintes digitales, par exemple. Cumulant tous les formes d'archives (fiches documentaires, photographies, vidéos, simulation d'objets), l'explorateur raccorde certaines bribes et établit des chaînes associatives reliant événements, objets et personnages. Fouille archéologique, enquête policière, criminologie scientifique, les genres se mêlent pour tenter de comprendre ce qui s'est passé à 18 h 39 (1839 est, rappelons-le, l'année où la photographie fut inventée). Il n'y a pas de trame narrative, mais on s'aperçoit que des indices appartiennent à des familles de faits. D'où l'idée qu'une histoire se tient en arrière plan, laquelle orienterait la succession des signes mis à jour. Mais cette histoire n'existe pas. On peut -on ne manque pas de- s'en fabriquer une. (Même si ce n'est pas son objectif, cette proposition résout de manière astucieuse, la contradiction entre narration et interactivité. Pas d'histoire, mais des matériaux, des trames, des associations pour s'en fabriquer autant qu'on veut. Toutes sont valides et consistantes puisque c'est nous qui les imaginons, avec leurs incongruités éventuelles, et qu'aucune n'a été conçue en particulier. C'est, en creux, tout l'intérêt de la réalisation : montrer qu'un moteur narratif fonctionne toujours en nous). La scénographie d'ensemble combine astucieusement des plongées qu'on peut croire infinies dans des détails avec un retour régulier à l'image initiale. Si bien que le sentiment d'une réalité de complexité insondable, provoqué, en particulier, par la multiplication des niveaux d'analyses, ce sentiment est tempéré par le rappel constant à une représentation centrale. La grille matricielle en fil de fer, appliquée sur cette image symbolise assez bien l'alliance entre l'autonomie de chacune de ses parties d'une part, et le maintien d'un certain contrôle panoptique global, de l'autre. Mais, bien sûr, il s'agit là d'un panoptisme original qui nous confirme qu'une image dissimule autant qu'elle révèle.

Un panoptisme distribué

Nous avons volontairement choisi des champs d'activités hétérogènes (oeuvres artistiques et outils d'informations logistiques) pour questionner le statut de l'espace tel que les technologies numériques le modèlent et le présentent. Mais comment comprendre ces diverses propositions ? Quel cadre d'analyse permet d'en révéler les mouvements princeps ? On se souvient que Foucault symbolisait la société de surveillance par le panoptisme. Lequel supposait un centre unique de vision, lieu du pouvoir. Ici, le "tout visible" cher au projet panoptique est remplacé par une autre formule, le tout réglable, pénétrable, mais grâce aux décisions du regardeur. Et, surtout le centre panoptique est potentiellement démultiplié puisqu'il se confond avec la disponibilité du dispositif. Il est vrai que T-Vision reste un prototype nullement appelé à s'installer dans nos foyers. Mais d'autres équipements, notamment de guidage routier, s'apprêtent, eux, à offrir largement leurs services. Ètudiés selon les mêmes principes, ils permettent, outre la localisation dynamique, de régler les échelles de vision.

En revanche, l'unicité de l'espace -que symbolisaient les cartes imprimées - n'est plus une donnée évidente. Elle devient un horizon abstrait : la même Terre, la même ville mais qui se déforme selon les inclinations de chacun. Les trajets sont multiples, subjectifs, seul leur champ d'opération est maintenu commun (le globe, Paris ou une zone géographique). Au tout visible, à partir d'un lieu unique et surplombant, fait place un panoptisme collectif, truffé d'instruments de navigation à l'image de la possible commande par tout un chacun, via Internet, d'une photographie satellitaire de n'importe quel point du globe avec une précision digne des services de renseignements militaires[192]. Le panoptisme moderne est distribué. Ce n'est plus l'oeil du maître qui en est le siège, chacun peut s'y exercer. Mais, différence fondamentale, en sachant qu'une portion seule de l'espace lui est visible ; celle, finie, correspondant à ses trajets.

On pourrait, à première vue, affirmer que le nouveau panoptisme qui s'invente illustre parfaitement l'omniprésence du réglage individuel des parcours. Mais alors pourquoi continuer à parler de "panoptisme" et ne pas y substituer la diffraction individuelle de l'observation ? Une telle interprétation ne rendrait pas compte d'un phénomène essentiel : l'obsession d'une saisie commune de l'espace, de son rassemblement dans une même vue techniquement organisée. L'interprétation orwellienne (le contrôle absolu par un regard anonyme et omniprésent), tout comme la perspective strictement individualiste, monadologique, ne semblent pas rendre compte des scénographies spatiales qui s'installent dans nos modernes fenêtres.

Les Webcams[193] sur Internet, sortes de viseurs démultipliés par lesquels chacun peut voir ce qu'un autre a décidé de lui montrer, relèvent d'une exposition généralisée. Mais ces lucarnes ouvertes à qui veut bien s'y glisser délivrent une vue fragmentée de l'espace. Et l'exhibitionniste, même s'il autorise la manipulation, par l'Internaute, de la caméra, conserve le contrôle des champs de vision. La multiplication des Webcams fait signe vers une couverture instantanée complète des vues possibles sur la planète, une improbable saisie de toutes les images du monde où chacun met son regard à la disposition de tous. Cet exercice "d'omni-diffusion", est le pendant visuel de la conversation multipolaire, éclatée qui s'alimente sans cesse sur le réseau. "Vu sans savoir qui voit" (et non plus seulement "voir sans être vu") pourrait en résumer le fonctionnement ; idéal d'un panoptisme réparti en autant de volontés assurant la diffusion d'un morceau infime du grand puzzle non-totalisable.

Paul Virilio, dans son article "OEil pour oeil, ou le krach des images"[194], interprète unilatéralement le développement des Webcams dans une perspective de contrôle généralisée. Les Webcams deviendraient "des régies vidéo des comportements", "postes de contrôle de la perception du monde". Le panoptisme est logiquement sollicité dans une version inquisitrice classique, avec le "marché du regard" ouvrant au "panoptique de télésurveillance généralisée". Mais ce diagnostic présuppose qu'un oeil unique est en position sommitale pour totaliser toutes les observations (et symétriquement qu'un corps unique produit toutes les exhibitions). Or c'est bien à l'opposé du rassemblement des points de vues qu'oeuvre la diffraction des télé-regards par Webcams interposés. Et si l'on osait une prédiction socio-technique, il faudrait postuler l'émergence d'une industrie du rassemblement des images de Webcams, aujourd'hui indépendantes, à l'aide de puissants robots- chercheurs visuels organisant l'affichage gradué des visions du local, au régional puis au mondial, avec toutes sortes de focalisations spatiales, thématiques, etc. La dialectique diffraction/réunion -autre manière de nommer la question du mode de collectivisation de l'expérience sociale- n'a probablement pas fini de nous étonner

L'oeuvre de Jeffrey Shaw (Place) manifeste, elle aussi, l'impossibilité d'un point de vue unique dès lors qu'aucune position ne permet une véritable vision panoptique, impliquant le contrôle d'un espace devenu réversible. Sous les espèces de la fusion de l'intérieur et de l'extérieur, là aussi, l'obsession de la clôture de l'espace est évidente. Bien qu'on y voyage librement et indéfiniment, on ne sort pas du paysage. Tous les lieux de la Terre rassemblés dans une même base de données et liés continûment les uns aux autres, tous les sites d'une ville accessibles par les mêmes procédures, tous les réseaux fonctionnels d'une commune mémorisés sur un même support : comment ne pas y déceler la marque d'une inquiétude, celle d'une fuite des repères communs ? Mais aussi une réponse assez forte à cette inquiétude, sous la forme d'un compromis ingénieux maintenant le cadre collectif tout en organisant la dispersion des saisies et des trajets.

F - Le régime temporel des télé-technologies : ralentir la communication

Lorsqu'on diagnostique, comme Paul Virilio, l'assomption de l'instantanéité (l'arrivée précédant le départ) comme forme dominante régissant les espaces public et privé, n'érige-t-on pas trop rapidement -c'est le cas de le dire- la vitesse en ordonnateur de civilisation ? Ne néglige-t-on pas une composante essentielle de la programmatique, poussant, malgré l'accélération de l'acte communicationnel lui-même, à ralentir le régime social de la communication.

L'usage du concept de "temps réel" révèle, tout particulièrement, les doutes qu'on peut avoir sur ces diagnostics. Mûri, au cours des années cinquante dans les arcanes du M.I.T., à travers les recherches militaires d'automatisation de la couverture radar du territoire américain (le fameux programme SAGE), la notion de "temps réel" s'est socialisée dans l'univers de l'informatique des années soixante-dix lorsque la mise en oeuvre des programmes est devenue "conversationnelle". Cette désignation qualifie des applications (machines et logiciels) dont le temps de traitement est compatible avec le phénomène à contrôler (quelques secondes pour une billetterie automatique, quelques millièmes de secondes pour des dispositifs de sécurité dans les transports, par exemple). En caractérisant le régime temporel contemporain par ce concept de "temps réel", on identifie la quasi-instantanéité du calcul informatique avec les conditions d'usage des programmes. Or, si le traitement interne s'effectue bien en "temps réel", le traitement externe -qu'on nomme aussi interaction- épouse une toute autre logique, celle de la temporalité humaine de saisie, de questionnement, parfois de doute, de décision et finalement d'action.

On fait trop souvent un usage décalé du concept de "temps réel". En fait, il exprime parfaitement le régime des télécommunications dès lors que la réception coïncide avec l'émission. Dans la communication de flux (radio, télévision), l'adéquation est parfaite. Sur un plan temporel -et non sémiotique ou affectif- la réception épouse l'écoulement linéaire de l'émission. (On pourrait d'ailleurs faire remonter la notion de temps réel au processus "indiciel" de la prise d'empreinte, avec la capture photographique de l'apparence, dès que les temps d'exposition eurent été réduits à la commutation de l'objectif). Avec l'installation massive des procédures informatiques, le régime temporel dominant s'infléchit à nouveau en redécouvrant des modalités de différance, d'espacement, d'attention propre au traitement de l'information, modalités qui exigent une durée et non pas une simple affiliation à un flux. Mise en oeuvre de logiciels de traitement de texte, exploration interactive de CD-Rom, activation de jeux vidéo, navigation sur Internet, pour ne citer que quelques activités phares de l'ère du traitement de l'information : toutes pratiques qui nécessitent une série de choix, de réglages, de manipulation d'interfaces. Ces fréquentations se déroulent dans une durée qui n'est plus programmée par un flux indépendant des acteurs, mais qui dépend du jeu de l'interaction.

L'automatisation (dont Gilbert Simondon nous a appris qu'elle ne simplifie pas les processus auxquels elle s'applique mais les complexifie) accélère le traitement de l'information mais ralentit son appropriation. La formalisation des savoirs dans des logiciels spécialisés a pour conséquence d'augmenter la longueur et la difficulté de leur mise en oeuvre. Du traitement de texte à l'usage d'un photocopieur, tout le monde a pu se convaincre que le perfectionnement des versions -rimant avec automatisation grandissante- était dangereusement chronophage. Survivance de la logique de l'enregistrement et parfaite expression de la télédiffusion (de textes, de sons et d'images), l'instantanéité ne caractérise plus le paradigme temporel qui émerge à l'ère du traitement de l'information et des connaissances. La toute-puissance du "temps réel", la prédominance de l'immédiateté s'altèrent progressivement au profit de régimes qui renouent, par certains aspects, avec ceux de la lecture/écriture et des logiques éditoriales : temps différé, variabilité des durées, ajournement des effets immédiats d'une diffusion de programmes dont il appartient à chacun d'actualiser les règles.

Nous avons proposé de nommer "présentielle" cette confrontation locale, par opposition à la culture du "temps réel" fondée sur une sollicitation -jamais totalement réalisée- d'absence à soi exprimée dans une invitation projective. Par opposition, aussi, à la lecture où les dimensions de "présence" dans le récit sont quasi-exclusivement interprétatives, imaginaires (si on fait abstraction du rapport mécanique, automatique à la conformation matérielle du livre ou d'autres supports imprimés). Avec la posture interactive, on l'a vu, le transport imaginaire s'articule plus nettement avec les dimensions corporelles (enchaînements de gestes, de vision, d'audition propres à l'exercice de l'interaction). Dans l'univers des récits interactifs, par exemple, les transports obligent le spect-acteur à se prendre comme objet de questionnement, l'assignent au choix, à la décision, où encore à l'exploration de l'écran, tout ceci ordonné par un moteur narratif organisant la pluralité des parcours possibles. Cette confrontation fait alterner les phases d'adhésion/pénétration dans le récit, et de décrochage -recherche aveugle par cliquages exploratoires- ou de prise de décision dans une série explicite d'enchaînements possibles. Toutes ces postures provoquent une interpellation beaucoup plus nette qu'avec le récit audiovisuel et donnent une vigueur nouvelle à la durée locale.

Instantanéité, réactivité et programmation : une temporalité mise sous pression

Nous n'ignorons pas qu'un pan entier des usages de la programmatique vise à augmenter la réactivité (c'est-à-dire la vitesse de réaction) des acteurs et des systèmes engagés dans les mêmes activités (automatisation industrielle, organisation des entreprises en réseau, interconnexion mondiale des places boursières, etc.). Faut-il en conclure que dans la sphère productive et commerciale la recherche de l'instantanéité orienterait fondamentalement les restructurations en cours, alors qu'elle déclinerait dans l'espace public organisé par les médias ? C'est une hypothèse plausible.

Une autre approche permet de rendre compte de cette apparente disjonction de formes temporelles dans ces champs sociaux. Tout en reconnaissant la spécificité des régimes de durée propres aux sphères médiatiques et productives, elle offre l'avantage de ne pas les opposer. En effet, si on prend un peu de recul face à la scène de l'instantanéité telle que les opérateurs tétanisés sur les marchés financiers nous en offrent un spectacle exemplaire, on découvre une organisation temporelle où le moment de la décision, de l'action est préparé par un gigantesque compactage temporel, que l'on nomme habituellement "programme automatique". Le nez collé sur les transactions boursières déclenchées automatiquement par un Program trading basé sur l'analyse instantanée des différences de cotations entre les Bourses de New-York et Chicago, et nous voilà prêt à signer toutes les thèses sur la prédominance de l'immédiateté. Ce faisant, on néglige peut-être l'essentiel : le temps passé à réaliser et à tester les programmes d'interventions automatiques, véritables réserves, sous pression, de données, de calculs et de raisonnements formalisés, qu'un diagnostic adéquat libère dans une fulgurance. La précession programmatique, dont chacun imagine la quantité d'hommes-années qu'elle rassemble, est la condition du déchaînement instantané. (Un programme aussi couramment utilisé que Word représente environ deux cents hommes-années de travail).

Paul Virilio avait déjà attiré notre attention sur ces mécanismes à propos des stratégies militaires de la dissuasion. La planification de la machine militaire précède le déclenchement des opérations et le moment stratégique se déplace de l'actualité du champ de bataille vers l'antériorité de la programmation militaro-économique des systèmes automatiques qui, en assumant l'engagement, disqualifient les capacités humaines de décision. On le sait, tout le régime politico-militaire de "l'équilibre de la terreur" a reposé sur ces déplacements de primauté.

On peut discuter cette vision d'une guerre d'automates pré-programmés (les plus récentes doctrines militaires américaines semblent, en revanche, redonner une place importante à l'initiative sur le terrain). Mais elle recèle incontestablement une part importante de vérité, que l'automatisation de l'observation géographique, du déroulement des missions aériennes et du dépouillement de l'information acquise confirme. De même, croît le caractère stratégique de la maîtrise des communications. Le vocabulaire législatif suit la même logique d'accumulation lorsque les parlements votent régulièrement des lois de "programmation militaire" à cinq, dix, voire vingt ans.

Les mêmes principes sont à l'oeuvre dans toutes les activités fondées sur la réactivité quasi instantanée des systèmes ou des organisations : commutations automatiques dans les réseaux de télécommunications, programmes d'investissement boursier, intégration industrielle des fonctions de conception, de production, de marketing, de commercialisation, ou encore dispositifs de sécurité industrielle[195]. Ainsi voit-on émerger une temporalité dissociée où la rapidité de la décision-action est en rapport avec l'immensité du temps passé à la préparer.

Le "temps réel", lorsqu'il se matérialise dans l'action -à la différence du régime ralenti de la communication sociale dont nous avons fait état précédemment- déclenche une sorte de court-circuit où l'énergie accumulée se décharge en contractant à l'extrême la durée de l'opération. L'une des résultantes de ce processus est l'augmentation des durées d'étude et de conception (dix ans ou plus pour les programmes militaires, vingt ou trente ans pour les institutions japonaises de programmation économiques, par exemple). Ces durées considérables, allant de pair avec la rationalisation de l'activité des véritables usines intellectuelles techno-scientifiques assurant ce travail, mettent en réserve une temporalité sous pression. Le fonctionnement de cette programmation sous pression, c'est-à-dire la prise de décision et l'action détend -au sens de la détente d'un volume gazeux- le système et réalise la capitalisation temporelle préalablement accumulée. On pourrait, ici aussi, parler d'un ralentissement de la "communication" sous l'effet de l'augmentation de la charge de travail que représente la programmation de systèmes à complexité croissante.

Temps réel et temps différé en confrontation

La réévaluation que nous proposons n'implique pas que l'instantanéité soit appelée à disparaître de notre horizon et soit systématiquement remplacée par l'épaisseur temporelle d'un traitement. Loin de nous, l'idée que le modèle de l'émission/réception immédiate soit balayé par les formes programmatiques émergentes. Ce modèle est puissamment installé dans notre paysage et il ne s'évanouira pas dans un avenir prévisible. En revanche, il ne recèle plus la puissance irradiante qu'il possédait à l'ère de la télédiffusion triomphante. Aujourd'hui, sa capacité à organiser la structure temporelle de l'espace public, tout en demeurant notable, n'en est pas moins déclinante. Et cela n'est pas sans rapport, on l'a vu, avec la crise de confiance qui affecte les massmedia et la croissance corrélative des principes d'expérimentabilité qui en prennent la relève. Notre espace public voit émerger, sur les réseaux notamment, des formules de mixité des régimes temporels du "temps réel" et du "temps différé". Internet, par exemple, fait coexister plusieurs régimes temporels. Le réseau peut accueillir l'émission de flux radiophonique ou télévisuel. Avec la conversation écrite -lorsque les partenaires sont connectés simultanément -il héberge une semi-instantanéité (semi-instantanéité, car l'écriture télé-textuelle s'opère en deux temps : rédaction puis validation). Et enfin, il abrite une temporalité du traitement différé s'étageant des formes classiques de lecture aux circulations hypermédiatiques les plus raffinées. (On pourrait affiner les distinctions en analysant plus précisément, par exemple, la temporalité différée propre à l'usage des robots chercheurs, temporalité qui procède de la logique de l'accumulation/décharge, que nous avons mise à jour plus haut, à propos de la programmation militaire ou industrielle).

Ce passage en revue rapide des régimes temporels du réseau mondial ne constitue pas encore une typologie organisée. Des formules d'hybridation absolument inédites, hétérogènes à la séparation "temps réel"/"temps différé", font, en effet, leur apparition. Des applications sont aujourd'hui proposées qui mixent l'intervention instantanée convoyée par réseau, avec des traitements locaux sur supports opto-numériques (CD-Rom, aujourd'hui en attendant le DVD et autres "galettes" démultipliant les volumes d'informations stockées). Le Deuxième monde[196] illustre parfaitement ce type de mixage. L'expérience débute par l'auto-composition d'un avatar : choix d'un visage, d'un costume, éventuellement d'un appartement, modelage des espaces, installation des ameublements... Elle se poursuit par la libre déambulation dans le centre de Paris, modélisé en trois dimensions de manière étonnamment réaliste. On y rencontre d'autres avatars connectés au même moment sur Internet. Les fichiers transmis ne contiennent qu'une information limitée décrivant leur aspect physique et leur position géographique. L'ordinateur qui réceptionne ces fichiers se charge de construire l'image affichée sur l'écran puisque le CD-Rom local contient déjà tous les matériaux nécessaires à cette reconstruction (formes de visages, costumes, lieux visités, etc.). Ici, le "temps réel" ne se juxtapose pas au traitement différé, il s'y mélange. L'expérience d'une interaction allie, en effet, la confrontation avec une présence instantanée, convoyée par le réseau avec un travail sédentaire, momentanément isolé. La mixité des sources événementielles sous-tend une dialectique entre processus pré-programmé local et événement inattendu sur le réseau. L'univers maîtrisé de la scénographie interactive locale s'expose à l'irruption intempestive des spect- - agents branchés au même moment sur le site d'Internet.

On pourrait comparer cette temporalité à un modèle simplifié de notre existence quotidienne faite d'alternances (ou de combinaisons) de moments d'ouverture au monde et d'isolement. Mais dans ces univers, on gouverne, plus systématiquement que dans la vie ordinaire, sa présentation publique (choix de visage, de costume, etc.) et l'on sélectionne sa disponibilité à l'interpellation (la possibilité de ne pas répondre est facilitée par la décorporéisation de l'avatar tiers). L'idée se fait jour d'une temporalité trouée, où à tout moment la durée d'une exploration peut basculer dans l'instantanéité d'une confrontation avec un spect-agent éloigné. À l'inverse, l'immédiateté d'une présence lointaine peut se figer et chuter vers l'exploration sédentaire.

Hypermédiation et réception de flux sur Internet

Nous avons déjà évoqué, dans une autre partie de ce travail, l'apparition de chaînes multimédias distribuées sur Internet (Webcasting), en soulignant la rupture qui s'ensuit avec le mode de réception habituel de la télévision. Ainsi, par un accord, conclu en juillet 1997, DirectTV (leader américain de la diffusion numérique par satellite) et Microsoft ont annoncé la mise sur le marché d'un ordinateur-récepteur mariant la réception télévisuelle et la navigation sur le Web. Par exemple, en visionnant un film, le télénaute pourra rechercher les biographies des acteurs ou des indications sur son tournage. Dans une perspective voisine, une firme américaine met au point un projet de "CD-Rom infini" contenant mille cassettes vidéo, actualisé en permanence, et dans lequel l'abonné peut faire son marché.

Avec le Webcasting, l'usager sélectionne des thèmes qui alimentent des moteurs de recherches lesquels lui ramèneront une information préalablement triée et parfois même évaluée[197]. Prolongeant cette forme d'usage, les push technologies inaugurent une nouvelle forme médiatique, transformant l'écran de l'ordinateur en récepteur de chaînes multimédias thématiques (météo, sports, finances, etc.). Outre la diffusion de chaînes, ces logiciels permettent, par exemple, la mise à jour directe de logiciels sur les disques durs des abonnés au service. Mariant l'instantanéité de la télévision avec la navigation multimédia, ces techniques combinent les outils de recherches (type moteurs) avec le téléchargement en continu d'informations. Mais ce faisant, le Webcasting redistribue les polarités temporelles en bousculant l'opposition classique entre l'instantanéité propre à la culture de flux et la temporisation de l'hypermédiation. Ces alliages temporels sont d'ailleurs loin d'être figés. L'apparition de nouvelles normes d'édition de documents appelées à succéder à H.T.M.L.[198], rendront encore plus complexe la consultation des sites. L'utilisateur pourra, par exemple, modifier la composition des pages qu'il reçoit, les dynamiser, y ajouter des informations personnelles et s'y déplacer de manière intuitive[199]. Instantanéité de la réception, rapidité de la navigation et temps de réglage de la composition personnelle se combineront d'autant plus.

Alors que les flux de l'émission de la radio et de la télévision se diffractent dans leur mise en ligne, la diffusion électronique de l'écrit est sujette à un mouvement inverse. Dans le on line l'écrit connaît une mise un mouvement qui le rapproche, dans certains contextes, de l'information audiovisuelle. La version électronique du Wall Street Journal est réactualisée quatre à six fois par jour. Et il ne s'agit pas seulement des cours de la Bourse, une part significative des articles sont réécrits au fil de l'actualité. "Le Web, ce n'est pas la télévision, ce n'est pas le journal, c'est entre les deux" affirme M. Garcia, l'un des spécialistes mondiaux du design des journaux électroniques. Ici, la permanence de l'écrit s'allie à son rafraîchissement instantané. L'horizontalité de la page imprimée se moule dans le flux de la diffusion temporelle. Mais rien n'est consolidé en la matière et les premiers enseignements de la presse électronique ne permettent pas d'affirmer avec certitude que le renouvellement des informations séduira plus les lecteurs que, par exemple, la recherche "motorisée" dans des banques de données. Autre témoignage des mixages en cours entre les logiques éditoriales (stock) et de consultations en ligne (flux) : l'abonnement à des services spécialisés téléchargeant à date fixe, l'intégralité d'un site afin de permettre une consultation locale hors connexion[200].

Plus généralement, ces propositions techniques seront-elles favorablement accueillies, et sous quelles formes ? Tout est ouvert. Nous ne prédisons pas le succès automatique de ces formules qui se confrontent à de solides ancrages, notamment en matière de réception télévisuelle[201]. Mais, quels qu'en soient les modalités, les rythmes et l'ampleur, nous constatons qu'un virage est pris, lequel redistribue les rapports spécifiques entre réception et navigation, virage qui confirme que les structures temporelles émergentes ne sauraient opposer séquentialité et hypermédiation, ou instantanéité et temporisation, mais plutôt les assembler en les insérant dans des configurations qui font coexister (pacifiquement ?) leurs régimes spécifiques.


[159] Voir la revue Réseaux, Dallas et les séries télévisées, n° 12, CNET, 1985, et notamment l'article de J. Bianchi, Dallas, Les feuilletons et la télévision populaire, pp. 21/28.

[160] Howard Rheingold, dans son livre, Les communautés virtuelles, (Addison- Wesley, Paris, 1995) véritable hymne à la vie virtuelle, multiplie les exemples où l'usage des réseaux consolide, voire même engendre, des collectifs locaux. Howard Rheingold mentionne notamment le rôle social du réseau WELL (pour Whole Earth Electronic Link), village virtuel en vogue dès les années 87, fréquenté essentiellement par des Internautes habitant autour de la baie de San Francisco.

[161] Depuis septembre 1997, deux services de guidages -Carminat Infotrafic et Skipper développés respectivement par Renault et Europe Grolier- sont commercialisés. Dans sa version complète, Carminat intègre un récepteur G.P.S. localisant le véhicule. Collectant, en temps réel, toutes les informations sur le trafic (et la disponibilité des parkings), il propose un trajet optimisé et calcule sa durée.

[162] Que la carte puisse être lue comme une préfiguration de l'hypermédiation, voilà d'ailleurs la pénétrante suggestion de Françoise Agez dans son article, "La carte comme modèle des hypermédias", in Catalogue d'Artifices 4, Ville de Saint-Denis, 1996, pp. 54/59.

[163] Voir l'intéressant article de Pierre Alain Mercier, Dopo ze bip... Quelques observations sur les usages du répondeur téléphonique, in Réseaux, n° 82/83, mars/juin 1997, CNET. Il y montre, en particulier, que les fonctions de protection (simuler l'absence) et de filtrage des répondeurs sont progressivement devenues essentielles.

[164] Dominique Carré, Les technologies mobiles, quels enjeux ?, AFETT/EUROCADRES, Lab. SIC Université Paris-Nord, fév. 1997, p. 9.

[165] Jacques Perriault, La communication du savoir à distance, L'Harmattan, Paris, 1996, p. 78.

[166] "Les institutions de formation à distance connaissent aujourd'hui, on l'a vu, une demande de regroupement de plus en plus forte " (Jacques Perriault, op. cit., p. 227).

[167] Certains usages d'Internet illustrent aussi, d'une autre manière, ces mixages de relations à distances et de déplacements géographiques. Un industriel des pellicules photos propose, depuis 1997, d'accéder par Internet au fichier de la pellicule envoyée au laboratoire pour développement. L'utilisateur peut accéder, via Internet, aux vignettes composant sa pellicule, les retravailler sur son ordinateur, corriger les dominantes de couleurs, les cadrages ou assembler plusieurs images. Une nouvelle connexion, et il renvoie les images modifiées qui corrigeront automatiquement les fichiers haute définition détenus par le laboratoire. Il lui restera à aller chercher les tirages papiers dans son quartier... en attendant, bien sûr, la haute définition à domicile.

[168] Le mediaspace d'Euro PARC en Angleterre couplé à celui de Xerox PARC à Palo- Alto en Californie, organise aussi les relations locales des chercheurs anglais.

[169] Voir Bernard Prince, Les paradoxes de l'Internet, in Terminal, n°74, L'Harmattan, Paris, été-automne 1997, pp. 89/96.

[170] La révolution Internet, sur Arte, le 19/11/96.

[171] Cité par Christian Huitema, Et Dieu créa l'Internet..., Eyrolles, Paris, 1996, p. 34.

[172] On pourrait postuler que la "cyberelation" combinant présence à distance et modélisation numérique (travail, formation, jeux, etc.) définit en tant que tel l'idéal intangible d'un rapport social totalement auto-gouverné, absolument immanent.

[173] Pierre Lévy est l'un de ceux qui ont thématisé, d'une manière radicale, cette idée de gain cognitif par disparition d'une concrétisation du contexte. Ainsi écrit-il : "La structure en collecticiel permet en effet de faire une fantastique économie d'écriture. En effet les tenants et aboutissants d'un énoncé n'ont plus à être explicités par du discours puisqu'ils sont impliqués dans des liens hypertextuels. Le contexte et les références sont toujours déjà là..." L'intelligence collective, La Découverte, Paris, 1994, p. 98.

[174] Bernard Stiegler, La technique et le temps - La désorientation, Galilée, Paris, 1996, p. 276.

[175] Op. cit., p. 277

[176] L'écriture multimédia recherche toujours un équilibre -variable selon les genres et les auteurs- entre libre exploration et axes directeurs structurants.

[177] Sur ces questions voir Sally Jane Norman, L'empire des sens, in Le Monde de l'éducation, avril 1997, p. 46.

[178] Le logiciel Umap Web, déjà cité au chapitre V, édite au fur et à mesure de la consultation de pages Web, des cartes répertoriant les proximités entre thèmes ou concepts, à partir des sélections effectuées par l'utilisateur. Les zones contenant des mots principaux y apparaissent grossies.

[179] La circulation dans un "anneau" est une alternative au surfing ainsi qu'à l'usage souvent imprécis des moteurs de recherche. Ici, tous les sites concernent le même sujet. Un simple clic suffit pour passer immédiatement au site suivant (et ainsi de suite jusqu'à revenir au départ), supprimant ainsi les temps d'attente inévitables lors de l'activation des liens classiques. On estimait, en septembre 1998, à plus de 700 000 le nombre de sites fédérés en près de 50 000 "anneaux".

[180] Alain Lelu, Interfaçages automatiques d'hypertextes, in Rencontres Médias 1, B.P.I., Centre Georges Pompidou, 1997, p. 125.

[181] "L'exposition des connaissances perdra le caractère unidimensionnel. Ce ne seront plus seulement les mots, au fil du discours, qui donneront sa densité au savoir, mais des interactions de toutes natures entre des mots et des énoncés figurés, animés, relationnels, etc. Les interactions elles-mêmes ne seront pas seulement logiques (implication, causalité, hiérarchies de classes et de sous-classes, etc.) mais topologiques". Pierre Lévy, Métamorphoses de l'écriture, in Communication et lien social, Éd. Descartes et Cie et Cité des Sciences, Paris, 1992, p. 99. D'autres analyses suivent la même inspiration, jouant le spatial contre le linéaire, alors que ces deux dimensions ne sont pas de même ordre. Ainsi Philippe Quéau affirme : "Les mondes virtuels permettent de fait d'exprimer des idées abstraites d'une manière entièrement nouvelle, en utilisant des configurations spatiales d'objets concrets ou de symboles imaginaires [....]", Le Virtuel, Champ Vallon/INA, Seyssel, 1993, p. 99.

[182] Pierre Lévy, L'intelligence collective, La Découverte, Paris, 1994, p. 15

[183] Marshall McLuhan, Pour comprendre les média, Le Seuil, Paris, 1968, p. 102.

[184] Pour une critique plus détaillée de ces hypothèses, voir notre article, Nouvelles technologies intellectuelles, pensée et langage, in Terminal n°68, Paris, L'Harmattan, pp. 69/80.

[185] Elisabeth L Eisenstein, dans La révolution de l'imprimé dans l'Europe des premiers temps modernes, (La Découverte, Paris, 1991) montre que la notion d'auteur est typiquement typographique. Elle cite notamment saint Bonaventure, lequel nous rappelle, qu'à l'ère du manuscrit, il y a au moins quatre manières de faire des livres : le scribe qui copie, le compilateur qui croise différents écrits, le commentateur qui ajoute des explications, et enfin l'auteur qui cite d'autres textes (voir p. 109). "Les nouvelles formes d'attribution de la qualité d'auteur et les droits de la propriété littéraire sapèrent les idées anciennes d'autorité collective non seulement en matière de composition des livres bibliques mais aussi de textes philosophiques, scientifiques et juridiques" p. 110.

[186] Yves Maignien, dans son article,"La bibliothèque de Michel Foucault" sur le projet de "Poste de Lecture Assistée par Ordinateur " à la BNF (in Rencontres Médias 1, BPI, Centre Georges Pompidou, Paris 1997, pp. 83/105) convoque à nouveau l'antienne foucaldienne de la disparition de l'auteur-sujet au profit de l'auteur-actualisateur de "nappes discursives". L'activité bibliologique privilégie par nature la "transdiscursivité" où l'émergence de convergences, d'épistémés traverse les auteurs plus qu'elle ne les suscite. Mais le regard archival, intensifié par l'informatique documentaire, n'est pas le seul possible. Érigé en vérité ultime d'un texte particulier, il ignore, par constitution, les dimensions subjectives singulières qu'il exprime, privilégiant, non sans légitimité, la tectonique des flux discursifs. (Question structurellement identique à celle du regard unilatéralement socio-technique porté par la nouvelle anthropologie des sciences sur l'activité scientifique). Substituer "l'ordre du discours" à l'irruption intempestive d'une pensée réorganisatrice relève d'un parti pris peu explicité. Foucault se réduit-il à la "nappe discursive" structuraliste ?

[187] T-Vision a été installé dans l'exposition Voyages virtuels, 4/8 octobre 1995 à Paris.

[188] Ce CD-Rom est édité par Hazan et 3e Vague.

[189] L'installation a été montée à Artifices 4, Saint-Denis, novembre 1996.

[190] Voir le commentaire kabalistique qu'apporte Pierre Lévy, sur la scénographie, homogène au symbolisme de l'arbre séphirotique de la tradition mystique juive (Cyberculture, Odile Jacob/Conseil de l'Europe, Paris, 1997, pp. 82/83).

[191] Réalisation de Serge Bilous, Fabien Lagny et Bruno Piacenza, Flammarion "Art & Essais", Paris, 1997.

[192] On peut désormais mobiliser de chez soi, via Internet, le satellite Earlybird I, lancé depuis décembre 1997 par une société américaine. Moyennant quelques centaines de dollars, on obtiendra une photographie d'une précision de l'ordre de 3 mètres (les prochains succcesseurs d'Earlybird promettent de descendre à 1 mètre). Le monopole militaire du renseignement spatial est ainsi brisé.

[193] Une Webcam diffuse en permanence l'image d'une scène (carrefour, intérieur privé, etc) sur un site Internet. Par exemple, le tournage, à Franconville, du film La Patinoire s'est accompagné de la création d'un site, où l'on pouvait consulter le scénario in extenso mais aussi la feuille de service quotidienne, et à intervalle régulier, les images des trois Webcams installées. Le son, en revanche, a été coupé pour préserver l'intimité des rapports entre le réalisateur et les acteurs. L'expérience a été rééditée sur le tournage de Regarde mon père, ma mère, film de Charlotte de Turckheim. Une nouvelle forme de promotion ?

[194] Article paru dans Le Monde diplomatique, mars 1998, pp. 26/27.

[195] Par exemple, la sécurité du métro VAL est assurée par un logiciel comportant quelque dix mille lignes de codes dans les équipements au sol et cinq mille dans la rame.

[196] Laissons son promoteur Philippe Ulrich, co-fondateur de Cryo Interactive, présenter le projet : "Le CD-Rom, qui proposera une connexion à Internet, contiendra un Paris contemporain entièrement redessiné... Une fois connectés, les abonnés pourront se promener de l'île de la Cité à Notre-Dame, des Champs- Elysées aux quais en passant par la place de Grève. Évoluer dans Paris, dialoguer, visiter les monuments, aller dans les cabarets de jazz ou au cinéma..." Le visiteur compose son apparence grâce à une bibliothèque de formes : visage, peau, yeux, cheveux, costumes. Il séjourne dans un appartement conforme à son style. L'obsession du doublage va jusqu'à imaginer une monnaie, une circulation financière, la perception d'aide sociale voire une Constitution et des codes de comportement moraux. Il est même envisagé de pouvoir faire "naître" un enfant qui sera incarné par un nouvel avatar. Tenant à la fois du jeu vidéo, du jeu de rôle, de la messagerie visuelle et de l'agora, ce "deuxième monde" est appelé à se perfectionner constamment. On pourra emprunter des sas pour déambuler dans d'autres métropoles (Berlin, New York...). (Interview au supplément multimédia de Libération, 24 mai 1996, p. I ). Seul Canal + continue le Deuxième monde. Cryo a préféré prendre son autonomie et s'attache plutôt, sur ce terrain, à diffuser SCOL (voir note 41).

[197] Fishwrap, par exemple, mis au point au M.I.T. à Boston, est l'un des logiciels de personnalisation les plus perfectionné. Il permet à l'utilisateur de sélectionner des rubriques composant son journal (politique nationale, théâtre, basket-ball, etc.). Le serveur actualise constamment sa base documentaire à partir de quotidiens californiens et des dépêches d'Associated Press. On peut, à tout moment, afficher la dernière édition du journal, en perpétuelle transformation, car continuellement rafraîchi par de nouvelles informations et nettoyé des nouvelles obsolètes. Par ailleurs, un système de vote, article par article, est à la source de la production d'un journal unique reflétant les goûts majoritaires des lecteurs. Enfin, le logiciel détecte l'ordre dans lequel l'abonné lit les articles et affichera donc, par exemple, dans la rubrique culture, les concerts avant les films et les critiques de livres.

[198] Ces langages déclineront la norme X.M.L. (eXtensible Mark up Language), définie comme métalangage. Elle permettra aux concepteurs de pages de définir leurs propres langages de programmation selon qu'ils mettent en ligne des partitions musicales, des plans industriels, des représentations spatiales de molécules ou des parchemins antiques. (Voir Michel Alberganti, L'introduction de nouvelles normes enrichit le contenu d'Internet, in Le Monde, 14/10/97, p. 29).

[199] Le logiciel SCOL, par exemple, développé par la société Cryo devrait permettre aux Internautes de créer assez facilement leurs propres mondes virtuels en 3D et d' y déposer leur avatar en scannant une photo, par exemple. Toutes les composantes des scènes conçues sont cliquables et peuvent renvoyer par liens à d'autres lieux, afficher des sources documentaires ou lancer des applications. Voir Yves Eudes, Scol, une multitude de mondes indépendants..., in Le Monde, supplément multimédia, 1 et 2/03/1998, p. 34.

[200] Par exemple, le magazine Les enfants du Web à destination des 8-12 ans, est téléchargé automatiquement chaque mois, moyennant un abonnement, avec une panoplie de fonctions connexes : contrôle des sites reliés, limitation de la durée de connexion...

[201] À l'inverse, on a vu comment une innovation, apparemment mineure, telle que la télécommande a profondément, et rapidement, bouleversé la réception de la télévision.