//img.uscri.be/pth/49550e5ad3faf945c7158668f2bcf3eb67350a02
Cette publication ne fait pas partie de la bibliothèque YouScribe
Elle est disponible uniquement à l'achat (la librairie de YouScribe)
Achetez pour : 20,03 € Lire un extrait

Lecture en ligne (cet ouvrage ne se télécharge pas)

La distanciation

De
368 pages
Publié par :
Ajouté le : 01 janvier 0001
Lecture(s) : 285
EAN13 : 9782296265066
Signaler un abus

Jean-Luc: MicheL

La distanciation
Essai sur la société médiatique

L'Harmattan

De 1988 à 1991, Jean-Luc MICHEL a enseigné les sciences de la communication à l'Université catholique de l'Ouest, à Angers où il a créé un département de communication d'entreprise. Depuis 1991, il enseigne à l'université de Saint-Etienne et dirige la maîtrise des sciences et des techniques orientée sur la Presse et la communication d'entreprise. Il est aussi chargé de cours aux universités de Paris 7 et Paris 8. Jean-Luc MICHEL est à la fois un praticien et un théoricien des médias et a déjà publié des ouvrages et de nombreux articles sur l'audiovisuel, l'informatique et les théories de la communication. Sa thèse de doctorat, soutenue à l'université de Paris 7, portait sur «Les médias et la vie sociale» et a jeté les bases de la théorie dis tancia trice.

Ouvrages de Jean-Luc Michel

Les métiers de l'informatique - Paris: Nathan, 1982. L'informatique et nous - Paris: ESF / EME, 1985. De la prise de vue aux effets spéciaux - Paris: ESF / EME, 1986.
De la diapositive au diaporama

-

Paris: ESF / EME, 1986.

@ L'Harmattan, 1992 ISBN: 2-7384-1277-7

A mon père

A V ANT-PROPOS

La distanciation constitue un des traits caractéristiques du genre humain: la capacité de discourir sur ses discours, de communiquer sur sa communication, de pouvoir se mettre momentanément à la place d'autrui, de «voir par les yeux d'un autre» comme le décrit Shakespeare. Du théâtre tragique grec au "zapping" télévisuel en passant par les "branchés de la communication", nous ne cessons de nous distancier ou de nous identifier à quelqu'un ou à quelque chose. L'ambition de ce livre est de montrer que nous oscillons en permanence entre ces deux pôles fondamentaux du comportement humain: la distanciation et son alter ego, l'identification, la projection ou le transfert vers un individu, une idée, un concept ou une simple image mentale. En cette fin de vingtième siècle médiatisé, tout le monde en appelle à la distanciation: les médiateurs, les acteurs et les consommateurs d'informations. Mais jusqu'à cet essai, la distanciation n'avait pas fait l'objet d'une étude théorique, alors qu'elle est présente en chacun de nous, mais sans avoir été révélée, peutêtre justement par manque de mise à distance... Pourtant, de nombreux signes, de nombreuses traces de son existence et de son fonctionnement apparaissent de façon plus ou moins saillante dans. beaucoup d'œuvres littéraires ou romanesques. Homère, les tragédiens grecs du Vème siècle avant J.-C., les acteurs du théâtre d'ombres du Wayang de Java, Saint Augustin, Cervantès, Montaigne, Shakespeare et la plupart des poètes n'ont jamais cessé d'exploiter ou d'illustrer des processus distanciateurs, quand ils ne les décrivaient pas explicitement comme Stendhal dans le Rouge et le noir, Schiller dans l'Education esthétique de l'homme, ou plus tard Brecht, avec son
effet d'étrangeté », et dans un tout autre domaine, sur les langages formels et l'intelligence artificielle.
«

les recherches

LA DISTANCIATION

Mais c'est avec la surconsommation médiatique que le recours à l'antidote d'une hypothétique prise de distance se fait le plus fortement sentir, d'où le fait que chacun s'y réfère plus ou moins explicitement ou directement. Cette distanciation existe chez tous les individus, mais à des degrés divers, dans une combinatoire complexe dont il faut progressivement dévider l'écheveau. La distanciation critique est quasi-uniformément répartie chez tous les êtres humains, c'est celle à laquelle on se réfère le plus souvent, sans voir qu'elle est insuffisante pour se « libérer », comme le disait Herbert Marcuse, de l'aliénation des médias: elle peut correspondre au « zapping» télévisuel: on croit se libérer, mais on ne fait que « changer de chaînes ».

Comme on va le voir, on ne peut s'affranchir réellement et durablement qu'à la condition de pratiquer une distanciation dialectique, dans laquelle l'individu prend conscience de quelquesuns de ses processus mentaux de base, de ses identifications, de ses projections, de ses transferts, sans que pour autant ceci signifie qu'il devienne un « distancié martyr », comme Julien Sorel ou un parfait schyzophrène comme le couple Dr Jekill/M. Hyde.
Ce livre veut construire les fondations de la théorie distanciatrice et offrir un nouveau cadre théorique pour analyser la société médiatisée. Il a pour ambition ultime de contribuer à la définition d'une nouvelle citoyenneté, basée sur une vision résolument dynamique et ouverte de la communication.

Paris - Juillet 1991

INfRODUCTION

L'ambition de cet ouvrage est grande: il s'agit de construire une théorie capable de rendre compte du maximum de phénomènes de communi cation. A l'heure actuelle, il n'existe aucun cadre unitaire susceptible de regrouper les travaux déjà menés sur la notion de donnée, d'information, de médiation, de médiatisation ou de communication. La preuve en est fournie par l'intitulé derrière lequel les chercheurs français se sont regroupés: sciences de l'information et de la communication. On différencie l'information et la communication pour satisfaire les documentalistes et les bibliothécaires qui traitent de la première mais pas de la seconde, mais une information isolée, sans perspective d'être communiquée peut-elle vraiment exister? De plus, des sous-chapelles nombreuses cherchent à découper à leur profit une partie des sciences de l'information en différenciant les documents selon leur type - mais alors les médias en tant que tels réapparaissent - ou leur fonction - et c'est encore de communication qu'il s'agit. Toutes proportions gardées, les sciences de l'information et de la communication se trouvent un peu dans la même position que la physique nucléaire actuelle entre les quarks et les particules de charme: on rassemble des données et on les étudie dans des micromondes de plus en plus isolés jusqu'à ce que la perspective de les interpréter dans une théorie unitaire s'éloigne comme un idéal lointain et mythique à évoquer seulement les jours de spleen. Mais, avant de se fragmenter, la physique a été unitaire ou presque, tandis que les sciences de la communication ne l'ont janlais été. Elles n'ont pas eu la chance de connaître la Renaissance et l'universalisme. Elles sont nées dans la segmentation et elles en portent la trace. D'où une raison supplémentaire de tenter de fonder les sciences médiatiques, ou plutôt la médiatique qui regrouperait l'ensemble des travaux répartis entre les divers courants de la recherche actuelle.

De quelle communication

parle-t-on?

Après une explosion d'ouvrages sur les médias de masse et les industries culturelles, on observe aujourd'hui une floraison de livres sur la communication. De l'étude orientée sur les moyens, on est passé à un recentrage sur les processus, alors que dans le même temps le centre de gravité économique s'est déplacé de la communication de loisirs vers la communication d'entreprise. La communication concerne dès lors l'homme global, le citoyen individuel comme l'homme de masse, dans leurs loisirs, leur travail ou leur vie privée. Des audiences cumulées on passe aux audiences attentives, des médias de masse on glisse vers les réseaux segmentés et ciblés. De tous côtés, on ne

8

LA DISTANCIATION

cesse de parler de 1'« homo communicans» en lui prédisant les plaisirs raffinés de la convivialité ou l'angoisse permanente du contrôle de Big Brother. Une bonne partie du débat s'oriente entre deux dérives possibles de la « société communicationnelle ». D'un côté, l'esclavage doré du Meilleur des mondes décrit par Aldous Huxley, de l'autre le totalitarisme inquiétant de 1984 de Georges Orwell. Entre les deux si l'on peut dire, la tendance dernier cri est la recherche de convergences entre les théories de l'information et de la communication - qui auraient vieilli - et les nouveaux paradigmes des sciences cognitives. Pour les optimistes, la jonction sera libératrice, pour les pessimistes, elle sera aliénante. Pendant ce temps, la publicité affine de plus en plus ses méthodes de traitement de notre imaginaire social et individuel, les jeunes « zappent» sans arrêt, les séminaires pour cadres dirigeants proposent des méthodes toutes plus efficaces les unes que les autres pour «mieux communiquer », tandis que l'université essaie de montrer sa capacité à accompagner ou à précéder le mouvement. Toutes ces tendances ont un point commun en pleine émergence depuis peu d'années: la nécessité impérieuse de prendre de la hauteur, du recul, de la distance avec le flux informationnel et l'invasion des signes, en un mot, l'obligation de se distancier du quotidien pour (re)-trouver du sens, pour mieux communiquer. Les travaux sur les médias sont nombreux et variés, mais peu de lignes de force semblent pouvoir en être tirées. Si l'on s'intéresse à leurs effets psychoperceptifs, on entre dans un désert si peu cartographié qu'il vaut mieux ne pas oublier ses vivres (ou ses concepts) et sa boussole (ou sa méthode) alors que l'analyse économique des « industries culturelles» a fait florès et a donné lieu à bien des actions publiques ou gouvernementales, aussi bien libérales que progressistes. Les médias apparaissent tellement protéiformes, en petpétuelle diversification quand ce n'est pas en division ou en mutation totalement anarchique - au sens biologique - que nulle théorie globale ne semble pouvoir rendre compte des conditions de leur apparition et de leur développement. Nous ne disposons pas non plus d'explications cohérentes et générales de leur différenciation, et encore moins de concepts éclairant les conséquences psychologiques, politiques, économiques et sociales de leur utilisation intensive. Le propos de ce livre apparaît dès lors clairement: contribuer à l'élaboration d'une théorie de la communication essentiellement basée sur le concept de distanciation, d'où son nom de théorie distanciatrice. S'agissant d'une construction ambitieuse, on comprendra son ampleur, dictée par l'espoir de disposer d'un cadre théorique unitaire susceptible de rendre compte du plus grand nombre de phénomènes de communication. A condition de ne pas succomber au diktat de l'expérimentation et de la capacité de prévision mathématique, la réponse à une telle question ne peut être qu'affirmative. Le propre d'une démarche rationnelle et intelligente consiste à classer des phénomènes, à établir des typologies, à chercher à ex-

INTRODUClloN

9

pliquer leur apparition et leur déroulement et éventuellement à les prévoir ou à agir dessus. Descartes a parfaitement expliqué la démarche nécessaire et même s'il s'est trompé dans des fonnulations mathématiques, il nous a laissé la méthode et le discours pour l'interpréter. Comme l'affinne tranquillement René Thorn, Descartes a tout expliqué et n'a rien calculé tandis que Newton a tout calculé mais n'a rien expliqué 1. L'un n'est pas moins utile que l'autre au dévelowement de la réflexion scientifique. La théorie distanciatrice qui constitue le cœur de cet ouvrage affiche un premier objectif hennéneutique clair: expliquer les phénomènes anciens et récents en matière de médiation et de communication, les interpréter, les rendre intelligibles. Le caractère non expérimental des sciences médiatiques, au sens de la vérification de lois mathématiques générales, ne devrait pas être inquiétant. Après tout, l'astronomie qui passe pour une science dure serait bien en peine de réaliser la moindre expérience, ce qui ne l'empêche pas de briller (1) au finnament scientifique. Lorsque l'expérience est impossible, il suffit que la théorie offre des correspondances satisfaisantes avec le réel, d'où l'importance qu'elle soit suffisamment locale, délimitée à un domaine précis, fût-il vaste, complexe et enchevêtré. Pour être utile, une théorie doit aussi être modulable et offrir différents niveaux d'interprétation des phénomènes qu'elle prétend expliquer. Ainsi, il lui faut posséder une capacité d'interprétation « microscopique» pour les faits élémentaires et « macroscopique» pour les événements, de façon à ce que chaque chercheur futur puisse la faire fonctionner et en tirer des conclusions pertinentes. De plus, pour être reconnue, une théorie doit servir à quelque chose, que ce soit à mieux expliquer, à mesurer, à prévoir ou à agir sur le déroulement des phénomènes. La théorie distanciatrice se fixe des objectifs sociaux, liés à l'essor de la société post-industrielle. Une des raisons majeures qui ont entraîné la présente recherche a été de fonder scientifiquement la démarche d'« éducation médiatique» présentée comme une stratégie de sortie ou de contournement de l'alternative entre Huxley et Orwell.

Le

«

cahier des charges»

de la recherche

Si l'on met en ordre les considérations précédentes, des objectifs précis peuvent être assignés à la mise au point de la théorie distanciatrice en tant que théorie médiatique fondamentale. Comme dans un vrai cahier des charges, ces objectifs seront présentés avec suffisamment de généralité: 1. Unifier le plus grand nombre de recherches éparses sur les processus de médiation et de médiatisation. !
1. René THOM,Paraboles et catastrophes, Entretiens avec G. Giorello et S. Morini, Trad. L. Berini, Paris, Flammarion, 1983, p. 12.

10 2. 3. 4. 5. 6. 7.

LA DISTANCIATION

Offrir un cadre conceptuel suffisamment évolutif. Posséder une transférabilité la plus élevée possible. Contribuer à la fondation des sciences médiatiques. Prouver sa fécondité en générant des concepts opératoires. Montrer son utilité sociale en fournissant un appui scientifique à des propositions de politique générale. Utiliser la tentation nexialiste (interconnectivité des sciences) sans y succomber.

S'agissant d'une recherche originale, il a fallu trouver et synthétiser de nombreux concepts issus d'autres sciences en plein développement. En traitant du signe et du sens des messages, la théorie fait référence à des travaux de sémiologie et plus encore de sémantique. Elle se situe au carrefour des sciences du vingtième siècle. En globalisant des approches autrefois distinctes, elle a utilisé certaines notions de la théorie systémique, en remontant si besoin était à la source de celle-ci. D'autres sciences plus proches a priori ont naturellement été sollicitées comme la cybernétique et les multiples théories du signal qui l'ont suivie, mais devant la difficulté de l'entreprise, plusieurs autres sciences ont été appelées en renfort, avec au premier rang les toutes jeunes sciences cognitives. Naturellement, les aînées ont également été consultées, avec au premier rang la sociologie ou la statistique (pour les enquêtes), voire l'histoire, puis les mathématiques ou les sciences physiques, notamment dans l'élaboration des nombreuses modélisations nécessaires à la construction de la théorie.

Les modélisations
En commençant cette recherche, il n'était pas a priori question de modéliser pour modéliser ni d'utiliser des graphiques pour illustrer des concepts particulièrement complexes. Mais au fil de l'élaboration de la théorie, la phrase célèbre de Jean Perrin s'est progressivement imposée: « substituer au visible compliqué de l'invisible simple» 2. La modélisation s'est alors révélée un extraordinaire moyen de générer de nouveaux concepts. Il ne s'agit pas seulement de représenter de manière agréable et rapide des connaissances antérieures et stables, comme cela se fait confonnément à la logique du schéma valant mieux qu'un trop long discours, mais au contraire d'employer la médiatisation graphique pour produire des connaissances nouvelles. Cette «méthode» était d'autant plus indispensable que la distanciation au cœur de la présente recherche est une notion fortement autoréférente exigeant un effort supplémentaire à celui de la démarche scientifique classique qui est déjà en elle-même distanciatrice. La théorie distanciatrice est une épistémologie au sens propre. En proposant le modèle d'un dipôle, la théorie distanciatrice veut insister à
2. Ibidem, p. 83.

INTRODUCTION

11

la fois sur l'indispensabilité de l'équilibre dialectique des deux pôles et l'inéluctabilité du passage sur chacun d'eux ainsi que sur la liberté interprétative, d'ordre aléatoire, suggérée par la rotation continue. Un autre genre de modélisation a également été utilisé: la fonnalisation des concepts et des critères typologiques selon les méthodes en vigueur dans la constitution des systèmes experts. L'emploi de ceux-ci serait s1lrement de nature à « durcir» un peu les sciences humaines pour le plus grand bien de celles-ci. Ainsi, la modélisation ne visait pas seulement à «bien présenter des notions complexes» ; elle fut un véritable outil distanciateur des notions difficiles traitées par la théorie - entre autres de la distanciation elle-même. On retrouve là les approches sur les conceptualisations non linéaires offertes par des schématisations dynamiques.

La théorie

distanciatrice

Les effets psychologiques de la communication médiatique ont été peu étudiés en France, à l'exception des travaux déjà anciens de Michel Souchon, Mireille Chalvet, Pierre Corset et Ignacio Ramonet 3. C'est pourquoi les recherches américaines de ce qu'il est convenu d'appeler l'Ecole de Palo-Alto constituent une bonne base de départ pour l'approche distanciatrice, à condition de les intégrer dans un ensemble théorique susceptible de les accueillir. La théorie distanciatrice a également cherché à dégager des concepts opératoires généraux pennettant de rendre compte des modalités et des conditions de sociali sation des médias, et par là même de contribuer à poser les fondements des sciences médiatiques ou de la médiologie de Régis Debray. La théorie a aussi été travaillée du point de vue de son « opérabilité », ou plus simplement de son efficacité sociale. Elle a réussi à montrer sur quels axes il demeure possible de donrler aux citoyens les moyens de prendre conscience et de réagir, ou de se distancier en face de ce qui sera nommé provisoirement « l'unidimensionnalisation croissante» de la vie sociale, ou la «mimesis conformiste» 4, principalement dues à la segmentation progressive des contenus et à la différenciation des canaux de diffusion des infonnations. S'il fallait le résumer d'une phrase, cet objectif pourrait se caractériser comme une tentative de description d'une future « socialisation des moyens de communication électronique» 5.
3. Ignacio RAMONET, e chewing-gum des yeux, Paris, Alain Moreau, 1980; Mireille L CHALVET, ichel SOUCHON, M Pierre CORSET, 'enfanl devanlla télévision, Paris, Casterman, L 1981. 4. Sur ces questions, nous nous référerons souvent aux pensées d'Herbert Marcuse ou de René Girard, ainsi qu'aux nombreuses personnes qui ont analysé la notion cruciale de « distanciation», des Tragiquesgrecs à BertoltBrecht, en passant par le « Wayang» de Javaet le théâtre d'ombre ou les projections lumineuses du Xvmème siècle. 5. Tout amalgame avec une autre formule très connue, bien que n'étant pas due au hasard, devrait être examiné avec une grande prudence quant à la définition des termes employés...

12

LA DISTANCIATION

La double fonction de création et de communication des médias nous est apparue assez tôt, sans que se dégage sur le moment ce qui est à présent avec le recul du temps - c'est-à-dire avec la distanciation temporelle - sa richesse fonctionnelle. La double distanciation, d'abord critique puis dialectique se révéla quelques années plus tard dans son efficacité éducative et sociale; ce qui nous permit d'en faire état aussitôt et de chercher à la promouvoir concrètement dans des activités éducatives ou de conseil. Le rôle majeur des petits groupes volontaires et des associations dans la diffusion de la théorie se dégagea, quant à lui, d'assez bonne heure. Nous pensions alors, davantage par intuition que par esprit de système, que les petites structures étaient mieux à même que les grandes d'offrir des espaces de développement riches et féconds (<< Small is beautiful »...). Dans ces entreprises, ces idées connurent des fortunes diverses; parfois nous eûmes le sentiment qu'elles progressaient et étaient reprises par les décideurs politiques ou les prescripteurs institutionnels; parfois elles demeurèrent ignorées parce que les projets qui les accompagnaient ou qu'elles portaient furent abandonnés ou dénaturés en cours d'avancement, par exemple pour cause d'alternance politique. Nous connûmes la malchance qu'elles ne fussent pratiquement jamais critiquées, pas plus au point de vue théorique que technique, ce qui nous a passablement gêné dans notre action quotidienne, car nous comptions fermement sur les critiques pour affiner ou améliorer nos propositions. Cet essai, qui s'appuie en partie sur des travaux que nous avons conduits ou publiés, ne servirait à rien s'il ne permettait de mieux appréhender la nature, l'étendue et la vigueur de ce que certains ont appelé « l'aliénation médiatique» avec pour objectif de favoriser une prise de distance, une autonomie, une résistance critique et dialectique face aux médias de toute nature dans l'espoir que les jeunes d'aujourd'hui, les citoyens de demain, demeurent sans cesse conscients de la médiatisation subie par les données, les informations et les connaissances. S'agissant d'une théorie toute neuve, le rôle des lecteurs de cet essai va être prépondérant. S'ils le veulent, ils pourront servir de relais et contribuer à son développement. Ils recevront en échange la délicieuse excitation de la découverte de l'inconnu et la sensation de mieux comprendre l'organisation du vivant. Et s'ils le désirent, ils pourront faire vivre la théorie distanciatrice en pratiquant ou en faisant pratiquer son volet social qui est 1'« éducation médiatique ».
Qu'ils en soient par avance remerciés.

Chapitre I

LE CONTEXTE

MEDIATIQUE

ET CULTUREL

L'univers - impitoyable - des médias ne cesse de s'étendre. TIne se passe pas de jour sans qu'un nouvel épisode vienne s'ajouter aux précédents: déontologie du journalisme, droit d'accès à l'information, concentrations financières avec rachat des fabricants de programmes par les fabricants de matériel, détermina tion des zones de couverture hertziennes des satellites de diffusion directe, débats sur l'utilité d'une législation sur la publicité ou sur la violence diffusées sur les petits écrans. Sans cesse, le superloto médiatique fait parler de lui en parlant des autres. Marshall McLuhan n'avait pas la vue trop déformée quand il proclamait que « le message, c'est le médium », phrase célèbre s'il en est, souvent reprise et comprise différemment par les exégètes, qu'ils soient acteurs ou théoriciens des médias 1. Dans cet environnement, quelques essais - assez rares - ont tenté de montrer des horizons nouveaux, de dégager des voies originales. Mais les sherpas qui les présentèrent n'entraînèrent que des cordées réduites. Où bien ils étaient trop théoriques, peu accessibles au grand public, ou bien trop vimlents, trop irrespectueux du jeu médiatique - et surtout télévisuel - classique. Ellul, Sfez ou Postman, même combat, mais pour combien de lecteurs ? Ce tableau ne peut qu'inciter à la modestie: le système médiatique intègre tout, même ses propres agents dissolvants - pour mieux les dissoudre à leur tour. On cherche d'urgence son prédateur. Si au terme de cet ouvrage, ses lecteurs pouvaient avoir trouvé - en euxmêmes - les moyens de mieux exercer leur distanciation personnelle ou encore de mieux auto repérer les mécanismes d'identification, de projection ou de transfert pour en user en connaissance de cause, 1'« éducation médiatique» qui sera au cœur de notre thèse aura avancé de manière significative. Ne vient-on pas de montrer que la présence d'une borne audiovisuelle interactive, rassemblant un lecteur de vidéodisques et un ordinateur pour montrer des clips vidéo et des extraits de films avaient fait augmenter les ventes d'une marque célèbre de jeans de 735 % dès lors que par ce moyen les clients pouvaiem s'identifier à leurs acteurs ou chanteurs préférés 2.
1. Marshall McLUHAN, Understanding Media, New York, McGraw-Hill BookCompany, 1964, traduction française: Pour comprendre les midias, Paris, Marne-Seuil, 1968, p. 23, sqq. 2. Salon lmacom 1988 - 25/27 octobre 1988, Besançon. Cf. François FAVRE,Vidéo interactive, le début de l'âge d'or? Paris, Revue Sono vision n0321, décembre 1988, p. 79. Il

14

LA DISTANCIATION

Dans le contexte actuel de surpression médiatique, une tentative de reconstruction théorique susceptible de déboucher assez vite sur des applications pratiques - notamment éducatives - pourrait relancer et stimuler le débat sur l'influence psychologique et sociale des médias. Il s'agit d'une œuvre de salut public qui mérite que l'on y consacre l'énergie du désespoir (pour les pessimistes), l'instinct de survie (pour les optimistes), ou en termes plus généraux l'élan vital pour les optimo-pessimistes. Ce chapitre présentera le contexte dans lequel l'esquisse de la théorie distanciatrice s'est développée et dans lequel elle doit immédiatement s'appliquer. Après un rapide survol des conditions technico-économiques internationales et un premier énoncé des hypothèses les concernant, la question de l'interactivité précédera l'examen des déterminants culturels, notamment au travers des trop fameux «besoins des publics », chers aux ingénieurs sociaux, ou à l'avènement d'un futur socialisme culturel. Le nouveau rapport au savoir, spécifique de la société médiatique, sera examiné avec la question de l'école dite parallèle ou concurrente en première introduction à ce qui deviendra plus tard l'éducation médiatique. L'énoncé des hypothèses générales, elles-mêmes resituées dans le champ des théories de la communication, bouclera ce premier chapitre.

Les déterminants

technico-économiques

L'analyse économique des médias possède déjà une assez longue histoire, rassemblant de nombreuses études macro et micro-économiques. De cet ensemble, il est nécessaire d'extraire quelques données, parmi les plus significatives, et de repérer les principaux déterminants de l'infostructure (structure des moyens d'information et de communication). Ajoutons aussi qu'à notre sens, tout discours théorique sur les médias ne peut faire l'économie... d'une étude de leur économie et plus généralement des contextes culturels et techniques. Une théorie ne s'établit pas sur du sable... ou sur une table rase. Les technologies de l'iriformation et de la communication

L'affirmation selon laquelle le marché de l'information supplanterait progressivement tous les autres pour nous faire entrer dans la société de l'information (et de la communication) est devenue un lieu commun. Il importe cependant de la vérifier à l'aide de quelques statistiques précises. Mais auparavant, il convient de clarifier un peu l'usage des deux vocables d'information et de communication. La distinction entre l'information et la communication est en train de s'estomper. La plupart des actes de diffusion d'informations visent à la mise en commun de celles-ci, autrement dit à leur communication à un certain public. fut-il volontairement restreint, notamment dans le cas des informations jugées secrètes. Une information n'informe que lorsqu'elle est communiquée. sinon.
s'agissait bien sûr de la fmne Levi Strauss.

LE CONTEXTE

15

comme l'image photographique, elle reste latente, comme l'énergie, elle demeure potentielle. La notion d'information, fortement distincte de celle de communication, n'est apparue que pour l'établissement des théories du signal (Wiener, Shannon, Weaver et leurs émules). Depuis, elle se trouve totalement intégrée dans celle de communication, d'où la tendance irrésistible au glissement de l'information vers la communication, et la réponse, diffuse, des individus à s'extraire de la communication omniprésente pour sélectionner seulement les informations dont ils estiment avoir besoin, à un moment et en un lieu donnés. On peut raccrocher à ce phénomène la « starisation » (ou la médiatisation) obligatoire de toute cause, de tout discours qui veut atteindre le grand public. L'information sur la famine en Ethiopie ne passe (c'est-à-dire ne touche) le grand public que si elle devient de la communication, traitée par des professionnels de la médiatisation. De ce point de vue, et pour cultiver le paradoxe, on pourrait affirmer que la communication médiatisée oscille sans cesse entre la communion (les records de l'audimat et la plus large audience) ou l'ex-communication (les micropublics ciblés); cette parabole - religieuse - ne faisant que rappeler le dilemme fondamental tel qu'il fut, paraît-il, posé par Moïse et Aaron 3. Moïse détenait l'information suprême (les Tables de la Loi), il était un personnage du discours, de l'écrit, du raisonnement, de la rhétorique. Aaron, au contraire était le « communicant », le communicateur, le médiateur, presque le médiatiseur (en demandant et en obtenant des miracles). On a peut-être été injuste en condamnant Aaron aux oubliettes de l'histoire. Sans lui, l'information pure, brute n'aurait pas eu le moindre retentissement. TIfallait la mettre en scène, la « scénariser» et la médiatiser. Sans Aaron le communicateur, Moïse l'informateur n'aurait pas été connu et reconnu. Il aurait prêché dans le désert... Ainsi, dès les origines (religieuses), la dualité et la complémentarité incontournables de l'information et de la communication étaient-elles posées. Sans avoir en aucune façon résolu la question. Entre le narcissisme groupal et la propagande massifiante, la voie est difficile pour mettre en commun des informations. Le chiffre d'affaires de l'information mondiale

Les technologies de l'information/communication ont assuré en 1988 un chiffre d'affaires de l'ordre de 550 milliards de dollars, ce qui les place à peu près au même niveau que la sidérurgie ou l'automobile, mais tout de même assez loin derrière le marché agro-alimentaire. Sur cette somme, environ 200 milliards concernent l'industrie informatique, ce qui relativise un peu son importance par rapport aux autres marchés. Si l'on s'intéresse aux tendances, on remarquera une augmentation continue des chiffres d'affaire de l'information (et tout particulièrement de l'informatique),
3. On lira avec profit l'approche passionnante qu'en propose Lucien SFEZ dans son ouvrage: Critique de la communication, Paris, Seuil, 1988, p. 323.

16

LA DISTANaA110N

accompagnée d'une baisse lente et régulière des autres grands groupes de marchés (agro-alimentaire excepté). Avec une base égale à 100 F en 1968, l'électronique est restée aux environs de 130 F 4. tandis que les objets de la vie courante que l'INSEE désigne sous le nom des 295 articles atteignent aisément les 400 F. Figure 1.1. La chute des coûts des composants électroniques (source INSEE et SIMA VELEC 5) :
500 450 400 350 300 250 200 150 100
50

.
;:
67 69 71 73

El

Coût de la vie Electronique

o

75 77 79 81 83 85 87 89

Ces chiffres tendraient à faire avancer une hypothèse selon laquelle notre société présente en ultra-accéléré une mutation déjà connue avec le passage de l'économie de subsistance à l'économie d'abondance (hélas pas pour tous...).

Quelques études ethnologiques ont montré que 1'« homo communicans» 6
consacrait trois à quatre fois moins de temps pour rechercher et préparer sa nourriture que devaient vraisemblablement dépenser ses ancêtres des cavernes (les habilis ou les premiers sapiens). On retrouve aujourd'hui ce facteur quatre mutagène non plus vis-à-vis de la subsistance nourricière, mais du côté de l'information et de la communication. Et l'on peut avancer que la pression qui s'ensuit sur l'intellect est sûrement plus forte, en raison de la vitesse d'apparition et de disparition ou d'enfouissement 7 des innovations. La baisse des coûts en informatique est un phénomène suffisamment bien connu pour qu'il soit inutile d'y revenir dans le détail. Voici les principaux éléments permettant d'étayer l'argumentaire du «jamais vu ».

4. Ce qui veut dire qu'un objet électronique valant 100 F en 1968 coûterait environ 130 F à caractéristiques égales. 5.lnstitut national de la statistique et des études économiques. Syndicat interprofessionnel des matériels audiovisuels électroniques - Années 1967 à 1990. 6. Ou, pour reprendre le titre d'un des ouvrages de Pierre SCHAEFFER, L'Homo faber, Paris, Seuil, 1988. 7. Cette notion d'enfouissement a été présenté par Jean Devèze dans un Colloque de la Société française des sciences de l'information et de la communication (Compiègne, Actes du colloque, 1978).

LE

CONTEXTE

17

Figure 1.2. Evolution ducotit {en dollars courants) et du temps de traite-

ment de l'information (source mM) :
100

10

10

0.01 1955 1960 1965 1970 1975 1960 1963

Sur ce graphique, la force du phénomène apparaît dans toute son ampleur. En une vingtaine d'années, un facteur d'accroissement à peu près égal à 245000 s'est dégagé, c'est-à-dire qu'un travail qui revenait à 1000 F et nécessitait tOO secondes en 1968 aurait demandé 245000 fois moins de temps en 1987 à cotit égal ou aurait coûté 245 000 fois moins à durée égale. C'est l'exemple classique de la Rolls-Royce que l'on pourrait payer environ 5 F aujourd'hui si son prix avait baissé dans les mêmes proportions que les composants micro-électroniques 8. Principales caractéristiques de l'infonnattsation Le développement de l'informatique et des nouvelles technologies d'information a été maintes fois analysé. Ses caractéristiques essentielles sont résumées ci-dessous: 1.
Division des coûts des composants par un facteur d'un million en trente

2. 3. 4. 5.

ans. Multiplication des capacités des composants de un à dix millions en trente ans. Extension exponentielle de l'utilisation des composants vers tous les corps, les machines et les rouages de la société Première innovation technologique majeure non polluante et fortement économe en énergie de fonctionnement. Conjonction historique exceptionnelle d'une science (avec ses concepts et sa méthodologie), d'une technique (avec des offres de plus en plus alléchantes) et d'une culture (avec des réseaux de communication de plus en plus denses et diversifiés).

8. Coût d'une Rolls-Royce en Francs constants: environ 1,4 millions de Francs: baisse d'un facteur de 245 000, soit 1 400 000/245 000 = 5 F (<<prixactuel»).

18
6.

LA DISTANCIATION

7.

Conséquences sociales, économiques, politiques et culturelles extraterritoriales, d'où un exceptionnel taux d'erreurs macro-économiques. Les conséquences d'une informatisation sont toujours extrêmement difficiles à évaluer, certains effets (pervers?..) ne se découvrant que beaucoup plus tard et là où personne ne les attendait. Modèles traditionnels de diffusion technique et sociale des innovations remis totalement en cause, aussi bien du point de vue des rapports hiérarchiques du travail salarié que de celui des rapports de force industriels et économiques Est-Ouest et Nord-Sud.

La notion

de main-d'œuvre

Les pays développés se trouvent confrontés à la mutation du concept de main-d'œuvre qui dit assez bien ce qu'il cache, c'est-à-dire le mépris de l'intelligence et du savoir faire qui sous-tendent le bon fonctionnement de la main. Lorsque l'on parle de main-d'œuvre, on oublie encore trop souvent que derrière (ou devant) la main, il y a le cerveau, ce que l'épiphénomène de l'industrialisation sauvage a volontairement oublié. C'est ce que confirme André Leroi-Gourhan: «... la main à l'origine était une pince à tenir les cailloux, le triomphe de l'homme a été d'en faire la servante la plus habile de ses pensées de fabricant (00')Le XIxème siècle avec la taylorisation a marqué une déculturation technique. »9 Au total, un gâchis immense de savoirs, de savoir-faire ou de compétences dont les drames actuels du chômage ne donnent qu'une idée réduite bien que tragique; un gâchis qu'il faut avoir présent à l'esprit en entendant les discours humano-modernistes (ou néo~libéraux) sur la robotique, la bureautique et l'ensemble des nouvelles technologies qui montrent trop de précipitation fébrile, de démagogie électorale en oubliant totalement la moindre référence à l'utilité sociale de la décision politique. Certains discours technocratiques sur les systèmes experts caricaturent assez bien cette réalité. Comme on le sait, ces systèmes devraient remplacer (à terme) les ordinateurs stupides en leur permettant d'« agir» ou de réagir (presque...) comme un expert et de prendre les décisions adéquates, même dans le cas d'une situation non explicitement prévue par le programme. Il s'agit en somme de simuler des raisonnements humains non algorithmiques mais plutôt heuristiques, voire purement stochastiques, par essais successifs plus ou moins désordonnés. Parfois, les systèmes experts sont décrits comme des solutions « clés en main» permettant de se passer totalement de l'expert puisque son double, son golem le remplacera sans défaillance psychologique, sans maladie, sans fatigue, sans sommeil ni vacances. A l'extrême, une
9. André LEROI-GoURHAN. Le Geste et la parole, La mémoire et les rythmes. Paris Albin Michel. 1965, p. 59 et 61.

LECONfEXTE

19

« chaîne expene » (le vocable va peut-être apparaître) pourrait remplacer le spécialiste, le décisionnaire et les exécutants. Dans ce cas, comme dans celui de la main-d'œuvre déqualifiée devenue inutile, voire nuisible pour la marge brute de l'entreprise, on procède d'une même vision réductrice: considérer l'être humain (en soi-même et en autrui pour reprendre les termes d'une maxime célèbre de Kant) toujours comme un moyen, jamais comme une fin. Vision utilitariste, totalitaire, tautiste 10 dans laquelle l'aliénation atteint de nouvelles limites en faisant considérer la ressource individuelle de l'expen ou de l'ouvrier comme une valeur constante, figée, mone comme un composant d'ordinateur qu'il suffirait de programmer et d'exploiter à moindre frais, en l'occurrence en se débarrassant du « donneur de ressources », une fois son savoir récupéré et intégré. Heureusement, les impossibilités techniques (et sûrement théoriques) rendent cette interprétation en panie illusoire (au moins pour les systèmes expens). L'efficacité du substitut n'égale jamais celle de l'original dans tout le domaine de compétence de celui-ci - ce qui ne veut pas dire que sur des domaines restreints, il soit impossible de remplacer l'expen humain par l'ordinateur. Mais heureusement, dans ce genre de cas, c'est plutôt la seconde interprétation qui prévaut. A contrario si l'on peut dire, il existe une autre vision des systèmes expens, une vision pouvant préfigurer ce que devrait être l'approche générale vis-à-vis des nouvelles technologies. Dans cette optique, le système expen, loin d'être un moyen de se passer de l'expen, constitue une méthode, une propédeutique, ou une maïeutique lui permettant d'augmenter son excellence dans son domaine de compétence. Grâce au logiciel, il doit réfléchir sur ses connaissances, les mettre en perspective puis en forme, les hiérarchiser et au moins en panie les systématiser voire les formaliser. Le système' expen est alors une technique d'assistance à la recherche du meilleur diagnostic ou de la meilleure thérapeutique. L'ordinateur joue à plein son rôle d'assistance, d'accélérateur ou de catalyseur des capacités, des ressources, des talents, des désirs. Avec le Macintosh, une firme comme Apple s'est identifiée très tôt à ce genre d'approche. Ses campagnes publicitaires du genre: «Donnez le meilleur de vous-même» vont tout à fait dans ce sens. Malheureusement, ce qui peut fonctionner dans le monde réduit des expens ne peut évidemment s'étendre tel quel dans celui de la production ou des services, bien que les cercles de qualité, le « zéro défaut », la responsabilisation, les petites unités de production aient cherché à aller dans le même sens: celui de l'abandon de la déculturation technique et de la (re)-connaissance des

capacités individuellesde la « main d'œuvre ».
Il faudrait en somme chercher par quelle pédagogie et en fonction de quelles possibilités économiques, il serait possible d'amplifier cette approche et de l'étendre au maximum d'entreprises. Mais avant d'en arriver là, un imponant travail de défrichement, de distillation s'impose: le repérage de la
10. Nous reprenons à notre compte ce néologisme forgé par Lucien SFEZdans son dernier ouvrage: Critique de la communication, op. cit.

20

LA DISTANCIATION

ressource personnelle et son exploitation ne sont pas choses aisées. On ne peut transférer la mise à distance des processus cognitifs de l'ingénieur vers l'exécutant dont la formation a justement consisté à réduire cette distance, ce détachement de l'objet de son ouvrage. En règle générale, on ne demande pas à un exécutant de réfléchir à son travail, on lui demande de l'exécuter. Les « boîtes à idées» ne sont pas encore très répandues et, de toutes façons, il faudrait aussi tenir compte des marges de manœuvre dont disposent les agents et la maîtrise dans l'organisation et l'exécution de leurs tâches. Quelle est la marge de liberté du manœuvre, de l'ouvrier spécialisé 1 Voilà sûrement des thèmes de recherches psycho-socio-économiques à fortes retombées pour les temps qui viennent. En amont, au plan théorique, toutes ces problématiques de la ressource, de l'expertise et de l'excellence renvoient. naturellement pourrait-on dire, à celle de la distanciation. D'où notre tentative de commencer à construire une théorie générale de celle-ci. Pour en revenir à des considérations plus traditionnelles, on peut également considérer que les discours sur les nouvelles technologies dérivent de louables intentions d'amélioration de la productivité, de réduction de la pénibilité ou de la répétitivité des tâches. Mais il faut ne pas oublier en route que nous disposons tous de nombreux systèmes experts en nous-mêmes, et que ces systèmes peuvent échanger des connaissances. des processus, des savoir faire pour inter-agir afin de nous pennettre de mieux parvenir à nos fins. C'est même là, semble-t-il, un avantage décisif de l'espèce humaine. D'où le reproche que certains cognitivistes adressent à ceux qui font entrer les systèmes experts dans le champ de l'intelligence artificielle. Un système expert n'est pas, ne peut pas être intelligent. Il n'est en aucune façon autonome. sa seule liberté consistant à établir des connexions entre des connaissances et des faits. reliés par des règles peu dynamiques définies par son maître, l'expert ou le cogniticien, c'est-à-dire le maïeuticien de la connaissance ou l'accoucheur du savoir. Au contraire la « vraie» intelligence artificielle a prétention (et vocation 1) à mettre au point des programmes capables d'initiatives. passant par le repérage de régularités et la fonnalisation de règles de conduite et de décision. Cette définition, bien que très incomplète et laissant dans l'ombre d'autres aspects importants comme la compréhension du langage ou la reconnaissance des fonnes, pennetnéanmoins de faire sentirl'« incommensurable écart» entre ce que serait (sera 1) l'intelligence artificielle et les balbutiements, même performants dans chacun de leurs segments de connaissance. que présentent les systèmes experts actuels. Des systèmes experts aux cercles de qualité ou d'excellence. des entreprises du troisième type aux entreprises mutantes et intégralement robotisées. exploitant au maximum leurs gisements d'information et leurs réseaux de communication, tous ces signes avant-coureurs montrent que le concept dévalorisant et dévalorisé de main-d'œuvre est de plus en plus archaïque. Il est temps de le transmuter en une notion plus adaptée. plus ouverte. plus riche d'avenir. plus prometteuse: la thèse de l'économie de la ressource humaine de François Perroux. reprise par Samuel Pisar pourrait faire l'affaire. Transmutation. non

LE CONTEXTE

21

dans les paroles, mais dans les faits. Urgente, indispensable, vitale, en particulier vis-à-vis des jeunes, car selon Pisar « une société qui se blinde est une

société qui se mine...

» Il

Dans cette optique, il s'agirait rien moins que de« rendre pensable ce qui est impossible et possible ce qui est impensable»... Ce devrait être une tâche prioritaire, susceptible de guider les travaux quotidiens où que l'on soit, à quelque niveau de conseil ou de décision. TIy faudrait beaucoup d'humilité et

de capacité d'écoute de ceux à qui on prétend rendre service (<< tout pour le
peuple, rien par le peuple », disait Catherine II à Voltaire). En déréalisant les rapports sociaux, la médiatisation peut amplifier ce penchant naturel. L'attirance technologique ou le bluff technologique pour reprendre les termes de Jacques Ellul peut conduire plus ou moins insidieusement à profiter des réductions imposées par le matériel et ses logiciels pour prendre la parole (et le pouvoir) à la place de l'autre, au seul nom de sa compétence technologique, remplaçant aujourd'hui ce qui fut autrefois la compétence linguistique. D'où l'importance de l'acquisition généralisée d'une culture scientifique et technique, mais aussi logique et littéraire, dans le sens de la compréhension de la médiation scripturale ou du « lettrisme» (opposé à l'illettrisme). Ces thèmes feront évidemment partie de l'éducation médiatique qui constituera la première action concrète de la théorie distanciatrice. Une fois les objectifs tracés, il reste à les atteindre. Ce n'est évidemment pas le plus facile.

Formalisation

des hypothèses

technico-économiques

Bien qu'il ne soit pas question de proposer dans cet essai une nouvelle grille interprétative des données sociales, politiques et économiques des médias, il est indispensable de formuler brièvement les hypothèses sur lesquelles s'est articulé l'ensemble de la réflexion. Comme disait Marx, les théories ne poussent pas comme les champignons, il leur faut un substrat. C'est de celui-ci dont il s'agira brièvement ici. Pour accélérer la lecture le style télégraphique, faiblement discursif et redondant, donc non littéraire est le plus pratique, c'est pourquoi il en sera fait usage.

1. Constats de départ
1. Deux tiers de la population active travaillant dans les services... un fait d'évidence que l'on n' a pas encore bien intégré. C'est

2. 3.

Complémentarité croissante des médias électroniques. .. Les restructuIations multiples de l'audiovisuel en constituent une bonne illustration. Diversification des contenus et des réseaux... En termes publicitaires, on parlerait de segmentation, de ciblage ou d'interactivité.
Il. Samuel PISAR,La Ressource humaiTl£,Paris, lC. Lattès, 1983, p. 86.

22

LA DISTANCIATION

2. Hypothèses

socio-économiques

La présentation synthétique exige, là encore, de poursuivre avec le même style - autrementdit sans style du tout:
1.
Toute information est une marchandise. Toute communication est un service. Tout service est payant 12. La tarification ne dépend plus de la distance mais de la durée et du volume d'informations 13. Le récepteur du message (surtout publicitaire) demande à le recevoir lui-même (conception « marketing» de l'interactivité). A la segmentation des contenus de la communication correspond la segmentation des publics, des moyens et des canaux.

2. 3. 4.

Telles quelles, ces hypothèses, dans leur sécheresse, leur absence de fioritures semblent décrire assez bien la réalité actuelle. Oserons-nous l'avouer, ce type de présentation nous est apparu fécond le jour où par un effet du hasard s'est révélé un curieux phénomène de résonance (au sens de la physique) entre les théorèmes de Spinoza et les équations de James Oerk Maxwell décrivant la théorie électromagnétique. A ce point, on retrouve les systèmes experts et l'indispensable formalisation à laquelle ils contraignent les chercheurs en sciences sociales, comme si à un certain adoucissement des sciences dures (avec les quarks ou les particules de charme...) correspondait, en écho, un durcissement des sciences douces avec l'utilisation des ordinateurs non seulement pour les traditionnels aspects statistiques, mais aussi et surtout pour affiner les analyses, les hypothèses, les théories et les purger du trop factuel, du trop relatif. Le premier corollaire a été introduit pour la première fois dans le célèbre rapport Nora-Mine de 1976 fondant la future télématique française, mélange de dirigisme en matière d'infrastructures et d'équipements et de libéralisme en matière de programmes ou de contenus. Au début des aImées quatre-vingt, les conséquences de la médiatisation essentiellement télématique n'apparaissaient pas aussi nettement. En 1989, cette proposition fonctionne intégralement: il suffit de voir les nombreux services télématiques avec lesquels, on doit payer au prix fort des renseignements obtenus gratuitement par la médiation interpersonnelle. L'exemple de la SNCF est flagrant. On paie 60 F de l'heure (en 1991) pour obtenir des renseignements fournis gratuitement au guichet ou contre une taxe de base si l'on téléphone. Mais il n'y a pas que les horaires des
12. Nous avons publié cette fonnulation dans un article de janvier 1982: Informatique et audiovisuel, avant le dégel, in l'Ecole libératrice n0570, 30/01/1982. 13. Cette hypothèse s'applique à la première époque de la télématique (dans la foulée du rapport Nora-Minc). Des correctifs importants ont été apportés en 1987 avec l'instauration de tarifications en fonction du genre de la communication (kiosque multi-paliers) et de dispositifs de compression de l'infonnation.

LECONfEXTE

23

trains, la plupan des grands médias usent et abusent du même stratagème pour attirer et retenir la clientèle. Ainsi, cette proposition peut-elle être déduite directement de la première hypothèse sur la société de communication. Si deux tiers de la population sont occupés par les tâches de communication, il faut bien financer leurs salaires, en rendant payant ce qui était autrefois gratuit. On devra s'habituer à ces nouvelles idées, d'ailleurs depuis longtemps présentées par Ivan lllich, en particulier lorsqu'il cite la plus value que le regard du futur consommateur apporte à l'étalage du commerçant, ou dans un autre registre, à la nécessité de prendre conscience que le promeneur, le simple touriste va devoir payer pour voir et a fortiori pour regarder les sites ou les paysages qu'il traverse. Ce qui commence à être explicite dans l'univers des grands médias ne l'est pas encore panout. Dans la société de communication, demander son chemin sera payant, comme c'est déjà le cas en télématique. Les octrois d'antan vont revenir. Avec la carte à mémoire, les paiements seront faciles et indolores. Mais à quoi auront droit les insolvables ou les citoyens privés de carte? Devra-t-on un jour instaurer un droit minimum d'accès à l'information comme le rapport McBride l'esquissait à propos des échanges Nord-Sud? On trouve aussi de nombreuses illustrations de cette proposition du côté de la marchandisation progressive de l'écran de télévision, se transformant en support des opérations de télé-achat. La situation nord-américaine, comme toujours, semble très révélatrice. La programmation tient de plus en plus compte des opérations de vente. Les films et les séries encadrent et font écho aux émissions dédiées à la vente. L'imbrication entre les spots publicitaires, les débats ou les séries tend vers l'intégration totale. La promotion devient pascalienne: sa cible est panout et ses responsables nulle pan 14. On ne sait plus qui parle à qui, l'imbroglio devient total. Le deuxième corollaire apparaît plus rapide à commenter. Il est en prise directe avec la tendance des télécommunications mondiales à tarifer en fonction des débits et des durées plutôt qu'en fonction de la distance. En France, il accompagne la tentative de décentralisation économique. Le troisième exigerait un examen attentif (qui sera repris au moment de la critique de la théorie des besoins sociaux). De fait, le télémateur, appellation à connotation péjorative de l'utilisateur du minitel, exécute lui-même l'acte de demande d'information, notamment dans le cas de messages publicitaires, ce qui accroît d'autant les chances de rendement des annonces. L'interactivité est alors conçue comme le moyen de maintenir son' intérêt et de déclencher le plus rapidement possible son acte d'achat. On en a de bons exemples avec les jeux télévisés ou le télé-achat recourant au minitel15. Les joueurs suivent le
14. Cf. l'article de Patrick PAJONet Jean-Michel SALAUN, a culture de l'industrie, Paris, L Revue Sonovision n0320, novembre 1988, pp. 80/85 : le commerce se spectacularise. 15. Au tarif «kiosque» à raison de 0,98 F la minute en 1991. On peut noter que la quasitotalité de ces services pourtant promotionnels sont facturés au prix fort du « kiosque» grand public. Au contraire, les sociétés de vente par correspondance offrent des accès à des tarifs plus réduits (seulement le coût des taxations PTf). Sur les couplages entre les grands médias

24

LA DISTANCIATION

jeu sur leur écnmet interagissenten payant des taxes de base pour mieux consommer. La démocratie cathodique se met en marche. Pour participer, il faut être câblé, branché, minitelisé... et solvable. A contrario, la publicité télématique a inversé la problématique de la réclame car on n'a pas à séduire le chaland. mais à l'empêcher d'aller butiner ailleurs, par exemple chez le concurrent. De cette auto-intégration naîtrait la liberté de choisir et de consommer. Comme d'habitude dans ce genre de débats, les arguments sont partiels et tendancieux. La liberté hypennédiatique pour tous, certes, mais à condition de connaître les règles du jeu... et pas seulement du jeu télévisé bien sdr, mais surtout du jeu de sa mise en scène, de sa (re)-présentation. Ce qui conduit tout droit et à nouveau vers l'approche distanciatrice. La quatrième hypothèse est un peu un corollaire de la précédente. Elle précise son mode de développement autour de la problématique de la segmentation. Elle aboutit assez directement à une sorte de socialisme culturel qui sera étudié par la suite. Cette supersegmentation, destinée en principe à mieux servir, à mieux satisfaire le consommateur/citoyen peut conduire à ce que chacun dispose de voies d'accès privilégiées à des informations dont le contenu et la mise en forme lui soient réservés, comme dans une sorte de publipostage (mailing) intelligent. Ce qui renvoie ipso facto à la dialectique soulignée précédemment: la communication au milieu de la communion (les fidèles, les alter ego) et de l'excommunication (les exclus). Chacun recevrait ainsi des informations en fonction de son niveau intellectuel, de ses attentes, de ses besoins, de ses désirs supposés dans un Meilleur des mondes digne d'Aldous Huxley. Là encore, on retrouve, comme en attente, la théorie distanciatrice qu'il va falloir construire en conservant à l'esprit ces enjeux capitaux. Dans cette évolution (inéluctable ?), une arme nouvelle, présentée comme la panacée attire vers elle tous les protagonistes de l'agora en tiques 16,transformée pour la circonstance en temple des marchands. n s'agit de l'interactivité qui mérite un examen attentif et une ébauche de typologie.

L'interactivité

en question

Avant d'en venir à l'interactivité médiatique, il est indispensable de resituer l'interaction dans les situations de dialogue verbal et gestuel entre deux interlocuteurs (on pourrait dire en situation de« médiation », par opposition à un échange utilisant des médias artificiels, ce qui renverrait alors à la « médiatisation »). A cet effet, les travaux menés par Ray Birdwhistell dans son étude sur le film Doris 17 paraissent constituer une première approche absolument fonda(presse et télévision), voir les actes du colloque de l'association Carrefours télématiques, 1987. 16. Pour reprendre le titre de l'ouvrage de Gérard METAYER, l'antique agora vers l'agora De en tique? Montréal, Sociologie et Sociétés, 1984. 17. En étudiant image par image ce fIlm,Birdwhistella montré pour la première fois toute une gestuelle (une kinésie) interactionniste. Les 18 secondes de la séquence de l'allumage

LECONTEX'Œ

25

mentale. Pour la première fois peut-être, la preuve a été apportée du jeu hyper'complexe des interactions entre deux interlocuteurs. Analysés simultanément à la production de paroles, la gestuelle et tous les signaux kinésiques comme l'allumage de cigarette ou le mouvement des mains montrent leur importance fondamentale dans tout processus de communication. Des nombreuses autres recherches ayant porté sur les processus d'interaction. il faut retirer comme principale conclusion q~e plus un système est complexe, plus l'interaction est varié'f et multiforme.. Ce qui signifie que l'interactivité médiatique dont on parle habituellement ne couvre q~'une infime partie du champ interac tionne!. Pour aller plus loin, il conviendrait de croiser

la notion de rétroaction

tique 18, ce qui aurait pour premier effet de redéboucher sur la problématique de la distanciation dialectique. Mais auparavant il faut creuser davantage l'interactivité médiatique et chercher à en offrir une première cartographie, sous la foane d'une typologie sommaire.

(<<fèedback

») avec celle de réversibilité média-

1. Les cinq degrés d'interactivité

médiatique

Les confusions actuelles lorsque l'on parle d'interactivité tiennent, entre autres, aux très diverses acceptions du terme en fonction des possibilités techniques offertes par les matériels et les programmes audiovisuels et informatiques. En première approximation, on peut se contenter d'une typologie en cinq degrés, liés aux offres en matériel et en logiciel ainsi qu'aux modes de consultation des données ou de navigation dans des univers multimédiatiques ou métamédiatiques (pour reprendre la tenninologie actuellement en vogue). Premier degré d'interactivité Dans cette catégorie, seront placés tous les choix multiples offerts par les menus informatiques, télématiques ou audiovisuels (choix des chaînes, des programmes et des sous-programmes, etc.). On peut y ranger la quasi-totalité des systèmes actuels dits interactifs, dont bien sûr le minitel et ses touches de commande. La pseudo-interactivité des émissions de télévision que l'on peut choisir de regarder ou non en allumant ou en éteignant son récepteur pourrait s'intituler « degré zéro de l'interactivité» (en paraphrasant Roland Barthes).
d'une cigarette se sont révélées particulièrement intéressantes. Voici ce qu'en disait Ray Birdwhistellui-même: « ... cette scène ou Gregory et Doris, simultanément, discutent des mérites de Bruce, le fils de Doris, âgé de quatre ans et demi, et s'engagent dans le rapprochement et le retrait, rythmis comme une danse rituelle de l'allumette et de la cigarette, est demeurée comme un corpus, riche de données qui ne sont pas encore toutes analysées. », Ray L. BIRDWHISTElL, Recherche sur l'interaction: approche micro-analytique, Université de Pennsylvanie, 1970, traduit par Yves WINKIN, a nouvelle Communication, Paris, Seuil, 1981, L p.162. 18. Examinée au chapitre 8. Il s'agit de la capacité variable de chacun des médias de se prêter au retour rétroactif du récepteur. La télévision de masse est faiblement réversible. Le jeu télématique l'est au contraire fortement

26

LA DISTANCIATION

Sa caractéristique principale réside dans le fait qu'elle s'adresse à une masse de récepteurs faiblement différenciés. Deuxième degré d'interactivité

La liberté de l'utilisateur demeure réduite, son choix est partiellement déhiérarchisé par une arborescence souple entre des options prédéterminées. Les mnémoniques apparaissent, soit à la faveur d'abréviations, soit le plus souvent avec des troncatures abusives 19. Le concept de navigation dans l'information émerge avec des métaphores d'interfaces graphiques conviviales inspirées du Macintosh d'Apple. L'offre des services s'adresse encore majoritairement à une masse de récepteurs en cours de différenciation
20.

Troisième

degré d'interactivité

Le choix de l'utilisateur continue de se déhiérarchiser grâce à des mnémoniques plus pratiques et constants d'un programme à l'autre ainsi que des navigationnels semiconviviaux. Les demandes de renseignement personnalisés se développent, de même que les échanges interpersonnels ou intergroupaux avec les messageries publiques et privées, les forums, les agoras ou les murs télématiques, forme (super)-médiatisée des dazi-baos et dernière résurgence technique d'un art de l'éphémère. Figure 1.3. Un exemple de mur télématique (squatt ou tag 1) sur le serveur R7521:
-iIIiI»1I!! ...-

..~a~I'~/I'-

la horda

I_m../IJ.

aol ja va instalar

80n sqatt

sur

~:u:ula~ae:~u~l:~~ap:~.~:IP~~~..

pl e'ast pratlka d'aeeas kool Il ~ a L'aau at l'alaetrleita da.onlaklard ar ethulhu

.

~~~~~~~~

'5I:iI~~!I_il_ilb'_Jl'i.'I.T8i'I[JTIf"'..'!I1IIiIfP.811

19. Les mnémoniques les plus classiques sont du genre PA pour Petites annonces, BE pour Banc d'essai, ou encore, lorsqu'il est court, le mot lui-même (par exemple « Jeu» ), ce qui n'empêche pas d'observer de détestables exemples comme « Spor » parce qu'il faut couper le mot au-delà de quatre lettres.... 20. Le troisième colloque de l'association Carrefours télématiques et de l'Institut National de l'Audiovisuel (INA) : Télématique 89 : le temps de la qualité, Paris, 27/10/1988 était très symptomatique de cet état d'esprit de redécouverte de l'ergonomie logicielle. 21. Accessible par Télétel3, copie d'écran minitel de janvier 1987.

LECONfEXTE

27

Les pseudonymes permettent d'entrer en relation avec ses concitoyens tout en conservant l'anonymat. Les dialogues sur minitel n'ont fait qu'exploiter au maximum l'attrait de ces échanges médiatisés, et souvent de façon assez inattendue au départ, par exemple avec le serveur Gretel de Strasbourg. Entre 1985 et 1988, c'est cette interactivité, souvent à caractère érotique, qui a le plus contribué à [manceI' le lancement du videotex grand public 22. Quatrième degré d'interactivité

La liberté des utilisateurs s'étend encore, les choix aléatoires deviennent possibles grâce à des interfaces conviviales, des menus déroulants, des navigationnels experts ou intelligents capables d'une relative interprétation des commandes par analyse orthographique et morpho syntaxique. L'emploi des vrais mots-clés, voire de certaines phrases-clés, se développe. Les messageries publiques et privées offrent des capacités professionnelles, avec par exemple des listes de diffusion ou des menus de supervision. Les échanges interpersonnels ou intergroupaux deviennent faciles, multiples et adaptatifs. Avec l'accès par mots ou phrases-clés, les banques de données en texte intégral commencent à donner la mesure de leur puissance en ne se contentant plus de donner que les références des sources contenant les mots recherchés, mais le texte lui même, à condition évidemment de savoir correctement employer les connecteurs logiques tels que et, ou, sauf. et les langages d'inter10gation pour se prémunir des redoutables effets de certaines homonymies particulièrement coriaces 23. C'est pourquoi, on commence déjà à développer des systèmes experts capables de gérer des groupes de mots ou d'« idées », c'est-à-dire de vraies phrases, en permettant de trouver les documents cherchés dans des montagnes de textes, sans trop de risque de fournir des occurrences non pertinentes. Cette capacité de retrouver à tout moment un mot ou un concept dans des quantités énormes d'informations se trouve également à la base du concept d'hypertexte.

Cinquième degré d'interactivité Il constitue le stade ultime de la liberté documentaire et communicatoirela
plus étendue, grâce à une intelligence adaptative

- auto-acquisitive du -

système informatique et de ses interfaces, capables d'analyser la plupart des ordres et des commandes, graphiques ou sonores avec une reconnaissance automatique de la parole. Les faux exemples sont assez faciles à confectionner, comme l'ont montré Joseph Weizenbaum en 1975 avec ses célèbres programmes Elisa et Docteur censés remplacer une consultation de psychiatrie non-directive, et le psy22. Cf. Denis PERIER, e dossier noir du minitel rose, Paris, Albin Michel, 1988. L 23. Par exemple une interrogation sur le mot «jeu» effectuée par un mécanicien (théorique ou pratique !) risque de lui donner des références ou des textes portant sur les activités ludiques, ce qui ne correspond pas forcément au « jeu» mécanique de deux pièces qui frottent rune contre l'autre. La réciproque sera vraie aussi.

28

LA DISTANCIATION

chiatre Kenneth Colby avec son programme Parry, capable de simuler Ie comportement mental d'une paranoïaque. Comme le raconte Douglas Hofsdtadter 24 « une amusante collision frontale entre ces deux programmes a été arrangée dans un réseau informatique ». En voici un extrait:
Figure 1.4. Confrontation entre Parry et Docteur:

Parry: Je ne comprends pas vos motifs. Docteur: Pourquoi ne comprenez-vous pas mes motifs? Parry: Ne devrais-je pas l'être? Docteur: Pourquoi dites-vous cela maintenant? Parry: Les choses sont ainsi. Docteur: Supposez que les choses ne soient pas ainsi. C'est tout. Parry: Et alors? Docteur: Je ne suis pas sûr de vous comprendre totalement. Parry: Vous insistez trop sur les mêmes questions. Docteur: Que vous inspire cette similitude? Parry: Je ne vous suis pas. Docteur: Auriez vous voulu suivre je ? Parry: /I est temps que vous manifestiez quelque intérêt pour mes émotions. Docteur: Ah bon? J'ai manifesté de /'intérêt pour vos émotions?

La structure est assez simple puisque le système repère les mots-clés tapés par son interlocuteur, en expurgeant du texte de celui-ci tout ce qui est d'ordre stylistique, syntaxique ou grammatical. Ensuite, il envoie une question en confectionnant une phrase autour du mot-clé en question et ainsi de suite. Quand le programme ne repère rien, il demande des précisions comme un être humain. Des versions ultérieures 25 ont réussi à renvoyer des questions sur les contraires des mots repérés ou à opérer de véri tables « coq-à-l'âne» comme certains êtres humains, avec comme différence notable que les modèles humains en question sont capables de faire surgir de ces brusques transferts des éléments nouveaux, de la pensée nouvelle alors que le programme ne pourra évidemment faire jaillir du sens - de l'idéation - d'un rassemblement aléatoire d'items 26.
24. Douglas HOFSDTADTER, Godel. Escher et Bach, Paris, InterEditions, 1985, p. 67l. 25. TIfaut dire qu'Elisa était un programme très ouvert que l'on pouvait explorer à son gré et auquel ses (nombreux) utilisateurs pouvaient apporter toutes les modifications possibles. 26. Il nous est arrivé, à titre récréatif, de programmer un ordinateur pour qu'il « invente» tout seul des sujets de réflexion liés aux sciences sociales à partir d'une base de radicaux (substantifs et qualificatifs), de préfixes et de suffixes. Certaines de ces créations, au demeurant intéressantes pour le lecteur humain, en lui excitant les méninges, ne pouvaient évidemment rien déclencher pour l'ordinateur qui ne faisait que manipuler des chaînes de caractères. On en trouvera un autre exemple dans l'ouvrage de Roland MORENO,Théorie du

LE CONTEXTE

29

On n'a pas toujours besoin du «langage naturel» pratiqué par ces systèmes, d'autant plus que pour le moment encore, la performance de la conversation obère la puissance de traitement. C'est pourquoi, dans le domaine des bases de données, dans lesquelles la puissance de sélection et de tri constitue le premier avantage, on est plutôt conduit à simplifier les dialogues. Cette simplification ne signifie pas pour autant une baisse de degré d'interactivité. En effet, pour être interactif, un système informatique n'a pas besoin d'être affectueux ou caressant (!), il lui suffit de réagir instantanément aux sollicitations de son pilote (partenaire) et de lui fournir une prestation efficace! La puissance d'un système interactif de recherche peut également s'apprécier en fonction de sa capacité à trouver des occurrences de mots-clés dans des corpus non indexés. L'idéal serait que tous les champs soient accessibles à la recherche par mots ou phrases-clés comme dans le cas de l'hypertexte déjà cité. Les serveurs performants de la fin de cette décennie commencent tous à offrir cette possibilité sans laquelle on retombe tôt ou tard dans les inconvénients de l'arborescence ou des « résumés» (abstracts) déjà dénoncés. La seule interactivité qui soit pour le moment facilement accessible est évidemment celle du premier ou du deuxième degré. Elle ne peut, par conséquent, offrir des performances de très haut niveau excepté sa puissance statistique de traitement simultané de questionnaires à choix multiples. Dans un proche avenir, la puissance de l'interactivité du troisième, voire du quatrième degré va devenir disponible sur les ordinateurs personnels, ce qui bouleversera la plupart de nos habitudes de penser et d'apprendre : « Les gens vont avoir au bout de leurs doigts des outils sophistiqués pour traiter l'information, et cela va changer la façon dont ils travaillent et dont ils apprennent (...) Nous devons créer des valeurs avec des idées, de nouveaux paradigmes de pensée et de communication. Le centre de gravité de l'économie mondiale est le risque, et nous avons besoin d'innovation basée sur des idées puissantes. Changer le monde n'est plus seulement une figure de style! »27 En dépit de leurs faibles performances interactives, la plupart des systèmes informatiques passionnent leurs utilisateurs, en apportant la preuve que le premier et le deuxième degré de l'interactivité touchent de plein fouet l'ego ou l'affectivité de beaucoup de nos concitoyens, principalement les jeunes 28.

Bordel ambiant, Paris,Belfond, 1990,p. 110,sqq. 27. John SCULLEY,PDG de la firme d'ordinateurs APPLE (n02 mondial pour la microinformatique), intervention à Boston (juillet 1987), texte recueilli sur un serveur américain (The Source) puis français (Calvacom). 28. On en trouve de bons exemplesdans l'ouvragede SherryTuRKLE, Second Self, Les The Enfants de l'ordinateur, Paris, Flammarion, 1987. Nous y reviendrons au chapitre 2.

30

LA DISTANCIATION

Les déterminants

culturels

L'affinnation selon laquelle la technique serait neutre 29 n'est plus guère employée, il est à présent généralement admis qu'elle reflète assez fidèlement les valeurs dominantes de la société dans laquelle elle se développe 30. Et puisque cette dernière devient de plus en plus technicienne, l'importance sociale, économique et culturelle d'un bon rapport à la technologie apparaîtra de plus en plus grand. D'où la nécessité d'une meilleure maîtrise des outils de création et de communication. Priorité que tous les gouvernements de cette décennie, à des degrés divers, semblent avoir mis aux premiers rangs de leurs actions vis-à-vis des médias. Au plan international, cette nécessité n'appelle pratiquement plus d'objections. Toutes les actions qui peuvent accompagner ou précéder l'informatisation paraissent aller de soi. On ne juge pratiquement plus les stratégies de réponses à des besoins réels, mais plutÔt les meilleures techniques de propagande ou de fonnation accélérée à une infonnatisation déjà décidée ailleurs. C'est le rapport de Simon Nora et d'Alain Minc qui a marqué l'entrée dans cette époque de « traitement social et politique de la modernisation... ». Même s'il vaut mieux parler de recevabilité que d'acceptabilité 31, il ne semble pas que l'on puisse endiguer le flot de ceux qui considèrent que les nouvelles technologies de communication sont inéluctables et que les actions publiques à mettre en œuvre doivent simplement consister en fonnations « appropriatrices ». Il existe un parallèle entre la nécessité assez tÔt ressentie par certains des chefs d'entreprise les moins bornés (ou les plus novateurs...) du début de l'ère industrielle de commencer à donner un minimum d'instruction à leurs ouvriers, de façon à accroître la productivité de ceux-ci face à de nouvelles machines exigeant (déjà) quelques capacités de lecture, et la hâte actuelle de décideurs de la même race de fonner rapidement leurs troupes salariales aux nouveaux outils de travail et de communication dans le but d'augmenter (aussi) la productivité de leurs services. Si l'on regarde un instant les bouleversements en cours à l'échelon international, force est de constater que pour la majorité des plus fervents promoteurs de la cultureinfonnatique, scientifique et technique ou médiatique, il ne s'agit
29. Cette thèse de la technique non-neutre commence à être assez bien connue pour que nous ne n'y revenions plus. Une des dernières démonstrations internationales peut se trouver dans le rapport de Sean MAC BRIDE, Voix multiples, un seul monde, Paris, UNEsco-La Documentation française, 1980, et dans la revendication d'un « Nouvel ordre mondial de l'information », regroupant pays sous-développés, en développement et nouveaux pays industrialisés ou développés. Nous reviendrons aussi sur les thèses d'Ho Marcuse, de J. Habermas, de Ph. Roqueplo et de J. Ellul. 30. Il suffit, pour s'en convaincre, de voir le succès du mot « médias » et ses diverses déclinaisons. Dans notre esprit, la culture médiatique devrait englober l'ensemble des productions humaines quel qu'en soit le support. 31. Cf. Jean-Luc MICHEL.Pédagogie du refus. in La provocation. hommes et machines en société, Paris, CEsTA, 1985, p. 196, sq.

LECONfEXTE

31

grosso modo que d'une O.P.A. (Offre publique d'achat) destinée à investir le champ des cultures populaires et de masse avec les nouveaux moyens informatiques et télématiques. Cette O.P.A. subreptice devrait naturellement profiter aux grandes firmes multinationales de la haute technologie en visant à faire évoluer les formations professionnelles et les modes de vie de nos concitoyens pour disposer de personnels mieux adaptés à leurs stratégies ainsi que de consommateurs plus réceptifs à leurs nouveaux produits, plus sophistiqués, plus « high tech », quitte à susciter par toutes sortes d'opérations publicitaires de la demande sociale ou des pseudo besoins sociaux, ne serait-ce que pour faire fonctionner la loi de la stabilité acquise de Jacques Ellul, selon laquelle la technique est auto-adaptable aux changements qu'elle suscite dans un processus éminemment interactif d'offre et de demande.

1. L'affaire des

Il

besoins sociaux

»

La mode des besoins sociaux fut très en vogue parmi les technocrates au début des années quatre-vingt. Mais avant d'être repris avec autant d'intensité, ce thème n'était au départ qu'un artifice des publicitaires spécialistes de l'innovation pour tenter de placer et de rentabiliser les inventions pas toujours utiles de la recherche technologique. Il est assez rare qu'un nouveau produit électronique sorte des laboratoires parce qu'il était réellement attendu par toute une population ou même une partie de celle-ci. La prospective apparaît extrêmement difficile et périlleuse. Si difficile que certains, parmi les plus grands constructeurs d'électronique ou d'informatique, trébuchent ou disparaissent. Voici comment nous abordions les besoins sociaux en 1982 : « Les technologies progressent à une vitesse fulgurante, c'est un lieu commun, mais il faut bien se persuader que bon nombre d'appareils aujourd'hui proposés ne sont que de magnifiques jouets dont personne (surtout pas leurs concepteurs) ne sait trop quoi faire. Une proportion non négligeable de ces géniales trouvailles finira à la casse, parce que trop vite démodées, trop chères ou trop "en avance" sur les mœurs. .. Pour se donner bonne conscience et dans l'espoir sincère que leurs inventions vont "servir à quelque chose", les innovateurs s'étendent sur "l'élargissement des besoins sociaux" que de nouveaux services vont susciter, ou sur leur meilleure satisfaction. En fait, dans ce domaine, on l'aura compris, il est assez rare qu'une innovation coihcide avec un besoin bien délimité ou clairement défini, et même si cela était, on ne pourrait préjuger des effets secondaires avant de disposer de "l'objet" pour pouvoir le tester valablement. Comme il est difficile de planifier la recherche (on connaît les arguments habituels: spontanéité, coup de hasard en prélude à une découverte "géniale", etc.), on invente d'abord et on "voit venir" ensuite... Les seuls « besoins sociaux» qui semblent dignes d'intérêt sont ceux qui touchent à la maîtrise de ces machines qui vont exister ou qui existent déjà. Comme il ne saurait être question d'abandonner la formation des utilisateurs (c'est-à-dire les citoyens...) aux fabricants de matériels ou de programmes sous peine d'asservir l'homme à la machine (aliénation déjà

32

LA DIs:rANCIATION

ancienne pour laquelle des parades existent...) ou à une forme de pensée qui leur serait totalement extérieure (aliénation bien plus subtile,. sans réponse pour l'instant); il importe que le système éducatif familiarise, démystifie et forme les jeunes aux techniques informatiques en leur faisant acquérir une "culture médiatique" »32 A cette même époque, Jacques Dondoux, nouveau directeur général de l'exDGT (Direction Générale des Télécommunications), déclarait qu'il fallait envisager de «faire appel aux sociologues... » 33. Mais cet appel ne fut souvent pour la DGT qu'un moyen de marketing parmi d'autres pour « vendre» sa politique de modernisation téléphonique et télématique. Nous pourrions presque retrouver dans cet accompagnement le traitement social de la modernisation dont traitait la publication déjà citée du CEST A (Centre d'Etudes des Systèmes et des Technologies Avancées). Mieux vaudrait faire en sorte que les citoyens/consommateurs des sociétés de communication puissent ne pas succomber trop facilement aux sirènes de la consommation, ce qui suppose une « éducation sociale et médiatique» repensée et adaptée au mode de vie actuel. La discussion sur les besoins est ancienne, voici ce qu'en disait Marx : « La plupart des choses ont seulement de la valeur parce qu'elles satisfont aux besoins engendrés par l'opinion. L'opinion sur nos besoins peut changer; donc l'utilité des choses qui n'exprime qu'un rapport de ces choses à nos besoins, peut changer aussi. Les besoins naturels eux-mêmes changent continuellement. Quelle variété n'y-a-t-il pas en effet dans les

objets qui servent de nourriture principale aux principaux peuples! » 34
Dans Le Capital, Marx est encore plus précis: « Le nombre même de prétendus besoins naturels, aussi bien que le mode de les satisfaire est un produit historique, et dépend ainsi, en grande partie du degré de civilisation atteint. » 35 Naturellement, la stratégie mondiale des « besoins sociaux» à satisfaire grâce à la technologie n'est pas (encore ?..) monolithique, et des espaces de liberté subsistent 36 dans lesquels il reste possible de s'engouffrer avec la volonté d'orienter ou de réorienter les politiques d'informatisation, en cherchant comment les faire coïncider avec des objectifs d'individualisation, d'autonomisation, d'expression. d'expérimentation personnelle ou de socialisation de l'enfant; de libération, de responsabilisation du travailleur ou de personnalisation du citoyen.
32. 33. 34. 35. Jean-Luc MICHEL. Revue l'Ecole Libératrice, 30/01/1982, p. 706. Dans une interview au journal Le Monde de septembre 1981. Karl MARx, Misère de la philosophie, Œuvres, Paris. La Pléiade, L l, p. 17. Karl MARx, Le Capital, Paris. Editions Sociales, 1969, p. 174.

36. C'est même eux qui permettent d'augurer la non-apparition d'une société totalitaire. La puce et les géants. d'Eric LAURENT (paris. Fayard, 1984) donne d'utiles renseignements sur les . différences de stratégie entre ces entreprises.

UtCoNTEXTE

33

2. Un nouveau«

socialisme

culturel

It

?

La question cruciale qui se pose. alors pourrait être formulée de la façon suivante: allons-nous assister à l'émergence d'un socialisme culturel du genre « A chacun sa ration d'information médiatisée selon ses moyens intellectuels supposés... »37. Si la proposition exprimée ainsi peut paraître choquante, elle semble pourtant résumer une conséquence immédiate du super-ciblage que vont permettre d'opérer les réseaux télématiques charriant des images, des sons, des émissions de TV, de radio et des données informatiques. Les citoyens du village de McLuhan 38 vont pouvoir avoir accès à toutes. les informations possibles. Comment éviter qu'ils se tournent alors vers celles qui seront les

plus faciles et les moins dérangeantes, ou les mieux « présentées », et mises
en scène ?.. Le risque de la liberté totale, c'est peut-être une nouvelle version de l'homme unidimensionnel d'Herbert Marcuse. Dans leurs villages, rien que des citoyens heureux, au moins en apparence, parqués dans leurs réserves idéologiques et qui ne recevraient que des messages à eux-seuls destinés (ou à leur famille, leur classe, leur « milieu », ou leur catégorie), tous en état de coexistence ignorante 39 d'autres messages, d'autres réseaux, d'autres sources, d'autres idées, d'autres valeurs sociales, éthiques ou politiques; d'autres citoyens. Vision pessimiste, huxleyenne plutôt qu'orwellienne, peu importe, mais il faut être vigilant car le risque de colonisation est loin d'être négligeable. Pour nous, l'utopie d'Aldous Huxley dans Le meilleur des mondes est sûrement plus juste que celle de Georges Orwell dans 1984, en ce sens qu'Huxley dépeint une société dans laquelle les gens seront dépossédés à leur insu de leur autonomie, de leur histoire, de leur libre arbitre, mais ils aimeront cette aliénation parce qu'eUe leur sera douce et confortable. On n'aura pas besoin de Big Brother, parce qu'il n'y aura pas de punition, mais au contraire des récompenses, des distractions, des plaisirs, des fadaises en tout genre contre lesquelles on n'aura plus envie de se révolter 40. En effet, sans tomber dans un catastrophisme de bon aloi, actuellement exploité par certains intellectuels, il semble bien que les craintes concernant l'influence de la télévision aient quelque fondement. Parmi l'abondante littérature existant sur ce sujet, Jacques Séguéla qui n'est pas a priori suspect de catastrophisme ou d'anti-modernisme virulent (l'audiovisuel étant pris ici
37. Pour le cas où ceci serait nécessaire, nous préciserons qu'il ne s'agit pas ici le moins du monde de considérations politiques, mais du socialisme en tant que doctrine philosophique dont la ma.xime classique est le bien connu «A chacun selon ses moyens... ». 38. Lequel ne s'est peut-être pas aussi lourdement trompé qu'on a bien voulu le dire il y a quelques années. A preuve le succès de l'ouvrage de Neil POSTMAN distraire à en mourir, (Se
Paris, Flammarion, 1986) qui reprend

- sans

trop les citer

- une

bonne partie des analyses de

McLuhan. 39. Selon l'expression d'Edgard Morin. 40. Nous rejoignons tout à fait J'interprétation faite par POSTMANdans Se distraire à en mourir, op. cit., p. 8.

34

LA DISTANCIATION

comme témoin de ce modernisme) et qui se distingue plutôt par son côté branché et marchand mérite d'être entendu. Ainsi, après avoir rappelé les 2 heures 50 minutes consacrées quotidiennement par les Français à la télévision, dont une partie non négligeable face à la publicité (!) il s'empresse de déclarer que« décoder ces nouveaux envahisseurs de nos consciences est un devoir de survie intellectuelle» 41. Lui qui se situe résolument du côté de la nouvelle culture, des clips et de tout ce qui est moderne crie son angoisse devant le déluge audiovisuel (le robinet à images), ce que, dans un autre langage, certains ont aussi appelé la surpression ou l'hyperpression des médias de masse 42 . S'il est vrai que nous sommes à l'amorce d'une « véritable hypercomplexité sociale », comme le déclare Edgar Morin, ou sur un autre registre Henri Laborit, raison de plus pour dégager d'urgence des pistes de reconnaissance dans le maelstrom immatériel des canaux et des réseaux, ainsi que l'on en trouvait une édifiante illustration lors de l'exposition sur « les lmmatériaux » du Centre Pompidou en juin 1985. Il faut convaincre d'urgence les décideurs politiques et institutionnels d'engager un pari pascalien contre 1'« hyperconsommation» médiatique. En faisant - au début - semblant de croire à ses dangers, ils déclencheront peut-être un mouvement de prévention contre ses excès, tout en ménageant quelques retombées ou plus values socioindustrielles 43.

Les théories

de la communication

Ce que l'on nomme la théorie moderne de la communication et de l'information remonte aux premiers travaux de Norbert Wiener et d'un de ses anciens élèves, devenu ingénieur, Claude Elwood Shannon qui écrivit avec Warren Weaver The Mathematical Theory of Communication (1949), instaurant ce qui a été longtemps le dogme du schéma ternaire, universellement connu et que rappelle la figure 1.5. En fait, Shannon s'écartait fortement des idées de Wiener, puisque son schéma oubliait (volontairement) une caractéristique tenue pour fondamentale par Wiener, celle du concept de rétroaction (feedback), générant lui-même par la suite la théorie systémique, nouveau cadre encore plus général.

41. Jacques SEGUELA,Fils de pub, Paris, Flammarion, 1983, p. 244. Le même auteur poursuit sa démonstration dans Demain, il sera trop star, Paris, Flammarion, 1989. 42. Les emprunts à la thermodynamique ne manquent pas. On peut grossièrement caractériser la surpression comme un excès de pression augmentant les effets connus des mass media, tandis que l'hyperpression déclencherait des phénomènes inconnus, non homothétiques de ceux mis en œuvre par la pression ou la surpression. 43. C'est en tout cas ainsi que nous avions présenté au pouvoir politique, en tant que conseiller technique" les finalités et l'organisation du plan « Informatique pour tous », en novembre 1984.

LE CONTEXTE

35

Figure I.S. Schéma d'un système de communication, selon Claude E. Shannon et Warren Weaver, en 194944 :

CANAL
Destinataire

Source de bruit

Par la suite, de nombreuses améliorations de toutes sortes furent proposées, essentiellement par des auteurs américains parmi lesquels Elihu Katz et Paul Lazarsfeld qui mirent en évidence une communication à deux étapes via les leaders d'opinion. Mac Comb en compagnie de W. Weaver a tenté, dans les années soixante-dix, de décrire comment se formait l'opinion du public à partir de celle des leaders, par une sorte de phénomène d'identification, de projection ou de mimesis aristotélicienne. TIa appelé cette influence l'Agenda du médiateur: le médiateur (à la télévision ou dans la presse) note sur son agenda les faits qu'il considère comme marquants. Ce qui entraîne immanquablement que les auditeurs ou les téléspectateurs le notent aussi et le mémorisent à leur tour. Dans la presse, le mode de lecture séquentiel, non linéaire laisse évidemment davantage de place aux choix personnels de mise en ordre, bien que la mise en page cherche à attirer l'attention sur ce qui est considéré comme important par la rédaction du Journal télévisé. Mais ce n'est pas tout. En plus de l'ordre de présentation des nouvelles du jour (comme le dit Postman), le médiateur va influencer de manière plus voyante ses auditeurs par son commentaire verbal ou gestuel, par le montage, par les illustrations visuelles ou sonores qui seront choisies. Le récepteur se trouve ainsi soumis à une double influence: celle du choix du sujet et cellt! du commentaire sur le sujet (les élections présidentielles américaines ont d'ailleurs constitué le socle des études de Mac Comb).

44. Claude E. SHANNONet Warren WEAVER, !rad. française: communication, Paris, Retz-CEPL, 1975, p. 69.

La théorie mathématique

de la

36

LA DISTANCIATION

Figure 1.6. Théorie de l'Agenda Settingselon

Mac Comb

45

:

Effets
.

des médias
. .

.

.Aggijd~~e$
médiatéÙrs..

(<<

quoi penser

Contenu
..)

Mise en forme (<< comment penser..)

Agenda du public

Au fil de ces études, on a découvert que les mécanismes d'influence sont beaucoup plus complexes qu'un premier survol pouvait le laisser croire. Le téléspectateur est sûrement fortement influençable - et influencé - en matière de sujets lointains de lui comme la politique internationale ou les valeurs démocratiques alors qu'il semble l'être beaucoup moins vis-à-vis de ce qui le plus, on retrouve une problématique de la distance 47 dont la théorie que nous allons construire devrait être capable de rendre compte. L'opposition entre l'influence et la non influence trouverait sa « solution» dans une approche dialectique et dynamique tournant autour des notions d'identification, de projection ou de transfert et de distanciation personnelle. Sur les sujets proches on se distancierait. Sur les sujets éloignés, on s'identifierait. En fait, comme nous allons le voir, il faudra grandement affmer ce type d'analyse qui reste bien trop imparfaite à ce stade. Mac Comb et d'autres chercheurs s'inscrivent dans une évolution très nette tendant à transférer le pivot de l'acte communicatoire de l'émetteur au récepteur. Le rôle prépondérant revenant progressivement à ce dernier au fil de l'évolution des modèles théoriques. Un des modèles les plus significatifs de la transition de phase déplaçant le centre de gravité de l'émetteur vers le récepteur est sûrement celui proposé par Bruce Westley et Malcolm MacLean. Dans leur schéma, l'interaction émetteur <-> récepteur est décomposée en un jeu de filtrages et d'encodages successifs:

concerne directement comme le chômage ou les faits divers 46. Une fois de

45. Mac COMB,Media Agenda Setting in a Presidential Election, Praeger, 1981. 46. Quoique cette interprétation mériterait d'être fortement corrélée. En effet, en matière de faits divers, l'influence de l'opinion générale, présentée ou imposée par la télévision, paraît assez forte pour ne pas dire décisive. 47. C'est d'ailleurs ce que souligne Lucien Sfez en parlant de «relation distante» à propos de la diplomatie (Critique de la communication, op. cit., p. 103).