Logique de la conception

De
Publié par

Comment les hommes parviennent-ils à "se faire une idée" de quelque chose? La question appartient depuis toujours aux épistémologues des sciences. Mais c'est aussi celle des architectes et des artistes. Le développement massif des artefacts techniques dans les sciences de l'ingénieur repose aujourd'hui la question de la nature de l'activité de conception aux praticiens des nouvelles technologies de l'intelligence, dans des champs disciplinaires de plus en plus diversifiés et élargis.
Publié le : samedi 1 mai 2004
Lecture(s) : 137
Tags :
EAN13 : 9782296358997
Nombre de pages : 290
Voir plus Voir moins
Cette publication est uniquement disponible à l'achat

LOGIQUE DE LA CONCEPTION
FIGURES DE SÉMIOTIQUE GÉNÉRALE D'APRÈS CHARLES S. PEIRCE

Ouverture Philosophique Collection dirigée par Bruno Péquignot et Dominique Chateau
Une collection d'ouvrages qui se propose d'accueillir des travaux originaux sans exclusive d'écoles ou de thélnatiques. Il s'agit de favoriser la confrontation de recherches et des réflexions qu'elles soient le fait de philosophes "professionnels" ou non. On n'y confondra donc pas la philosophie avec une discipline acadélnique ; elle est réputée être le fait de tous ceux qu'habite la passion de penser, qu'ils soient professeurs de philosophie, spécialistes des sciences humaines, sociales ou naturelles, ou... polisseurs de verres de lunettes astronomiques.

Déjà parus

Christian SALOMON (textes réunis par), Les métaphores du
corps, 2004.

Pierrette BONET, De la raison à l'ordre. Genèse de la philosophie de Malebranche, 2004. Caroline GUIBET LAFA YE et Jean-Louis VIEILLARDBARON, L'esthétique dans le systèn1e hégélien, 2004. Loïcl( ROCHE, La volonté. Approche philosophique et analytique, 2004. Salloum SARKIS, Les échelles de l'intelligence, 2004. Jocelyne LE BLANC, L'archéologie du savoir de Michel Foucault pour penser le corps sexué autrement, 2004. Monique CASTILLO (Sous la dir.), Criticisme et religion, 2004. Régis DEFURNAUX, Les cathédrales sauvages, 2004. Benjan1in DELANNOY, Burke et Kant interprètes de la Révolution française, 2004. Christophe COLERA, Individualité et subjectivité chez Nietzsche, 2004. Samuel DUBOSSON, L'imagination légitimée. La conscience imaginative dans la phénoménologie proto-transcendantale de Husserl, 2004. Pierre V. ZIMA, Critique littéraire et esthétique, 2004. Magali PAILLIER, La katharsis chez Aristote, 2004. Philippe LAURIA, Cantor et le transfini, 2003.

Bernard Morand

LOGIQUE DE LA CONCEPTION
FIGURES DE SÉMIOTIQUE GÉNÉRALE D'APRÈS CHARLES S. PEIRCE

L'Harmattan 5-7, rue de l'École-Polytechnique 75005 Paris FRANCE

L'Harmattan Hongrie Hm"gitau. 3 1026 Budapest HONGRIE

L'Harmattan Italia Via Degli Artisti, 15 10124 Torino ITALIE

(Ç)L'Harmattan,

2004

ISBN: 2-7475-6366-9 EAN : 9782747563666

AVANT-PROPOS

Peirce appartient davantage au xXme qu'au XIxme siècle. Le public français doit en être informé. Christiane Chauviré, Peirce et la signification

La sagesse populaire recommande de ne jamais poursuivre deux lièvres à la fois. C'est cependant le risque que nous prenons dans cet ouvrage et il doit être expliqué. En effet, regrouper sous une thématique unique des préoccupations relatives au Génie Logiciel d'un côté et à la Sémiotique de l'autre pourra étonner le lecteur spécialiste de l'un ou l'autre de ces domaines. La mise en relation peut être d'autant plus questionnée qu'à de rares exceptions près l'informaticien ne se perçoit pas comme sémioticien et que l'inverse est également vrai. Le point commun réside dans la question de la conception, qu'elle soit prise au sens de la conception ordinaire sur le terrain de la philosophie, au sens de la conception technique sur le terrain des sciences de l'ingénieur ou encore au sens d'une théorie de la conception sur le terrain de la logique. Herbert SimonI appelait de ses vœux une science de la conception il y a déjà plus de trente ans, une discipline qui semble aujourd'hui encore n'avoir pas retenu tout l'intérêt qu'elle mériterait. Notre point de départ fut celui de la conception des logiciels, du point de vue de l'ingénierie des systèmes informatiques et de son enseignement. Le premier chapitre présente des observations de caractère pratique sur cette activité des ingénieurs, centrée sur la tâche à accomplir dans un environnement d'entreprise, marquée aussi par une forte dépendance vis-àvis des technologies disponibles aussi bien que de leurs évolutions. Il est banal de rappeler que le rythme en est rapide et réputé imprévisible. Nous montrons que des tendances lourdes y sont cependant discernables, qui expliquent certaines transformations radicales des manières de penser les objectifs, les méthodes et les instruments de travail eux-mêmes. A l'intérieur de ces tendances lourdes, deux points émergent tout particulièrement. Le premier concerne le caractère coopératif de ces activités au sein d'équipes dans lesquelles la hiérarchisation et la division des fonctions s'estompe. Le métier générique de «développeur» a progressivement pris la place des anciens métiers spécialisés de chef de projet, analyste ou programmeur. Dans le même temps où la technologie démultiplie la complexité de leur activité, les informaticiens d'entreprise se trouvent
1 Herbert Simon, The Sciences of the Artificial, 1969.

5

confrontés à un autre type de coopération avec leur environnement. Il s'agit des personnes, improprement nommées «utilisateurs» des systèmes informatiques. L'image traditionnelle du donneur d'ordres ou commanditaire s'est transformée en celle de partenaire, depuis l'expression des besoins jusqu'à l'appréciation de l'adéquation du produit informatique à ceux -ci, en passant par toutes les phases intermédiaires de sa conception. Ainsi nombre de compétences techniques qui faisaient partie du domaine réservé de l'informaticien ont été transférées vers les utilisateurs eux-mêmes, comme celle de créer une base de données par exemple. L'image de l'informaticien en face à face avec une machine et ses programmes se mue progressivement en celle d'un accoucheur, écoutant en simultané des divans multiples. Au total, la question de la communication a fait irruption dans l'informatique, mais d'une manière qui va bien audelà du caractère technique des applications de l'Internet ou des réseaux locaux d'entreprises. L'autre aspect émergent concerne les instruments de travail aussi bien que les manières de faire. En lieu et place de petites communautés de travail imprégnées de leur propre culture d'entreprise souvent modelée par les priorités des constructeurs de matériels, on trouve aujourd'hui des standards et des normalisations de fait dont la vocation est d'emblée planétaire. Ainsi de véritables institutions telles que l'Object Management Group ou Ie World Wide Web Consortium se sont investies elles-mêmes du pouvoir de dire la norme en la matière, des standards qui vont bien au-delà des aspects technologiques habituels. A côté de la question de la communication, l'informatique se trouve impliquée dans celle de la production partagée de l'information et de la connaissance comme en témoigne le mouvement en faveur du logiciel libre. Le foisonnement des phénomènes pourra laisser perplexe: y a-t-il là quelque sujet de science et si oui lequel? Notre réponse est délibérément positive, pourvu qu'elle soit placée au bon niveau. Nous considérons en effet les activités de l'ingénieur informaticien comme le laboratoire vivant dans lequel cette science, non encore qualifiée, se fait; un laboratoire dont les éprouvettes et les microscopes portent des noms étranges comme XML, Java, HTTP, UML, etc. Une telle science qui reste à bâtir doit nécessairement s'appuyer sur des théories, elles-mêmes à construire. Cependant, le caractère apparemment novateur du problème ne doit pas dissimuler le fait que les questions que l'on se propose d'examiner ont pu être déjà traitées, au moins pour partie, en d'autres lieux, et éventuellement sous d'autres intitulés. Cette conviction s'est progressivement imposée au cours de notre expérience d'enseignement du Génie Logiciel, sachant que la possibilité d'enseigner et donc d'expliquer des connaissances constitue un critère de scientificité essentiel pour celles-ci. Nous épargnerons au lecteur la longue liste des connexions pratiques indubitables entre cette discipline qui est fondamentalement celle de la conception, ou comme on le dit de manière étrange celle de la «formation des 6

concepts », et la Sémiotique. Nous en citerons seulement un exemple ici. Il concerne une expérience vécue de mise en place d'une application informatique destinée à effectuer du profilage de clientèle dans une grande banque. Le matériau de base était constitué de notes éparses, pas nécessairement rédigées, prises par les employés lors de rencontres individuelles avec les clients qu'ils étaient chargés de suivre. La systématisation de la procédure en vue de la mise en place d'un système informatique conduisit à transformer ce qui était vu par tous comme un fait désigné par le terme de «rendez-vous» en une notion nommée «mission ». Simple changement de nom pourra t-on dire, mais un changement qui changeait tout parce qu'il permettait désormais d'attribuer des propriétés au fait luimême. Après cette opération, la vue de leur propre travail par les employés en a été profondément transformée. Du point de vue de l'enseignement des techniques de conception elles-mêmes nous avions, à l'époque et faute de mieux, qualifié de telles métamorphoses à l'aide d'un proverbe chinois approximatif: «Petite association peut devenir grosse entité pourvu que Dieu lui prête vie », signifiant du même coup quelque caractère impénétrable du problème. Etudiant Peirce quelques années plus tard, nous y découvrions une formulation précise du phénomène, qu'il appelle abstraction hypostatique. Un exemple ne prouve rien, la chose est bien connue. Cependant, lorsque le nombre d'exemples de la même sorte vient à grossir de manière récurrente, que ceux-ci sont attestés de plusieurs points de vue et qu'il est possible de les vérifier, on est bien obligé d'admettre qu'il y a derrière ceux-ci quelque chose de plus général. C'est à ce point précis que l'ingénieur doit se faire homme de science. La science en question, qui constitue le maillon manquant entre la formation des concepts et l'information par le signe est, selon nous, la Logique. Mais la question de savoir de quel type de logique il peut s'agir est en fait le sujet de cet ouvrage. Telles sont donc les raisons qui ont conduit à entreprendre l'étude, sinon exhaustive du moins approfondie, d'une sémiotique scientifique dont Peirce est le fondateur, une œuvre que nous pensons inégalée à ce jour. Ces raisons devaient être données et, bien sûr, ce sera au lecteur de juger de leur pertinence. Au fil de cette étude nous avons découvert la profonde actualité de cette pensée au point même que l'appréciation de Christiane Chauviré rapportée en exergue pourrait témoigner d'une erreur de siècle. La redécouverte de Peirce dans la seconde moitié du XXème siècle par les philosophes n'a pas encore été suivie de la même manière par les logiciens. Pourtant l'actualité de son système logique, qu'il nomme sémiotique, en fait une candidature sérieuse au développement général de la logique à l'aube de ce XXlème siècle. C'est l'idée de cette actualité que nous avons souhaité souligner dans ce livre. Peirce est en effet bien moins un précurseur qu'un penseur pour demain. Bien que le propos soit centré sur la question du signe et de sa relation à l'information qui nous concerne au 7

premier chef, nous avons mentionné lorsque l'occasion s'en présentait les connexions manifestes avec la linguistique et plus largement les sciences cognitives dans leur ensemble. Le second chapitre est consacré à la présentation de la définition logique du signe et de ses fondements philosophiques incontournables. Ce sont les aspects les moins mal connus de Peirce mais ils ont pu apparaître comme totalement désuets aux yeux de nombre de logiciens contemporains. En effet, il s'agit d'une logique qui peut être qualifiée de naturelle, celle des propositions et des prédicats. Mais le rapport d'interaction qu'elle entretient chez Peirce avec sa philosophie lui confère une signification qui ne sera guère accessible si elle est regardée, comme c'est généralement le cas, au travers des idées reçues dans le domaine et mesurée à l'aune du courant de la logique positive qui a dominé tout le XXèmesiècle. Peirce n'est pas un logicien des objets mais un logicien de la manière, c'est-à-dire de la méthode. Il est moins un logicien des structures exactes, bien qu'il procède à des classifications déterminées par des relations d'ordre, qu'un logicien des formes des processus. L'analyse de la proposition par exemple l'intéresse essentiellement dans sa capacité à éclairer la manière de conjoindre des propositions pour former des arguments, c'està-dire pour rendre compte de la validité des raisonnements et de leur degré de force argumentative. S'il ne néglige pas la logique des classes, celle-ci n'intervient qu'après la logique des relations, parce qu'il pose la primauté de la relation sur les objets reliés. On ne trouvera chez Peirce aucun langage formulaire, sinon quelques signes de son cru qu'il appelle notations. Au contraire, tout son travail repose sur des définitions en langue naturelle, suivant en cela la tradition des logiciens médiévaux, voire antiques. Pourtant il avait une idée très précise du rôle des mathématiques dans cette logique et ne confondait jamais ces deux disciplines qu'il voyait comme mutuellement dépendantes l'une de l'autre, c'est-à-dire en relation. On pourrait aller jusqu'à dire que Peirce est un « logicien expérimental », qualificatif qui ne manquera pas de sonner comme un oxymoron aux oreilles de la logique contemporaine, mais dont la raison tient dans sa conception philosophique de la vérité, connue sous le nom de pragmatisme. En effet, son système -parce qu'il s'agit bien d'une pensée systématique- se résout dans l'articulation d'une logique qui va d'Aristote aux scolastiques avec la nouvelle logique qui se trouve requise par le formidable développement des méthodes des sciences de la nature et de la vie tout au long du XIXème siècle. Alors que le raisonnement déductif avait été largelnent étudié dans sa forme syllogistique depuis l'Antiquité, la révolution scientifique du XVlIème siècle (Galilée, Kepler, Newton) avait ouvert un champ nouveau, celui de l'induction. La nécessité d'articuler ces deux formes entre elles conduira Peirce à en inventer une troisième, la logique de I'hypothèse ou abduction.

8

D'une certaine façon, cette logique originale suppose une lecture conceptuellement indépendante des théories qui lui ont succédé dans le domaine si l'on veut véritablement en évaluer la contribution. Malheureusement, le compte-rendu qui nous en est le plus souvent donné prend rarement un tel parti et conduit, non seulement à replacer son systèlne dans un cadre philosophique qui n'était pas le sien, mais surtout à passer sous silence ce qui en fait l'intérêt principal: la logique du mouvement des signes qu'il nommait «semiosis ». C'est à cette question que nous avons consacré le troisième chapitre, un point sur lequel sa conception du rapport entre les mathématiques et la logique est essentielle. Nous en soulignons trois aspects importants. Le premier concerne la place assignée à la catégorie de la Virtualité, une pré-condition des processus sémiotiques qu'il nomme fondement ou «ground» du signe. Le second concerne la nature de ces processus qui ne peut être correctement saisie sans recourir à sa « doctrine» de la continuité, et sans laquelle la thèse bien connue de la suite infinie des interprétants du signe fait effectivement figure de description, au mieux poétique. A nouveau la logique des relations intervient ici, tout autant que sa conception logico-philosophique du temps, pour déterminer la nature de la relation entre le continu et le discret. Le troisième aspect est celui de la méthode, étant entendu que la méthode par laquelle nous pensons est aussi celle par laquelle les signes se reproduisent. Cette méthode qui sera condensée dans la maxime pragmatiste permet de mettre en évidence que, si l'analyse constitue un moment essentiel de l'activité scientifique, elle a besoin de son complémentaire, le moment de la synthèse. Comme touj ours chez Peirce, l'activité elle-lnême est contrôlée par le caractère logique de la relation dynamique qui médiatise ces deux moments. Une formulation humoristique bien que très sérieuse nous en est donnée avec bonheur par l'auteur d'un dessin animé télévisuel célèbre, 1. Rouxel dans les Shadocks : «Il est beaucoup plus intéressant de regarder où l'on ne va pas, pour la bonne raison que là où l'on va, il sera toujours temps de regarder lorsqu'on y sera ». Le premier temps consiste à éliminer les lieux dans lesquels on ne peut se rendre, c'est l'analyse des conditions de possibilité de quelque chose. Le second temps est celui de la détermination des lieux que l'on se propose d'investir et repose à l'évidence sur le précédent. Le troisième temps est leur réunion future, « lorsqu'on y sera », aussi bien que leur test expérimental. Ce n'est que dans ce troisième moment que certaines vérités pourront se faire jour quant aux résultats de la méthode, un degré d'approximation selon lequel ce qui a été logiquement anticipé se réalise alors plus ou moins. L'analytique de ce qui est possible, par différence avec ce qui ne l'est pas, un contenu aussi vague que large, explique encore que les démonstrations de Peirce recourent fréquemment au procédé de la réduction à l'absurde. Ce procédé peut apparaître désuet lui aussi, en ce qu'il ne permet pas d'énoncer des vérités positives. Cependant, il permet de faire l'économie 9

de l'hypothèse essentiellement axiomatique, de l'existence d'une relation d'accession à des mondes possibles, une relation mise en avant par les logiques modales contemporaines. Peirce pose en effet en préalable, et à l'opposé, que «nous n'avons pas de conceptions de l'inconnaissable ». Le quatrième chapitre reprend la question du signe par l'autre bout, si l'on peut le dire ainsi, à savoir ce que l'on appellerait auj ourd 'hui la question des contenus de conscience; non plus les fondements et la caractérisation de la relation signe, mais la phénoménologie du mélange et de la variété sémiotiques, ceux des signes tels qu'ils se présentent à l'esprit ou «phanerons ». Mais cet « autre bout de la question », celui de ces lieux où l'on anticipe d'aller, est profondément enraciné pour Peirce dans le «premier bout ». Nous développons l'argument que ceux-ci se donnent dans une forme inversée ou mieux, réfléchie, à cause du caractère plié des signes actualisés dans la sémiose. Ce lieu méthodologiquement visé par toute recherche en logique des faits sémiotiques est le lieu d'inscription du phénomène de conception, de l'inscription du phénomène d'information, ainsi que la place qu'il faut assigner aux méta-signes rencontrés en abondance dans les technologies informatiques de l'information. Evidemment, la question du mode de j onction de ces deux extrémités temporelles se pose. Nous proposons sur ce point une hypothèse, qui à notre connaissance n'a pas été explicitement posée dans la communauté des chercheurs intéressés par l'œuvre de Peirce. Elle concerne le statut et l'organisation de la seconde division des signes développée par l'auteur à partir de 1904, et plus particulièrement son rapport à la première classification. Il apparaît alors que le première doit être incluse dans la seconde, la suivante fournissant l'extension de la précédente à des fins expérimentales. Si cette hypothèse se trouvait confirmée, il serait alors clair que la seconde manière de diviser les signes constitue le seul outil véritablement opérationnel pour l'étude scientifique des sémiotiques particulières que Peirce rangeait dans les sciences spéciales, notamment l'étude des pratiques interprétatives en contexte. Le dernier chapitre propose d'entreprendre un tel travail expérimental pour le cas de la variété particulière de signes principalement iconiques, les diagrammes d'usage courant en conception. En réponse aux questionnements du premier chapitre, nous proposons les prelniers pas dans la voie de ce que pourrait être à l'avenir une science élargie (à la fois théorique et ingénieuriale) de la conception. Celle-ci suppose que soit abandonnée la thèse de la singularité de l'objet-diagramme, un singularité qui serait causée par ses propriétés spécifiquement visuelles. Cette thèse est en effet et selon nous à l'origine des difficultés scientifiques rencontrées dans ce domaine. La sémiotique peircéenne nous apporte ici une méthode pour considérer le problème sous l'angle des raisonnements et des processus de diagrammatisation, dont il se trouve en plus qu'il s'agit d'existants observables dans les diagrammes produits par les ingénieurs. Dans cette 10

problématique, la forme de l'abduction, comprise comme une méthode qui emploie les deux autres, celles de la déduction et de l'induction, paraît bien être la voie à explorer. Notre souci a été dans cet ouvrage de rendre compréhensible une pensée complexe et systématique en montrant les conséquences profondément actuelles de celle-ci. Dans ce travail d'exégèse centré sur la question de la conception, nous avons pris le parti de rester le plus proche possible des textes originaux, le parti de procéder au moyen de citations supportant une argumentation plutôt que de commenter à distance. Les sources n'ayant pas dans la plupart des cas fait l'objet de traduction en Français, nous avons dû proposer la nôtre. Remerciements Nous remercions particulièrement Nadine Lucas, Serge Mauger et Anne Nicolle pour leurs remarques sur une version préliminaire d'un texte qui n'engage en définitive que son auteur. Nous remercions aussi Robert Marty notamment pour nous avoir conseillé la lecture attentive des New Elements of Mathematics, et Jacques Coursil qui nous pointa du doigt il y a fort longtemps la nature de la démarche analytique dans les sciences du langage. Sachant qu'il ne peut y avoir de propriété individuelle des idées, il nous faut ajouter que cet ouvrage a bénéficié du travail collectif de recherche au sein du Laboratoire GREYC de l'Université et ISMRA de Caen (UMR CNRS 6032), et plus particulièrement de l'Equipe Interaction Sémiotique, Langues et Diagrammes (ISLanD). Il a aussi bénéficié de nombre de discussions lors des Rencontres Interdisciplinaires sur l'Activité Scientifique du pôle Modélisation en Sciences Cognitives et Sociales de la MRSH de l'Université de Caen. Enfin, nous n'ignorons pas l'aide précieuse apportée par les forums de discussion de la Peirce-List (Etats-Unis) et Gdsemiocom (France). Les échanges fructueux, l'accès rapide aux sources et documents ont permis, grâce aux nouveaux moyens de la communication électronique, de raccourcir considérablement le temps qui aurait été nécessaire à ce travail et, espérons-le, d'en améliorer la qualité.

Il

CHAPITRE PRATIQUES

1

SEMIOTIQUES EN INGENIERIE DE LA CONCEPTION
Mais avant que nous puissions nous attaquer à toute science normative que ce soit, toute science qui propose de distinguer le mouton des chèvres, il est clair qu'une recherche préliminaire doit avoir lieu qui doit justifier l'essai d'établir un tel dualisme. Celle-ci doit être une science qui ne fait aucune distinction entre le bien et le mal, dans quelque sens que ce soit, mais qui considère seulement avec attention les phénomènes tels qu'ils sont, ouvre simplement ses yeux et décrit ce qu'elle voit,. non pas ce qu'elle voit dans le réel comme opposé à la fiction - non pas en vertu d'une telle dichotomie - mais simplement décrivant l'objet, en tant que phénomène, et déclarant ce qu'elle trouve semblable dans tous les phénomènes. Peirce, C.P. 5.37

L'enseignant confronté à l'éducation d'étudiants en conception de logiciels dispose d'une panoplie d'arguments dont chacun pris isolément s'avère peu opératoire. Enseigner des modèles, des notations, des règles de bonne formation d' obj ets, des concepts et des méthodes ne permet pas d'expliquer le mode d'instanciation de ces savoirs lors des situations concrètes de conception. En effet et par définition, celles-ci ne peuvent être caractérisées par avance. L'impossibilité d'une telle explication est un indice du manque de maturité scientifique du domaine. Faute de règles générales ou de théories de la conception, l'ingénieur se trouve démuni et doit s'en remettre à son habileté personnelle. On peut se satisfaire de ce constat en considérant que l'ingénierie est en définitive un art à propos duquel toute recherche à caractère fondamental serait vaine. Pourtant, un simple regard sur les conditions pratiques dans lesquelles l'activité d'ingénierie logicielle s'exerce apporte immédiatement un démenti. Le Génie Logiciel est devenu en l'espace de deux décennies un fait social qui concerne des populations croissantes, une industrie avec son cortège de bouleversements

13

technologiques et commerciaux. Il est donc légitime et même nécessaire de chercher à produire de bonnes théories explicatives de la conception des logiciels et, plus généralement, des systèmes informationnels. L'activité du chercheur se distingue de celle d'un auteur de nouvelles en ce qu'il ne commence pas avec une page blanche. Il commence avec une page déj à écrite en partie, un brouillon à la mise au net duquel il se propose de contribuer. Ce brouillon est constitué de la totalité des écritures qui l'ont précédé et c'est pourquoi la coutume académique veut que l'on dresse un « état de l'art ». Dans un domaine à peine institué, de telles écritures sont rares et il est de bonne méthode de commencer par un état des lieux, faute d'état de l'art. Nous avions engagé un tel travail d'inventaire et de description il y a maintenant quelques années I. Dans ce chapitre introductif nous en rappelons certains éléments en les réactualisant de manière critique. En première analyse, il apparaît que ces éléments concernent quelques questions essentielles comme celle des objets sur lesquels porte l'activité des ingénieurs en particulier l' obj et « information » aussi bien que celle des opérations, approximativement délimitées par les concepts de modélisation, représentation ou conception. Un mot-clé supplémentaire doit être ajouté à cette liste provisoire, celui de formalisation. En effet les opérations effectuées par les ingénieurs ont pour but la production de logiciels, lesquels doivent se conformer à la rigueur imposée par les langages de programmation aussi bien qu'à celle de leur exécution par des ordinateurs. Cette dernière caractéristique ouvre alors sur une question récurrente du domaine de l'Informatique: quel est le rapport entre les activités d'ingénierie proprement dites et celles de la recherche scientifique? A l'évidence, la configuration historique héritée en particulier des sciences de la nature n'y est plus pertinente. L'ingénieur se faisant par obligation chercheur en modélisation, la différence entre sciences fondamentales et sciences appliquées s'estompe. C'est ainsi que le Centre National de la Recherche Scientifique à été conduit à institutionnaliser un département des Sciences de l'Ingénieur. Dans le même temps les implications économiques et sociales des créations technologiques ont tendance à gommer ces autres différences classiques entre sciences de la matière, sciences du vivant et sciences de I'homme: les activités et les obj ets de l'ingénieur de l'information tirent simultanément leurs principes de toutes ces disciplines. La reconnaissance d'une relation forte entre technologies et phénomènes sociaux s'est alors accompagnée de l'identification, parmi les Sciences de l'Ingénieur, de Sciences et Technologies de l'Information et de la Communication (STIC). Cependant, s'il est possible de jouer cette nouvelle pièce musicale avec des voix et des

I B. Morand, d'acteurs.

Processus

de conception

des systèmes

d'information 1994

avec un modèle

Essai sur le système

de représentation,

14

instruments multiples, il semble bien que pour une grande part, la partition en reste à écrire.

1 Des schémas prégnants
Faute de lois éprouvées, les concepteurs de systèmes d'information utilisent un certain nombre de références, plus souvent implicites qu'explicites, mais qui possèdent cependant une fonction unificatrice: une sorte de langage à la fois collectif et particulier à la spécialité. Les références théoriques qui l'alimentent sont marquées par deux grands courants de pensée. Il s'agit d'une part de la théorie mathématique de l'information développée à partir du schéma de Shannon et Weaver, et d'autre part du courant systémique issu de la cybernétique. Ce dernier aspect a été plus particulièrement influent en France au travers de la méthode Merise. La troisième référence est celle qui s'est constituée au fil d'une histoire des développements d'applications infoflnatiques, et concerne les modèles de conception. Physique et mathématiques de l'information

La thèse de Shannon est à double face. D'un côté il s'agit d'un modèle de communication qui définit l'information comme une substance mesurable véhiculée dans un canal. Sous ce premier aspect, il s'agit d'un système physique dans lequel une source d'information émet un signal codé par un transmetteur, véhiculé par un canal et décodé par un récepteur destinataire. L'analogie avec le système organique humain est Î1nmédiate : la source est un objet réel du monde extérieur, l'organe de codage du message est l'œil, le canal est le nerf optique, l'organe de décodage est le cerveau qui transforme le signal en image mentale. Cette métaphore aujourd'hui réactivée dans certains secteurs des sciences cognitives se cantonne dans le meilleur des cas à l'aspect physique de la communication de l'information. Sous un second aspect, le modèle de Shannon propose une réponse à la question de la mesure de la quantité d'information. Cette quantité possède une limite supérieure fixée par le flux maximal qu'il est possible de transmettre dans un canal déterminé. La théorie définit égalelnent le concept de signification comme un choix logique, c'est-à-dire la probabilité de sélectionner un message singulier parmi un ensemble de messages possibles. L'ensemble des messages possibles est fini, sa cardinalité étant déterminée par la puissance du code utilisé. On passe ainsi d'une physique de l'information (le signal) à une mécanique statistique de l'infor-

15

mation, la signification événement2 :

d'un message définie comme probabilité

d'un

L'aspect significatif de l'information du point de vue de la transmission est le fait qu'un message particulier est choisi à partir d'un ensemble de messages possibles. Ce qui doit être transmis est une spécification du message particulier qui a été choisi par la source d'information. Le message initial peut être reconstruit au point de réception seulement si une telle spécification non ambiguë est transmise. Par conséquent, en théorie de l'information, l'information est pensée comme un choix d'un message à partir d'un ensemble de messages possibles. La formule de calcul de cette quantité informationnelle a fait l'objet de plusieurs définitions différentes par Shannon, soulevant ainsi nOlllbre de discussions ultérieures. Il est impossible d'en retracer toutes les implications dans ce chapitre introductif bien qu'elles soient importantes. L'élaboration de la formule nécessite en effet deux précisions. La première est celle de la caractérisation de l'ensemble des messages possibles, une caractérisation qui dépend du code utilisé. Elle conduit à définir la quantité d'information du message sélectionné parmi cet ensemble par la formule: Q= -N LiPi log2Pi dans laquelle N est le nombre de signes du message, Pi la probabilité d'apparition d'un signe dans ce message (et log2 Pi représente la longueur probable d'un signe élémentaire codé). La validité de cette expression pose en particulier le problème bien connu de l'extrapolation d'une fréquence à une probabilité. La formule est ici reprise d'après F. Bonsack (1995). Elle présuppose la donnée d'un code composé d'un nombre infiniment grand de signes élémentaires indépendants et elle suppose par ailleurs que le message dont on calcule la quantité d'information soit extrait d'un ensemble infiniment grand de messages possibles du même type (un code, binaire dans le cas présent). On observe que la quantité d'information est une fonction croissante du nombre de signes employés (le signe négatif est multiplié par le résultat lui aussi négatif de la SOlllmation). La formule n'a de sens que relativement à un ensen1ble de n1essages de même type, c'est-à-dire de même code. Elle concerne donc une quantité informationnelle pour un émetteur faisant le choix d'un message dans une langue (ou code) donnée. On a remarqué la similitude de cette formule avec celle de l'entropie de Boltzmann dans le domaine de la mécanique statistique. La légitimité de la transposition de cette dernière à l'information de Shannon est l'une des discussions ultérieures auxquelles il a été fait allusion. Mais les signes parasites (bruit) introduits par le ca2

C.E. Shannon,

Information

Theory,

1972

16

nal lors de la transmission conduiraient paradoxalement à auglnenter la quantité d'information du même message pour son récepteur. Une nouvelle formule (seconde précision) sera donc nécessaire. Cette formule ainsi que son interprétation chez Shannon ne fait pas l'unanimité. A titre d'exemple elle peut consister en une différence de quantités d'information relatives respectivement à un ensemble de référence (émission) ou un sous-ensemble de celui-ci (réception). Nous résumerons ici ces discussions à l'idée que la théorie mathématique de l'information n'aboutit pas à une mesure identique de la quantité d'information selon qu'il s'agit de l'émetteur, du récepteur ni même de l'observateur extérieur. De cette dernière position, Atlan (Création et désordre, 1987) observe un étrange changement de signe dans la formule de calcul. Or, l'inversion de signe d'une constante n'a pas la même signification pour le mathématicien et le physicien. Pour le premier une constante est un paramètre dans une expression dont le signe n'a pas de sens particulier. Pour le second c'est le plus souvent une grandeur mesurable caractéristique du phénomène étudié. Une autre question non résolue par cette théorie est celle de la transmission, ou du partage, du code entre l'émetteur et le récepteur. Dans quelle mesure le code lui-même n'est-il pas lui aussi un message? En résumé, il selnble que le conception «objective» de l'information soit à tout le moins partielle, en dépit du plaidoyer du biologiste Tom Stonier3 : L'information existe. Elle n'a pas besoin d'être perçue pour exister. Elle n'a pas besoin d'être comprise pour exister. Elle n'exige aucune intelligence pour l'interpréter. Elle n'a pas besoin d'avoir une signification pour exister. Elle existe. De la même manière, le concept shannonien d'information rej ette hors du champ de l'étude la question de la sémantique des messages4 : Fréquemment les messages ont une signification, c'est-à-dire qu'ils renvoient ou qu'ils se trouvent en correspondance avec certaines entités physiques ou conceptuelles selon un certain système. Ces aspects sémantiques de la communication ne sont pas pertinents pour la question de l'ingénierie. L'aspect significatif' est qu'ils sont sélectionnés à partir d'un ensemble de messages possibles. Pour les besoins de la conception de l'information une telle partition reviendrait à déclarer par exemple hors domaine la question de l'usage social de l'information en même temps que celle de ses finalités. Or, tous les développements récents en matière d'ingénierie du logiciel montrent l'inverse. On ne peut concevoir de «bon» système d'information en de3 Tom Stonier, Information and the Internal Structure of the Universe, p. 21, 1990 4 Shannon & Weaver, The Mathematical Theory of Communication, 1948

17

hors d'une formulation des besoins de ses utilisateurs. Quoi que l'on puisse entendre pour l'instant par « sémantique », il semble donc impossible aujourd'hui de considérer cet aspect comme ne relevant pas des problèmes de l'ingénierie de conception de l'information. Cependant, un sous-produit avantageux de la théorie classique de l'information5 dans une perspective d'ingénierie est sa parfaite conformité avec le schéma béhavioriste de la communication: la source fonctionne comme un stimulus dont la destination réagit en fournissant une réponse éventuelle. Source et destination fonctionnent à tour de rôle comme émetteur et récepteur, un principe qui s'accorde bien avec un modèle de dialogue élémentaire en terme de requêtes/réponses. Au strict point de vue technologique, on peut s'interroger sur la généralité d'un tel modèle puisqu'il s'agit visiblement du cas d'une communication point à point: quid d'un message envoyé simultanément à des destinataires multiples, de la communication d'information par mémoire partagée? Il s'agit probablement aussi d'une communication synchrone qui suppose que le récepteur est à l'écoute directe, ce qui occulte les effets de bord liés à une réception de plusieurs messages successifs dans un ordre différent de leur ordre d'émission. D'un point de vue plus fondamental, le modèle shannonien de l'information est celui d'un système sans mémoire (ou à mémoire illÜ11itée, donc neutre quant à ses effets) dans lequel l'univers informationnel procède par accumulation de messages, un univers en expansion continue puisque la quantité d'information y croît proportionnellement au nombre de signes employés. De fait, ces hypothèses implicites sont aujourd'hui discutées du point de vue de la physique de l'information elle-même qui suggère I'hypothèse symétrique d'une compression possible sans perte (Chaitin 1990), voire d'un oubli tout aussi caractéristique des phénomènes informationnels6. La prise en compte du phénomène de mémorisation sociale et individuelle ainsi que de l'aspect sémantique, au sens d'une interprétation active de l'information par le destinataire, nous conduira vers un modèle inversé de la communication dans lequel l'information tout en n'étant pas une substance objective liée à un contenu de message peut cependant faire l' 0bj et d'une descri pti on formalisée. Systémique de l'information et émergence de la modélisation

A côté de la branche mathématique, la branche systémique fournit un schéma commun pour le concept d'information très prégnant chez les ingénieurs. Selon une définition de Mélèse (1982), suivant en cela Ashby
5 Robert Escarpit, Théorie générale de l'information et de la communication, 1976 6 Pour une discussion plus approfondie: D. Parrochia, Cosmologie de l'information, 1994.

18

(1956), un système est un opérateur qui transforme des entrées en sorties. Décliné dans le monde informationnel on obtient: un système d' information transforme des entrées (data, données, ou inputs) en sorties (data, résultats, ou outputs). Ce schéma met en évidence un principe fondamental de la conception de l'information, celui d'abstraction. On pourra analyser un système comme une boîte noire dont on sait caractériser les entrées et les sorties, la boîte noire étant elle-même une fonction abstraite de transformation. Ce schéma constitue le fil d'Ariane de la conception des Systèmes d'Information. Il est compatible avec le schéma de Shannon si l'on ajoute au flux d'entrée son organe émetteur et au flux de sortie son organe récepteur. La notation archétypale des Diagrammes de Flux de Données (De Marco 1978) repose sur ce schéma, étant entendu que se trouve adj ointe la notion de processus (la transformation) à celle de canal (médium du flux). En tant que notion unificatrice du domaine, le schéma entrées transformation - sorties sera promu au rang de paradigme sous le nom de Système de Traitement de l'Information, ce dont témoigne la définition officielle du mot « informatique» de l'Académie Française (20/4/1967) : L'informatique est la science du traitement rationnel, notamment par machines automatiques, de l'information considérée comme support de connaissances et de communications dans les domaines technique, économique et social. On observe dans cette définition que la fonction spécifique de l'informatique est de s'occuper de la partie transformation du système et ce, sous l'angle de la rationalité (probablement des algorithmes), tandis que le terme d'information semblerait renvoyer au couple données/résultats (data). L'idée de l'information comme support renvoie l11anifestement à une conception physicaliste cohérente avec la théorie mathématique de l'information: connaissances et communications en tant que telles sortiraient alors du champ, bien qu'elles soient évoquées dans la définition. Le paradigme du Système de Traitement de l'Information (STI) est celui d'un système de type mécanique stable et fermé. Cette qualité autorise simultanément deux métaphores se renforçant l'une l'autre. D'une part on suppose que l'information peut être «traitée» par des moyens automatiques (<< computée ») et les ordinateurs incorporent donc les lois de transformation de l'information. D'autre part, on peut soutenir la thèse que ces lois sont similaires à celles du traitement humain de l'information. Le terme « notamment» de la définition de l'Académie Française laisse ouvert le choix entre ces deux positions. Cependant, l'ingénierie des SI est bien obligée de tenir compte dans la pratique du fait que les systèl11es d'information évoluent de manière dynamique (ils ne sont stables qu'à une échelle de temps très réduite) et qu'ils sont ouverts sur 19

leur environnement, en particulier l'organisation dans laquelle ils se trouvent. Pour caractériser le Système Général, J.-L. Le Moigne ajoute alors à la fonction de «processement» quatre éléments essentiels: une finalité, une structure, un environnement et une évolution temporelle7. On obtient ainsi une vision plus large et complexe du Système d'Information comme sous-système de l'entreprise, identifié comme une mise en relation d'un sous-système décisionnel (pilotage) et d'un sous-système opérant. Bien que cette mise en sandwich de l'informationnel, à mi-chemin du décisionnel et de l'opérationnel, puisse être discutée, elle autorise l'attribution d'une fonction de mémorisation des données au système d'information. C'est ce qui permet à l'un des auteurs de la méthode Merise, H. Tardieu, d'inventer le slogan «Construire le système d'information de l'entreprise, c'est construire sa base de données ». Le réajustement ainsi opéré par le courant systémique a des conséquences essentielles pour l'ingénierie. En effet, le couple données/résultats ne permet plus d'identifier par abstraction une transformation qui n'est plus une simple fonction: la mémoire est source d'effets de bord. Ce réajustement est concomitant de l'arrivée à maturité de la technologie infof111atique des Systèmes de Gestion de Bases de Données et, d'autre part, de la prise de conscience que le rapport ordinateur/utilisateur est essentiel. Il apparaît alors qu'il n'y a pas un monde unique de l'information mais bien au moins deux mondes (des hommes et des machines) dont il faut penser la frontière aussi bien que l'interaction. On peut dater cette rupture épistémologique de la publication du rapport ANSI -SP ARC en 19758. Il préconisait une séparation en trois niveaux d'abstraction: conceptuel (contenu informationnel), interne (stockage physique de l'information) et externe (vue utilisateur de l'information). A côté du paradigme mathématique et, pour une large part à l'intérieur du paradigme systémique, le développement de l'ingénierie des Systèmes d'Information fait émerger un troisième paradigme, celui de l'information - représentation. En effet, pour passer de la donnée brute au résultat il est maintenant reconnu que des modèles à différents niveaux doivent être produits9 : Le SI contient, grâce à tout ce qu'il mémorise, une représentation de la réalité, en même temps qu'il est un modèle de cette réalité. (..). Il faut le voir comme un miroir dans lequel on peut observer: - la réalité décrite dans ses multiples facettes et projetée avec des réductions temporelles et spatiales inhérentes à la nature du SI.
7 J.-L. Le Moigne, La théorie du système général. Théorie de la modélisation, 1984 8 Study Group on Data Base Management Systems 9 Rolland et a1., Conception des SI. La méthode REMORA, p. 7, 1988 20

- une abstraction simplificatrice qui analyse la réalité en termes de catégories ou de types.
Pour informer, il faudra donc désormais modéliser: tel est le retour d'expérience de l'ingénierie de l'information. Ceci s'accorde bien avec la thèse «représentationnaliste» selon laquelle «les systèmes ne sont pas dans la nature, mais dans l'esprit des hommes », soit l'antithèse du physicalisme (sauf à prolonger cette dernière jusqu'à sa limite: il n'y a d'esprit humain que physique). J.-L. Le Moigne avait pour sa part déjà reconnu la modélisation comme notion centrale de la systémique, et comme un instrument de la conception des systèmes10 : Le lecteur qui tiendrait cet ouvrage pour la présentation et le mode d'emploi de la systémographie, instrument de conceptionconstruction de modèles des phénomènes ou des projets perçus complexes, ne trahirait pas l'intention de son auteur. Ce pouvoir représentationnel des SI conduira certains auteurs à les as-

similer peu ou prou aux langues naturellesIl :
Le système d'information est un langage de communication de l'organisation, construit consciemment pour représenter, de manière fiable et objective, rapidement et économiquement, certains aspects de son activité, passée ou à venir. Les phrases et les mots de ce langage sont les données dont le sens vient des règles de leur élaboration, par des hommes ou par des machines. Les mécanismes de représentation propres à ce type de langage prennent leur efficacité dans la répétitivité des actes des organisations. et, plus récemment, en reliant information et connaissance, mais surtout

en distinguant langue et discours 12 :
Nous pensons pour notre part que c'est la conjugaison des modèles de la langue avec ceux de l'information et du savoir qui permettra une vision plus intégrée et certainement mieux préparée pour l'avenir, en ce qui concerne les Organisations. Si aujourd'hui le terme de « mémoire d'entreprise» est sur toutes les lèvres pour justifier l'introduction des sciences de la cognition dans le milieu des Organisations, pour nous, cette mémoire est surtout composée de faits en langue, de dires et de non-dits, de traditions d'expression et d'expressions de la tradition. Modéliser cognitivement et informatiquement ces morceaux de discours, et
10 Introduction

à la 2ème édition, p. 22, op. cit. Il J.-L. Peaucelle, Les systèmes d'information. La représentation, p. 24, 1981 12 V. Prince, Vers une informatique cognitive dans les organisations. Le rôle central du langage, p. xiii, 1996

21

réciproquement considérer les modèles informatiques et sociaux comme des modèles de discours, voilà le but que nous nous sOlnmes proposés de poursuivre (...) par cet ouvrage. L'idée systémique selon laquelle l'information passe par des modèles et des représentations constitue un acquis de l'expérience ingénieuriale. Cet acquis doit être rappelé avec d'autant plus de vigueur que l'arrivée d'une culture de l'orienté-objets en Génie Logiciel a pu un moment laisser penser que les objets étant « naturellement naturels », leur représentation serait inutile13 : Les concepteurs de l'Orienté-objets ne perdent pas habituellement leur temps dans des discussions académiques sur les méthodes qui permettent de trouver les objets... parce que les objets sont là pour qu'on les prenne. Même si le statut théorique de ces modèles ainsi que leur rapport au concept d'information restent quelque peu mystérieux, le principe de modélisation a permis d'ouvrir la construction des systèmes informatiques sur leur environnement: les systèmes d'information des organisations. Méthodes et démarches en ingénierie du logiciel

A la différence du chercheur, l'ingénieur de conception est soumis à une contrainte essentielle, celle du temps. Il doit nécessairement mettre un point final à son travail, ce qui suppose une manière de faire réutilisable aussi bien qu'une description des ingrédients nécessaires. C'est la raison pour laquelle on peut recenser deux acceptions assez différentes dans leur contenu pour le terme de méthode en ingénierie de l'information. La première est synonyme de procédé. Le terme est employé ici de manière neutre, au sens où l'on parle de génie des procédés dans l'industrie chimique par exemple. C'est un effet pervers de la coupure sciences fondamentales/sciences de l'ingénieur que de renvoyer les secondes à une simple application des premières. Dans un tel contexte le terme de procédé est connoté de manière péjorative en laissant entendre qu'il n'est point besoin à cet effet de science Inais plutôt d'habileté. La méthode consiste en fait à spécifier la manière dont un système d'information automatisé peut être conçu et réalisé dans les temps, éventuellement par des groupes d'acteurs différents. Des étapes du développement du projet sont spécifiées, les résultats attendus à chacune des étapes ainsi que les organes de décision en charge de chacune d'entre elles. On retrouve ainsi dans la méthode Merise un cycle de vie du projet découpé en étapes: étude préalable (ou étude de faisabilité), étude détaillée (spécification fonctionnelle du futur système), étude technique (spécifica13 B. Meyer, Object-oriented software construction, 1988

22

tion du système informatique), production du logiciel, mise en service et maintenance. Il se trouve que l'organisation de cette prescription est identique dans la plupart des autres domaines de l'ingénierie (par exemple en génie civil). Elle serait donc indépendante du fait qu'il s'agit de construire des systèmes d'information. Le découpage en étapes, qualifié de modèle en cascade, a été critiqué du fait de sa lourdeur, notamment la difficulté de corriger d'éventuelles erreurs survenues en début de proj et. D'autres modèles ont été préconisés qui permettent de procéder de manière plus incrémentale et rapide. Il est à noter que l'on observe les mêmes tendances dans d'autres domaines sous le nom d'ingénierie concourante. Ceci tendrait à montrer que la question du cycle de vie d'un projet d'informatisation renvoie, comme les autres, à des savoir-faire, accumulés dans les expériences collectives d'ingénierie, retenant ce qui a « marché» pour éviter de refaire ce qui s'est avéré inefficace, tout en organisant la coopération entre plusieurs corps de métiers. La seconde acception du terme de méthode est plus spécifique des systèmes d'information et utilise la métaphore mathématique de la résolution de problèmes. On en trouve une remarquable description en trois niveaux dans un article de Monarchi et Puhrl4. Au premier niveau se trouve le monde réel et ses problèmes informationnels. Le second niveau définit l'espace de recherche des solutions éventuelles comme une représentation du domaine du problème. Le passage du premier au second niveau est assuré par une transformation appelée « Systems Analysis ». Son résultat est une spécification: un espace de recherche déterminé. Le troisième niveau est celui de la représentation d'une solution du domaine. Le passage de l'espace de recherche à une solution est assuré par une seconde transformation nommée « Systems Design ». Cette terminologie bipolaire analyse/conception est aujourd'hui admise par l'ensemble de la communauté du Génie Logiciel. Elle nous pose cependant problème puisque nous estimons que «analysis» est aussi et surtout de la conception d'information, tandis que « design» est selon nous plus exactement qualifié par le terme de «réalisation », lequel inclut lui aussi une activité de conception, bien qu'elle soit différente du fait de ses objectifs. Le résultat de la conception au sens de Monarchi et Puhr est un logiciel implémenté. Ce schéma, prégnant lui aussi particulièrement chez les développeurs de logiciels, mérite d'être questionné. D'une part, il suppose la possibilité de caractériser les problèmes informationnels par un espace de recherche qui peut être complètement défini lors de l'analyse. On peut formuler cette proposition autrement: les besoins des utilisateurs seraient énonçables de manière complète et une fois pour toutes. Or l'expérience I110ntrequ'une spécification (ou énonciation) évolue en même temps que se construit la
14 D.E. Monarchi et G.I. Puhr, A research typology for object-oriented and design, 1992 23 analysis

solution. Il arrive même le plus souvent qu'une solution rétroagisse sur l'expression des besoins. D'autre part, il n'est pas certain que la conception du logiciel elle-même, au sens anglo-saxon du design consiste dans l'exploration d'un espace de recherche, soit la réduction d'une combinatoire en ses éléments simples constitutifs d'autant de solutions. Il s'agit plutôt de l'articulation entre des finalités provisoirement fixées et des moyens à disposition, matériels et langages, sous contrainte d'économie de ressources en temps et espace. Enfin et plus globalement, la métaphore problème/solution paraît ignorer une caractéristique intrinsèque des systèmes informationnels selon laquelle une boucle de rétroaction s'exerce depuis la mise en eXploitation d'une solution logicielle vers la naissance de nouveaux besoins. Il en résulte que l'utilisateur n'est pas véritablement seul dépositaire de ses besoins, et plaider l'inverse serait faire preuve de démagogie à son égard. La boucle de rétroaction du produit sur les besoins explique non seulement qu'il faille maintenir les logiciels, mais qu'il soit en outre souhaitable que la conception du logiciel anticipe cette maintenance: il faut concevoir de manière à pouvoir réutiliser, dit-on aujourd'hui. La question des méthodes de conception de systèmes d'information, met donc en présence deux cultures différentes, celle de l'organisateur du projet et celle de l'ingénieur du logiciel. Chacune d'elles peut être discutée et améliorée dans son propre contexte. Néanmoins, il est nécessaire de comprendre et de spécifier l'articulation de ces deux aspects dans le cadre d'une théorie générale de la conception de l'information. C'est ce que relève à sa manière Y. Tabourier'5 : L 'hypothèse que la conception d'un système d'information peut se dérouler selon un processus méthodologique signifie que des systèmes d'information variés peuvent être construits, ... au moins selon des processus d'une même famille, mettant en jeu des phases
de conception/construction stéréotypées

(..J.

Bien sûr, cette hy-

pothèse arrange tout le monde: les entreprises de conseil, à qui elle permet de proposer des produits méthodologiques et de chiffrer aisément des propositions d'études, et les entreprises clientes des entreprises de conseil, qui ont la rassurante impression que tout va se dérouler sans heurt. Au delà des aspects technologiques, commerciaux, sociaux, voire psychologiques, il apparaît ici que la question méthodologique est aussi celle de la nature du contrat passé entre un besoin informationnel et la réponse à celui-ci.

15

Y. Tabourier, De l'autre côté de Merise. Systèmes d'information
d'entreprise, p.141, 1986

et modèles

24

2 La représentation, des fonctions aux modèles
Produire, concevoir des systèmes informationnels suppose implicitement ou explicitement des méthodes: ceci est attesté par le rapide état des lieux qui vient d'être proposé. Mais cette activité suppose aussi des modèles et adresse alors de manière directe la question de la représentation. Les traits sémantiques du mot modèle

Dans la langue naturelle, le mot est très largement polysél11ique mais le lexique retient en général trois classes d'acceptions. La première classe fait du modèle un objet idéal représentatif d'une catégorie, d'un ordre ou d'une qualité: un maître à penser sert de modèle pour son élève du fait de ses qualités intellectuelles, un enfant l110dèle est un exemple de sagesse, un modèle de vertu est exemplaire du Bien, et le poisson est un modèle des animaux aquatiques. Fondé sur une pure qualité du mécanisme représentatif, idéal ou imaginaire, le modèle peut même éventuellement ne pas être sujet d'un jugement de perception. La seconde classe d'acceptions prend modèle au sens d'un objet dont la fonction est celle d'une reproduction par copie ou imitation, par exemple le moule de fonderie, le modèle d'écriture mis par l'instituteur au tableau, le modèle du peintre, le patron de la couturière, le modèle réduit du bricoleur, et probablement le prototype de l'informaticien. La représentation consiste dans ce cas en une opération de référenciation dans laquelle l'objet produit respecte les caractères (cotes, gabarit, etc.) de son modèle, de la même manière que l'on moule une instance sur sa classe en programmation des ordinateurs. On y trouve aussi l'idée que l'opération peut être réitérée: le modèle permet de reproduire plusieurs objets à son image. On peut encore dégager deux sens dérivés de ce trait. Soit le 1110dèle constitue le premier exemplaire d'une série à partir duquel on va engendrer des occurrences, et on parle alors de prototype. Soit il s'agit à l'inverse d'une occurrence en principe unique dont la fonction est d'imiter les caractères du modèle, on parlera de maquette ou modèle réduit. Le trait sémantique d'objet reproductible n'est pas exclusif du trait qualia commun aux acceptions de la classe précédente et peut s'y combiner. En effet, le modèle du peintre ou du sculpteur est à la fois objet idéal et copiable dans la mesure où il présente aussi des qualités particulières: la beauté, la force, etc. La troisième classe d'acceptions est beaucoup plus récente, et utilisée par exemple en mathématiques dans l'expression « théorie des modèles ». Un modèle est un couple (Domaine, Interprétation) qui rend vraie une formule logique. Il consiste dans la donnée d'un ensemble d'objets d'un domaine, la donnée d'une interprétation des relations entre ces obj ets pour

25

lesquelles il s'agit d'établir que ces deux données sont le cas de la formule logique. Cette acception de modèle sert en particulier à définir la validité d'une déduction logique16 : La proposition X suit logiquement les propositions de la classe K si et seulement si tout modèle de la classe K est aussi modèle de la proposition X Un modèle est ici une structure formellement définie par un domaine et une interprétation que l'on utilise comme moyen intermédiaire pour valider ou invalider une inférence. Dans un sens élargi, un modèle est une structure formalisée d'objets qui peut être utilisée comme support d'activités de raisonnement: spécification de relations logiques entre objets, tests d'hypothèses, comparaison de structures, etc. Pris comme un moyen, on peut observer que le modèle est susceptible de porter des éléments caractéristiques des deux acceptions précédentes: isomorphies ou structures de référence plus complexes qui autorisent les opérations de comparaison. Les résultats d'un travail de lexicologie sémantique réalisé à l'ELSAP, Groupe de recherche en sciences du langage (Ambiguïté et Paraphrase) de l'Université de Caen, semblent confirmer cet essai de classification. On y utilise sept dictionnaires français de synonymes. Un traitement informatisé des 40000 entrées permet de construire le graphe des synonymes d'un terme, de calculer ses cliques maximales puis, par la méthode du khideux, de calculer des distances entre ces cliques. Pour le terme modèle on obtient 58 synonymes et 68 cliques. L'analyse en composantes principales des distances met en évidence trois régions, la première centrée sur les synonymes idéal, bon, parfait, la seconde centrée sur esquisse, maquette, croquis et la troisième sur gabarit, forme et type. Les faits de langue sont ici pris à témoin du phénomène de représentation. Il ne s'agit donc que d'un indice et non d'une preuve que la représentation convoque trois éléments: qualité, référence et comparaison. Sous réserve d'exactitude de l'analyse proposée, il est encore remarquable que ces faits linguistiques soient précisément en correspondance avec la division la plus connue du signe peircéen entre icône, indice et symbole. Le principe de qualité intervient dans le rapport d'iconicité entre le modèle et son objet, le principe de référence dans le rapport indiciaire et le principe de comparaison dans le rapport symbolique. Une caractérisation «trinitaire» de la notion de modèle est également faite en psychologie dans une perspective dialogique par M. Minsky17 : Nous utilisons le terme « modèle» dans le sens suivant: Pour un observateur B, un objet A * est un modèle d'un objet A dans la
16 A. Tarski, Logique, sémantique, métamathématique, 17 M. Minsky, Matter, Mind and Models, 1968 p. 150, 1972

26

mesure où B peut employer A * pour répondre à des questions qui l'intéressent au sujet de A. La relation de modèle est fondamentalement ternaire. Toute tentative de supprimer le rôle des intentions de l'investigateur B conduit à des définitions circulaires où des ambiguïtés au sujet des « caractéristiques essentielles» et d'autres du même genre. Le rapport d'iconicité traite autrement la question des « intentions» et de «l'intérêt» de l'investigateur (d'une manière non psychologique), mais il partage avec elle le principe de qualité: une propriété autonome et indiscernable de A et A * tout à la fois. A cette différence près, le reste de la proposition de Minsky est assez semblable aux deux autres caractères de la relation du signe à son obj et analysée par Peirce. La propriété par laquelle A * peut répondre de A peut être vue comme un rapport d'indexicalité ou de causalité efficiente entre A et A *. Le droit de questionnement, à titre de comparaison entre A et A*, relève du rapport symbolique. Néanmoins et comme nous le verrons, le signe de Peirce est défini de façon logique dans le sens où il introduit en plus et au-delà de la relation duale A-A *, le concept d'interprétant. Il s'agit de l'effet de la comparaison, un effet irréductible à la fonction de l'observateur B. Le processus de représentation: découper et regarder

Il a été fait précédemment mention des risques de confusion entre méthode de conception au sens du développeur de logiciels et processus de modélisation au sens d'une description de l'activité de représentation en général, indépendamment des objets qu'elle peut concerner. Nous introduisons ici la matière du processus de modélisation par un emprunt à des travaux issus d'un champ disciplinaire autre que celui de l'information. Il s'agit de deux opérateurs qui proviennent de la Méthode de Conceptualisation Relativisée (MCR)18. Confrontée aux questions de conceptualisation posées par la mécanique quantique, M. MugurSchachter propose des concepts permettant de décrire une méthode par laquelle «des connaissances et notamment des descriptions d'entités réelles peuvent commencer à se former dès qu'un « observateur» est en présence d'une réalité ». La MCR repose notamment sur les concepts de découpeur et regard, définis comme des opérateurs de production de descriptions relativisées. Le continuum des objets physiques ou conceptuels, potentiellement objets d'examen à l'époque de l'observation, est dénoté R.

18

M. Mugur-Schachter,
relativisée, 1990

Esquisse d'une méthode générale de conceptualisation

27

Un découpeur est un opérateur d défini sur R et produisant une entité Nd, soit l'écriture: dR ->Nd. L'entité Nd représente la portion du réel qui est acceptée comme source des enregistrements pris en considération et constitue l'objet d'examens ultérieurs. Un découpeur est donc un mode de séparation dans R d'un objet d'examens futurs, produisant une entité qui n'est que factuellement définie par l'opération de découpage. Un regard-aspect (noté: ~/g) est un opérateur d'investigation défini sur l'ensemble de toutes les entités Nd concevables productibles par tous les découpeurs possibles sur R : cet ensemble constitue le dOl11ainedu regardaspect. Le regard-aspect produit, via l'opération correspondante d'investigation (<>-/g, Nd), une catégorie particulière de qualifications de l'entité Nd. Ces qualifications constituent le co-domaine de l'opérateur <>-/get sont fondés sur les aspects manifestés par l'entité Nd. Un aspect (noté: g) est constitué de la réunion d'un ensemble fini de valeurs recherchées, discrètes, et manifestées par l'entité Nd. L'ensemble de tous les aspects g possède un cardinal immensément riche et son contenu évolue au fur et à mesure qu'augmente la complexité de la conceptualisation. Mais, pour toute investigation donnée le nombre d'aspects sélectionnés est nécessairement fini. Aussi la MCR propose de définir la notion de regard (noté: ~), comme celle d'un nombre arbitrairement grand mais fini de regards-aspects (~/g), constructible à partir de ceux-ci. Une entité n'existe (i.e. n'est qualifiée) que face aux regards à la genèse desquels elle peut contribuer et, réciproquement, un regard n'existe que face aux entités qu'il peut qualifier, ce qui justifie le qualificatif de conceptualisation relativisée. Un corollaire essentiel de ce principe de description relative, dans la mesure où celle-ci est fondée sur le triplet (d, Nd, ~), est que toute modification de l'un des éléments du triplet fait émerger une autre description. Dans ce cas, cette autre description doit être traitée séparément. C'est le manquement à ce principe qui conduit à ce que différentes descriptions tentées simultanément se mélangent et que l'on ne peut en général en achever aucune. Sans entrer plus avant dans la méthode (en particulier la définition du concept d'observateur et les développements relatifs à l'introduction d'un instrument d'observation), elle montre déjà que: - il est possible de définir très généralement un processus de conception, une manière de faire des schémas conceptuels au sens où l'on emploie cette expression en ingénierie des systèmes d'information. - on peut s'attacher au mode de production des conceptualisations indépendamment de la structure de leur résultat (le modèle lui-même, ici l'entité Nd) - la production de conceptualisations possède un caractère provisoire et dynamique (émergence de nouvelles descriptions par modification d'opérateurs)

28

validité d'une conceptualisation résulte du principe de relativité: l'indépendance mutuelle des opérateurs de découpage et regard, puis l'indépendance de ceux-ci par rapport à l'entité produite permettent de détecter des cas de non-qualification d'entité. Nous reviendrons sur cette méthode qui met en évidence que « représenter» commence par des observations et des sélections dans un univers, que des propriétés peuvent en être dégagées et que par conséquent il est possible d'attribuer un sens au concept de processus de conception qui soit autre que celui de méthode - procédé. La formalisation des produits de la conception

- la

Partant du constat selon lequel la conception de l'information est étroitement imbriquée dans celle de représentation d'une part, et que les contenus à concevoir sont en définitive des connaissances relatives aux métiers des organisations d'autre part, il est naturel de se tourner du côté de l'Intelligence Artificielle et plus particulièrement l'un de ses champs, la Représentation des Connaissances. Parmi nombre de travaux reconnus de longue date, les formalismes employés dans les Réseaux Sémantiques paraissaient particulièrement intéressants à étudier. Au demeurant, l'ingénierie de conception utilise depuis longtemps des outils de représentation dérivés de ceux-ci, le modèle Entité-Association par exemple. Le diagramme statique de la notation UML19 en est aujourd'hui encore très fortement inspiré dans une syntaxe qui s'est améliorée au fil du temps et des normalisations. Il est également intéressant de noter ici un point d'histoire. Ces réseaux furent qualifiés de « sémantiques» parce qu'ils furent inventés dans le but de mettre au point une représentation à caractère universel des constructions des langues naturelles, un obj ectif qui n'a pas été atteint. Dans leur première génération, les chercheurs étaient en quête de liens primitifs simples, en nombre définitivement fini, susceptibles par composition de représenter une langue. Par exemple, la phrase « Jean donne un livre à Marie» peut se décrire comme Jean est agent du prédicat donner d'un objet livre dont le destinataire est Marie. Les termes en italique sont des membres de cet ensemble d'éléments primitifs simples. Ils pourront être combinés autrement pour former de nouvelles phrases. Le mot « sémantique » renvoie donc dans ce contexte non pas à une qualification du système de représentation lui-même mais aux objets auxquels il s'intéresse. On n'est jamais parvenu à établir une telle liste finie et la recherche s'est orientée vers des systèmes moins complets mais plus précis
19 Unified Modeling Language est une notation pour la modélisation, normalisée au sein de l'abject Management Group qui regroupe les principaux constructeurs et éditeurs mondiaux de l'informatique. 29

Soyez le premier à déposer un commentaire !

17/1000 caractères maximum.