Linguistique et interprétation

Tous les développements en informatique juridique ont été jusqu'à présent fondés sur une analyse informatique classique conduisant à la réalisation de modèles variables dans la forme selon les méthodes d’analyse ou de conception employées, mais que l’on peut qualifier tous de modèles conceptuels, que ceux-ci s’attachent aux données ou aux traitements.

Même une méthode comme la méthode K.O.D. (Knowledge Oriented Design)[1] ne s’écarte pas de la démarche classique. La méthode de représentation des connaissances qui recouvre toute la phase de spécification globale du système (SGS) s’effectue en deux temps :

  • une modélisation de l’existant débouchant sur trois types de modèles
  • le modèle pratique des données (MPD)
  • le modèle pratique des traitements (MPT)
  • le modèle pratique des règles (MPR)
  • Dans une seconde étape, le cognicien applique aux modèles pratiques certaines méthodes de contrôle, d’analyse et de structuration de la connaissance qui déterminent une « modélisation cognitive de l’existant qui comporte :
  • une modèle cognitif des données (MCD)
  • un modèle cognitif des traitements et des contraintes (MCTC)
  • un modèle cognitif des règles (MCR)

Ces méthodologies ont pour objet la représentation de savoirs et de savoir-faire qui ne sont ni nécessairement ni généralement écrits.

Par contre, le traitement des textes normatifs, qui sont toujours écrits par définition, qu’il s’agisse des textes ou énoncés normatifs originels ou qu’il s’agisse de leurs multiples applications et interprétations jurisprudentielles ou doctrinales, ne peut manquer de poser le problème du traitement sémantico-linguistique automatisé ou plus modestement assisté par ordinateur.

Posant la question du traitement linguistique, on est conduit à deux autres questions : celle de la relation entre l’informatique et la linguistique, et celle plus profonde du rôle de la langue et de la linguistique, dans le processus d’interprétation et de compréhension.

 

[1] Méthode développée dans le cadre du projet K.O.M.S. (Knowledge Oriented Design and Management Support) pour la division Génie Logiciel et Systèmes Experts de la Direction Technique du SERNIT (Service National Informatique des Télécommunications) et décrite dans l’ouvrage de Claude Vogel Génie Cognitif (1988). Voir aussi notre résumé dans L’informatique du décideur (Marabout, 1992, p.409-427).

Qu'est-ce que comprendre un texte juridique ?

Progressivement nous en arrivons à la question fondamentale de tout traitement cognitif d’un texte qui est celle de son sens. Quel est le sens du texte ? Qu’est-ce que comprendre un texte.

Rappelons l’intitulé de notre recherche : L’apport de la modélisation des connaissances à la simplification et à la codification des textes normatifs.

Il est clair que toute assistance informatique à la simplification et à la codification des textes normatifs postule un traitement cognitif du texte qui reproduise les mécanismes de la compréhension.

Nous avons d’abord posé le problème en termes de modélisation. La question de la modélisation nous a renvoyé à celle de l’interprétation des textes, qui constitue une étape préalable à la modélisation. Et maintenant, notre recherche nous conduit à un nouvel approfondissement consistant à démonter les mécanismes non de l’interprétation mais de la compréhension des textes qui précèdent l’interprétation proprement dite. Il faut en effet d’abord comprendre un texte avant d’en donner une interprétation et de modéliser cette interprétation, étant entendu qu’un même texte peut éventuellement donner lieu à plusieurs interprétations, entre lesquelles l’hésitation peut être permise, même si au final une interprétation finit par s’imposer dans le droit positif aux dépens des autres.

De nombreux auteurs ont tenté de répondre de manière synthétique à cette question de savoir ce que veut dire comprendre un texte. Nous voudrions analyser leurs réponses avant d’en donner une traduction opératoire qui sera la trame des développements logiciels ultérieurs.

Bernard Pottier avoue les limites de la connaissance sur cette question et s’appuie sur la psychologie cognitive.

« Il est difficile de savoir ce qu’est comprendre un texte. On sait cependant que la compréhension n’est pas linéaire. On conceptualise des tranches de discours, constamment remodelées par la conceptualisation des tranches suivantes. L’oubli d’une partie quantitativement sensible du texte lu ou entendu est la condition même de la rétention mémorielle. On transforme sans arrêt le sémantique en conceptuel. C’est ce qu’on fait quand on résume un film : on peut avoir oublié tous les mots du film, et en faire une excellente paraphrase, plus ou moins étendue.

« Le mécanisme de la compréhension peut être figuré ainsi :

Ll1 2 interpret comprendre1

Ultérieurement, Pottier intégrera dans les mécanismes de la compréhension ce qu’il appelle l’environnement du message qui est composé de trois types de savoirs :

  • le savoir sur la langue
  • le savoir culturel
  • le savoir sur le monde ou savoir encyclopédique (1992, p. 24-25)

Paul Ricoeur avance une définition systémique : le sens du récit est dans l’arrangement des éléments ; le sens consiste dans le pouvoir du tout d’intégrer des sous-unités ; inversement, le sens d’un élément est sa capacité à entrer en relation avec d’autres éléments et avec le tout de l’œuvre ;... » (1986, p. 159-160).

Pour Oswald Ducrot, dans une perspective pragmatique, l’énoncé est le lieu où s’expriment divers sujets, dont la pluralité n’est pas réductible à l’unicité du « sujet parlant »(...) le sens de l’énoncé décrit l’énonciation comme une sorte de dialogie cristallisée, où plusieurs voix s’entrechoquent » (1984, introduction). Ducrot distingue le « sujet parlant » (être empirique producteur matériel de l’énoncé), le « locuteur en tant que tel (être de discours, source de l’énoncé, responsable de l’énonciation), le « locuteur en tant qu’être du monde » (par rapport auquel le précédent peut prendre ses distances, par exemple dans l’autocritique), et l’« énonciateur » (personnage mis en scène par le locuteur) (1984, pp. 192 sqq., analysé par C. Fuchs, 1992 p. 137).

Dans une optique vériconditionnelle, Robert Martin apporte un éclairage complètement différent. « Qu’est-ce, en effet, interroge-t-il, pour un énoncé qu’avoir du sens ? Une des réponses les moins décevantes est de dire qu’un énoncé a du sens si l’on peut spécifier les conditions dans lesquelles il est vrai ou faux » (1983, p. 22). Et de préciser son projet. En se limitant au point de vue de la phrase (la sémantique, dans un sens étendu, porte en effet sur le sens des mots, le sens des phrases et le sens des textes), « une des finalités assignables à la théorie sémantique est la prévision des liens de vérité qui unissent les phrases. Cela revient à dire que le modèle doit être en mesure, quelles que soient les phrases que l’on se donne, pour peu qu’elles soient bien formées et sémantiquement interprétables, de calculer la relation logique que ces phrases entretiennent.

« En général, cette relation sera évidemment celle de l’indépendance logique ou, si l’on préfère, de l’absence de relation. (...).Mais il existe aussi des couples tels que leur relation se décrit en termes d’inférence, d’antonymie ou de paraphrase. Ainsi pour

p = Pierre est revenu

r = Pierre est de retour.

« Si l’une est vraie, l’autre est vraie ; si l’une est fausse, l’autre est fausse. Ces deux phrases sont en relation d’équivalence logique, c’est-à-dire en relation linguistique de paraphrase. »

En fait, Robert Martin reprend à son compte le projet du mathématicien Montague, explicité par Dowty, Hall et Peters (1981, p.12), analysé par Michel Galmiche (1991, p. 29), selon lequel : comprendre une phrase, c’est « savoir ce à quoi le monde doit ressembler pour qu’elle soit vraie » ; en d’autres termes, c’est connaître ses conditions de vérité.

Cette approche est reliée à une théorie importante en sémantique qui est celle de monde possible. En effet, « Cet « élargissement » de la notion de compréhension (et donc de sens) implique le recours à un concept supplémentaire - que l’on est souvent peu enclin à accepter, tant la notion de vérité nous semble liée à notre relation au monde « tel qu’il est » (ou que nous croyons qu’il est) -, ce concept est celui de monde possible. En effet, dès lors que l’on admet que les phrases de la langue sont à même de décrire ce qui est (notre monde), ce qui pourrait être (un ou plusieurs autres mondes), ce qui sera peut-être (un ou plusieurs autres mondes encore), on peut considérer que la connaissance de la signification d’une phrase s’identifie avec cette capacité à faire le partage entre les mondes dans lesquels elle est vraie et les mondes dans lesquels elle est fausse. Ainsi, le sens d’une phrase - ce qu’on appelle aussi, techniquement une proposition, - peut être assimilé à un ensemble de mondes possibles (i.e. tous les mondes dans lesquels elle est vraie). » (Michel Galmiche, 1991, p. 29). R. Martin enrichira encore cette problématique avec la notion d’univers de croyance.

François Rastier accorde également à la question du sens des énoncés une très grande importance et lui consacre un chapitre entier de Sémantique pour l’analyse (1994, p. 1 à 22).

François Rastier rappelle ce que pratiquement, en intelligence artificielle, on entend par système de compréhension. Il ne s’agit plus comme aux premiers temps de prétendre simuler le dialogue entre humains. Plus modestement, « on appelle généralement système de compréhension tout système qui tente de passer d’un arbre syntaxique à un réseau sémantique, et de faire des inférences au sein de ce réseau. La « compréhension consiste alors à construire des représentations sémantiques formalisées, comme des « graphes conceptuels », puis à opérer sur elles. »

François Rastier propose une « formulation » de ce problème dans les termes de la sémantique linguistique. La compréhension, déliée des réquisits psychologiques, est une interprétation : elle consiste à stipuler, sous la forme de paraphrases intralinguistiques, (i) quels traits sémantiques sont actualisés dans un texte, (ii) quelles sont les relations qui les structurent, et (iii) quels indices et/ou prescriptions permettent d’actualiser ces traits et d’établir ces relations, qui sont autant de chemins élémentaires pour des parcours interprétatifs. La première stipulation suppose une analyse componentielle ; la seconde, structurale ; la troisième, interprétative et herméneutique. Il en résulte, non une traduction, mais une explication, qui généralise les principes de la définition, en les réfléchissant pour assurer la pertinence de leur application. »

Rastier précise que contrairement au paradigme positiviste, il n’y a pas de signification en soi du signe linguistique. « Les signes linguistiques ne sont que le support de l’interprétation, ils n’en sont pas l’objet. Seuls des signifiants, sons ou caractères, sont transmis : tout le reste est à reconstruire ». En fait, le problème de la signification ne peut être posé de façon valide que si l’on tient compte des conditions d’interprétation. À cet égard, il y a une primauté du global sur le local. Ainsi, au premier degré de l’analyse, « le texte, comme globalité, détermine le sens de ses unités lexicales »(...) « A cette détermination du texte sur les paliers inférieurs de la phrase et du mot, s’ajoute une détermination de la situation de production sur le texte lui-même considéré dans son ensemble. Or la situation de production n’est pas neutre, et ne peut être définie abstraitement. Elle prend toujours place dans une pratique sociale, qui définit le discours dont relève le texte, et le genre qui le structure. Par là, elle détermine jusqu’au sens de ses mots, et les parcours interprétatifss qui permettent de l’actualiser. Le sens d’un mot peut en effet varier selon les genres...et selon le discours ».

Autrement dit, si l’on considère que la sémantique a trois domaines d’application :

  • le sens des mots
  • le sens des phrases
  • le sens des textes

il y a lieu de considérer d’une part qu’il y a interaction entre ces trois niveaux d’analyse, et d’autre part entre ces trois niveaux et la situation de production des textes, avec une dissymétrie fondamentale, puisqu’il y a surdétermination du sens du texte et de ses composantes par la situation d’énonciation.

Enfin, J-M. Adam (1990, p. 37), dans une optique d’analyse textuelle, tente de définir un cadre théorique, permettant de dépasser la logique vériconditionnelle, comme le fait d’ailleurs également Robert Martin, en construisant le concept d’univers de croyance, cadre théorique qu’il présente comme relativement dynamique et résolument économique :

  • "dynamique: la représentation discursive que la proposition donne à lire-construire est appelée à être confirmée ou infirmée ou seulement modifiée-complétée par d’autres propositions (on est ici très près de l’intuition de Bernard Pottier dans le texte cité plus haut) ;
  • économique: pour raisonner et interagir, les locuteurs-énonciateurs manipulent des simulacres de « mondes », simulacres consistants et limités aux besoins de l’interaction en cours. Le caractère nécessairement partiel de ce que j’appellerai ici une représentation discursive m’amène à préférer le concept d’espaces (mentaux) de G. Fauconnier (1984) à celui de « monde » de la logique des mondes possibles. En tout cas, il me paraît indispensable de ne pas séparer référence et prise en charge énonciative - dictum et modus - en restant dans une logique naturelle de la VALIDITÉ : une proposition est toujours « VRAIE » ou « FAUSSE » POUR quelqu’un."

J-M. Adam voit dans l’effet de texte « le produit de l’interférence de deux dimensions : l’une sémantico-pragmatique, que nous appelons CONFIGURATIONNELLE, avec ses composantes argumentative, énonciative et sémantique-référentielle, l’autre SEQUENTIELLE où se situent les catégories textuelles pures : description, narration, argumentation, explication, etc. »

Ll1 2 interpret comprendre2

On voit bien la tendance dominante des différentes approches qui viennent d’être présentées. Toute idée de simulation du fonctionnement de l’esprit humain semble abandonnée, au moins provisoirement, pour privilégier une approche instrumentale consistant à appliquer des méthodes d’analyse permettant de mettre au jour les structures des textes, de comparer les énoncés, et d’établir des relations entre eux. Il s’agit de « proposer une méthode d’interprétation explicite et au moins partiellement automatisable. » (F. Rastier, 1994, p. 12).

Tel est le programme que nous nous proposons d’appliquer aux textes normatifs.

Linguistique informatique ou informatique linguistique

Nous passerons très rapidement sur le second terme de l'alternative, de faible intérêt théorique. Nous ne pouvons pas néanmoins l’éluder étant donné la confusion qui a durablement entouré les applications de l’intelligence artificielle au traitement du langage.

On a sans doute cru pendant plusieurs décennies que l’informatique allait permettre de simuler le fonctionnement du cerveau humain et notamment dans sa fonction d’expression par la parole et l’écrit. La plupart des applications ont en fait été prisonnières soit de l’état de la linguistique au moment de leur élaboration, soit ont purement et simplement fait l’impasse sur la linguistique, croyant pouvoir se fonder sur les connaissances usuelles plus ou moins dérivées des grammaires scolaires.

Cet état de choses a pu inspirer à François Rastier une distinction entre l’informatique linguistique dominée par l’informatique et la linguistique informatique qui est l’utilisation de l’informatique pour les besoins de la linguistique théorique et appliquée.

En fait, comme le souligne François Rastier (1994, p. 2), cette distinction tombe dès lors que l’on considère la linguistique comme une science et l’informatique comme une technologie. Il n’y a pas plus de linguistique informatique que d’informatique linguistique, mais simplement la linguistique et l’informatique appliquée à la linguistique ou la linguistique faisant usage de l’informatique.

Nous invoquerons dans le même sens Catherine Fuchs (1993, pp. 20 et s.) qui, évoquant le dialogue difficile entre informatique et linguistique, observe que « l’informaticien, s’appuyant sur sa compétence de sujet parlant (éventuellement assortie de quelques souvenirs de grammaire scolaire), se croit « naturellement » capable de décrire la langue, qu’il tend à aborder de façon réductrice à l’image d’un langage formel, méconnaissant ainsi la spécificité et la complexité de l’objet à décrire...

À l’inverse, C. Fuchs reconnaît que « l’état de nos connaissances sur la langue est encore trop lacunaire pour permettre de couvrir l’ensemble de la langue en la décrivant de façon homogène à l’aide d’un métalangage facilement implémentable - a fortiori lorsque l’on quitte le plan des formes (morphologie et syntaxe) qui depuis longtemps fait l’objet d’études à vocation formelle, pour aborder la sémantique et la pragmatique linguistiques (terrains d’investigation plus récents). »

Le lecteur aura compris sur quel registre se développe notre recherche. L’informatique, si elle constitue une discipline à part entière et justifie des recherches fondamentales et appliquées, lorsqu’elle est utilisée dans le champ d’une autre discipline, ne peut intervenir qu’en tant que technologie. C’est ainsi que nous la concevons ici, alors même que notre recherche est tridisciplinaire et que c’est plus dans le domaine de l’application de l’informatique que dans ceux du droit et de la linguistique que nous espérons faire progresser la connaissance.

Ce premier point étant levé, nous pouvons poser la question de la place de la linguistique dans le processus d’interprétation et de compréhension des textes en général et des textes normatifs en particulier.

La linguistique peut-elle être le moyen exclusif de l’interprétation ou bien intervient-elle en coopération avec d’autres disciplines, et dans ce cas, où commence l’interprétation linguistique et à partir de quel point l’interprétation cesse-t-elle d’être proprement linguistique pour relever de l’ordre logique ou conceptuel ?

La première option présente le danger évident de nous faire tomber dans le travers du réductionnisme. La seconde option, a priori marquée du bon sens, reste néanmoins problématique car le territoire de la linguistique étant en voie d’extension rapide, la réponse ne peut être apportée qu’après un sérieux approfondissement théorique.

Nous prendrons pour point de départ l’analyse que fait de ce problème Paul Amselek (1995, p. 11 et s.)[1].

Paul Amselek constate d’abord que la communication des règles juridiques dans nos échanges intersubjectifs ne peut être directe, mais seulement indirecte, médiatisée. La pensée se communique au moyen de signes et ces signes ne sont pas eux-mêmes des contenus de pensée. Le sens est dans l’esprit de l’auteur individuel ou collectif du message, et il doit être reconstitué à partir des signes reçus, c’est-à-dire à partir du texte, sans qu’il soit contenu par ce texte. L’interprétation est ainsi la "reconstruction du sens communiqué par des signes (interpréter se dit de manière éclairante en anglais "to construct")". Elle est ainsi, "dans l’expérience juridique, le préalable nécessaire à la préhension intérieure - à la compréhension - des normes juridiques exprimées par le législateur à leur pratique, à leur utilisation."

Dans cette reconstitution du sens, on comprend bien qu’une part essentielle relève du traitement linguistique, mais toute cette « opération d’entremise ou interprétation consistant à décoder les signes captés et à reconstituer à partir d’eux le sens qu’ils ont reçu pour mission de transporter ou mieux de transborder, c’est-à-dire de faire surgir dans l’esprit d’autrui », relève-t-elle de mécanismes purement linguistiques ou d’autres mécanismes d’un autre ordre.

Paul Amselek souligne à cet égard que l’opération d’interprétation est une opération complexe qui se déroule à plusieurs niveaux qu’on ne distingue pas toujours très nettement.

Les deux premiers niveaux correspondent à ce que les linguistes appellent, depuis André Martinet, la « double articulation linguistique ». Le premier niveau consiste dans « l’opération mentale de décryptage par référence aux règles et conventions du langage : il s’agit de l’opération de lecture permettant de reconstituer mentalement le texte. Une fois le texte reconstitué, il faut en "reconstituer le sens, le contenu de pensée, que véhicule sa lettre". Ce déchiffrement s’opère aussi au moyen des règles et usages conventionnels du langage, essentiellement des règles lexicales et grammaticales. Mais il faut ajouter encore un troisième niveau d’opérations interprétatives, qui joue un rôle particulièrement important dans le domaine du droit et plus généralement des règles pratiques : il correspond à la démarche visant à traiter le sens littéral lui-même ainsi recueilli, à déployer tout ce qui est impliqué dans le sens de surface exprimé par la lettre du texte. Tout contenu de pensée, en effet, constitue - c’est l’essence même de l’intentionnalité de la pensée - une vue de l’esprit qui donne ouverture, à la manière d’un cliché photographique, sur un champ de perspective comportant des arrière-plans plus ou moins éloignés ou cachés qui se profilent derrière ce qui est exposé au premier plan. L’analyse exégétique consiste précisément, en fonction des besoins pratiques qui animent l’interprète et grâce aux ressources de la logique et du raisonnement, à procéder à des approfondissements de sens, à passer du sens littéral à l’exploration des profondeurs et arrière-fonds sur lesquels il donne ouverture (le terme « exégèse » évoque, étymologiquement, l’idée de tirer hors de, de faire sortir ou ressortir). »

Cette présentation de Paul Amselek soulève des problèmes théoriques tout à fait fondamentaux sur lesquels il y a lieu de s’arrêter.

 

[1] En parfaite convergence théorique avec la sémiotique de Peirce (cf. p. 422 et s.)

Une théorie constructiviste de l’interprétation

Le sens et le texte

Le premier problème est celui de la relation entre le texte et le sens. Selon la présentation de Paul Amselek, le sens n’est pas donné, il n’est pas inclus dans le texte. Il est construit par l’interprétation, ou plus précisément reconstruit. Les signes linguistiques qui constituent le texte juridique ne comportent pas le sens, ils ne font que le transmettre, le « transborder ».

Cette approche s’inscrit dans une opposition entre deux théories de l’interprétation explicitées par Riccardo Guastini (1995, p. 89).

D’une part, la théorie dite cognitive pour laquelle l’interprétation n’est qu’une activité de connaissance et de description. Cette théorie correspond à la théorie traditionnelle du positivisme juridique classique telle qu’elle s’exprime dans l’École de l’exégèse.

D’autre part, la théorie sceptique ou réaliste selon laquelle c’est l’interprétation qui crée le sens, c’est l’interprétation qui crée la norme.

De prime abord, la seconde théorie peut apparaître choquante, dans la mesure où elle peut laisser entendre une très large liberté laissée à l’interprétant par rapport à une règle qui par définition doit offrir aux sujets de droit une sécurité optimale, donc une stabilité de la règle et donc de son interprétation. Riccardo Guastini observe d’ailleurs que la théorie cognitive est le fondement de nos institutions : « par exemple, la séparation des pouvoirs..., tout le contrôle de régularité (du contrôle de cassation jusqu’au contrôle de constitutionnalité des lois dans les constitutions rigides), la garantie des libertés confiée au pouvoir juridictionnel, etc. ».(opus cit. p. 99)

Pourtant, cette conception est tout à fait discréditée au plan théorique chez les spécialistes de linguistique, de philosophie du langage, de philosophie de la science, etc. et également, de plus en plus chez les juristes eux-mêmes. C’est que la théorie, assez mal nommée, cognitive, parce que précisément, elle est en contradiction directe avec les acquis des sciences cognitives, repose sur une fausse croyance selon laquelle le sens serait dans les mots, « une chose incorporée dans les mots ». Or, « le sens de chaque expression linguistique est une variable qui dépend justement de l’usage et de l’interprétation. On ne peut pas expliquer autrement soit les changements dans le sens d’un mot, soit les controverses entre les interprètes. »

Ce thème de la prépondérance de l’interprétation dans la détermination de la signification des textes normatifs est repris par la plupart des intervenants du séminaire international organisé par le Centre de Philosophie du Droit de l’Université Panthéon-Assas en 1992-1993.

Ainsi, Enrico Pattaro souligne que « la signification n’est pas une caractéristique des mots, mais dépend de la réaction-réponse d’un destinataire à des mots qui agissent sur lui comme des stimuli. On est souvent tenté de croire que les mots ont leur propre signification immanente, parce que, parmi les individus qui ont subi des méthodes d’apprentissage similaires (c’est-à-dire à l’intérieur d’une même communauté linguistique), les mêmes mots évoquent - ou tendent à évoquer, approximativement - les mêmes images et/ou les mêmes concepts chez des destinataires différents » (1994, p. 106).

François Rastier ne dit pas autre chose quand il renvoie le problème de la compréhension à celui de l’interprétation (1994, p. 12). « ...nous nous éloignons du paradigme positiviste encore dominant dans les sciences sociales, et a fortiori dans les domaines techniques : il voudrait que les faits s’imposent d’eux-mêmes par une simple évidence, alors que nous avons à les constituer. Les signes linguistiques ne sont que le support de l’interprétation, ils n’en sont pas l’objet. Seuls des signifiants, sons ou caractères, sont transmis : tout le reste est à reconstruire ». L’identification des signes comme signifiants et leur association à des signifiés résulte de parcours interprétatifs qui sont la matière de la sémantique interprétative, laquelle « part de la matérialité des textes pour y revenir en leur assignant du sens ».

Cette conception est à rattacher à un courant épistémologique que l’on nomme le constructivisme et que Diane Demers résume en ces termes (1997, p. 237) : « Le constructivisme en sciences, et plus particulièrement en sciences humaines, s’intéresse aux processus cognitifs pour identifier les limites de ce qu’il nous est possible de connaître. Il postule, contrairement au modèle cartésien, que la connaissance repose sur l’observateur, sur l’interaction de celui-ci avec l’objet observé. C’est donc à travers l’observateur que l’objet prend son sens, que sa nature se révèle et que ses lois se définissent. Le rôle de l’observateur est fondamental puisque ce sont ses connaissances, ses valeurs, son langage qui détermineront les paramètres qui conduiront à la définition de l’objet. Dans cette théorie, la réalité est le produit de la corrélation entre l’observateur, son expérience, ses connaissances et la perception de l’objet par ses sens.

« À cet effet, Jean Piaget disait que la connaissance ne procède pas du simple cumul d’observations, elle est nécessairement le résultat d’une activité structurante de la part de l’observateur. Cela signifie également que les « faits » n’ont pas d’existences propres, qu’ils n’existent qu’à travers l’interprétation de l’observateur ; en droit, nous parlerons de « faits juridiques » ou des faits qui ne prennent leur sens qu’à travers le prisme du droit applicable, tel qu’interprété par le juge ».

Cette nouvelle orientation de la pensée juridique plonge ses racines aux origines de la philosophie, avec les sophistes grecques, les stoïciens, les épicuriens, voire Aristote dont on réduit trop facilement les enseignements à la logique déductive. Elle s’inscrit comme un prolongement de diverses tendances qui traversent les siècles depuis le Moyen Âge jusqu'à nos jours où, en réaction contre l’hégémonie du positivisme, ces approches du réel et du problème de la connaissance, jusqu'à présent dispersées se sont cristallisées dans les années soixante en une « épistémologie constructiviste » autour des théories de Jean Piaget. Jean-Louis Le Moigne a consacré un « Que sais-je ? » (1995) à la présentation de ces multiples apports qu’il rassemble sous la bannière du « constructivisme » et dans lesquels on retrouve notamment Abélard et Guillaume d’Ockam, Léonard de Vinci, Montaigne, Pascal, Vico, Paul Valéry et Gaston Bachelard. Mais le spectre des théories de la connaissance qui s’écartent du positivisme est large, et Nietzsche n’est pas le dernier à penser que nous ne connaissons pas les choses telles qu’elles sont, mais telles qu’elles nous apparaissent : « Notre « monde extérieur » est un produit de la fantaisie, pour lequel des fantaisies antérieures en tant qu’activités habituelles acquises par l’exercice sont derechef utilisées pour une construction. Les couleurs, les tonalités sont fantaisies pures, elles ne correspondent pas du tout exactement au réel processus mécanique, mais à notre état individuel. »[1]

On complétera cette petite incursion philosophique par trois observations.

1 - Ce n’est pas l’existence du réel qui est en cause, mais le seul problème de son appréhension. Commentant la célèbre formule attribuée à Protagoras : « L’homme est la mesure de toute chose. » Jean-Louis Le Moigne souligne que nous n’accédons peut-être pas à l’essence du réel, mais que nous accédons à l’expérience cognitive maîtrisable des phénomènes par lesquels nous décrivons la réalité (1995, p. 43).

2 - Cette conception, qui s’oppose au positivisme, est néanmoins scientifiquement vérifiable.

Riccardo Guastini remarquait précédemment que l’on ne pouvait expliquer autrement l’évolution dans le sens des mots ou l’existence des controverses doctrinales. Mais l’on pourra vérifier qu’un même texte pourra toujours donner lieu à des interprétations différentes, ce qui sera seulement probable si les interprètes ont le même fonds de connaissance et la même formation, mais sera inéluctable, si le niveau culturel des lecteurs est dissemblable.

J-M. Adam souligne comme une des traits fondamentaux de toute réalité textuelle le fait que tout texte soit plus ou moins opaque ou plus ou moins transparent (1989, p. 85) et cite à cet égard R. de Beaugrande (1984, p. 358) : Aucun texte ne peut rendre explicite toutes les liaisons et chaque texte est d’une certaine manière unique. Un texte qui ne comporterait que des problèmes triviaux et des occurrences fortement probables serait de peu de valeur et les lecteurs y accorderaient très vite peu d’intérêt. »

Lorsque l’on établit le résumé d’un texte, ce résumé n’acquiert de sens plein que pour celui qui a connaissance du texte original, ce qui souligne le rôle fondamental dans le processus de compréhension de la mémoire.

Mais, pour un texte donné, le niveau de compréhension, que l’on pourrait définir comme l’aptitude à identifier, même inconsciemment, toutes les connexions implicites du texte, sera variable selon le niveau de compétence linguistique et le niveau de compétence culturel du lecteur dans le domaine concerné, ce qui souligne non seulement le rôle de la mémoire immédiate, mais également celui de sa compétence encyclopédique mobilisée par sa mémoire profonde. Devant la lecture et la compréhension, les individus sont tous inégaux. Tel texte qui est transparent pour l’un est opaque pour l’autre.

Traduit en termes de théorie de l’information, revue et corrigée dans le sens que nous avons indiqué plus haut d’une dissociation entre le vecteur de l’information et la valeur de l’information (cf. p. 34), nous pourrons dire qu’un texte déterminé, constitué d’un ensemble de signes linguistiques, n’aura pas la même valeur pour tous les lecteurs, tout simplement parce que le sens que lui confère chaque lecteur ne sera pas le même. De même pour un même lecteur, sa valeur va varier avec le nombre de relectures, tout simplement parce qu’à chaque relecture le sens dégagé par le lecteur va venir s’incorporer à son capital culturel, et que chaque relecture lui permettra de dégager un sens nouveau. Selon le cas, on pourra dire que la valeur de l’information véhiculée par le texte se sera accrue parce que la relecture aura permis au lecteur de découvrir des choses qu’il n’avait pas aperçues précédemment. Inversement, il se peut que la valeur de l’information véhiculée par le texte décroisse parce que la ou les lectures précédentes auront permis d’en extraire toute la substantifique moelle, c’est-à-dire d’en épuiser le sens.

On rapprochera, en échos à ce débat sur l’opacité et la transparence des textes, le débat juridique sur la notion d’acte clair. Évoquant comme une banalité le fait que l’on rencontre « des textes dont tous conviendront qu’ils sont clairs en rapport avec certaines circonstances factuelles déterminées », Pierre-André Côté (1994, p. 196) attire l’attention sur le fait que l’"on ne doit pas en déduire que c’est la clarté du texte qui entraîne ainsi un accord sur le sens qu’il conviendrait de lui donner, de lui attribuer. L’explication inverse semble plus plausible : l’affirmation de la clarté d’un texte reflète le sentiment qu’un lecteur normal du texte ne pourrait valablement lui attribuer un sens autre que celui dont la clarté est affirmée. Autrement dit, ce n’est pas parce que le texte est clair que l’on s’accorde sur le sens que le lecteur doit lui donner ; c’est plutôt parce qu’on s’accorde (ou qu’on escompte un accord) sur le sens qu’un lecteur normal donnerait à un texte que l’on peut affirmer que ce sens est clair."

Si l’esprit scientifique consiste bien, comme nous l’a enseigné Gaston Bachelard (1938, p. 10), à aller au-delà de ce qu’indique le sens commun, à rectifier les erreurs induites par le respect des apparences, alors la théorie constructiviste, réaliste est en fait la seule qui soit scientifique, la théorie classique étant ramenée à une théorie du sens commun ascientifique.

3 - Il y a enfin une raison pratique qui fait que la norme résulte de l’interprétation et qu’il ne peut en être autrement, c’est le rôle instrumental du droit. Le droit est fait pour régler des comportements qui se déroulent à un moment et dans des conditions qui sont par définition différents du moment et des conditions d’édiction de la règle et que le législateur n’aura généralement pas prévus de manière précise. C’est donc au vu de la situation du moment et des conditions du moment que le juge appliquera la règle, c’est-à-dire l’interprétera, et l’interprétation ne pourra pas ne pas être influencée par la situation qu’elle a pour objet de régler en s’aidant de la règle applicable. Pierre-André Côté (1995, p. 194-195) insiste ainsi sur cet aspect dans lequel il voit, avec le rôle de l’interprète dans l’élaboration du sens, l’une des deux dimensions fondamentales de l’interprétation en droit qui se trouve passée sous silence par la théorie classique qui limite l’interprétation à la découverte de l’intention du législateur. Pierre-André Côté note ainsi que l’interprétation des textes est bien souvent une « interprétation pratique ou opérative », selon l’expression employée par Jerzy Wroblewski (1972, p. 54), en ce sens qu’il s’agit d’une activité déterminée autant sinon davantage par la nécessité d’apporter une juste solution à un problème bien concret que par la volonté de ressusciter la pensée historique qui a présidé à la rédaction du texte. Cela se vérifie bien dans l’interprétation de la loi par le juge où l’on observe que bien souvent la conclusion du raisonnement interprétatif influe sur la détermination des prémisses de ce raisonnement, que ce soit sur le sens de la loi ou sur la qualification des faits ».

On ajoutera que cet état de fait est vérifiable là où le juge applique des règles existantes, mais qu’il est consubstantiel à l’acte de juger dans les domaines où les règles font totalement ou partiellement défaut et qu’elles sont en fait créées par le juge lui-même. Certes dans les droits largement prétoriens comme l’est le droit administratif français, on peut dire que la jurisprudence élaborée par le juge administratif, c’est-à-dire par le Conseil d’État agissant comme législateur, est devenue extérieure à l’activité du juge qui traite une affaire. Cependant, nous avons déjà noté la distinction faite par Georges Vedel entre les notions proprement conceptuelles du droit administratif et les notions fonctionnelles qui ne peuvent être décrites conceptuellement et ne peuvent être définies que par rapport à la fonction qu’elles remplissent. (cf. p. 121). Ce qui veut dire qu’aucun des concepts fonctionnels du droit administratif, comme l’acte de gouvernement, le marché public, la délégation de service public, la voie de fait ou l’emprise, etc. ne sont des concepts figés et qu’il est difficile de les enfermer dans une codification, voir seulement une législation.

Pour prendre un exemple dans une actualité sensible, la question de la légalité de la participation aux élections prud’homales de 1997 de listes de la Confédération française nationale des travailleurs, créées par le Front National, montre de manière évidente le rôle décisif de l’interprète dans l’application d’un droit flou, mais aussi la pression des circonstances sur l’interprétation. Suite à des décisions d’invalidation fondées sur des motifs hétérogènes de plusieurs juridictions, un doute très fort se fait jour sur la décision que prendra la Cour de Cassation, statuant dans un contentieux ayant une portée politique et constitutionnelle évidente. Et le journal Le Monde de commenter que « comme il n'y a aucun précédent ni aucune jurisprudence, nul ne sait si ces recours sont suspensifs ou si les jugements sont exécutoires ». (Le Monde du 10 janvier 1998, p. 1)

Il est donc impossible en théorie du droit d’ignorer la vocation instrumentale du droit qui fait que l’esprit devra toujours l’emporter sur la lettre au point que lorsque la lettre devient trop inadaptée à la réalité, le juge administratif, au moins quand il s’agit de règles de niveau réglementaire, impose à l’administration d’en changer.

Cette conception constructiviste de l’interprétation, dont on verra qu’elle est impliquée par les courants énonciatif, pragmatique et textuel de la linguistique contemporaine, entraîne toute une série de conséquences très importantes du point de vue de la théorie du droit.

Première conséquence : lorsque la théorie classique invoque la volonté du législateur, il ne saurait s’agir en aucune façon de la volonté réelle du législateur au moment de l’édiction de la loi. Découvrir la volonté du législateur est, sauf cas tout à fait exceptionnel nécessitant des conditions d'unanimisme rarement remplies, presque impossible du simple fait de la multiplicité des rédacteurs qui sont intervenus dans la conception et la mise au point du texte, de l’évolution qu’a pu connaître le texte dans son ensemble et dans chacune de ses parties dans son processus d’élaboration, et du fait des multiples interprétations dont il a pu faire l’objet avant le vote et dans lesquelles les parlementaires ont pu trouver des motifs d’opposition ou de soutien au texte en cause.

Pour prendre un exemple extrême, rien n’est sans doute plus difficile que de déterminer le sens d’un texte voté par référendum, chaque « oui » recueilli ayant un sens différent pour chaque électeur.

Par conséquent, lorsque l’on invoque la volonté du législateur, quel qu’il soit, il s’agit en fait de l’idée que s’en fait celui qui interprète la règle. C’est en définitive ce dernier qui fixe le sens de la règle.

Seconde conséquence : il y a dissociation entre le texte normatif soumis à interprétation et la norme qui résulte de l’interprétation. Riccardo Guastini (1995, p. 95) distingue ainsi le langage des sources dont relève le texte normatif, ensemble de dispositions légales en attente d'être interprété, du langage de l’interprète ou langage des juristes auquel appartiennent les normes. Même si syntaxiquement les deux langages sont semblables, car exprimés dans la même langue, sémantiquement ils ne sont pas du même niveau. L’un est un langage objet constitué par le langage des sources, c’est-à-dire le langage du législateur au sens large, l’autre est un métalangage qui porte sur le premier. Le discours interprétatif consiste ainsi à construire à partir des sources des valeurs référentielles au moyen de détours paraphrastiques qui mobilisent toute la compétence linguistique et encyclopédique de l’interprète. Tout repose, ou presque sur l’interprète qui en définitive, attribuant une signification à un texte, « décide la signification du texte normatif » et donc de la norme, pour reprendre la formule quelque peu provocante de Riccardo Guastini (opus cit. p. 101).

Cette distinction entre langage des sources ou langages des textes normatifs et langage de l’interprète ou langage des normes n’est pas complètement nouvelle. Elle fait en effet échos à une distinction opérée vingt ans plus tôt par Christophe Grzegorczyk et Thomas Studnicki (1974) qui ont montré toute la distance qui existait entre « la norme et la disposition légale ». Certes, les deux auteurs polonais ne posent pas explicitement le problème de l’interprétation et du rôle de l’interprète, ni celui des deux langages, dont l’un est le langage-objet de la disposition légale et l’autre le méta-langage de la norme ou de l’interprète, mais ces distinctions sont le résultat logique de la dissociation initiale. Pour qu’il y ait norme, c’est-à-dire émission d’un signe destiné à agir sur un comportement conformément à des conventions permettant la compréhension du signe par son destinataire, il faut décider qu’il y a norme, ce qui est le résultat de l’interprétation.

Troisième conséquence : elle concerne l’application au domaine des textes normatifs de la linguistique pragmatique. Celle-ci s’intéresse à la relation entre la signification et la situation d’énonciation et postule que la signification dépend en dernier ressort de la situation d’énonciation. S’agissant d’un texte normatif, et de ce qui vient d’être dit concernant le rôle de l’interprétation, la situation d’énonciation se trouve dissociée en deux parties bien distinctes qui sont d’une part la situation de l’énonciateur, qui détermine le sens que l’énonciateur a voulu communiquer au destinataire, d’autre part la situation de l’interprète qui cherche à restituer le sens d’un texte énoncé par un énonciateur. La théorie classique s’attache exclusivement au sens de l’énonciateur qui est le plus souvent collectif et insaisissable. La théorie sceptique ou réaliste et que nous préférons appeler constructiviste s’attache au contraire à la situation de l’interprète. Or, la situation de l’interprète change selon deux axes : en fonction de l’interprète et en fonction du moment de l’interprétation.

Notons que cette application de la pragmatique au droit ne se différencie pas fondamentalement de la pragmatique appliquée à tout texte écrit dont la lecture est temporellement dissociée par définition de l’écriture. C’est la raison pour laquelle la théorie de l’acte de langage, qui est un des principaux points d’application de la linguistique pragmatique, n’est complète qu’à la condition de s’adjoindre une théorie de l’acte de lecture. C’est ce qu’observe notamment François Rastier qui souligne cette nécessité (1994, p. 16) et qui, concernant la pragmatique, fait cette observation fondamentale qu’il rattache à l’ordre herméneutique de toute description linguistique :

"L’ordre herméneutique est celui des conditions de production et d’interprétation des textes. Il englobe les phénomènes de communication, mais il faut souligner que les textes ne sont pas simplement des messages qu’il suffirait de coder puis de décoder pour en finir avec la langue. Il englobe aussi ce que l’on appelle ordinairement les facteurs pragmatiques, qui affectent la situation de communication hic et nunc ; mais il les dépasse car il inclut les situations de communication codifiées, différées, et non nécessairement interpersonnelles. Il est inséparable de la situation historique et culturelle de la production et de l’interprétation. Son étude systématique doit rendre compte des différences de situation historique et culturelle qui peuvent séparer la production de l’interprétation". (1994, p. 18)

Cette observation essentielle pour notre propos doit être rapprochée des intuitions de Bakhtine (1978) et des analyses développées par Paul Ricœur (1986), relayées par Gérard Timsit (1992, p. 459). Opposant l’échange verbal à l’écriture, Ricœur précise : dans un tel échange (verbal), la compréhension des discours respectifs des locuteurs est assurée non seulement par les paroles prononcées mais aussi par le fait que les deux locuteurs étant présents l’un à l’autre, ce serait la situation dans laquelle les paroles sont prononcées, l’ambiance, les circonstances, les mimiques ou même les intonations, qui donnent à ces discours leur pleine signification. Lorsque le texte prend la place de la parole, il ne peut plus en être ainsi... Et le texte qui prend la place de la parole ne se substitue pas simplement à elle. Il s’installe dans une "essentielle solitude", qui bouleverse la manière d’aborder ce qu’il contient et l’établit dans une triple autonomie au moins : par rapport à l’intention de son auteur (le texte s’est détaché de lui et - désormais - lui échappe : des mots de l’auteur prennent un sens, ou d’autres sens, que ceux ou celui que l’auteur a voulus) ; autonomie, également, par rapport au public auquel ce texte était primitivement destiné par son auteur (la signification qu’a pu revêtir ce texte aux yeux de ses destinataires à l’époque à laquelle il a été écrit n’est pas figée : ainsi des "résonances modernes" de textes écrits il y a plusieurs siècles et des "redécouvertes" dont ils font l’objet ...) ; autonomie enfin par rapport aux circonstances économiques, sociales, culturelles de la "production" du texte, qui ont pu, à la rigueur, donner au texte son contenu, mais ne sauraient en limiter l’interprétation au seul contenu produit dans les circonstances de l’époque.

Il est clair que cette analyse lumineuse qui vaut pour n’importe quel texte littéraire s’applique également au texte normatif et à son interprétation.

On ne peut s’empêcher d’effectuer un parallèle entre l’analyse de Gérard Timsit et celle d’Éric Landowski dont les deux études se succèdent dans Lire le Droit (1992), qui par des voies sensiblement différentes arrivent aux mêmes conclusions.

Pour Gérard Timsitt, le sens d’un texte juridique est prédéterminé par son auteur et par les conditions de son énonciation, et à cet égard, il est assimilable à un acte de parole, mais parce qu’il est écrit, il est codéterminé par son et ses destinateurs, lesquels sont eux-mêmes surdéterminés dans leurs interprétations, au-delà du contexte écrit, par les conditions économiques, sociales et culturelles de leurs interprétations qui s’expriment par des principes, idées, croyances, usages et valeurs auxquels adhèrent les membres d’une société et qui commandent à leurs comportements, leurs réactions et leurs interprétations.

Il existe, "outre la détermination du sens conféré à la norme par son émetteur, une détermination du sens conféré à la norme par son récepteur. Le processus d’engendrement du droit n’est pas, contrairement à la vision classique ou néopositiviste, un processus purement descendant d’émission/édiction des normes -la pyramide kelsénienne. C’est un processus associant à la fois les instances d’émission et de réception des normes." (1992, p. 460 et s.)

Éric Landowski (1992, p. 441 et s.) part d’une part de la théorie constructiviste et d’autre part du point de vue des pragmaticiens selon lesquels un texte ne fait sens qu’en fonction du contexte où il prend place ou qu’on lui assigne.

La quatrième conséquence est ainsi liée à la précédente. Chaque application d’un texte donne lieu à nouvelle interprétation. Cette nouvelle interprétation est cumulative, c’est-à-dire qu’elle tient compte ou non des interprétations précédentes, qui sont ainsi chaque fois actualisées. Cela signifie que le sens d’un texte évolue avec les interprétations successives qui lui sont données. Chaque texte du fait de son application fait l’objet d’une activité plus ou moins intense d’interprétation, qui fonde la vie même du texte normatif. Si l’activité d'interprétation cesse, parce que le texte ne trouve plus à s’appliquer, le texte tombe doucement en désuétude. Toutefois, il faut se méfier du fait que la désuétude peut n’être qu’apparente, certains textes apparemment en sommeil pouvant connaître parfois des résurrections inattendues. C’est d’ailleurs un des problèmes du codificateur, et donc du modélisateur, que le recensement des textes encore en application. On peut ainsi, alors que l’on croit à tort un texte tombé en désuétude, modifier l’ordre juridique, en ne l’incluant pas dans le code dès lors que celui-ci est censé se substituer à tous les textes existants.

Cinquième conséquence : toute entreprise de modélisation du droit implique de la part de ceux qui se livrent à cette modélisation une interprétation. Ceci n’est pas choquant en soi, chaque citoyen faisant de même quand il agit en pensant agir tout à fait légalement. La question est cependant de savoir si s’agissant d’une interprétation susceptible non de s’imposer mais d’être prise en considération comme une interprétation légitime par les citoyens, si l’on est en droit de la considérer comme une interprétation légitime pour reprendre cette formulation kelsénienne. La réponse est en réalité fonction du modélisateur ou de l’interprète. Il s’agira toujours d’une interprétation illégitime, dans la mesure où les seuls interprètes totalement légitimes sont en fait l’administration chargée d’assurer le respect du droit sous le contrôle des tribunaux et évidemment les juges eux-mêmes chargés d’appliquer le droit entre les particuliers et de contrôler le droit appliqué par l’administration. Donc le modélisateur se trouvera au mieux dans la situation de la doctrine telle qu’elle est élaborée par les professeurs et les chercheurs en droit, c’est-à-dire très proche de l’interprète légitime, sans l’être totalement ; au pire dans la situation de l’interprète qui s’ignore et qui n’a pas la compétence de l’interprète. Or, l’interprète qui s’ignore ne s’ignore en tant qu’interprète que parce qu’il est prisonnier de l’illusion de la théorie classique qui croit que le sens du texte découle directement du texte et qu’il suffit de le lire pour en déduire le sens et passer à sa modélisation.

C’est à peu près l’analyse que fait Claude Thomasset (1996, p. 373) : « Cet inventaire - celui que fait Marek Sergot - constitue en quelque sorte un premier bilan qui fait le point de cette première phase des recherches en intelligence artificielle appliquée au droit. Cette première étape a été celle de l’envahissement du champ du droit par des informaticiens fascinés par l’apparence formelle du droit. Selon cette approche, le droit, en tant que système formel de normes, peut être implanté dans des logiciels et selon des modèles développés lors de recherche en intelligence artificielle. Marek Sergot montre bien dans son article qu’une multitude de projets entrepris dans le domaine juridique au cours des années quatre-vingt, adopte le plus souvent des modèles de représentation qui s’avèrent peu adaptés à la nature spécifique du droit. Cette étude montre bien aussi comment les limites de ces approches sont très vite apparues étant donné la densité du droit qui est plus que l’écrit qui le supporte ». Nous soulignerons quant à nous la formulation « la densité du droit qui est plus que l’écrit qui le supporte ». Elle rejoint aux termes près la formulation de François Rastier (1994, p. 12) selon lequel « les signes linguistiques ne sont que le support de l’interprétation, ils n’en sont pas l’objet ».

De même Daniel Poulin (1993, p. 291) constate le relatif échec des systèmes experts dans le domaine du droit et souligne que jusqu'à présent aucune recherche n’a tenté réellement d’intégrer les théories interprétatives dans la conception des systèmes experts, ce qui le conduit à proposer une démarche consistant à « interpréter la loi pour en acquérir les règles ».

Il s’ensuit d’une part que la modélisation ne saurait faire l’économie de l’interprétation du droit, selon les règles de l’art pourrait-on dire, d’autre part que la modélisation en droit doit être soumise à des règles de validation juridique strictes, garantissant sa qualité juridique. Mais quoi qu’il en soit, la modélisation restera toujours une œuvre d’interprète jouissant au mieux de l’autorité morale d’un manuel universitaire ou d’un ouvrage de doctrine dépourvu de l’onction de la décision de justice ayant force de droit.

Sixième conséquence : ce qui est vrai de la modélisation l'est également de toute entreprise de codification. Nous reviendrons plus loin sur la question. La portée de la codification ne se limite pas à cette constatation, mais l’idée d’une codification à droit constant (cf. p. 493 et s.), pourtant nécessité opérationnelle, est assez largement un leurre, car tout acte de codification comporte une part irréductible d’interprétation.

Septième conséquence : dès lors que le sens du texte n’est pas dans le texte, mais dans les conditions de sa production et de son interprétation, la modélisation ne saurait se limiter au texte lui-même, mais doit s’étendre à tous les éléments qui contribuent à lui donner sens. Les commentaires administratifs (circulaires), les commentaires de la doctrine, la jurisprudence, les autres réglementations connexes, les cas d’applications font partie intégrante du processus d’interprétation et ont leur place dans la modélisation. La modélisation ne peut pas être un cadre figé. C’est un cadre souple et évolutif qui doit se nourrir des enrichissements continus de l’expérience.

Huitième conséquence : la multiplicité des interprétations possibles est ontologiquement irréductible. Cette constatation laisse poindre l’idée d’un chaos juridique qui serait la négation même de l’idée de droit qui est elle-même consubstantielle à celle de sécurité juridique, justifiant de la sorte l’attachement d’un grand nombre de juristes à la conception cognitive de l’interprétation, traduction plus d’une certaine forme d’instinct de conservation sociale voire corporatiste que d'une adhésion conceptuelle qui n’est pas scientifiquement soutenable.

Nous ne pouvons cependant traiter par la dérision ce paradoxe troublant qui veut que théoriquement le système juridique pourrait être un système instable, la règle changeant au gré de ses interprètes et de l’instant de l’interprétation, alors que la réalité observable est tout autre.

Cette simple remarque nous amène à focaliser notre attention sur les conditions sociojuridiques de l’interprétation qu’il nous appartiendra de mettre en lumière avec le souci de déterminer si elles se prêtent ou non à une modélisation.

Nous verrons plus loin comment il est possible de sortir de ce paradoxe non sans préciser tout de suite que cette question a bénéficié de soins attentifs d’auteurs comme Georges Vedel (1992), Paul Ricoeur (1994), Yves Gaudemet (1994), Jacques Chevallier (1994), Pierre-André Côté (1992), Neil MacCormick (1994), Ronald Dworkin(1994) et Michel Tropper (1994), Éric Landowski (1992), et que Gérard Timsit en fait le fondement de la science juridique. Si le droit n’est pas une science, il y a une manière scientifique d’étudier les textes normatifs et de comprendre les mécanismes et les contraintes en vertu desquels les textes normatifs accèdent au statut de normes, c’est-à-dire à la juridicité (Gérard Timsit, 1992, p. 460).

Neuvième conséquence : la modélisation doit nécessairement prendre en compte la possibilité d’interprétations multiples, malgré les efforts de l’organisation juridictionnelle pour assurer la cohérence du système juridique, et pour empêcher que la règle, dans des conditions comparables, ne soit pas la même pour tous.

Encore une fois, nous devrons noter avec Daniel Poulin (1993, p. 291 et s.), Marek Sergot (1991, p. 3-67) et Claude Thomasset (1996, P. ; 371 et s.) que les systèmes experts, même en se limitant à des domaines du droit limités, ont toujours privilégié une seule interprétation et que cette univocité est une de leurs principales limitations. Or, le projet de Daniel Poulin (opus cit. p. 292) est « de rendre explicite dans la base de connaissances non pas une seule lecture des règles substantives de droit, l’"interprétation retenue, mais plusieurs, toutes celles qui, selon l’expert, peuvent être raisonnablement soutenues. De plus, à chacune de ces interprétations seront associées les directives interprétatives employées pour la produire." Il ajoute : « Nous souhaitons enfin doter notre système de méta-connaissances capables de guider l’utilisation de ces diverses « lectures » de la loi. ». Daniel Poulin (opus cit. p. 295 et 1996, p. 529 et s.) s’appuie d’ailleurs sur des recherches antérieures, notamment de Gordon (1989) qui a suggéré d’utiliser un système de raisonnement non monotone pour permettre la conception de systèmes capables de faire place à des interprétations « alternatives » des textes juridiques ; Prakken (1991) qui propose une approche basée sur la logique pour modéliser les désaccords en droit ; Oskamp (1989) qui propose l’utilisation de méta-connaissances pour coordonner l’utilisation des règles issues de différentes sources : expertise, jurisprudence, doctrine et législation. Loge-Expert (Claude Thomasset, 1996, p. 391 et s.) intègre pareillement la possibilité de plusieurs interprétations.

 

[1] Le Gai Savoir, p. 304.

La place de la linguistique dans l'interprétation

Le second problème soulevé par la présentation de Paul Amselek est celui de la place de la linguistique dans l’interprétation du texte.

Ce point mérite d’être élucidé, car il semble que la situation a beaucoup évolué depuis quelques décennies, que les frontières de la linguistique n’ont cessé d’être repoussées, et que sur cette question il n’y a probablement pas un accord général des auteurs.

Pour simplifier le débat avant d’entrer dans une discussion plus approfondie, disons que de l’état d’outil accessoire pour l’analyse d’un texte normatif, nous avons atteint une situation où l’on est en droit de se demander si toute analyse textuelle n'est pas d'abord une analyse linguistique. Le droit étant essentiellement écrit, même quand il est coutumier, et l’interprétation du droit étant une « science du texte juridique », on peut légitimement en tirer la conclusion que l’interprétation du droit est essentiellement, prioritairement, une question d’ordre linguistique. Si telle devait être notre conclusion, il faudrait bien évidemment s’entendre sur le champ affecté à la linguistique dans l’état actuel de nos connaissances, et sur le type de linguistique qui est capable d’embrasser un champ aussi vaste.

Avant de nous avancer davantage, disons qu’à nos yeux si l’interprétation est devenue une question prioritairement d’ordre linguistique, c'est que la linguistique a absorbé une grande part du champ conceptuel, considéré jusqu'à présent comme extralinguistique. Pour autant, l’interprétation doit faire appel à des mécanismes logico-conceptuels, qui vont se traduire dans le langage, ou que le langage est obligé d’assimiler, mais qui ne sont pas strictement linguistiques. Il y a donc un échange interactif entre le niveau linguistique et le niveau logico-conceptuel dont le langage porte nécessairement la marque, puisque le langage est le moyen exclusif de communiquer sur le droit.

Ce propos ne prendra consistance qu'à partir d'un approfondissement des bases de l'analyse linguistique.

Top