Modèles de représentation des connaissances
en droit

Nous pouvons dresser un panorama des différents types de programmation mise en œuvre en vue d’une modélisation des connaissances en droit. Notre objectif est de mettre en évidence les outils qui nous semblent les plus appropriés en ce qui concerne l’objet de notre recherche. La question n’est pas tant de proposer une méthode idéale, mais de faire apparaître les conditions et limites de telle ou telle approche. Signalons que le domaine a été déjà balisé notamment par J-P Bourgois (1996), mais il est clair que notre recherche est de nature à apporter des éléments complémentaires à ce qui a été écrit sur le sujet.

L'approche procédurale

L’approche procédurale dans laquelle une procédure administrative est intégralement écrite en dur dans le programme est a priori très éloignée de notre perspective, puisque par définition nous ne partons pas des procédures, mais des textes dont nous recherchons les moyens d’extraire les connaissances dont les procédures sont un aspect.

Même si certaines procédures simples ou moins simples, telles que le cas du retrait des actes administratifs présenté par J-P Bourgois, sont susceptibles d’être traitées de manière procédurale, cette approche impliquant une programmation directe par le programmeur, on ne s’étonnera que nous n’envisagions pas, sauf cas extraordinaire, de recourir à ce type de méthode.

Il ne s’agit pas d’une condamnation de l’approche procédurale. Mais il est intellectuellement nécessaire de reconnaître la contradiction entre notre propre démarche et l’approche procédurale. Si, du fait du changement d’un texte législatif ou réglementaire, nous devons modifier directement le programme, il s’agirait d’une entorse évidente au principe que nous nous sommes fixé de déduire des règles d’une analyse textuelle.

Cependant, nous avons déjà observé (renvoi première partie p. 45) que tout le droit ne se trouve pas dans les textes, et qu’au-delà des textes le droit est structuré par des méta-règles que l’on trouve davantage dans la doctrine ou la jurisprudence que dans les textes législatifs et réglementaires. L’intégration des méta-règles dans une approche interprétative comme la nôtre est une nécessité qui a été très opportunément soulignée par Daniel Poulin (1996). Elle peut s’opérer par la voie du texte, mais elle peut se faire par l’introduction de tout module empruntant n’importe quelle méthode de programmation, pourvu qu’elle soit adaptée à son objet. On ne peut donc pas exclure d’intégrer dans divers objets représentatifs de tel ou tel concept ou théorie juridique des modules de type procédural qui en expriment certains comportements.

L'approche déclarative

L’approche déclarative qui est à la base de la programmation logique, bien qu’elle soit intellectuellement beaucoup plus proche de notre recherche que l’approche procédurale, rencontre le même type d’objection.

L’approche déclarative, typique des systèmes experts, suppose un acte qui s’assimile à un acte de programmation. Il s’agit en effet de déduire des connaissances de l’expert des règles dites règles de production, selon le modèle « si …alors…. ».

C’est ensuite seulement que le système expert, grâce au moteur d’inférence, est en mesure de jouer le rôle que l’on attend de lui, en termes d’autoformation, de réponse aux questions des usagers ou d’aide au diagnostic.

Or, notre espace de recherche est celui qui va de l’expertise contenue dans les textes à la production éventuelle de règles de production, en passant par la génération de schèmes conceptuels représentatifs d’opérations logico-discursives que nous avons appelé dans le contexte qui est le nôtre des opérations normatives.

Notre problème est celui de la lecture experte des textes. Si l’on introduit dans le système des éléments de système expert, il s’agira d’un aboutissement du processus d’analyse textuelle et de la production finale de l’outil. Encore faut-il d’ailleurs prouver que la traduction des normes juridiques en règles de production est une nécessité absolue. Notre hypothèse de travail est que l’on peut en faire l’économie.

Nous faisons nôtre l’approche isomorphique exposée par Daniel Poulin (1996), consistant à stocker le savoir sous une forme qui respecte le plus possible la forme des textes normatifs eux-mêmes.

Le moyen d’y parvenir, tout en dotant le système d’une capacité de réflexion, ce sont les opérations normatives précédemment évoquées qui sont des objets structurés auxquels on peut appliquer des traitements.

L'approche par la logique floue

Nous avons, dans la première partie (cf. p. 105), développé l’idée que la logique floue était étrangère au droit, malgré la présence dans le droit de nombreux concepts ou notions flous. Les notions de faute simple ou de faute lourde par exemple échappent à toute définition précise permettant une identification certaine. Par contre, la conséquence juridique qui doit être tirée de la qualification d’un acte dans l’une de ces deux catégories est par contre tout à fait précise. Le droit comprend de nombreux systèmes à effet de seuil, dans lesquels les phénomènes de rétroaction sont inexistants. C’est en ce sens que le raisonnement juridique ne peut s’appuyer sur la logique floue, en tout cas pas d’une manière globale. Rien n’empêche cependant d’utiliser partiellement la logique floue pour classer des actes fautifs dans des classes de quantification, pouvant elles-mêmes partiellement se recouper afin d’aider à la prévision de l’interprétation des faits et donc à la prévision d’une décision juridictionnelle. Le domaine d’application de ce type de méthode est celui de la qualification juridique des faits, avec comme condition de pertinence que la base de faits soit suffisamment fournie et suffisamment homogène pour que la classification soit elle-même statistiquement significative.

Conceptuellement séduisante, cette approche se heurte à la question de l’identification des critères de distinction des situations ou des faits à évaluer, et celle que la délimitation des classes de quantification.

On peut donc penser que l’approche connexionniste qui élude en grande partie ce type de question est plus opératoire.

L'approche connexionniste

Cette approche ayant été évoquée dans la première partie (cf p. 106), il n’y a pas lieu d’y revenir, sauf pour la situer dans l’architecture globale du système à développer.

La fonction susceptible d’être remplie par les réseaux de neurones formels est assez semblable à ce qui vient d’être dit de la logique floue.

Si le raisonnement juridique reste fondamentalement syllogistique, il implique toutefois des appréciations de situation pour décider de l’application de concepts ou notions floues. De nombreux cas de qualification juridique ou d’appréciation selon le principe de proportionnalité non seulement se prêtent mais impliquent pour toute tentative de résolution de manière automatisée un recours soit à la logique floue restreinte, soit à l’approche connexionniste. Le choix relève d’une comparaison des performances des deux approches. En l’état présent des recherches, il apparait que l’approche connexionniste donne des résultats pratiques relativement convaincants, comme semblent le montrer notamment les études de Danièle Bourcier (1992) et Valéry Mayer-Blimont (1996). La force de l’approche connexionniste est sans doute de ne pas nécessiter une structuration logique préalable et de permettre un apprentissage progressif à partir d’exemples.

Certes l’automatisation implique un codage manuel préalable des textes jurisprudentiels pénalisant, mais cette phase est évidemment incontournable, et plus les concepts et notions impliqués dans un raisonnement juridique sont flous, plus grande sera la place des outils de cette nature dans le processus interprétatif. Passé ce stade de reconnaissance des formes juridiques, le raisonnement redevient syllogistique. On peut dès lors emprunter des voies telles que celles des règles de production propre aux systèmes déclaratifs ou d’autres, comme les graphes conceptuels, encore peu développés pour ce type d’application. Nous avons déjà évoqué ce moyen dans notre première partie, que Danièle Bourcier a également utilisé pour définir une « sémantique interactionnelle », « nouveau paradigme pour la formalisation des connaissances jurisprudentielles » (1996).

L'approche par les graphes conceptuels (sémantique interactionnelle)

La problématique de la « sémantique interactionnelle » est celle de l’interaction entre l’utilisateur s’exprimant en langue naturelle et l’expert juridique qui en l’occurrence est représentée par la base de connaissances juridiques et son système de traitement. L’utilisateur et l’expert étant à des niveaux de connaissance différents, la communication s’établit au moyen d’un langage commun compréhensible par les deux interlocuteurs. La base de ce langage est un certain type de représentation inspiré des graphes conceptuels de Sowa.

Les graphes conceptuels sont construits à partir d’une exploitation syntaxique des textes, les textes juridiques, quand il s’agit de décisions juridictionnelles, étant constitués non par le texte complet des décisions et des attendus, mais par le résumé qui en est fait par des spécialistes.

Cette approche appelle de notre part plusieurs observations.

D’abord, nous pensons qu’il s’agit d’un système de représentation particulièrement efficace dans une perspective de communication homme-machine. Nous en avons fait pour notre part un large usage, puisque en définitive ce que nous avons appelé des opérations logico-discursives, qui dans le contexte où nous nous plaçons, sont des opérations normatives, aboutissent à des graphes conceptuels, dont le principe de représentation s’avère d’une grande généralité.

Secondement, les graphes conceptuels, dans leur présentation graphique, ne sont directement exploitables informatiquement, mais leur traduction en langage informatique, n’est pas un problème insurmontable. Le LISP ou le langage C offrent une réponse très simple, puisqu’un graphe conceptuel se ramène à une fonction avec arguments, la difficulté se trouvant dans le degré souvent très élevé d’emboîtement des graphes les uns dans les autres. Il faut également signaler le développement d’un langage spécialisé dans la représentation des connaissances, le KIF, (Knowledge Interchange Format), produit d’une recherche visant à faire du KIF un American National Standard for KIF.

Troisièmement, l’approche interactionnelle ne permet pas de faire l’économie, chaque fois que se pose la question de la qualification juridique des faits par rapport à un concept ou une notion flou, d'une approche plus adaptée. Quand il faut qualifier une situation, certains faits voire une décision administrative de faute lourde, d’atteinte grave à l’ordre publique ou à une liberté, ou encore d’erreur manifeste, il faut recourir à une technique d’élucidation qui tient plus de l’approche connexionniste que d’une représentation conceptuelle. Mais, ce qu’il est important de souligner, c’est qu’il n’y a nullement contradiction, mais bien plutôt complémentarité, car d’une ou plusieurs réponses ponctuelles sur la qualification juridique dépend en fait tout le cheminement du raisonnement juridique.

D’où l’idée générale d’une architecture à trois compartiments :

  • un compartiment strictement textuel, fondé sur une analyse des textes
  • un compartiment casuel, fondé sur des analyses de cas pour lesquels sont mobilisés les textes eux-mêmes, mais aussi tous les savoirs juridiques mis en œuvre par le juge face à une situation donnée
  • enfin, un compartiment situationnel destiné à établir que tel fait, telle situation, telle décision ou tel acte est justiciable de telle ou telle qualification juridique.

C’est ainsi de la coopération entre ces trois compartiments que naît le raisonnement juridique et qu’il prend corps concrètement.

L’architecture est donc coopérative, ce qui permet de la réaliser sur des unités de traitement différentes connectées en réseau local ou distant.

Nous tenons à souligner que notre recherche s’est essentiellement attachée au compartiment textuel, tout en envisageant les connexions possibles avec les deux autres compartiments.

L’approche objet

L’approche objet a sa spécificité, mais elle a aussi le mérite de pouvoir englober toutes les autres.

L’approche, comme fondement de tous les développements envisagés, se justifie pour trois raisons fondamentales.

Tout d’abord, l’organisation du dictionnaire sémique implique une base de données objet. En effet, chaque élément s’inscrit dans une hiérarchie taxinomique coordonnée par la règle de l’héritage. Tout hyponyme comporte comme sèmes génériques inhérents l’ensemble des sèmes de son hyperonyme le plus proche. Ainsi, l’université est un type d’établissement public scientifique, culturel et professionnel qui est lui-même un type particulier d’établissement public.

En second lieu, tous les éléments du dictionnaire ne se laissent pas seulement appréhender par une série de traits sémantiques. Ils ont parfois des règles de fonctionnement complexes. Par exemple, le terme de responsabilité nécessite pour être correctement identifié un nombre réduit de traits sémantiques représentatifs de son sens restreint, mais si l’on veut capter toute la richesse du concept, il faut lui associer des règles qui, si l’on se place dans le contexte de la responsabilité civile, seront une traduction opératoire de la doctrine de la responsabilité civile, et si l’on est dans le contexte de la responsabilité administrative, représentent une doctrine qui présente certains points communs avec la première mais a aussi sa spécificité. Nous avons donc des objets au sens plein du terme, avec des traits distinctifs, des caractéristiques, mais aussi des méthodes qui vont doter notre concept de qualités opératoires particulières.

Enfin, nous avons vu que la résolution de certains problèmes juridiques, notamment les problèmes d’appréciation des faits et de qualification juridique nécessitaient des outils d’analyse ou de raisonnement spécifiques. Or, les langages objet ont cet avantage de pouvoir s’associer à des outils plus spécifiques pouvant répondre de manière plus adaptée à une question donnée.

Le développement du système implique par conséquent :

  • un système de base de données objet
  • un langage à objet admettant l’héritage multiple
  • une architecture à objets distribués

L’approche linguistique

Les approches précédemment évoquées relèvent des techniques de programmation. On peut donc s’étonner de voir figurer une approche linguistique qui, si elle a recours à l’informatique, utilisera une ou plusieurs des technologies sus-évoquées.

Ce qui justifie la place de l’approche linguistique dans ce chapitre, c’est le fait que l’approche linguistique postule un renversement complet de perspective par rapport aux méthodologies d’analyse et de développement utilisées jusqu'à présent.

Toutes les applications informatiques, qu’elles concernent d’ailleurs le domaine du droit ou n’importe quel autre domaine, postulent préalablement aux développements proprement dits et à la programmation, une analyse que l’on qualifie généralement de conceptuelle qui procède par interview et par modélisation.

Or, l’approche linguistique bouleverse cet ordonnancement. Il s’agit en effet de procéder à travers des outils généraux à l’analyse des textes et aux étapes de leur interprétation qui restent automatisables. Analyser les énoncés et les textes, en proposer une modélisation, comparer les formulations et les significations et organiser leurs articulations, tel est l’objet de l’analyse linguistique. L’analyse linguistique utilise une base de connaissances préalablement définie, mais cette base de connaissances s’enrichit elle-même de l’analyse linguistique.

Top