La problématique scientifique du traitement de l`information

Transcription

La problématique scientifique du traitement de l`information
Information-Interaction-Intelligence, Volume 1, n° 2
La problématique scientifique du traitement de
l’information
Didier Dubois et Henri Prade
Institut de Recherche en Informatique de Toulouse, I.R.I.T.- C.N.R.S.
Université Paul Sabatier,
118 Route de Narbonne
31062 Toulouse Cedex 4, France.
E-mail: {dubois, prade}@irit.fr
Résumé.
Le traitement intelligent de l'information en interaction avec des experts ou
des utilisateurs pose des problèmes scientifiques originaux au-delà de
l'informatique symbolique ou numérique classique. Les sciences du
traitement de l'information, tout en bénéficiant de la puissance de calcul des
machines informatiques, concernent la manipulation d'un "matériau" dont la
spécificité et l'importance se sont affirmées depuis un demi-siècle :
l'information.
Cet article propose un panorama structuré des principaux paradigmes du
traitement de l'information, des problèmes de formalisation qu'ils posent,
des outils que leur solution requiert, et des questions liées à l'évaluation des
traitements proposés. L'article est ainsi centré sur les questions théoriques à
la base de la thématique, plutôt que sur les aspects technologiques ou les
champs d’application concernés.
Quatre grandes classes de problématiques sont mises en évidence : i) la
mise en forme de l'information sous un format utile à l'utilisateur ou à son
traitement ultérieur ; ii) la recherche et l'explicitation de l'information
recherchée ; iii) l'exploitation de l'information en vue de l'évaluation de
situations, de la résolution de problèmes et l’aide à la décision ; iv)
l'interaction homme-machines et ses problèmes spécifiques.
Les informations sont susceptibles d'être incomplètes, imprécises,
incertaines, partiellement incohérentes. Leur traitement nécessite des outils
qui relèvent notamment de la logique et de la théorie des probabilités, mais
aussi d'autres modélisations de l'incertain plus qualitatives, ou facilitant
l'interfaçage de données numériques avec les catégories utilisées par
© Cépaduès-Edition 2001
l'humain. De plus, l’accent est mis sur l’étude et la mise en œuvre de
représentations structurées de l'information.
Un défi majeur est constitué par le besoin de développer des systèmes
capables de traiter de grandes masses de données et de mettre les résultats
du traitement sous des formes aisément compréhensibles pour l'utilisateur.
Inversement les informations détenues par l'homme doivent pouvoir être
représentées et exploitées facilement par l'ordinateur.
Cet article voudrait contribuer à affirmer l'unité, l'ambition scientifique et
les enjeux méthodologiques des sciences du traitement de l'information
aujourd'hui. Il s'agit cependant d'un travail préliminaire, car les sciences du
traitement de l'information se sont développées depuis cinquante ans de
manière éclatée, motivées par des classes d'applications distinctes, et
beaucoup d'efforts seront sans doute encore nécessaires pour en articuler
une image pleinement structurée et féconde.
Abstract.
An extended abstract is provided at the end of the paper.
1
INTRODUCTION
La science a pour ambition la compréhension du réel, c’est-à-dire des
phénomènes observables, afin de pouvoir expliquer, prédire, mieux
maîtriser ces phénomènes. On trouve ainsi commode de distinguer, à grands
traits, selon la nature des phénomènes étudiés, les sciences de la matière,
physiques ou chimiques, leurs applications aux sciences de l’univers et aux
sciences de la terre, les sciences du vivant, biologiques ou médicales, les
sciences de l’homme et de la société, ce qui n’exclut pas des interactions
entre ces grands champs de la connaissance.
Dans cette perspective, la place de l’informatique, discipline évidemment
plus récente, fait l’objet de débats, certains voulant quelquefois la lier aux
sciences physiques, tandis que d’autres insistent sur son rapport aux
mathématiques. Ce qui tend quelquefois à lui nier une réelle spécificité
scientifique, et ce d’autant plus que souvent seuls des aspects purement
technologiques, à l'évidence spectaculaires, sont mis en avant.
Certes, l’informatique en tant que science du calcul sur machines entretient
des rapports privilégiés avec la physique d’une part, puisque le codage de
l’information requiert un support matériel et qu’un processus mécanique,
électronique, …, doit permettre de donner corps à la manipulation des
“bits”, et peut-être demain de “q-bits” si la technologie rend possible la
maîtrise des “états quantiques”. En dehors d'une orientation purement
calcul, sous ses aspects algorithmiques, logiciels et matériels, le
développement de l'informatique est étroitement lié à la possibilité
d'échanger rapidement de grandes masses d'information à travers des
réseaux, grâce notamment au développement
conjoint
des
télécommunications.
1
1
En tant que science du calcul , ou de la computation (pour reprendre un
autre mot, longtemps disparu du français et réintroduit via l’anglais),
l’informatique s'intéresse à tout ce qui concerne la mise en œuvre de
procédures de calcul, depuis l’algorithmique jusqu'aux langages de
programmation, à l’architecture des calculateurs, et aux réseaux, sans
oublier les problèmes de sécurité informatique. Ces calculs peuvent
concerner des problèmes numériques, ou manipuler essentiellement des
données “symboliques” (c.-à-d. non-numériques). Clairement les calculs
informatisés peuvent s’appliquer à tous les domaines scientifiques et à
toutes les sciences appliquées de l’ingénieur, depuis le calcul d’écoulements
aérodynamiques, ou de structures soumises à des efforts mécaniques,
jusqu'à la vérification formelle de circuits ou de logiciels par exemple.
Le mot “informatique”, création originale en français, tout en signifiant
essentiellement le domaine couvert par ce que l’anglais nomme “computer
sciences” (sciences de l’ordinateur), est dérivé du mot “information” ; et de
fait, l’âge de l’informatique est non seulement marqué par l’apparition de
moyens de calculs toujours plus performants, mais aussi par un intérêt
grandissant pour le traitement de l’information. Ici le mot “information” fait
moins référence à son codage qu’à son contenu.
Le présent article doit être compris comme un plaidoyer pour les sciences
du traitement de l’information en tant que discipline scientifique originale,
centrée sur un “matériau” particulier, l’information, et sur les opérations qui
sont susceptibles de lui être appliquées afin de l’utiliser. Cet article, tout en
s'en tenant aux grandes lignes du sujet, reprend et développe la matière d'un
exposé effectué aux Assises Nationales du Groupement de Recherche
1
Étymologiquement, ces deux mots, issus respectivement du bas latin
“calculare” et du latin “computare”, sont attachés à l’idée d’un codage
matériel de l’information puisque “calculus” en latin classique est un
caillou, un jeton, tandis que “computatio” a semble-t-il trait à quelque chose
de déjà plus symbolique, puisque “computation” au XVième et XVIième
siècles concernait spécifiquement un compte bien particulier, celui de
l’évaluation du temps et de l’établissement du calendrier des fêtes mobiles
(d’après A. Rey, Dictionnaire Historique de la Langue Française, Le
Robert).
"Information, Interaction, Intelligence" à Lyon en juin 1998 (Dubois et
Prade, 1998).
Historiquement, et si l’on excepte la statistique, les différentes disciplines
qui participent du traitement de l’information se sont développées durant la
même période que l’informatique, c’est-à-dire, grosso modo, pendant les 50
dernières années. Ce sont principalement la classification et la
reconnaissance des formes, la cybernétique puis l’intelligence artificielle,
les bases de données, la communication homme-machine, la recherche
documentaire, mais aussi l’analyse de données, l’automatique et la théorie
des systèmes dynamiques, la recherche opérationnelle, la théorie de
l’information et le traitement du signal, dans des registres différents.
L’apparition quasi-simultanée de ces diverses spécialités n’est pas fortuite,
et va de pair avec les capacités de calcul toujours accrues des machines,
chacune d’elles faisant écho à de nouveaux besoins industriels ou
stratégiques. Pour ce qui est de la statistique, dont les premiers travaux
remontent à la fin du XVIIIème siècle, elle est aujourd’hui rattachée aux
mathématiques. Néanmoins, on peut aussi la considérer comme une partie
du paysage brossé ici, dédiée à un type particulier d’information sous des
hypothèses spécifiques. En témoignent les liens de plus en plus étroits
existant entre statistique et apprentissage en Intelligence Artificielle, et
l’essor des réseaux bayésiens pour le raisonnement dans l’incertain.
À côté de ces disciplines, il existe aussi des thématiques de recherche
transversales, centrées sur le type d'information considéré, comme le
traitement d'images et la vision par ordinateur, ou comme le traitement du
langage naturel, et la linguistique computationnelle. D’autres thématiques
transversales comme la robotique peuvent conjuguer des problématiques
relevant de plusieurs de ces disciplines tout en ayant leur spécificité propre.
Comme l’informatique, toutes ces disciplines utilisent largement les
mathématiques, avec souvent des besoins nouveaux, par exemple dans les
mathématiques du discret, sans pour autant pouvoir être rangées dans les
mathématiques (ni même dans ce que l’on appelle traditionnellement les
mathématiques appliquées). En effet, on ne s’intéresse pas ici à l’étude de
structures abstraites pour elles-mêmes, mais on les utilise (et au besoin on
les conçoit) seulement dans la mesure où elles paraissent appropriées pour
modéliser les problèmes de traitement de l’information considérés.
Soulignons aussi que la problématique du traitement de l'information est en
pleine évolution avec les quantités accrues d'informations à manipuler, à
exploiter, à synthétiser, et le nombre croissant des usagers (et des usages)
des systèmes de traitement de l'information, ce qui pose aussi des questions
de sécurité, de prise en compte du contexte de l'usager, voire des questions
d’éthique.
L'article est organisé comme suit. On discute tout d'abord de différents types
d'informations et de leurs imperfections possibles, puis on énumère les
différentes opérations qu'on peut souhaiter faire sur de l'information, ainsi
que les tâches d'un système d'information. Les problèmes en traitement de
l'information sont regroupés ensuite en quatre grandes classes qui
concernent respectivement, i) la mise en forme de l'information, ii) le
stockage, la recherche et l'explicitation de l'information, iii) l'exploitation de
l'information, et iv) la communication de l'information. Pour finir, on
illustrera le besoin de nouveaux outils de formalisation pour la
représentation et le traitement de l'information, et l’on posera la question de
l'évaluation scientifique des travaux en sciences du traitement de
l'information.
2
NATURE DE L'INFORMATION
Le Larousse décrit le sens technique du mot 'information' comme un
"élément de connaissance susceptible d'être codé pour être conservé, traité
ou communiqué". On voit que l'information peut porter aussi bien sur des
mondes "réels", que virtuels (comme les préférences d'un agent par
exemple). Dans cet article, le mot 'information' est utilisé de manière
générique ; il peut recouvrir aussi bien des 'connaissances' qui par nature
s'appliquent à des classes d'objets, que des 'données' qui se rapportent à des
cas, des faits, des objets particuliers.
L'information se présente souvent sous des formes complexes, résultats
d'enregistrements ou de synthèses, telles que tableaux de données, textes,
images, documents audio, vidéos, multimédia, ... Encore ces termes
recouvrent-ils des classes d'objets très variés. Il existe une grande diversité
de formes, de langues parmi les textes, qui peuvent obéir à des contraintes
et des objectifs très différents. Il en va de même des images. Qu'y a-t-il de
commun par exemple, entre une radiographie, la photo d'un paysage, une
image de synthèse telle qu'une affiche, ou encore un graphique, un schéma?
L'information peut provenir de capteurs, de caméras, ou encore
correspondre à des documents plus ou moins structurés.
Les informations peuvent provenir de sources multiples (ayant des niveaux
de fiabilité différents), être exprimées dans des formats hétérogènes. On
peut considérer comme objectives celles qui proviennent de capteurs
physiques. Néanmoins, en Intelligence Artificielle, on cherche également à
traiter des informations fournies par l’homme, subjectives donc, et souvent
linguistiques. Les outils développés doivent donc s’appliquer aussi bien à
des informations symboliques que numériques. Par ailleurs, les informations
peuvent être exploitées par un agent, ou collectivement par plusieurs agents.
Types d'information élémentaire :
Soit qu'elle soit extraite de formes plus complexes, ou qu'elle soit
directement disponible, l'information peut aussi s'exprimer par des énoncés
plus élémentaires concernant des propriétés ou des valeurs. Ces énoncés
peuvent se rapporter à l'état du monde réel perçu, ou encore à l'expression
de souhaits, d’obligations, etc. L'information peut s'appliquer à
- une situation particulière, déterminée ; on parle alors de données, de faits ;
ils indiquent une propriété, la valeur (numérique ou non) d'un paramètre,
d'un attribut descriptif pour l'objet, la situation considérés (par exemple,
"Pierre a 25 ans", "le ciel est nuageux") ;
- une situation indéterminée dont on affirme l'existence ou à propos de
laquelle on énonce une propriété (par exemple, "il existe des personnes de
plus de 100 ans") ;
- des situations particulières ; il peut s'agir de données statistiques,
collections d'exemples, de cas répertoriés, de contre-exemples, de
prototypes, ... ;
- des classes de situations ; il s'agit alors de contraintes, de lois, de règles
génériques, qui régissent le monde considéré. Ces règles peuvent être sans
exception, ou au contraire en présenter. On parle alors souvent de
connaissances.
Imperfections de l'information :
L'information disponible peut être imparfaite de bien des manières ; elle
peut être :
- ambiguë, si on ne sait pas de manière sûre à quoi elle se rapporte.
- bruitée, si elle est soumise à une erreur aléatoire.
- biaisée, si elle est sujette à une erreur systématique.
- incomplète, s’il en manque une partie nécessaire pour caractériser
correctement une situation.
- imprécise, si son contenu ne correspond pas au standard de précision
attendue ; elle peut aussi être graduelle (floue) si l'ensemble des valeurs
auxquelles elle renvoie n'a pas de contour tranché.
- incertaine, si on n'a qu'une confiance partielle dans la vérité de
l'information.
- incohérente (ou conflictuelle), si elle contredit une ou plusieurs autres
informations.
- redondante, si elle est disponible sous plusieurs formes. La redondance
n'est cependant pas toujours un défaut quand elle peut contribuer à rendre
l'information plus explicite.
Par ailleurs, l'information peut souvent avoir un caractère évolutif, si elle
peut être remise en cause, ou si elle porte sur un monde dynamique.
3
TACHES D'UN SYSTÈME D'INFORMATION
Un système d'information est un système, de plus en plus souvent
informatique, qui acquiert, reçoit de l'information, ou après traitement en
restitue auprès d'agents humains ou artificiels, en référence à un "monde
extérieur" auquel s'intéressent les agents. Ce monde extérieur peut être réel
ou virtuel. Les agents peuvent éventuellement agir sur lui et le transformer
ou seulement s'informer à son propos. Ces agents peuvent interférer avec un
système d'information en tant qu'utilisateurs qui récupèrent de l'information,
ou en tant qu'"experts" qui apportent de l'information. Les agents sont
éventuellement susceptibles de modifier ou de reconfigurer ce système.
Les tâches d'un système d'information, dans l'acception très générale qu'on
vient d'essayer de délimiter, sont variées et ne sont pas toutes les mêmes
d'un système à l'autre. Sans nécessairement prétendre à l'exhaustivité, les
principales tâches d'un système d'information consistent à
- stocker l'information sous une forme suffisamment accessible et compacte;
- retrouver une information stockée, sur demande ;
- rechercher des informations sur un sujet donné, en écartant l’information
non-pertinente ;
- répondre à des questions spécifiques sur des situations particulières ou
génériques, ce qui requiert des capacités d'inférence ;
- évaluer une situation, par rapport à une ou plusieurs échelles, par rapport à
un ensemble de classes possibles ;
- rendre l’information intelligible à l'usager ; pour ce faire, la structurer, la
synthétiser, la résumer ;
- expliquer une conclusion obtenue par le système d'information ;
- extraire des informations significatives pour l'usager ;
- acquérir de l'information sur le "monde extérieur", un usager, les usagers,
par apprentissage ; s'adapter à un environnement évolutif ;
- intégrer de nouvelles informations ; mettre à jour l'information ;
- exploiter l'information pour proposer une décision, proposer une solution,
planifier en prenant en compte des préférences, des buts, des objectifs ;
- négocier, coopérer avec des agents.
Ainsi, très schématiquement, on peut distinguer trois grandes familles de
traitements qu'on peut souhaiter faire sur l'information (Dubois et al.,
1996) :
i) ceux ayant pour but de l'élaborer, de l’interpréter, c.-à.-d. de la mettre
dans un certain cadre réprésentationnel afin de pouvoir la communiquer,
soit à un usager, soit à un nouveau module de traitement ; cela peut
nécessiter de structurer, de résumer, de fusionner l'information, de la
présenter sous forme synthétique ou encore de la "banaliser" si on doit
protéger l'anonymat de personnes auxquelles elle se réfère;
- ii) ceux ayant pour fonction de la stocker, de la mettre à jour, de la
retrouver, de la rechercher, de l'extraire, de l'expliciter, mais aussi de
pouvoir produire de nouvelles conclusions à partir des informations
disponibles, et de les expliquer ; ceci suppose de concevoir des interfaces
satisfaisantes pour les usagers. Il convient également de sécuriser
l'information et d'en réglementer l'accès ;
- iii) enfin les traitements visant à exploiter l’information dans des
environnements statiques ou dynamiques, en général dans une perspective
de décision et d'action ; il est alors question de trouver des solutions,
éventuellement optimales, à des problèmes exprimés sous forme de
contraintes, d'évaluer des situations selon de multiples critères, de proposer
des décisions en prenant en compte l'incertitude sur leurs résultats, de
piloter automatiquement des systèmes dynamiques, de prédire le
comportement de systèmes, d'évaluer leur fiabilité.
A ces trois familles de traitements, s'ajoute une quatrième problématique,
celle de la communication de l'information et de la prise en compte du
contexte de l'usager.
4
QUATRE GRANDES CLASSES DE
PROBLÉMATIQUES
Les grandes classes de tâches qui viennent d'être dégagées pour le
traitement de l'information (élaboration et production de l'information,
stockage et recherche de l'information, exploitation de l'information, sans
oublier la communication de l'information à son usager) posent un grand
nombre de problèmes qu'on va essayer maintenant de passer en revue,
même si c'est de manière succincte.
4.1. Mettre l'information sous une forme utile
Il s'agit de passer d'informations ou de données jugées "brutes" à une
représentation qui soit exploitable par une chaîne de traitement ultérieur, ou
par un opérateur humain. Cela peut recouvrir des problématiques de
préparation et d'amélioration de l'information, d'analyse ou de synthèse de
toute forme d'information, ou plus simplement d'élicitation de l'information,
d'acquisition d'informations ou de connaissances, dans des cadres plus ou
moins structurés.
Préparer, améliorer l'information peut signifier notamment la débruiter,
l'épurer en la débarrassant de ses biais ou de ses redondances par exemple.
Il peut encore s'agir de lisser des données, ou de les compléter par
interpolation et approximation. La fusion d'informations provenant de
différentes sources qui peuvent être hétérogènes ou partiellement
incohérentes procède aussi d'un souci d'amélioration ou de présentation
synthétique de l'information. La validation de bases de connaissances
(vérification ou rétablissement de la cohérence, élimination de
redondances,...) en offre un autre exemple.
Analyser l'information est nécessaire pour l'interpréter, mettre en évidence
des éléments utiles, utilisables ou intelligibles. Il s'agit par exemple du
passage d'un texte en langue naturelle à une représentation formalisée dans
un langage artificiel. Il est alors question de manière générale, d'extraction,
d'identification d'éléments, de traits caractéristiques, de classification, ou
encore d'indexation par mots clés. Plus généralement, des techniques
d'annotations, peuvent permettre d'enrichir les descriptions de documents,
ce qui facilitera la recherche des informations. Analyser l'information peut
aussi correspondre à un problème de classification, de création de
typologie. Les problématiques de découverte de connaissances ou de fouille
de données cherchent à découvrir des règles génériques cachées
susceptibles d'intéresser l'utilisateur, ou à identifier par regroupement des
populations de données ciblées.
La synthèse d'information consiste souvent à construire une description
approchée, simplifiée, ou structurée de l'information disponible. Il s'agit de
résumer l'information. On procède alors à un changement de niveau de
granularité des représentations et/ou à une structuration de l'ensemble des
données ou des informations. Ou encore, on doit sélectionner, ou
déterminer, des paramètres pertinents en apprentissage, ou pour la
description de grands systèmes. L'idée de synthèse de l'information peut
aussi renvoyer à l'expression et à la mise en forme d'un contenu
informationnel sous une forme requise (texte, image, parole, vidéo, ...).
4.2. Stocker, retrouver, expliciter l'information
Tout d'abord, dans la mesure où on doit stocker ou transférer de larges
volumes de données, des techniques de compression d'information peuvent
s'avérer nécessaires. De plus, la nécessité de faire vivre le système
d’informations conduit à en ajouter de nouvelles où à vouloir en retirer. La
révision des informations contenues dans un répertoire est une
problématique récente et importante. Il s’agit en effet d’éviter l’apparition
de contradictions, tout en préservant le contenu de la base d’informations.
En particulier, la révision des bases de connaissances déductives est un
problème que les logiciens traditionnels n’avaient jamais étudié. Par
ailleurs, les données stockées peuvent se rapporter à un monde évoluant
dynamiquement, ce qui pose des problèmes spécifiques de mise à jour et de
maintien de la cohérence.
À la différence des problématiques examinées dans la section précédente, il
n'y a en général pas de changement du niveau de représentation lors de la
recherche d'information ou son explicitation par inférence à partir des
informations stockées. L'interrogation de bases de données, de bases de
connaissances, de bases documentaires, de bases textuelles (éventuellement
multilingues), de bases d'images, etc. pose des problèmes de filtrage
d'information, de langages d'interrogation, d'évaluation de requêtes et de
leur optimisation. Notons que la recherche par le contenu et/ou la structure
dans des bases de données multimédias, semi-structurées, ou
multidimensionnelles, contenant de grandes quantités de données à structure
complexe ou inconnue, des données hétérogènes, renouvelle la
problématique traditionnelle à l'œuvre dans les Systèmes de Gestion de
Bases de Données (on va bien au-delà des requêtes précises sur des données
exactes). En particulier, un intérêt grandissant se fait jour pour permettre
des requêtes flexibles susceptibles de refléter les préférences de l'utilisateur
et d'être plus robustes au plan des réponses.
En dehors de la simple recherche d’informations stockées dans une base, il
est parfois nécessaire d’expliciter l'information en dotant le système de
capacités d'inférence ou de calcul. Il peut s'agir de raisonner sur l'état du
monde à propos duquel la base stocke des informations. L'information
disponible peut être incomplète, voire incohérente, ce qui nécessite alors le
recours à des figures de raisonnement qui vont au-delà de la déduction
classique, et qui sont capables de produire des conclusions plausibles quand
l’information est incomplète. C’est le cas dans des problèmes où des
connaissances expertes sont appliquées à des situations particulières
incomplètement décrites, à des fins de prédiction, de diagnostic par
exemple. Dans ce type d'applications, il peut être important que les
systèmes soient capables d'expliquer, de justifier leurs résultats à
l'utilisateur. Par ailleurs, des capacités d'inférence peuvent être aussi utiles
dans la mise en œuvre de politiques d'accès sélectif à l'information.
4.3. Exploiter l'information pour décider et agir
Une classe importante de systèmes d'information (au sens générique
employé dans cet article) est spécialisée dans la résolution de problèmes où
l'information disponible délimite un espace de recherche (ou au moins aide
un usager dans cette résolution). La recherche de solution(s) à des
problèmes de satisfaction de contraintes (éventuellement flexibles),
l'optimisation (multi-critère) sous contraintes sont au centre de cette
problématique. La conception assistée par ordinateur, l'ordonnancement
d'activités, la gestion de production, les problèmes de recherche de
configuration, la création de documents multimédias, d'univers de réalité
virtuelle en fournissent des exemples.
Les questions d'aide à la décision ou de planification, prenant en compte la
connaissance disponible, les préférences des agents, exprimées de manière
quantitative ou qualitative (décision multi-critère et évaluation subjective de
situations ou d'objets, décision dans l'incertain, décision de groupe et
coopération multi-agents, ...), rentrent dans ce cadre. De plus, les
environnements dynamiques peuvent poser des problèmes de réparation de
solutions à l'arrivée d'informations entraînant une modification du contexte.
Les problèmes de commande de systèmes dynamiques peuvent aussi être
rattachés à ce cadre, puisqu'il s'agit du calcul en temps réel de lois de
commande satisfaisant des objectifs, la commande étant dans ce cas
directement appliquée à un processus physique ou chimique (en général
avec peu, ou sans, interaction humaine avec le système). La spécificité de
l’automatique est l’exploitation de l’information en boucle fermée, afin de
modifier artificiellement les propriétés d’un système physique (stabilisation,
par exemple). La supervision des procédés concerne les tâches de suivi et
de surveillance, sur un plan essentiellement informationnel. Elle pose le
problème général d'interfacer de manière cohérente les informations de bas
niveau fournies par les capteurs au travers d’une modélisation fine du
système supervisé, avec des descriptions de haut niveau ne procurant que
l'information utile à l'opérateur.
Notons enfin que les problématiques de résolution de problèmes ne se
résument pas uniquement à des questions de satisfaction de contraintes ou
d'optimisation, elles peuvent aussi mettre en jeu du raisonnement par
analogie si un répertoire de problèmes déjà résolus est disponible. Des
outils d'aide à la créativité, par exemple, peuvent s'appuyer sur les deux
types de problématiques (exploiter des contraintes et raisonner par
analogie).
4.4. Communiquer l'information
Les informations manipulées ou produites dans les différentes tâches qu'on
vient de passer en revue sont faites pour être communiquées,
éventuellement dans des cadres interactifs. Les problèmes de
communication homme-machine concernent aussi bien l’acquisition de
connaissances fournies par l’homme au système d’informations que la
restitution d’informations ou de décisions à un utilisateur. Outre des
problèmes liés au type de communication utilisé (parole, texte en langue
naturelles, etc.), des questions spécifiques à l'interaction, au dialogue entre
agents se posent. Il s'agit de modéliser et de prendre en compte en
permanence les savoirs, les croyances mutuelles, les intentions, les buts, les
préférences des agents. La problématique du dialogue recouvre aussi la
question de la construction d'arguments (cohérents) en faveur d'une
conclusion, d'une thèse, ou de son contraire.
La visualisation de l'information doit jouer aussi un grand rôle dans les
processus interactifs pour fournir à l'agent humain une vue synthétique qu'il
serait difficile de lui communiquer autrement de manière résumée. C'est
déjà le cas dans les systèmes d'informations géographiques par exemple. La
visualisation structurée d'ensembles de données est devenue une
problématique importante. De plus les interfaces homme-machine soulèvent
diverses questions d'ergonomie.
5
OUTILS DE FORMALISATION
Le besoin d'appréhender et de manipuler de manière formelle cette nouvelle
entité qu'est l'information dans ses différents aspects a nécessité le recours à
certains outils de modélisation mathématique, ainsi qu'à des outils de
simulation, conduisant quelquefois à de nouveaux usages de notions
anciennes, voire au développement, souvent d'abord empirique, de
nouveaux outils de formalisation. Une part importante des préoccupations
est tournée vers le traitement symbolique, ou qualitatif, de l'information
pour faciliter l'intelligibilité des manipulations.
5.1. Outils de représentation
Ainsi, la formalisation des nouveaux problèmes suscités par les différentes
facettes du traitement de l'information ont conduit au développement de
nouveaux cadres de représentation, faisant appel notamment à la logique,
aux mathématiques des structures discrètes (automates, langages formels
introduits par l'informatique, algèbres exotiques où les opérations maximum
ou minimum remplacent la somme ou le produit de l'algèbre linéaire, ...).
De façon générale, de nombreuses classes d'opérateurs de combinaison
tiennent une place importante dans le traitement de l'information et les
processus d'évaluation (fusion d'informations incertaines, agrégation de
préférences,...). Les modèles à base du calcul des relations, les
représentations structurées par graphes (comme les arbres de classification,
les réseaux de neurones formels en apprentissage, les réseaux sémantiques
pour figurer les relations entre les mots ou les concepts, les réseaux de Pétri
pour modéliser de manière discrète des processus séquentiels asynchrones,
les réseaux bayésiens et leurs généralisations en traitement de l'incertitude
non-probabiliste, ...) sont également très employées.
Quand on aborde le traitement de l’information dans le cadre des
représentations cognitives liées au langage naturel et des modes de
raisonnements humains, les approches basées sur la logique classique, la
théorie des probabilités, la géométrie euclidienne s’avèrent insuffisantes, car
mal adaptées à la façon dont l’homme procède pour se représenter le réel
qui l’entoure, et pour raisonner à son propos. Quand on le situe dans une
perspective cognitive, le traitement des informations temporelles, spatiales,
spatio-temporelles, du raisonnement sur l'action, de la représentation du
mouvement pose des problèmes spécifiques et originaux de représentation
(p-intervalles temporels, méréologies spatiales,...). Ils ont conduit au
développement de logiques spécialisées, en particulier modales. D'autres
logiques modales (épistémique, intentionnelle, déontique,...) permettent
d'exprimer ce que les agents savent, croient, quelles sont leurs intentions,
obligations, etc.
Les différents types de contenus informationnels, les modalités qui peuvent
être attachées à l'information, les imperfections de l'information posent un
grand nombre de problèmes de représentation, au-delà de la représentation
de données et de connaissances sous forme de tables, d'arbres, ou de
fonctions, etc. A côté des probabilités et des statistiques, de nouveaux
cadres de modélisation de l'incertitude sont apparus, telles les fonctions de
croyance (qui entretiennent des relations avec les ensembles aléatoires), ou
la théorie des fonctions de possibilité et de nécessité, qui, utilisant les
opérations maximum et minimum, est plus qualitative. Les relations de
conséquence non monotones proposent un traitement complètement
qualitatif du raisonnement à partir de règles pouvant présenter des
exceptions. Ces différents cadres de traitement de l'incertitude, utilisés en
formalisation du raisonnement et de la décision, peuvent être transposés
pour représenter des processus d'agrégation de préférences multi-critères,
l'importance des critères jouant le rôle de l'incertitude. De façon générale,
incertitude et préférence peuvent être représentées de manière absolue (en
termes de degrés) ou, qualitativement de manière:relative (en termes de
relations). Par ailleurs, l'existence de différents cadres représentationnels de
l'incertitude, permettant notamment de distinguer entre les situations
aléatoires et les situations d'ignorance, a conduit à proposer d'autres
mesures d’information à côté de l'entropie.
Les ensembles flous (qui modélisent des propriétés graduelles et des classes
aux frontières non-tranchées, où l’on peut passer progressivement de
l'appartenance à la non-appartenance) sont aptes à représenter des idées de
similarité (comme dans le cas des règles floues utilisées en raisonnement
interpolatif), des préférences (par exemple dans des contraintes flexibles),
ou encore de l'incertitude (en relation avec la théorie des possibilités). Les
ensembles flous offrent un outil pour interfacer des données numériques
avec un nombre fini de catégories linguistiques tout en préservant une
certaine continuité à leur frontière. Par ailleurs, l'utilisation des ensembles
approximatifs ('rough sets') est motivée par les problèmes posés par les
changements de granularité entre représentations de niveaux différents, et
est pertinente en apprentissage notamment.
Les questions de formalisation du sens en linguistique computationnelle, en
intelligence artificielle, en recherche d'informations notamment ont, à côté
d'approches statistiques, aussi suscité le développement de nombreux outils
de représentation structurée, ayant ou non des capacités d'inférence, comme
les thesaurus de mots clés, les 'frames' regroupant des assemblages d'objets
associés à un contexte, les scripts décrivant des séquences d'événements, les
réseaux sémantiques, les graphes conceptuels, les logiques terminologiques,
les ontologies délimitant des univers conceptuels, ... Notons aussi que la
représentation formalisée de contenus émotionnel ou esthétique commence
à faire l'objet de travaux.
5.2. Outils de manipulation
Les raisonnements, de sens commun, que l’homme effectue au quotidien
sur l'information dont il dispose, s’accommodent d’informations
incomplètes, incertaines, voire incohérentes. Ils lui permettent aussi de
rapprocher des situations et de transposer des solutions, de tirer parti à la
fois de faits généraux et d’exemples, ou encore d'appréhender de manière
qualitative des informations de nature quantitative. De tels processus de
raisonnement excèdent les capacités de représentation et d’inférence de la
logique classique, développée à l'origine en relation avec la question des
fondements des mathématiques, (et de la théorie des probabilités en ce qui
concerne certains aspects de l'incertitude).
C'est pourquoi diverses extensions ou affaiblissements du raisonnement
déductif ont été formalisés en l’intelligence artificielle, que cela soit pour
propager l’incertitude (probabiliste ou non) associée à des informations, ou
pour pouvoir produire des conclusions plausibles, en cas d’information
incomplète. Ces conclusions plausibles pouvant être révisées à l’arrivée
d'une nouvelle information. De fait, les règles “ si … alors… ”, qui
constituent un format commode pour exprimer des connaissances
génériques, ne spécifient pas toujours explicitement toutes les exceptions
des règles, qui sinon seraient trop lourdes et requerraient souvent plus
d’informations qu’il n’en est de disponibles, pour être appliquées à des
situations ou des contextes particuliers. La mise à jour en environnement
dynamique pose des problèmes d'économie d'expression dans la
représentation du changement pour ne pas avoir à expliciter tout ce qui ne
change pas. Cela est relié à la formalisation de notions d'indépendance (et
de dépendance), question qui se rencontre aussi dans d'autres problèmes
comme en raisonnement avec des règles pouvant présenter des exceptions.
Un autre dépassement de la déduction classique s’appuie sur l'idée de
proximité (une conclusion, fausse à strictement parler, mais proche d’une
autre conclusion, avérée quant à elle, sera considérée comme presque
vraie), et permet alors d’obtenir davantage de conclusions par interpolation
entre conclusions avérées. Ainsi le raisonnement ou la décision à partir de
cas permet, en se référant à un répertoire de cas observés, d’extrapoler une
conclusion plausible pour une situation rencontrée présentant des similarités
avec ces cas connus. Le raisonnement qualitatif permet lui un raisonnement
déductif sur des ordres de grandeur qui doit rester cohérent avec la
description numérique d'un système statique ou dynamique.
La formalisation de processus d'apprentissage a conduit au développement
de nombreuses méthodes numériques ou symboliques : méthodes
statistiques, apprentissage par renforcement, réseaux bayésiens, réseaux de
neurones, programmation logique inductive (qui renverse le processus
habituel de déduction), ...
Le traitement de l'information nécessite non seulement des outils
mathématico-logiques de représentation éventuellement nouveaux, mais
aussi à l'évidence des outils algorithmiques efficaces d'autant plus que les
quantités de données ou d'informations à traiter sont souvent très
importantes. On dispose ainsi de méthodes universelles de recherche
heuristique ordonnée, de la programmation dynamique, de métaheuristiques (recuit simulé, algorithmes génétiques, ...) pour résoudre
différents problèmes d'optimisation. Les méthodes pour résoudre les
problèmes de satisfaction de contraintes génériques ou spécialisées
(contraintes temporelles ou spatiales par exemple) ont fait l'objet de
nombreux développements. Par ailleurs, la popularité actuelle des réseaux
bayésiens et des processus markoviens pour le traitement de l'incertain, a
conduit à un important renouveau des préoccupations algorithmiques dans
le domaine des probabilités et des statistiques. Il en est de même en ce qui
concerne les méthodes automatiques de preuve en logiques classique ou
non-classiques.
6
ÉVALUATION SCIENTIFIQUE
Dans tout domaine scientifique, il importe de se préoccuper de l'évaluabilité
scientifique des résultats obtenus. Cette question ne se pose cependant pas
exactement pour les sciences du traitement de l'information comme en
sciences physiques, en sciences de la vie ou en sciences humaines, où
l'observation expérimentale de la réalité peut invalider un modèle théorique
qui ne rendrait pas compte de cette réalité dans tous les aspects censés
couverts par la théorie. Les sciences du traitement de l'information
contribuent à la conception et à la réalisation de systèmes artificiels qui
permettent à des usagers de se représenter, de comprendre, d'intervenir sur
une certaine réalité, ou au moins les y aident. La question de l'évaluation
scientifique se pose donc alors à la fois sous les angles de la rationalité
formelle des théories élaborées, de l'expérimentation, de la validation
empirique auprès d'experts ou d'usagers, sans oublier l'évaluation de la
complexité calculatoire.
Pour ce qui est de la rationalité, les outils algorithmiques développés
devraient s’appuyer sur des modèles mathématico-logiques résultant de
l'application d'approches formalisées en termes d'axiomes ou de postulats.
Dans ce cas, il est possible de s'assurer d'une part de la cohérence formelle
interne des approches, et éventuellement d'en évaluer la pertinence
psychologique d'autre part. On peut par exemple tester dans des contextes
donnés, si l'humain se comporte comme le prescrit telle théorie normative
de la décision, ou du raisonnement plausible. De manière générale, le fait
que les systèmes de traitement de l'information sont interfacés avec des
usagers, ou des experts doit conduire à vérifier la plausibilité psychologique
et plus largement cognitive des modèles de représentation et de
manipulation des connaissances utilisés. Ces modèles sont souvent en partie
inspirés d'observations sur la façon dont l'humain, voire le vivant,
appréhende et manipule l'information.
Les outils informatiques développés ne résultent pas toujours, en particulier
dans un premier stade de conception, d'approches pleinement formalisées.
On peut alors seulement envisager une validation empirique. Ainsi les
performances d'un système expert de diagnostic peuvent être comparées aux
diagnostics établis par des experts humains en face des mêmes informations,
et aux diagnostics réels quand ils sont connus. Des idées d'amélioration
d'algorithmes, par exemple, peuvent d'abord être testés expérimentalement,
avant qu'on puisse vraiment comprendre dans quel contexte et pourquoi
elles sont efficaces. Les protocoles expérimentaux doivent alors être
statistiquement validés.
Enfin les outils informatiques pour le traitement de l’information doivent
également satisfaire à des exigences en termes de complexité algorithmique
(temps de calcul, espace mémoire), voire de temps réel. Cette complexité
peut être évaluée de manière théorique, ou expérimentale.
7
CONCLUSION
Nul doute que les technologies de l'information contribuent actuellement à
une révolution rapide et profonde dans les moyens d'accès à l'information,
en particulier au plan du stockage, de la recherche, du transfert, et de
l'affichage de l'information.
À côté des problèmes de société et des questions éthiques soulevés par la
diffusion large et multimédia de l'information, le traitement avancé de
l'information pose aussi des problèmes scientifiques originaux qu'il est
urgent de reconnaître en tant que tels. La science du traitement
(informatique) de l'information est encore largement méconnue dans la
communauté scientifique, et a fortiori dans le monde des dirigeants ou dans
le grand public. Cet état de choses est à la fois dû au caractère relativement
parcellaire et éclaté des recherches menées en sciences de l'information, et à
une certaine prééminence des aspects purement technologiques dans les
médias. C'est pourquoi un cadre conceptuel et méthodologique unifié
apparaît aujourd'hui nécessaire.
Le traitement avancé, intelligent et interactif, de l'information requiert des
capacités d'au moins quatre ordres (en restant volontairement très
schématique) :
- La mise d'informations ou de données "brutes" sous une forme susceptible
d'être ensuite plus facilement exploitée, ou communiquée à un utilisateur ;
ce qui requiert des opérations de débruitage, de filtrage, de lissage, de
structuration, d'approximation, d'extraction ou de résumé d'informations, ...
- À un niveau de représentation donné, se posent les problèmes de stockage,
d'indexation et de mise à jour de l'information. La récupération et
l'exploitation de l'information nécessitent l'évaluation de requêtes de plus en
plus complexes, et des capacités de raisonnements déductifs ou simplement
plausibles, éventuellement aptes à pallier le caractère incertain et incomplet
de l'information disponible.
- L'information ne doit pas seulement être communiquée à l'utilisateur, il
faut également l'aider à l'exploiter dans des perspectives d'optimisation, de
prévision, de supervision, de décision, de plans d'actions, ou de
coopération, notamment.
- La communication de l'information doit de plus en plus prendre en compte
les spécificités (savoirs, croyances, intentions, ...) de l'utilisateur, et aussi les
problèmes posés par la communication partagée.
Ces questions nécessitent pour les aborder des cadres de formalisation très
variés, allant de la logique à des modèles numériques venant en particulier
de l'analyse mathématique ou des statistiques. Les différents traitements
nécessités par l'information numérique, comme par l'information plus
qualitative, ont déjà suscité le développement de nombreux outils originaux
propres à la problématique du traitement de l'information. Depuis cinquante
ans, de nombreuses disciplines des sciences pour l'ingénieur, qui se sont
développées en relation avec les nouveaux problèmes qui apparaissaient, se
sont focalisées sur divers aspects du traitement de l'information :
l'automatique, la recherche opérationnelle, l'analyse des données, la
reconnaissance des formes, l'intelligence artificielle, les bases de données,
la communication homme-machine, etc... Ces diverses disciplines
s'intéressent au traitement du matériau "information" sous différents points
de vue, et à différents niveaux, en parallèle avec l'essor de la science du
calcul sur machine qu'est l'informatique. Il apparait donc opportun et utile
de renforcer les synergies entre ces composantes des sciences du traitement
de l'information.
Il semble temps de reconnaître que les sciences de l'information définissent
un champ spécifique, au même titre que les sciences de la matière, ou les
sciences de la vie, ou les sciences de la société, avec lesquelles des
coopérations pluridisciplinaires se développent, et avec lesquelles elles sont
d'ailleurs en interaction au travers des sciences de la cognition et de la
communication. Cela est nécessaire si on veut promouvoir un
développement plus raisonné et plus unifié de la problématique du
traitement de l'information.
REMERCIEMENTS
Cet article a bénéficié de la relecture et des commentaires de Mario Borillo,
Anne Doucet, et Catherine Garbay. Qu'ils en soient ici remerciés de tout
cœur.
REFERENCES
N.B. La bibliographie se trouve être succincte, car volontairement réduite à
des articles et ouvrages récents envisageant le traitement de l'information
dans son ensemble et non de manière spécialisée.
Mario Borillo. Pensée et machine. Nouvelles hypothèses et nouvelles
recherches sur la nature de l'esprit, au carrefour des sciences de la cognition
et des sciences de la computation. In Les Idées Contemporaines, (A.
Gérard, ed.), GREP Midi-Pyrénées, 45-63, 2000.
Malik Ghallab. Enjeux et impact des STI. Ruptures technologiques pour le
ème
21
siècle, Casablanca, Maroc, Février 1997. http://www.asti.asso.fr/
pages/presentation.html
Didier Dubois, Henri Prade, Ronald R. Yager. Information Engineering and
Fuzzy Logic, Proc. of the 5th IEEE International Conference on Fuzzy
Systems, New Orleans, Louisiana, September 8-11, 1996, vol.3, 1525-1531.
Didier Dubois, Henri Prade. Grands paradigmes du traitement intelligent et
interactif de l’information, Actes des Assises Nationales du GDR-PRC I3,
INSA de Lyon, 24-26 Juin 1998, 43-44. http://www.timc.imag.fr/I3
Jean-Gabriel Ganascia. Le Petit Trésor. Dictionnaire de l’Informatique et
des Sciences de l’Information,, Flammarion, 1998.
René Jacquart, (Ed.) N° spécial: Informatiques, enjeux, tendances et
évolutions, Technique et Science Informatiques, Hermès Sciences, 19,
2000.
Jacques Le Maitre, Jean Charlet, Catherine Garbay (eds.)Le Document
Multimedia en Sciences du Traitement de l'Information. Cépaduès-Editions,
2000.
Henri Prade, Robert Jeansoulin, Catherine Garbay (eds.) Le Temps,
l'Espace et l'Evolutif en Sciences du Traitement de l'Information.
Cépaduès-Editions, 2000.
English synopsis:
Beside its potentially enormous economical, industrial and social impact,
information has become a matter of scientific investigation of its own,
standing apart from other older established fields such as physics,
mathematics, etc. This interest is in part strongly motivated by the
confluence of computer and communication technologies which allow for
the collection and storage of large amounts of information and its
subsequent dissemination in a very efficient way. In several recent
publications, we have tried to promote a unified view of information
sciences and engineering that transcends boundaries existing between
subfields that sometimes quarrel with one another, sometimes ignore one
another, while having in common the purpose of processing some kind of
information in some way. Moreover some newly emerged key-words such
as Soft Computing, Computational Intelligence and the like are often
misunderstood as to their actual potential and novelty. It is very important
to organize research about information in order to achieve its recognition as
a new scientific discipline with specific needs in terms of basic research,
especially particular mathematical and logical tools, and a specific
technology.
The following definition of information has been proposed: any collection
of symbols or signs, produced either by the observation of natural or
artificial phenomena, or by the cognitive activity of human beings or robots,
which can be used to understand the world around us, help in decision
making or in mutual communication. The concept of information
engineering is an attempt to bring together under one umbrella many
scientific investigations which have developed along with the emergence of
the computer technology and have to do with information. Informally, we
can tentatively see information science and engineering as concerned with
three main tasks: namely clarifying, storing/retrieving, and exploiting
information. These three tasks are completed by a fourth one pertaining to
man-machine interaction issues (maintenance of a model of the user, sharing
of the information between several agents, ...).
1. Clarifying information
By clarifying information we mean the process of elaborating raw data into
more useful and comprehensible forms. This task ranges from enhancing
information via smoothing or eliminating redundant or erroneous data,
completing information via interpolation, to higher cognitive activities such
as abstracting and modeling. Some clarification tasks can be performed at
the level of a sensor itself. A particularly extensive family of clarification
methods is the gamut of techniques used in computer vision, whose
purposes are the reduction of uncertainty, the recognition of relevant
patterns and the labelling of scenes. In addition many of the operations used
in data fusion for synthesizing and combining pieces of data fall in the
category of clarification methods, since more often than not, information is
supplied by several, possibly conflicting sources and not in an homogeneous
format. Clarification appears as a transformation process that turns raw data
into more structured information, that is more understandable and useful.
There is also an effort to go from information about particular cases (what is
often called data) to more generic forms of information pertaining to a
population of items (what is often called knowledge). In some cases,
especially when abstracting is in order, it necessitates the use of linguistic
labels to communicate the main features of the information. Alternatively,
clarification may also come down to a kind of data compression by laying
bare an underlying mathematical model. Clarified information then can be
appropriately stored and be further exploited in reasoning and decision
processes.
Typical of clarification are techniques such as clustering, filtering, other
data analysis methods such as regression, identification, inductive learning
and more generally any method aimed at abstracting and structuring
information.
2. Storing/Retrieving information
Retrieving information means to extract, based on certain requirements and
specifications, already existing, possibly hidden, pieces of information. This
component of information engineering includes many of the methodologies
used in databases, information retrieval and the new emerging field of
multi-media. It is strongly dependent on the storage technology and the
knowledge representation framework used.
In its most elementary form, which we may call querying, the retrieval
process does not involve a modification of existing information, as in the
clarifying task. A large body of information is stored in some format and a
query is entered. As a result of a query matching process a class of objects
satisfying the query are provided. An important objective in the
construction of these types of systems with respect to the querying task is
the facilitation, for the user, of the expression of their goals regarding the
information to be retrieved. This objective requires that rather sophisticated
forms of queries be allowed. It is also worth noting that a basic distinction
between the database and information retrieval technologies is related to the
use in information retrieval of intermediary descriptions of the information
in terms of keywords, whereas in databases information is described directly
in terms of attributes values. The handling of multimedia databases requires
the joint use of the two approaches.
Some modes of storing information do not allow the retrieval process to be
reduced to one of simply locating items in a file. For instance in deductive
databases, information is encoded in a declarative way via some kind of
logic-based language. The retrieval process requires that the information
system be equipped with inferential power. In this environment retrieving
information involves a reasoning task, whereby hidden information is made
explicit for the user. Sometimes the information held for sure is too poor
and one may wish to exhibit plausible information, possibly revised in a
further step. It requires the use of some form of default inference. This type
of concern is present in so-called intelligent information systems, which lie
at the boundary between database research and artificial intelligence.
3. Exploiting information
Exploiting information component encompasses a wide range of activities
including decision-making, optimization, design, and control. Generally in
such tasks, information plays a supportive role to some sort of paradigm or
model. In order to make the best use of the knowledge embedded in the
model, the ability to represent and manipulate different types of information
becomes very important here. The development of technologies that allow
us to combine numerical, logical, linguistic and visual information is an
important part of the agenda of this aspect of information engineering. All
pieces of information are used in the problem-solving task, whose solution
is presented to the users in order to guide their course of action. Several
prototypical situations can be distinguished:
-) problems where the number of potential solutions is very small but the
choice is made difficult due to many conflicting goals and/or the presence
several of decision-makers. This is the realm of decision support systems
for strategic decision-making ;
-) problems where the computation of a solution is a highly combinatorial
task but the local preference modeling is made very clear and simple. This
is typically the case of optimization problems that occur in engineering
design or large-scale systems where the difficulty lies in the intricacy of a
large number of local constraints and decision variables ;
-) problems where the solution is a complex entity that is built in several
steps because time is involved in the picture. This is the case for
planification problems in robotics or manufacturing ;
-) lastly, problems where information must be exploited in a dynamic
environment and reactivity is the key issue. Decision is then made in real
time by exploiting some feedback. This is the realm of control problems.
In each of the above three components of information engineering that we
have touched upon (clarifying, storing/retrieving and exploiting
information), we want to emphasize the importance of two aspects: the
representation of information and the communication of information
between man and machine. Knowledge representation has become a central
topic for basic research in Artificial Intelligence due to the necessity for a
communication language between man and computers. This communication
goes in both directions: information generated by the machine should be in
a form easily comprehensible by human beings while information provided
by human beings should be in a format exploitable by the computer. Logic
has become the natural framework for the formalization of reasoning
techniques. However classical logic is alone unable to face the major
challenge of accounting for the various forms of human reasoning,
necessary to clarify, retrieve and exploit information in an automated, yet
human-friendly way. Moreover a great amount of information comes in the
form of numerical data, as opposed to human knowledge. Data processing
methods and symbolic knowledge representation and reasoning tools must
thus be used conjointly, on the basis of their complementarity, and not be
opposed as exclusive approaches to information engineering. This
presupposes that the dogma of the monopoly of symbolic representations in
AI be given up, and that data-driven schools of information processing open
to logical approaches, in the scope of developing software systems that not
only efficiently solve problems but are capable of explaining the obtained
solutions to users.