La problématique scientifique du traitement de l`information
Transcription
La problématique scientifique du traitement de l`information
Information-Interaction-Intelligence, Volume 1, n° 2 La problématique scientifique du traitement de l’information Didier Dubois et Henri Prade Institut de Recherche en Informatique de Toulouse, I.R.I.T.- C.N.R.S. Université Paul Sabatier, 118 Route de Narbonne 31062 Toulouse Cedex 4, France. E-mail: {dubois, prade}@irit.fr Résumé. Le traitement intelligent de l'information en interaction avec des experts ou des utilisateurs pose des problèmes scientifiques originaux au-delà de l'informatique symbolique ou numérique classique. Les sciences du traitement de l'information, tout en bénéficiant de la puissance de calcul des machines informatiques, concernent la manipulation d'un "matériau" dont la spécificité et l'importance se sont affirmées depuis un demi-siècle : l'information. Cet article propose un panorama structuré des principaux paradigmes du traitement de l'information, des problèmes de formalisation qu'ils posent, des outils que leur solution requiert, et des questions liées à l'évaluation des traitements proposés. L'article est ainsi centré sur les questions théoriques à la base de la thématique, plutôt que sur les aspects technologiques ou les champs d’application concernés. Quatre grandes classes de problématiques sont mises en évidence : i) la mise en forme de l'information sous un format utile à l'utilisateur ou à son traitement ultérieur ; ii) la recherche et l'explicitation de l'information recherchée ; iii) l'exploitation de l'information en vue de l'évaluation de situations, de la résolution de problèmes et l’aide à la décision ; iv) l'interaction homme-machines et ses problèmes spécifiques. Les informations sont susceptibles d'être incomplètes, imprécises, incertaines, partiellement incohérentes. Leur traitement nécessite des outils qui relèvent notamment de la logique et de la théorie des probabilités, mais aussi d'autres modélisations de l'incertain plus qualitatives, ou facilitant l'interfaçage de données numériques avec les catégories utilisées par © Cépaduès-Edition 2001 l'humain. De plus, l’accent est mis sur l’étude et la mise en œuvre de représentations structurées de l'information. Un défi majeur est constitué par le besoin de développer des systèmes capables de traiter de grandes masses de données et de mettre les résultats du traitement sous des formes aisément compréhensibles pour l'utilisateur. Inversement les informations détenues par l'homme doivent pouvoir être représentées et exploitées facilement par l'ordinateur. Cet article voudrait contribuer à affirmer l'unité, l'ambition scientifique et les enjeux méthodologiques des sciences du traitement de l'information aujourd'hui. Il s'agit cependant d'un travail préliminaire, car les sciences du traitement de l'information se sont développées depuis cinquante ans de manière éclatée, motivées par des classes d'applications distinctes, et beaucoup d'efforts seront sans doute encore nécessaires pour en articuler une image pleinement structurée et féconde. Abstract. An extended abstract is provided at the end of the paper. 1 INTRODUCTION La science a pour ambition la compréhension du réel, c’est-à-dire des phénomènes observables, afin de pouvoir expliquer, prédire, mieux maîtriser ces phénomènes. On trouve ainsi commode de distinguer, à grands traits, selon la nature des phénomènes étudiés, les sciences de la matière, physiques ou chimiques, leurs applications aux sciences de l’univers et aux sciences de la terre, les sciences du vivant, biologiques ou médicales, les sciences de l’homme et de la société, ce qui n’exclut pas des interactions entre ces grands champs de la connaissance. Dans cette perspective, la place de l’informatique, discipline évidemment plus récente, fait l’objet de débats, certains voulant quelquefois la lier aux sciences physiques, tandis que d’autres insistent sur son rapport aux mathématiques. Ce qui tend quelquefois à lui nier une réelle spécificité scientifique, et ce d’autant plus que souvent seuls des aspects purement technologiques, à l'évidence spectaculaires, sont mis en avant. Certes, l’informatique en tant que science du calcul sur machines entretient des rapports privilégiés avec la physique d’une part, puisque le codage de l’information requiert un support matériel et qu’un processus mécanique, électronique, …, doit permettre de donner corps à la manipulation des “bits”, et peut-être demain de “q-bits” si la technologie rend possible la maîtrise des “états quantiques”. En dehors d'une orientation purement calcul, sous ses aspects algorithmiques, logiciels et matériels, le développement de l'informatique est étroitement lié à la possibilité d'échanger rapidement de grandes masses d'information à travers des réseaux, grâce notamment au développement conjoint des télécommunications. 1 1 En tant que science du calcul , ou de la computation (pour reprendre un autre mot, longtemps disparu du français et réintroduit via l’anglais), l’informatique s'intéresse à tout ce qui concerne la mise en œuvre de procédures de calcul, depuis l’algorithmique jusqu'aux langages de programmation, à l’architecture des calculateurs, et aux réseaux, sans oublier les problèmes de sécurité informatique. Ces calculs peuvent concerner des problèmes numériques, ou manipuler essentiellement des données “symboliques” (c.-à-d. non-numériques). Clairement les calculs informatisés peuvent s’appliquer à tous les domaines scientifiques et à toutes les sciences appliquées de l’ingénieur, depuis le calcul d’écoulements aérodynamiques, ou de structures soumises à des efforts mécaniques, jusqu'à la vérification formelle de circuits ou de logiciels par exemple. Le mot “informatique”, création originale en français, tout en signifiant essentiellement le domaine couvert par ce que l’anglais nomme “computer sciences” (sciences de l’ordinateur), est dérivé du mot “information” ; et de fait, l’âge de l’informatique est non seulement marqué par l’apparition de moyens de calculs toujours plus performants, mais aussi par un intérêt grandissant pour le traitement de l’information. Ici le mot “information” fait moins référence à son codage qu’à son contenu. Le présent article doit être compris comme un plaidoyer pour les sciences du traitement de l’information en tant que discipline scientifique originale, centrée sur un “matériau” particulier, l’information, et sur les opérations qui sont susceptibles de lui être appliquées afin de l’utiliser. Cet article, tout en s'en tenant aux grandes lignes du sujet, reprend et développe la matière d'un exposé effectué aux Assises Nationales du Groupement de Recherche 1 Étymologiquement, ces deux mots, issus respectivement du bas latin “calculare” et du latin “computare”, sont attachés à l’idée d’un codage matériel de l’information puisque “calculus” en latin classique est un caillou, un jeton, tandis que “computatio” a semble-t-il trait à quelque chose de déjà plus symbolique, puisque “computation” au XVième et XVIième siècles concernait spécifiquement un compte bien particulier, celui de l’évaluation du temps et de l’établissement du calendrier des fêtes mobiles (d’après A. Rey, Dictionnaire Historique de la Langue Française, Le Robert). "Information, Interaction, Intelligence" à Lyon en juin 1998 (Dubois et Prade, 1998). Historiquement, et si l’on excepte la statistique, les différentes disciplines qui participent du traitement de l’information se sont développées durant la même période que l’informatique, c’est-à-dire, grosso modo, pendant les 50 dernières années. Ce sont principalement la classification et la reconnaissance des formes, la cybernétique puis l’intelligence artificielle, les bases de données, la communication homme-machine, la recherche documentaire, mais aussi l’analyse de données, l’automatique et la théorie des systèmes dynamiques, la recherche opérationnelle, la théorie de l’information et le traitement du signal, dans des registres différents. L’apparition quasi-simultanée de ces diverses spécialités n’est pas fortuite, et va de pair avec les capacités de calcul toujours accrues des machines, chacune d’elles faisant écho à de nouveaux besoins industriels ou stratégiques. Pour ce qui est de la statistique, dont les premiers travaux remontent à la fin du XVIIIème siècle, elle est aujourd’hui rattachée aux mathématiques. Néanmoins, on peut aussi la considérer comme une partie du paysage brossé ici, dédiée à un type particulier d’information sous des hypothèses spécifiques. En témoignent les liens de plus en plus étroits existant entre statistique et apprentissage en Intelligence Artificielle, et l’essor des réseaux bayésiens pour le raisonnement dans l’incertain. À côté de ces disciplines, il existe aussi des thématiques de recherche transversales, centrées sur le type d'information considéré, comme le traitement d'images et la vision par ordinateur, ou comme le traitement du langage naturel, et la linguistique computationnelle. D’autres thématiques transversales comme la robotique peuvent conjuguer des problématiques relevant de plusieurs de ces disciplines tout en ayant leur spécificité propre. Comme l’informatique, toutes ces disciplines utilisent largement les mathématiques, avec souvent des besoins nouveaux, par exemple dans les mathématiques du discret, sans pour autant pouvoir être rangées dans les mathématiques (ni même dans ce que l’on appelle traditionnellement les mathématiques appliquées). En effet, on ne s’intéresse pas ici à l’étude de structures abstraites pour elles-mêmes, mais on les utilise (et au besoin on les conçoit) seulement dans la mesure où elles paraissent appropriées pour modéliser les problèmes de traitement de l’information considérés. Soulignons aussi que la problématique du traitement de l'information est en pleine évolution avec les quantités accrues d'informations à manipuler, à exploiter, à synthétiser, et le nombre croissant des usagers (et des usages) des systèmes de traitement de l'information, ce qui pose aussi des questions de sécurité, de prise en compte du contexte de l'usager, voire des questions d’éthique. L'article est organisé comme suit. On discute tout d'abord de différents types d'informations et de leurs imperfections possibles, puis on énumère les différentes opérations qu'on peut souhaiter faire sur de l'information, ainsi que les tâches d'un système d'information. Les problèmes en traitement de l'information sont regroupés ensuite en quatre grandes classes qui concernent respectivement, i) la mise en forme de l'information, ii) le stockage, la recherche et l'explicitation de l'information, iii) l'exploitation de l'information, et iv) la communication de l'information. Pour finir, on illustrera le besoin de nouveaux outils de formalisation pour la représentation et le traitement de l'information, et l’on posera la question de l'évaluation scientifique des travaux en sciences du traitement de l'information. 2 NATURE DE L'INFORMATION Le Larousse décrit le sens technique du mot 'information' comme un "élément de connaissance susceptible d'être codé pour être conservé, traité ou communiqué". On voit que l'information peut porter aussi bien sur des mondes "réels", que virtuels (comme les préférences d'un agent par exemple). Dans cet article, le mot 'information' est utilisé de manière générique ; il peut recouvrir aussi bien des 'connaissances' qui par nature s'appliquent à des classes d'objets, que des 'données' qui se rapportent à des cas, des faits, des objets particuliers. L'information se présente souvent sous des formes complexes, résultats d'enregistrements ou de synthèses, telles que tableaux de données, textes, images, documents audio, vidéos, multimédia, ... Encore ces termes recouvrent-ils des classes d'objets très variés. Il existe une grande diversité de formes, de langues parmi les textes, qui peuvent obéir à des contraintes et des objectifs très différents. Il en va de même des images. Qu'y a-t-il de commun par exemple, entre une radiographie, la photo d'un paysage, une image de synthèse telle qu'une affiche, ou encore un graphique, un schéma? L'information peut provenir de capteurs, de caméras, ou encore correspondre à des documents plus ou moins structurés. Les informations peuvent provenir de sources multiples (ayant des niveaux de fiabilité différents), être exprimées dans des formats hétérogènes. On peut considérer comme objectives celles qui proviennent de capteurs physiques. Néanmoins, en Intelligence Artificielle, on cherche également à traiter des informations fournies par l’homme, subjectives donc, et souvent linguistiques. Les outils développés doivent donc s’appliquer aussi bien à des informations symboliques que numériques. Par ailleurs, les informations peuvent être exploitées par un agent, ou collectivement par plusieurs agents. Types d'information élémentaire : Soit qu'elle soit extraite de formes plus complexes, ou qu'elle soit directement disponible, l'information peut aussi s'exprimer par des énoncés plus élémentaires concernant des propriétés ou des valeurs. Ces énoncés peuvent se rapporter à l'état du monde réel perçu, ou encore à l'expression de souhaits, d’obligations, etc. L'information peut s'appliquer à - une situation particulière, déterminée ; on parle alors de données, de faits ; ils indiquent une propriété, la valeur (numérique ou non) d'un paramètre, d'un attribut descriptif pour l'objet, la situation considérés (par exemple, "Pierre a 25 ans", "le ciel est nuageux") ; - une situation indéterminée dont on affirme l'existence ou à propos de laquelle on énonce une propriété (par exemple, "il existe des personnes de plus de 100 ans") ; - des situations particulières ; il peut s'agir de données statistiques, collections d'exemples, de cas répertoriés, de contre-exemples, de prototypes, ... ; - des classes de situations ; il s'agit alors de contraintes, de lois, de règles génériques, qui régissent le monde considéré. Ces règles peuvent être sans exception, ou au contraire en présenter. On parle alors souvent de connaissances. Imperfections de l'information : L'information disponible peut être imparfaite de bien des manières ; elle peut être : - ambiguë, si on ne sait pas de manière sûre à quoi elle se rapporte. - bruitée, si elle est soumise à une erreur aléatoire. - biaisée, si elle est sujette à une erreur systématique. - incomplète, s’il en manque une partie nécessaire pour caractériser correctement une situation. - imprécise, si son contenu ne correspond pas au standard de précision attendue ; elle peut aussi être graduelle (floue) si l'ensemble des valeurs auxquelles elle renvoie n'a pas de contour tranché. - incertaine, si on n'a qu'une confiance partielle dans la vérité de l'information. - incohérente (ou conflictuelle), si elle contredit une ou plusieurs autres informations. - redondante, si elle est disponible sous plusieurs formes. La redondance n'est cependant pas toujours un défaut quand elle peut contribuer à rendre l'information plus explicite. Par ailleurs, l'information peut souvent avoir un caractère évolutif, si elle peut être remise en cause, ou si elle porte sur un monde dynamique. 3 TACHES D'UN SYSTÈME D'INFORMATION Un système d'information est un système, de plus en plus souvent informatique, qui acquiert, reçoit de l'information, ou après traitement en restitue auprès d'agents humains ou artificiels, en référence à un "monde extérieur" auquel s'intéressent les agents. Ce monde extérieur peut être réel ou virtuel. Les agents peuvent éventuellement agir sur lui et le transformer ou seulement s'informer à son propos. Ces agents peuvent interférer avec un système d'information en tant qu'utilisateurs qui récupèrent de l'information, ou en tant qu'"experts" qui apportent de l'information. Les agents sont éventuellement susceptibles de modifier ou de reconfigurer ce système. Les tâches d'un système d'information, dans l'acception très générale qu'on vient d'essayer de délimiter, sont variées et ne sont pas toutes les mêmes d'un système à l'autre. Sans nécessairement prétendre à l'exhaustivité, les principales tâches d'un système d'information consistent à - stocker l'information sous une forme suffisamment accessible et compacte; - retrouver une information stockée, sur demande ; - rechercher des informations sur un sujet donné, en écartant l’information non-pertinente ; - répondre à des questions spécifiques sur des situations particulières ou génériques, ce qui requiert des capacités d'inférence ; - évaluer une situation, par rapport à une ou plusieurs échelles, par rapport à un ensemble de classes possibles ; - rendre l’information intelligible à l'usager ; pour ce faire, la structurer, la synthétiser, la résumer ; - expliquer une conclusion obtenue par le système d'information ; - extraire des informations significatives pour l'usager ; - acquérir de l'information sur le "monde extérieur", un usager, les usagers, par apprentissage ; s'adapter à un environnement évolutif ; - intégrer de nouvelles informations ; mettre à jour l'information ; - exploiter l'information pour proposer une décision, proposer une solution, planifier en prenant en compte des préférences, des buts, des objectifs ; - négocier, coopérer avec des agents. Ainsi, très schématiquement, on peut distinguer trois grandes familles de traitements qu'on peut souhaiter faire sur l'information (Dubois et al., 1996) : i) ceux ayant pour but de l'élaborer, de l’interpréter, c.-à.-d. de la mettre dans un certain cadre réprésentationnel afin de pouvoir la communiquer, soit à un usager, soit à un nouveau module de traitement ; cela peut nécessiter de structurer, de résumer, de fusionner l'information, de la présenter sous forme synthétique ou encore de la "banaliser" si on doit protéger l'anonymat de personnes auxquelles elle se réfère; - ii) ceux ayant pour fonction de la stocker, de la mettre à jour, de la retrouver, de la rechercher, de l'extraire, de l'expliciter, mais aussi de pouvoir produire de nouvelles conclusions à partir des informations disponibles, et de les expliquer ; ceci suppose de concevoir des interfaces satisfaisantes pour les usagers. Il convient également de sécuriser l'information et d'en réglementer l'accès ; - iii) enfin les traitements visant à exploiter l’information dans des environnements statiques ou dynamiques, en général dans une perspective de décision et d'action ; il est alors question de trouver des solutions, éventuellement optimales, à des problèmes exprimés sous forme de contraintes, d'évaluer des situations selon de multiples critères, de proposer des décisions en prenant en compte l'incertitude sur leurs résultats, de piloter automatiquement des systèmes dynamiques, de prédire le comportement de systèmes, d'évaluer leur fiabilité. A ces trois familles de traitements, s'ajoute une quatrième problématique, celle de la communication de l'information et de la prise en compte du contexte de l'usager. 4 QUATRE GRANDES CLASSES DE PROBLÉMATIQUES Les grandes classes de tâches qui viennent d'être dégagées pour le traitement de l'information (élaboration et production de l'information, stockage et recherche de l'information, exploitation de l'information, sans oublier la communication de l'information à son usager) posent un grand nombre de problèmes qu'on va essayer maintenant de passer en revue, même si c'est de manière succincte. 4.1. Mettre l'information sous une forme utile Il s'agit de passer d'informations ou de données jugées "brutes" à une représentation qui soit exploitable par une chaîne de traitement ultérieur, ou par un opérateur humain. Cela peut recouvrir des problématiques de préparation et d'amélioration de l'information, d'analyse ou de synthèse de toute forme d'information, ou plus simplement d'élicitation de l'information, d'acquisition d'informations ou de connaissances, dans des cadres plus ou moins structurés. Préparer, améliorer l'information peut signifier notamment la débruiter, l'épurer en la débarrassant de ses biais ou de ses redondances par exemple. Il peut encore s'agir de lisser des données, ou de les compléter par interpolation et approximation. La fusion d'informations provenant de différentes sources qui peuvent être hétérogènes ou partiellement incohérentes procède aussi d'un souci d'amélioration ou de présentation synthétique de l'information. La validation de bases de connaissances (vérification ou rétablissement de la cohérence, élimination de redondances,...) en offre un autre exemple. Analyser l'information est nécessaire pour l'interpréter, mettre en évidence des éléments utiles, utilisables ou intelligibles. Il s'agit par exemple du passage d'un texte en langue naturelle à une représentation formalisée dans un langage artificiel. Il est alors question de manière générale, d'extraction, d'identification d'éléments, de traits caractéristiques, de classification, ou encore d'indexation par mots clés. Plus généralement, des techniques d'annotations, peuvent permettre d'enrichir les descriptions de documents, ce qui facilitera la recherche des informations. Analyser l'information peut aussi correspondre à un problème de classification, de création de typologie. Les problématiques de découverte de connaissances ou de fouille de données cherchent à découvrir des règles génériques cachées susceptibles d'intéresser l'utilisateur, ou à identifier par regroupement des populations de données ciblées. La synthèse d'information consiste souvent à construire une description approchée, simplifiée, ou structurée de l'information disponible. Il s'agit de résumer l'information. On procède alors à un changement de niveau de granularité des représentations et/ou à une structuration de l'ensemble des données ou des informations. Ou encore, on doit sélectionner, ou déterminer, des paramètres pertinents en apprentissage, ou pour la description de grands systèmes. L'idée de synthèse de l'information peut aussi renvoyer à l'expression et à la mise en forme d'un contenu informationnel sous une forme requise (texte, image, parole, vidéo, ...). 4.2. Stocker, retrouver, expliciter l'information Tout d'abord, dans la mesure où on doit stocker ou transférer de larges volumes de données, des techniques de compression d'information peuvent s'avérer nécessaires. De plus, la nécessité de faire vivre le système d’informations conduit à en ajouter de nouvelles où à vouloir en retirer. La révision des informations contenues dans un répertoire est une problématique récente et importante. Il s’agit en effet d’éviter l’apparition de contradictions, tout en préservant le contenu de la base d’informations. En particulier, la révision des bases de connaissances déductives est un problème que les logiciens traditionnels n’avaient jamais étudié. Par ailleurs, les données stockées peuvent se rapporter à un monde évoluant dynamiquement, ce qui pose des problèmes spécifiques de mise à jour et de maintien de la cohérence. À la différence des problématiques examinées dans la section précédente, il n'y a en général pas de changement du niveau de représentation lors de la recherche d'information ou son explicitation par inférence à partir des informations stockées. L'interrogation de bases de données, de bases de connaissances, de bases documentaires, de bases textuelles (éventuellement multilingues), de bases d'images, etc. pose des problèmes de filtrage d'information, de langages d'interrogation, d'évaluation de requêtes et de leur optimisation. Notons que la recherche par le contenu et/ou la structure dans des bases de données multimédias, semi-structurées, ou multidimensionnelles, contenant de grandes quantités de données à structure complexe ou inconnue, des données hétérogènes, renouvelle la problématique traditionnelle à l'œuvre dans les Systèmes de Gestion de Bases de Données (on va bien au-delà des requêtes précises sur des données exactes). En particulier, un intérêt grandissant se fait jour pour permettre des requêtes flexibles susceptibles de refléter les préférences de l'utilisateur et d'être plus robustes au plan des réponses. En dehors de la simple recherche d’informations stockées dans une base, il est parfois nécessaire d’expliciter l'information en dotant le système de capacités d'inférence ou de calcul. Il peut s'agir de raisonner sur l'état du monde à propos duquel la base stocke des informations. L'information disponible peut être incomplète, voire incohérente, ce qui nécessite alors le recours à des figures de raisonnement qui vont au-delà de la déduction classique, et qui sont capables de produire des conclusions plausibles quand l’information est incomplète. C’est le cas dans des problèmes où des connaissances expertes sont appliquées à des situations particulières incomplètement décrites, à des fins de prédiction, de diagnostic par exemple. Dans ce type d'applications, il peut être important que les systèmes soient capables d'expliquer, de justifier leurs résultats à l'utilisateur. Par ailleurs, des capacités d'inférence peuvent être aussi utiles dans la mise en œuvre de politiques d'accès sélectif à l'information. 4.3. Exploiter l'information pour décider et agir Une classe importante de systèmes d'information (au sens générique employé dans cet article) est spécialisée dans la résolution de problèmes où l'information disponible délimite un espace de recherche (ou au moins aide un usager dans cette résolution). La recherche de solution(s) à des problèmes de satisfaction de contraintes (éventuellement flexibles), l'optimisation (multi-critère) sous contraintes sont au centre de cette problématique. La conception assistée par ordinateur, l'ordonnancement d'activités, la gestion de production, les problèmes de recherche de configuration, la création de documents multimédias, d'univers de réalité virtuelle en fournissent des exemples. Les questions d'aide à la décision ou de planification, prenant en compte la connaissance disponible, les préférences des agents, exprimées de manière quantitative ou qualitative (décision multi-critère et évaluation subjective de situations ou d'objets, décision dans l'incertain, décision de groupe et coopération multi-agents, ...), rentrent dans ce cadre. De plus, les environnements dynamiques peuvent poser des problèmes de réparation de solutions à l'arrivée d'informations entraînant une modification du contexte. Les problèmes de commande de systèmes dynamiques peuvent aussi être rattachés à ce cadre, puisqu'il s'agit du calcul en temps réel de lois de commande satisfaisant des objectifs, la commande étant dans ce cas directement appliquée à un processus physique ou chimique (en général avec peu, ou sans, interaction humaine avec le système). La spécificité de l’automatique est l’exploitation de l’information en boucle fermée, afin de modifier artificiellement les propriétés d’un système physique (stabilisation, par exemple). La supervision des procédés concerne les tâches de suivi et de surveillance, sur un plan essentiellement informationnel. Elle pose le problème général d'interfacer de manière cohérente les informations de bas niveau fournies par les capteurs au travers d’une modélisation fine du système supervisé, avec des descriptions de haut niveau ne procurant que l'information utile à l'opérateur. Notons enfin que les problématiques de résolution de problèmes ne se résument pas uniquement à des questions de satisfaction de contraintes ou d'optimisation, elles peuvent aussi mettre en jeu du raisonnement par analogie si un répertoire de problèmes déjà résolus est disponible. Des outils d'aide à la créativité, par exemple, peuvent s'appuyer sur les deux types de problématiques (exploiter des contraintes et raisonner par analogie). 4.4. Communiquer l'information Les informations manipulées ou produites dans les différentes tâches qu'on vient de passer en revue sont faites pour être communiquées, éventuellement dans des cadres interactifs. Les problèmes de communication homme-machine concernent aussi bien l’acquisition de connaissances fournies par l’homme au système d’informations que la restitution d’informations ou de décisions à un utilisateur. Outre des problèmes liés au type de communication utilisé (parole, texte en langue naturelles, etc.), des questions spécifiques à l'interaction, au dialogue entre agents se posent. Il s'agit de modéliser et de prendre en compte en permanence les savoirs, les croyances mutuelles, les intentions, les buts, les préférences des agents. La problématique du dialogue recouvre aussi la question de la construction d'arguments (cohérents) en faveur d'une conclusion, d'une thèse, ou de son contraire. La visualisation de l'information doit jouer aussi un grand rôle dans les processus interactifs pour fournir à l'agent humain une vue synthétique qu'il serait difficile de lui communiquer autrement de manière résumée. C'est déjà le cas dans les systèmes d'informations géographiques par exemple. La visualisation structurée d'ensembles de données est devenue une problématique importante. De plus les interfaces homme-machine soulèvent diverses questions d'ergonomie. 5 OUTILS DE FORMALISATION Le besoin d'appréhender et de manipuler de manière formelle cette nouvelle entité qu'est l'information dans ses différents aspects a nécessité le recours à certains outils de modélisation mathématique, ainsi qu'à des outils de simulation, conduisant quelquefois à de nouveaux usages de notions anciennes, voire au développement, souvent d'abord empirique, de nouveaux outils de formalisation. Une part importante des préoccupations est tournée vers le traitement symbolique, ou qualitatif, de l'information pour faciliter l'intelligibilité des manipulations. 5.1. Outils de représentation Ainsi, la formalisation des nouveaux problèmes suscités par les différentes facettes du traitement de l'information ont conduit au développement de nouveaux cadres de représentation, faisant appel notamment à la logique, aux mathématiques des structures discrètes (automates, langages formels introduits par l'informatique, algèbres exotiques où les opérations maximum ou minimum remplacent la somme ou le produit de l'algèbre linéaire, ...). De façon générale, de nombreuses classes d'opérateurs de combinaison tiennent une place importante dans le traitement de l'information et les processus d'évaluation (fusion d'informations incertaines, agrégation de préférences,...). Les modèles à base du calcul des relations, les représentations structurées par graphes (comme les arbres de classification, les réseaux de neurones formels en apprentissage, les réseaux sémantiques pour figurer les relations entre les mots ou les concepts, les réseaux de Pétri pour modéliser de manière discrète des processus séquentiels asynchrones, les réseaux bayésiens et leurs généralisations en traitement de l'incertitude non-probabiliste, ...) sont également très employées. Quand on aborde le traitement de l’information dans le cadre des représentations cognitives liées au langage naturel et des modes de raisonnements humains, les approches basées sur la logique classique, la théorie des probabilités, la géométrie euclidienne s’avèrent insuffisantes, car mal adaptées à la façon dont l’homme procède pour se représenter le réel qui l’entoure, et pour raisonner à son propos. Quand on le situe dans une perspective cognitive, le traitement des informations temporelles, spatiales, spatio-temporelles, du raisonnement sur l'action, de la représentation du mouvement pose des problèmes spécifiques et originaux de représentation (p-intervalles temporels, méréologies spatiales,...). Ils ont conduit au développement de logiques spécialisées, en particulier modales. D'autres logiques modales (épistémique, intentionnelle, déontique,...) permettent d'exprimer ce que les agents savent, croient, quelles sont leurs intentions, obligations, etc. Les différents types de contenus informationnels, les modalités qui peuvent être attachées à l'information, les imperfections de l'information posent un grand nombre de problèmes de représentation, au-delà de la représentation de données et de connaissances sous forme de tables, d'arbres, ou de fonctions, etc. A côté des probabilités et des statistiques, de nouveaux cadres de modélisation de l'incertitude sont apparus, telles les fonctions de croyance (qui entretiennent des relations avec les ensembles aléatoires), ou la théorie des fonctions de possibilité et de nécessité, qui, utilisant les opérations maximum et minimum, est plus qualitative. Les relations de conséquence non monotones proposent un traitement complètement qualitatif du raisonnement à partir de règles pouvant présenter des exceptions. Ces différents cadres de traitement de l'incertitude, utilisés en formalisation du raisonnement et de la décision, peuvent être transposés pour représenter des processus d'agrégation de préférences multi-critères, l'importance des critères jouant le rôle de l'incertitude. De façon générale, incertitude et préférence peuvent être représentées de manière absolue (en termes de degrés) ou, qualitativement de manière:relative (en termes de relations). Par ailleurs, l'existence de différents cadres représentationnels de l'incertitude, permettant notamment de distinguer entre les situations aléatoires et les situations d'ignorance, a conduit à proposer d'autres mesures d’information à côté de l'entropie. Les ensembles flous (qui modélisent des propriétés graduelles et des classes aux frontières non-tranchées, où l’on peut passer progressivement de l'appartenance à la non-appartenance) sont aptes à représenter des idées de similarité (comme dans le cas des règles floues utilisées en raisonnement interpolatif), des préférences (par exemple dans des contraintes flexibles), ou encore de l'incertitude (en relation avec la théorie des possibilités). Les ensembles flous offrent un outil pour interfacer des données numériques avec un nombre fini de catégories linguistiques tout en préservant une certaine continuité à leur frontière. Par ailleurs, l'utilisation des ensembles approximatifs ('rough sets') est motivée par les problèmes posés par les changements de granularité entre représentations de niveaux différents, et est pertinente en apprentissage notamment. Les questions de formalisation du sens en linguistique computationnelle, en intelligence artificielle, en recherche d'informations notamment ont, à côté d'approches statistiques, aussi suscité le développement de nombreux outils de représentation structurée, ayant ou non des capacités d'inférence, comme les thesaurus de mots clés, les 'frames' regroupant des assemblages d'objets associés à un contexte, les scripts décrivant des séquences d'événements, les réseaux sémantiques, les graphes conceptuels, les logiques terminologiques, les ontologies délimitant des univers conceptuels, ... Notons aussi que la représentation formalisée de contenus émotionnel ou esthétique commence à faire l'objet de travaux. 5.2. Outils de manipulation Les raisonnements, de sens commun, que l’homme effectue au quotidien sur l'information dont il dispose, s’accommodent d’informations incomplètes, incertaines, voire incohérentes. Ils lui permettent aussi de rapprocher des situations et de transposer des solutions, de tirer parti à la fois de faits généraux et d’exemples, ou encore d'appréhender de manière qualitative des informations de nature quantitative. De tels processus de raisonnement excèdent les capacités de représentation et d’inférence de la logique classique, développée à l'origine en relation avec la question des fondements des mathématiques, (et de la théorie des probabilités en ce qui concerne certains aspects de l'incertitude). C'est pourquoi diverses extensions ou affaiblissements du raisonnement déductif ont été formalisés en l’intelligence artificielle, que cela soit pour propager l’incertitude (probabiliste ou non) associée à des informations, ou pour pouvoir produire des conclusions plausibles, en cas d’information incomplète. Ces conclusions plausibles pouvant être révisées à l’arrivée d'une nouvelle information. De fait, les règles “ si … alors… ”, qui constituent un format commode pour exprimer des connaissances génériques, ne spécifient pas toujours explicitement toutes les exceptions des règles, qui sinon seraient trop lourdes et requerraient souvent plus d’informations qu’il n’en est de disponibles, pour être appliquées à des situations ou des contextes particuliers. La mise à jour en environnement dynamique pose des problèmes d'économie d'expression dans la représentation du changement pour ne pas avoir à expliciter tout ce qui ne change pas. Cela est relié à la formalisation de notions d'indépendance (et de dépendance), question qui se rencontre aussi dans d'autres problèmes comme en raisonnement avec des règles pouvant présenter des exceptions. Un autre dépassement de la déduction classique s’appuie sur l'idée de proximité (une conclusion, fausse à strictement parler, mais proche d’une autre conclusion, avérée quant à elle, sera considérée comme presque vraie), et permet alors d’obtenir davantage de conclusions par interpolation entre conclusions avérées. Ainsi le raisonnement ou la décision à partir de cas permet, en se référant à un répertoire de cas observés, d’extrapoler une conclusion plausible pour une situation rencontrée présentant des similarités avec ces cas connus. Le raisonnement qualitatif permet lui un raisonnement déductif sur des ordres de grandeur qui doit rester cohérent avec la description numérique d'un système statique ou dynamique. La formalisation de processus d'apprentissage a conduit au développement de nombreuses méthodes numériques ou symboliques : méthodes statistiques, apprentissage par renforcement, réseaux bayésiens, réseaux de neurones, programmation logique inductive (qui renverse le processus habituel de déduction), ... Le traitement de l'information nécessite non seulement des outils mathématico-logiques de représentation éventuellement nouveaux, mais aussi à l'évidence des outils algorithmiques efficaces d'autant plus que les quantités de données ou d'informations à traiter sont souvent très importantes. On dispose ainsi de méthodes universelles de recherche heuristique ordonnée, de la programmation dynamique, de métaheuristiques (recuit simulé, algorithmes génétiques, ...) pour résoudre différents problèmes d'optimisation. Les méthodes pour résoudre les problèmes de satisfaction de contraintes génériques ou spécialisées (contraintes temporelles ou spatiales par exemple) ont fait l'objet de nombreux développements. Par ailleurs, la popularité actuelle des réseaux bayésiens et des processus markoviens pour le traitement de l'incertain, a conduit à un important renouveau des préoccupations algorithmiques dans le domaine des probabilités et des statistiques. Il en est de même en ce qui concerne les méthodes automatiques de preuve en logiques classique ou non-classiques. 6 ÉVALUATION SCIENTIFIQUE Dans tout domaine scientifique, il importe de se préoccuper de l'évaluabilité scientifique des résultats obtenus. Cette question ne se pose cependant pas exactement pour les sciences du traitement de l'information comme en sciences physiques, en sciences de la vie ou en sciences humaines, où l'observation expérimentale de la réalité peut invalider un modèle théorique qui ne rendrait pas compte de cette réalité dans tous les aspects censés couverts par la théorie. Les sciences du traitement de l'information contribuent à la conception et à la réalisation de systèmes artificiels qui permettent à des usagers de se représenter, de comprendre, d'intervenir sur une certaine réalité, ou au moins les y aident. La question de l'évaluation scientifique se pose donc alors à la fois sous les angles de la rationalité formelle des théories élaborées, de l'expérimentation, de la validation empirique auprès d'experts ou d'usagers, sans oublier l'évaluation de la complexité calculatoire. Pour ce qui est de la rationalité, les outils algorithmiques développés devraient s’appuyer sur des modèles mathématico-logiques résultant de l'application d'approches formalisées en termes d'axiomes ou de postulats. Dans ce cas, il est possible de s'assurer d'une part de la cohérence formelle interne des approches, et éventuellement d'en évaluer la pertinence psychologique d'autre part. On peut par exemple tester dans des contextes donnés, si l'humain se comporte comme le prescrit telle théorie normative de la décision, ou du raisonnement plausible. De manière générale, le fait que les systèmes de traitement de l'information sont interfacés avec des usagers, ou des experts doit conduire à vérifier la plausibilité psychologique et plus largement cognitive des modèles de représentation et de manipulation des connaissances utilisés. Ces modèles sont souvent en partie inspirés d'observations sur la façon dont l'humain, voire le vivant, appréhende et manipule l'information. Les outils informatiques développés ne résultent pas toujours, en particulier dans un premier stade de conception, d'approches pleinement formalisées. On peut alors seulement envisager une validation empirique. Ainsi les performances d'un système expert de diagnostic peuvent être comparées aux diagnostics établis par des experts humains en face des mêmes informations, et aux diagnostics réels quand ils sont connus. Des idées d'amélioration d'algorithmes, par exemple, peuvent d'abord être testés expérimentalement, avant qu'on puisse vraiment comprendre dans quel contexte et pourquoi elles sont efficaces. Les protocoles expérimentaux doivent alors être statistiquement validés. Enfin les outils informatiques pour le traitement de l’information doivent également satisfaire à des exigences en termes de complexité algorithmique (temps de calcul, espace mémoire), voire de temps réel. Cette complexité peut être évaluée de manière théorique, ou expérimentale. 7 CONCLUSION Nul doute que les technologies de l'information contribuent actuellement à une révolution rapide et profonde dans les moyens d'accès à l'information, en particulier au plan du stockage, de la recherche, du transfert, et de l'affichage de l'information. À côté des problèmes de société et des questions éthiques soulevés par la diffusion large et multimédia de l'information, le traitement avancé de l'information pose aussi des problèmes scientifiques originaux qu'il est urgent de reconnaître en tant que tels. La science du traitement (informatique) de l'information est encore largement méconnue dans la communauté scientifique, et a fortiori dans le monde des dirigeants ou dans le grand public. Cet état de choses est à la fois dû au caractère relativement parcellaire et éclaté des recherches menées en sciences de l'information, et à une certaine prééminence des aspects purement technologiques dans les médias. C'est pourquoi un cadre conceptuel et méthodologique unifié apparaît aujourd'hui nécessaire. Le traitement avancé, intelligent et interactif, de l'information requiert des capacités d'au moins quatre ordres (en restant volontairement très schématique) : - La mise d'informations ou de données "brutes" sous une forme susceptible d'être ensuite plus facilement exploitée, ou communiquée à un utilisateur ; ce qui requiert des opérations de débruitage, de filtrage, de lissage, de structuration, d'approximation, d'extraction ou de résumé d'informations, ... - À un niveau de représentation donné, se posent les problèmes de stockage, d'indexation et de mise à jour de l'information. La récupération et l'exploitation de l'information nécessitent l'évaluation de requêtes de plus en plus complexes, et des capacités de raisonnements déductifs ou simplement plausibles, éventuellement aptes à pallier le caractère incertain et incomplet de l'information disponible. - L'information ne doit pas seulement être communiquée à l'utilisateur, il faut également l'aider à l'exploiter dans des perspectives d'optimisation, de prévision, de supervision, de décision, de plans d'actions, ou de coopération, notamment. - La communication de l'information doit de plus en plus prendre en compte les spécificités (savoirs, croyances, intentions, ...) de l'utilisateur, et aussi les problèmes posés par la communication partagée. Ces questions nécessitent pour les aborder des cadres de formalisation très variés, allant de la logique à des modèles numériques venant en particulier de l'analyse mathématique ou des statistiques. Les différents traitements nécessités par l'information numérique, comme par l'information plus qualitative, ont déjà suscité le développement de nombreux outils originaux propres à la problématique du traitement de l'information. Depuis cinquante ans, de nombreuses disciplines des sciences pour l'ingénieur, qui se sont développées en relation avec les nouveaux problèmes qui apparaissaient, se sont focalisées sur divers aspects du traitement de l'information : l'automatique, la recherche opérationnelle, l'analyse des données, la reconnaissance des formes, l'intelligence artificielle, les bases de données, la communication homme-machine, etc... Ces diverses disciplines s'intéressent au traitement du matériau "information" sous différents points de vue, et à différents niveaux, en parallèle avec l'essor de la science du calcul sur machine qu'est l'informatique. Il apparait donc opportun et utile de renforcer les synergies entre ces composantes des sciences du traitement de l'information. Il semble temps de reconnaître que les sciences de l'information définissent un champ spécifique, au même titre que les sciences de la matière, ou les sciences de la vie, ou les sciences de la société, avec lesquelles des coopérations pluridisciplinaires se développent, et avec lesquelles elles sont d'ailleurs en interaction au travers des sciences de la cognition et de la communication. Cela est nécessaire si on veut promouvoir un développement plus raisonné et plus unifié de la problématique du traitement de l'information. REMERCIEMENTS Cet article a bénéficié de la relecture et des commentaires de Mario Borillo, Anne Doucet, et Catherine Garbay. Qu'ils en soient ici remerciés de tout cœur. REFERENCES N.B. La bibliographie se trouve être succincte, car volontairement réduite à des articles et ouvrages récents envisageant le traitement de l'information dans son ensemble et non de manière spécialisée. Mario Borillo. Pensée et machine. Nouvelles hypothèses et nouvelles recherches sur la nature de l'esprit, au carrefour des sciences de la cognition et des sciences de la computation. In Les Idées Contemporaines, (A. Gérard, ed.), GREP Midi-Pyrénées, 45-63, 2000. Malik Ghallab. Enjeux et impact des STI. Ruptures technologiques pour le ème 21 siècle, Casablanca, Maroc, Février 1997. http://www.asti.asso.fr/ pages/presentation.html Didier Dubois, Henri Prade, Ronald R. Yager. Information Engineering and Fuzzy Logic, Proc. of the 5th IEEE International Conference on Fuzzy Systems, New Orleans, Louisiana, September 8-11, 1996, vol.3, 1525-1531. Didier Dubois, Henri Prade. Grands paradigmes du traitement intelligent et interactif de l’information, Actes des Assises Nationales du GDR-PRC I3, INSA de Lyon, 24-26 Juin 1998, 43-44. http://www.timc.imag.fr/I3 Jean-Gabriel Ganascia. Le Petit Trésor. Dictionnaire de l’Informatique et des Sciences de l’Information,, Flammarion, 1998. René Jacquart, (Ed.) N° spécial: Informatiques, enjeux, tendances et évolutions, Technique et Science Informatiques, Hermès Sciences, 19, 2000. Jacques Le Maitre, Jean Charlet, Catherine Garbay (eds.)Le Document Multimedia en Sciences du Traitement de l'Information. Cépaduès-Editions, 2000. Henri Prade, Robert Jeansoulin, Catherine Garbay (eds.) Le Temps, l'Espace et l'Evolutif en Sciences du Traitement de l'Information. Cépaduès-Editions, 2000. English synopsis: Beside its potentially enormous economical, industrial and social impact, information has become a matter of scientific investigation of its own, standing apart from other older established fields such as physics, mathematics, etc. This interest is in part strongly motivated by the confluence of computer and communication technologies which allow for the collection and storage of large amounts of information and its subsequent dissemination in a very efficient way. In several recent publications, we have tried to promote a unified view of information sciences and engineering that transcends boundaries existing between subfields that sometimes quarrel with one another, sometimes ignore one another, while having in common the purpose of processing some kind of information in some way. Moreover some newly emerged key-words such as Soft Computing, Computational Intelligence and the like are often misunderstood as to their actual potential and novelty. It is very important to organize research about information in order to achieve its recognition as a new scientific discipline with specific needs in terms of basic research, especially particular mathematical and logical tools, and a specific technology. The following definition of information has been proposed: any collection of symbols or signs, produced either by the observation of natural or artificial phenomena, or by the cognitive activity of human beings or robots, which can be used to understand the world around us, help in decision making or in mutual communication. The concept of information engineering is an attempt to bring together under one umbrella many scientific investigations which have developed along with the emergence of the computer technology and have to do with information. Informally, we can tentatively see information science and engineering as concerned with three main tasks: namely clarifying, storing/retrieving, and exploiting information. These three tasks are completed by a fourth one pertaining to man-machine interaction issues (maintenance of a model of the user, sharing of the information between several agents, ...). 1. Clarifying information By clarifying information we mean the process of elaborating raw data into more useful and comprehensible forms. This task ranges from enhancing information via smoothing or eliminating redundant or erroneous data, completing information via interpolation, to higher cognitive activities such as abstracting and modeling. Some clarification tasks can be performed at the level of a sensor itself. A particularly extensive family of clarification methods is the gamut of techniques used in computer vision, whose purposes are the reduction of uncertainty, the recognition of relevant patterns and the labelling of scenes. In addition many of the operations used in data fusion for synthesizing and combining pieces of data fall in the category of clarification methods, since more often than not, information is supplied by several, possibly conflicting sources and not in an homogeneous format. Clarification appears as a transformation process that turns raw data into more structured information, that is more understandable and useful. There is also an effort to go from information about particular cases (what is often called data) to more generic forms of information pertaining to a population of items (what is often called knowledge). In some cases, especially when abstracting is in order, it necessitates the use of linguistic labels to communicate the main features of the information. Alternatively, clarification may also come down to a kind of data compression by laying bare an underlying mathematical model. Clarified information then can be appropriately stored and be further exploited in reasoning and decision processes. Typical of clarification are techniques such as clustering, filtering, other data analysis methods such as regression, identification, inductive learning and more generally any method aimed at abstracting and structuring information. 2. Storing/Retrieving information Retrieving information means to extract, based on certain requirements and specifications, already existing, possibly hidden, pieces of information. This component of information engineering includes many of the methodologies used in databases, information retrieval and the new emerging field of multi-media. It is strongly dependent on the storage technology and the knowledge representation framework used. In its most elementary form, which we may call querying, the retrieval process does not involve a modification of existing information, as in the clarifying task. A large body of information is stored in some format and a query is entered. As a result of a query matching process a class of objects satisfying the query are provided. An important objective in the construction of these types of systems with respect to the querying task is the facilitation, for the user, of the expression of their goals regarding the information to be retrieved. This objective requires that rather sophisticated forms of queries be allowed. It is also worth noting that a basic distinction between the database and information retrieval technologies is related to the use in information retrieval of intermediary descriptions of the information in terms of keywords, whereas in databases information is described directly in terms of attributes values. The handling of multimedia databases requires the joint use of the two approaches. Some modes of storing information do not allow the retrieval process to be reduced to one of simply locating items in a file. For instance in deductive databases, information is encoded in a declarative way via some kind of logic-based language. The retrieval process requires that the information system be equipped with inferential power. In this environment retrieving information involves a reasoning task, whereby hidden information is made explicit for the user. Sometimes the information held for sure is too poor and one may wish to exhibit plausible information, possibly revised in a further step. It requires the use of some form of default inference. This type of concern is present in so-called intelligent information systems, which lie at the boundary between database research and artificial intelligence. 3. Exploiting information Exploiting information component encompasses a wide range of activities including decision-making, optimization, design, and control. Generally in such tasks, information plays a supportive role to some sort of paradigm or model. In order to make the best use of the knowledge embedded in the model, the ability to represent and manipulate different types of information becomes very important here. The development of technologies that allow us to combine numerical, logical, linguistic and visual information is an important part of the agenda of this aspect of information engineering. All pieces of information are used in the problem-solving task, whose solution is presented to the users in order to guide their course of action. Several prototypical situations can be distinguished: -) problems where the number of potential solutions is very small but the choice is made difficult due to many conflicting goals and/or the presence several of decision-makers. This is the realm of decision support systems for strategic decision-making ; -) problems where the computation of a solution is a highly combinatorial task but the local preference modeling is made very clear and simple. This is typically the case of optimization problems that occur in engineering design or large-scale systems where the difficulty lies in the intricacy of a large number of local constraints and decision variables ; -) problems where the solution is a complex entity that is built in several steps because time is involved in the picture. This is the case for planification problems in robotics or manufacturing ; -) lastly, problems where information must be exploited in a dynamic environment and reactivity is the key issue. Decision is then made in real time by exploiting some feedback. This is the realm of control problems. In each of the above three components of information engineering that we have touched upon (clarifying, storing/retrieving and exploiting information), we want to emphasize the importance of two aspects: the representation of information and the communication of information between man and machine. Knowledge representation has become a central topic for basic research in Artificial Intelligence due to the necessity for a communication language between man and computers. This communication goes in both directions: information generated by the machine should be in a form easily comprehensible by human beings while information provided by human beings should be in a format exploitable by the computer. Logic has become the natural framework for the formalization of reasoning techniques. However classical logic is alone unable to face the major challenge of accounting for the various forms of human reasoning, necessary to clarify, retrieve and exploit information in an automated, yet human-friendly way. Moreover a great amount of information comes in the form of numerical data, as opposed to human knowledge. Data processing methods and symbolic knowledge representation and reasoning tools must thus be used conjointly, on the basis of their complementarity, and not be opposed as exclusive approaches to information engineering. This presupposes that the dogma of the monopoly of symbolic representations in AI be given up, and that data-driven schools of information processing open to logical approaches, in the scope of developing software systems that not only efficiently solve problems but are capable of explaining the obtained solutions to users.