Generics and Defaults“.
Transcription
Generics and Defaults“.
Generics and Defaults“. ” Zum technischen Umgang mit Begriffssystemen, Standardannahmen und Ausnahmen Günther Görz In der Informatik ist heute bei einer Vielzahl von wissenschaftlichen und technischen Anwendungsgebieten die Rede von formalen Ontologien“, gerade auch dort, wo Dokumentation ei” ne wichtige Rolle spielt. In solchen formalen Ontologien sollen die Grundbegriffe jeweils eines Fachgebiets in eine systematische Ordnung gebracht und die erstellten Begriffsnetze in maschinell verarbeitbarer Form zugänglich gemacht werden. Dabei sollen sie weiter gehen als blosse Thesauri, die Fachtermini hierarchisch nach engerer und weiterer Denotation anordnen: In der Tat geht es um Begriffe und um logische Aussagen, die Relationen zwischen Begriffen festhalten, sowie um die Spezifikation logischer Regeln, so dass darüber Schlüsse gezogen werden können; dies ist auch klar durch die mit Standardisierungsfragen befassten Gremien wie das einflussreiche World Wide Web Consortium“ (W3C) dokumentiert [5]. Das World Wide Web, mittels Me” tadaten1 — die anhand formaler Ontologien und zugehöriger Software-Werkzeuge erzeugt wurden — zum Semantic Web“ veredelt, soll eine neue Qualitätsstufe bei der Suche nach Informa” tionen sowie deren Verknüpfung bringen: Computers will find the meaning of semantic data by ” following hyperlinks to definitions of key terms and rules for reasoning about them logically.“ ([5], S. 36) Nun mag man mit Christian Thiel [21] zu Recht fragen, um welchen Begriff des Begriffs“ es hier ” eigentlich geht. In subtiler Weise hat er den Weg von der traditionellen Logik über die Opposition gegen die Merkmalslogik“ im 19. Jahrhundert bis zur modernen Abstraktionstheorie nachge” zeichnet. Im Folgenden soll zunächst der Frage nachgegangen werden, welches Verständnis der Begriffsbildung bei den genannten Autoren und in der aktuellen Diskussion um formale Ontologien zu finden ist und inwiefern dieses im Rahmen der modernen Abstraktionstheorie rekonstruiert werden kann. Zumindest besteht begründeter Anlass zur Vermutung, dass in die Arbeit disziplinär heterogen zusammengesetzter Gremien unreflektierte Vorverständnisse eingehen — um nicht zu sagen: Es ist zu befürchten, dass es begrifflich drunter und drüber geht. Nach einem Blick auf die bei formalen Ontologien aktuell eingesetzten logischen Mittel soll dann noch auf das für die praktische Anwendung wichtige Problem der Behandlung von Standardannahmen und Ausnahmen ( generics and defaults“) eingegangen und ein praktikabler Lösungsvorschlag ” gemacht werden. 1 Formale Ontologien Wissensbasierte Systeme der Informatik, die in Anwendungsgebieten der Technik, der Naturwissenschaften, der Medizin, der Wirtschaft oder der Kulturwissenschaften für Aufgaben der Fehlerdiagnose, Konstruktion und Konfiguration, Planung, Logistik und Dokumentation eingesetzt werden, zeichnen sich dadurch aus, dass sie über eine besondere Komponente, die sog. 1 Unter Metadaten werden hier systematisch angelegte formale, i.d.R. merkmalslogische Beschreibungen von Objektdaten wie Texten, Bildern, etc. verstanden, die diesen direkt zugeordnet sind, z.B. als Datei- Header“. Es wird üblicher” weise nicht gefordert, dass alle Merkmalsausprägungen in einer formalen Sprache angegeben werden; zumeist ist man mit semi-formalen Beschreibungen zufrieden, die auch Textfelder enthalten, die dann nur partiell ausgewertet werden. 1 Wissensbasis verfügen, in der das begriffliche Repertoire und die grundlegenden Regeln, mit denen sie operieren, formal repräsentiert sind. Üblicherweise bedient man sich hierzu einer deklarativen logischen Programmiersprache, in der die formale Rekonstruktion dieses Repertoires ausgedrückt und implementiert wird. Erste Ansätze, hierfür eine eigene epistemische Abstraktionsebene einzuführen und damit die Erstellung solcher Wissensbasen zu systematisieren, wurden Anfang der 1980er Jahre entwickelt. Dabei lag es nahe, nicht nur bestimmte Fachterminologien, sondern auch mehrere Anwendungsgebiete übergreifende Begriffe und ihnen zugeordnete Gesetzmässigkeiten, wie etwa Individuen und Kollektive, zeitliche und räumliche Relationen, Teil-Ganzes-Beziehungen (Mereologie), aber auch mathematische Grundbegriffe, einzubeziehen. Damit war ein Anfang gemacht für ein neues Gebiet, das diese Art der begrifflichen Modellierung unter der Bezeichnung Formale Ontologien“ zusammenfasst und das sich in den letzten ” Jahren geradezu stürmisch entwickelt hat, wie an einer Vielzahl spezifischer Konferenzen und neu gegründeter Fachzeitschriften zu sehen ist. Insbesondere die erwähnte Konzeption des Se” mantic Web“ hat hierzu entscheidend beigetragen. 1.1 Ausdrucksmittel für formale Ontologien Was also sind, genauer betrachtet, formale Ontologien? Im Kern bestehen sie aus für die maschinelle Verarbeitung geeignet formalisierten Definitionen von Begriffen — fortan Konzepte“ ” genannt — und von Merkmalen (Relationen) — fortan auch Rollen“ —, die ausdrücken, wo” durch ein bestimmtes Anwendungsgebiet konstituiert ist. Sie implementieren damit die Anfänge der Theoriebildung, indem sie deren begriffliche Unterscheidungen in der Form einer Subsumtionshierarchie von Ober- und Unterkonzepten beschreiben, wobei diesen Beschreibungen durch die Rollen auch (Objekt-)Merkmale zugeordnet werden können. Der Terminus Ontologie wird hier also in einer sehr eingeschränkten Weise gebraucht. Sachverhalte werden durch Aussagen über Konzept-Instanzen, die individuelle Objekte des Gegenstandsbereichs mit ihren Merkmalsausprägungen beschreiben, formuliert. Aus der Anwendungsperspektive gesehen, definiert eine formale Ontologie also einen Standard, welche und in welcher Weise Objekte, Substanzen, Aggregate, Ereignisse, Prozesse, Handlungen, Orts- und Zeitangaben, etc. für Problemlösungen in einem bestimmten Gebiet beschrieben werden und damit zur Verarbeitung durch geeignete Inferenzmechanismen bereitgestellt werden können. Als sprachliches Inventar werden — innerhalb eines formal-logisch vorgegebenen Rahmens — zumindest die folgenden Ausdrucksformen benötigt: • Konzepte (auch: Klassen, Kategorien), die aus Prädikation und Abstraktion resultieren und die durch Prädikate repräsentiert werden; • Relationen zwischen Konzepten, die sich aus terminologischen Regeln (Prädikatorenregeln) ergeben, und die als Ober-/Unterkonzept-Hierarchie dargestellt werden; • Rollen (auch: Merkmale), die Konzepten zugeordnet und die durch (zweistellige) Relationen dargestellt werden; • Logische Verknüpfungen (mit Junktoren und Quantoren) für Konzepte und Rollen; • Weitere inhaltliche Beziehungen, die in der Form von Restriktionen und Regeln (auch: Axiomen“) formuliert werden. ” Auf weitere Details der Ausprägung des Modellierungsvokabulars“ wird im Zusammenhang ” mit Beschreibungslogiken noch eingegangen. Der Vollständigkeit halber sei erwähnt, dass im Lauf von 50 Jahren viele Wissensrepräsentationssprachen entwickelt wurden, deren jüngere zumindest aber zu irgend einem Logikkalkül äquivalent sind. Welche objektsprachlichen Ausdrucksmittel im Einzelfall bereitgestellt werden und was deren Semantik ist, muss auf der Metaebene festgelegt werden, die oft auch als Wissensmodell“ bezeichnet wird. ” Zwischen formalen Ontologien und Terminologiesystemen, hierarchischen Lexika und Thesauri bestehen viele Gemeinsamkeiten, jedoch bieten sie mehr als diese, deren primäres Ziel es ist, 2 den Gebrauch einer Terminologie festzulegen. Üblicherweise ist empirisches, enzyklopädisches Wissen nicht Gegenstand von Wörterbüchern, aber es ist ein entscheidender Bestandteil formaler Ontologien. An dieser Stelle sei an die eingangs gestellte Frage nach der Art der Begriffsbildung erinnert. Bei rechtem Gebrauch der genannten Mittel ist das Problem der traditionellen Begriffslogik gelöst, dass Merkmale Eigenschaften der Objekte anzeigen sollen, aber zugleich auch die Forderung besteht, dass Merkmale Teilbegriffe bezeichnen sollen (s. [21], S. 176ff.). Die Entscheidung fällt klar zugunsten der Objektebene. Zwar können die Merkmale (Rollen) bloß additiv nebeneinander gestellt werden, aber es ist gerade der Sinn dieser Ausdrucksmittel — Konzepthierarchie, Rollen, Restriktionen — Abhängigkeiten und Wechselwirkungen im Begriffssystem auszudrücken. Begriffe werden, durchaus im Sinne Freges (s. [21], S. 184f.) als einstellige Wahrheitsfunktionen dargestellt, und mit den logischen Verknüpfungen ist der Raum der möglichen Determinatio” nen“ von Begriffen erfasst. 1.2 Referenz- und Domänen-Ontologien Bei formalen Ontologien kann man mindestens zwei Arten unterscheiden: Referenz- und Domänen-Ontologien; letztere werden oft auch Anwendungsontologien genannt, weil sie auf ein bestimmtes Anwendungsgebiet (Domäne) fokussieren. Gegenstand der Referenzontologien ist die Basistheorie“, ein allgemeiner theoretischer Rahmen mit dem Anspruch nach universellem ” Konzeptinventar, das für viele Anwendungen in gleicher Weise als oberer Teil der Begriffshierarchie geeignet ist. In Referenzontologien werden die fundamentalen Unterscheidungen getroffen und spezifische Ausdrucksmittel für die Domänen- Modellierungen“ festgelegt. Hierzu gehören ” grundlegende Relationen wie Teil-Ganzes (Mereologie), Ähnlichkeit, Abhängigkeit, Verbindung, Inhärenz und zeitliche Ordnung. Anstelle einer einzigen Referenzontologie kann auch ein System von Modulen treten, das dann geeignet kombiniert wird — man denke etwa an die Darstellung der Zeit, wobei manche Anwendungen mit diskreten Zeitpunkten auskommen, andere Zeitintervalle benötigen, etc. Dennoch gibt es nicht die“ Referenzontologie. Zum einen werden durchaus unterschiedliche ” Ausdrucksmittel in den eingesetzten Repräsentationssprachen bereitgestellt, was nicht zuletzt auch mit Entscheidbarkeit und Komplexität zu tun hat (s.u.). Neben methodischen Fragen spielen aber auch Zweckorientierungen eine wichtige Rolle. Barry Smith [20] hat kritisiert, dass der Terminus Konzept“ nicht hinreichend präzise definiert sei und die Rolle von Konzepten in for” malen Ontologien von einander widersprechenden Interpretationen geprägt sei. Dem – zu Recht — angeprangerten Kognitivismus hat allerdings schon die Fregesche Abstraktionstheorie den Boden entzogen, und so erscheint der von ihm favorisierte Realismus als nichts anderes als szientistische Ideologie. Lässt man den metaphysischen Anspruch beiseite, so kann man die dort und in einer Reihe weiterer Veröffentlichungen vorgelegten terminologischen Unterscheidungen als Anfänge der Theoriebildung in Fachgebieten wie Geographie, Biologie, Medizin, etc. lesen, die zweifelsohne gründlich durchdacht, aber durchaus noch diskussionswürdig sind. Aus technischer Sicht wird mit Referenzontologien u.a. der Zweck der Interoperabilität verfolgt, d.h., sie sollen als Vermittler zwischen unterschiedlichen Domänenontologien dienen, vor allem in Fällen, in denen diese gemeinsame oder sich zu weiten Teilen überschneidende Gegenstandsbereiche haben. Das Dokumentationswesen bietet hierfür zahlreiche Beispiele — man denke nur an den zunächst einfach erscheinenden Fall bibliographischer Klassifikationsschemata, die auf den ersten Blick durchaus kompatibel erscheinen mögen, bei genauerem Hinsehen aber eine Reihe vertrackter Schwierigkeiten aufweisen. Welty und Jenkins [23] demonstrieren dies sehr anschaulich am Beispiel der themenbasierten Klassifikation in Bibliothekskatalogen. Eine Referenzontologie, die im Kontext der Dokumentation des Kulturerbes entwickelt wurde2 , sei hier besonders hervorgehoben, weil sie von einer dezidiert pragmatischen Perspektive ausgeht: Personen, Ereignisse und Handlungen stehen im Mittelpunkt. Es handelt sich um das vom Internationalen Komitee für die Dokumentation des International Council of Museums“ ” 2 Modelling concepts and relationships used in cultural heritage information“ ” 3 Abbildung 1: Wichtige Klassen (Entities) der CRM-Klassenhierarchie (ICOM-CIDOC) entwickelte objektorientierte Conceptual Reference Model“ (CRM)3 . Das CRM ” wurde inzwischen unter dem Titel Information and Documentation — A Reference Ontology ” for the Interchange of Cultural Heritage Information“ als ISO-Standard 21127 angemeldet. Es war zunächst entwickelt worden, um alle in der Museumsdokumentation relevanten Konzepte zu erfassen, insbesondere die für den museumsübergreifenden Datenaustausch einschlägigen; es ist aber inzwischen weit darüber hinaus gediehen (vgl. [10]). Die wichtigsten Klassen des CRM sind in Abb. 1 nach [12] wiedergegeben sowie einige wichtige Beziehungen zwischen Ereignissen (E5 Event)4 , Personen (E39 Actor), Gegenständen (E18 Physical Stuff), Zeiten (E52 Time-Span) und Orten (E53 Place) angedeutet. Eine zentrale Rolle beim Modellierungsansatz spielen die Merkmale (Properties), über denen die Klassen abstrahiert werden, sowie die Beziehungen (134 bei 81 Klassen) zwischen den Klassen5 . Da an dieser Stelle nicht weiter auf das CRM eingegangen werden kann, sei hervorgehoben, dass das CRM die den verschiedenen Datenbank-Schemata für vorhandene Dokumentation zugrunde liegende Semantik und die Struktur von Dokumenten thematisiert. Die Terminologie, die in den Daten verwendet wird, ist selbst nicht Gegenstand des CRM; es werden aber Schnittstellen zu standardisierten Terminologien wie Thesauri zu Personen- und Ortsnamen empfohlen. Die Konstruktion formaler Ontologien ist immer noch mehr eine heuristische Kunst als eine Wissenschaft, auch wenn z.B. für naturwissenschaftliche Anwendungsgebiete aus der Physik oder Biologie auf wissenschaftstheoretische Grundlagenarbeiten zurückgegriffen werden kann. Aus methodischer Sicht sind in jüngster Zeit einige Fortschritte zu verzeichnen; es wurden Verfahren zur systematischen Konstruktion von Konzeptsystemen anhand epistemischer Kriterien vorgeschlagen. An erster Stelle ist hier das OntoClean-Verfahren in Kombination mit der DOLCE Referenzontologie ( Descriptive Ontology for Linguistic and Cognitive Engineering“) von Guarino ” et al. [14, 13] zu nennen. Für bereits vorliegende formale Ontologien wird ein Remodellierungs3 siehe [8]; weitere detaillierte Informationen sind zu finden unter http://cidoc.ics.forth.gr/ (Dez. 2006). Eine sehr lesenswerte Übersicht mit Beispielen bietet [12], ebendort. 4 Für die Bezeichnung von Entities“ (und analog für Properties“) wurde in der Spezifikation des CRM die Konven” ” tion gewählt, zusammengesetzte Namen zu verwenden. Sie bestehen aus einem eindeutigen Bezeichner, der aus E (bzw. P) und einer laufenden Nummer besteht, und einem Begriffswort. 5 Die Abbildung zeigt auch ein Problem des CRM, das noch weiterer Diskussion bedarf: E55 Type ist das einzige MetaKonzept im CRM, das nicht an diese Stelle gehört. Nach Meinung des Autors ist es als Konzept des Wissensmodells“ ” auf der Meta-Ebene anzusiedeln. 4 Verfahren angegeben, da die Erfahrung zeigte, dass häufig Konstrukte wie Instantiierung, Generalisierung, Assoziation oder Aggregation nicht durchgängig strikt und systematisch ausgeführt wurden. Daher müssen in verschiedenen Ontologien getroffene Unterscheidungen zwischen Einzelbegriffen und Universalien, Klassen-Instanzen und Mengen-Elementen, Subsumtion und Instantiierung, aber auch Teil-Ganzes-Beziehungen, Objektidentität etc. zunächst kritisch untersucht und komptibel gemacht werden, bevor ein Zusammenschluss vorgenommen werden kann. Der hierfür erforderliche Aufwand ist aber nur zu rechtfertigen, wenn durch die Integration von Referenz- und Domänenontologien ein Mehrwert erreicht werden kann, der sich durch automatische logische Schlußfolgerungen wie Subsumtion und Klassifikation ergibt. 2 Beschreibungslogiken Um der Aufgabe der automatischen Inferenz näher zu kommen, müssen wir einen Blick auf die berechnungstechnischen Aspekte logischer Systeme werfen. Eine formale logische Sprache mit der durch ihre Syntax und Semantik gegebenen Ausdruckskraft vorausgesetzt, ist ein operationalisierbarer Inferenzmechanismus zu suchen. Dazu muss zuerst das Inferenzproblem formal spezifiziert und im Hinblick auf Entscheidbarkeit und Komplexität untersucht werden. Auf dieser Grundlage ist dann ein Problemlösungsalgorithmus, d.h. ein Verfahren zur Lösung des Inferenzproblems, zu entwickeln. Auf dieser Stufe sind die Fragen der Korrektheit und Vollständigkeit sowie der praktischen Komplexität — im Unterschied zur theoretischen worst case“–Komplexität ” — zu behandeln. Ohne Zweifel sollte eine ideale Computational Logic“ ausdrucksstark und ” das Inferenzproblem entscheidbar sein, und dazu sollten korrekte, vollständige und effiziente Inferenzalgorithmen zur Verfügung stehen. Aber, wie nicht anders zu erwarten, ist die Welt der angewandten Logik nicht ideal. Wie wir wissen, kann sogar die Entscheidbarkeitsfrage für die Standardlogik erster Stufe nicht positiv beantwortet werden. Daher werden für praktische Zwecke spezielle logik-basierte Repräsentationssprachen benötigt. Insbesondere wurde eine Familie von Teilsprachen der Logik erster Stufe unter der Bezeichnung Beschreibungslogiken“ ” entwickelt, wozu die ausdrucksstärksten entscheidbaren Logiken gehören, für die man gutarti” ge“ Inferenzalgorithmen in hochgradig optimierten Implementationen finden kann [1]. Bei der Entwicklung der Beschreibungslogiken lag ein besonderer Akzent auf sprachlichen Ausdrucksmitteln, die speziellen Anforderungen der Wissensrepräsentation in formalen Ontologien Rechnung tragen: Konzepte, angeordnet in Subsumtionshierarchen, Merkmale (Rollen) mit verschiedenen Arten von Restriktionen, und Individuenbeschreibungen (Instanzen). Die Repräsentation ist objektorientiert und erfolgt auf der Ebene der Prädikatoren; es gibt keine (expliziten) Variablen in Beschreibungslogiken. Zur Erstellung von strukturierten Objektbeschreibungen steht eine beschränkte Menge epistemologisch adäquater Sprachmittel bereit; damit können komplexe relationale Strukturen ausgedrückt werden. Besonders wichtig ist die Unterscheidung zwischen begrifflichem (terminologischem, daher: T-Box“) Wissen, also der intensionalen Ebe” ne, und Aussagen über Instanzen (assertional, daher: A-Box“), der extensionalen Ebene. Bei ” der Inferenz spielt automatische Klassifikation zur Berechnung des Subsumtionsverbands — in klassisch-logischer Redeweise: materiale Implikation“ — eine zentrale Rolle. ” Die Konstruktion einer Konzepthierarchie wird mit der Festlegung einer kleinen Menge primitiver, d.h. nicht weiter definierter, Konzepte und Rollen begonnen. Weitere Konzepte werden dann durch logisch zusammengesetzte Ausdrücke definiert, welche notwendige und hinreichende Bedingungen ausdrücken. Als Operatoren stehen zumindest Negation (Komplement), Konjunktion, Disjunktion (eigentlich: Adjunktion) sowie Wert- und Existenzrestriktionen für Rollen zur Verfügung. Die Semantik dieser Sprache, die ALC heisst, wird in klassischer Manier modelltheoretisch definiert: Jedem Ausdruck der Sprache wird ein mengentheoretischer Ausdruck zugeordnet, der seine Interpretation in einem Interpretationsbereich wiedergibt. Diese Vorgehensweise kann auch konstruktiv gerechtfertigt werden, wenn man durch Abstraktion eine prädikative Mengentheorie einführt — die an dieser Stelle vollständig ausreicht. Die folgende Tabelle gibt die Definition der Syntax und Semantik von ALC an. C und D stehen für Konzeptausdrücke, d.h. Konzeptnamen oder zusammengesetzte Ausdrücke. I ist die Interpretationsfunktion. 5 A R > ⊥ ¬C C uD C tD ∀R.C ∃R.C AI ⊆ ∆ R ⊆∆×∆ ∆ ∅ ∆ \ CI C I ∩ DI I I V CI ∪ D {x | y .R (x, y) → C I (y)} W {x | y .RI (x, y) ∧ C I (y)} I primitives Konzept primitive Rolle universelles Konzept (top) leeres Konzept (bottom) Negation (Komplement) Konjunktion Disjunktion All-Quantifikation (Werterestriktion) Existenz-Quantifikation (Existenzrestr.) Jede beschreibungslogische Wissensbasis besteht aus zwei Komponenten, der T-Box, d.h. der Definition einer Konzepthierarchie durch eine Menge von Konzeptausdrücken und der Relationen zwischen diesen, und einer A-Box, die der Beschreibung von Sachverhalten dient, die also eine gegebene Anwendungssituation durch Angabe aller beteiligter Instanzen mit ihren Merkmalsausprägungen beschreibt. Das folgende einfache Beispiel6 zeigt einen Ausschnitt aus einer Wissenbasis — Definition der verwendeten Konzepte und Rollen vorausgesetzt: • Terminologische Regeln (T-Box) . Student = Person u ∃NAME.String u∃ADDRESS.String u ∃ENROLLED.Course Student v ∃ENROLLED.Course ∃TEACHES.Course v ¬Undergrad t Professor • A-Box (Instanzen: C(a), R(a, b)) Student(john) ENROLLED(john, cs415) (Student t Professor)(paul) Mit dem (eckigen) Teilmengenzeichen v werden partielle Definitionen eingeführt, die die not. wendigen Bedingungen angeben. Das Gleichheitszeichen = führt vollständige Definitionen mit . notwendigen und hinreichenden Bedingungen ein: C = D gdw. C v D und D v C. Die Übersetzung der kompakten beschreibungslogischen Notation in eine standardlogische ist einfach: Konzepte sind einstellige Prädikate, Rollen zweistellige Relationen mit allquantifizierten Variablen, und für die speziellen Quantoren ∀ und ∃ kann die Angabe aus der Tabelle entnommen werden. In der dritten terminologischen Regel wird das anonyme Konzept für Lehrende eines Kurses partiell definiert. Es besteht keine Notwendigkeit, jedem Konzept einen Namen zu geben, aber für die weitere Verwendung könnte es durchaus sinnvoll sein, einen Konzeptnamen wie Teacher einzuführen. Damit entspräche diese Regel der Formel V x .Teacher(x) → ¬Undergrad(x) ∨ Professor(x). Die fundamentale Inferenzrelation in Beschreibungslogiksystemen ist die Konzepterfüllbarkeit, also der Nachweis, dass ein Konzeptausdruck ein Modell hat. Man kann zeigen, dass alle anderen Arten von Inferenzen auf die Konzepterfüllbarkeit zurückführbar sind: Subsumtion, Konsistenz (A-Box), Instanzenprüfung, Zugriff und Realisierung. Bei Beschreibungslogiken sind Tableaubeweiser der de facto–Standard für Beweisprozeduren geworden.7 Einen ausführlichen Überblick über Beschreibungslogiken gibt [2]. Aufbauend auf ALC wurde eine Vielzahl ausdrucksmächtigerer Beschreibungslogiken entwickelt und eingehend untersucht. Unter diesen ist SHIQ hervorzuheben, die zu ALC hinzufügt: • qualifizierte Anzahlrestriktionen, • General Inclusion Axioms“ (GCI), in denen auf beiden Seiten des Inklusionszeichens zu” sammengesetzte Konzeptausdrücke stehen, 6 nach Enrico Franconi. 7 Ein besonders leistungsfähiges Beschreibungslogiksystem, das mit OWL-DL arbeitet, ist Racer, s. http://www.sts.tu- harburg.de/r̃.f.moeller/racer/ (Dez. 2006) 6 • transitive und inverse Rollen, • Rollenhierarchien, und • Datentypen (sog. concrete domains“), wie z.B. Real-Zahlen. ” 3 Die Semantic Web Ontology Language OWL Die besondere Bedeutung der letztgenannten beschreibungslogischen Sprache liegt darin, dass sie die Basis für OWL-DL ist, einer Variante der (Semantic) Web Ontology Language“ OWL (s. ” [4]). Für OWL-DL müssen noch einfache Anzahlrestriktionen und sog. Nominale, Mengen mit einelementiger Extension, hinzukommen. Für das Semantic Web wurde eine Hierarchie von standardisierten Repräsentationssprachen basierend auf der Auszeichnungssprache XML8 entwickelt. Die unterste Schicht dieser Sprachfamilie ist gegeben durch XML, erweitert um Namensräume und Datentypen (XMLSchema). Die zweite Schicht besteht aus RDF ( Resource Description Framework“), einer Sprache, mit ” der assoziative Tripel formuliert werden können, die zweistellige Relationen (Subjekt–Prädikat– Objekt) ausdrücken. Diese Tripel können zu assoziativen Netzwerken zusammengesetzt werden, so dass man auf diese Weise gerichtete und markierte Graphen notieren kann. Als Sprachmittel zur Wissensrepräsentation bietet RDF instance-of, subclass, und Merkmale (properties mit Definitions- und Wertebereich) sowie Kardinalitätsrestriktionen. Diese Ebene wird erweitert durch RDFS (RDFSchema), wodurch elementare Sprachmittel zur Wissensrepräsentation bereitgestellt werden: Es ist nun möglich, Klassen und Unterklassen zu definieren, Rollen und Rollenhierarchien, aber es gibt keinerlei Festlegung auf eine Inferenzrelation. Die dritte, die logi” sche“ Schicht, behebt dieses Defizit und reichert die Sprache weiter zur Web Ontology Language OWL an. Eine von drei OWL-Varianten ist OWL-DL als direkte Erweiterung von RDFS(FA), einer Teilsprache von RDFS mit klassischer Semantik erster Stufe. OWL als eine zur internationalen Standardisierung vorgeschlagene Repräsentationssprache garantiert somit die Zukunft für eine sehr ausdrucksmächtige Beschreibungslogik. Aus logischer Perspektive ändert sich nur die Notation: Die in Beschreibungslogiken übliche kompakte Schreibweise wird durch eine von der XML-Basis erzwungene äusserst ausführliche Notation ersetzt, zu deren Beherrschung spezielle Editoren wie z.B. Protégé9 unverzichtbar sind. Zukünftige weitere Schichten der Semantic Web– Sprachfamilie sollen Erweiterungen wie Regeln und Standardannahmen ( Defaults“) beinhalten, ” die definitiv über Beschreibungslogiken hinausgehen — und dies auf jeden Fall um den Preis der Vollständigkeit, eventuell sogar der Entscheidbarkeit. In der Praxis spielt die Verwendung von Standardannahmen eine erhebliche Rolle; Schliessen mit unvollständigem Wissen ist gleichsam der Normalfall (sic!). 4 Generics and Defaults“ ” In der aktuellen Dokumentationspraxis ist man häufig mit dem Problem konfrontiert, dass man nicht nur Aussagen über konkrete Individuen treffen, sondern sich auf Beispiele in einem bestimmten Kontext beziehen möchte, die nicht vollständig und eindeutig charakterisiert sind. Solche Beispiele sollen zwar als repräsentativ gelten, sind nicht Repräsentanten einer trennscharf bestimmten (Äquivalenz-)Klasse, sondern werden verwendet als ein x von der Art Y“ im Sinne ” einer (noch) nicht genauer definierten Unterklasse von Y. Dies sei anhand eines Falls aus der 10 Dokumentation für ein naturhistorisches Museums erläutert : Es gehe um eine Art von Tieren, die als Frösche klassifiziert sind. Man möchte nun beschreiben, dass diese Art von Fröschen, von 8 Unter der nahezu unübersehbaren Literatur zu XML kann für eine kompakte Übersicht [19] empfohlen werden. (Dez. 2006) 10 Persönliche Mitteilung von Martin Doerr, FORTH, Heraklion. Zur Geschichte der Vergabe von Artbezeichnungen in der Botanik sei auf die informative Arbeit von Daston [9] verwiesen; an dieser Stelle kann nicht weiter darauf eingegangen werden. 9 http://protege.stanford.edu/ 7 denen ein exemplarisches Individuum vorliegt, üblicherweise in einer bestimmten Gegend lebt. Dieser Sachverhalt lässt sich nicht adäquat mit den Mitteln eines herkömmlichen relationalen Datenbanksystems ausdrücken; auch Beschreibungslogiken bieten hierfür keine direkte Lösung an. Im Rahmen des CRM hat Martin Doerr daher eine Erweiterung vorgeschlagen11 , die unter der Bezeichnung MetaCRM im Prinzip eine Dopplung der CRM vorsieht: Zu jeder Klasse X wird eine Meta-Klasse“ Type-of-X12 eingeführt, und zu jeder Property P eine Meta-Property“ ” ” usually-P. Damit kann man zwar das genannte Beispiel hinschreiben, es bleibt aber semantisch vollkommen unklar; zudem erscheint eine formale Ontologie, in der zwei Ebenen von im Prinzip gleicher Ausprägung vorhanden sind, kaum noch praktisch handhabbar. Was könnte aber eine gangbare und auch maschinell verarbeitbare Lösung für Fälle sein, in denen es nicht nur um strikte Aussagen über Individuen wie Frosch-1713 frisst Fliege-42“ geht, sondern auch um — ” von Doerr kategorienüberschreitend ( cross-categorial“) genannte — Aussagen wie Frosch-17 ” ” frisst Fliegen“ oder gar kategorische wie Frösche fressen Fliegen“? Wie steht es mit Normale ” ” Frösche fressen Fliegen“ oder Frösche fressen üblicherweise Fliegen“ und wie sind diese Aus” sagen aufeinander zu beziehen? In der Tat haben wir hier ein Problem vor uns, das, soweit es Normalfälle und Ausnahmen betrifft, einer Behandlung auf der Meta-Ebene bedarf. In der theoretischen Informatik wird der Umgang mit Standardannahmen ( Defaults“) und Aus” nahmen als charakteristischer Fall nicht-monotonen Schliessens behandelt14 . Schliessen mit unvollständigem Wissen in seiner allgemeinsten Form, wozu weiterhin auch verschiedene Arten der Revision, sei es auf der Ebene einzelner Aussagen oder ganzer Theorien, sowie das Eintragen und Zurücknehmen von Aussagen in (deduktiven) Datenbanken gehören, passt nicht in den Rahmen der monotonen Standardlogik. In dynamischen Szenarien müssen Wissenbasen revidiert werden, wenn eine der folgenden Situationen eintritt: • aus der Beobachtung neu gewonnene Informationen — z.B. über die Veränderung der Eigenschaften eines Objekts — sind aufzunehmen; • während einer Problemlösung getroffene Annahmen werden verletzt; • ein offensichtlicher Widerspruch zum Inhalt der Wissensbasis tritt auf; etc. So lange neue Aussagen in die Wissensbasis aufgenommen werden, die nicht zu deren Inhalt im Widerspruch stehen, können mit ihnen auch neue Folgerungen gezogen werden. Handelt es sich aber um Aussagen, die zu Widersprüchen führen und daher die Konsistenz der Wissensbasis verletzen, muss zunächst die Ursache des Konflikts identifiziert werden. Davon abhängig ist über geeignete Massnahmen der Konfliktbehebung zu entscheiden: War z.B. aufgrund unvollständigen Wissens eine allgemeine Regel im Spiel, die nun durch einen Ausnahmefall verletzt wurde? Müssen konfliktverursachende Aussagen zurückgenommen werden, so ist die Revision auch auf alle Folgerungen auszudehnen, bei denen sie beteiligt waren. Wenden wir uns nun wieder dem spezielleren Problem der Standardannahmen und Ausnahmen im Kontext der generischen und universellen Prädikationen zu. Generisch sollen solche Konzepte bzw. Merkmalsausprägungen und -beziehungen ausgedrückt werden, die im Allgemeinen gelten, aber auch Ausnahmen zulassen. Hierunter fallen gerade Prädikationen der Form Kind-ofX. In der einschlägigen Literatur werden unterschiedliche Verwendungssituationen für Standardannahmen genannt, u.a. • Generelle Aussagen der Form – unter normalen Umständen: P s sind Qs (Frösche leben an Teichen); – prototypisch: Das prototypische P ist Q (Frösche sind grün); 11 http://cidoc.ics.forth.gr/working editions cidoc.html (Dez. 2006), Rubrik Working draft of the CIDOC MetaCRM“ ” der Terminus Typ in der Informatik bereits anders festgelegt ist, sollte man hier besser von Kind-of-X sprechen. 13 Frosch-17 sei die eindeutige Kennzeichnung eines Individuums 14 Eine umfassende Übersicht über nicht-montones Schliessen bieten [7, 6]. 12 Da 8 – statistisch: Die meisten P s sind Qs. • Mangel an Wissen über das Gegenteil – Vertrautheit: Wenn P kein Q wäre, wüsste ich es; – von Gruppen getroffene Annahmen: Alle bekannten P s sind als Qs bekannt; • konventioneller Sprachgebrauch – konversationell: ein P ist ein Q, solange ich nicht etwas anderes sage; – repräsentational: ein P ist ein Q, solange nicht das Gegenteil angezeigt ist (Geschwindigkeitsbeschränkung in Ortschaften). • Persistenz – Trägheit: ein P ist ein Q, so lange es nicht verändert wird (Position von Gegenständen); – Zeit: ein P ist ein Q, wenn es schon immer ein Q war (Farbe, Grösse von Gegenständen). Vergleicht man generische und explizit quantifizierte Aussagen genauer, so zeigt sich, dass die ersteren als intensional zu charakterisieren sind; explizite Aussagen über Regelmässigkeiten, die mit Wörtern wie meist“, typisch“ oder normal“ gebildet werden, sind hingegen extensional ” ” ” zu interpretieren. Wir behaupten, dass es aber gerade explizite Aussagen dieser Art sind, die bei der Dokumentation in Gebieten wie der Naturgeschichte oder dem Kulturerbe eine zentrale Rolle spielen. Trifft diese These zu, so kann daraus eine praktikable technische Lösung für das Inferenzproblem mit solchen Aussagen abgeleitet werden, die am Ende dieses Beitrags vorgestellt wird. Dem Thema Generics and Defaults“ haben Pelletier und Asher einen umfassenden Hand” buchartikel gewidmet [16]. Da die beiden Autoren an einer möglichst allgemeinen Lösung interessiert sind, vergleichen sie zunächst drei verschiedene in der Literatur anzutreffende Ansätze zur Behandlung des Problems der generischen Aussagen: • Generische Aussagen sind streng genommen falsch, sollen aber durch die Angabe von Ausnahmen akzeptabel sein. • Generische Aussagen sind weder wahr noch falsch, sondern als spezielle Inferenzregeln zu behandeln. In diesem Fall entfällt aber die Möglichkeit, generische Aussagen ineinander einzubetten — es bleibt aber offen, ob diese Eigenschaft praktisch ins Gewicht fällt. • Generische Aussagen haben gemäss der modelltheoretischen Position, die die Autoren favorisieren, einen Wahrheitswert. Allerdings gibt es keinen Quantor, der in gleicher Weise für alle Arten generischer Aussagen geeignet ist. Weiterhin besteht die Frage, wie viele Ausnahmen für eine generische Aussage tolerierbar sind. Um dem dritten Ansatz, der Doktrin der modelltheoretischen Semantik zu genügen, wird zur Formulierung generischer Aussagen ein Operator GEN vorgeschlagen, für dessen Einsatz aber drei Voraussetzungen zu klären seien: Zuerst sind die Wahrheitsbedingungen aufzustellen, dann ist die Generizität zu erklären durch Angabe von Gesetzen, um den Unterschied zu quantifizierten extensionalen Aussagen herauszustellen und zuletzt ist anzugeben, wie mit GEN-Aussagen zu schliessen ist. Aussagen mit dem GEN-Operator bestehen aus drei Teilen: der Angabe der betroffenen Variablen, eines Restriktors und der Kernaussage. Die generische, also intensional gemeinte Aussage Frösche leben in Westafrika“ hätte damit die Form ” W GEN[x](x sind Frösche; y [y ist Westafrika ∧x lebt-in y]) Als Kandidaten für die Interpretation des GEN-Operators identifizieren Pelletier und Asher in der Literatur die folgenden: 9 • (eingeschränkte ) Allquantifikation über relevante Objekte. • Singuläre Prädikation mittels abstrakter Objekte15 . • Prototypen: Individuen, die als prototypische Vertreter gelten. • Stereotypen: Angabe von Extension und stereotypen Eigenchaften. • Modale Konditionalsätze (mögliche Welten). • Situationssemantik [3] mit Situations-Constraints. • Ansätze zum Default-Schliessen. Da keiner dieser Ansätze den Anforderungen an den GEN-Operator voll genügt, unterbreiten die Autoren einen neuen axiomatisch formulierten Vorschlag, wonach der GEN-Operator als konditionaler Operator über Aussagen zu interpretieren sei. Inwiefern diese Axiomatisierung samt der ausgearbeiteten modelltheoretischen Semantik, die zwar alle gestellten Anforderungen erfüllt, aber effektiv und damit prinzipiell implementierbar ist, bleibt offen. Möglicherweise ist nicht einmal Entscheidbarkeit gegeben. Selbst wenn diese Zweifel ausgeräumt würden, ist doch festzuhalten, dass der Vorschlag sehr kompliziert ist und daher eine praktische Umsetzung mit automatischen Beweisern enorm aufwendig und daher sehr ineffizient wäre. Um uns einer praktikablen Lösung des durch Standardannahmen und Ausnahmebehandlung gegebenen Nichtmonotonie-Problems zu nähern, kommen wir auf die obige These zurück. Wir gehen davon aus, dass die extensionale Sichtweise — explizit (vage) quantifizierte Aussagen — im Rahmen formaler Ontologien wie dem CRM die relevante ist. An deren Wahrheitsdefinitheit festzuhalten, besteht zunächst kein Anlass. Daher werden wir im folgenden eine Variante des Default Reasoning“ betrachten. Zugunsten des Default Reasoning“ argumentiert auch Veltman ” ” [22], der darauf hinweist, dass die Signifikanz solcher Aussagen in ihrer dynamischen Bedeutung bestehe, d.h., dass sie update conditions“ für Informationszustände ausdrücken. Statt eine neue ” Logik zu postulieren, soll versucht werden, unser spezielles Nichtmonotonie-Problem auf der Meta-Ebene zu lösen, allerdings nicht in der von Doerr vorgeschlagenen Weise, sondern durch Default-Regeln. Diese Auffassung vertritt auch Poole, der in [17] explizit die These formuliert und dann ausarbeitet: If one allows hypothetical reasoning, then there is no need to define a ” new logic to handle nonmonotonic reasoning“. Nichtmonotonie ist demnach kein Problem der Logik, sondern wie die Logik verwendet wird. 5 Liefert die Default-Logik“ eine praktikable Lösung? ” Default-Schliessen ist folgendermassen charakterisiert: Ist P (.) im allgemeinen ein Q(.) und P (a) ist wahr, dann ist es sinnvoll, auf Q(a) zu schliessen, so lange es keinen Grund gibt, der dem entgegensteht. Generische Aussagen wie Vögel fliegen“ werden dann extensional interpretiert ” als Normalerweise fliegen alle Vögel“ oder, wie auch vorgeschlagen wurde, Alle normalen ” ” Vögel fliegen“ 16 . Unter mehreren Möglichkeiten, das Default-Schliessen zu formalisieren, sei hier die sog. DefaultLogik von Reiter [18]17 gewählt. Reiter führt spezielle Default-Regeln ein; die Wissensbasis stellt eine Default-Theorie dar und besteht aus zwei Teilen: einer Menge von Aussagen in klassischer Logik erster Stufe und einer Menge von Default-Regeln, die Bedingungen für Annahmen angeben. Das Inferenzsystem verfügt über eine Möglichkeit, explizit zu spezifizieren, welche Aussagen zur Wisssenbasis konsistenzerhaltend hinzugefügt werden können. Mit den Default-Regeln 15 hier wird eine realistische Auffassung von abstrakten Objekten vertreten; die Fregesche Abstraktionstheorie kann wohl nicht gemeint sein. 16 Die Option, die Aussage stattdessen als eine Aussage über typisches Verhalten (normalerweise-fliegen) zu verstehen, erscheint weniger angemessen — sofern es überhaupt sinnvoll ist, sollte in diesem Fall die formale Ontologie hierfür ein eigenes Konzept bereitstellen. 17 s.a. [7, 6] 10 wird der Schritt auf die Meta-Ebene vollzogen, jedoch erlaubt das Reitersche System nicht, Schlüsse über die Defaults selbst auszuführen. Das folgende Lehrbuchbeispiel soll (den einfachsten Fall von) Default-Regeln verdeutlichen: Wenn x ein Vogel ist und konsistent angenommen werden kann, dass x fliegt, dann ist es wahr, dass x fliegt, in Reiterscher Notation bird(x) : f ly(x) f ly(x) Für generische Aussagen in extensionaler Interpretation benötigen wir somit einen Operator wie GEN, der auf der Meta-Ebene durch Default-Schlussregeln implementiert wird. Die Umsetzung von der Operator-Schreibweise in Default-Regeln muss dabei nicht von Hand erfolgen – sonst wäre der Schreibaufwand nicht wesentlich geringer als bei dem Doerrschen Vorschlag —, sondern letztere können automatisch durch Makro-Expansion der GEN-Aussagen generiert werden. Für die Implementierung sind nach dem gegenwärtigen Stand zwei Möglichkeiten in Betracht zu ziehen: Unter der Bezeichnung Description Logic Programming“ (DLP) wird an einer Kom” bination von Beschreibungslogiken mit Regeln der Logik-Programmierung im Stil von P ROLOG gearbeitet; die Durchschnittsbildung der beiden Programmiersprachen ist allerdings wegen semantischer Differenzen nicht einfach18 . Die zweite Möglichkeit besteht darin, eine Variante der Logik-Programmierung, das sog. Answer Set Programming“ (ASP)19 als Vorverarbeitungsstu” fe in Verbindung mit einem Beschreibungslogiksystem einzusetzen20 . ASP ist eine konstruktive, deklarative Variante der Logikprogrammierung, die im Unterschied zu P ROLOG über die klassische Negation verfügt. ASP-Systeme sind einfache und effiziente Modellgenerierungssysteme, die auf einer anderen Semantik als der von P ROLOG beruhen21 . Die Integration eines Beschreibungslogiksystems mit einem ASP-System als Vorverarbeitungsmodul würde dann erlauben, eine in OWL-DL vorliegende formale Ontologie mit aus GENAussagen generierten Default-Schlussregeln zu Inferenzen auf A-Boxen kombinieren. Es ist wichtig, festzuhalten, dass die Default-Regeln nur auf A-Boxen, nicht auf die formale Ontologie selbst angewandt werden sollen. Die Zusammenarbeit der beiden Systeme kann an dieser Stelle nur skizziert werden: Seien eine A-Box, die eine Menge von Objekt-Instanzen enthält, und eine Menge von Default-Regeln gegeben. Dann müssen zunächst aus den Default-Regeln diejenigen ausgewählt werden, die in der aktuellen A-Box überhaupt anwendbar sind, und diese dann instantiiert werden, wobei hier auch von Inferenzen des Beschreibungslogiksystems Gebrauch gemacht werden kann, typischerweise zur Subsumtion. Die Auswertung des Regelsystems durch den ASP-Modellgenerierer kann dann zur Erzeugung neuer Instanzenbeschreibungen für die ABox führen — ASP ist somit eine neue Form der Intanzengenerierung. Dies sei abschliessend illustriert, indem wir das Beispiel mit der Defaultregel über das Fliegen der Vögel wieder aufnehmen. In der Schreibweise der Logikprogrammierung wird die obige Defaultregel so notiert22 : fly(X) :- bird(X), not -fly(X). Wir fügen die Regeln hinzu, dass Pinguine nicht fliegen können und dass sie Vögel sind: -fly(X) :- penguin(x). bird(X) :- penguin(X). 18 In P ROLOG gilt die Closed World Assumption“, die postuliert, dass alles, was wahr ist, entweder in der Wissensbasis ” steht oder durch Regelanwendung abgeleitet werden kann (s. [7]). Dies gilt nicht für Beschreibungslogiken, die explizit die Option unbekannt“ zulassen. Dies ist aber nur ein Teilaspekt der Integrationsproblematik; exemplarisch sei hier auf ” [15] hingewiesen. 19 Da an dieser Stelle nicht auf Details eingegangen werden kann, sei auf [6], Kap. 7.4 und die dortigen Literaturangaben verwiesen. 20 Eine detaillierte Ausarbeitung dieses Ansatzes erfolgt u.a. in dem Wiener dlv-Projekt, s. [11]. 21 Stabile Modelle“, s. [6], Kap. 7.4. Es gibt mehrere Implementationen von ASP-Systemen wie smodelsA , dlv, oder ” cmodels. Für das folgende Beispiel wurde cmodels von Yuliya Lierler benutzt, der an dieser Stelle herzlich für ihre Unterstützung gedankt sei. Zu cmodels siehe http://www.cs.utexas.edu/users/tag/cmodels/ (Dez. 2006). 22 Der Pfeil, notiert durch :-, zeigt nach links, daher steht die Konklusion am Anfang. Variablen sind allquantifiziert; Variablennamen beginnen mit einem Grossbuchstaben, Konstanten werden klein geschrieben. not bezeichnet die aus P ROLOG bekannte Negation mit der Negation as Failure“-Semantik, - bezeichnet die klassische Negation. ” 11 Finden wir in der A-Box die Aussage, dass Tweety ein Vogel ist, bird(tweety). so liefert cmodels23 zusammen mit den Regeln wie erwartet die Antwortmenge {fly(tweety), bird(tweety)}. Enthält die A-Box stattdessen die Aussage, dass Tweety ein Pinguin ist, penguin(tweety). so wird der Default-Mechanismus wirksam und die Antwortmenge ist nun {penguin(tweety), bird(tweety), -fly(tweety)}. Mit diesem sehr einfachen Beispiel sollte lediglich demonstriert werden, dass der aufgezeigte Lösungsweg gangbar ist. Bis zu einer umfassenden Verarbeitung generischer Aussagen in extensionaler Lesart und der Behandlung von Ausnahmen liegt noch ein Stück Weges vor uns, der sicherlich etliche technische Hürden bieten wird. Literatur [1] Baader, F.; Calvanese, D.; McGuiness, D.; Nardi, D.; Patel-Schneider, P. (Hrsgb.): The Description Logic Handbook — Theory, Implementations and Applications, Cambridge University Press, Cambridge, 2003. [2] Baader, F.; Hoorocks, I.; Sattler, U.: Description Logics as Ontology Languages for the Semantic Web, in Hutter, D.; Stephan, W. (Hrsgb.): Mechanizing Mathematical Reasoning: Essays in Honor of Joerg H. Siekmann on the Occasion of his 60th Birthday, Bd. 2605 von Lecture Notes in Artificial Intelligence, Springer, Berlin and Heidelberg, 2005, S. 228–248. [3] Barwise, J.; Perry, J. (Hrsgb.): Situations and Attitudes, Bradford Books, The MIT Press, Cambridge, Mass., 1983. [4] Bechhofer, S. e.: OWL Web Ontology Language Reference, W3C, 2004, W3C Recommendation 10 February 2004. [5] Berners-Lee, T.; Hendler, J.; Lassila, O.: The Semantic Web, Scientific American, May 2001, S. 35–43. [6] Brewka, G.: Nichtmonotones Schließen, in Görz, G.; Rollinger, C.-R.; Schneeberger, J. (Hrsgb.): Handbuch der Künstlichen Intelligenz, Kap. 7, Oldenbourg Verlag, München, 4. Ausg., 2003, S. 236–266. [7] Brewka, G.; Dix, J.; Konolige, K.: Nonmonotonic Reasoning. An Overwiew, Bd. 73 von CSLI Lecture Notes, CSLI Publications, Stanford, CA., 1997. [8] Crofts, N.; Doerr, M.; Gill, T.; Stephen, S.; Stiff, M.: Definition of the CIDOC Conceptual Reference Model. Version 4.2, The International Committee for Documentation of the International Council of Museums (ICOM-CIDOC), Paris, June 2005. [9] Daston, L.: Type Specimens and Scientific Memory, Critical Inquiry, Bd. 31, Autumn 2004, S. 153–182. [10] Doerr, M.: The CIDOC CRM — An Ontological Approach to Semantic Interoperability of Metadata, AI Magazine, Bd. 24, Nr. 3, 2003. [11] Eiter, T.; Lukasiewicz, T.; Schindlauer, R.; Tompits, H.: Combining Answer Set Programming with Description Logics for the Semantic Web, INFSYS Research Report 1843-03-13, Institut für Informationssysteme, Technische Universität Wien, Wien, December 2003. [12] Ermert, A. e.: Das CIDOC Conceptual Reference Model: Eine Hilfe für den Datenaustausch?, Deutscher Museumsbund, Fachgruppe Dokumentation, Arbeitsgruppe Datenaustausch, Berlin, Oktober 2004. [13] Gangemi, A.; et al., : Sweetening Ontologies with DOLCE, in Gomez-Perez, A. et al. (Hrsgb.): Knowledge Engineering and Knowledge Management. Ontologies and the Semantic Web, 13th International Conference, EKAW 2002, Siguenza, Spain, October 1–4, 2002, Springer, Berlin and Heidelberg, 2002, S. 166–181. [14] Guarino, N.; Welty, C.: An Overview of OntoClean, Kap. 8, Springer, Berlin and Heidelberg, 2004, S. 151–159. 23 Das Beispiel wurde mit identischen Ergebnissen auch mit dlv ausgeführt. 12 [15] Motik, B.; Horrocks, I.; Rosati, R.; Sattler, U.: Can OWL and Logic Programming Live Together Happily Ever After?, in Gomez-Perez, A. et al. (Hrsgb.): The Semantic Web — ISWC 2006. 5th International Semantic Web Conference, Athens, GA, USA, November 5–9, 2006. Proceedings, Bd. 4273 von Lecture Notes in Computer Science, Springer, Berlin and Heidelberg, 2006, S. 501–514. [16] Pelletier, F. J.; Asher, N.: Generics and Defaults, in van Benthem, J.; ter Meulen, A. (Hrsgb.): Handbook of Logic and Language, Kap. 20, Elsevier Science B.V., Amsterdam, 1997, S. 1125–1177. [17] Poole, D.: A Logical Framework for Default Reasoning, Artificial Intelligence Journal, Bd. 36, 1988, S. 27–47. [18] Reiter, R.: A Logic for Default Reasoning, Artificial Intelligence Journal, Bd. 13, 1980, S. 81–132. [19] Rottach, T.; Gross, S.: XML kompakt: Die wichtigsten Standards, Spektrum Akademischer Verlag, Heidelberg and Berlin, 2002. [20] Smith, B.: Beyond Concepts: Ontology as Reality Representation, in Formal Ontology and Information Systems. Proceedings of the Third International Conference (FOIS 2004), IOS Press, Amsterdam, 2004, S. 73–84. [21] Thiel, C.: Der klassische und der moderne Begriff des Begriffs. Gedanken zur Geschichte der Begriffsbildung in den exakten Wissenschaften, in Bock, H.; Lenski, L.; Richter, M. (Hrsgb.): Information Systems and Data Analysis. Proceedings of the 17th Annual Conference of the Gesellschaft für Klassifikation e.V., University of Kaiserslautern, March 3–5, 1993, Gesellschaft für Klassifikation e.V., Springer (LNCS 671), Berlin, September 1993, S. 175–190. [22] Veltman, F.: Defaults in Update Semantics, Journal of Philosophical Logic, Bd. 25, 1996, S. 221–261. [23] Welty, C.; Jenkins, J.: Formal Ontology for Subject, Data and Knowledge Engineering, Bd. 31, 1999, S. 155– 181. 13