Generics and Defaults“.

Transcription

Generics and Defaults“.
Generics and Defaults“.
”
Zum technischen Umgang mit Begriffssystemen,
Standardannahmen und Ausnahmen
Günther Görz
In der Informatik ist heute bei einer Vielzahl von wissenschaftlichen und technischen Anwendungsgebieten die Rede von formalen Ontologien“, gerade auch dort, wo Dokumentation ei”
ne wichtige Rolle spielt. In solchen formalen Ontologien sollen die Grundbegriffe jeweils eines
Fachgebiets in eine systematische Ordnung gebracht und die erstellten Begriffsnetze in maschinell verarbeitbarer Form zugänglich gemacht werden. Dabei sollen sie weiter gehen als blosse
Thesauri, die Fachtermini hierarchisch nach engerer und weiterer Denotation anordnen: In der
Tat geht es um Begriffe und um logische Aussagen, die Relationen zwischen Begriffen festhalten,
sowie um die Spezifikation logischer Regeln, so dass darüber Schlüsse gezogen werden können;
dies ist auch klar durch die mit Standardisierungsfragen befassten Gremien wie das einflussreiche World Wide Web Consortium“ (W3C) dokumentiert [5]. Das World Wide Web, mittels Me”
tadaten1 — die anhand formaler Ontologien und zugehöriger Software-Werkzeuge erzeugt wurden — zum Semantic Web“ veredelt, soll eine neue Qualitätsstufe bei der Suche nach Informa”
tionen sowie deren Verknüpfung bringen: Computers will find the meaning of semantic data by
”
following hyperlinks to definitions of key terms and rules for reasoning about them logically.“
([5], S. 36)
Nun mag man mit Christian Thiel [21] zu Recht fragen, um welchen Begriff des Begriffs“ es hier
”
eigentlich geht. In subtiler Weise hat er den Weg von der traditionellen Logik über die Opposition
gegen die Merkmalslogik“ im 19. Jahrhundert bis zur modernen Abstraktionstheorie nachge”
zeichnet. Im Folgenden soll zunächst der Frage nachgegangen werden, welches Verständnis der
Begriffsbildung bei den genannten Autoren und in der aktuellen Diskussion um formale Ontologien zu finden ist und inwiefern dieses im Rahmen der modernen Abstraktionstheorie rekonstruiert werden kann. Zumindest besteht begründeter Anlass zur Vermutung, dass in die Arbeit
disziplinär heterogen zusammengesetzter Gremien unreflektierte Vorverständnisse eingehen —
um nicht zu sagen: Es ist zu befürchten, dass es begrifflich drunter und drüber geht. Nach einem
Blick auf die bei formalen Ontologien aktuell eingesetzten logischen Mittel soll dann noch auf
das für die praktische Anwendung wichtige Problem der Behandlung von Standardannahmen
und Ausnahmen ( generics and defaults“) eingegangen und ein praktikabler Lösungsvorschlag
”
gemacht werden.
1
Formale Ontologien
Wissensbasierte Systeme der Informatik, die in Anwendungsgebieten der Technik, der Naturwissenschaften, der Medizin, der Wirtschaft oder der Kulturwissenschaften für Aufgaben der
Fehlerdiagnose, Konstruktion und Konfiguration, Planung, Logistik und Dokumentation eingesetzt werden, zeichnen sich dadurch aus, dass sie über eine besondere Komponente, die sog.
1 Unter
Metadaten werden hier systematisch angelegte formale, i.d.R. merkmalslogische Beschreibungen von Objektdaten wie Texten, Bildern, etc. verstanden, die diesen direkt zugeordnet sind, z.B. als Datei- Header“. Es wird üblicher”
weise nicht gefordert, dass alle Merkmalsausprägungen in einer formalen Sprache angegeben werden; zumeist ist man
mit semi-formalen Beschreibungen zufrieden, die auch Textfelder enthalten, die dann nur partiell ausgewertet werden.
1
Wissensbasis verfügen, in der das begriffliche Repertoire und die grundlegenden Regeln, mit
denen sie operieren, formal repräsentiert sind. Üblicherweise bedient man sich hierzu einer deklarativen logischen Programmiersprache, in der die formale Rekonstruktion dieses Repertoires
ausgedrückt und implementiert wird. Erste Ansätze, hierfür eine eigene epistemische Abstraktionsebene einzuführen und damit die Erstellung solcher Wissensbasen zu systematisieren, wurden Anfang der 1980er Jahre entwickelt. Dabei lag es nahe, nicht nur bestimmte Fachterminologien, sondern auch mehrere Anwendungsgebiete übergreifende Begriffe und ihnen zugeordnete
Gesetzmässigkeiten, wie etwa Individuen und Kollektive, zeitliche und räumliche Relationen,
Teil-Ganzes-Beziehungen (Mereologie), aber auch mathematische Grundbegriffe, einzubeziehen.
Damit war ein Anfang gemacht für ein neues Gebiet, das diese Art der begrifflichen Modellierung unter der Bezeichnung Formale Ontologien“ zusammenfasst und das sich in den letzten
”
Jahren geradezu stürmisch entwickelt hat, wie an einer Vielzahl spezifischer Konferenzen und
neu gegründeter Fachzeitschriften zu sehen ist. Insbesondere die erwähnte Konzeption des Se”
mantic Web“ hat hierzu entscheidend beigetragen.
1.1
Ausdrucksmittel für formale Ontologien
Was also sind, genauer betrachtet, formale Ontologien? Im Kern bestehen sie aus für die maschinelle Verarbeitung geeignet formalisierten Definitionen von Begriffen — fortan Konzepte“
”
genannt — und von Merkmalen (Relationen) — fortan auch Rollen“ —, die ausdrücken, wo”
durch ein bestimmtes Anwendungsgebiet konstituiert ist. Sie implementieren damit die Anfänge
der Theoriebildung, indem sie deren begriffliche Unterscheidungen in der Form einer Subsumtionshierarchie von Ober- und Unterkonzepten beschreiben, wobei diesen Beschreibungen durch
die Rollen auch (Objekt-)Merkmale zugeordnet werden können. Der Terminus Ontologie wird
hier also in einer sehr eingeschränkten Weise gebraucht. Sachverhalte werden durch Aussagen
über Konzept-Instanzen, die individuelle Objekte des Gegenstandsbereichs mit ihren Merkmalsausprägungen beschreiben, formuliert. Aus der Anwendungsperspektive gesehen, definiert eine
formale Ontologie also einen Standard, welche und in welcher Weise Objekte, Substanzen, Aggregate, Ereignisse, Prozesse, Handlungen, Orts- und Zeitangaben, etc. für Problemlösungen in
einem bestimmten Gebiet beschrieben werden und damit zur Verarbeitung durch geeignete Inferenzmechanismen bereitgestellt werden können.
Als sprachliches Inventar werden — innerhalb eines formal-logisch vorgegebenen Rahmens —
zumindest die folgenden Ausdrucksformen benötigt:
• Konzepte (auch: Klassen, Kategorien), die aus Prädikation und Abstraktion resultieren und
die durch Prädikate repräsentiert werden;
• Relationen zwischen Konzepten, die sich aus terminologischen Regeln (Prädikatorenregeln) ergeben, und die als Ober-/Unterkonzept-Hierarchie dargestellt werden;
• Rollen (auch: Merkmale), die Konzepten zugeordnet und die durch (zweistellige) Relationen dargestellt werden;
• Logische Verknüpfungen (mit Junktoren und Quantoren) für Konzepte und Rollen;
• Weitere inhaltliche Beziehungen, die in der Form von Restriktionen und Regeln (auch:
Axiomen“) formuliert werden.
”
Auf weitere Details der Ausprägung des Modellierungsvokabulars“ wird im Zusammenhang
”
mit Beschreibungslogiken noch eingegangen. Der Vollständigkeit halber sei erwähnt, dass im
Lauf von 50 Jahren viele Wissensrepräsentationssprachen entwickelt wurden, deren jüngere zumindest aber zu irgend einem Logikkalkül äquivalent sind. Welche objektsprachlichen Ausdrucksmittel im Einzelfall bereitgestellt werden und was deren Semantik ist, muss auf der Metaebene festgelegt werden, die oft auch als Wissensmodell“ bezeichnet wird.
”
Zwischen formalen Ontologien und Terminologiesystemen, hierarchischen Lexika und Thesauri
bestehen viele Gemeinsamkeiten, jedoch bieten sie mehr als diese, deren primäres Ziel es ist,
2
den Gebrauch einer Terminologie festzulegen. Üblicherweise ist empirisches, enzyklopädisches
Wissen nicht Gegenstand von Wörterbüchern, aber es ist ein entscheidender Bestandteil formaler
Ontologien.
An dieser Stelle sei an die eingangs gestellte Frage nach der Art der Begriffsbildung erinnert. Bei
rechtem Gebrauch der genannten Mittel ist das Problem der traditionellen Begriffslogik gelöst,
dass Merkmale Eigenschaften der Objekte anzeigen sollen, aber zugleich auch die Forderung besteht, dass Merkmale Teilbegriffe bezeichnen sollen (s. [21], S. 176ff.). Die Entscheidung fällt klar
zugunsten der Objektebene. Zwar können die Merkmale (Rollen) bloß additiv nebeneinander
gestellt werden, aber es ist gerade der Sinn dieser Ausdrucksmittel — Konzepthierarchie, Rollen, Restriktionen — Abhängigkeiten und Wechselwirkungen im Begriffssystem auszudrücken.
Begriffe werden, durchaus im Sinne Freges (s. [21], S. 184f.) als einstellige Wahrheitsfunktionen
dargestellt, und mit den logischen Verknüpfungen ist der Raum der möglichen Determinatio”
nen“ von Begriffen erfasst.
1.2
Referenz- und Domänen-Ontologien
Bei formalen Ontologien kann man mindestens zwei Arten unterscheiden: Referenz- und
Domänen-Ontologien; letztere werden oft auch Anwendungsontologien genannt, weil sie auf ein
bestimmtes Anwendungsgebiet (Domäne) fokussieren. Gegenstand der Referenzontologien ist
die Basistheorie“, ein allgemeiner theoretischer Rahmen mit dem Anspruch nach universellem
”
Konzeptinventar, das für viele Anwendungen in gleicher Weise als oberer Teil der Begriffshierarchie geeignet ist. In Referenzontologien werden die fundamentalen Unterscheidungen getroffen
und spezifische Ausdrucksmittel für die Domänen- Modellierungen“ festgelegt. Hierzu gehören
”
grundlegende Relationen wie Teil-Ganzes (Mereologie), Ähnlichkeit, Abhängigkeit, Verbindung,
Inhärenz und zeitliche Ordnung. Anstelle einer einzigen Referenzontologie kann auch ein System von Modulen treten, das dann geeignet kombiniert wird — man denke etwa an die Darstellung der Zeit, wobei manche Anwendungen mit diskreten Zeitpunkten auskommen, andere
Zeitintervalle benötigen, etc.
Dennoch gibt es nicht die“ Referenzontologie. Zum einen werden durchaus unterschiedliche
”
Ausdrucksmittel in den eingesetzten Repräsentationssprachen bereitgestellt, was nicht zuletzt
auch mit Entscheidbarkeit und Komplexität zu tun hat (s.u.). Neben methodischen Fragen spielen aber auch Zweckorientierungen eine wichtige Rolle. Barry Smith [20] hat kritisiert, dass der
Terminus Konzept“ nicht hinreichend präzise definiert sei und die Rolle von Konzepten in for”
malen Ontologien von einander widersprechenden Interpretationen geprägt sei. Dem – zu Recht
— angeprangerten Kognitivismus hat allerdings schon die Fregesche Abstraktionstheorie den
Boden entzogen, und so erscheint der von ihm favorisierte Realismus als nichts anderes als szientistische Ideologie. Lässt man den metaphysischen Anspruch beiseite, so kann man die dort
und in einer Reihe weiterer Veröffentlichungen vorgelegten terminologischen Unterscheidungen
als Anfänge der Theoriebildung in Fachgebieten wie Geographie, Biologie, Medizin, etc. lesen,
die zweifelsohne gründlich durchdacht, aber durchaus noch diskussionswürdig sind.
Aus technischer Sicht wird mit Referenzontologien u.a. der Zweck der Interoperabilität verfolgt,
d.h., sie sollen als Vermittler zwischen unterschiedlichen Domänenontologien dienen, vor allem
in Fällen, in denen diese gemeinsame oder sich zu weiten Teilen überschneidende Gegenstandsbereiche haben. Das Dokumentationswesen bietet hierfür zahlreiche Beispiele — man denke nur
an den zunächst einfach erscheinenden Fall bibliographischer Klassifikationsschemata, die auf
den ersten Blick durchaus kompatibel erscheinen mögen, bei genauerem Hinsehen aber eine
Reihe vertrackter Schwierigkeiten aufweisen. Welty und Jenkins [23] demonstrieren dies sehr
anschaulich am Beispiel der themenbasierten Klassifikation in Bibliothekskatalogen.
Eine Referenzontologie, die im Kontext der Dokumentation des Kulturerbes entwickelt wurde2 , sei hier besonders hervorgehoben, weil sie von einer dezidiert pragmatischen Perspektive
ausgeht: Personen, Ereignisse und Handlungen stehen im Mittelpunkt. Es handelt sich um das
vom Internationalen Komitee für die Dokumentation des International Council of Museums“
”
2
Modelling concepts and relationships used in cultural heritage information“
”
3
Abbildung 1: Wichtige Klassen (Entities) der CRM-Klassenhierarchie
(ICOM-CIDOC) entwickelte objektorientierte Conceptual Reference Model“ (CRM)3 . Das CRM
”
wurde inzwischen unter dem Titel Information and Documentation — A Reference Ontology
”
for the Interchange of Cultural Heritage Information“ als ISO-Standard 21127 angemeldet. Es war
zunächst entwickelt worden, um alle in der Museumsdokumentation relevanten Konzepte zu erfassen, insbesondere die für den museumsübergreifenden Datenaustausch einschlägigen; es ist
aber inzwischen weit darüber hinaus gediehen (vgl. [10]). Die wichtigsten Klassen des CRM sind
in Abb. 1 nach [12] wiedergegeben sowie einige wichtige Beziehungen zwischen Ereignissen (E5
Event)4 , Personen (E39 Actor), Gegenständen (E18 Physical Stuff), Zeiten (E52 Time-Span) und
Orten (E53 Place) angedeutet. Eine zentrale Rolle beim Modellierungsansatz spielen die Merkmale (Properties), über denen die Klassen abstrahiert werden, sowie die Beziehungen (134 bei
81 Klassen) zwischen den Klassen5 . Da an dieser Stelle nicht weiter auf das CRM eingegangen
werden kann, sei hervorgehoben, dass das CRM die den verschiedenen Datenbank-Schemata
für vorhandene Dokumentation zugrunde liegende Semantik und die Struktur von Dokumenten thematisiert. Die Terminologie, die in den Daten verwendet wird, ist selbst nicht Gegenstand des CRM; es werden aber Schnittstellen zu standardisierten Terminologien wie Thesauri
zu Personen- und Ortsnamen empfohlen.
Die Konstruktion formaler Ontologien ist immer noch mehr eine heuristische Kunst als eine Wissenschaft, auch wenn z.B. für naturwissenschaftliche Anwendungsgebiete aus der Physik oder
Biologie auf wissenschaftstheoretische Grundlagenarbeiten zurückgegriffen werden kann. Aus
methodischer Sicht sind in jüngster Zeit einige Fortschritte zu verzeichnen; es wurden Verfahren
zur systematischen Konstruktion von Konzeptsystemen anhand epistemischer Kriterien vorgeschlagen. An erster Stelle ist hier das OntoClean-Verfahren in Kombination mit der DOLCE Referenzontologie ( Descriptive Ontology for Linguistic and Cognitive Engineering“) von Guarino
”
et al. [14, 13] zu nennen. Für bereits vorliegende formale Ontologien wird ein Remodellierungs3 siehe [8]; weitere detaillierte Informationen sind zu finden unter http://cidoc.ics.forth.gr/ (Dez. 2006). Eine sehr
lesenswerte Übersicht mit Beispielen bietet [12], ebendort.
4 Für die Bezeichnung von Entities“ (und analog für Properties“) wurde in der Spezifikation des CRM die Konven”
”
tion gewählt, zusammengesetzte Namen zu verwenden. Sie bestehen aus einem eindeutigen Bezeichner, der aus E (bzw.
P) und einer laufenden Nummer besteht, und einem Begriffswort.
5 Die Abbildung zeigt auch ein Problem des CRM, das noch weiterer Diskussion bedarf: E55 Type ist das einzige MetaKonzept im CRM, das nicht an diese Stelle gehört. Nach Meinung des Autors ist es als Konzept des Wissensmodells“
”
auf der Meta-Ebene anzusiedeln.
4
Verfahren angegeben, da die Erfahrung zeigte, dass häufig Konstrukte wie Instantiierung, Generalisierung, Assoziation oder Aggregation nicht durchgängig strikt und systematisch ausgeführt
wurden. Daher müssen in verschiedenen Ontologien getroffene Unterscheidungen zwischen Einzelbegriffen und Universalien, Klassen-Instanzen und Mengen-Elementen, Subsumtion und Instantiierung, aber auch Teil-Ganzes-Beziehungen, Objektidentität etc. zunächst kritisch untersucht und komptibel gemacht werden, bevor ein Zusammenschluss vorgenommen werden kann.
Der hierfür erforderliche Aufwand ist aber nur zu rechtfertigen, wenn durch die Integration von
Referenz- und Domänenontologien ein Mehrwert erreicht werden kann, der sich durch automatische logische Schlußfolgerungen wie Subsumtion und Klassifikation ergibt.
2
Beschreibungslogiken
Um der Aufgabe der automatischen Inferenz näher zu kommen, müssen wir einen Blick auf die
berechnungstechnischen Aspekte logischer Systeme werfen. Eine formale logische Sprache mit
der durch ihre Syntax und Semantik gegebenen Ausdruckskraft vorausgesetzt, ist ein operationalisierbarer Inferenzmechanismus zu suchen. Dazu muss zuerst das Inferenzproblem formal spezifiziert und im Hinblick auf Entscheidbarkeit und Komplexität untersucht werden. Auf dieser
Grundlage ist dann ein Problemlösungsalgorithmus, d.h. ein Verfahren zur Lösung des Inferenzproblems, zu entwickeln. Auf dieser Stufe sind die Fragen der Korrektheit und Vollständigkeit sowie der praktischen Komplexität — im Unterschied zur theoretischen worst case“–Komplexität
”
— zu behandeln. Ohne Zweifel sollte eine ideale Computational Logic“ ausdrucksstark und
”
das Inferenzproblem entscheidbar sein, und dazu sollten korrekte, vollständige und effiziente Inferenzalgorithmen zur Verfügung stehen. Aber, wie nicht anders zu erwarten, ist die Welt
der angewandten Logik nicht ideal. Wie wir wissen, kann sogar die Entscheidbarkeitsfrage für
die Standardlogik erster Stufe nicht positiv beantwortet werden. Daher werden für praktische
Zwecke spezielle logik-basierte Repräsentationssprachen benötigt. Insbesondere wurde eine Familie von Teilsprachen der Logik erster Stufe unter der Bezeichnung Beschreibungslogiken“
”
entwickelt, wozu die ausdrucksstärksten entscheidbaren Logiken gehören, für die man gutarti”
ge“ Inferenzalgorithmen in hochgradig optimierten Implementationen finden kann [1].
Bei der Entwicklung der Beschreibungslogiken lag ein besonderer Akzent auf sprachlichen Ausdrucksmitteln, die speziellen Anforderungen der Wissensrepräsentation in formalen Ontologien
Rechnung tragen: Konzepte, angeordnet in Subsumtionshierarchen, Merkmale (Rollen) mit verschiedenen Arten von Restriktionen, und Individuenbeschreibungen (Instanzen). Die Repräsentation ist objektorientiert und erfolgt auf der Ebene der Prädikatoren; es gibt keine (expliziten) Variablen in Beschreibungslogiken. Zur Erstellung von strukturierten Objektbeschreibungen steht eine beschränkte Menge epistemologisch adäquater Sprachmittel bereit; damit können
komplexe relationale Strukturen ausgedrückt werden. Besonders wichtig ist die Unterscheidung
zwischen begrifflichem (terminologischem, daher: T-Box“) Wissen, also der intensionalen Ebe”
ne, und Aussagen über Instanzen (assertional, daher: A-Box“), der extensionalen Ebene. Bei
”
der Inferenz spielt automatische Klassifikation zur Berechnung des Subsumtionsverbands — in
klassisch-logischer Redeweise: materiale Implikation“ — eine zentrale Rolle.
”
Die Konstruktion einer Konzepthierarchie wird mit der Festlegung einer kleinen Menge primitiver, d.h. nicht weiter definierter, Konzepte und Rollen begonnen. Weitere Konzepte werden dann
durch logisch zusammengesetzte Ausdrücke definiert, welche notwendige und hinreichende Bedingungen ausdrücken. Als Operatoren stehen zumindest Negation (Komplement), Konjunktion, Disjunktion (eigentlich: Adjunktion) sowie Wert- und Existenzrestriktionen für Rollen zur
Verfügung. Die Semantik dieser Sprache, die ALC heisst, wird in klassischer Manier modelltheoretisch definiert: Jedem Ausdruck der Sprache wird ein mengentheoretischer Ausdruck zugeordnet, der seine Interpretation in einem Interpretationsbereich wiedergibt. Diese Vorgehensweise kann auch konstruktiv gerechtfertigt werden, wenn man durch Abstraktion eine prädikative
Mengentheorie einführt — die an dieser Stelle vollständig ausreicht. Die folgende Tabelle gibt
die Definition der Syntax und Semantik von ALC an. C und D stehen für Konzeptausdrücke,
d.h. Konzeptnamen oder zusammengesetzte Ausdrücke. I ist die Interpretationsfunktion.
5
A
R
>
⊥
¬C
C uD
C tD
∀R.C
∃R.C
AI ⊆ ∆
R ⊆∆×∆
∆
∅
∆ \ CI
C I ∩ DI
I
I
V CI ∪ D
{x | y .R (x, y) → C I (y)}
W
{x | y .RI (x, y) ∧ C I (y)}
I
primitives Konzept
primitive Rolle
universelles Konzept (top)
leeres Konzept (bottom)
Negation (Komplement)
Konjunktion
Disjunktion
All-Quantifikation (Werterestriktion)
Existenz-Quantifikation (Existenzrestr.)
Jede beschreibungslogische Wissensbasis besteht aus zwei Komponenten, der T-Box, d.h. der
Definition einer Konzepthierarchie durch eine Menge von Konzeptausdrücken und der Relationen zwischen diesen, und einer A-Box, die der Beschreibung von Sachverhalten dient, die also
eine gegebene Anwendungssituation durch Angabe aller beteiligter Instanzen mit ihren Merkmalsausprägungen beschreibt. Das folgende einfache Beispiel6 zeigt einen Ausschnitt aus einer
Wissenbasis — Definition der verwendeten Konzepte und Rollen vorausgesetzt:
• Terminologische Regeln (T-Box)
.
Student = Person u ∃NAME.String u∃ADDRESS.String u ∃ENROLLED.Course
Student v ∃ENROLLED.Course
∃TEACHES.Course v ¬Undergrad t Professor
• A-Box (Instanzen: C(a), R(a, b))
Student(john)
ENROLLED(john, cs415)
(Student t Professor)(paul)
Mit dem (eckigen) Teilmengenzeichen v werden partielle Definitionen eingeführt, die die not.
wendigen Bedingungen angeben. Das Gleichheitszeichen = führt vollständige Definitionen mit
.
notwendigen und hinreichenden Bedingungen ein: C = D gdw. C v D und D v C. Die Übersetzung der kompakten beschreibungslogischen Notation in eine standardlogische ist einfach:
Konzepte sind einstellige Prädikate, Rollen zweistellige Relationen mit allquantifizierten Variablen, und für die speziellen Quantoren ∀ und ∃ kann die Angabe aus der Tabelle entnommen
werden. In der dritten terminologischen Regel wird das anonyme Konzept für Lehrende eines
Kurses partiell definiert. Es besteht keine Notwendigkeit, jedem Konzept einen Namen zu geben, aber für die weitere Verwendung könnte es durchaus sinnvoll sein, einen Konzeptnamen
wie Teacher einzuführen. Damit entspräche diese Regel der Formel
V
x .Teacher(x) → ¬Undergrad(x) ∨ Professor(x).
Die fundamentale Inferenzrelation in Beschreibungslogiksystemen ist die Konzepterfüllbarkeit,
also der Nachweis, dass ein Konzeptausdruck ein Modell hat. Man kann zeigen, dass alle anderen
Arten von Inferenzen auf die Konzepterfüllbarkeit zurückführbar sind: Subsumtion, Konsistenz
(A-Box), Instanzenprüfung, Zugriff und Realisierung. Bei Beschreibungslogiken sind Tableaubeweiser der de facto–Standard für Beweisprozeduren geworden.7
Einen ausführlichen Überblick über Beschreibungslogiken gibt [2]. Aufbauend auf ALC wurde
eine Vielzahl ausdrucksmächtigerer Beschreibungslogiken entwickelt und eingehend untersucht.
Unter diesen ist SHIQ hervorzuheben, die zu ALC hinzufügt:
• qualifizierte Anzahlrestriktionen,
• General Inclusion Axioms“ (GCI), in denen auf beiden Seiten des Inklusionszeichens zu”
sammengesetzte Konzeptausdrücke stehen,
6 nach
Enrico Franconi.
7 Ein besonders leistungsfähiges Beschreibungslogiksystem, das mit OWL-DL arbeitet, ist Racer, s. http://www.sts.tu-
harburg.de/r̃.f.moeller/racer/ (Dez. 2006)
6
• transitive und inverse Rollen,
• Rollenhierarchien, und
• Datentypen (sog. concrete domains“), wie z.B. Real-Zahlen.
”
3
Die Semantic Web Ontology Language OWL
Die besondere Bedeutung der letztgenannten beschreibungslogischen Sprache liegt darin, dass
sie die Basis für OWL-DL ist, einer Variante der (Semantic) Web Ontology Language“ OWL (s.
”
[4]). Für OWL-DL müssen noch einfache Anzahlrestriktionen und sog. Nominale, Mengen mit
einelementiger Extension, hinzukommen.
Für das Semantic Web wurde eine Hierarchie von standardisierten Repräsentationssprachen basierend auf der Auszeichnungssprache XML8 entwickelt. Die unterste Schicht dieser Sprachfamilie ist gegeben durch XML, erweitert um Namensräume und Datentypen (XMLSchema).
Die zweite Schicht besteht aus RDF ( Resource Description Framework“), einer Sprache, mit
”
der assoziative Tripel formuliert werden können, die zweistellige Relationen (Subjekt–Prädikat–
Objekt) ausdrücken. Diese Tripel können zu assoziativen Netzwerken zusammengesetzt werden, so dass man auf diese Weise gerichtete und markierte Graphen notieren kann. Als Sprachmittel zur Wissensrepräsentation bietet RDF instance-of, subclass, und Merkmale (properties mit
Definitions- und Wertebereich) sowie Kardinalitätsrestriktionen. Diese Ebene wird erweitert
durch RDFS (RDFSchema), wodurch elementare Sprachmittel zur Wissensrepräsentation bereitgestellt werden: Es ist nun möglich, Klassen und Unterklassen zu definieren, Rollen und Rollenhierarchien, aber es gibt keinerlei Festlegung auf eine Inferenzrelation. Die dritte, die logi”
sche“ Schicht, behebt dieses Defizit und reichert die Sprache weiter zur Web Ontology Language OWL an. Eine von drei OWL-Varianten ist OWL-DL als direkte Erweiterung von RDFS(FA),
einer Teilsprache von RDFS mit klassischer Semantik erster Stufe. OWL als eine zur internationalen Standardisierung vorgeschlagene Repräsentationssprache garantiert somit die Zukunft für
eine sehr ausdrucksmächtige Beschreibungslogik. Aus logischer Perspektive ändert sich nur die
Notation: Die in Beschreibungslogiken übliche kompakte Schreibweise wird durch eine von der
XML-Basis erzwungene äusserst ausführliche Notation ersetzt, zu deren Beherrschung spezielle
Editoren wie z.B. Protégé9 unverzichtbar sind. Zukünftige weitere Schichten der Semantic Web–
Sprachfamilie sollen Erweiterungen wie Regeln und Standardannahmen ( Defaults“) beinhalten,
”
die definitiv über Beschreibungslogiken hinausgehen — und dies auf jeden Fall um den Preis der
Vollständigkeit, eventuell sogar der Entscheidbarkeit.
In der Praxis spielt die Verwendung von Standardannahmen eine erhebliche Rolle; Schliessen
mit unvollständigem Wissen ist gleichsam der Normalfall (sic!).
4
Generics and Defaults“
”
In der aktuellen Dokumentationspraxis ist man häufig mit dem Problem konfrontiert, dass man
nicht nur Aussagen über konkrete Individuen treffen, sondern sich auf Beispiele in einem bestimmten Kontext beziehen möchte, die nicht vollständig und eindeutig charakterisiert sind. Solche Beispiele sollen zwar als repräsentativ gelten, sind nicht Repräsentanten einer trennscharf
bestimmten (Äquivalenz-)Klasse, sondern werden verwendet als ein x von der Art Y“ im Sinne
”
einer (noch) nicht genauer definierten Unterklasse von Y. Dies sei anhand eines Falls aus der
10
Dokumentation für ein naturhistorisches Museums erläutert : Es gehe um eine Art von Tieren,
die als Frösche klassifiziert sind. Man möchte nun beschreiben, dass diese Art von Fröschen, von
8 Unter
der nahezu unübersehbaren Literatur zu XML kann für eine kompakte Übersicht [19] empfohlen werden.
(Dez. 2006)
10 Persönliche Mitteilung von Martin Doerr, FORTH, Heraklion. Zur Geschichte der Vergabe von Artbezeichnungen in
der Botanik sei auf die informative Arbeit von Daston [9] verwiesen; an dieser Stelle kann nicht weiter darauf eingegangen werden.
9 http://protege.stanford.edu/
7
denen ein exemplarisches Individuum vorliegt, üblicherweise in einer bestimmten Gegend lebt.
Dieser Sachverhalt lässt sich nicht adäquat mit den Mitteln eines herkömmlichen relationalen
Datenbanksystems ausdrücken; auch Beschreibungslogiken bieten hierfür keine direkte Lösung
an. Im Rahmen des CRM hat Martin Doerr daher eine Erweiterung vorgeschlagen11 , die unter
der Bezeichnung MetaCRM im Prinzip eine Dopplung der CRM vorsieht: Zu jeder Klasse X
wird eine Meta-Klasse“ Type-of-X12 eingeführt, und zu jeder Property P eine Meta-Property“
”
”
usually-P. Damit kann man zwar das genannte Beispiel hinschreiben, es bleibt aber semantisch
vollkommen unklar; zudem erscheint eine formale Ontologie, in der zwei Ebenen von im Prinzip gleicher Ausprägung vorhanden sind, kaum noch praktisch handhabbar. Was könnte aber
eine gangbare und auch maschinell verarbeitbare Lösung für Fälle sein, in denen es nicht nur um
strikte Aussagen über Individuen wie Frosch-1713 frisst Fliege-42“ geht, sondern auch um —
”
von Doerr kategorienüberschreitend ( cross-categorial“) genannte — Aussagen wie Frosch-17
”
”
frisst Fliegen“ oder gar kategorische wie Frösche fressen Fliegen“? Wie steht es mit Normale
”
”
Frösche fressen Fliegen“ oder Frösche fressen üblicherweise Fliegen“ und wie sind diese Aus”
sagen aufeinander zu beziehen? In der Tat haben wir hier ein Problem vor uns, das, soweit es
Normalfälle und Ausnahmen betrifft, einer Behandlung auf der Meta-Ebene bedarf.
In der theoretischen Informatik wird der Umgang mit Standardannahmen ( Defaults“) und Aus”
nahmen als charakteristischer Fall nicht-monotonen Schliessens behandelt14 . Schliessen mit unvollständigem Wissen in seiner allgemeinsten Form, wozu weiterhin auch verschiedene Arten
der Revision, sei es auf der Ebene einzelner Aussagen oder ganzer Theorien, sowie das Eintragen und Zurücknehmen von Aussagen in (deduktiven) Datenbanken gehören, passt nicht in den
Rahmen der monotonen Standardlogik. In dynamischen Szenarien müssen Wissenbasen revidiert werden, wenn eine der folgenden Situationen eintritt:
• aus der Beobachtung neu gewonnene Informationen — z.B. über die Veränderung der Eigenschaften eines Objekts — sind aufzunehmen;
• während einer Problemlösung getroffene Annahmen werden verletzt;
• ein offensichtlicher Widerspruch zum Inhalt der Wissensbasis tritt auf; etc.
So lange neue Aussagen in die Wissensbasis aufgenommen werden, die nicht zu deren Inhalt
im Widerspruch stehen, können mit ihnen auch neue Folgerungen gezogen werden. Handelt es
sich aber um Aussagen, die zu Widersprüchen führen und daher die Konsistenz der Wissensbasis verletzen, muss zunächst die Ursache des Konflikts identifiziert werden. Davon abhängig ist
über geeignete Massnahmen der Konfliktbehebung zu entscheiden: War z.B. aufgrund unvollständigen Wissens eine allgemeine Regel im Spiel, die nun durch einen Ausnahmefall verletzt
wurde? Müssen konfliktverursachende Aussagen zurückgenommen werden, so ist die Revision
auch auf alle Folgerungen auszudehnen, bei denen sie beteiligt waren.
Wenden wir uns nun wieder dem spezielleren Problem der Standardannahmen und Ausnahmen
im Kontext der generischen und universellen Prädikationen zu. Generisch sollen solche Konzepte bzw. Merkmalsausprägungen und -beziehungen ausgedrückt werden, die im Allgemeinen
gelten, aber auch Ausnahmen zulassen. Hierunter fallen gerade Prädikationen der Form Kind-ofX.
In der einschlägigen Literatur werden unterschiedliche Verwendungssituationen für Standardannahmen genannt, u.a.
• Generelle Aussagen der Form
– unter normalen Umständen: P s sind Qs (Frösche leben an Teichen);
– prototypisch: Das prototypische P ist Q (Frösche sind grün);
11 http://cidoc.ics.forth.gr/working
editions cidoc.html (Dez. 2006), Rubrik Working draft of the CIDOC MetaCRM“
”
der Terminus Typ in der Informatik bereits anders festgelegt ist, sollte man hier besser von Kind-of-X sprechen.
13 Frosch-17 sei die eindeutige Kennzeichnung eines Individuums
14 Eine umfassende Übersicht über nicht-montones Schliessen bieten [7, 6].
12 Da
8
– statistisch: Die meisten P s sind Qs.
• Mangel an Wissen über das Gegenteil
– Vertrautheit: Wenn P kein Q wäre, wüsste ich es;
– von Gruppen getroffene Annahmen: Alle bekannten P s sind als Qs bekannt;
• konventioneller Sprachgebrauch
– konversationell: ein P ist ein Q, solange ich nicht etwas anderes sage;
– repräsentational: ein P ist ein Q, solange nicht das Gegenteil angezeigt ist (Geschwindigkeitsbeschränkung in Ortschaften).
• Persistenz
– Trägheit: ein P ist ein Q, so lange es nicht verändert wird (Position von Gegenständen);
– Zeit: ein P ist ein Q, wenn es schon immer ein Q war (Farbe, Grösse von Gegenständen).
Vergleicht man generische und explizit quantifizierte Aussagen genauer, so zeigt sich, dass die
ersteren als intensional zu charakterisieren sind; explizite Aussagen über Regelmässigkeiten, die
mit Wörtern wie meist“, typisch“ oder normal“ gebildet werden, sind hingegen extensional
”
”
”
zu interpretieren. Wir behaupten, dass es aber gerade explizite Aussagen dieser Art sind, die
bei der Dokumentation in Gebieten wie der Naturgeschichte oder dem Kulturerbe eine zentrale
Rolle spielen. Trifft diese These zu, so kann daraus eine praktikable technische Lösung für das Inferenzproblem mit solchen Aussagen abgeleitet werden, die am Ende dieses Beitrags vorgestellt
wird.
Dem Thema Generics and Defaults“ haben Pelletier und Asher einen umfassenden Hand”
buchartikel gewidmet [16]. Da die beiden Autoren an einer möglichst allgemeinen Lösung interessiert sind, vergleichen sie zunächst drei verschiedene in der Literatur anzutreffende Ansätze
zur Behandlung des Problems der generischen Aussagen:
• Generische Aussagen sind streng genommen falsch, sollen aber durch die Angabe von Ausnahmen akzeptabel sein.
• Generische Aussagen sind weder wahr noch falsch, sondern als spezielle Inferenzregeln zu
behandeln. In diesem Fall entfällt aber die Möglichkeit, generische Aussagen ineinander
einzubetten — es bleibt aber offen, ob diese Eigenschaft praktisch ins Gewicht fällt.
• Generische Aussagen haben gemäss der modelltheoretischen Position, die die Autoren favorisieren, einen Wahrheitswert. Allerdings gibt es keinen Quantor, der in gleicher Weise
für alle Arten generischer Aussagen geeignet ist. Weiterhin besteht die Frage, wie viele
Ausnahmen für eine generische Aussage tolerierbar sind.
Um dem dritten Ansatz, der Doktrin der modelltheoretischen Semantik zu genügen, wird zur
Formulierung generischer Aussagen ein Operator GEN vorgeschlagen, für dessen Einsatz aber
drei Voraussetzungen zu klären seien: Zuerst sind die Wahrheitsbedingungen aufzustellen, dann
ist die Generizität zu erklären durch Angabe von Gesetzen, um den Unterschied zu quantifizierten extensionalen Aussagen herauszustellen und zuletzt ist anzugeben, wie mit GEN-Aussagen
zu schliessen ist. Aussagen mit dem GEN-Operator bestehen aus drei Teilen: der Angabe der
betroffenen Variablen, eines Restriktors und der Kernaussage. Die generische, also intensional
gemeinte Aussage Frösche leben in Westafrika“ hätte damit die Form
”
W
GEN[x](x sind Frösche; y [y ist Westafrika ∧x lebt-in y])
Als Kandidaten für die Interpretation des GEN-Operators identifizieren Pelletier und Asher in
der Literatur die folgenden:
9
• (eingeschränkte ) Allquantifikation über relevante Objekte.
• Singuläre Prädikation mittels abstrakter Objekte15 .
• Prototypen: Individuen, die als prototypische Vertreter gelten.
• Stereotypen: Angabe von Extension und stereotypen Eigenchaften.
• Modale Konditionalsätze (mögliche Welten).
• Situationssemantik [3] mit Situations-Constraints.
• Ansätze zum Default-Schliessen.
Da keiner dieser Ansätze den Anforderungen an den GEN-Operator voll genügt, unterbreiten
die Autoren einen neuen axiomatisch formulierten Vorschlag, wonach der GEN-Operator als
konditionaler Operator über Aussagen zu interpretieren sei. Inwiefern diese Axiomatisierung
samt der ausgearbeiteten modelltheoretischen Semantik, die zwar alle gestellten Anforderungen
erfüllt, aber effektiv und damit prinzipiell implementierbar ist, bleibt offen. Möglicherweise ist
nicht einmal Entscheidbarkeit gegeben. Selbst wenn diese Zweifel ausgeräumt würden, ist doch
festzuhalten, dass der Vorschlag sehr kompliziert ist und daher eine praktische Umsetzung mit
automatischen Beweisern enorm aufwendig und daher sehr ineffizient wäre.
Um uns einer praktikablen Lösung des durch Standardannahmen und Ausnahmebehandlung
gegebenen Nichtmonotonie-Problems zu nähern, kommen wir auf die obige These zurück. Wir
gehen davon aus, dass die extensionale Sichtweise — explizit (vage) quantifizierte Aussagen —
im Rahmen formaler Ontologien wie dem CRM die relevante ist. An deren Wahrheitsdefinitheit
festzuhalten, besteht zunächst kein Anlass. Daher werden wir im folgenden eine Variante des
Default Reasoning“ betrachten. Zugunsten des Default Reasoning“ argumentiert auch Veltman
”
”
[22], der darauf hinweist, dass die Signifikanz solcher Aussagen in ihrer dynamischen Bedeutung
bestehe, d.h., dass sie update conditions“ für Informationszustände ausdrücken. Statt eine neue
”
Logik zu postulieren, soll versucht werden, unser spezielles Nichtmonotonie-Problem auf der
Meta-Ebene zu lösen, allerdings nicht in der von Doerr vorgeschlagenen Weise, sondern durch
Default-Regeln. Diese Auffassung vertritt auch Poole, der in [17] explizit die These formuliert
und dann ausarbeitet: If one allows hypothetical reasoning, then there is no need to define a
”
new logic to handle nonmonotonic reasoning“. Nichtmonotonie ist demnach kein Problem der
Logik, sondern wie die Logik verwendet wird.
5
Liefert die Default-Logik“ eine praktikable Lösung?
”
Default-Schliessen ist folgendermassen charakterisiert: Ist P (.) im allgemeinen ein Q(.) und P (a)
ist wahr, dann ist es sinnvoll, auf Q(a) zu schliessen, so lange es keinen Grund gibt, der dem
entgegensteht. Generische Aussagen wie Vögel fliegen“ werden dann extensional interpretiert
”
als Normalerweise fliegen alle Vögel“ oder, wie auch vorgeschlagen wurde, Alle normalen
”
”
Vögel fliegen“ 16 .
Unter mehreren Möglichkeiten, das Default-Schliessen zu formalisieren, sei hier die sog. DefaultLogik von Reiter [18]17 gewählt. Reiter führt spezielle Default-Regeln ein; die Wissensbasis stellt
eine Default-Theorie dar und besteht aus zwei Teilen: einer Menge von Aussagen in klassischer
Logik erster Stufe und einer Menge von Default-Regeln, die Bedingungen für Annahmen angeben. Das Inferenzsystem verfügt über eine Möglichkeit, explizit zu spezifizieren, welche Aussagen zur Wisssenbasis konsistenzerhaltend hinzugefügt werden können. Mit den Default-Regeln
15 hier wird eine realistische Auffassung von abstrakten Objekten vertreten; die Fregesche Abstraktionstheorie kann
wohl nicht gemeint sein.
16 Die Option, die Aussage stattdessen als eine Aussage über typisches Verhalten (normalerweise-fliegen) zu verstehen,
erscheint weniger angemessen — sofern es überhaupt sinnvoll ist, sollte in diesem Fall die formale Ontologie hierfür ein
eigenes Konzept bereitstellen.
17 s.a. [7, 6]
10
wird der Schritt auf die Meta-Ebene vollzogen, jedoch erlaubt das Reitersche System nicht,
Schlüsse über die Defaults selbst auszuführen.
Das folgende Lehrbuchbeispiel soll (den einfachsten Fall von) Default-Regeln verdeutlichen:
Wenn x ein Vogel ist und konsistent angenommen werden kann, dass x fliegt, dann ist es wahr,
dass x fliegt, in Reiterscher Notation
bird(x) : f ly(x)
f ly(x)
Für generische Aussagen in extensionaler Interpretation benötigen wir somit einen Operator wie
GEN, der auf der Meta-Ebene durch Default-Schlussregeln implementiert wird. Die Umsetzung
von der Operator-Schreibweise in Default-Regeln muss dabei nicht von Hand erfolgen – sonst
wäre der Schreibaufwand nicht wesentlich geringer als bei dem Doerrschen Vorschlag —, sondern letztere können automatisch durch Makro-Expansion der GEN-Aussagen generiert werden.
Für die Implementierung sind nach dem gegenwärtigen Stand zwei Möglichkeiten in Betracht
zu ziehen: Unter der Bezeichnung Description Logic Programming“ (DLP) wird an einer Kom”
bination von Beschreibungslogiken mit Regeln der Logik-Programmierung im Stil von P ROLOG
gearbeitet; die Durchschnittsbildung der beiden Programmiersprachen ist allerdings wegen semantischer Differenzen nicht einfach18 . Die zweite Möglichkeit besteht darin, eine Variante der
Logik-Programmierung, das sog. Answer Set Programming“ (ASP)19 als Vorverarbeitungsstu”
fe in Verbindung mit einem Beschreibungslogiksystem einzusetzen20 . ASP ist eine konstruktive,
deklarative Variante der Logikprogrammierung, die im Unterschied zu P ROLOG über die klassische Negation verfügt. ASP-Systeme sind einfache und effiziente Modellgenerierungssysteme,
die auf einer anderen Semantik als der von P ROLOG beruhen21 .
Die Integration eines Beschreibungslogiksystems mit einem ASP-System als Vorverarbeitungsmodul würde dann erlauben, eine in OWL-DL vorliegende formale Ontologie mit aus GENAussagen generierten Default-Schlussregeln zu Inferenzen auf A-Boxen kombinieren. Es ist
wichtig, festzuhalten, dass die Default-Regeln nur auf A-Boxen, nicht auf die formale Ontologie
selbst angewandt werden sollen. Die Zusammenarbeit der beiden Systeme kann an dieser Stelle
nur skizziert werden: Seien eine A-Box, die eine Menge von Objekt-Instanzen enthält, und eine
Menge von Default-Regeln gegeben. Dann müssen zunächst aus den Default-Regeln diejenigen
ausgewählt werden, die in der aktuellen A-Box überhaupt anwendbar sind, und diese dann instantiiert werden, wobei hier auch von Inferenzen des Beschreibungslogiksystems Gebrauch gemacht werden kann, typischerweise zur Subsumtion. Die Auswertung des Regelsystems durch
den ASP-Modellgenerierer kann dann zur Erzeugung neuer Instanzenbeschreibungen für die ABox führen — ASP ist somit eine neue Form der Intanzengenerierung. Dies sei abschliessend
illustriert, indem wir das Beispiel mit der Defaultregel über das Fliegen der Vögel wieder aufnehmen. In der Schreibweise der Logikprogrammierung wird die obige Defaultregel so notiert22 :
fly(X) :- bird(X), not -fly(X).
Wir fügen die Regeln hinzu, dass Pinguine nicht fliegen können und dass sie Vögel sind:
-fly(X) :- penguin(x).
bird(X) :- penguin(X).
18 In P ROLOG gilt die Closed World Assumption“, die postuliert, dass alles, was wahr ist, entweder in der Wissensbasis
”
steht oder durch Regelanwendung abgeleitet werden kann (s. [7]). Dies gilt nicht für Beschreibungslogiken, die explizit
die Option unbekannt“ zulassen. Dies ist aber nur ein Teilaspekt der Integrationsproblematik; exemplarisch sei hier auf
”
[15] hingewiesen.
19 Da an dieser Stelle nicht auf Details eingegangen werden kann, sei auf [6], Kap. 7.4 und die dortigen Literaturangaben
verwiesen.
20 Eine detaillierte Ausarbeitung dieses Ansatzes erfolgt u.a. in dem Wiener dlv-Projekt, s. [11].
21 Stabile Modelle“, s. [6], Kap. 7.4. Es gibt mehrere Implementationen von ASP-Systemen wie smodelsA , dlv, oder
”
cmodels. Für das folgende Beispiel wurde cmodels von Yuliya Lierler benutzt, der an dieser Stelle herzlich für ihre
Unterstützung gedankt sei. Zu cmodels siehe http://www.cs.utexas.edu/users/tag/cmodels/ (Dez. 2006).
22 Der Pfeil, notiert durch :-, zeigt nach links, daher steht die Konklusion am Anfang. Variablen sind allquantifiziert;
Variablennamen beginnen mit einem Grossbuchstaben, Konstanten werden klein geschrieben. not bezeichnet die aus
P ROLOG bekannte Negation mit der Negation as Failure“-Semantik, - bezeichnet die klassische Negation.
”
11
Finden wir in der A-Box die Aussage, dass Tweety ein Vogel ist,
bird(tweety).
so liefert cmodels23 zusammen mit den Regeln wie erwartet die Antwortmenge
{fly(tweety), bird(tweety)}.
Enthält die A-Box stattdessen die Aussage, dass Tweety ein Pinguin ist,
penguin(tweety).
so wird der Default-Mechanismus wirksam und die Antwortmenge ist nun
{penguin(tweety), bird(tweety), -fly(tweety)}.
Mit diesem sehr einfachen Beispiel sollte lediglich demonstriert werden, dass der aufgezeigte
Lösungsweg gangbar ist. Bis zu einer umfassenden Verarbeitung generischer Aussagen in extensionaler Lesart und der Behandlung von Ausnahmen liegt noch ein Stück Weges vor uns, der
sicherlich etliche technische Hürden bieten wird.
Literatur
[1] Baader, F.; Calvanese, D.; McGuiness, D.; Nardi, D.; Patel-Schneider, P. (Hrsgb.): The Description Logic
Handbook — Theory, Implementations and Applications, Cambridge University Press, Cambridge, 2003.
[2] Baader, F.; Hoorocks, I.; Sattler, U.: Description Logics as Ontology Languages for the Semantic Web, in Hutter, D.; Stephan, W. (Hrsgb.): Mechanizing Mathematical Reasoning: Essays in Honor of Joerg H. Siekmann
on the Occasion of his 60th Birthday, Bd. 2605 von Lecture Notes in Artificial Intelligence, Springer, Berlin
and Heidelberg, 2005, S. 228–248.
[3] Barwise, J.; Perry, J. (Hrsgb.): Situations and Attitudes, Bradford Books, The MIT Press, Cambridge,
Mass., 1983.
[4] Bechhofer, S. e.: OWL Web Ontology Language Reference, W3C, 2004, W3C Recommendation 10 February
2004.
[5] Berners-Lee, T.; Hendler, J.; Lassila, O.: The Semantic Web, Scientific American, May 2001, S. 35–43.
[6] Brewka, G.: Nichtmonotones Schließen, in Görz, G.; Rollinger, C.-R.; Schneeberger, J. (Hrsgb.): Handbuch
der Künstlichen Intelligenz, Kap. 7, Oldenbourg Verlag, München, 4. Ausg., 2003, S. 236–266.
[7] Brewka, G.; Dix, J.; Konolige, K.: Nonmonotonic Reasoning. An Overwiew, Bd. 73 von CSLI Lecture Notes,
CSLI Publications, Stanford, CA., 1997.
[8] Crofts, N.; Doerr, M.; Gill, T.; Stephen, S.; Stiff, M.: Definition of the CIDOC Conceptual Reference Model.
Version 4.2, The International Committee for Documentation of the International Council of Museums
(ICOM-CIDOC), Paris, June 2005.
[9] Daston, L.: Type Specimens and Scientific Memory, Critical Inquiry, Bd. 31, Autumn 2004, S. 153–182.
[10] Doerr, M.: The CIDOC CRM — An Ontological Approach to Semantic Interoperability of Metadata, AI
Magazine, Bd. 24, Nr. 3, 2003.
[11] Eiter, T.; Lukasiewicz, T.; Schindlauer, R.; Tompits, H.: Combining Answer Set Programming with Description Logics for the Semantic Web, INFSYS Research Report 1843-03-13, Institut für Informationssysteme,
Technische Universität Wien, Wien, December 2003.
[12] Ermert, A. e.: Das CIDOC Conceptual Reference Model: Eine Hilfe für den Datenaustausch?, Deutscher
Museumsbund, Fachgruppe Dokumentation, Arbeitsgruppe Datenaustausch, Berlin, Oktober 2004.
[13] Gangemi, A.; et al., : Sweetening Ontologies with DOLCE, in Gomez-Perez, A. et al. (Hrsgb.): Knowledge
Engineering and Knowledge Management. Ontologies and the Semantic Web, 13th International Conference,
EKAW 2002, Siguenza, Spain, October 1–4, 2002, Springer, Berlin and Heidelberg, 2002, S. 166–181.
[14] Guarino, N.; Welty, C.: An Overview of OntoClean, Kap. 8, Springer, Berlin and Heidelberg, 2004, S.
151–159.
23 Das
Beispiel wurde mit identischen Ergebnissen auch mit dlv ausgeführt.
12
[15] Motik, B.; Horrocks, I.; Rosati, R.; Sattler, U.: Can OWL and Logic Programming Live Together Happily Ever
After?, in Gomez-Perez, A. et al. (Hrsgb.): The Semantic Web — ISWC 2006. 5th International Semantic Web
Conference, Athens, GA, USA, November 5–9, 2006. Proceedings, Bd. 4273 von Lecture Notes in Computer
Science, Springer, Berlin and Heidelberg, 2006, S. 501–514.
[16] Pelletier, F. J.; Asher, N.: Generics and Defaults, in van Benthem, J.; ter Meulen, A. (Hrsgb.): Handbook of
Logic and Language, Kap. 20, Elsevier Science B.V., Amsterdam, 1997, S. 1125–1177.
[17] Poole, D.: A Logical Framework for Default Reasoning, Artificial Intelligence Journal, Bd. 36, 1988, S. 27–47.
[18] Reiter, R.: A Logic for Default Reasoning, Artificial Intelligence Journal, Bd. 13, 1980, S. 81–132.
[19] Rottach, T.; Gross, S.: XML kompakt: Die wichtigsten Standards, Spektrum Akademischer Verlag, Heidelberg and Berlin, 2002.
[20] Smith, B.: Beyond Concepts: Ontology as Reality Representation, in Formal Ontology and Information Systems.
Proceedings of the Third International Conference (FOIS 2004), IOS Press, Amsterdam, 2004, S. 73–84.
[21] Thiel, C.: Der klassische und der moderne Begriff des Begriffs. Gedanken zur Geschichte der Begriffsbildung
in den exakten Wissenschaften, in Bock, H.; Lenski, L.; Richter, M. (Hrsgb.): Information Systems and Data
Analysis. Proceedings of the 17th Annual Conference of the Gesellschaft für Klassifikation e.V., University of
Kaiserslautern, March 3–5, 1993, Gesellschaft für Klassifikation e.V., Springer (LNCS 671), Berlin, September 1993, S. 175–190.
[22] Veltman, F.: Defaults in Update Semantics, Journal of Philosophical Logic, Bd. 25, 1996, S. 221–261.
[23] Welty, C.; Jenkins, J.: Formal Ontology for Subject, Data and Knowledge Engineering, Bd. 31, 1999, S. 155–
181.
13