Visuelle Interpretation von CIR-Luftbildern im direkten Vergleich mit

Transcription

Visuelle Interpretation von CIR-Luftbildern im direkten Vergleich mit
Visuelle Interpretation von CIR-Luftbildern im direkten
Vergleich mit objekt-basierter Bildanalyse – Showdown im
Nationalpark Berchtesgaden
Tobias LANGANKE, Walter DEMEL, Stefan LANG und Ulrich KIAS
Zusammenfassung
Die visuell-manuelle Auswertung von Luftbildern ist seit mehreren Jahrzehnten methodisch
etabliert und wird als eines der wichtigsten Werkzeuge für vielfältigste Monitoring- und
Kartierungsaufgaben eingesetzt. In jüngster Zeit wird verstärkt mit Ansätzen der objektbasierten Bildverarbeitung experimentiert, wobei erste Ergebnisse ein hohes Potenzial aufzeigen, mittelfristig für bestimmte Aufgaben eine operationelle und teil-automatisierte Klassifikation von höchstauflösenden Daten bereitzustellen.
Im vorliegenden Beitrag wird eine objektbasierte Klassifikationsmethode angewandt und
direkt mit einer herkömmlichen Luftbildauswertung durch einen erfahrenen Interpreten
verglichen. Dabei werden die Stärken und Schwächen der beiden Ansätze gegenübergestellt. Der Beitrag schließt mit einem Ausblick auf laufende Entwicklungen der Autoren im
Bereich hybrider Methoden, welche Vorteile von objektbasierter Bildverarbeitung und
visueller Interpretation zu verbinden versuchen.
1
Einleitung
Bei der Klassifizierung von Fernerkundungsdaten haben sich bisher digitale und teilautomatisierte Auswerteverfahren nur bei Satellitendaten geringer bis mittlerer Auflösung
durchgesetzt. Obwohl teilweise erfolgreich versucht wird, pixelbasierte Klassifikationsmethoden auf hochauflösende Fernerkundungsdaten mit hohem Detailgrad zu übertragen
(z. B. EHLERS et al. 2003), bestehen weiterhin Probleme bei der Ansprache komplexer,
naturnaher und wenig anthropogen überprägter Zielklassen, wie z. B. Vegetationsbestände
oder Habitattypen (LANG & BLASCHKE 2003). In diesem Bereich ist die visuelle Auswertung durch erfahrene Luftbildinterpreten nach wie vor Standard und Referenz gleichzeitig.
Zunehmende Standardisierung und Erfolgskontrollen im europäischen Naturschutz (z. B.
im Rahmen des Natura-2000-Netzwerkes) führen bei hochauflösenden Fernerkundungsdaten jedoch zu einem steigenden Bedarf an zuverlässigen, preiswerten, objektiven und in
geringen Abständen wiederholbaren Monitoringverfahren.
Als Datengrundlage für die Anwendung beider Methoden wurde ein 1.000 × 1.000 m großer Bildausschnitt aus dem Bestand der CIR-Befliegung des Nationalparks Berchtesgaden
1997 verwendet. Das gewählte Subset mit einer Bodenauflösung von ca. 20 cm stand für
die visuell-manuelle sowie für die objektbasierte Klassifikation zur Verfügung. Der Zielmaßstab war auf ca. 1:2.500 festgelegt, d.h. für die visuelle Interpretation war dies der
406
T. Langanke, W. Demel, S. Lang und U. Kias
Digitalisiermaßstab am Bildschirm. Für die Visualisierung in Abbildung 3 wurde ein ca.
215 × 200 m großes Subset verwendet.
2
Visuelle Interpretation
Als Grundlage für die visuelle Interpretation des Luftbildes dient ein vom deutschen Bundesamt für Naturschutz (BfN) für das gesamte Bundesgebiet entwickelter Biotop- und Nutzungstypen-Kartierschlüssel (BFN, 2002). Erfahrungen mit diesem Kartierschlüssel existieren in Berchtesgaden seit 1993. Derzeit wird der Schlüssel im Rahmen eines INTERREG
IIIb-Projektes für den europäischen Alpenraum überarbeitet und erweitert (http://www.
habitalp.org/; KIAS et al. 2001; KIAS & FRANZ 2002). Die Zielklassen werden vom gebietskundigen Luftbildinterpreten on screen digitalisiert, wobei die eigentliche Interpretationsarbeit an analogen Spiegelstereoskopen erfolgt.
Die visuelle Interpretation nutzt unabhängig von der weiter fortschreitenden Digitalisierung
des Arbeitsplatzes die überragende Interpretationsleistung des menschlichen Gehirns, die
unter anderem auf einem hohen Assoziations- und Aggregationsvermögen beruht. Bei der
visuellen Interpretation steht nicht allein der spektrale Informationsgehalt der Luftbilder im
Vordergrund; vielmehr werden auch die detaillierten Höheninformationen im Stereomodell
sowie komplexe Texturen und Kontextinformation vom Interpreten zur schnellen und sicheren Interpretation genutzt. Dieser Vorgang erfolgt zum überwiegenden Teil intuitiv und
nur bedingt unter einer expliziten Formulierung des zugrunde liegenden Expertenwissens.
Speziell das Vermögen, gerade auch bei hochauflösenden Bilddaten unabhängig von der –
teilweise sogar überflüssigen oder störenden – Informationsdichte aggregieren zu können,
stellt in der Bildinterpretation einen wesentlichen Unterschied zwischen einem menschlichen Interpreten und Software dar. Diese intuitive Aggregation bedingt allerdings auch eine
Subjektivität in der Interpretation die sich nur schwer quantifizieren lässt (s. Abb. 1).
Abb. 1:
Beispiel für zwei verschiedene Interpretationen eines Gebietes (Maßstab ca.
1:2.500): Im linken Beispiel steht die Abgrenzung der Bäume zu den offenen
Flächen im Vordergrund, außerdem wurde der Baumbestand stärker nach Bedeckungsgrad untergliedert. Rechts sind die locker stehenden Gehölze den Wiesen
zugeordnet, könnten aber als Begleiter in der Codierung auftauchen (aus: KIAS et
al. 2001).
Visuelle Interpretation von CIR-Luftbildern
3
407
Objektorientierte Klassifikation
Als objektorientierte Klassifikationsmethode wird hier die von BURNETT & BLASCHKE
(2003) beschriebene Methode MSS/ORM (multiscale segmentation and object relationship
modelling) angewendet. MSS/ORM formalisiert das häufig nur intuitiv vorhandene Expertenwissen des Luftbildinterpreten über Regelsätze in einer Hierarchie von Bildobjekten.
Damit können auch geometrische Eigenschaften und die räumlichen Beziehungen der zu
klassifizierenden Einheiten horizontal (zu Nachbarobjekten) oder vertikal (auf andere Levels bezogen) für die Klassifikation verwendet werden. GIS-analytische Funktionalität wird
somit genutzt, um die Zuordnung der Bildobjekte zu eben auch räumlich charakterisierten
Zielklassen in Form einer Datenbankabfrage der Objekteigenschaften effizient zu bewerkstelligen. Für die objektbasierte Klassifikation wird die Software eCognition (DEFiNiENS,
München) genutzt, da hier in einem operationell verfügbaren Produkt multiskalare Segmentierung mit der einfachen Implementierbarkeit von Klassifikationsregeln in fuzzifizierten oder scharfen Regelsätzen kombiniert ist. So werden für die in Abbildung 3 gezeigte
Klassifikation verschiedene Objekteigenschaften in Regelsätzen verwendet. Unter anderem
werden genutzt: Höheninformation aus einem DGM (und abgeleitete Parameter), das Längen-Breiten-Verhältnis von Objekten und der mittlere Abstand zu Objekten bestimmter
Klassen auf darüber- oder darunter liegenden Segmentierungsebenen (Levels). Das Vorgehen wird z. B. in LANG & LANGANKE (in Druck) detaillierter beschrieben und ein Ablaufschema in Abbildung 2 zusammengefasst.
Abb. 2:
4
Ablaufschema des MSS/ORM Ansatzes: ausgehend von einem CIR-Luftbild
wird über Segmentierung und Implementierung von Regelsätzen eine Klassifikation erzeugt, die als Vektor-Datensatz beliebig weiterverwendet werden kann.
Vor- und Nachteile der Methoden im direkten Vergleich
Im direkten Vergleich werden die Unterschiede der beiden Klassifikationsmethoden deutlich. Während die Stärke der visuellen Interpretation eindeutig in der schnellen und sicheren Erfassung von Biotoptypen oder Landnutzungsklassen auf einem relativ hohen Aggregationsniveau liegt, steigt der Arbeitsaufwand bei sehr detaillierten und kleinräumigen Zielklassen im Vergleich zur objektbasierten Methode signifikant an. Das vielfach beschriebene
Problem der Subjektivität der visuellen Abgrenzung von Einheiten (EDWARDS & LOWELL
1996) wird ebenfalls als systemimmanente Schwäche deutlich.
Das getestete objektbasierte Verfahren zeigt hingegen eindeutige Vorteile bei der Segmentierung und anschließenden Klassifikation von relativ kleinräumigen Einheiten, besonders
wenn ein hoher spektraler Kontrast zur umliegenden Matrix gegeben ist. Die Ausweisung
der Zielklassen verläuft schnell und vergleichsweise objektiv, da das Vorgehen durch die
Formulierung der Regelsätze transparent und bei gleichen Einstellungen beliebig repro-
408
T. Langanke, W. Demel, S. Lang und U. Kias
duzierbar bleibt. Ein weiterer Vorteil liegt in der Möglichkeit, auf mehreren Maßstabsebenen gleichzeitig zu arbeiten und die Ergebnisse flexibel den geforderten Zielklassen
anzupassen. Auf der anderen Seite werden aber auch die Nachteile des Ansatzes im Vergleich mit der manuellen Referenzkartierung deutlich: Es bestehen Schwierigkeiten, relativ
stark aggregierte und aus spektral stark kontrastierenden Objekten aufgebaute Zielklassen
als einheitliche Aggregate auszuweisen, da der zugrunde liegende Segmentierungsalgorithmus auf der Homogenität der zusammenzufassenden Pixel beruht (‚orchard problem’).
Abb. 3:
Ergebnisse der objektbasierten, feinmaßstäbigen Klassifikation mit der visuellen
Klassifikation (aggregierte Klassen, weiß umrandete Polygone). Die Polygone
aus der visuellen Klassifikation werden bei der Segmentierung in eCognition als
vorgegebene Grenzen genutzt und später mit der MIST Extension analysiert.
Rechts die Klassifikationsanteile für das links markierte Polygon aus der visuellen Klassifikation.
Einen möglichen Ausweg sehen die Autoren deshalb in einem hybriden Ansatz, der die
Stärke der menschlichen Mustererkennung auf einem hohen Aggregationsniveau mit der
Klassifikationsleistung der objektbasierten Methode auf dem Level der kleinsten strukturbildenden Einheiten kombiniert. Dabei wird die Möglichkeit genutzt, bestehende, vom
Interpreten ausgewiesene Grenzen bei der Bildsegmentierung mit zu berücksichtigen. In
einem GIS wird dann durch Vektorüberlagerung die jeweilige Zusammensetzung der Zielklassen analysiert. Mithilfe der ArcView Extension MIST (Manual Interpretation Support
Tool, inhouse-Entwicklung) ist es möglich, die Anteile der objektbasierten Klassifikation
für jedes der aggregierten Polygone aus der visuellen Klassifikation zu quantifizieren (siehe
Abb. 3).
Die Implementierung von externem Expertenwissen in komplexen Regelsätzen ist ebenfalls
nicht unproblematisch. Zum einen besteht die Schwierigkeit, dass der Interpret seine Interpretationsleistung nicht immer in formalisierbare Regeln fassen kann, auf der anderen Seite
ist die Implementierung und besonders das fine tuning der Regelsätze über Fuzzy-
Visuelle Interpretation von CIR-Luftbildern
409
Zuordnungsregeln in der Software eCognition sehr zeitaufwändig und die Resultate sind
nicht in jedem Fall auf andere Datensätze mit anderen Beleuchtungsverhältnissen und anderen strukturellen Gegebenheiten übertragbar. Die folgende Tabelle fasst die genannten
Punkte zusammen:
Tabelle 1:
Vergleich von manueller und objektbasierter Klassifikation
Manuelle Interpretation
Gut, allerdings bei kleinen Objekten großer Aufwand
Objektbasierte Interpretation
Gut, effektiv und schnell auch bei
kleinen Objekten
Abgrenzbarkeit aggregierter Einheiten mit
spektral nur z.T. distinkten Außengrenzen
Gut, allerdings stark subjektiv,
bzw. nur durch sehr komplexe
Kartierregeln steuerbar
Schlecht, da Segmentierung auf
Homogenitäts-Kriterium beruht
Nutzung von semantischer Information
Gut, allerdings oft implizit und
nicht reproduzierbar
Abgrenzbarkeit spektral
kontrastreicher Einzelobjekte
Nutzung der gesamten
Bandbreite an spektraler
Information
Einbeziehung von StereoInformation
Qualität/Genauigkeit von
Flächenschätzungen
Zeitbedarf
Erfassung von Sonderfällen/Ausnahmen
5
Gut, allerdings muss Information
in Regelsätze implementierbar
sein (und explizit vorhanden)
I.d.R. wird „nur“ ein aggregiertes Gut, die volle multispektr. InforBildprodukt genutzt.
mationsdichte kann in Klassifikation einbezogen werden.
Sehr gut, sofern digitale oder
Nein, aber DGM (oder noch
analoge Stereoskopie genutzt
besser DOM) kann als Zusätzliwird
cher Layer mit genutzt werden
Stark schwankend je nach BearGut und objektiv (weil nachvollbeiter, Untersuchungsgebiet,
ziehbar) bei spektral deutlich
Datengrundlage und Klassentiefe abgrenzbaren Einzelobjekten.
Stark schwankend je nach BearRelativ hoch für kleine Gebiete,
beiter, Untersuchungsgebiet,
da Segmentierung und ImpleDatengrundlage und Klassentiefe. mentierung von Regelsätzen
Generell hoher Zeitaufwand bei
aufwändig. Sinkender Zeitbedarf
großen Gebieten.
durch Übertragbarkeit bei größeren Gebieten.
I.d.R. sehr gut, da der Interpret
Eher schlecht, da die Regelwerke
auf einen komplexen Erfahrungs- niemals alle Parameter abdecken
schatz zurückgreifen kann
können.
Ausblick
Es zeigt sich, dass den komplexen Anforderungen an die Auswertung von hochauflösenden
CIR-Luftbildern für verschiedenste Anwendungen weder das schnelle und effektive (aber
subjektive) Aggregationsvermögen des menschlichen Interpreten noch die genaue Segmentierung und Klassifikation in einem objektbasierten Ansatz jeweils als alleiniger Lösungsansatz genügen. Solange es nicht gelingt, mit objektorientierten Ansätzen die Aggregationsleistung des menschlichen Interpreten auch bei Gruppen von spektral sehr stark von ihrer
Umgebung kontrastierenden Objekten zu imitieren, werden beide Ansätze bestehen bleiben
und sich im Idealfall ergänzen müssen.
410
T. Langanke, W. Demel, S. Lang und U. Kias
Als Fazit kann also nicht von einem Showdown die Rede sein, bei der nur ein Kandidat
überlegen ist, sondern wir schlagen vor, dass beide „Duellanten“ bei der Lösung der Aufgaben zusammenarbeiten. Aus der visuellen Luftbildinterpretation steht die Geometrie von
sehr aggregierten Einheiten zur Verfügung (z. B. für Anwendungen im Naturschutz) während auf dieser Basis die objektorientierten Verfahren genauere Quantifizierungen und gegebenenfalls Überprüfungen der Klassifikation ermöglichen.
Die meisten Potenziale zur Weiterentwicklung der Methode werden allerdings beim objektbasierten Ansatz gesehen. Die visuell-manuelle Luftbildinterpretation als solche kann als
ausgereift gelten und wird durch weitere Standardisierungen der Kartierschlüssel weiterentwickelt.
Literatur
BUNDESAMT FÜR NATURSCHUTZ (BFN) / Federal Agency for Nature Conservation (Hrsg.)
(2002): Systematik der Biotoptypen- und Nutzungstypenkartierung (Kartieranleitung).
Schriftenreihe für Landschaftspflege und Naturschutz, 73. Bonn
BURNETT, C.& T. BLASCHKE (2003): A multi-scale segementation/object relationship modelling methodology for landscape analysis. In: Ecological Modelling, 168, 233-249
EDWARDS, G. & K. E. LOWELL (1996): Modelling uncertainty in photo-interpreted boundaries. In: Photogrammetric Eng. Remote Sens., 62, 377-391
EHLERS, M., GÄHLER, M. & R. JANOWSKY (2003): Automated Analysis of Ultra High
Resolution Remote Sensing Data for Biotope Type Mapping: New Possibilities and
Challenges. In: ISPRS Journal of Photogrammetry & Remote Sensing, 57, 315-326
KIAS, U., DEMEL, W. & R. SCHÜPFERLING (2001): Zur Homogenisierung und Automatisierung von Biotoptypen- und Nutzungtypenkartierungen im Alpenraum. In: STROBL, J.,
BLASCHKE, T. & G. GRIESEBNER (Hrsg.): Angewandte Geographische Informationsverarbeitung XIII, 267-273.Wichmann Verlag, Heidelberg
KIAS, U. & H. FRANZ (2002): Working towards a standard for RS-based classification of
alpine landuse and biotope mapping in Central Europe. In: Abstracts of "Enviromount –
Conference on GIS and RS in Mountain Environmental Research", 25-26. Zakopane,
Poland
LANG, S., BLASCHKE, T., LANGANKE, T., KIAS, U. & W. DEMEL (2003): Objektbasierte
Ansätze zur halbautomatisierten Fortschreibung von CIR-Luftbild Kartierungen – ein
Verfahrensvergleich. In: GIS, 9/03, 17-25
LANG, S. & T. BLASCHKE (2003): Hierarchical Object Representation - Comparative MultiScale Mapping of Anthropogenic and Natural Features. In: ISPRS Archives, l, XXXIV,
Part 3/W8, 181-186
LANG, S. & T. LANGANKE (2004): Monitoring von Verbuschungs- und Verwaldungsstadien
im Natura2000-Gebiet Wenger Moor: objektbasierte Bildanalyse und GIS. In: WALZ,
U., LUTZE, G., SCHULTZ, A. & R.-U. SYRBE (Hrsg.): Landschaftsstruktur im Kontext
von naturräumlicher Vorprägung und Nutzung (in Druck)

Documents pareils