Visuelle Interpretation von CIR-Luftbildern im direkten Vergleich mit
Transcription
Visuelle Interpretation von CIR-Luftbildern im direkten Vergleich mit
Visuelle Interpretation von CIR-Luftbildern im direkten Vergleich mit objekt-basierter Bildanalyse – Showdown im Nationalpark Berchtesgaden Tobias LANGANKE, Walter DEMEL, Stefan LANG und Ulrich KIAS Zusammenfassung Die visuell-manuelle Auswertung von Luftbildern ist seit mehreren Jahrzehnten methodisch etabliert und wird als eines der wichtigsten Werkzeuge für vielfältigste Monitoring- und Kartierungsaufgaben eingesetzt. In jüngster Zeit wird verstärkt mit Ansätzen der objektbasierten Bildverarbeitung experimentiert, wobei erste Ergebnisse ein hohes Potenzial aufzeigen, mittelfristig für bestimmte Aufgaben eine operationelle und teil-automatisierte Klassifikation von höchstauflösenden Daten bereitzustellen. Im vorliegenden Beitrag wird eine objektbasierte Klassifikationsmethode angewandt und direkt mit einer herkömmlichen Luftbildauswertung durch einen erfahrenen Interpreten verglichen. Dabei werden die Stärken und Schwächen der beiden Ansätze gegenübergestellt. Der Beitrag schließt mit einem Ausblick auf laufende Entwicklungen der Autoren im Bereich hybrider Methoden, welche Vorteile von objektbasierter Bildverarbeitung und visueller Interpretation zu verbinden versuchen. 1 Einleitung Bei der Klassifizierung von Fernerkundungsdaten haben sich bisher digitale und teilautomatisierte Auswerteverfahren nur bei Satellitendaten geringer bis mittlerer Auflösung durchgesetzt. Obwohl teilweise erfolgreich versucht wird, pixelbasierte Klassifikationsmethoden auf hochauflösende Fernerkundungsdaten mit hohem Detailgrad zu übertragen (z. B. EHLERS et al. 2003), bestehen weiterhin Probleme bei der Ansprache komplexer, naturnaher und wenig anthropogen überprägter Zielklassen, wie z. B. Vegetationsbestände oder Habitattypen (LANG & BLASCHKE 2003). In diesem Bereich ist die visuelle Auswertung durch erfahrene Luftbildinterpreten nach wie vor Standard und Referenz gleichzeitig. Zunehmende Standardisierung und Erfolgskontrollen im europäischen Naturschutz (z. B. im Rahmen des Natura-2000-Netzwerkes) führen bei hochauflösenden Fernerkundungsdaten jedoch zu einem steigenden Bedarf an zuverlässigen, preiswerten, objektiven und in geringen Abständen wiederholbaren Monitoringverfahren. Als Datengrundlage für die Anwendung beider Methoden wurde ein 1.000 × 1.000 m großer Bildausschnitt aus dem Bestand der CIR-Befliegung des Nationalparks Berchtesgaden 1997 verwendet. Das gewählte Subset mit einer Bodenauflösung von ca. 20 cm stand für die visuell-manuelle sowie für die objektbasierte Klassifikation zur Verfügung. Der Zielmaßstab war auf ca. 1:2.500 festgelegt, d.h. für die visuelle Interpretation war dies der 406 T. Langanke, W. Demel, S. Lang und U. Kias Digitalisiermaßstab am Bildschirm. Für die Visualisierung in Abbildung 3 wurde ein ca. 215 × 200 m großes Subset verwendet. 2 Visuelle Interpretation Als Grundlage für die visuelle Interpretation des Luftbildes dient ein vom deutschen Bundesamt für Naturschutz (BfN) für das gesamte Bundesgebiet entwickelter Biotop- und Nutzungstypen-Kartierschlüssel (BFN, 2002). Erfahrungen mit diesem Kartierschlüssel existieren in Berchtesgaden seit 1993. Derzeit wird der Schlüssel im Rahmen eines INTERREG IIIb-Projektes für den europäischen Alpenraum überarbeitet und erweitert (http://www. habitalp.org/; KIAS et al. 2001; KIAS & FRANZ 2002). Die Zielklassen werden vom gebietskundigen Luftbildinterpreten on screen digitalisiert, wobei die eigentliche Interpretationsarbeit an analogen Spiegelstereoskopen erfolgt. Die visuelle Interpretation nutzt unabhängig von der weiter fortschreitenden Digitalisierung des Arbeitsplatzes die überragende Interpretationsleistung des menschlichen Gehirns, die unter anderem auf einem hohen Assoziations- und Aggregationsvermögen beruht. Bei der visuellen Interpretation steht nicht allein der spektrale Informationsgehalt der Luftbilder im Vordergrund; vielmehr werden auch die detaillierten Höheninformationen im Stereomodell sowie komplexe Texturen und Kontextinformation vom Interpreten zur schnellen und sicheren Interpretation genutzt. Dieser Vorgang erfolgt zum überwiegenden Teil intuitiv und nur bedingt unter einer expliziten Formulierung des zugrunde liegenden Expertenwissens. Speziell das Vermögen, gerade auch bei hochauflösenden Bilddaten unabhängig von der – teilweise sogar überflüssigen oder störenden – Informationsdichte aggregieren zu können, stellt in der Bildinterpretation einen wesentlichen Unterschied zwischen einem menschlichen Interpreten und Software dar. Diese intuitive Aggregation bedingt allerdings auch eine Subjektivität in der Interpretation die sich nur schwer quantifizieren lässt (s. Abb. 1). Abb. 1: Beispiel für zwei verschiedene Interpretationen eines Gebietes (Maßstab ca. 1:2.500): Im linken Beispiel steht die Abgrenzung der Bäume zu den offenen Flächen im Vordergrund, außerdem wurde der Baumbestand stärker nach Bedeckungsgrad untergliedert. Rechts sind die locker stehenden Gehölze den Wiesen zugeordnet, könnten aber als Begleiter in der Codierung auftauchen (aus: KIAS et al. 2001). Visuelle Interpretation von CIR-Luftbildern 3 407 Objektorientierte Klassifikation Als objektorientierte Klassifikationsmethode wird hier die von BURNETT & BLASCHKE (2003) beschriebene Methode MSS/ORM (multiscale segmentation and object relationship modelling) angewendet. MSS/ORM formalisiert das häufig nur intuitiv vorhandene Expertenwissen des Luftbildinterpreten über Regelsätze in einer Hierarchie von Bildobjekten. Damit können auch geometrische Eigenschaften und die räumlichen Beziehungen der zu klassifizierenden Einheiten horizontal (zu Nachbarobjekten) oder vertikal (auf andere Levels bezogen) für die Klassifikation verwendet werden. GIS-analytische Funktionalität wird somit genutzt, um die Zuordnung der Bildobjekte zu eben auch räumlich charakterisierten Zielklassen in Form einer Datenbankabfrage der Objekteigenschaften effizient zu bewerkstelligen. Für die objektbasierte Klassifikation wird die Software eCognition (DEFiNiENS, München) genutzt, da hier in einem operationell verfügbaren Produkt multiskalare Segmentierung mit der einfachen Implementierbarkeit von Klassifikationsregeln in fuzzifizierten oder scharfen Regelsätzen kombiniert ist. So werden für die in Abbildung 3 gezeigte Klassifikation verschiedene Objekteigenschaften in Regelsätzen verwendet. Unter anderem werden genutzt: Höheninformation aus einem DGM (und abgeleitete Parameter), das Längen-Breiten-Verhältnis von Objekten und der mittlere Abstand zu Objekten bestimmter Klassen auf darüber- oder darunter liegenden Segmentierungsebenen (Levels). Das Vorgehen wird z. B. in LANG & LANGANKE (in Druck) detaillierter beschrieben und ein Ablaufschema in Abbildung 2 zusammengefasst. Abb. 2: 4 Ablaufschema des MSS/ORM Ansatzes: ausgehend von einem CIR-Luftbild wird über Segmentierung und Implementierung von Regelsätzen eine Klassifikation erzeugt, die als Vektor-Datensatz beliebig weiterverwendet werden kann. Vor- und Nachteile der Methoden im direkten Vergleich Im direkten Vergleich werden die Unterschiede der beiden Klassifikationsmethoden deutlich. Während die Stärke der visuellen Interpretation eindeutig in der schnellen und sicheren Erfassung von Biotoptypen oder Landnutzungsklassen auf einem relativ hohen Aggregationsniveau liegt, steigt der Arbeitsaufwand bei sehr detaillierten und kleinräumigen Zielklassen im Vergleich zur objektbasierten Methode signifikant an. Das vielfach beschriebene Problem der Subjektivität der visuellen Abgrenzung von Einheiten (EDWARDS & LOWELL 1996) wird ebenfalls als systemimmanente Schwäche deutlich. Das getestete objektbasierte Verfahren zeigt hingegen eindeutige Vorteile bei der Segmentierung und anschließenden Klassifikation von relativ kleinräumigen Einheiten, besonders wenn ein hoher spektraler Kontrast zur umliegenden Matrix gegeben ist. Die Ausweisung der Zielklassen verläuft schnell und vergleichsweise objektiv, da das Vorgehen durch die Formulierung der Regelsätze transparent und bei gleichen Einstellungen beliebig repro- 408 T. Langanke, W. Demel, S. Lang und U. Kias duzierbar bleibt. Ein weiterer Vorteil liegt in der Möglichkeit, auf mehreren Maßstabsebenen gleichzeitig zu arbeiten und die Ergebnisse flexibel den geforderten Zielklassen anzupassen. Auf der anderen Seite werden aber auch die Nachteile des Ansatzes im Vergleich mit der manuellen Referenzkartierung deutlich: Es bestehen Schwierigkeiten, relativ stark aggregierte und aus spektral stark kontrastierenden Objekten aufgebaute Zielklassen als einheitliche Aggregate auszuweisen, da der zugrunde liegende Segmentierungsalgorithmus auf der Homogenität der zusammenzufassenden Pixel beruht (‚orchard problem’). Abb. 3: Ergebnisse der objektbasierten, feinmaßstäbigen Klassifikation mit der visuellen Klassifikation (aggregierte Klassen, weiß umrandete Polygone). Die Polygone aus der visuellen Klassifikation werden bei der Segmentierung in eCognition als vorgegebene Grenzen genutzt und später mit der MIST Extension analysiert. Rechts die Klassifikationsanteile für das links markierte Polygon aus der visuellen Klassifikation. Einen möglichen Ausweg sehen die Autoren deshalb in einem hybriden Ansatz, der die Stärke der menschlichen Mustererkennung auf einem hohen Aggregationsniveau mit der Klassifikationsleistung der objektbasierten Methode auf dem Level der kleinsten strukturbildenden Einheiten kombiniert. Dabei wird die Möglichkeit genutzt, bestehende, vom Interpreten ausgewiesene Grenzen bei der Bildsegmentierung mit zu berücksichtigen. In einem GIS wird dann durch Vektorüberlagerung die jeweilige Zusammensetzung der Zielklassen analysiert. Mithilfe der ArcView Extension MIST (Manual Interpretation Support Tool, inhouse-Entwicklung) ist es möglich, die Anteile der objektbasierten Klassifikation für jedes der aggregierten Polygone aus der visuellen Klassifikation zu quantifizieren (siehe Abb. 3). Die Implementierung von externem Expertenwissen in komplexen Regelsätzen ist ebenfalls nicht unproblematisch. Zum einen besteht die Schwierigkeit, dass der Interpret seine Interpretationsleistung nicht immer in formalisierbare Regeln fassen kann, auf der anderen Seite ist die Implementierung und besonders das fine tuning der Regelsätze über Fuzzy- Visuelle Interpretation von CIR-Luftbildern 409 Zuordnungsregeln in der Software eCognition sehr zeitaufwändig und die Resultate sind nicht in jedem Fall auf andere Datensätze mit anderen Beleuchtungsverhältnissen und anderen strukturellen Gegebenheiten übertragbar. Die folgende Tabelle fasst die genannten Punkte zusammen: Tabelle 1: Vergleich von manueller und objektbasierter Klassifikation Manuelle Interpretation Gut, allerdings bei kleinen Objekten großer Aufwand Objektbasierte Interpretation Gut, effektiv und schnell auch bei kleinen Objekten Abgrenzbarkeit aggregierter Einheiten mit spektral nur z.T. distinkten Außengrenzen Gut, allerdings stark subjektiv, bzw. nur durch sehr komplexe Kartierregeln steuerbar Schlecht, da Segmentierung auf Homogenitäts-Kriterium beruht Nutzung von semantischer Information Gut, allerdings oft implizit und nicht reproduzierbar Abgrenzbarkeit spektral kontrastreicher Einzelobjekte Nutzung der gesamten Bandbreite an spektraler Information Einbeziehung von StereoInformation Qualität/Genauigkeit von Flächenschätzungen Zeitbedarf Erfassung von Sonderfällen/Ausnahmen 5 Gut, allerdings muss Information in Regelsätze implementierbar sein (und explizit vorhanden) I.d.R. wird „nur“ ein aggregiertes Gut, die volle multispektr. InforBildprodukt genutzt. mationsdichte kann in Klassifikation einbezogen werden. Sehr gut, sofern digitale oder Nein, aber DGM (oder noch analoge Stereoskopie genutzt besser DOM) kann als Zusätzliwird cher Layer mit genutzt werden Stark schwankend je nach BearGut und objektiv (weil nachvollbeiter, Untersuchungsgebiet, ziehbar) bei spektral deutlich Datengrundlage und Klassentiefe abgrenzbaren Einzelobjekten. Stark schwankend je nach BearRelativ hoch für kleine Gebiete, beiter, Untersuchungsgebiet, da Segmentierung und ImpleDatengrundlage und Klassentiefe. mentierung von Regelsätzen Generell hoher Zeitaufwand bei aufwändig. Sinkender Zeitbedarf großen Gebieten. durch Übertragbarkeit bei größeren Gebieten. I.d.R. sehr gut, da der Interpret Eher schlecht, da die Regelwerke auf einen komplexen Erfahrungs- niemals alle Parameter abdecken schatz zurückgreifen kann können. Ausblick Es zeigt sich, dass den komplexen Anforderungen an die Auswertung von hochauflösenden CIR-Luftbildern für verschiedenste Anwendungen weder das schnelle und effektive (aber subjektive) Aggregationsvermögen des menschlichen Interpreten noch die genaue Segmentierung und Klassifikation in einem objektbasierten Ansatz jeweils als alleiniger Lösungsansatz genügen. Solange es nicht gelingt, mit objektorientierten Ansätzen die Aggregationsleistung des menschlichen Interpreten auch bei Gruppen von spektral sehr stark von ihrer Umgebung kontrastierenden Objekten zu imitieren, werden beide Ansätze bestehen bleiben und sich im Idealfall ergänzen müssen. 410 T. Langanke, W. Demel, S. Lang und U. Kias Als Fazit kann also nicht von einem Showdown die Rede sein, bei der nur ein Kandidat überlegen ist, sondern wir schlagen vor, dass beide „Duellanten“ bei der Lösung der Aufgaben zusammenarbeiten. Aus der visuellen Luftbildinterpretation steht die Geometrie von sehr aggregierten Einheiten zur Verfügung (z. B. für Anwendungen im Naturschutz) während auf dieser Basis die objektorientierten Verfahren genauere Quantifizierungen und gegebenenfalls Überprüfungen der Klassifikation ermöglichen. Die meisten Potenziale zur Weiterentwicklung der Methode werden allerdings beim objektbasierten Ansatz gesehen. Die visuell-manuelle Luftbildinterpretation als solche kann als ausgereift gelten und wird durch weitere Standardisierungen der Kartierschlüssel weiterentwickelt. Literatur BUNDESAMT FÜR NATURSCHUTZ (BFN) / Federal Agency for Nature Conservation (Hrsg.) (2002): Systematik der Biotoptypen- und Nutzungstypenkartierung (Kartieranleitung). Schriftenreihe für Landschaftspflege und Naturschutz, 73. Bonn BURNETT, C.& T. BLASCHKE (2003): A multi-scale segementation/object relationship modelling methodology for landscape analysis. In: Ecological Modelling, 168, 233-249 EDWARDS, G. & K. E. LOWELL (1996): Modelling uncertainty in photo-interpreted boundaries. In: Photogrammetric Eng. Remote Sens., 62, 377-391 EHLERS, M., GÄHLER, M. & R. JANOWSKY (2003): Automated Analysis of Ultra High Resolution Remote Sensing Data for Biotope Type Mapping: New Possibilities and Challenges. In: ISPRS Journal of Photogrammetry & Remote Sensing, 57, 315-326 KIAS, U., DEMEL, W. & R. SCHÜPFERLING (2001): Zur Homogenisierung und Automatisierung von Biotoptypen- und Nutzungtypenkartierungen im Alpenraum. In: STROBL, J., BLASCHKE, T. & G. GRIESEBNER (Hrsg.): Angewandte Geographische Informationsverarbeitung XIII, 267-273.Wichmann Verlag, Heidelberg KIAS, U. & H. FRANZ (2002): Working towards a standard for RS-based classification of alpine landuse and biotope mapping in Central Europe. In: Abstracts of "Enviromount – Conference on GIS and RS in Mountain Environmental Research", 25-26. Zakopane, Poland LANG, S., BLASCHKE, T., LANGANKE, T., KIAS, U. & W. DEMEL (2003): Objektbasierte Ansätze zur halbautomatisierten Fortschreibung von CIR-Luftbild Kartierungen – ein Verfahrensvergleich. In: GIS, 9/03, 17-25 LANG, S. & T. BLASCHKE (2003): Hierarchical Object Representation - Comparative MultiScale Mapping of Anthropogenic and Natural Features. In: ISPRS Archives, l, XXXIV, Part 3/W8, 181-186 LANG, S. & T. LANGANKE (2004): Monitoring von Verbuschungs- und Verwaldungsstadien im Natura2000-Gebiet Wenger Moor: objektbasierte Bildanalyse und GIS. In: WALZ, U., LUTZE, G., SCHULTZ, A. & R.-U. SYRBE (Hrsg.): Landschaftsstruktur im Kontext von naturräumlicher Vorprägung und Nutzung (in Druck)