Textoptimierung Gerd Antos (Halle/Saale), Ursula Hasler und Daniel

Transcription

Textoptimierung Gerd Antos (Halle/Saale), Ursula Hasler und Daniel
AUTHOR’S COPY | AUTORENEXEMPLAR
Textoptimierung
Gerd Antos (Halle/Saale), Ursula Hasler
und Daniel Perrin (Winterthur)
1.
1.1
1.2
Einordnung und Probleme
Einordnung
Probleme und Besonderheiten des Forschungsstandes zur
Textsortenoptimierung
2.
Forschungsstand und Entwicklungstendenzen
2.1 Interdisziplinarität
2.2 Lesbarkeitsforschung
2.3 Kognitive Verständlichkeitskonzepte
2.3.1 Hamburger Verständlichkeitsmodell und Typisierungskompetenz
2.3.2 Norbert Groeben: Textoptimierung durch Textorganisation
2.3.3 Textverarbeitung (Ballstaedt/Mandl/Schnotz/Tergan und Meutsch)
2.4 Textoptimierung als Handlungsoptimierung (Sauer)
2.5 Textoptimierung als dynamisches System
3.
Textoptimierung als Frage der Usability
3.1 Dominanz der Rahmenbedingungen
3.2 Optimierungskriterium: Scanbarkeit
3.3 Optimierungskriterium: Auffindbarkeit
3.4 Webtextoptimierung vor Verständlichkeit
4.
Fazit und Ausblick
5.
Literaturverzeichnis
1. Einordnung und Probleme
1.1 Einordnung
Texte sind das historisch erste (Ehlich 1983) und bis heute das wichtigste Leitmedium von raumzeitlicher Distanzkommunikation. Erst auf
der Grundlage von Texten (Antos 2009) lässt sich beschreib- und
kommunizierbares Wissen von praktisch beliebiger Komplexität thematisch fokussieren, literal kohärent repräsentieren, semiotisch sichtbar
machen (Antos 1997), zudem: bei entsprechenden ökonomischen und
technisch leichten Trägermedien leicht vervielfältigen, archivieren und
somit auch für die Zukunft „vererbbar“ machen.
Kulturhistorisch haben sich Texte spätestens seit dem Buchdruck
aus dem übergreifenden Format des „buchbezogenen Textes“ (Illich
1991) emanzipiert, textsortenspezifisch und funktional ausdifferenziert
und teilweise auch medial verselbstständigt (Fix et al. 2002). Dieser
Prozess hat sich mit dem Aufkommen periodischer Printmedien, der
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
639
Textoptimierung
Bürokratisierung moderner Gesellschaften, aber auch mit der Entwicklung funktionalstilistischer Diskurswelten (Alltag, Medien, Wissenschaft, Verwaltung/Recht, Wirtschaft, Industrie/Technik) immer weiter
ausdifferenziert. Damit wurden einerseits die räumliche, kulturelle und
soziale Reichweite und die literale Präzision der Textkommunikation
erhöht. Zusammen mit dieser zeit- und kulturübergreifenden Entgrenzung von sprachgebundenem Wissen haben Texte sowohl andere
Medien (Mündlichkeit und audiovisuelle Medien) als auch neue gesellschaftliche (Wissens-)Diskurse geprägt. Die Konsequenz dieses wechselseitigen Prozesses: Texte als ursprüngliches Leitmedium raumzeitlicher Distanzkommunikation müssen heute auch als medien- und
diskursgeprägte Kommunikationsformate verstanden werden.
Aufgrund dieser raumzeitlichen, medialen und funktionalen Ausdifferenzierung von Texten steigen aber auch Barrieren und Irritationen
beim Lesen und damit bei der Rezeption von Texten insgesamt (Groeben 1982; Jäger 1996). Prototypisch dafür ist die Wissensrezeption von
„Laien“ in gesellschaftlichen Systemen wie Recht, Wissenschaft, Technik, Medizin oder Wirtschaft (Furnham 1988). Barrieren in der „Experten-Laien-Kommunikation“ sind daher nicht zufällig zum Forschungsgegenstand der Linguistik geworden (Wichter 1994; Busch 1994;
Wichter & Antos 2001).
Zwei konvergierende Tendenzen spielen bei dem genannten Phänomen zusammen: Einerseits differenzieren sich Texte in den diversen
Medien thematisch, funktional, aber auch stilistisch immer weiter aus,
so dass sie in einer Fachkommunikation selbst für Fachleute oftmals zu
einem Verständnisproblem werden können.
Zugleich sind immer mehr „Laien“ in Beruf und Alltag auf einen
Wissenstransfer aus den Bereichen Recht, Wirtschaft, Technik (Krings
1996), Medizin oder Wissenschaft (Jakobs, Knorr & Molitor-Lübbert
1995; Jakobs & Knorr 1997) angewiesen (Niederhauser 1999). Damit
erhöht sich für Rezipienten tendenziell der Druck, sich pro Zeiteinheit
mit immer mehr Kommunikations-, Medien- und Wissensangeboten
auseinanderzusetzen. Das gilt vor allem für „professionelle Schreiber“,
zum Beispiel in Wissenschaft, Marketing, PR und Journalismus (Perrin
1997). Es gilt aber auch für alle anderen, die heute am PC Texte schreiben und/oder Texte verarbeiten. Prototypisch für den zunehmenden
Kommunikationsdruck ist heute z. B. die Mailkommunikation, deren
Anschwellen nicht nur Individuen, sondern auch Unternehmen vor
kaum mehr zu lösende zeitliche und organisatorische Probleme stellt
(Meckel 2007).
Aber nicht nur die Quantität der Textkommunikation steigt insbesondere in professionellen Communities. Auch die Anforderungen an
die Qualität von Texten sind gewachsen (Jakobs, Knorr & Pogner
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
640
Gerd Antos, Ursula Hasler und Daniel Perrin
1999). Davon zeugt die linguistische Auseinandersetzung mit Textberatung (Perrin 2006) sowie mit einer in den letzten beiden Jahrzehnten
gewachsenen Literatur zu Sprachratgebern (Antos 1996; Greule 2002).
Sie vermitteln nicht nur Hilfen für die Textherstellung (z. B. Academic
writing, Business writing), sondern (unter der Maxime „writing is rewriting“) auch Strategien zu dem, was man heute bis weit ins Netz hinein – wenn auch eher heuristisch zu verstehen – als „Textoptimierung“
(TO) bezeichnet.
TO kann als ein primär wertender Aktivitätstyp kommunikativen
Handelns verstanden werden. Dieser Typ ist kulturell durch Kommunikationsformate ebenso geprägt wie funktional durch Textsorten, Stile
oder kommunikative Praktiken. So würde man z. B. Lyrik, Romane,
Erotika, Kinderbücher oder die Bibel nur unter kabarettistischen Vorzeichen einer Textoptimierung unterziehen wollen. Ferner: In manchen
Systemen – wie dem des Rechts – ist die Forderung nach „verständlichen Gesetzen/AGB oder Verordnungen“ zwischen den Akteuren
(Juristen, Politikern, Bürgern) höchst umstritten. Bei der Textsorten-Familie „Finanzprodukte“ oder bei „Allgemeinen Geschäftsbedingungen“
(AGB) wird eine dem Verständnis von Bürgern/Laien entgegenkommende TO von Interessengruppen unterlaufen oder ignoriert (Schendera
2004; Eichhoff-Cyrus & Antos 2008). In wieder anderen Systemen wie
dem der Medizin oder Technik scheinen sich koexistierende Kommunikationsformate herauszubilden: Hier stehen die jeweiligen Fachsprachen neben Texten, die dem Informationsbedürfnis von Laien gerecht
werden wollen (Busch 1994). Wie man aus diesen Beispielen ersehen
kann: Die Forderung nach Textoptimierung bzw. deren Praktizierung
ist zum einen in übergeordnete kulturelle Wertesysteme eingelassen;
zum anderen stellt die TO eine (wachsende) Ressource von kommunikativer Sinn- und Ordnungsbildung bei der Produktion, Distribution
und Rezeption von Texten dar.
Daher kann es auch nicht überraschen, wenn im Kontext von Textoptimierungen „(teilweise opake) sprachliche Manifestationen von
Herrschaft, Dominanz, Disziplinierung, (Selbst-)Kontrolle etc.“ zu finden sind – „sei es aus der Perspektive von Managern und Ingenieuren
[…] entlang rationaler Kalküle wie Effizienz, Verständlichkeit, Konsistenz, Erfolgsmessung etc.“ (vgl. Abschnitt 2 der Einleitung in diesem
Band). Vor diesem Hintergrund ist TO eine bevorzugte Aktivitätstypisierung kommunikativen Handelns in gesellschaftlichen Systemen und
Organisationen (wie Wirtschaft, Medien, Politik oder auch in Schulen
und Hochschulen). Hier gilt:
Wer in eine Organisation eintritt, z. B. als Mitarbeiter eines Call Centers, verzichtet damit bis zu einem gewissen Grad auf individuelle Handlungsautonomie zugunsten eines Autonomiegewinns der Organisation (vgl. Barnard 1938).
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
641
Textoptimierung
Er kann z. B. in aller Regel nicht auf das gesamte sprachliche Muster- und
Formenrepertoire zurückgreifen, das gesellschaftlich für diesen Kontext zur
Verfügung steht; vielmehr wird sein Handeln zusätzlich reguliert durch formale Vorgaben, die das Ergebnis organisationaler Entscheidungen sind und die
durch Bürokratie, technische Systeme und Anweisungen auf der Basis von
Hierarchien durchgesetzt werden (vgl. Cameron 2000; Fairclough 2003) (vgl.
die Einleitung in diesen Band, Fn. 9).
1.2 Probleme und Besonderheiten des Forschungsstandes
zur Textsortenoptimierung
Als Ausgangspunkt und Kriterium für das Verständnis von TO, aber
auch für dessen Bewertung lässt sich das Diktum von Ludger Hoffmann heranziehen: „‚Optimal‘ sind Texte, die für Autoren oder Adressaten genau das leisten, was sie leisten sollen, und dies gerade aufgrund
der Eigenschaften des Textes tun“ (Hoffmann 1992:52). Wann aber ein
konkreter Text als „optimal“ bezeichnet werden kann, hängt von verschiedenen Faktoren ab, die sich von Text zu Text, aber auch im Hinblick auf unterschiedliche Rezipienten erheblich unterscheiden können
(vgl. Hochhaus 2004). Vor diesem Hintergrund sollen zunächst einige
grundlegende Probleme dem folgenden Forschungsstand vorangestellt
werden:
1. Das erste Problem der TO ergibt sich aus ihrem Verhältnis zu Verständlichkeit und Verständlichkeitsforschung: Textoptimierung ist
die Reflexion und die Anwendung einer angewandten Verständlichkeitstheorie (vgl. Antos & Augst 1992). Für Textproduzenten heißt
das zum einen, dass „alles, was gesagt werden kann, auch verständlicher gesagt werden kann“ (Biere 1996:293).
2. Aus dem Ziel, Texte verständlicher zu machen, resultiert aber bereits
ein zweites Problem: „Es gibt keine Textverständlichkeit an sich! Anstatt dessen haben wir es mit einer Liste von Faktoren zu tun, die sensibel gegenüber Textsorten, gegenüber unterschiedlichen kommunikativen Absichten, gegenüber unterschiedlichen Lesergruppen und
Leserzielen und gegenüber verschiedenen Nutzungszusammenhängen von Textinformationen sind“ (Meutsch 1989:16–17). Daher
muss die TO auf die Lösung ganz verschiedener, z. T. auch auseinanderlaufender oder gar sich widersprechender kommunikativer, textueller und/oder sprachlich-stilistischer Probleme gerichtet sein.
3. Die TO stellt nicht nur ein Problemfeld für Schreiber dar. Auch das,
was Leser im Hinblick auf Verständlichkeit in bestimmten Kommunikationsarenen und Textsorten erwarten (dürfen), wird durch
kulturelle, funktionale und pragmatische Rahmenbedingungen präjudiziert oder sogar normativ vorgegeben (z. B. Schreiben von Bewerbungsunterlagen nach Vorgaben der deutschen DIN Norm 2008).
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
642
Gerd Antos, Ursula Hasler und Daniel Perrin
4. Betrachtet man Schreiben als einen sehr unterschiedliche Aspekte
umfassenden Problemlösungsprozess (Antos 1982; Jakobs & Perrin
2008), so erfordern sowohl die erste Textproduktion als auch die
folgenden Textoptimierung(en) ein Jonglieren mit z. T. sehr unterschiedlichen Textproduktionsproblemen (Hayes & Flower 1980),
z. B. die zur Verfügung stehende „Zeit“, der zur Verfügung stehende Raum, die Erwartungen und das Vorwissen der Adressaten, vor
allem aber mit Problemen wie: Was soll in einen Text aufgenommen werden und was nicht?
5. Ein weiteres Typologisierungsproblem betrifft die Frage nach einer
sinnvollen Abgrenzung von Textrevision und gezielter Textoptimierung. Wenngleich die Textrevision im engeren Sinn die abschließende Korrektur von orthographischen, grammatikalischen
oder stilistischen Fehlern beinhaltet, kann sie zugleich auch als ein
erster Schritt der Textoptimierung verstanden werden, wobei neben
Korrekturen gleichermaßen Verbesserungen, Änderungen in der
Textorganisation und Reformulierungen eine Rolle spielen können.
6. Dies vor dem Hintergrund, dass sich die drei globalen Problemlöseaktivitäten bei der Textherstellung und der TO strukturell gleichen:
Ausgangspunkt ist bei beiden Aktivitätstypen ein – wie auch immer
beschaffener – Anfangszustand (Intention, „Stoff“, Material, oder
eben ein bereits fertiger Ausgangstext), 2. der (erwünschte oder
„optimierte“) Endzustand und 3. die problemlösende Überführung
vom Anfangs- in den Endzustand in Gestalt von „Barrieren“.
7. All diese Punkte führen schließlich zu einer zusammenfassenden
Frage: Inwiefern ist eine Grenzziehung zwischen Textoptimierung
und Textproduktion überhaupt sinnvoll? Und inwieweit hängt diese von einer Reihe von Faktoren wie Zeitdruck bei der Textproduktion, Distanzierungsmöglichkeit vom hergestellten Text, aber
auch Kenntnis vom Vorwissen und von den Erwartungen bei Rezipienten ab?
2. Forschungsstand und Entwicklungstendenzen
2.1 Interdisziplinarität
Die Verständlichkeitsforschung und die eher praxisorientierte Erforschung der TO sind eng miteinander verwandt – beide sind Gegenstand
sowohl der Linguistik als auch der Kognitionspsychologie, ferner der
Schreibforschung, der pädagogischen Psychologie, der Medienwissenschaften und der „Transferwissenschaft“. Im Folgenden kann der Forschungsstand (schon aus Platzgründen) weder chronologisch noch systematisch dargestellt werden. Vielmehr soll gezeigt werden, wie die
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
643
Textoptimierung
Forschungen zur Verständlichkeit und zur TO unter den in dem vorliegenden Buch problematisierten Aspekten typologischer Zielsetzungen
einzuschätzen sind. Insbesondere soll versucht werden, die theoretischen Implikationen eines Anwendungsbeispiels in Abschnitt 3 („Textoptimierung als Frage der Usability“) auf das Problem der Typologisierung herauszuarbeiten.
2.2 Lesbarkeitsforschung
Verschafft man sich einen Überblick über Arbeiten zur Textoptimierung in Hinblick auf typologische Fragen, so lässt sich eine Entwicklung entlang textoptimierender Kriterien erkennen und festhalten: Ihren
Ausgangspunkt nimmt die Verständlichkeitsforschung bei der Lesbarkeitsforschung1. Im Mittelpunkt stand dabei die Entwicklung von Lesbarkeitsformeln (wie z. B. der Flesch-Test) in Form von mathematischen Berechnungen zu Wortlänge und Wortschwierigkeit (Meutsch
1989:9–13). Diese Lesbarkeitsformeln sollten objektive Aussagen über
die Lesbarkeit von Texten liefern. Auch wenn in jüngster Zeit (im
Netz) ein neues Bedürfnis nach der Messung von Textverständlichkeit
sichtbar zu werden scheint, gilt, was die Kritik an der Lesbarkeitsforschung herausgestellt hat: Die Rolle von Rezipienten wird zugunsten
einer allein auf den immanenten Text basierten Verstehbarkeit vernachlässigt.
2.3 Kognitive Verständlichkeitskonzepte
Dies änderte sich mit einem neuen Verständnis von Verständlichkeit,
das geradezu als Paradigmenwechsel gefeiert wurde: Der Rezipient
„nimmt nicht passiv Informationen auf, sondern verarbeitet sie kognitiv-konstruktiv vor dem Hintergrund seines individuellen Wissens von
der Welt“ (Groeben & Christmann 1989:168). Textverständlichkeit
hängt daher nicht nur von der sprachlich-textuellen Manifestation ab,
sondern u. a. von Rezipientenvariablen wie Interesse am Thema, Vorwissen, soziale und situative Bedingungen, Kontexte.
2.3.1 Hamburger Verständlichkeitsmodell
und Typisierungskompetenz
Eine methodisch radikale – zudem sehr erfolgreiche – Konzeption erfuhr dieses Paradigma im Verständlichkeitskonzept von Langer, Schulz
von Thun und Tausch. Stellvertretend für Rezipienten bewerten Probanden in einem skalierten Rating-Verfahren, was sie im Hinblick auf
—————
1
Vgl. den kritischen Abschnitt bei Heijnk (1997).
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
644
Gerd Antos, Ursula Hasler und Daniel Perrin
folgende (polar angeordnete) „Merkmale der Verständlichkeit“ (vgl.
Langer, Schulz von Thun & Tausch 1987:8) für „verständlich“ halten.
„Einfachheit“ wird für die Beurteiler u. a. mit Wortanzahl pro Satz,
die Verwendung geläufiger Wörter oder transparentem Satzbau operationalisiert; „Gliederung“ mit Folgerichtigkeit, Übersichtlichkeit, guter
Unterscheidbarkeit von Wesentlichem und Unwesentlichem, Sichtbarkeit des roten Fadens. Bei den Kriterien „Kürze – Prägnanz“ und „Anregende Zusätze“ wird besonders deutlich, dass das so genannte Hamburger Verständlichkeitsmodell keine objektivierende „Verständlichkeit“
misst, sondern die Meinung von Probanden über als verständlich/nicht
verständlich eingeschätzte Texte. Gleichwohl lässt sich dieses Modell als
eine – überaus praktikable – Typisierungsleistung von Beteiligten/Betroffenen verstehen. Und entsprechend: Die genannten Merkmale der
Verständlichkeit könnten im Sinne ethnomethodologischer Methoden
daher als alltagsweltliche „Beteiligtenkategorien“ aufgefasst werden.
2.3.2 Norbert Groeben: Textoptimierung durch
Textorganisation
Eine besondere Form der Typisierung favorisiert das Verständlichkeitskonzept von Groeben (Groeben 1982), bei dem das kognitive Lernen
(im Kontext von Unterrichtstexten) im Vordergrund steht. Man könnte
Textoptimierung als eine Typisierungsinszenierung von Textorganisationsformen und -strategien charakterisieren: Durch z. B. so genannte
„Advance Organizer“ und/oder durch Zusammenfassung (heute auch
durch Diagramme, Abbildungen, hypertextähnliche Ergänzungen und
durch Text-Design) werden für Leser Hilfestellungen und Stimulanzien
bei der Erfassung und Verankerung von wichtigen Textinhalten geboten. Im Hinblick auf den/die Schreiber sind solche Rezeptionshilfen als
vorgreifende Alltagstypisierung zu interpretieren, die einen Blick darauf
gestatten, welche Selbstmodelle Schreiber haben, um wichtige Zusammenhänge im eigenen Text beurteilbar zu machen.
Die genannten Rezeptionshilfen und Stimulanzien können zudem
als reflektierte „Anzeigehandlungen“ (vgl. die Einleitung in diesen
Band) für die innere Ordnung, Hierarchisierung und Strukturierung
eines Textes verstanden werden. Wie heute – oft schon in übertriebener
Form – bei der sog. „Powerpointisierung“ von Inhalten geht es bei dem
Groeben’schen Ansatz von Verständlichkeit im Kern um eine (rezipientenorientierte) Inszenierung der (Wissens-)Architektur eines Textes2.
Insofern überrascht es nicht, wenn als Anweisungen zur Erstellung
—————
2
„Textoptimierung unter einer Handlungsperspektive ist immer Wissensoptimierung“
(Hochhaus 2004).
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
645
Textoptimierung
verständlicher Texte folgende Kriterien herausgestellt werden: Gute
inhaltliche Strukturierung, Konzepthierarchie und neue Informationen
sollen in logischer Ordnung am Anfang des Textes vorkommen und
von schon Bekanntem abgegrenzt werden. Diese „Anzeigehandlungen“
verdeutlichen nicht nur eine selbstbezügliche Reflexion über die eigene
Textherstellung, sondern sind eine Art metakommunikative und alltagshermeneutische Sinnerzeugung des Textproduzenten mit dem Anspruch und der Erwartung, Einfluss und Steuerung auf die (als aktiv
und konstruktiv unterstellte) Rezeption der Leser zu nehmen. Das geht
so weit, dass (nur) ein „mittlerer Verständlichkeitsgrad“ bei Texten
angestrebt werden soll, um die Leser nicht zu langweilen; mehr noch:
dass durch eine Reihe von Überraschungseffekten das Interesse des
Lesers an der weiteren Textlektüre aufrechterhalten werden soll.
2.3.3 Textverarbeitung (Ballstaedt, Mandl, Schnotz, Tergan
und Meutsch)
Anknüpfend an Kintsch und Vipond (1979) haben Ballstaedt, Mandl
und Schnotz (1981) ein theoretisch anspruchsvolles, aber empirisch nur
sehr ansatzweise verwendetes Prozessmodell der semantischen Textverarbeitung vorgelegt. Unter besonderer Berücksichtigung von Leservariablen (z. B. lesefreundliche Gestaltung des Textes und Veränderungen
der Lernvoraussetzung des Lesers) ermöglicht es Verständlichkeitsmessung, die auf der Grundlage von Leser-Text-Interaktionen sowohl formale Textmerkmale als auch die Semantik von Texten umfasst.
Dietrich Meutsch (1989) hat im Anschluss an Forschungen von
Ballstaedt, Mandl, Schnotz und Tergan (1981) eine Reihe von Variablen aufgelistet, die Textverständlichkeit beeinflussen und von Schreibern berücksichtigt werden sollen:
1. Textvariablen: Überschriften, advance organizers, Zusammenfassungen, Gliederungen, Anknüpfungs- und Integrationshilfen, Typographie;
2. Kontextvariablen in Rezeptions- oder Äußerungssituationen: Leseperspektiven, Stimuli, Lern- und Leseziele, Verwendungszusammenhänge;
3. Leservariablen: Wissensstand/Vorwissen, Art der Wissensorganisation, kognitive Fähigkeiten, Interessen und Zielsetzungen.
2.4 Textoptimierung als Handlungsoptimierung (Sauer)
Textoptimierung ist ein hochgradig individueller Prozess – sowohl für
Schreiber als auch für Leser. Aber ähnlich der Hermeneutik, die man
sozusagen als eine „Textoptimierungslehre für Leser“ verstehen kann,
„kann es kein Patentrezept für den optimalen Text geben“ (Hochhaus
2004). Vielmehr ist die TO ein mehrdimensionaler Prozess, der kaum
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
646
Gerd Antos, Ursula Hasler und Daniel Perrin
angemessen durch die Berücksichtigung von Variablen-Listen verdeutlicht werden kann – weder für die verschiedenen an der TO-Forschung
befassten Wissenschaften noch für die Schreiber. Ferner ist zu berücksichtigen: TO ist aber nicht nur auf das „Verständlich(er)-Machen“
ausgerichtet, sondern integriert in das, was man die Optimierung eines
Handlungszusammenhangs nennen könnte. In eine solche Richtung
geht das Minimalmodell von Sauer (1995), das vier Anforderungen an
verständliche Texte stellt: 1. Lesbarkeit (Wahrnehmbarkeit), 2. Verstehbarkeit, 3. Brauchbarkeit und 4. Anwendbarkeit. Entscheidend ist
für Sauer, ob der Leser nach Lektüre eines Textes in der Lage ist, bestimmte intendierte Folgehandlungen hinsichtlich seiner Anwendbarkeit zu vollziehen. Verständlichkeit und Brauchbarkeit sind dazu sozusagen notwendige, aber noch keine hinreichenden Bedingungen.
2.5 Textoptimierung als dynamisches System
Im Schnittfeld von angewandter Linguistik und dynamischer Systemtheorie (Larsen-Freeman 2008) lässt sich Textoptimierung aber auch als
dynamisches System verstehen: als komplexer Prozess der Textherstellung und -veränderung, der ständig mit vielschichtigen Umwelten
(Normen, Quellen, Autorenteams, …) interagiert und zu emergenten
Produkten führt – zu Ergebnissen also, die unvorhersehbar und situativ
entstanden sind und mehr sind als die Summe ihrer Teile.
Ein solcher Prozess und seine Produkte lassen sich grundsätzlich
weder sicher vorhersagen noch monokausal steuern, aber er lässt sich
durch die Gestaltung der Produktionsumwelt beeinflussen (Perrin 2010).
Dies erklärt, warum keine absolute Regel der Textoptimierung funktionieren kann, warum aber gesteigerte Wachheit (Language awareness)
der Textproduzierenden für das situative Zusammenspiel von Umweltfaktoren zu situativ angemessenen Produktionsprozessen und Texten
führen kann.
Textoptimierung als dynamisches System muss deshalb bewährte
Maximen älterer Ansätze systematisch an den relevanten Umweltgrößen
situierter Textproduktion reflektieren. Abbildung 1 gibt einen Überblick
über solche Umweltgrößen und die damit verbundenen Produktionspraktiken, die es im Sinn gewünschter Prozess- und Produktqualität abzustimmen gilt.
Das dynamische System situierter Textproduktion beginnt mit dem
Verstehen der Produktions- und/oder Optimierungsaufgabe und endet
mit der Implementierung des Ergebnisses in übergeordnete Produktionszusammenhänge. Dazwischen interagieren Lese- und Schreibprozesse, etwa das Lesen von Quellen und des entstehenden neuen Texts
sowie das Herstellen und Umbauen eigener Textteile auf unterschiedlichen Komplexitätsstufen, vom Graphem bis zur Textversion.
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
647
Textoptimierung
Abb. 1: Komplexe Dynamik der Textproduktion (vgl. Perrin 2011 i.V.)
In unterschiedlichen, rekursiven Phasen dominieren unterschiedliche
Tätigkeiten inkrementeller Textproduktion, die sich prototypisch auf
bestimmte Komplexitätsstufen des entstehenden Texts beziehen. So
fokussiert die Zielfindung eher auf den ganzen Text, Planung auf Textteile, Steuerung Schreibfluss auf Formulierungen. In Evaluationsphasen
können wieder alle Ebenen in den Blick genommen werden.
Während der Textproduktion befassen sich die Autorinnen und Autoren aber nicht nur mit vorhandenen und entstehenden Texten, sondern
mit einem sozialen und technischen Umfeld, etwa mit Vorgesetzten,
Ko-Autoren und Schreibsystemen. Zudem interagiert der Produktionsprozess mit anderen Aufgaben und einem Textumfeld der neuen
Aufgaben. So gilt es etwa, einen neuen Text in einem Marken- und
Konkurrenzumfeld zu positionieren, mit dem neuen Beitrag strategisch
an bestimmten und sich verändernden Diskursständen anzuknüpfen –
sowie weitere Aufgaben parallel zu lösen und dabei die Ressourcen
immer wieder neu aufzuteilen.
All diese Praktiken, ausgerichtet auf all diese Umweltgrößen, sind
optimierbar und zu optimieren, wenn ein Produkt bestimmter Qualität
nicht um jeden Preis, sondern mit begrenzten Ressourcen erreicht werden soll – also dann, wenn die Optimierung als Teilprozess organisier-
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
648
Gerd Antos, Ursula Hasler und Daniel Perrin
ter Textproduktion verstanden wird. Dies illustrieren wir nun an einem
aktuellen Anwendungsfeld: der organisational eingebetteten Optimierung der Usability von Kommunikationsangeboten im Internet.
3. Textoptimierung als Frage der Usability
Der Anteil an Texten, die für eine webbasierte Rezeption produziert
werden, steigt seit Jahren kontinuierlich, und die Entwicklung greift in
jüngster Zeit mit den mobilen Lesegeräten für E-Books in Bereiche ein,
wo die Textproduktion bisher ausschließlich auf eine druck- und papierbasierte Rezeption ausgerichtet war3. Es kann davon ausgegangen
werden, dass die Online-Textrezeption die papierbasierte mengenmäßig
überholen wird4 – eine Entwicklung, mit der sich die linguistische Verständlichkeitsforschung auseinandersetzen muss. In der linguistischen
Diskussion zur Verständlichkeit, die vorwiegend eine klassische Rezeption impliziert, spielen mediale Rahmenbedingungen der Rezeption
(immer noch) eine untergeordnete Rolle. Betrachten wir jedoch die
Verständlichkeit und damit die Kriterien für eine Textoptimierung bei
online vermittelten Texten, schieben sich die vom Medium bestimmten
Rezeptionsbedingungen in den Vordergrund. Im Folgenden soll aufgezeigt werden, wie diese von einer sozialen und technischen Umwelt
bedingten Optimierungskriterien die klassischen Verständlichkeitskriterien überlagern und in die Textgestalt eingreifen.
Die ersten, die sich mit der Frage beschäftigten, wie Internetuser
Webtexte lesen, waren die angelsächsischen Usability-Forscher in der
zweiten Hälfte der neunziger Jahre, insbesondere die immer noch führende Gruppe um Jakob Nielsen (<http://www.useit.com>), die ihre
Studien als „Alertboxes“ laufend im Web publiziert. 1997 veröffentlichte Nielsen seine wohl berühmteste Alertbox mit dem Titel „How
Users Read on the Web. They don’t“5, auf die sich anschließend eine
ganze Generation von Ratgeberliteratur bezog. Die durch das Web veränderten Rezeptionsbedingungen und daraus entstandenen neuen Er—————
3
4
5
2009 erschienen erste Überlegungen von Nielsen zur Usability von Büchern im Lesegerät Kindle, weil „Writing for Kindle is like writing for print, the Web, and mobile
devices combined; optimal usability means optimizing content for each platform’s special characteristics“ (Nielsen 2009).
Aus der Medienmitteilung vom 26. Dezember 2009 des Onlinebuchhändlers Amazon:
„Am Weihnachtstag kauften Kunden zum allerersten Mal mehr Kindle Bücher als
physische Bücher auf Amazon.com“ (<http://www.amazon.de/gp/press/home/2009>
(Stand: 01.12.2010)).
Nielsens Ausführungen (Nielsen 1997) sind pragmatisch und i. R. normativ, gründen aber
auf empirischen Untersuchungen und systematischer Beobachtung von Userverhalten.
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
649
Textoptimierung
wartungen an die Lesbarkeit von Texten im Web bildeten im deutschsprachigen Raum Anfang dieses Jahrhunderts die Ausgangslage für
eine erste Welle von Ratgebern zum Thema „Texten für das Web“, die
auf der Prämisse gründen, dass für Print konzipierte Texte im Hinblick
auf Rezeption am Bildschirm optimiert werden müssen.
3.1 Dominanz der Rahmenbedingungen
Die ersten Praxisbücher zur Textproduktion im Internet (u. a. Hoofacker 2001; Alkan 2002; Heijnk 2002; Lackerbauer 2003; Wieland &
Spielkamp 2003) richteten sich an professionelle Printtextproduzenten,
in der Regel Journalisten, die in der zweiten Hälfte der neunziger Jahre
vermehrt auch als Onlineredakteure für die Onlineausgaben ihrer
Printmedien texten mussten, dies meist ohne Zusatzausbildung. Diese
frühe Praxisliteratur vermittelt Grundwissen zum Internet, zum Hypertext als neuer Textarchitektur und zur (damaligen) Technik. Viele der
vorgestellten Tipps zum mediengerechten Texten basieren auf Nielsens
Prämisse der flüchtigen Rezeption, „scannen“ anstatt lesen (vgl. Abschnitt 3.2), und heben klassische Regeln des Schreibens auf, zum Beispiel: kein sukzessiver Spannungsaufbau in der Hierarchie der Informationen, sondern die Kernaussage gleich an den Anfang gestellt, mit
anschließend deduktiver Darlegung der Argumente und Hintergründe.
Parallel dazu erschienen Empfehlungen für Webtexter, deren Ziel in
erster Linie erfolgreiches Marketing und Verkaufen im Internet war
(u. a. Schmider 2003; Grede 2003; Heijnk 2004) und die nicht vom
Schreiben als journalistischem Handwerk ausgehen, sondern vom Texten im Kontext von Public Relations respektive Marketing und Werbung. In jüngster Zeit befasst sich die Ratgeberliteratur nun mit der
Textoptimierung für Suchmaschinen (u. a. Alkan 2009; Häfele 2009;
Sturmer & Holzinger 2009).
Diese Entwicklung zeigt, dass bei Onlinetexten von einem speziellen Verständnis von Textoptimierung ausgegangen werden muss: Optimierung nicht nur im Hinblick auf ein besseres Verständnis des Textes, sondern zuerst einmal in Bezug auf mediale und technische
Rahmenbedingungen der Rezeption. Die interaktive Produktions- und
Rezeptionsumwelt tritt gegenüber dem Text selbst also in den Vordergrund, die Produktimplementierung erfolgt für die Textproduzierenden
damit auf komplexerer Stufe. Die Texte sollen via Suchmaschinen
leicht auffindbar sein, sich intuitiv und selektiv erschließen lassen und
dabei die Stärken der Medien, der unterschiedlichen Ausspielplattformen einbinden. Die Palette solcher Ausspielplattformen ist, dem Begriff der Medienkonvergenz zum Trotz, sehr weit gespannt: Mobiltelefone mit winzigen Bildschirmen mit und ohne Berührungssteuerung,
berührungs- und bewegungsgesteuerte Tablet-Computer wie das iPad,
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
650
Gerd Antos, Ursula Hasler und Daniel Perrin
mobile Computer mit Trackpads, Hybridgeräte aus Computer und Fernseher mit TV-ähnlicher Fernsteuerung sowie Einrichtungen mit riesigen
Projektionsflächen im halböffentlichen Raum.
Also stellt sich die Frage, welche Optimierungskriterien medial sicherstellen, dass Internetuser die Webtexte überhaupt lesen, und technisch, dass ein Webtext in der Datenflut überhaupt gefunden wird.
3.2 Optimierungskriterium: Scanbarkeit
Usability wird in der ISO-9241-116 Norm definiert als das Ausmaß, in
dem eine Zielgruppe ein Produkt in einem bestimmten Kontext nutzen
kann, um bestimmte Ziele effektiv, effizient und zufriedenstellend zu
erreichen. Die Norm referiert also ausdrücklich auf den Nutzungskontext; dieser Kontext ist für die Einschätzung komplexer und dynamischer Systeme entscheidend.
Auf Internetprodukte bezogen, wird unter Usability die Benutzungs- und Kommunikationsqualität einer Website verstanden. Einbezogen werden möglichst alle Merkmale, die eine zielführende Nutzung
erleichtern oder erschweren können, wie etwa Navigationsleisten, Linksystem, Seitenarchitektur, Textsortenmarkierung, Farbgebung, multimodales Zusammenspiel etc. Dieses operative System erfordert vom
Internetuser laufend Entscheidungen über die nächsten Handlungsschritte, ermöglicht ihm aber auch, irgendwelche unvorhersehbare Wege der Informationserschließung zu gehen. Während Printtexte zwar
auch auf unvorhersehbare Weise nutzbar sind, ist es Autorinnen wie
Leserinnen jedoch klar, dass die Texterschließung vorhersehbaren Leserichtungen folgen muss, nämlich, vereinfacht gesagt, von oben nach
unten. In einem Textnetz dagegen, wie es die Website als Hypertext
darstellt, erwarten die Nutzenden stimmige Anschlüsse in allen denkbaren Abfolgen der Teile, mit kaum vorhersehbaren Auswirkungen auf
die Veränderungen des Vorwissens.
Ausgangspunkt der vielen Ansätze zur Optimierung solch komplexer und dynamischer Kontexte ist, dass Webuser gemäß Nielsen Texte
am Bildschirm eher „scannen“ statt lesen (Nielsen 1997, 2008; Zimmermann 2004:18). Scannen7 bedeutet, sich schnell einen Überblick
über die Relevanz der vorliegenden Information zu verschaffen (Nielsen & Pernice 2009; Yom & Wilhelm 2004). Folglich ist ein optimaler
Webtext zuerst einmal ein scanbarer Text.
—————
6
7
Ergonomic requirements for office work with visual display terminals (VDTs) - Part 11:
Guidance on usability.
<http://www.iso.org/iso/catalogue_detail.htm?csnumber=16883> (Stand: 01.12.2010).
Teilweise wird noch eine vorgelagerte Phase des Skimmens unterschieden: Skimmen
gleich Überfliegen, anschließend Scannen gleich Relevanz bewerten und schließlich
Lesen gleich Inhalt vollständig erschließen.
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
651
Textoptimierung
Gut scanbare Texte sind gemäß Nielsen optisch so strukturiert8,
dass die wichtigen Elemente des Textes als Eyecatcher dem überfliegenden Leser die entscheidenden Informationen liefern, damit er sich
packen lässt und in den Text einsteigt, d. h. zu lesen beginnt. Konkret
bedeutet dies zum Beispiel, dass scanbare Texte pro Abschnitt nur einen Kerngedanken ausführen, aussagekräftige Zwischentitel aufweisen,
Schlüsselwörter markieren, Aufzählungen als Listen präsentieren, kürzer sind als Printtexte und den Inhalt gemäß einer umgekehrten Pyramide aufbauen, d. h. das Wichtigste und die Schlussfolgerung an den
Anfang setzen. Aus diesen Grundsätzen leiten viele Ratgeber zum
Webtexten ihre Regeln ab. Das Textoptimierungskriterium der Scanbarkeit greift somit sehr stark in die Textplanung ein und verlangt,
selbstverständlich unter gleichzeitiger Berücksichtigung der traditionellen Verständlichkeitskriterien, eine angepasste Inhaltsstrukturierung.
3.3 Optimierungskriterium: Auffindbarkeit
Die gewaltige Zunahme an Websites hat dazu geführt, dass die Wichtigkeit der Suchmaschinen parallel dazu gestiegen ist: Auffindbarkeit
im Web – als nicht klar vorhersehbarer Textumgebung – ist aktuell die
größte Herausforderung für alle Anbieter von webbasierten Informationen, sowohl von kommerziellen, öffentlichen, privaten wie auch
wissenschaftlichen Inhaltsproduzenten. Dass dieses Kriterium sich vor
alle anderen Kriterien der Benutzerfreundlichkeit geschoben hat, ist
klar. Der Webuser muss eine Seite überhaupt erst einmal finden und
anklicken, bevor die Usabilityregeln zum Zug kommen können, und
erst wenn diese optimal sind, beginnt der User vielleicht einen Text zu
lesen. Da Informationen im Web heute ohne Suchmaschinen kaum
mehr auffindbar sind, suchen immer mehr Laien ohne jegliche Kenntnisse in Informationsrecherche über Suchmaschinen. Die Erfolgsgeschichte von Google beruht gerade darauf, dass diese Suchmaschine
eine auf Suchlaien ausgelegte Usability aufweist. Die Positionierung
einer Website auf der Ausgabeseite der Suchergebnisse einer Suchmaschine, d. h. ihr Ranking bei der Suchmaschine, ist daher maßgebend
für die Auffindbarkeit, und entsprechend erschien parallel zum steigenden Gebrauch von Suchmaschinen die entsprechende Praxisliteratur
zum Suchmaschinenmarketing (SEM) auf dem Markt9. Da Suchmaschinen vorläufig nur Text indizieren können, ist der wichtigste Content
—————
8
9
Nielsen konnte mit neusten Eyetracking-Studien nachweisen, dass Webseiten in Form
eines F-Patterns gescannt werden.
Dass das Problem relevant und akut ist, zeigt die Anzahl Treffer zum Thema notabene
im (deutschen) Google: 8.880.000 für den Suchbegriff „Suchmaschinen Optimierung“
und 3.300.000 für „Suchmaschinen Ranking“ (Stand: 12.01.2010).
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
652
Gerd Antos, Ursula Hasler und Daniel Perrin
auf einer Website zurzeit der verbale Text. Sowohl die Suchanfrage
durch User wie auch das Finden und die Trefferausgabe durch die Retrievaltechnologie basiert auf Wörtern, folglich sind richtig gesetzte
Schlüsselwörter ausschlaggebend, damit ganze Websites, Einzelseiten
und Content von den Suchmaschinen und damit den Usern gefunden
werden.
Ein weiteres onlinespezifisches Optimierungskriterium betrifft also
die Suchmaschinenoptimierung (SEO), und dies greift ebenso stark in
die Textgestaltung ein wie das Kriterium der Scanbarkeit – wenn auch
weniger in die Struktur als mehr in den stilistischen Bereich: SEOoptimierte Texte enthalten eine optimale Dichte an geläufigen Keywords an den entscheidenden Textstellen, d. h. in Dateinamen, Bildbezeichnungen, Linktexten, Metatags, Seitentiteln, Überschriften etc. und
schließlich im Textinhalt selber. Die Textoptimierung wird aber dadurch erschwert, dass die „optimale Dichte“ an ausschlaggebenden Begriffen nicht sprachlich-stilistisch definiert wird, was folgende, wahllos
herausgegriffene Tipps zeigen: Im Text sollen Keywords weit vorne
stehen und dürfen möglichst nicht flektiert werden, d. h. man soll nicht
„durch ungeschickten Satzbau einen Genetiv oder andere ungünstige
Wortformen erzeugen“, da Suchmaschinen Flexionsformen weniger gut
berücksichtigen als frei stehende, exakt übereinstimmende Zeichenketten. Weiter soll, damit jede Webseite nur einem Thema und einem
Keyword zugeordnet werden kann, ein Text möglichst über mehrere
Seiten verteilt werden. Für den professionellen „SEO-Texter“ wichtig
sei, dass er die Ranking-Richtlinien der Suchmaschinen genau befolge.
Wie diese Ratschläge zeigen, wird die Suchmaschinenoptimierung vor
allem technisch und statistisch definiert, d. h., sie unterliegt komplexer
Optimierung in einer nur teilweise vorhersehbaren Umwelt. Unterstützung in dieser komplexen Optimierung bieten Keyworddatenbanken.
Damit lässt sich statistisch ermitteln, welche Suchbegriffe generell häufig verwendet werden und über welche Suchbegriffe User über Suchmaschinen auf die eigene Website gelangt sind. Ziel der onlinegerechten Optimierung ist ja, dass User erstens die Seite überhaupt finden,
d. h. anklicken, und zweitens, dass sie die Informationen auf der Seite
lesen. Konkret bedeutet das, dass auf einer beliebigen Seite einer Website der Zusammenhang zwischen Inhalt und möglichem Suchwort, mit
dem die Seite gefunden wurde, auf Anhieb ersichtlich sein muss, damit
Besucher sich überhaupt auf die Seite einlassen, d. h., die Kriterien der
Auffindbarkeit und Scanbarkeit bedingen einander aufs Engste. Dies
wird durch neuere Umfragen bei Nutzern von Internet-Suchmaschinen
belegt; es ist ein klarer Trend zu beobachten, dass die Nutzer für die
Informationssuche immer weniger navigieren. Wird ein Treffer auf der
Liste der Suchergebnisse angeklickt und die gesuchte Information nicht
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
653
Textoptimierung
auf Anhieb gesehen, wird auf der betreffenden Website selten durch
Navigieren selber weitergesucht, sondern gleich zurück auf die Trefferliste der Suche und von dort auf den nächsten Treffer geklickt (Hasler
2009:3).
3.4 Webtextoptimierung vor Verständlichkeit
Die konkreten Tipps zur Optimierung der Auffindbarkeit und der Scanbarkeit zeigen, dass die webbasierte Textrezeption durch außertextliche,
vom Medium Internet und den jeweiligen Ausspielplattformen abhängige Kriterien überhaupt ermöglicht werden muss. Erst wenn die Auffindbarkeit einerseits und über die Scanbarkeit die Aufmerksamkeit
andrerseits sichergestellt ist, wird die allgemeine Textverständlichkeit
relevant. Bei der Textoptimierung von Webtexten müssen also zuerst
vorgelagerte Optimierungskriterien erfüllt werden, bevor die grundsätzlichen Verständlichkeitskriterien zum Zuge kommen. Es ist jedoch zu
vermuten, dass der konkrete Schreibprozess eines Webtextes analog zu
einem Printtext verläuft und in einem zweiten Schritt auf Scanbarkeit
und in einem dritten Schritt auf Auffindbarkeit optimiert wird. Die
Product implementation (s. o. Abb. 1) wird zu wenig bedacht, lautet die
Hypothese gestützt auf explorative Befunde. Mittlerweile findet sich
Software auf dem Markt, die die Weblesbarkeit und Webqualität von
Texten zu messen verspricht.10 Solche Bewertungen wären es wert,
textlinguistisch analysiert zu werden, inwiefern nämlich die Optimierungskriterien der Scanbarkeit und der Auffindbarkeit textanalytische
Merkmale wie anaphorische oder kataphorische Verweise, Substitutionen, Tempusabhängigkeiten, Thema-Rhema-Strukturen, Frames oder
andere kohärenzsichernde Formen beeinflussen. Insbesondere das Optimierungskriterium der Auffindbarkeit, das auf dem Einsatz der richtigen Schlüsselwörter in Bezug auf Ranking-Richtlinien beruht, greift
direkt in die Semantik ein. Die Praxis spricht bei dieser Textoptimierung von semantischem Lückenmodell, das für das Keywording genutzt
werden kann, und von LSO, Latent Semantischer Optimierung (Häfele
2009:23ff.), die zusätzlich auch semantische Felder von Keywords berücksichtigen muss, da die Retrievaltechnologie für die Optimierung
der Trefferausgabe heute vermehrt mit semantischen Netzen, Taxonomien und semantischen Metainformationen zu Content arbeitet (Stich—————
10 Der Web-Lesbarkeitsindex WLI zur automatisierten Qualitätssicherung zum Beispiel
untersucht sowohl Textverständlichkeit als auch Web-Tauglichkeit eines Artikels:
„Neben quantitativen Größen misst der WLI auch qualitative Spracheigenschaften.
Grammatik schlecht, Sprache gut und Scanbarkeit hervorragend – wie kann eine Software eine solche Bewertung abgeben?“
<http://www.aexea.de/Wissen/Fachartikel/Der-Web-Lesbarkeitsindex-von-aexeaAutomatisierte-Qualitaetssicherung--a144.html> (Stand: 01.12.2010).
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
654
Gerd Antos, Ursula Hasler und Daniel Perrin
wort Semantic Web). Anzunehmen ist, dass die so entstehenden neuen
Formen webbasierter Texte einst auf die Gestalt von Printtexten zurückwirken werden: Im komplexen, dynamischen System der Textoptimierung steht webbasierte Kommunikation im Kontext von Kommunikation überhaupt, die Systeme beeinflussen sich über Ko-Adaption.
Auffindbarkeit in der Flut der Kommunikationsangebote und Scanbarkeit innerhalb eines konkreten Kommunikationsangebotes erscheinen
also nicht nur als Projektionen der altbekannten Textmerkmale der
Gliederung und Ordnung, sondern als Konkretisierung einer Haltung,
die Textoptimierung erst sinnvoll erscheinen lässt: Man will in einer
sich immer schneller und oft überraschend ändernden Welt immer noch
das Gleiche, mit möglichst optimiertem Aufwand möglichst optimal die
Botschaft an die Rezipienten bringen. Das gilt auch für den Umgang
mit Zeichen in raumzeitlicher Distanzkommunikation.
4. Fazit und Ausblick
Fasst man die hier dargestellte Entwicklung der Textoptimierung zusammen, so lässt sich Folgendes festhalten: Ausgangspunkt der Geschichte der TO war – wie in der Lesbarkeitsforschung, dem Hamburger
Modell oder den kognitivistischen Ansätzen – zunächst die Konzentration auf die Optimierung „klassischer“ Textmerkmale wie übersichtliche
Sätze, bekannte Wörter oder Verbesserungen der Textorganisation.
Mit der damit ins Spiel kommenden Berücksichtigung von Leservariablen setzt ein Prozess ein, der die Textoptimierung nicht mehr als ein
Abarbeiten von Regeln oder Rezepten, sondern als ein dynamisches
System versteht, das TO als einen mehrdimensionalen und differenzierten Problemlösungsprozess modelliert: Beginnend mit dem Verstehen
der Produktions- und/oder Optimierungsaufgabe wird das Herstellen
und Umbauen von Textteilen auf unterschiedlichen Komplexitätsstufen
von Lese- und Schreibprozessen begleitet, die die jeweils gewonnenen
Ergebnisse in übergeordnete Produktionszusammenhänge implementieren. Über die bewährten Maximen älterer Ansätze hinaus werden dadurch systematisch relevante Umweltgrößen mit reflektiert. Entscheidend wird dabei eine gesteigerte Wachheit (Language awareness) der
Textproduzierenden für das situative Zusammenspiel von Umweltfaktoren und Textproduktionsprozessen.
Damit tritt in einer dritten Phase die Produktions- und Rezeptionsumwelt gegenüber dem Text in den Vordergrund. Dieser Wandel
wird ergänzt und verstärkt durch eine Loslösung der TO vom Paradigma
der Printtexte. Daher ist es nur konsequent, wenn damit die Optimierung
der Usability von Kommunikationsangeboten im Internet in den Vor-
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
655
Textoptimierung
dergrund des Interesses rückt. Damit wird das Gelingen der TO bedeutsam für „optimales“ kommunikatives Handeln in gesellschaftlichen
Systemen und Organisationen. Die durch die TO generierte Verständlichkeit lässt sich unter dieser Perspektive als ein Versuch verstehen, der
immer dynamischer werdenden Ausdifferenzierung der gemeinsamen
Lebenswelt in kaum mehr durchschaubare Sub-Systeme und Organisationen kompensatorisch entgegenzuwirken.
5. Literaturverzeichnis
Alkan, Saim Rolf: Texten für das Internet. Ein Handbuch für Online-Redakteure
und Webdesigner. Bonn 2002.
Alkan, Saim Rolf: 1x1 für Online-Redakteure und Online-Texter: Einstieg in den
Online-Journalismus. Göttingen 2009.
Antos, Gerd: Grundlagen einer Theorie des Formulierens: Textherstellung in
geschriebener und gesprochener Sprache. Tübingen 1982.
Antos, Gerd: Laien-Linguistik. Studien zu Sprach- und Kommunikationsproblemen
im Alltag. Am Beispiel von Sprachratgebern und Kommunikationstrainings.
Tübingen 1996.
Antos, Gerd: „Texte als Konstitutionsformen von Wissen. Thesen zu einer evolutions-theoretischen Begründung der Textlinguistik.“ In: Die Zukunft der Textlinguistik. Traditionen, Transformationen, Trends. Hg. v. Gerd Antos u. Heike
Tietz. Tübingen 1997, 43–63.
Antos, Gerd: „Text.“ In: Historisches Wörterbuch der Rhetorik Bd. 9. St-Z. Hg. v.
Gert Ueding. Tübingen 2009, 489–509.
Antos, Gerd u. Gerhard Augst (Hg.): Textoptimierung. Das Verständlichermachen
von Texten als linguistisches, psychologisches und praktisches Problem.
Frankfurt/Main 1992.
Ballstaedt, Steffen-Peter, Heinz Mandl u. Wolfgang Schnotz: „Zur Vorhersagbarkeit von Lernergebnissen auf der Basis hierarchischer Textstrukturen.“ In: Zur
Psychologie der Textverarbeitung. Hg. v. Heinz Mandl. München 1981, 251–
306.
Ballstaedt, Steffen-Peter, Heinz Mandl, Wolfgang Schnotz u. Sigmar-Olaf Tergan:
Texte verstehen, Texte gestalten. München 1981.
Barnard, Chester Irving: The Functions of the Executive. Cambridge/Massachusetts
1938.
Biere, Bernd Ulrich: „Textgestaltung zwischen Sachangemessenheit und Adressatenorientierung.“ In: Wissenschaftliche Grundlagen der technischen Kommunikation. Hg. v. Hans P. Krings. Tübingen 1996, 291–306.
Busch, Albert: Laienkommunikation. Vertikalitätsuntersuchungen zu medizinischen
Experten-Laien-Kommunikationen. Frankfurt/Main 1994.
Cameron, Deborah: Good to Talk? Living and Working in a Communication Culture. London 2000.
Eichhoff-Cyrus, Karin u. Gerd Antos: Verständlichkeit als Bürgerrecht. Mannheim
2008.
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
656
Gerd Antos, Ursula Hasler und Daniel Perrin
Ehlich, Konrad: „Text und sprachliches Handeln.“ In: Schrift und Gedächtnis.
Beiträge zur Archäologie der literarischen Kommunikation. Hg. v. Aleida
Assmann, Jan Assmann u. Christof Hardmeier. München 1983, 24–43.
Fairclough, Norman: Analyzing Discourse. Textual Analysis for Social Research.
London 2003.
Fix, Ulla, Kirsten Adamzik, Gerd Antos u. Michael Klemm (Hg.): Brauchen wir
einen neuen Textbegriff? Antworten auf eine Preisfrage. Frankfurt/Main 2002.
Furnham, Adrian F.: Lay Theories. Everyday understanding of problems in the
social sciences. Oxford 1988.
Grede, Andreas: Texten für das Web. Erfolgreich werben, erfolgreich verkaufen.
München 2003.
Greule, Albrecht: „Die Textsortengruppe ‚Sprachratgeber‘.“ In: Textsorten deutscher Prosa vom 12./13. Jahrhundert bis 18. Jahrhundert und ihre Merkmale.
Akten zum Internationalen Kongress in Berlin, 20. bis 22. September 1999.
Hg. v. Franz Simmler. Bern 2002, 589–601.
Groeben, Norbert: Leserpsychologie: Textverständnis – Textverständlichkeit.
Münster 1982.
Groeben, Norbert u. Ursula Christmann: „Textoptimierung unter Verständlichkeitsperspektive.“ In: Textproduktion. Ein interdisziplinärer Forschungsüberblick. Hg. v. Gerd Antos u. Hans P. Krings. Tübingen 1989, 165f.
Häfele, Heike: Die Macht der SEO-Texte. Vortrag an The Search Conference.
Frankfurt 05.11.2009.
<http://www.slideshare.net/heike.haefele/die-macht-der-internettexte>
(Stand: 01.12.2010).
Hasler, Ursula: Spurensuche: Nutzerverhalten auf der Site-Suche einer HochschulWebsite. Winterthur 2009.
<http://www.zhaw.ch/fileadmin/php_includes/popup/hop-detail.php?hop_id=
967837407> (Stand: 01.12.2010).
Hayes, John R. u. Linda S. Flower: „Identifying the organization of writing processes.“ In: Cognitive Processes in Writing. Hg. v. Lee W. Gregg u. Erwin R.
Steinberg. Hillsdale 1980, 3–30.
HeƋnk, Stefan: Textoptimierung für Printmedien. Theorie und Praxis journalistischer Textproduktion. Opladen 1997.
Heijnk, Stefan: Texten fürs Web. Grundlagen und Praxiswissen für OnlineRedakteure. Heidelberg 2002.
Heijnk, Stefan: Besser texten, mehr verkaufen auf Corporate Sites. Göttingen 2004.
Hochhaus, Stephan: Der verständliche Text. Perspektiven auf die Textoptimierung.
Bochum 2004.
Hoffmann, Ludger: „Textoptimierung am Beispiel ‚Grammatik‘: Ein Blick aus der
Werkstatt.“ In: Textoptimierung. Das Verständlichermachen von Texten als
linguistisches, psychologisches und praktisches Problem. Hg. v. Gerd Antos u.
Gerhard Augst. Frankfurt/Main 1992, 52–69.
Hoofacker, Gabrielle: Online-Journalismus. Schreiben und Gestalten für das Internet. Ein Handbuch für Ausbildung und Praxis. München 2001.
Illich, Ivan: Im Weinberg des Textes. Als das Schriftbild der Moderne entstand.
Frankfurt/Main 1991.
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
657
Textoptimierung
Jäger, Ludwig: „Expertenkultur und Sprachkultur: ‚Innersprachliche Mehrsprachigkeit‘ und das Problem der Transparenz des Expertenwissens.“ In: Aufstand der Laien. Expertentum und Demokratie in der technisierten Welt. Hg.
v. Max Kerner. Aachen 1996, 45–60.
Jakobs, Eva-Maria, Dagmar Knorr u. Sylvie Molitor-Lübbert (Hg.): Wissenschaftliche Textproduktion. Mit und ohne Computer. Frankfurt/Main 1995.
Jakobs, Eva-Maria u. Dagmar Knorr (Hg.): Schreiben in den Wissenschaften.
Frankfurt/Main 1997.
Jakobs, Eva-Maria, Dagmar Knorr u. Karl-Heinz Pogner (Hg.): Textproduktion.
Hypertext, Text, Kontext. Frankfurt/Main 1999.
Jakobs, Eva-Maria u. Daniel Perrin: „Training of writing and reading.“ In: Handbooks of Applied Linguistics: Communicative Competence. Hg. v. Gert Rickheit u. Hans Strohner. Berlin, New York 2008, 359–393.
Kintsch, Walter u. Douglas Vipond: „Reading Comprehension and Readability in
Educational Practice and Psychological Theory.“ In: Perspectives On Memory
Research. Hg. v. Lars-Göran Nilsson. Hillsdale 1979, 329–365.
Krings, Hans P.: Wissenschaftliche Grundlagen der Technischen Kommunikation.
Tübingen 1996.
Lackerbauer, Ingo: Handbuch für Online-Texter und Online-Redakteure. Berlin
2003.
Langer, Inghard, Friedemann Schulz von Thun u. Reinhard Tausch: Verständlichkeit in Schule, Verwaltung, Politik und Wissenschaft. München 1987.
Larsen-Freeman, Diane u. Lynne Cameron: Complex systems and applied linguistics. Oxford 20082.
Meckel, Miriam: Das Glück der Unerreichbarkeit. Wege aus der Kommunikationsfalle. Hamburg 2007.
Meutsch, Dietrich: „Text- und Bildoptimierung. Theoretische Voraussetzungen
für die praktische Optimierung von Print- und AV-Medien: Verständlichkeitsforschung und Wissenstechnologie.“ In: Textoptimierung. Das Verständlichermachen von Texten als linguistisches, psychologisches und praktisches Problem. Hg. v. Gerd Antos u. Gerhard Augst. Frankfurt/Main 1989.
Niederhauser, Jürg: Wissenschaftssprache und populärwissenschaftliche Vermittlung. Tübingen 1999.
Nielsen, Jakob: „How Users Read on the Web.“ In: Alertbox. October 1, 1997.
<http://www.useit.com/alertbox/9710a.html> (Stand: 01.12.2010).
Nielsen, Jakob: „How Little Do Users Read?“ In: Alertbox. May 6, 2008.
<http://www.useit.com/alertbox/percent-text-read.html> (Stand: 01.12.2010).
Nielsen, Jakob: „Kindle Content Design.“ In: Alertbox. March 16, 2009.
<http://www.useit.com/alertbox/kindle-writing.html> (Stand: 01.12.2010).
Nielsen, Jakob u. Kara Pernice: Eyetracking Web Usability. Berkeley 2009.
Perrin, Daniel: „Kompressionsfaktor hundert. Strategien journalistischer Textproduktion optimieren.“ In: Schreiben in Domänen. Hg. v. Kirsten Adamzik,
Gerd Antos u. Eva-Maria Jakobs. Frankfurt/Main 1997, 167–203.
Perrin, Daniel: „Verstanden werden. Vom doppelten Interesse an theoriebasierter,
praxisgerichteter Textberatung.“ In: Text – Verstehen. Grammatik und darüber
hinaus. Hg. v. Hardarik Blühdorn, Eva Breindl u. Ulrich Hermann Waßner.
Berlin, New York 2006, 332–350.
AUTHOR’S COPY | AUTORENEXEMPLAR
AUTHOR’S COPY | AUTORENEXEMPLAR
658
Gerd Antos, Ursula Hasler und Daniel Perrin
Perrin, Daniel: „Wie sich Formate verändern. Die Mustervariation der Geschichte
in Fernsehnachrichten.“ In: Neue Medien, neue Medienformate. Ausdifferenzierung und Konvergenz in der Medienkommunikation. Hg. v. Hans-Jürgen
Bucher. Gießen 2010, 145–165.
Perrin, Daniel: The linguistics of newswriting. Amsterdam 2011, i. V.
Sauer, Christoph: „Ein Minimalmodell zur Verständlichkeitsanalyse und
-optimierung.“ In: Sprache: Verstehen und Verständlichkeit. Hg. v. Bernd
Spillner. Frankfurt/Main 1995, 149–186.
Schendera, Christian F.: „Die Verständlichkeit von Rechtstexten. Eine kritische
Darstellung der Forschungslage.“ In: Recht verstehen. Verständlichkeit, Missverständlichkeit und Unverständlichkeit von Recht. Hg. v. Kent D. Lerch. Berlin, New York 2004, 321–374.
Schmider, Ekkehard: Handbuch für Webtexter. So schreiben Sie fürs Internet.
Berlin 2003.
Sturmer, Martin u. Thomas Holzinger: Die Online-Redaktion: Praxisbuch für den
Internet-Journalismus. Berlin 2009.
Wichter, Sigurd: Experten- und Laienwortschätze. Umriss einer Lexikologie der
Vertikalität. Tübingen 1994.
Wichter, Sigurd u. Gerd Antos (Hg.): Wissenstransfer zwischen Experten und
Laien. Umriss einer Transferwissenschaft. Frankfurt/Main 2001.
Wieland, Melanie u. Mathias Spielkamp: Schreiben fürs Web: Konzeption – Text –
Nutzung (Praktischer Journalismus). Konstanz 2003.
Yom, Miriam u. Thorsten Wilhelm: „Methoden und Erkenntnisse der WebUsability-Forschung.“ In: Usability von Internet-Angeboten. Grundlagen und
Fallstudien. Stuttgarter Beiträge zur Medienwirtschaft Bd. 10. Hg. v. Ansgar
Zerfass u. Hansjörg Zimmermann. Stuttgart 2004, 21–38.
Zimmermann, Hansjörg: „Usability – Die Kunst Mensch und Maschine auf einen
Nenner zu bringen.“ In: Usability von Internet-Angeboten. Grundlagen und
Fallstudien. Stuttgarter Beiträge zur Medienwirtschaft Bd. 10. Hg. v. Ansgar
Zerfass u. Hansjörg Zimmermann. Stuttgart 2004, 9–19.
AUTHOR’S COPY | AUTORENEXEMPLAR

Documents pareils