Textoptimierung Gerd Antos (Halle/Saale), Ursula Hasler und Daniel
Transcription
Textoptimierung Gerd Antos (Halle/Saale), Ursula Hasler und Daniel
AUTHOR’S COPY | AUTORENEXEMPLAR Textoptimierung Gerd Antos (Halle/Saale), Ursula Hasler und Daniel Perrin (Winterthur) 1. 1.1 1.2 Einordnung und Probleme Einordnung Probleme und Besonderheiten des Forschungsstandes zur Textsortenoptimierung 2. Forschungsstand und Entwicklungstendenzen 2.1 Interdisziplinarität 2.2 Lesbarkeitsforschung 2.3 Kognitive Verständlichkeitskonzepte 2.3.1 Hamburger Verständlichkeitsmodell und Typisierungskompetenz 2.3.2 Norbert Groeben: Textoptimierung durch Textorganisation 2.3.3 Textverarbeitung (Ballstaedt/Mandl/Schnotz/Tergan und Meutsch) 2.4 Textoptimierung als Handlungsoptimierung (Sauer) 2.5 Textoptimierung als dynamisches System 3. Textoptimierung als Frage der Usability 3.1 Dominanz der Rahmenbedingungen 3.2 Optimierungskriterium: Scanbarkeit 3.3 Optimierungskriterium: Auffindbarkeit 3.4 Webtextoptimierung vor Verständlichkeit 4. Fazit und Ausblick 5. Literaturverzeichnis 1. Einordnung und Probleme 1.1 Einordnung Texte sind das historisch erste (Ehlich 1983) und bis heute das wichtigste Leitmedium von raumzeitlicher Distanzkommunikation. Erst auf der Grundlage von Texten (Antos 2009) lässt sich beschreib- und kommunizierbares Wissen von praktisch beliebiger Komplexität thematisch fokussieren, literal kohärent repräsentieren, semiotisch sichtbar machen (Antos 1997), zudem: bei entsprechenden ökonomischen und technisch leichten Trägermedien leicht vervielfältigen, archivieren und somit auch für die Zukunft „vererbbar“ machen. Kulturhistorisch haben sich Texte spätestens seit dem Buchdruck aus dem übergreifenden Format des „buchbezogenen Textes“ (Illich 1991) emanzipiert, textsortenspezifisch und funktional ausdifferenziert und teilweise auch medial verselbstständigt (Fix et al. 2002). Dieser Prozess hat sich mit dem Aufkommen periodischer Printmedien, der AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 639 Textoptimierung Bürokratisierung moderner Gesellschaften, aber auch mit der Entwicklung funktionalstilistischer Diskurswelten (Alltag, Medien, Wissenschaft, Verwaltung/Recht, Wirtschaft, Industrie/Technik) immer weiter ausdifferenziert. Damit wurden einerseits die räumliche, kulturelle und soziale Reichweite und die literale Präzision der Textkommunikation erhöht. Zusammen mit dieser zeit- und kulturübergreifenden Entgrenzung von sprachgebundenem Wissen haben Texte sowohl andere Medien (Mündlichkeit und audiovisuelle Medien) als auch neue gesellschaftliche (Wissens-)Diskurse geprägt. Die Konsequenz dieses wechselseitigen Prozesses: Texte als ursprüngliches Leitmedium raumzeitlicher Distanzkommunikation müssen heute auch als medien- und diskursgeprägte Kommunikationsformate verstanden werden. Aufgrund dieser raumzeitlichen, medialen und funktionalen Ausdifferenzierung von Texten steigen aber auch Barrieren und Irritationen beim Lesen und damit bei der Rezeption von Texten insgesamt (Groeben 1982; Jäger 1996). Prototypisch dafür ist die Wissensrezeption von „Laien“ in gesellschaftlichen Systemen wie Recht, Wissenschaft, Technik, Medizin oder Wirtschaft (Furnham 1988). Barrieren in der „Experten-Laien-Kommunikation“ sind daher nicht zufällig zum Forschungsgegenstand der Linguistik geworden (Wichter 1994; Busch 1994; Wichter & Antos 2001). Zwei konvergierende Tendenzen spielen bei dem genannten Phänomen zusammen: Einerseits differenzieren sich Texte in den diversen Medien thematisch, funktional, aber auch stilistisch immer weiter aus, so dass sie in einer Fachkommunikation selbst für Fachleute oftmals zu einem Verständnisproblem werden können. Zugleich sind immer mehr „Laien“ in Beruf und Alltag auf einen Wissenstransfer aus den Bereichen Recht, Wirtschaft, Technik (Krings 1996), Medizin oder Wissenschaft (Jakobs, Knorr & Molitor-Lübbert 1995; Jakobs & Knorr 1997) angewiesen (Niederhauser 1999). Damit erhöht sich für Rezipienten tendenziell der Druck, sich pro Zeiteinheit mit immer mehr Kommunikations-, Medien- und Wissensangeboten auseinanderzusetzen. Das gilt vor allem für „professionelle Schreiber“, zum Beispiel in Wissenschaft, Marketing, PR und Journalismus (Perrin 1997). Es gilt aber auch für alle anderen, die heute am PC Texte schreiben und/oder Texte verarbeiten. Prototypisch für den zunehmenden Kommunikationsdruck ist heute z. B. die Mailkommunikation, deren Anschwellen nicht nur Individuen, sondern auch Unternehmen vor kaum mehr zu lösende zeitliche und organisatorische Probleme stellt (Meckel 2007). Aber nicht nur die Quantität der Textkommunikation steigt insbesondere in professionellen Communities. Auch die Anforderungen an die Qualität von Texten sind gewachsen (Jakobs, Knorr & Pogner AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 640 Gerd Antos, Ursula Hasler und Daniel Perrin 1999). Davon zeugt die linguistische Auseinandersetzung mit Textberatung (Perrin 2006) sowie mit einer in den letzten beiden Jahrzehnten gewachsenen Literatur zu Sprachratgebern (Antos 1996; Greule 2002). Sie vermitteln nicht nur Hilfen für die Textherstellung (z. B. Academic writing, Business writing), sondern (unter der Maxime „writing is rewriting“) auch Strategien zu dem, was man heute bis weit ins Netz hinein – wenn auch eher heuristisch zu verstehen – als „Textoptimierung“ (TO) bezeichnet. TO kann als ein primär wertender Aktivitätstyp kommunikativen Handelns verstanden werden. Dieser Typ ist kulturell durch Kommunikationsformate ebenso geprägt wie funktional durch Textsorten, Stile oder kommunikative Praktiken. So würde man z. B. Lyrik, Romane, Erotika, Kinderbücher oder die Bibel nur unter kabarettistischen Vorzeichen einer Textoptimierung unterziehen wollen. Ferner: In manchen Systemen – wie dem des Rechts – ist die Forderung nach „verständlichen Gesetzen/AGB oder Verordnungen“ zwischen den Akteuren (Juristen, Politikern, Bürgern) höchst umstritten. Bei der Textsorten-Familie „Finanzprodukte“ oder bei „Allgemeinen Geschäftsbedingungen“ (AGB) wird eine dem Verständnis von Bürgern/Laien entgegenkommende TO von Interessengruppen unterlaufen oder ignoriert (Schendera 2004; Eichhoff-Cyrus & Antos 2008). In wieder anderen Systemen wie dem der Medizin oder Technik scheinen sich koexistierende Kommunikationsformate herauszubilden: Hier stehen die jeweiligen Fachsprachen neben Texten, die dem Informationsbedürfnis von Laien gerecht werden wollen (Busch 1994). Wie man aus diesen Beispielen ersehen kann: Die Forderung nach Textoptimierung bzw. deren Praktizierung ist zum einen in übergeordnete kulturelle Wertesysteme eingelassen; zum anderen stellt die TO eine (wachsende) Ressource von kommunikativer Sinn- und Ordnungsbildung bei der Produktion, Distribution und Rezeption von Texten dar. Daher kann es auch nicht überraschen, wenn im Kontext von Textoptimierungen „(teilweise opake) sprachliche Manifestationen von Herrschaft, Dominanz, Disziplinierung, (Selbst-)Kontrolle etc.“ zu finden sind – „sei es aus der Perspektive von Managern und Ingenieuren […] entlang rationaler Kalküle wie Effizienz, Verständlichkeit, Konsistenz, Erfolgsmessung etc.“ (vgl. Abschnitt 2 der Einleitung in diesem Band). Vor diesem Hintergrund ist TO eine bevorzugte Aktivitätstypisierung kommunikativen Handelns in gesellschaftlichen Systemen und Organisationen (wie Wirtschaft, Medien, Politik oder auch in Schulen und Hochschulen). Hier gilt: Wer in eine Organisation eintritt, z. B. als Mitarbeiter eines Call Centers, verzichtet damit bis zu einem gewissen Grad auf individuelle Handlungsautonomie zugunsten eines Autonomiegewinns der Organisation (vgl. Barnard 1938). AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 641 Textoptimierung Er kann z. B. in aller Regel nicht auf das gesamte sprachliche Muster- und Formenrepertoire zurückgreifen, das gesellschaftlich für diesen Kontext zur Verfügung steht; vielmehr wird sein Handeln zusätzlich reguliert durch formale Vorgaben, die das Ergebnis organisationaler Entscheidungen sind und die durch Bürokratie, technische Systeme und Anweisungen auf der Basis von Hierarchien durchgesetzt werden (vgl. Cameron 2000; Fairclough 2003) (vgl. die Einleitung in diesen Band, Fn. 9). 1.2 Probleme und Besonderheiten des Forschungsstandes zur Textsortenoptimierung Als Ausgangspunkt und Kriterium für das Verständnis von TO, aber auch für dessen Bewertung lässt sich das Diktum von Ludger Hoffmann heranziehen: „‚Optimal‘ sind Texte, die für Autoren oder Adressaten genau das leisten, was sie leisten sollen, und dies gerade aufgrund der Eigenschaften des Textes tun“ (Hoffmann 1992:52). Wann aber ein konkreter Text als „optimal“ bezeichnet werden kann, hängt von verschiedenen Faktoren ab, die sich von Text zu Text, aber auch im Hinblick auf unterschiedliche Rezipienten erheblich unterscheiden können (vgl. Hochhaus 2004). Vor diesem Hintergrund sollen zunächst einige grundlegende Probleme dem folgenden Forschungsstand vorangestellt werden: 1. Das erste Problem der TO ergibt sich aus ihrem Verhältnis zu Verständlichkeit und Verständlichkeitsforschung: Textoptimierung ist die Reflexion und die Anwendung einer angewandten Verständlichkeitstheorie (vgl. Antos & Augst 1992). Für Textproduzenten heißt das zum einen, dass „alles, was gesagt werden kann, auch verständlicher gesagt werden kann“ (Biere 1996:293). 2. Aus dem Ziel, Texte verständlicher zu machen, resultiert aber bereits ein zweites Problem: „Es gibt keine Textverständlichkeit an sich! Anstatt dessen haben wir es mit einer Liste von Faktoren zu tun, die sensibel gegenüber Textsorten, gegenüber unterschiedlichen kommunikativen Absichten, gegenüber unterschiedlichen Lesergruppen und Leserzielen und gegenüber verschiedenen Nutzungszusammenhängen von Textinformationen sind“ (Meutsch 1989:16–17). Daher muss die TO auf die Lösung ganz verschiedener, z. T. auch auseinanderlaufender oder gar sich widersprechender kommunikativer, textueller und/oder sprachlich-stilistischer Probleme gerichtet sein. 3. Die TO stellt nicht nur ein Problemfeld für Schreiber dar. Auch das, was Leser im Hinblick auf Verständlichkeit in bestimmten Kommunikationsarenen und Textsorten erwarten (dürfen), wird durch kulturelle, funktionale und pragmatische Rahmenbedingungen präjudiziert oder sogar normativ vorgegeben (z. B. Schreiben von Bewerbungsunterlagen nach Vorgaben der deutschen DIN Norm 2008). AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 642 Gerd Antos, Ursula Hasler und Daniel Perrin 4. Betrachtet man Schreiben als einen sehr unterschiedliche Aspekte umfassenden Problemlösungsprozess (Antos 1982; Jakobs & Perrin 2008), so erfordern sowohl die erste Textproduktion als auch die folgenden Textoptimierung(en) ein Jonglieren mit z. T. sehr unterschiedlichen Textproduktionsproblemen (Hayes & Flower 1980), z. B. die zur Verfügung stehende „Zeit“, der zur Verfügung stehende Raum, die Erwartungen und das Vorwissen der Adressaten, vor allem aber mit Problemen wie: Was soll in einen Text aufgenommen werden und was nicht? 5. Ein weiteres Typologisierungsproblem betrifft die Frage nach einer sinnvollen Abgrenzung von Textrevision und gezielter Textoptimierung. Wenngleich die Textrevision im engeren Sinn die abschließende Korrektur von orthographischen, grammatikalischen oder stilistischen Fehlern beinhaltet, kann sie zugleich auch als ein erster Schritt der Textoptimierung verstanden werden, wobei neben Korrekturen gleichermaßen Verbesserungen, Änderungen in der Textorganisation und Reformulierungen eine Rolle spielen können. 6. Dies vor dem Hintergrund, dass sich die drei globalen Problemlöseaktivitäten bei der Textherstellung und der TO strukturell gleichen: Ausgangspunkt ist bei beiden Aktivitätstypen ein – wie auch immer beschaffener – Anfangszustand (Intention, „Stoff“, Material, oder eben ein bereits fertiger Ausgangstext), 2. der (erwünschte oder „optimierte“) Endzustand und 3. die problemlösende Überführung vom Anfangs- in den Endzustand in Gestalt von „Barrieren“. 7. All diese Punkte führen schließlich zu einer zusammenfassenden Frage: Inwiefern ist eine Grenzziehung zwischen Textoptimierung und Textproduktion überhaupt sinnvoll? Und inwieweit hängt diese von einer Reihe von Faktoren wie Zeitdruck bei der Textproduktion, Distanzierungsmöglichkeit vom hergestellten Text, aber auch Kenntnis vom Vorwissen und von den Erwartungen bei Rezipienten ab? 2. Forschungsstand und Entwicklungstendenzen 2.1 Interdisziplinarität Die Verständlichkeitsforschung und die eher praxisorientierte Erforschung der TO sind eng miteinander verwandt – beide sind Gegenstand sowohl der Linguistik als auch der Kognitionspsychologie, ferner der Schreibforschung, der pädagogischen Psychologie, der Medienwissenschaften und der „Transferwissenschaft“. Im Folgenden kann der Forschungsstand (schon aus Platzgründen) weder chronologisch noch systematisch dargestellt werden. Vielmehr soll gezeigt werden, wie die AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 643 Textoptimierung Forschungen zur Verständlichkeit und zur TO unter den in dem vorliegenden Buch problematisierten Aspekten typologischer Zielsetzungen einzuschätzen sind. Insbesondere soll versucht werden, die theoretischen Implikationen eines Anwendungsbeispiels in Abschnitt 3 („Textoptimierung als Frage der Usability“) auf das Problem der Typologisierung herauszuarbeiten. 2.2 Lesbarkeitsforschung Verschafft man sich einen Überblick über Arbeiten zur Textoptimierung in Hinblick auf typologische Fragen, so lässt sich eine Entwicklung entlang textoptimierender Kriterien erkennen und festhalten: Ihren Ausgangspunkt nimmt die Verständlichkeitsforschung bei der Lesbarkeitsforschung1. Im Mittelpunkt stand dabei die Entwicklung von Lesbarkeitsformeln (wie z. B. der Flesch-Test) in Form von mathematischen Berechnungen zu Wortlänge und Wortschwierigkeit (Meutsch 1989:9–13). Diese Lesbarkeitsformeln sollten objektive Aussagen über die Lesbarkeit von Texten liefern. Auch wenn in jüngster Zeit (im Netz) ein neues Bedürfnis nach der Messung von Textverständlichkeit sichtbar zu werden scheint, gilt, was die Kritik an der Lesbarkeitsforschung herausgestellt hat: Die Rolle von Rezipienten wird zugunsten einer allein auf den immanenten Text basierten Verstehbarkeit vernachlässigt. 2.3 Kognitive Verständlichkeitskonzepte Dies änderte sich mit einem neuen Verständnis von Verständlichkeit, das geradezu als Paradigmenwechsel gefeiert wurde: Der Rezipient „nimmt nicht passiv Informationen auf, sondern verarbeitet sie kognitiv-konstruktiv vor dem Hintergrund seines individuellen Wissens von der Welt“ (Groeben & Christmann 1989:168). Textverständlichkeit hängt daher nicht nur von der sprachlich-textuellen Manifestation ab, sondern u. a. von Rezipientenvariablen wie Interesse am Thema, Vorwissen, soziale und situative Bedingungen, Kontexte. 2.3.1 Hamburger Verständlichkeitsmodell und Typisierungskompetenz Eine methodisch radikale – zudem sehr erfolgreiche – Konzeption erfuhr dieses Paradigma im Verständlichkeitskonzept von Langer, Schulz von Thun und Tausch. Stellvertretend für Rezipienten bewerten Probanden in einem skalierten Rating-Verfahren, was sie im Hinblick auf ————— 1 Vgl. den kritischen Abschnitt bei Heijnk (1997). AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 644 Gerd Antos, Ursula Hasler und Daniel Perrin folgende (polar angeordnete) „Merkmale der Verständlichkeit“ (vgl. Langer, Schulz von Thun & Tausch 1987:8) für „verständlich“ halten. „Einfachheit“ wird für die Beurteiler u. a. mit Wortanzahl pro Satz, die Verwendung geläufiger Wörter oder transparentem Satzbau operationalisiert; „Gliederung“ mit Folgerichtigkeit, Übersichtlichkeit, guter Unterscheidbarkeit von Wesentlichem und Unwesentlichem, Sichtbarkeit des roten Fadens. Bei den Kriterien „Kürze – Prägnanz“ und „Anregende Zusätze“ wird besonders deutlich, dass das so genannte Hamburger Verständlichkeitsmodell keine objektivierende „Verständlichkeit“ misst, sondern die Meinung von Probanden über als verständlich/nicht verständlich eingeschätzte Texte. Gleichwohl lässt sich dieses Modell als eine – überaus praktikable – Typisierungsleistung von Beteiligten/Betroffenen verstehen. Und entsprechend: Die genannten Merkmale der Verständlichkeit könnten im Sinne ethnomethodologischer Methoden daher als alltagsweltliche „Beteiligtenkategorien“ aufgefasst werden. 2.3.2 Norbert Groeben: Textoptimierung durch Textorganisation Eine besondere Form der Typisierung favorisiert das Verständlichkeitskonzept von Groeben (Groeben 1982), bei dem das kognitive Lernen (im Kontext von Unterrichtstexten) im Vordergrund steht. Man könnte Textoptimierung als eine Typisierungsinszenierung von Textorganisationsformen und -strategien charakterisieren: Durch z. B. so genannte „Advance Organizer“ und/oder durch Zusammenfassung (heute auch durch Diagramme, Abbildungen, hypertextähnliche Ergänzungen und durch Text-Design) werden für Leser Hilfestellungen und Stimulanzien bei der Erfassung und Verankerung von wichtigen Textinhalten geboten. Im Hinblick auf den/die Schreiber sind solche Rezeptionshilfen als vorgreifende Alltagstypisierung zu interpretieren, die einen Blick darauf gestatten, welche Selbstmodelle Schreiber haben, um wichtige Zusammenhänge im eigenen Text beurteilbar zu machen. Die genannten Rezeptionshilfen und Stimulanzien können zudem als reflektierte „Anzeigehandlungen“ (vgl. die Einleitung in diesen Band) für die innere Ordnung, Hierarchisierung und Strukturierung eines Textes verstanden werden. Wie heute – oft schon in übertriebener Form – bei der sog. „Powerpointisierung“ von Inhalten geht es bei dem Groeben’schen Ansatz von Verständlichkeit im Kern um eine (rezipientenorientierte) Inszenierung der (Wissens-)Architektur eines Textes2. Insofern überrascht es nicht, wenn als Anweisungen zur Erstellung ————— 2 „Textoptimierung unter einer Handlungsperspektive ist immer Wissensoptimierung“ (Hochhaus 2004). AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 645 Textoptimierung verständlicher Texte folgende Kriterien herausgestellt werden: Gute inhaltliche Strukturierung, Konzepthierarchie und neue Informationen sollen in logischer Ordnung am Anfang des Textes vorkommen und von schon Bekanntem abgegrenzt werden. Diese „Anzeigehandlungen“ verdeutlichen nicht nur eine selbstbezügliche Reflexion über die eigene Textherstellung, sondern sind eine Art metakommunikative und alltagshermeneutische Sinnerzeugung des Textproduzenten mit dem Anspruch und der Erwartung, Einfluss und Steuerung auf die (als aktiv und konstruktiv unterstellte) Rezeption der Leser zu nehmen. Das geht so weit, dass (nur) ein „mittlerer Verständlichkeitsgrad“ bei Texten angestrebt werden soll, um die Leser nicht zu langweilen; mehr noch: dass durch eine Reihe von Überraschungseffekten das Interesse des Lesers an der weiteren Textlektüre aufrechterhalten werden soll. 2.3.3 Textverarbeitung (Ballstaedt, Mandl, Schnotz, Tergan und Meutsch) Anknüpfend an Kintsch und Vipond (1979) haben Ballstaedt, Mandl und Schnotz (1981) ein theoretisch anspruchsvolles, aber empirisch nur sehr ansatzweise verwendetes Prozessmodell der semantischen Textverarbeitung vorgelegt. Unter besonderer Berücksichtigung von Leservariablen (z. B. lesefreundliche Gestaltung des Textes und Veränderungen der Lernvoraussetzung des Lesers) ermöglicht es Verständlichkeitsmessung, die auf der Grundlage von Leser-Text-Interaktionen sowohl formale Textmerkmale als auch die Semantik von Texten umfasst. Dietrich Meutsch (1989) hat im Anschluss an Forschungen von Ballstaedt, Mandl, Schnotz und Tergan (1981) eine Reihe von Variablen aufgelistet, die Textverständlichkeit beeinflussen und von Schreibern berücksichtigt werden sollen: 1. Textvariablen: Überschriften, advance organizers, Zusammenfassungen, Gliederungen, Anknüpfungs- und Integrationshilfen, Typographie; 2. Kontextvariablen in Rezeptions- oder Äußerungssituationen: Leseperspektiven, Stimuli, Lern- und Leseziele, Verwendungszusammenhänge; 3. Leservariablen: Wissensstand/Vorwissen, Art der Wissensorganisation, kognitive Fähigkeiten, Interessen und Zielsetzungen. 2.4 Textoptimierung als Handlungsoptimierung (Sauer) Textoptimierung ist ein hochgradig individueller Prozess – sowohl für Schreiber als auch für Leser. Aber ähnlich der Hermeneutik, die man sozusagen als eine „Textoptimierungslehre für Leser“ verstehen kann, „kann es kein Patentrezept für den optimalen Text geben“ (Hochhaus 2004). Vielmehr ist die TO ein mehrdimensionaler Prozess, der kaum AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 646 Gerd Antos, Ursula Hasler und Daniel Perrin angemessen durch die Berücksichtigung von Variablen-Listen verdeutlicht werden kann – weder für die verschiedenen an der TO-Forschung befassten Wissenschaften noch für die Schreiber. Ferner ist zu berücksichtigen: TO ist aber nicht nur auf das „Verständlich(er)-Machen“ ausgerichtet, sondern integriert in das, was man die Optimierung eines Handlungszusammenhangs nennen könnte. In eine solche Richtung geht das Minimalmodell von Sauer (1995), das vier Anforderungen an verständliche Texte stellt: 1. Lesbarkeit (Wahrnehmbarkeit), 2. Verstehbarkeit, 3. Brauchbarkeit und 4. Anwendbarkeit. Entscheidend ist für Sauer, ob der Leser nach Lektüre eines Textes in der Lage ist, bestimmte intendierte Folgehandlungen hinsichtlich seiner Anwendbarkeit zu vollziehen. Verständlichkeit und Brauchbarkeit sind dazu sozusagen notwendige, aber noch keine hinreichenden Bedingungen. 2.5 Textoptimierung als dynamisches System Im Schnittfeld von angewandter Linguistik und dynamischer Systemtheorie (Larsen-Freeman 2008) lässt sich Textoptimierung aber auch als dynamisches System verstehen: als komplexer Prozess der Textherstellung und -veränderung, der ständig mit vielschichtigen Umwelten (Normen, Quellen, Autorenteams, …) interagiert und zu emergenten Produkten führt – zu Ergebnissen also, die unvorhersehbar und situativ entstanden sind und mehr sind als die Summe ihrer Teile. Ein solcher Prozess und seine Produkte lassen sich grundsätzlich weder sicher vorhersagen noch monokausal steuern, aber er lässt sich durch die Gestaltung der Produktionsumwelt beeinflussen (Perrin 2010). Dies erklärt, warum keine absolute Regel der Textoptimierung funktionieren kann, warum aber gesteigerte Wachheit (Language awareness) der Textproduzierenden für das situative Zusammenspiel von Umweltfaktoren zu situativ angemessenen Produktionsprozessen und Texten führen kann. Textoptimierung als dynamisches System muss deshalb bewährte Maximen älterer Ansätze systematisch an den relevanten Umweltgrößen situierter Textproduktion reflektieren. Abbildung 1 gibt einen Überblick über solche Umweltgrößen und die damit verbundenen Produktionspraktiken, die es im Sinn gewünschter Prozess- und Produktqualität abzustimmen gilt. Das dynamische System situierter Textproduktion beginnt mit dem Verstehen der Produktions- und/oder Optimierungsaufgabe und endet mit der Implementierung des Ergebnisses in übergeordnete Produktionszusammenhänge. Dazwischen interagieren Lese- und Schreibprozesse, etwa das Lesen von Quellen und des entstehenden neuen Texts sowie das Herstellen und Umbauen eigener Textteile auf unterschiedlichen Komplexitätsstufen, vom Graphem bis zur Textversion. AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 647 Textoptimierung Abb. 1: Komplexe Dynamik der Textproduktion (vgl. Perrin 2011 i.V.) In unterschiedlichen, rekursiven Phasen dominieren unterschiedliche Tätigkeiten inkrementeller Textproduktion, die sich prototypisch auf bestimmte Komplexitätsstufen des entstehenden Texts beziehen. So fokussiert die Zielfindung eher auf den ganzen Text, Planung auf Textteile, Steuerung Schreibfluss auf Formulierungen. In Evaluationsphasen können wieder alle Ebenen in den Blick genommen werden. Während der Textproduktion befassen sich die Autorinnen und Autoren aber nicht nur mit vorhandenen und entstehenden Texten, sondern mit einem sozialen und technischen Umfeld, etwa mit Vorgesetzten, Ko-Autoren und Schreibsystemen. Zudem interagiert der Produktionsprozess mit anderen Aufgaben und einem Textumfeld der neuen Aufgaben. So gilt es etwa, einen neuen Text in einem Marken- und Konkurrenzumfeld zu positionieren, mit dem neuen Beitrag strategisch an bestimmten und sich verändernden Diskursständen anzuknüpfen – sowie weitere Aufgaben parallel zu lösen und dabei die Ressourcen immer wieder neu aufzuteilen. All diese Praktiken, ausgerichtet auf all diese Umweltgrößen, sind optimierbar und zu optimieren, wenn ein Produkt bestimmter Qualität nicht um jeden Preis, sondern mit begrenzten Ressourcen erreicht werden soll – also dann, wenn die Optimierung als Teilprozess organisier- AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 648 Gerd Antos, Ursula Hasler und Daniel Perrin ter Textproduktion verstanden wird. Dies illustrieren wir nun an einem aktuellen Anwendungsfeld: der organisational eingebetteten Optimierung der Usability von Kommunikationsangeboten im Internet. 3. Textoptimierung als Frage der Usability Der Anteil an Texten, die für eine webbasierte Rezeption produziert werden, steigt seit Jahren kontinuierlich, und die Entwicklung greift in jüngster Zeit mit den mobilen Lesegeräten für E-Books in Bereiche ein, wo die Textproduktion bisher ausschließlich auf eine druck- und papierbasierte Rezeption ausgerichtet war3. Es kann davon ausgegangen werden, dass die Online-Textrezeption die papierbasierte mengenmäßig überholen wird4 – eine Entwicklung, mit der sich die linguistische Verständlichkeitsforschung auseinandersetzen muss. In der linguistischen Diskussion zur Verständlichkeit, die vorwiegend eine klassische Rezeption impliziert, spielen mediale Rahmenbedingungen der Rezeption (immer noch) eine untergeordnete Rolle. Betrachten wir jedoch die Verständlichkeit und damit die Kriterien für eine Textoptimierung bei online vermittelten Texten, schieben sich die vom Medium bestimmten Rezeptionsbedingungen in den Vordergrund. Im Folgenden soll aufgezeigt werden, wie diese von einer sozialen und technischen Umwelt bedingten Optimierungskriterien die klassischen Verständlichkeitskriterien überlagern und in die Textgestalt eingreifen. Die ersten, die sich mit der Frage beschäftigten, wie Internetuser Webtexte lesen, waren die angelsächsischen Usability-Forscher in der zweiten Hälfte der neunziger Jahre, insbesondere die immer noch führende Gruppe um Jakob Nielsen (<http://www.useit.com>), die ihre Studien als „Alertboxes“ laufend im Web publiziert. 1997 veröffentlichte Nielsen seine wohl berühmteste Alertbox mit dem Titel „How Users Read on the Web. They don’t“5, auf die sich anschließend eine ganze Generation von Ratgeberliteratur bezog. Die durch das Web veränderten Rezeptionsbedingungen und daraus entstandenen neuen Er————— 3 4 5 2009 erschienen erste Überlegungen von Nielsen zur Usability von Büchern im Lesegerät Kindle, weil „Writing for Kindle is like writing for print, the Web, and mobile devices combined; optimal usability means optimizing content for each platform’s special characteristics“ (Nielsen 2009). Aus der Medienmitteilung vom 26. Dezember 2009 des Onlinebuchhändlers Amazon: „Am Weihnachtstag kauften Kunden zum allerersten Mal mehr Kindle Bücher als physische Bücher auf Amazon.com“ (<http://www.amazon.de/gp/press/home/2009> (Stand: 01.12.2010)). Nielsens Ausführungen (Nielsen 1997) sind pragmatisch und i. R. normativ, gründen aber auf empirischen Untersuchungen und systematischer Beobachtung von Userverhalten. AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 649 Textoptimierung wartungen an die Lesbarkeit von Texten im Web bildeten im deutschsprachigen Raum Anfang dieses Jahrhunderts die Ausgangslage für eine erste Welle von Ratgebern zum Thema „Texten für das Web“, die auf der Prämisse gründen, dass für Print konzipierte Texte im Hinblick auf Rezeption am Bildschirm optimiert werden müssen. 3.1 Dominanz der Rahmenbedingungen Die ersten Praxisbücher zur Textproduktion im Internet (u. a. Hoofacker 2001; Alkan 2002; Heijnk 2002; Lackerbauer 2003; Wieland & Spielkamp 2003) richteten sich an professionelle Printtextproduzenten, in der Regel Journalisten, die in der zweiten Hälfte der neunziger Jahre vermehrt auch als Onlineredakteure für die Onlineausgaben ihrer Printmedien texten mussten, dies meist ohne Zusatzausbildung. Diese frühe Praxisliteratur vermittelt Grundwissen zum Internet, zum Hypertext als neuer Textarchitektur und zur (damaligen) Technik. Viele der vorgestellten Tipps zum mediengerechten Texten basieren auf Nielsens Prämisse der flüchtigen Rezeption, „scannen“ anstatt lesen (vgl. Abschnitt 3.2), und heben klassische Regeln des Schreibens auf, zum Beispiel: kein sukzessiver Spannungsaufbau in der Hierarchie der Informationen, sondern die Kernaussage gleich an den Anfang gestellt, mit anschließend deduktiver Darlegung der Argumente und Hintergründe. Parallel dazu erschienen Empfehlungen für Webtexter, deren Ziel in erster Linie erfolgreiches Marketing und Verkaufen im Internet war (u. a. Schmider 2003; Grede 2003; Heijnk 2004) und die nicht vom Schreiben als journalistischem Handwerk ausgehen, sondern vom Texten im Kontext von Public Relations respektive Marketing und Werbung. In jüngster Zeit befasst sich die Ratgeberliteratur nun mit der Textoptimierung für Suchmaschinen (u. a. Alkan 2009; Häfele 2009; Sturmer & Holzinger 2009). Diese Entwicklung zeigt, dass bei Onlinetexten von einem speziellen Verständnis von Textoptimierung ausgegangen werden muss: Optimierung nicht nur im Hinblick auf ein besseres Verständnis des Textes, sondern zuerst einmal in Bezug auf mediale und technische Rahmenbedingungen der Rezeption. Die interaktive Produktions- und Rezeptionsumwelt tritt gegenüber dem Text selbst also in den Vordergrund, die Produktimplementierung erfolgt für die Textproduzierenden damit auf komplexerer Stufe. Die Texte sollen via Suchmaschinen leicht auffindbar sein, sich intuitiv und selektiv erschließen lassen und dabei die Stärken der Medien, der unterschiedlichen Ausspielplattformen einbinden. Die Palette solcher Ausspielplattformen ist, dem Begriff der Medienkonvergenz zum Trotz, sehr weit gespannt: Mobiltelefone mit winzigen Bildschirmen mit und ohne Berührungssteuerung, berührungs- und bewegungsgesteuerte Tablet-Computer wie das iPad, AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 650 Gerd Antos, Ursula Hasler und Daniel Perrin mobile Computer mit Trackpads, Hybridgeräte aus Computer und Fernseher mit TV-ähnlicher Fernsteuerung sowie Einrichtungen mit riesigen Projektionsflächen im halböffentlichen Raum. Also stellt sich die Frage, welche Optimierungskriterien medial sicherstellen, dass Internetuser die Webtexte überhaupt lesen, und technisch, dass ein Webtext in der Datenflut überhaupt gefunden wird. 3.2 Optimierungskriterium: Scanbarkeit Usability wird in der ISO-9241-116 Norm definiert als das Ausmaß, in dem eine Zielgruppe ein Produkt in einem bestimmten Kontext nutzen kann, um bestimmte Ziele effektiv, effizient und zufriedenstellend zu erreichen. Die Norm referiert also ausdrücklich auf den Nutzungskontext; dieser Kontext ist für die Einschätzung komplexer und dynamischer Systeme entscheidend. Auf Internetprodukte bezogen, wird unter Usability die Benutzungs- und Kommunikationsqualität einer Website verstanden. Einbezogen werden möglichst alle Merkmale, die eine zielführende Nutzung erleichtern oder erschweren können, wie etwa Navigationsleisten, Linksystem, Seitenarchitektur, Textsortenmarkierung, Farbgebung, multimodales Zusammenspiel etc. Dieses operative System erfordert vom Internetuser laufend Entscheidungen über die nächsten Handlungsschritte, ermöglicht ihm aber auch, irgendwelche unvorhersehbare Wege der Informationserschließung zu gehen. Während Printtexte zwar auch auf unvorhersehbare Weise nutzbar sind, ist es Autorinnen wie Leserinnen jedoch klar, dass die Texterschließung vorhersehbaren Leserichtungen folgen muss, nämlich, vereinfacht gesagt, von oben nach unten. In einem Textnetz dagegen, wie es die Website als Hypertext darstellt, erwarten die Nutzenden stimmige Anschlüsse in allen denkbaren Abfolgen der Teile, mit kaum vorhersehbaren Auswirkungen auf die Veränderungen des Vorwissens. Ausgangspunkt der vielen Ansätze zur Optimierung solch komplexer und dynamischer Kontexte ist, dass Webuser gemäß Nielsen Texte am Bildschirm eher „scannen“ statt lesen (Nielsen 1997, 2008; Zimmermann 2004:18). Scannen7 bedeutet, sich schnell einen Überblick über die Relevanz der vorliegenden Information zu verschaffen (Nielsen & Pernice 2009; Yom & Wilhelm 2004). Folglich ist ein optimaler Webtext zuerst einmal ein scanbarer Text. ————— 6 7 Ergonomic requirements for office work with visual display terminals (VDTs) - Part 11: Guidance on usability. <http://www.iso.org/iso/catalogue_detail.htm?csnumber=16883> (Stand: 01.12.2010). Teilweise wird noch eine vorgelagerte Phase des Skimmens unterschieden: Skimmen gleich Überfliegen, anschließend Scannen gleich Relevanz bewerten und schließlich Lesen gleich Inhalt vollständig erschließen. AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 651 Textoptimierung Gut scanbare Texte sind gemäß Nielsen optisch so strukturiert8, dass die wichtigen Elemente des Textes als Eyecatcher dem überfliegenden Leser die entscheidenden Informationen liefern, damit er sich packen lässt und in den Text einsteigt, d. h. zu lesen beginnt. Konkret bedeutet dies zum Beispiel, dass scanbare Texte pro Abschnitt nur einen Kerngedanken ausführen, aussagekräftige Zwischentitel aufweisen, Schlüsselwörter markieren, Aufzählungen als Listen präsentieren, kürzer sind als Printtexte und den Inhalt gemäß einer umgekehrten Pyramide aufbauen, d. h. das Wichtigste und die Schlussfolgerung an den Anfang setzen. Aus diesen Grundsätzen leiten viele Ratgeber zum Webtexten ihre Regeln ab. Das Textoptimierungskriterium der Scanbarkeit greift somit sehr stark in die Textplanung ein und verlangt, selbstverständlich unter gleichzeitiger Berücksichtigung der traditionellen Verständlichkeitskriterien, eine angepasste Inhaltsstrukturierung. 3.3 Optimierungskriterium: Auffindbarkeit Die gewaltige Zunahme an Websites hat dazu geführt, dass die Wichtigkeit der Suchmaschinen parallel dazu gestiegen ist: Auffindbarkeit im Web – als nicht klar vorhersehbarer Textumgebung – ist aktuell die größte Herausforderung für alle Anbieter von webbasierten Informationen, sowohl von kommerziellen, öffentlichen, privaten wie auch wissenschaftlichen Inhaltsproduzenten. Dass dieses Kriterium sich vor alle anderen Kriterien der Benutzerfreundlichkeit geschoben hat, ist klar. Der Webuser muss eine Seite überhaupt erst einmal finden und anklicken, bevor die Usabilityregeln zum Zug kommen können, und erst wenn diese optimal sind, beginnt der User vielleicht einen Text zu lesen. Da Informationen im Web heute ohne Suchmaschinen kaum mehr auffindbar sind, suchen immer mehr Laien ohne jegliche Kenntnisse in Informationsrecherche über Suchmaschinen. Die Erfolgsgeschichte von Google beruht gerade darauf, dass diese Suchmaschine eine auf Suchlaien ausgelegte Usability aufweist. Die Positionierung einer Website auf der Ausgabeseite der Suchergebnisse einer Suchmaschine, d. h. ihr Ranking bei der Suchmaschine, ist daher maßgebend für die Auffindbarkeit, und entsprechend erschien parallel zum steigenden Gebrauch von Suchmaschinen die entsprechende Praxisliteratur zum Suchmaschinenmarketing (SEM) auf dem Markt9. Da Suchmaschinen vorläufig nur Text indizieren können, ist der wichtigste Content ————— 8 9 Nielsen konnte mit neusten Eyetracking-Studien nachweisen, dass Webseiten in Form eines F-Patterns gescannt werden. Dass das Problem relevant und akut ist, zeigt die Anzahl Treffer zum Thema notabene im (deutschen) Google: 8.880.000 für den Suchbegriff „Suchmaschinen Optimierung“ und 3.300.000 für „Suchmaschinen Ranking“ (Stand: 12.01.2010). AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 652 Gerd Antos, Ursula Hasler und Daniel Perrin auf einer Website zurzeit der verbale Text. Sowohl die Suchanfrage durch User wie auch das Finden und die Trefferausgabe durch die Retrievaltechnologie basiert auf Wörtern, folglich sind richtig gesetzte Schlüsselwörter ausschlaggebend, damit ganze Websites, Einzelseiten und Content von den Suchmaschinen und damit den Usern gefunden werden. Ein weiteres onlinespezifisches Optimierungskriterium betrifft also die Suchmaschinenoptimierung (SEO), und dies greift ebenso stark in die Textgestaltung ein wie das Kriterium der Scanbarkeit – wenn auch weniger in die Struktur als mehr in den stilistischen Bereich: SEOoptimierte Texte enthalten eine optimale Dichte an geläufigen Keywords an den entscheidenden Textstellen, d. h. in Dateinamen, Bildbezeichnungen, Linktexten, Metatags, Seitentiteln, Überschriften etc. und schließlich im Textinhalt selber. Die Textoptimierung wird aber dadurch erschwert, dass die „optimale Dichte“ an ausschlaggebenden Begriffen nicht sprachlich-stilistisch definiert wird, was folgende, wahllos herausgegriffene Tipps zeigen: Im Text sollen Keywords weit vorne stehen und dürfen möglichst nicht flektiert werden, d. h. man soll nicht „durch ungeschickten Satzbau einen Genetiv oder andere ungünstige Wortformen erzeugen“, da Suchmaschinen Flexionsformen weniger gut berücksichtigen als frei stehende, exakt übereinstimmende Zeichenketten. Weiter soll, damit jede Webseite nur einem Thema und einem Keyword zugeordnet werden kann, ein Text möglichst über mehrere Seiten verteilt werden. Für den professionellen „SEO-Texter“ wichtig sei, dass er die Ranking-Richtlinien der Suchmaschinen genau befolge. Wie diese Ratschläge zeigen, wird die Suchmaschinenoptimierung vor allem technisch und statistisch definiert, d. h., sie unterliegt komplexer Optimierung in einer nur teilweise vorhersehbaren Umwelt. Unterstützung in dieser komplexen Optimierung bieten Keyworddatenbanken. Damit lässt sich statistisch ermitteln, welche Suchbegriffe generell häufig verwendet werden und über welche Suchbegriffe User über Suchmaschinen auf die eigene Website gelangt sind. Ziel der onlinegerechten Optimierung ist ja, dass User erstens die Seite überhaupt finden, d. h. anklicken, und zweitens, dass sie die Informationen auf der Seite lesen. Konkret bedeutet das, dass auf einer beliebigen Seite einer Website der Zusammenhang zwischen Inhalt und möglichem Suchwort, mit dem die Seite gefunden wurde, auf Anhieb ersichtlich sein muss, damit Besucher sich überhaupt auf die Seite einlassen, d. h., die Kriterien der Auffindbarkeit und Scanbarkeit bedingen einander aufs Engste. Dies wird durch neuere Umfragen bei Nutzern von Internet-Suchmaschinen belegt; es ist ein klarer Trend zu beobachten, dass die Nutzer für die Informationssuche immer weniger navigieren. Wird ein Treffer auf der Liste der Suchergebnisse angeklickt und die gesuchte Information nicht AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 653 Textoptimierung auf Anhieb gesehen, wird auf der betreffenden Website selten durch Navigieren selber weitergesucht, sondern gleich zurück auf die Trefferliste der Suche und von dort auf den nächsten Treffer geklickt (Hasler 2009:3). 3.4 Webtextoptimierung vor Verständlichkeit Die konkreten Tipps zur Optimierung der Auffindbarkeit und der Scanbarkeit zeigen, dass die webbasierte Textrezeption durch außertextliche, vom Medium Internet und den jeweiligen Ausspielplattformen abhängige Kriterien überhaupt ermöglicht werden muss. Erst wenn die Auffindbarkeit einerseits und über die Scanbarkeit die Aufmerksamkeit andrerseits sichergestellt ist, wird die allgemeine Textverständlichkeit relevant. Bei der Textoptimierung von Webtexten müssen also zuerst vorgelagerte Optimierungskriterien erfüllt werden, bevor die grundsätzlichen Verständlichkeitskriterien zum Zuge kommen. Es ist jedoch zu vermuten, dass der konkrete Schreibprozess eines Webtextes analog zu einem Printtext verläuft und in einem zweiten Schritt auf Scanbarkeit und in einem dritten Schritt auf Auffindbarkeit optimiert wird. Die Product implementation (s. o. Abb. 1) wird zu wenig bedacht, lautet die Hypothese gestützt auf explorative Befunde. Mittlerweile findet sich Software auf dem Markt, die die Weblesbarkeit und Webqualität von Texten zu messen verspricht.10 Solche Bewertungen wären es wert, textlinguistisch analysiert zu werden, inwiefern nämlich die Optimierungskriterien der Scanbarkeit und der Auffindbarkeit textanalytische Merkmale wie anaphorische oder kataphorische Verweise, Substitutionen, Tempusabhängigkeiten, Thema-Rhema-Strukturen, Frames oder andere kohärenzsichernde Formen beeinflussen. Insbesondere das Optimierungskriterium der Auffindbarkeit, das auf dem Einsatz der richtigen Schlüsselwörter in Bezug auf Ranking-Richtlinien beruht, greift direkt in die Semantik ein. Die Praxis spricht bei dieser Textoptimierung von semantischem Lückenmodell, das für das Keywording genutzt werden kann, und von LSO, Latent Semantischer Optimierung (Häfele 2009:23ff.), die zusätzlich auch semantische Felder von Keywords berücksichtigen muss, da die Retrievaltechnologie für die Optimierung der Trefferausgabe heute vermehrt mit semantischen Netzen, Taxonomien und semantischen Metainformationen zu Content arbeitet (Stich————— 10 Der Web-Lesbarkeitsindex WLI zur automatisierten Qualitätssicherung zum Beispiel untersucht sowohl Textverständlichkeit als auch Web-Tauglichkeit eines Artikels: „Neben quantitativen Größen misst der WLI auch qualitative Spracheigenschaften. Grammatik schlecht, Sprache gut und Scanbarkeit hervorragend – wie kann eine Software eine solche Bewertung abgeben?“ <http://www.aexea.de/Wissen/Fachartikel/Der-Web-Lesbarkeitsindex-von-aexeaAutomatisierte-Qualitaetssicherung--a144.html> (Stand: 01.12.2010). AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 654 Gerd Antos, Ursula Hasler und Daniel Perrin wort Semantic Web). Anzunehmen ist, dass die so entstehenden neuen Formen webbasierter Texte einst auf die Gestalt von Printtexten zurückwirken werden: Im komplexen, dynamischen System der Textoptimierung steht webbasierte Kommunikation im Kontext von Kommunikation überhaupt, die Systeme beeinflussen sich über Ko-Adaption. Auffindbarkeit in der Flut der Kommunikationsangebote und Scanbarkeit innerhalb eines konkreten Kommunikationsangebotes erscheinen also nicht nur als Projektionen der altbekannten Textmerkmale der Gliederung und Ordnung, sondern als Konkretisierung einer Haltung, die Textoptimierung erst sinnvoll erscheinen lässt: Man will in einer sich immer schneller und oft überraschend ändernden Welt immer noch das Gleiche, mit möglichst optimiertem Aufwand möglichst optimal die Botschaft an die Rezipienten bringen. Das gilt auch für den Umgang mit Zeichen in raumzeitlicher Distanzkommunikation. 4. Fazit und Ausblick Fasst man die hier dargestellte Entwicklung der Textoptimierung zusammen, so lässt sich Folgendes festhalten: Ausgangspunkt der Geschichte der TO war – wie in der Lesbarkeitsforschung, dem Hamburger Modell oder den kognitivistischen Ansätzen – zunächst die Konzentration auf die Optimierung „klassischer“ Textmerkmale wie übersichtliche Sätze, bekannte Wörter oder Verbesserungen der Textorganisation. Mit der damit ins Spiel kommenden Berücksichtigung von Leservariablen setzt ein Prozess ein, der die Textoptimierung nicht mehr als ein Abarbeiten von Regeln oder Rezepten, sondern als ein dynamisches System versteht, das TO als einen mehrdimensionalen und differenzierten Problemlösungsprozess modelliert: Beginnend mit dem Verstehen der Produktions- und/oder Optimierungsaufgabe wird das Herstellen und Umbauen von Textteilen auf unterschiedlichen Komplexitätsstufen von Lese- und Schreibprozessen begleitet, die die jeweils gewonnenen Ergebnisse in übergeordnete Produktionszusammenhänge implementieren. Über die bewährten Maximen älterer Ansätze hinaus werden dadurch systematisch relevante Umweltgrößen mit reflektiert. Entscheidend wird dabei eine gesteigerte Wachheit (Language awareness) der Textproduzierenden für das situative Zusammenspiel von Umweltfaktoren und Textproduktionsprozessen. Damit tritt in einer dritten Phase die Produktions- und Rezeptionsumwelt gegenüber dem Text in den Vordergrund. Dieser Wandel wird ergänzt und verstärkt durch eine Loslösung der TO vom Paradigma der Printtexte. Daher ist es nur konsequent, wenn damit die Optimierung der Usability von Kommunikationsangeboten im Internet in den Vor- AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 655 Textoptimierung dergrund des Interesses rückt. Damit wird das Gelingen der TO bedeutsam für „optimales“ kommunikatives Handeln in gesellschaftlichen Systemen und Organisationen. Die durch die TO generierte Verständlichkeit lässt sich unter dieser Perspektive als ein Versuch verstehen, der immer dynamischer werdenden Ausdifferenzierung der gemeinsamen Lebenswelt in kaum mehr durchschaubare Sub-Systeme und Organisationen kompensatorisch entgegenzuwirken. 5. Literaturverzeichnis Alkan, Saim Rolf: Texten für das Internet. Ein Handbuch für Online-Redakteure und Webdesigner. Bonn 2002. Alkan, Saim Rolf: 1x1 für Online-Redakteure und Online-Texter: Einstieg in den Online-Journalismus. Göttingen 2009. Antos, Gerd: Grundlagen einer Theorie des Formulierens: Textherstellung in geschriebener und gesprochener Sprache. Tübingen 1982. Antos, Gerd: Laien-Linguistik. Studien zu Sprach- und Kommunikationsproblemen im Alltag. Am Beispiel von Sprachratgebern und Kommunikationstrainings. Tübingen 1996. Antos, Gerd: „Texte als Konstitutionsformen von Wissen. Thesen zu einer evolutions-theoretischen Begründung der Textlinguistik.“ In: Die Zukunft der Textlinguistik. Traditionen, Transformationen, Trends. Hg. v. Gerd Antos u. Heike Tietz. Tübingen 1997, 43–63. Antos, Gerd: „Text.“ In: Historisches Wörterbuch der Rhetorik Bd. 9. St-Z. Hg. v. Gert Ueding. Tübingen 2009, 489–509. Antos, Gerd u. Gerhard Augst (Hg.): Textoptimierung. Das Verständlichermachen von Texten als linguistisches, psychologisches und praktisches Problem. Frankfurt/Main 1992. Ballstaedt, Steffen-Peter, Heinz Mandl u. Wolfgang Schnotz: „Zur Vorhersagbarkeit von Lernergebnissen auf der Basis hierarchischer Textstrukturen.“ In: Zur Psychologie der Textverarbeitung. Hg. v. Heinz Mandl. München 1981, 251– 306. Ballstaedt, Steffen-Peter, Heinz Mandl, Wolfgang Schnotz u. Sigmar-Olaf Tergan: Texte verstehen, Texte gestalten. München 1981. Barnard, Chester Irving: The Functions of the Executive. Cambridge/Massachusetts 1938. Biere, Bernd Ulrich: „Textgestaltung zwischen Sachangemessenheit und Adressatenorientierung.“ In: Wissenschaftliche Grundlagen der technischen Kommunikation. Hg. v. Hans P. Krings. Tübingen 1996, 291–306. Busch, Albert: Laienkommunikation. Vertikalitätsuntersuchungen zu medizinischen Experten-Laien-Kommunikationen. Frankfurt/Main 1994. Cameron, Deborah: Good to Talk? Living and Working in a Communication Culture. London 2000. Eichhoff-Cyrus, Karin u. Gerd Antos: Verständlichkeit als Bürgerrecht. Mannheim 2008. AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 656 Gerd Antos, Ursula Hasler und Daniel Perrin Ehlich, Konrad: „Text und sprachliches Handeln.“ In: Schrift und Gedächtnis. Beiträge zur Archäologie der literarischen Kommunikation. Hg. v. Aleida Assmann, Jan Assmann u. Christof Hardmeier. München 1983, 24–43. Fairclough, Norman: Analyzing Discourse. Textual Analysis for Social Research. London 2003. Fix, Ulla, Kirsten Adamzik, Gerd Antos u. Michael Klemm (Hg.): Brauchen wir einen neuen Textbegriff? Antworten auf eine Preisfrage. Frankfurt/Main 2002. Furnham, Adrian F.: Lay Theories. Everyday understanding of problems in the social sciences. Oxford 1988. Grede, Andreas: Texten für das Web. Erfolgreich werben, erfolgreich verkaufen. München 2003. Greule, Albrecht: „Die Textsortengruppe ‚Sprachratgeber‘.“ In: Textsorten deutscher Prosa vom 12./13. Jahrhundert bis 18. Jahrhundert und ihre Merkmale. Akten zum Internationalen Kongress in Berlin, 20. bis 22. September 1999. Hg. v. Franz Simmler. Bern 2002, 589–601. Groeben, Norbert: Leserpsychologie: Textverständnis – Textverständlichkeit. Münster 1982. Groeben, Norbert u. Ursula Christmann: „Textoptimierung unter Verständlichkeitsperspektive.“ In: Textproduktion. Ein interdisziplinärer Forschungsüberblick. Hg. v. Gerd Antos u. Hans P. Krings. Tübingen 1989, 165f. Häfele, Heike: Die Macht der SEO-Texte. Vortrag an The Search Conference. Frankfurt 05.11.2009. <http://www.slideshare.net/heike.haefele/die-macht-der-internettexte> (Stand: 01.12.2010). Hasler, Ursula: Spurensuche: Nutzerverhalten auf der Site-Suche einer HochschulWebsite. Winterthur 2009. <http://www.zhaw.ch/fileadmin/php_includes/popup/hop-detail.php?hop_id= 967837407> (Stand: 01.12.2010). Hayes, John R. u. Linda S. Flower: „Identifying the organization of writing processes.“ In: Cognitive Processes in Writing. Hg. v. Lee W. Gregg u. Erwin R. Steinberg. Hillsdale 1980, 3–30. HeƋnk, Stefan: Textoptimierung für Printmedien. Theorie und Praxis journalistischer Textproduktion. Opladen 1997. Heijnk, Stefan: Texten fürs Web. Grundlagen und Praxiswissen für OnlineRedakteure. Heidelberg 2002. Heijnk, Stefan: Besser texten, mehr verkaufen auf Corporate Sites. Göttingen 2004. Hochhaus, Stephan: Der verständliche Text. Perspektiven auf die Textoptimierung. Bochum 2004. Hoffmann, Ludger: „Textoptimierung am Beispiel ‚Grammatik‘: Ein Blick aus der Werkstatt.“ In: Textoptimierung. Das Verständlichermachen von Texten als linguistisches, psychologisches und praktisches Problem. Hg. v. Gerd Antos u. Gerhard Augst. Frankfurt/Main 1992, 52–69. Hoofacker, Gabrielle: Online-Journalismus. Schreiben und Gestalten für das Internet. Ein Handbuch für Ausbildung und Praxis. München 2001. Illich, Ivan: Im Weinberg des Textes. Als das Schriftbild der Moderne entstand. Frankfurt/Main 1991. AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 657 Textoptimierung Jäger, Ludwig: „Expertenkultur und Sprachkultur: ‚Innersprachliche Mehrsprachigkeit‘ und das Problem der Transparenz des Expertenwissens.“ In: Aufstand der Laien. Expertentum und Demokratie in der technisierten Welt. Hg. v. Max Kerner. Aachen 1996, 45–60. Jakobs, Eva-Maria, Dagmar Knorr u. Sylvie Molitor-Lübbert (Hg.): Wissenschaftliche Textproduktion. Mit und ohne Computer. Frankfurt/Main 1995. Jakobs, Eva-Maria u. Dagmar Knorr (Hg.): Schreiben in den Wissenschaften. Frankfurt/Main 1997. Jakobs, Eva-Maria, Dagmar Knorr u. Karl-Heinz Pogner (Hg.): Textproduktion. Hypertext, Text, Kontext. Frankfurt/Main 1999. Jakobs, Eva-Maria u. Daniel Perrin: „Training of writing and reading.“ In: Handbooks of Applied Linguistics: Communicative Competence. Hg. v. Gert Rickheit u. Hans Strohner. Berlin, New York 2008, 359–393. Kintsch, Walter u. Douglas Vipond: „Reading Comprehension and Readability in Educational Practice and Psychological Theory.“ In: Perspectives On Memory Research. Hg. v. Lars-Göran Nilsson. Hillsdale 1979, 329–365. Krings, Hans P.: Wissenschaftliche Grundlagen der Technischen Kommunikation. Tübingen 1996. Lackerbauer, Ingo: Handbuch für Online-Texter und Online-Redakteure. Berlin 2003. Langer, Inghard, Friedemann Schulz von Thun u. Reinhard Tausch: Verständlichkeit in Schule, Verwaltung, Politik und Wissenschaft. München 1987. Larsen-Freeman, Diane u. Lynne Cameron: Complex systems and applied linguistics. Oxford 20082. Meckel, Miriam: Das Glück der Unerreichbarkeit. Wege aus der Kommunikationsfalle. Hamburg 2007. Meutsch, Dietrich: „Text- und Bildoptimierung. Theoretische Voraussetzungen für die praktische Optimierung von Print- und AV-Medien: Verständlichkeitsforschung und Wissenstechnologie.“ In: Textoptimierung. Das Verständlichermachen von Texten als linguistisches, psychologisches und praktisches Problem. Hg. v. Gerd Antos u. Gerhard Augst. Frankfurt/Main 1989. Niederhauser, Jürg: Wissenschaftssprache und populärwissenschaftliche Vermittlung. Tübingen 1999. Nielsen, Jakob: „How Users Read on the Web.“ In: Alertbox. October 1, 1997. <http://www.useit.com/alertbox/9710a.html> (Stand: 01.12.2010). Nielsen, Jakob: „How Little Do Users Read?“ In: Alertbox. May 6, 2008. <http://www.useit.com/alertbox/percent-text-read.html> (Stand: 01.12.2010). Nielsen, Jakob: „Kindle Content Design.“ In: Alertbox. March 16, 2009. <http://www.useit.com/alertbox/kindle-writing.html> (Stand: 01.12.2010). Nielsen, Jakob u. Kara Pernice: Eyetracking Web Usability. Berkeley 2009. Perrin, Daniel: „Kompressionsfaktor hundert. Strategien journalistischer Textproduktion optimieren.“ In: Schreiben in Domänen. Hg. v. Kirsten Adamzik, Gerd Antos u. Eva-Maria Jakobs. Frankfurt/Main 1997, 167–203. Perrin, Daniel: „Verstanden werden. Vom doppelten Interesse an theoriebasierter, praxisgerichteter Textberatung.“ In: Text – Verstehen. Grammatik und darüber hinaus. Hg. v. Hardarik Blühdorn, Eva Breindl u. Ulrich Hermann Waßner. Berlin, New York 2006, 332–350. AUTHOR’S COPY | AUTORENEXEMPLAR AUTHOR’S COPY | AUTORENEXEMPLAR 658 Gerd Antos, Ursula Hasler und Daniel Perrin Perrin, Daniel: „Wie sich Formate verändern. Die Mustervariation der Geschichte in Fernsehnachrichten.“ In: Neue Medien, neue Medienformate. Ausdifferenzierung und Konvergenz in der Medienkommunikation. Hg. v. Hans-Jürgen Bucher. Gießen 2010, 145–165. Perrin, Daniel: The linguistics of newswriting. Amsterdam 2011, i. V. Sauer, Christoph: „Ein Minimalmodell zur Verständlichkeitsanalyse und -optimierung.“ In: Sprache: Verstehen und Verständlichkeit. Hg. v. Bernd Spillner. Frankfurt/Main 1995, 149–186. Schendera, Christian F.: „Die Verständlichkeit von Rechtstexten. Eine kritische Darstellung der Forschungslage.“ In: Recht verstehen. Verständlichkeit, Missverständlichkeit und Unverständlichkeit von Recht. Hg. v. Kent D. Lerch. Berlin, New York 2004, 321–374. Schmider, Ekkehard: Handbuch für Webtexter. So schreiben Sie fürs Internet. Berlin 2003. Sturmer, Martin u. Thomas Holzinger: Die Online-Redaktion: Praxisbuch für den Internet-Journalismus. Berlin 2009. Wichter, Sigurd: Experten- und Laienwortschätze. Umriss einer Lexikologie der Vertikalität. Tübingen 1994. Wichter, Sigurd u. Gerd Antos (Hg.): Wissenstransfer zwischen Experten und Laien. Umriss einer Transferwissenschaft. Frankfurt/Main 2001. Wieland, Melanie u. Mathias Spielkamp: Schreiben fürs Web: Konzeption – Text – Nutzung (Praktischer Journalismus). Konstanz 2003. Yom, Miriam u. Thorsten Wilhelm: „Methoden und Erkenntnisse der WebUsability-Forschung.“ In: Usability von Internet-Angeboten. Grundlagen und Fallstudien. Stuttgarter Beiträge zur Medienwirtschaft Bd. 10. Hg. v. Ansgar Zerfass u. Hansjörg Zimmermann. Stuttgart 2004, 21–38. Zimmermann, Hansjörg: „Usability – Die Kunst Mensch und Maschine auf einen Nenner zu bringen.“ In: Usability von Internet-Angeboten. Grundlagen und Fallstudien. Stuttgarter Beiträge zur Medienwirtschaft Bd. 10. Hg. v. Ansgar Zerfass u. Hansjörg Zimmermann. Stuttgart 2004, 9–19. AUTHOR’S COPY | AUTORENEXEMPLAR