Opitz - Die Zukunft des Internet

Transcription

Opitz - Die Zukunft des Internet
Christian Opitz,
Netzelf - Agentur für guten Eindruck (Hg.)
Die Zukunft des Internet
01.03.2009
Netzelf
Agentur für guten Eindruck
Opitz & Scholz GbR
Merseburg
Postanschrift:
Netzelf
Geusaer Str. 88 - Poststelle FH
D-06217 Merseburg
Web: www.netzelf.de
Mail: [email protected]
Fon: 03461 479020
Fax: 03461 479021
Inhaltsverzeichnis
1. Einleitung ................................................................................................................................................................ 3
2. Ausgangspunkt ..................................................................................................................................................... 3
3. Das Internet in Gefahr ........................................................................................................................................ 8
3.1 Das Protokoll-Problem ............................................................................................................................... 8
3.2 Terror ................................................................................................................................................................. 9
3.3 Wild West im Web........................................................................................................................................ 9
3.4 Der Wendepunkt......................................................................................................................................... 13
3.5 Ist das Netz bedroht? ................................................................................................................................ 15
4. Das Internet der Zukunft ................................................................................................................................. 17
4.1 Neue Nutzer.................................................................................................................................................. 17
4.2 Neue Software ............................................................................................................................................. 20
4.3 Neue Technologie ...................................................................................................................................... 22
4.4 Neue Wirtschaft........................................................................................................................................... 24
4.5 Neue Gesellschaft ....................................................................................................................................... 25
5. Zusammenfassung ............................................................................................................................................ 26
6. Literaturverzeichnis ........................................................................................................................................... 28
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
2
1. Einleitung
Da der Begriff Zukunft ebenso weitläufig wie der Begriff Internet aufgefasst werden kann, ist
es von Nöten den Rahmen des Themas dieser Arbeit einzugrenzen. So ist mit Zukunft die
Entwicklung des Internets in den nächsten fünf bis zehn Jahren gemeint. Das Internet sollte
dabei hauptsächlich aus technischen Aspekten betrachtet werden. Da die technische
Betrachtung der Zukunft des Internets jedoch, wie sich in der Vergangenheit zeigte, nur eine
sehr vage sein kann, wird in dieser Arbeit auch auf zukünftige soziale und wirtschaftliche
Aspekte im Netz eingegangen.
Dieser Arbeit liegen verschiedene Expertenbefragungen und -berichte, Berichte aus
Fachmagazinen, Fachliteratur und Studien zu Grunde. Aus nahliegenden Gründen
entstammen diese auch dem Objekt dieser Arbeit, dem Internet. Eines ist dabei allen Quellen
gemein: Sie prophezeien Trends, die sich schon mehr oder minder lang abzeichnen. Es soll
nicht Bestandteil dieser Arbeit sein, zu klären, inwieweit die Zukunft tatsächlich von der
Gegenwart abhängig ist, jedoch liegt allen getroffenen Voraussagen eine Beurteilung der
jüngeren Vergangenheit und Gegenwart in Bezug auf das Thema zugrunde. Als besonders
bedeutend für die Entwicklung des Internets in Hinblick auf Software-Strukturen haben sich
dabei die Definition des Begriffs Web 2.0 von Tim O’Reilly und Jonathan L. Zittrain’s
umfassendes Buch „The future of the Internet and how to stop it“ hervorgetan.
2. Ausgangspunkt
Web 2.0 ist das Stichwort, das momentan sowohl die Programmierer- als auch die Nutzerwelt
bewegt. Der Begriff wurde 2004 von Dale Dougherty und Craig Cline geprägt, jedoch erst
richtig bekannt durch den Visionär Tim O’Reilly mit seinem Artikel „What is Web 2.0“ vom 30.
September 2005. Darin definierte er sieben Prinzipien, die das Web 2.0 charakterisieren:
Das Web als Plattform
Dies ist die zentrale Position des Begriffs Web 2.0. Der Begriff Plattform bedeutet dabei, dass
so gut wie alle Aktivitäten am PC in’s Internet verlagert werden können. Die Vorteile, die sich
daraus ergeben sind so vielfältig wie die Anwendungen, die im Web 2.0 möglich sind:
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
3
(Quelle: O'Reilly 2005)
Kollektive Intelligenz
Den Giganten, die die Internet-Blase im Jahr 2001 überstanden haben und nun unumstößlich
scheinen, ist gemein, dass ihr Erfolg auf die Erkenntnisse aus dem Verhalten ihrer Nutzer und
vor allem der Umsetzung und Weitergabe dieser basiert. So basiert die Suche Googles auf
der PageRank-Methode, die die Ergebnisse anhand der Verlinkungen auf anderen Seiten
bewertet. Das heißt, umso öfter eine Website verlinkt wurde (und damit sozusagen auch von
anderen als relevant ausgewiesen wurde) umso höher ist auch ihre Position auf der
Ergebnisseite. Amazon vertreibt dieselben Produkte mit denselben Preisen,
Produktbeschreibungen und Bildern wie seine Konkurrenten. Jedoch begann es schon früh
Nutzerbewertungen zu sammeln und zur Verfügung zu stellen, einer Produktsuche deren
Ergebnisse nach Verkaufszahlen, Produktbewertung und mehr geordnet werden, stellte also
den Nutzer und nicht direkt seine Produkte in den Vordergrund. EBay stellte seinen Nutzern
gar nur die Plattform für deren Verkäufe und Käufe zur Verfügung und erlaubte es Ihnen
Auktionen und andere Nutzer zu bewerten. Fortgesetzt wurde diese Erkenntnis am
radikalsten von Wikipedia, das seinen Nutzern eine leere Enzyklopädie in die Hand gab, auf
das diese sie füllen. Erwiesenermaßen trägt die Freiheit, die Wikipedia den Nutzern damit in
die Hände gab große Früchte. Cloudmark bewertet Emails anhand der Erfahrungen anderer
Nutzer als Spam, Flickr findet Fotos und Bilder aufgrund der Stichworte, die ihnen Nutzer
zuweisen, del.icio.us schlägt Websites nach verschlagworteten Lesezeichen seiner Nutzer als
besuchenswert vor (Public Bookmarking) usw.. Die Open Source Bewegung ist nicht nur
Erschaffer sondern gleichzeitig Produkt kollektiver Intelligenz. Ihre weltweit gemeinschaftlich
entwickelten Softwareprodukte wie Linux, Apache, MySQL, PHP und unzählige mehr sind
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
4
nicht nur hochsichere und moderne Anwendungen sondern auch wesentlich am Entstehen
des Web 2.0 beteiligt indem sie zumindest die Rahmenbedingungen schufen.
Das Fazit O’Reillys: „Network effects from user contributions are the key to market
dominance in the Web 2.0 era.“ (O'Reilly 2005, S.2)
Daten als „Intel Inside“
Jede wichtige Internet-Anwendung verfügt heutzutage über spezielle Datenbanken.
Datenbankmanagement ist die Kernkompetenz jedes Web 2.0 Unternehmens. Amazon z.B.
erweiterte die ursprüngliche Datenbasis des ISBN Registrars R.R. Bowker akribisch um Cover,
Inhaltsverzeichnisse, Indizes, Samples und v.a. Kundenrezensionen und Kundenbewertungen.
Nun ist Amazon und nicht Bowker die wichtigste Quelle für Bücherdaten, Referenz für
Schüler, Studenten, Bibliothekare und v.a. Kunden. Googles Daten-Sammelwut (Google
erweitert seine Dienste permanent: Google Maps, Google Earth, Google Video (YouTube),
Google Code, Google News etc.) ist vollkommen erklärlich, finanziert sich das Unternehmen
doch aus Werbung, die hochgradig genau platziert werden kann (Google AdWords). Es ist ein
regelrechter Krieg um Daten jeglicher Art entstanden, der in einem krassen Gegensatz zu den
Bedenken der Nutzer, die ein gewisses Maß an Privatsphäre und die Rechte an ihren Daten
auch in Zukunft behalten wollen. O’Reilly setzt diesen Bedenken allerdings eine interessante
These entgegen: So wie das Aufkommen proprietäre Software zur Entwicklung freier
Software führte, werden auch in Zukunft freie Datenbestände als Reaktion auf proprietäre
Datenbanken erscheinen. Erste Anhaltspunkte für diese These findet sich bei Wikipedia
(deren Inhalte größtenteils unter Open Source Lizenz stehen) und den Creative Commons
(Einer Bestrebung, Lizenzen zur Verfügung zu stellen, die es ermöglichen kreative Werke für
die Weiterverwendung und Wiedergabe lizenzieren zu können, ohne das Urheberrecht zu
verwerfen). Proprietäre Datenbanken führen kurzfristig zu sogenannten Mashups. Dabei
handelt es sich um die neue (z.B. collageartige) Präsentationen bereits bestehender Daten
wie Text, Bilder, Tönen oder Videos. Mashups nutzen dafür meist APIs
(Programmierschnittstellen), die von anderen Webanbietern wie z.B. Google oder Flickr zur
Verfügung gestellt werden. „Während Mashups zunächst als Spielzeug abgestempelt wurden,
machen sich in der Zwischenzeit auch einige kommerzielle Anbieter, z. B. zahlreiche
Immobilienanbieter oder Dienste wie whatsyourplace.de die oben genannten Möglichkeiten
zu Nutze. Eine besonders große Anzahl an Mashups verknüpft dabei geographische Daten,
beispielsweise von Google Maps, mit anderen Inhalten wie Fotos oder Kleinanzeigen.“
(Wikipedia (Hg.) 2009 – Mashup Internet)
Software ohne Lebenszyklus
Webbasierte Software wird im Gegensatz zu herkömmlicher stationärer Software nicht als
Produkt sondern als Service ausgeliefert. Dieser Umstand führt zu einigen Änderungen im
Geschäftsmodell von Web 2.0-Firmen: Betriebsabläufe werden zur Kernkompetenz solcher
Unternehmen. Das heißt, dass Entwicklung, Pflege und Anpassungen gleichzeitig ablaufen
müssen. Diese Abläufe kontrollieren zu können, erfordert ein hohes Maß an
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
5
Organisationsstruktur und Kontrolle. Die Nutzer der Software müssen wie auch bei der OpenSource-Entwicklung gebräuchlich als Mitentwickler gesehen und in die Programmierprozesse
einbezogen werden. Aus dem Grundgedanken des Open Source „Veröffentliche früh und oft“
wurde schnell ein „ewiges Beta“ (Mit Beta werden Software-Produkte gekennzeichnet, die
eigentlich noch nicht serienreif aber schon bereit zum Testeinsatz sind). So werden viele
Dienste wie Gmail, Google Maps oder Flickr wohl noch ein paar Jahre das Zeichen „Beta“ in
ihren Logos führen. Ein Webentwickler eines bedeutenden Online-Services bemerkte dazu im
Beitrag O’Reillys: „Wir veröffentlichen zwei oder drei neue Features pro Tag auf bestimmten
Teilen der Seite. Wenn die Leute sie nicht nutzen, nehmen wir sie wieder raus. Und wenn die
Leute sie mögen, weiten wir sie auf die gesamte Seite aus.“ (O'Reilly 2005, S. 3)
Die sich daraus ergebende hohe Entwicklungs-Geschwindigkeit zwingt auch Anbieter
traditioneller Softwareprodukte wie z.B. Microsoft dazu ihr Geschäftsmodell zu überdenken
und zumindest anzupassen, womit Sie Web 2.0-Startups gegenüber im Nachteil sind, da
diese keine alten Muster, Geschäftsmodelle und Einnahmequellen ablegen müssen.
Lightweight Programming Models
Am Beispiel der Webservices lässt sich die Entwicklung hin zu einfachen und schnell zu
implementierenden Softwareprodukten sehr gut ableiten: „Als die Idee der Web Services
bekannt wurde, stürzten sich große Firmen mit einem ganzen Haufen komplexer Web
Services ins Getümmel, die der Kreation hochverfügbarer Programmierumgebungen für
verteilte Anwendungen dienen sollten.
Aber so wie das Web Erfolg erlangte, indem es viel von der Theorie des Hypertext wieder
verwarf und stattdessen einen Pragmatismus des idealen Designs einsetzte, wurde RSS
aufgrund seiner Einfachheit der vermutlich am weitesten verbreitete Web Service, während
die komplexen Dienste der Unternehmen noch auf ihre Verbreitung warten.“ (O'Reilly 2005, S.
4)
Webservices oder auch Webdienste sind Software-Anwendungen, die online über URIs
(Uniform Resource Identifier) eindeutig identifizier- und erreichbar sind. Über bestimmte
XML-basierte Schnittstellen unterstützen Sie die Interaktionen mit anderen Anwendungen.
Komplizierte und hochwertige Schnittstellen werden allerdings hauptsächlich im B2B-Bereich
eingesetzt, für den Großteil der Programmkommunikation (z.B. RSS-Feeds, Trackbacks, AJAX)
werden zwar nicht so „Hacker“-resistente aber weniger komplizierte Austauschformate
verwendet. Dieses Modell der Einfachheit ergibt besonders in Zusammenhang mit dem
Punkt „Software ohne Lebenszyklus“ Sinn und es lassen sich daraus drei Grundsätze
moderner Programmierung ableiten: „Lightweight Programming Models“, die lose
gekoppelte Systeme ermöglichen, werden bevorzugt. So ist eine schnelle und effiziente
Entwicklung möglich (Besonders kommt man damit dem Umstand entgegen, dass (Web-)
Programmierung der traditionellen IT oftmals schon veraltet war, als sie abgeschlossen war).
„Kooperation ohne Koordination“ ist in Anlehnung an das „End to End“-Prinzip für das
Internet an sich die Absicht, Daten zu verteilen oder auszutauschen und nicht deren Verbleib
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
6
zu kontrollieren. „Hackability“ und „Remixability“ sind wichtige Aspekte bei der Gestaltung
moderner Softwareprodukte. Da Quellen heutzutage oft völlig offen liegen und sofern nicht,
oft kein Problem besteht, sie aufzudecken gibt es wenige Mittel zum Schutz gegen geistiges
Eigentum. „Die erfolgreichsten Web Services sind die, die sich leicht in Richtungen
weiterentwickeln lassen, an die der ursprüngliche Erfinder gar nicht gedacht hat. Der
Ausdruck ‚einige Rechte vorbehalten‘, erstmals von den Creative Commons als Kontrast zum
bekannten “alle Rechte vorbehalten” verwandt, zeigt die Richtung an, in die es gehen wird.“
Begleitet wird diese Entwicklung von „Leightweight Business Models“. Diese bedeuten, dass
Geschäftsfelder häufiger erschlossen werden ohne, dass vorher klare Geschäftsmodelle
gesucht wurden.
Software über Gerätegrenzen hinweg
Web-Inhalte werden über Gerätegrenzen hinweg. Diese Entwicklung wird in Zukunft in
Verbindung mit dem Punkt „Das Web als Plattform“ selbstverständlich, wenn man bedenkt,
welche Medien zusätzlich internetfähig werden. Beim Handy ist dies bereits eine
Selbstverständlichkeit, auch wenn die Preismodelle der Anbieter für den Großteil der
Mobilfunk-Kunden noch zu unattraktiv für die dauerhafte Nutzung des Internets via Handy
sind. Das Fernsehen wird über kurz oder lang auch mit dem Internet verschmelzen. Es gibt
schon Beispiele von Software, die das Internet als Bestandteil ihrer geräteübergreifenden
Infrastruktur nutzen. So sind z.B. iTunes und TiVo keine reinen Internetanwendungen, setzen
das Internet jedoch äußerst wirksam ein.
Rich User Expiriences
Das Zauberwort des Web 2.0 ist AJAX. AJAX ist eine Verknüpfung von Technologien, die es
u.a. Webprogrammierern ermöglicht, den Browser der Nutzer asynchron und ohne Verlassen
der Seite mit dem Server Daten austauschen zu lassen. Weiterhin können zur Laufzeit (sprich
ohne neues Laden der Seite) alle HTML-Elemente mittels des Document Object Models
erstellt, entfernt und manipuliert werden sowie Daten via XML und XSLT geladen, verändert
und dargestellt werden. Über die Programmiersprache JavaScript stehen dem Entwickler
damit sehr wichtige Werkzeuge zur Verfügung mit denen es möglich ist, webbasierte
Anwendungen mit der Mächtigkeit PC-basierter Applikationen zu erstellen. Diese
Technologien sind nicht neu, jedoch wurden sie in den 90er Jahren hauptsächlich durch den
Konkurrenzkampf Microsofts mit Netscape unmöglich gemacht, da ein
browserübergreifender Einsatz nicht möglich war. Heutzutage steht Microsoft im BrowserBereich mit Mozilla Firefox zwar wieder ein mächtiger Konkurrent gegenüber, jedoch
behindert Microsofts zunehmende und Mozillas grundsätzliche Akzeptanz und Umsetzung
von Web-Standards den Einsatz mächtiger Entwicklerwerkzeuge wie JavaScript nicht mehr so
stark. Dadurch ist JavaScript der für browserbasierte Programmierung bisher größtenteils
verwendeten Software Macromedias bzw. Adobes Flash ein gutes Stück näher gerückt, auch
wenn viele Probleme nach wie vor nur mit Flash oder Java gelöst werden können. Diese
Technologien in Verbindung mit stetig verbesserten Browsern jedoch lassen webbasierte
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
7
Anwendungen zukünftig ausgesprochen mächtig werden: „Wir erwarten in den nächsten
Jahren viele neue Webanwendungen, sowohl völlig neu erdachte als auch
Reimplementierungen von Desktop-Programmen. Jeder Plattformwechsel bringt auch die
Möglichkeit eines Führungswechsels bei den dominierenden Anwendungen mit sich.“
(O'Reilly 2005, S. 6)
Alle genannten Prinzipien finden heutzutage schon in vielen Webanwendungen und
Webunternehmen Anwendung und werden sich über die nächsten Jahre signifikant
durchsetzen, falls das Internet in der Zwischenzeit nicht ernsthaft in seinem Wachstum
behindert wird. Die nachfolgend erläuterten Bedrohungen könnten dem Internet und damit
auch der heutigen Gesellschaft und Wirtschaft schwerwiegende Probleme bereiten.
3. Das Internet in Gefahr
3.1 Das Protokoll-Problem
2004 ging eine Pressemeldung in den Medien um, nach der der Zusammenbruch des
Internets durch mangelnde Adressräume im IP-Protokoll kurz bevorstünde. (Fiutak 2004)
Dieser Fall ist allerdings bis heute nicht eingetreten, da auf die dynamische IP-Vergabe durch
Internet Service Provider (ISP) aufbauende Technologien eine effektivere
Adressraumausnutzung erlauben. Bei der dynamischen Adressvergabe werden Teilnehmern
IP-Adressen nicht statisch dauerhaft sondern erst bei der Anmeldung beim ISP freie IPAdressen zugewiesen, die dann jeweils für die Dauer der Sitzung konstant bleiben. In
Verbindung mit DynDNS (RFC 2845) können sogar Server unter dynamisch vergebenen IPAdressen erreicht werden. (Wikipedia (Hg.) 2009 – DynDNS) Diese Technologie wird durch
das IPv6-Protokoll aufgegriffen, das schrittweise v.a. in neuen Netzwerken im asiatischen
Raum eingeführt wird und den IP-Adressraum von 232 (IPv4) auf 2128 Adressen erweitert. Mit
den erweiterten Funktionalitäten dieses Protokolls, wie Autokonfiguration, Umnummerierung,
Multihoming und Mobile IP kann eine noch effizientere Ausnutzung der Adressräume und
erhöhte Verbindungssicherheit erreicht werden. Der Umstieg auf IPv6 gestaltet sich zwar
langsam, da er aber parallel zur weiteren Nutzung des IPv4 geschieht, ist auf Dauer eine
Verbesserung der Lage zu erwarten. (Wikipedia (Hg.) 2009 – IPv6)
Diese Entwicklung, nämlich die Konzentration auf die Verbesserung bestehender
Technologien (IPv4 seit 1981, IPv6 seit 1999), wurde auch in der PEW-Expertenbefragung
bestätigt: „Next-generation research will be used to improve the current Internet; it won’t
replace it.“ (Quitney Anderson, Rainie 2008, S. 6). Demnach sieht der Großteil (78%) der 578
befragten Experten die aktuell vorherrschende Infrastruktur auch als Basis bis mindestens
zum Jahre 2020, an der kontinuierlich weiterentwickelt und damit auf kommende
Anforderungen reagiert wird. (Quitney Anderson, Rainie 2008, S. 111-125)
Aus diesem Beispiel lässt sich exemplarisch auch die Realitätsnähe ähnlicher UntergangsPrognosen anzweifeln, da diese oft einer einseitigen Sicht und häufig eigennützigen
Interessen entspringen. So ist dieses Zitat Zeuge einer Informationspolitik Intels, die im
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
8
Konkurrenzkampf zumindest Vorteile bringen sollte: „Intel hat nach eigenen Angaben bereits
ein neues Netzwerk namens PlanetLab entwickelt, welches diese Probleme umgehen und ein
sicheres Netzwerk etablieren kann. Noch dazu würde somit die Vormachtstellung des
Konkurrenten Cisco gebrochen werden[…]“ (Fiutak 2004).
3.2 Terror
Der Pew-Umfrage im Herbst 2004 zufolge sahen zu diesem Zeitpunkt 66% der befragten
Personen mindestens einen Terror-Angriff auf die Netz-Infrastruktur bis zum Jahr 2010 als
wahrscheinlich an. (Quitney Anderson, Rainie et al. 2005, S. 14) In einer erweiterten Auflistung
einiger Aussagen der Befragten zeigt sich, dass Einigkeit in dem Punkt besteht, dass die
Infrastruktur des Internets nicht genügend gegen physische Angriffe geschützt ist und ein
solcher Angriff auf die Infrastruktur sehr effektive Zerstörungskraft auf das restliche Internet
ausübt. (Elon University, PEW Internet et al. (Hg.) 2004). In diesem Text wird auch von der
Kombination von Software- und physischen Angriffen gesprochen, die noch weit
dramatischere Folgen verursachen können. Es wird auch deutlich, dass der tatsächlich
flächendeckende Schaden nicht in erster Linie durch die Beeinträchtigung der Infrastruktur
sondern vielmehr durch die weltweiten Abhängigkeiten von einer angegriffenen Netzmacht
wie z.B. den USA herrühren würde.
Es ist darin jedoch klar formuliert, dass das Internet permanent Attacken von Hackern und
Malware ausgesetzt ist und diese bisher keine längerfristig signifikanten Folgen außer der
stetigen Verbesserung der Abwehrmechanismen auslösten.
In der darauffolgenden Erhebung im Jahr 2006 bejahten 58% der Befragten, dass es möglich
wäre, dass sich im Jahr 2020 Technikfeinde von der Internetgesellschaft ab- und sich einige in
Form von Terror- oder Gewaltakten gegen jene wenden würden. Allerdings zeigt sich dabei,
dass die Befragten dem friedlichen Widerstand gegen die Technisierung mehr Bedeutung
beimessen als dem gewalttätigen. (Quitney Anderson, Rainie 2006, S.59-66)
Bleibt also festzustellen, dass die befragten Menschen durchaus Gefahren für die Zukunft des
Internets sehen, sich aber offensichtlich nicht allzu viel Sorgen darum machen. Welche Folgen
das haben wird und inwieweit Terrorangriffe auf die Infrastruktur des Internet aus einer Welt,
die entweder weitgehend vernetzt oder zu arm ist, solche auszuüben überhaupt
wahrscheinlich sind, bleibt abzuwarten.
Außerdem fehlen für eine ganzheitliche Beurteilung der Terrorgefahr für das Internet
Informationen über die Meinungen von Menschen außerhalb der Industrienationen zu
diesem Thema.
3.3 Wild West im Web
Die Firma VeriSign klagte nach einem Bericht von T-Online vom 26.9.2007 über eine zu
starke Bedrohung durch Hacker und sagte damit das angeblich baldige Ende des Internets
voraus. VeriSign ist heute immer noch der größte Herausgeber von Sicherheitszertifikaten
und hat die Angriffe offensichtlich gut überstanden.
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
9
Allerdings ist die Gefahr durch bösartige Softwareattacken stets präsent. In seinem Buch „The
future of the Internet and how to stop it” stellt Jonathan L. Zittrain diese als das
Hauptproblem für die Zukunft des Internet heraus.
Besonders interessant ist dabei, dass er einen Aspekt betrachtet, der bisher in der
Öffentlichkeit zu Unrecht noch nicht besonders eingehend diskutiert wurde: Das extrem hohe
Sicherheitsrisiko, dem das Internet ausgesetzt ist, entsteht durch selbst gewartete PCs. Seine
These besagt, dass der Umstand, dass Millionen von unerfahrenen Nutzern völlig
ungeschützt im Internet aktiv sind und damit wirklich bösartigen Würmern Einfallstore bieten,
auch die Sicherheit vermeintlich geschützter Rechner gefährdet. Hochgradig gefährlich ist
das mögliche Vorgehen von Hackern, Würmer über lange Zeit in sehr viele Rechner
einzuschleusen und zu einem nicht bestimmbaren Zeitpunkt anschlagen zu lassen.
Die Gründe für Übergriffe können inzwischen im Gegensatz zur Vergangenheit, da bösartiger
Code größtenteils aus Ehrgeiz oder Spaß in Umlauf gebracht wurde, sehr vielfältig sein.
Erpressung, Raub und Betrug sind dabei die wesentlichen, denn die Verquickung von realer
und virtueller Welt, hat u.a. zur Folge, dass virtuelle Übergriffe reales Geld erzeugen können.
Z.B. die tatsächliche Praxis, dass Gaming-Konten mit hohen Punkteständen für viel Geld im
Internet feil geboten werden, bietet Hackern genügend Motivation, diese Punkte nicht zu
erspielen sondern zu rauben. So sind z.B. Hackern durch Eingriffe in das Gaming-Portal
GuildPortal große Mengen an Passwörtern für Gaming-Konten in die Hände gefallen. Wenn
man bedenkt, dass viele Spieler für Ihre mühsam erspielten virtuellen Leben auch reales Geld
bezahlen würden, sind diese Übergriffe durchaus lohnende Aktivitäten: „Such transactions
(known sometimes as RMT, or real-money transactions) contravene many games' terms of
services. Many players say they violate the spirit of the games themselves; a comparable
situation in the offline world would be buying a high military rank or an Oscar. It also
introduces real, out-of-world money into the equation, with perhaps predictable results.
‘Once it became possible to transform virtual goods into money, it paved the way for
laundering, fraud and theft’, Lewis says. ‘It wasn’t a huge leap to keylogging software.’”
(Radcliff 2007 – When World of Warcraft spreads to your world). Davon abgesehen, können
Hacker mit den erbeuteten Passwörtern auch auf andere Seiten zugreifen, auf denen sich die
Gamer mit diesen Passwörtern anmelden. Dabei kann es sich je nach dem Passwortverhalten
der Nutzer um Zugänge zum Firmennetz oder zum Online-Bankkonto handeln: „As more and
more users log in, create value, and buy and sell virtual goods, some are figuring out ways to
turn such virtual goods into real-world dollars. Viruses and phishing e-mails target the
acquisition of gaming passwords, leading to virtual theft measured in real money“ (Zittrain
2008, S. 47)
Auch die Verseuchung des Internets mit Spam-Nachrichten entspringt weniger bösartigen als
viel mehr finanziellen Interessen, denn selbst wenn Spam-Filter und Benutzer den Großteil
des Spam als solchen identifizieren so trägt die Werbung über Spam-Nachrichten durchaus
Früchte. „It's as bad as you can imagine, it puts the whole internet at risk.” (John Markoff)
Denn um Gewinn aus Spam- und Phishing-Nachrichten zu schlagen, müssen Kriminelle
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
10
offenbar riesige Netze von automatischen Helfern errichten. Diese sogenannten Botnets
haben tatsächlich extreme Ausmaße: „Of the 600 million computers currently on the internet,
between 100 and 150 million were already part of these botnets[…]” (Weber 2007).
Ebenfalls eine lukrative Einnahmequelle für kriminelle Hacker, könnte die Erpressung von
Firmen im Internet werden, bzw. scheint sie es bereits zu sein: „Botnets can also be used to
launch coordinated attacks on a particular Internet endpoint. For example, a criminal can
attack an Internet gambling Web site and then extort payment to make the attacks stop. The
going rate for a botnet to launch such an attack is reputed to be about $50,000 per day.”
(Zittrain 2008, S. 46) Das Problem bei der Bekämpfung ist die Tatsache, dass die Dunkelziffer
über die tatsächlichen Aktivitäten solcher krimineller Vereinigungen sehr hoch liegt.
Eine tatsächliche Bedrohung entsteht weiterhin, sofern die angeführten Punkte nicht schon
bedrohlich genug sind, wenn sich Hackerbanden gegenseitig bekämpfen. „Last month, the
Internet Corporation for Assigned Names and Numbers, which helps run those computers,
speculated in a recent report that the attack was the work of a bot herder trying to close a
sale by demonstrating the size and power of his army of hijacked computers.” (Sullivan 2007)
Diese Kriege werden mit den und über die Armeen von missbrauchten PCs der Botnets
ausgetragen. Nehmen diese Kriege zu hohe Ausmaße an, kann das durchaus Gefahren für die
Internet-Gemeinschaft und damit auch das Internet bergen.
Doch die Hacker führen nicht nur Kriege sondern betreiben auch Handel untereinander. So
wurden erfolgreiche Angriffe auf italienische Websites, mit Hilfe einer kommerziellen
Software, entwickelt von anderen kriminellen Programmierern, durchgeführt. Über die
kompromittierten Websites konnten die Hacker bösartige Software auf den Rechnern der
Benutzer installieren. „The attackers used a "commercial" malware kit called MPack, which is
sold by a Russian gang. Currently at version 0.86, MPack provides would-be malware
installers with a complete package that can be installed on any web server that runs PHP with
an SQL database. The owners of MPack have been selling it to other criminal organizations
for between $700 and $1,000 a pop, with additional exploit modules available for between
$50 and $150. For an additional $30, the MPack owners will include a feature that helps
prevent the malware from being detected by antivirus programs.[…] The rise of off-the-shelf
malware packages is another indication that compromising users' computers has become a
huge business and especially attractive for criminal organizations. The risk of detection and
capture is low: the attackers typically install MPack on a compromised web server, and the
malware itself can be hosted on any number of servers. Even if an MPack server is discovered
and shut down, any users who have infected by the exploits that MPack uses will continue to
generate revenue from whatever spyware the attackers choose to install on the compromised
systems.” (Reimer 2007) Die Probleme, die eine “Untergrund-Softwareindustrie” den Nutzern
und Betreibern in Zukunft bereiten könnte, könnten wesentlich schwerwiegender als Viren
und Trojaner in der Vergangenheit werden, da die Entwicklungszeiten für die kriminellen
Software-Lieferanten immer geringer werden. So könnte auf Antiviren-Software-Updates
wesentlich schneller reagiert werden.
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
11
Ob diese Wild West-Mentalität der Hacker das Internet auf Dauer wirklich ernsthaft gefährdet
ist jedoch zumindest fraglich, denn es verfügt laut einem der Väter des Internet Vint Cerf
über großes Widerstandsvermögen: „Despite all that, the net is still working, which is
amazing. It's pretty resilient.“ Die Großen der Softwarebranche und die Web-Experten seien
jedoch angehalten, effektivere Maßnahmen gegen die Internetkriminalität zu finden: „But its
members were unsure about feasible solutions, even though they identified operating
systems and authentication as key issues. It was still too easy for net criminals to hide their
tracks, several panel members said, although they acknowledged that it was probably not
desirable that every individual was definitively identifiable.” (Weber 2007)
Eine weitere Gefahr, zwar nicht direkt für das Internet, die sich jedoch über das Internet
ergibt, ist, dass kriegerische Handlungen von Hacker-Attacken unterstützt werden können. So
wurde im Mai 2006 gezielt das US-Außenministerium von Hackern vermutlich aus Asien
angegriffen. Dadurch wurden die US-Botschaften überall in Ostasien in den
spannungsgeladenen Wochen vor den Atom-Tests in Nordkorea komplett vom Netz
getrennt. Erst Anfang des Juli brachte das Außenministerium das Problem unter Kontrolle
und erst zehn Wochen später korrigierte Microsoft den aus einer Sicherheitslücke seines
Produktes MS Word resultierenden Fehler. „US government representatives are refusing to be
drawn on the likely identity and motive of attackers. But external security experts speculate
that the sophistication of the attack suggests foreign government might have been involved.”
(Leyden 2007)
Wie sich in der folgenden Grafik zeigt, steigen die bei CERT/CC gemeldeten
Sicherheitsvorfälle erst ab 1999 signifikant und logarithmisch an. Die Registrierungsstelle für
Hackerangriffe stellte die zahlenmäßige Erfassung der gemeldeten Vorfälle 2004 ein, da die
Vorfälle so alltäglich und verbreitet wurden und sich nicht mehr voneinander unterscheiden
ließen.
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
12
Gemeldete Sicherheitsvorfälle 1988-2003, Quelle: Zittrain 2008, S.48; CERT Coordination
Center, CERT/CC Statistics 1988–2005
3.4 Der Wendepunkt
Zittrain stellt ein von ihm als Wendepunkt-Szenario bezeichnetes Szenario vor, das das Ende
des Internets oder wenigstens das Ende des Internets, wie wir es kennen besiegeln könnte.
„Man stelle sich vor, dass ein Wurm veröffentlicht wird, der die Sicherheitslücken in einem
häufig verwendeten Webserver und einem auf sowohl Windows- als auch Mac-Plattformen
verbreiteten Webbrowser ausnutzt. Der Wurm verbreitet sich rasant durch zwei
Mechanismen. Als erstes klopft er zufällig an die Tore von mit dem Internet verbunden
Maschinen und infiziert sofort verwundbare Webserver, die antworten. Nichtsahnende
Benutzer, die verwundbare Webbrowser benutzen, besuchen die infizierten Server, welche die
Computer jener Benutzer infizieren. Kompromittierte Maschinen werden zu Zombies, die
Befehle vom Author des Wurms erwarten. Der Wurm weißt seine Zombies an, sich für ein
oder zwei Tage nach nahestehenden Systemen umzuschauen und diese zu infizieren und
dann befiehlt er den befallenen Systemen, ihre eigenen Festplatten um Mitternacht zu
löschen, wobei die Zeitzonen berücksichtigt werden, um sicherzugehen, dass der kollektive
Absturz weltweit zur selben Zeit stattfindet.
Dies ist keine Science Fiction. Es ist viel mehr eine andere Episode des Morris-Wurms (Erster
Internet-Computerwurm, der 10% des damaligen Weltweiten Netzes lahm legte, obwohl er
keine eingebaute Schadensroutine besaß), ein Muster, dass seitdem unzählbar reproduziert
wurde, so oft, dass die Betreiber von Webservern möglichen Eindringlingen, die sich in ihre
Systeme geschlichen haben könnten, gleichgültig gegenüberstehen. Google und
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
13
StopBadware.org, die bei der Verfolgung und Eliminierung von Webserver-Eindringlingen
zusammenarbeiten, berichten hundertfache Anstiege an Befällen zwischen August 2006 und
März 2007. Im Februar 2007 fand Google während einer Webcrawl-Aktion 11.125 infizierte
Server. In einer im März 2006 durchgeführten Studie, fanden Forscher Googles heraus, dass
von 4.5 Millionen analysierten URLs, die als potentielle Schadsoftware-Hoster analysiert
worden waren, 1.15 Millionen tatsächlich Schadsoftware verbreiteten. Man kombiniere einen
gut geschriebenen Wurm von der Sorte, die Firewalls durchbricht und Antiviren-Software
umgeht, mit einem wirklich bösartigen Wurmprogrammierer und man hat die Aussicht auf
ein panikerzeugendes Ereignis, dass auf die reale Welt überspringen kann: kein Check-In an
Airline-Schaltern, die mit dem Internet verbundene PCs verwenden, keine ÜbernachtZustellung oder andere Formen der Paket- und Postzustellung, keine Abrechnungssoftware
mehr, die Arbeitern Ihre Gehälter auszahlt, die Eliminierung, Veröffentlichung oder bösartige
Änderung von Daten auf Arztpraxis-, Schul-, Stadtverwaltungs- oder anderen DatenRechnern, die aus Geldgründen nicht rund um die Uhr von einem IT-Betreuer gesichert und
gegen Angriffe geschützt werden können. Einen solchen Wurm zu programmieren und zu
verbreiten, könnte in den Augen vieler Feinde der Moderne ein Verlockender Akt im
Informations-Krieg sein – ein asymmetrischer Krieg, wenn man bedenkt, dass der strenge
Glauben manche Feine an den Rand der entwickelten Welt und damit in die Lage versetzt,
nicht so stark von der modernen Informationstechnologie abhängig zu sein.“ (Zittrain 2008,
S.52)
Gegen diese Theorie hält Zittrain jedoch selbst einige Punkte: So z.B. sieht er die Gefahr, dass
ein Angriff auf das Internet in dieser Form terroristisch motiviert sein könnte als
ausgesprochen gering an. Wie sich auch in der jüngeren Vergangenheit zeigte sind die Ziele
terroristischer Attacken meist nicht wie in der traditionellen Kriegsführung infrastruktureller
oder militärischer Natur sondern Terroristen zielen eher darauf ab, den Gegner psychologisch
zu schwächen, indem sie die Gegner an ihrem verletzlichsten Punkt nämlich ihrer
Zivilbevölkerung treffen. Ein solcher Angriff auf das Internet würde schlicht nicht die Art von
Angst erzeugen, die eine physische Attacke hervorruft.
Hacker dagegen, die aus persönlichem Ehrgeiz oder einfach aus Spaß heraus handeln, fügen
sich bei all der „Bösartigkeit“ ihres Tuns doch den ethischen Grundsätzen, bei ihren Angriffen
keinen oder geringen Schaden zu erzeugen. Hacker, die aus finanziellen Gründen bzw.
Profitstreben hacken, erreichen wenig, wenn ihre Angriffe bemerkt und ausgeschaltet werden
oder sie gar die Grundlage ihrer Existenz nämlich das Internet vernichten. Da Banken und
andere Einrichtungen, die mit empfindlichen Daten arbeiten, ihre Sicherheit stets überprüfen
und stetig verbessern ist es für elektronische Diebe und Betrüger gar effektiver gar nicht
diese Einrichtungen selbst anzugreifen sondern die Benutzer viel mehr mit Hilfe von
Phishing-Emails dazu zu bringen, ihnen sicherheitsrelevante Daten wie Passwörter und TANs
persönlich „auszuliefern“. Dies wird in einem Bericht der Internet-Sicherheitsfirma Symantec
aus dem Jahr 2007 bestätigt: Im Jahr 2006 wurden insgesamt 2.848.531.611 Phishing-Emails
von der Software Brightmail Symantecs blockiert, von denen 323.725 eindeutige PhishingNachrichten waren. Demzufolge wurden im Jahr 2006 täglich durchschnittlich 7,8 Millionen
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
14
Phishing-Emails, davon 887 eindeutige Phishing-Nachrichten abgewehrt. (vgl. Zulfikar, Wüest
2007, S. 3) Aus diesen enormen Zahlen lässt sich entnehmen, dass die Motivation für
Phishing-Attacken sehr hoch liegt. Deutlich wird das besonders in den Summen, die durch
Phishing erbeutet werden: Im Jahr 2006 wurden in Deutschland in „mehr als 3250 Fällen rund
13 Millionen Euro“ von den Konten von Phishing-Opfern abgehoben. (BITKOM (Hg.) 2007 –
Zahl der Phishing-Opfer steigt). Die Dunkelziffer dürfte wohl wesentlich höher liegen.
Dazu kommt, dass Antiviren- und Sicherheits-Software inkrementell verbessert und
aktualisiert wird. Diagnose-Software wird zudem zusätzlich zunehmend direkt in
Betriebssystemen und wichtigen Programmen integriert, die in ihrer Grundkonfiguration also
in den meisten Fällen ihres Einsatzes ihre Sicherheitsbibliotheken und –Routinen meist täglich
aktualisieren. Trotzdem Malware zunehmend unauffälliger daherkommt, hat sie mit den
weltweit hochaktuellen Virenbibliotheken der Sicherheits-Software-Hersteller zu kämpfen,
womit eine durchgängige weltweite Verbreitung von Schad-Software, um einen Angriff der
den beschriebenen Wendepunkt zu bewirken, als sehr unwahrscheinlich zu bewerten ist.
3.5 Ist das Netz bedroht?
Zunächst muss man sagen, dass das Netz von jeher bedroht war und sicher auch immer
bedroht sein wird. Dass das Internet aus einem militärischen Projekt (dem ARPANET, einem
Projekt der Advanced Research Project Agency des US-Verteidigungsministeriums)
hervorging spricht sicherlich dafür, dass es von Beginn an auf Sicherheit ausgelegt wurde.
Jedoch wurde das Internet tatsächlich nie wie einigen Legenden zufolge militärisch im Kalten
Krieg sondern hauptsächlich für zivile Zwecke eingesetzt. Besonders in den Anfängen war der
Sicherheitsaspekt stets der gewünschten Flexibilität untergeordnet, was sich bis heute nicht
maßgeblich geändert hat.: „one must understand just how deeply computing architectures,
both then and now, are geared toward flexibility rather than security, and how truly costly it
would be to retool them.“ (Zittrain 2008, S. 40). Allerdings ist die Bedeutung der Sicherheit
mit der zunehmenden kommerziellen Nutzung des Internet in den letzten Jahren gewachsen
und viel für die Sicherheit getan worden. So wäre E-Banking und E-Government oder die
Verlegung von Geschäftsprozessen in’s Internet ohne verschlüsselte Verbindungen
undenkbar. Das Interesse von Unternehmen, die auf Software angewiesen sind (und das sind
heutzutage sehr viele), legen großen Wert nicht nur die Sicherheit ihrer Kommunikation
sondern auch auf die Ausfallsicherheit ihrer Software und Netzwerk-Technik. Da
Unternehmen durch solche Ausfälle Unsummen an Kosten entstehen können und auch
schnell zum finanziellen Ruin führen können, steht böswilligen Hackern ein gewaltiges
Geldgeber-Potential, das viel in der Sicherheits-Technik bewirkt.
In der gerade für Internet-Anwendungen bedeutenden und den meisten Servern zu Grunde
liegenden Open-Source-Software-Produktion kommt davon unabhängig noch ein weiterer
wesentlicher Umstand zum Tragen: An verbreiteten Software-Anwendungen entwickeln in
der Regel Entwickler weltweit und daher auch fast rund um die Uhr. Die Richtlinien für die
Aufnahme von Entwicklungen in solche Softwareprojekte werden von den Projektbesitzern
meist penibel umgesetzt und orientieren sich fast durchgehend an Standards. Für Nicht-
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
15
Programmierer ist dieser Umstand vergleichbar mit der Open-Source-Enzyklopädie
Wikipedia. Die Fehlerkorrektur geschieht damit um ein vielfaches (im folgenden Beispiel 114mal) effizienter bzw. schneller als bei Closed-Source-Software: „So fand Coverity bei einer
Codeanalyse des Linux-Kernel-Codes mit 5,7 Millionen Codezeilen nur 985 Bugs. Im Vergleich
dazu ergab eine durch das CyLab der Carnegie Mellon University durchgeführte Studie, dass
eine typische kommerzielle Closed Source-Software zwischen 20 und 30 Bugs pro 1000
Codezeilen aufweist. Mit diesem Bug-Anteil käme man bei 5,7 Millionen Codezeilen auf mehr
als 114.000 Bugs. Das sind über 114 Mal mehr Bugs als beim Linux-Kernel-Code.“ (Perrin
2006 – Die Geheimnisse der Open-Source-Sicherheit, S. 3) Dies spiegelt sich auch in der
zunehmenden Verbreitung von Open-Source-Software (z.B. Open Office oder Mozilla Firefox)
wieder. (Laut Browser-Statistik.de hat Mozilla Firefox Microsofts Internet Explorer mit einem
Nutzeranteil von 55.9% bereits von der Spitze abgelöst)
In gewisser Weise kann damit die Open-Source-Software und damit auch das Internet als
selbstheilend betrachtet werden. Ein weiterer Punkt, der diese Selbstheilungskraft unterstützt,
soll an dem Beispiel des Autors des ersten Internetwurms „Morris-Wurm“ exemplarisch
aufgezeigt werden: Im November 1988 setzte der Informatiker Robert Morris, Sohn des
Leiters des zur National Security Agency gehörenden National Computer Security Centers zu
dieser Zeit, den ersten Internetwurm Morris frei. Nachdem er Mitte 1989 als Freisetzer des
Wurms identifiziert worden war wurde er 1990 zu einer Bewährungsstrafe, 400 Stunden
sozialer Arbeit und zur Zahlung von 10.000 US-Dollar Geldstrafe sowie 150.000 US-Dollar
Gerichtskosten verurteilt. Seine Karriere war damit keinesfalls ruiniert. Morris wechselte von
der Cornell University nach Harvard, gründete 1995 ein dot com Startup (Viaweb), das er
1998 für 49 Millionen US-Dollar an Yahoo! verkaufte, beendete seinen Abschluss und ist nun
Professor am MIT-Institut. (Zittrain 2008, S.39) Aus dieser Geschichte, die exemplarisch für die
Geschichte vieler ehemaliger Hacker steht, ist zu erkennen, dass die Gesellschaft Hackern
zwar meist feindselig gegenüber steht, sie aber in Sicherheitsfirmen und Experten-Kreisen
hoch angesehen und vor allem begehrt sind, da sie über ein hohes Wissen über
Sicherheitsaspekte verfügen.
Aus diesen drei für sich allein schon gewichtigen Punkten sowie den in 3.1, 3.2, 3.3 und 3.4
erwähnten Gegenargumenten zu den jeweiligen Szenarien lässt sich erkennen, dass der
oftmals prophezeite Untergang des Internet kaum als realistisch zu sehen ist. Die Tatsache,
dass das Internet keine Feinde hat, die ihm tatsächlich gefährlich werden könnten oder
wollten und die daraus resultierende stetige Weiterentwicklung der Technologie bestärkt das
Internet viel mehr in seiner Verbreitung. Das heißt allerdings nicht, dass das Internet in
Zukunft so bleibt, wie wir es kennen, denn das Netz hat nicht nur Auswirkungen auf soziale
Gegebenheiten sondern die Nutzer und Entwickler selbst haben den weit größeren Einfluss
auf das Wesen des Internets. Die neuen Anforderungen aus allen Richtungen an das Netz,
werden es sich sogar gravierend wandeln lassen.
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
16
4. Das Internet der Zukunft
4.1 Neue Nutzer
Im Jahr 2005 stellte der ehemalige MIT-Media-Lab-Direktor Nicholas Negroponte das Projekt
One Laptop Per Child (OLPC) vor. Ziel des Projektes ist es Laptops herzustellen, die so
preisgünstig sind, dass sie von Spendern in den Industriestaaten problemlos finanziert
werden können, um Kinder der Dritten Welt mit diesen Laptops auszustatten. Ziel sei dabei
nicht das bloße Verteilen von Laptops sondern die Ausstattung der Kinder mit Laptops als
Schlüssel zur Bildung. Die XOs sind speziell für die Bedürfnisse der Kinder in
Entwicklungsländern ausgelegt: Die Laptops sind extrem robust und einfach gebaut, verfügen
über Flash-Speicher anstatt Festplatten und nur zwei interne Kabel, Pivot-LCD-Displays mit
Monochrom-Modus für den Einsatz bei starker Sonneneinstrahlung, widerstandsfähige
Touchpads und WLAN-Antennen, die auch noch im ausgeschalteten Zustand Aufgaben im
vermaschten Netz wahrnehmen können, sind fehlertolerant aufladbar (Z.B. über einen
Dynamo, Autobatterien o.ä. – von -32 bis 40V Toleranz), Kratz- und Staubfest. Außerdem
verfügen sie über technisch aktuelle Ausstattung wie integrierte Video-Kameras, Lautsprecher
und sind extrem handlich und leicht (ca. 25cm x 23cm x 3,2cm und 1,5KG). Zusätzlich zu
dieser speziellen Ausstattung sind die XOs mit einem eindeutig für Kinder gestalteten Design
(Abgerundete Ecken, grelle Farben, entsprechend dimensionierte Peripherie) um den Raub
und Handel auf dem Schwarzmarkt entgegenzuwirken. Das Betriebssystem baut auf Linux auf
und ist extrem einfach zu bedienen.
Mit dem XO können Kinder sämtlichen schulischen Aktivitäten von Sport abgesehen
nachgehen: Lesen, Schreiben, Rechnen, Zeichnen, Musik erlernen, Physik verstehen (z.B. mit
Hilfe eines Mess-Programms, dass Größen wie Strom, Lautstärke u.a. graphisch darstellen
kann) und Astronomie. Für die älteren Kinder sind jede Menge unterschiedlich komplexe
spielerische Programmierumgebungen implementiert. Das Betriebssystem hat mit in den
Industrieländern gewohnten Betriebssystemen recht wenig gemein. Z.B. dient der Mauszeiger
einem anderen Zweck: Wird er in die Mitte des Bildschirms bewegt, erscheinen Optionen für
den Computer, wird er in eine Ecke bewegt, werden Interaktionen mit Computern in der
Umgebung oder der Community im Großen möglich. Trotzdem die Laptops mit allen
üblichen Anwendungen, wie Internt-Telefonie, Video-Streaming, Messenger, InternetBrowser und Medienwiedergabe ausgeliefert werden, sind sie hauptsächlich für die Bildung
ausgelegt, setzt allerdings nicht mit der in Industrieländern gewohnten SchulbuchLernmethode sondern an der auch unter dem Begriff Konstruktivismus bekannten LehrTheorie des Media Lab-Visionärs Seymour Papert an. Diese zieht das Erlernen des Lernens
durch Aktivitäten, die sich auf den normalen Alltag beziehen der bloßen Vermittlung von
Fakten und abstrakten Fähigkeiten im klassischen Modell. Die Schüler sollen motiviert
werden, ihre eigenen Computer umprogrammieren zu können, auch wenn sie nebenbei erst
lesen und schreiben lernen. Es gibt nur wenige Trainer, die die tausenden Schulen abdecken,
die als Verteil-Zentren der Laptops fungieren und deren Training-Funktion beschränkt sich
mehr darauf, die Installation und Funktionalitäten der Schulserver abzusichern. Es wird also
von den Kindern erwartet, dass sie sich zur Handhabung und Programmierung ihrer Laptops
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
17
selbst austauschen und helfen. Z.B. sollen die Programmierkenntnisse der Kinder u.a. durch
eine Taste gefördert werden, die es jederzeit ermöglicht den Quellcode jedes Programms
einzusehen.
Das nach all diesen Besonderheiten jedoch interessanteste Merkmal der XOs in Bezug zum
Thema Internet sind ihre Netzwerkfähigkeiten: „Über das mobile Mesh-Netzwerk (auch als
mobiles Ad-hoc-Netz bezeichnet) vernetzen sich automatisch die in Reichweite befindlichen
Laptops miteinander über WLAN, ohne dass manuelle Konfiguration erforderlich wäre. Damit
entsteht ein lokales Netz. Das Zuweisen einer IP-Adresse für das ineinandergreifende Netz
erfolgt automatisch. Folglich ist kein Administrator oder eine zentrale Verwaltung der IPAdressen erforderlich.[21] Somit würde der automatische Netzwerkaufbau auch die
automatische Einrichtung eines Schulnetzwerkes bzw. eines Netzwerkes für eine bestimmte
Unterrichtsstunde ermöglichen, ohne vertiefte Computerkenntnisse über Soft- und Hardware.
Zudem ist der Laptop, neben dem unmittelbaren Datenaustausch, für netzwerkbasierte
Videogespräche, Telefongespräche, und Netzwerk-Chat geeignet. Die XO-Nutzer können
nicht nur lokal das Funknetz nutzen. Soweit ein zentraler Internetzugang in der Schule
vorhanden ist, können sich die Laptops über WLAN in das globale Internet „einklinken“. Der
XO-Laptop verwendet dabei bereits das neue Internetprotokoll IPv6. Damit ist es jederzeit
möglich, das Internet als Informationsquelle heranzuziehen. Wissensaneignung soll daher
nicht nur auf reine Datenabfrage beschränkt sein, sondern beinhaltet auch die Nutzung des
Internets als Kommunikationsmedium (z.B. Soziale Netzwerke, Chat, E-Mail). Durch spontane
Bildung von beliebigen Netzwerken ermöglicht das technische Netzwerk auch die Bildung
und Vertiefung von sozialen Netzwerken. Kinder sind damit in der Lage, durch Verwendung
und bei Bedarf spontane Neubildung des lokalen, aber mobilen Mesh-Netzwerkes, die
Zusammenarbeit und soziale Interaktion untereinander auf neue Art und Weise
kennenzulernen. Kinder sollen in der Lage sein, je nach dem zu lösenden Problem und selbst
über eine gewisse Distanz, Arbeitsgemeinschaften durch spontane Neuvernetzung zu bilden.
Aufgrund seines geringen Gewichts und der erheblichen Reichweite des Funknetzwerkes
können sich die Kinder auch außerhalb der Schule miteinander vernetzen. Somit kann soziale
Interaktion mittels Netzwerken und damit die Bildung von Wissensnetzen auch außerhalb der
Schule erfolgen. Als weiterer positiver Aspekt wird gemäß den Befürwortern von freien
Funknetzen angeführt, dass durch „PicoPeering-Vereinbarungen“ und die gemeinsame
Verantwortung eines Wohnviertels für die Funktionsfähigkeit des WLAN die
nachbarschaftliche Solidarität und Bürgerinitiative gefördert werden.“ (Wikipedia (Hg.) 2009 –
OLPC XO-1)
So verließen im November 2006 die ersten XO genannten Laptops die Produktion. Im
Februar 2007 wurden die ersten XOs verteilt, im März das erste mobile Ad-Hoc-Netzwerk und
im April 2007 der erste Schul-Server eingerichtet. Seitdem wurden bis zum heutigen Tag ca.
350.000 XO-Laptops in 26 Länder (z.B. Uruguay, Peru, Mexico, Afghanistan, Ruanda,
Kambodscha, Thailand) ausgeliefert bzw. bestellt. Da die XOs von Haus aus mit einem freien
Betriebssystem mit integrierten Antivirus-Funktion, geringer bis keiner Schad-SoftwareAnfälligkeit und erweiterten Sicherheitsrestriktionen versehen sind, sind sie gegenüber den
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
18
Krankheiten, gegen die herkömmliche PCs aufwendig geschützt werden müssen, kaum
anfällig. Trotz ihrer generischen Natur (automatische Vernetzung, Möglichkeit für die Kinder
in die Programmierung der Software einzugreifen) ist die Struktur der OLPC-Netze doch mit
Merkmalen der „Angebundenen Anwendungen“ (Begriff wurde geprägt von Jonathan L.
Zittrain) versehen: Zwar wird der Inhalt, den die Kinder über das Internet abrufen, nicht
gefiltert, jedoch haben die Entwickler die XOs mit einer Funktion versehen, die das externe
Sperren eines Gerätes bei Diebstahl oder Missbrauch ermöglicht. Die XOs sind sowohl
generisch als auch angebunden, da sie extern aktualisiert, kontrolliert und deaktiviert werden
können. Die XOs sind mit dem Gedanken der Generik gestaltet und akribisch darauf
ausgelegt, von Menschen, die weder lesen noch schreiben können, bequem benutzt aber
auch programmiertechnisch modifiziert werden zu können. Es wird ausgesprochen
interessant, welche technischen Neuerungen die neuen Nutzer auf diese Weise entwickeln
und wie sich der schnelle Zuwachs von weitestgehend ungebildeten Kindern und
Jugendlichen im Internet auf die Gegebenheiten im Internet und auf diese Menschen selbst
auswirken werden. Der bisherige Erfolg des OLPC jedenfalls spricht sehr für eine
Verbesserung der Bildungschancen in den unterstützten Gebieten. Der InformatikWissenschaftler Gene Spafford schrieb: „We can’t defend against the threats we are facing
now. If these mass computer giveaways succeed, shortly we will have another billion users
online who are being raised in environments of poverty, with little or no education about
proper IT use, and often in countries where there is little history of tolerance (and
considerable history of religious, ethnic and tribal strife). Access to eBay and YouTube isn’t
going to give them clean water and freedom from disease. But it may help breed resentment
and discontent where it hasn’t been before. Gee, I can barely wait. The metaphor that comes
to mind is that if we were in the ramp-up to the Black Plague in the middle ages, these
groups would be trying to find ways to subsidize the purchase of pet rats.“ (Spafford 2007 –
Re: $100 laptops from HRD)
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
19
Ein mobiles Ad-Hoc-Netzwerk mit InternetAnbindung (Quelle:
http://wiki.laptop.org/go/Image:802.11s_5.jpg)
Der OLPC XO 1 (Quelle:
http://laptop.org/en/laptop/)
4.2 Neue Software
Grundlage der Voraussagen für die Zukunft der Software im Internet sind die in Kapitel 2
erläuterten Prinzipien des Web 2.0 in Verbindung mit dem Begriff der „Angebundenen
Anwendungen“ Zittrains. Dieser sieht als größte Anforderungen an das Internet der Zukunft
die Sicherheit der Nutzer. Seine zentrale These ist, dass die bisherige Form des PC und
dessen Betriebssystems, die größten Sicherheitsprobleme mit sich bringt. Da jeder Nutzer
sein Betriebssystem um etliche Programme von Drittanbietern erweitern kann, ist es nicht
verwunderlich, dass viele Anwender zum Einen unabsichtlich fehlerhaft programmierte und
zum Anderen bösartige Software installieren können. Die Folgen solcher Installationen
können nicht nur für den Anwender selbst sondern auch für andere Teilnehmer im Netz fatale
Folgen haben. Das ist insbesondere dann der Fall, wenn Nutzer Spyware oder Badware
installieren, die es Hackern ermöglicht, die Kontrolle über den Rechner zu übernehmen und
von da aus Angriffe auf andere Rechner im Netzwerk vorzunehmen. Zwar steht dem wie in
3.4 erläutert, eine große Macht der Antiviren- und Sicherheits-Software gegenüber jedoch
lösen diese nicht die Ursachen des Problems sondern kämpfen hauptsächlich gegen die
Folgen an. Neben diesem wichtigen Aspekt führen auch andere vom PC als Plattform zum
Web als Plattform: Die Installation von PC-basierter Software ist häufig mit Problemen
verbunden, gerade, wenn es sich dabei um systemnahe Software, die aktiv in die
Systemkonfiguration eingreift und verursacht daher in Unternehmen ohne serverbasierte
Betriebssysteme hohe Kosten und dem Privatanwender Ärger. Bei vielen v.a. kostengünstigen
PC-Produkten sind die Komponenten Soft- und Hardware-seitig oft schlecht aufeinander
abgestimmt, was wiederrum zu Ausfällen führt. Ist ein PC-System heutzutage von SchadSoftware befallen, hilft oft nichts anderes, als das System komplett neu aufzusetzen, was
einen enormen Aufwand und meist auch den Verlust wichtiger Daten bedeutet.
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
20
All diese Punkte sind bei Webanwendungen nicht mehr zu erwarten, da die Pflege der
Anwendungen serverseitig Experten unterliegt und diese wesentlich besser in der Lage sind,
ihre Softwareprodukte aktuell zu halten und Fehler zu korrigieren. Dies bedeutet für den
Anwender, dass er stets mit aktueller Software arbeitet und die Softwarequalität und
Störsicherheit drastisch verbessert wird. Betriebssysteme werden zwar auch in Zukunft
weiterhin eine wichtige Rolle spielen jedoch wird sich diese Rolle verändern, indem sie
Nutzern wesentlich weniger Gelegenheit geben werden, Software von unbekannten
Herausgebern zu installieren. Nach dem Vorbild Apples und Dells werden Betriebssysteme in
Einheit mit dem Gerät und gut darauf abgestimmt geliefert werden. Damit wird dem Chaos,
das durch die Unzahl an Software, die nicht vom Betriebssystem-Anbieter selbst stammt,
entgegengewirkt. Selbstverständlich kann diese Umstellung nicht abrupt stattfinden sondern
wird vielmehr ein stetiger Prozess sein, in dem Webapplikationen immer mächtiger und die
Betriebssysteme immer sicherer werden. Ein Grund logischer Natur für diese Entwicklung liegt
darin, dass Benutzer mit einer Vielzahl an Geräten (PC, Notebook, Handy und mehr) mit den
jetzigen Gegebenheiten jeweils mit den notwendigen Programmen ausstatten und die Daten
regelmäßig synchronisieren müssen. Eine Verlegung der Applikationen ins Internet und dem
Betriebssystem als Zugang dazu bedeutet auch die Lösung dieses Problems und vermeidet
redundante Daten, zusätzlichen Aufwand und Kosten. Das Beispiel des iPhones sieht Zittrain
als exemplarisch für das zukünftige Software-Modell an: „It is sterile. Rather than a platform
that invites innovation, the iPhone comes preprogrammed. You are not allowed to add
programs to the all-in-one device that Steve Jobs sells you. Its functionality is locked in,
though Apple can change it through remote updates. Indeed, to those who managed to
tinker with the code to enable the iPhone to support more or different applications, Apple
threatened (and then delivered on the threat) to transform the iPhone into an iBrick. The
machine was not to be generative beyond the innovations that Apple (and its exclusive
carrier, AT&T) wanted. Whereas the world would innovate for the Apple II, only Apple would
innovate for the iPhone. (A promised software development kit may allow others to program
the iPhone with Apple’s permission.)“ (Zittrain 2008, S. 2) Steve Jobs, der Gründer und
Geschäftsführer von Apple, selbst bemerkt dazu: „We define everything that is on the phone.
[...] You don’t want your phone to be like a PC. The last thing you want is to have loaded
three apps on your phone and then you go to make a call and it doesn’t work anymore.
These are more like iPods than they are like computers.“ (Steve Jobs; Markoff 2007 )
Doch nicht nur die Nutzer werden das Internet als Plattform nutzen, sondern auch die
Applikationen selbst. Betriebssysteme und deren installierte Software werden zunehmend mit
den Hersteller-Servern kommunizieren um sich zu aktualisieren, Fehler zu berichten und
sogar das Nutzerverhalten an die Hersteller weiterzuleiten (Laut den Herstellern, um die
Qualität ihrer Produkte stetig zu verbessern). Das Internet spielt dabei eine zentrale Rolle. Für
Webapplikationen gilt ähnliches: Die Software wird zunehmend verteilt. Auch in Folge der
Asymmetrie des Besitzes an Daten, wird zunehmend auf die APIs (Application Programming
Interfaces) von anderen Anbietern (z.B. Google Maps) zurückgegriffen und Daten über
spezielle Transport-Formate ausgetauscht, was eine hohe Dynamik und kurze
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
21
Entwicklungszeit neuer Anwendungen zur Folge haben wird. Für die Nutzer wird dies v.a. im
breiten Angebot an Webanwendungen spürbar. Durch die zunehmende Transparenz und
ungeklärten Eigentumsrechte von Daten wird der Datenschutz zu einem zentralen Thema
werden und die Nutzer werden zunehmend empfindlicher auf dieses Thema reagieren.
Dadurch werden auch Dienstleister der Sicherheits-Branche in der Zukunft durchaus eine
Daseins-Berechtigung haben.
Die in Kapitel 2 erläuterten Prinzipien im Web 2.0 gelten schon heute als Manifest für
moderne Software-Entwicklung und werden in der Zukunft wahrscheinlich vermehrt
Anwendung in der Praxis finden.
4.3 Neue Technologie
Die zunehmende Bedeutung des mobilen Internets zeigt sich schon heute und wird sich in
der Zukunft mit hoher Wahrscheinlichkeit verstärken. Laut der PEW-Studie 2008 erklärte sich
der Großteil der Befragten mit dieser Voraussage einverstanden. Gründe dafür lägen im
Bedürfnis der Menschen, auch mobil mit dem Internet verbunden zu sein. Die KostenEffizienz und der unkomplizierte Zugang zum Internet führen dazu, dass mobile Geräte für
viele Menschen und gerade für Menschen in ärmeren der einzige Zugang zum Internet sein
werden. Die Leistungsfähigkeit mobiler Geräte wird weiterhin zunehmen und den PC damit in
vielen Einsatzfällen ersetzen. Viele Experten befürchten allerdings, dass Beschränkungen
durch Regierungen oder Unternehmen, die einen höheren Einfluss anstreben, die Entwicklung
in einigen Ländern behindern könnten. „this scenario’s predicted benefit of “effortless”
connectivity is dependent on corporate and government leaders’ willingness to serve the
public good.“ (vgl. Quitney Anderson; Rainie 2008, S.25-37)
Die Peripherie-Elemente der Zukunft werden Sprache, Bewegung und Berührung sein. Die
Menschen werden sich mit hoher Wahrscheinlichkeit daran gewöhnen, dass Menschen ihre
Geräte in der Öffentlichkeit mit Befehlen über die Sprache oder Bewegung steuern werden.
Berührungsempfindliche Displays werden in der Zukunft zunehmend von Bedeutung sein
und Peripheriegeräte wie Maus und Tastatur vollständig ersetzen. Die schon heute
fortgeschrittene Technologie der Bewegungserfassung wird in Zukunft in Verbindung mit
Kameras wahrscheinlich die Steuerung und Bedienung revolutionieren und einen intuitiveren
Umgang mit Software ermöglichen. Die hochentwickelte elektronische Bildverarbeitung wird
in Verbindung mit interaktiven 3D-Kartendaten und weiteren Daten zu einem wichtigen
Bestandteil der „Erweiterten Realität“ (Augmented Reality). So gibt es z.B. schon heute ein
Programm (Wikitude) für Googles Smartphone-Plattform „Android“, das das Kamerabild
eines Smartphone mit Informationen zu den sichtbaren Sehenswürdigkeiten überlagern kann.
Diese Informationen werden aus Wikipedia-, Qype- und Panoramio-Daten gewonnen, die mit
der GPS-Position und Adressen abgeglichen werden:
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
22
Das Programm Wikitude im Einsatz, Quelle: http://www.mobilizy.com/wikitude.php
Auch wenn die Entwicklung der Technologie schwer abzusehen ist, ist jedoch eines klar
vorauszusehen: Die Infrastruktur des Internets wird in Zukunft mit dem Wachstum des
Internets zunehmend ressourcenlastiger. Bereits im Jahr 2005 betrug der weltweite
Energieverbauch durch Server und deren Kühlung einer Studie des Lawrence Berkeley
National Laboratory zufolge 123 Billionen Kilowatt-Stunden, was Stromkosten in Höhe von
7.2 Billionen US-Dollar und einem Anteil von 0.8% am weltweiten Energieverbrauch
entspricht. Dieser Verbrauch hat sich damit von 2005 bis 2007 mehr als verdoppelt. Der Autor
des Berichts Jonathan Koomey spricht von 16% Wachstum des Energiebedarfs jährlich durch
Server. Im Jahr 2010 würde der Energiebedarf durch Server um 76% höher sein als 2005.
Zusätzliche Rechentechnik wie Speicherarrays und Vermittlungstechnik (die laut Koomey den
dreifachen Energieverbrauch der Server haben) sowie die PCs, Notebooks und Smartphone
der Anwender sind in dieser Studie nicht berücksichtigt. Dennoch wird deutlich, dass das
Internet in Zukunft wesentlich mehr Energie verbrauchen wird, was deutliche Verbesserungen
in der Stromerzeugung erfordert. Falls die Energieerzeugung in der Zukunft nicht deutlich
umweltfreundlicher wird, könnte das Internet somit auch die Umwelt und das Klima zusätzlich
belasten.
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
23
Der Gesamtenergieverbrauch von Servern in den USA und weltweit, Quelle: Koomey 2007
Gleichfalls betrifft das Wachstum des Internets auch die Vermittlungstechnik. Wie in 3.1
erläutert ist die zunehmende Anzahl an Nutzern in der Internetschicht des OSIReferenzmodells mit IPv6 ausreichend berücksichtigt. Die der Netzzugangsschicht zugrunde
liegende Technik sprich die internationalen Leitungen müssen jedoch in Zukunft ausgebaut
werden um die Versorgung mit hoher Geschwindigkeit weltweit zu gewährleisten.
4.4 Neue Wirtschaft
Die schon in Kapitel 2 erwähnten Änderungen, die unter dem Begriff Web 2.0 bekannt sind,
werden in der Wirtschaft tiefgreifende Veränderungen zur Folge haben. Als Hauptursache
kann der Wechsel vom PC zum Internet als Plattform gesehen werden. Dadurch, dass
Software in Form von Webapplikationen zunehmend ins Internet verlagert wird, werden neue
Firmen den Markt erobern und alte Unternehmen bedrohen, falls sich diese dem Trend nicht
anpassen können. Weiterhin führt die Verfügbarkeit von Daten über die ebenfalls erwähnten
Webservices zu einer schnellen Entwicklungszeit von Mashups, was die Entstehung neuer
Firmen zusätzlich bestärkt. Als eines der vielen Beispiele solcher Mashup-Services wurde die
Augmented-Reality-Software Wikitude genannt. Die Entwicklung von Software vom Produkt
zum Service führt dazu, dass Software-Firmen im Web 2.0 rentabler wirtschaften können, da
sie zum Einen vor dem Diebstahl durch gecrackte Software geschützt sind und zum Anderen
stets Einfluss auf die Software haben, was den Support wesentlich vereinfacht. Sie ermöglicht
außerdem die Entstehung neuer Geschäftsideen mit neuen Geschäftsmodellen. Als eines
dieser Geschäftsmodelle zeichnet sich schon heute der „Premium-Service“ ab, den Web 2.0
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
24
Firmen zusätzlich zu ihrem kostenfreien Angebot meist mit verbessertem Support und mehr
Funktionen anbieten.
Das Internet führte in der jüngeren Vergangenheit schon zu tiefgreifenden Veränderungen,
indem Anbieter ihre Waren zunehmend auch in Online-Shops anboten. Für viele Firmen ist
der Verkauf über das Internet die Haupteinamequelle (z.B. Amazon). Angebote wie EBay
ermutigen auch Unternehmen ohne eigene IT-Abteilung ihre Produkte im Internet
anzubieten. Dieser Trend wird auch in der Zukunft anhalten. Durch die wirtschaftliche
Erschließung des Internets gewinnt auch die Werbung im Internet zunehmend an Bedeutung
und Effizienz. Eine neue Form der Werbung, das so genannte „Behavioral Targeting, gewinnt
dabei zunehmend an Einfluss. Das „Behavioral Targeting“ nutzt Daten über das Verhalten der
Nutzer, um ihnen personalisierte Werbung anzubieten. Diese Daten können in
unterschiedlichster Form gewonnen werden: So wird z.B. Werbung bei der Google-Suche auf
den Suchbegriff abgestimmt angezeigt und in Googles GMail werden die Nachrichten nach
Schlagworten durchsucht und auf diesen basierende Werbung eingeblendet. (Google (Hg.)
2009 – About Gmail) Laut einer Expertenbefragung der Arbeitsgemeinschaft Online
Forschung (AGOF) ist die Werbefinanzierung aufgrund der „Umsonst-Kultur“ im Netz das
Geschäftsmodell schlechthin und kostenpflichtige Inhalte werden auf bestimmte Bereiche
beschränkt bleiben. Die Experten sind sich allerdings auch weitestgehend einig darüber, dass
die klassischen Werbeformen trotz Entstehung neuer Werbeformen erhalten bleiben werden,
da diese die „notwendige Trennung von Werbung und Content“ böten.
Mit der These in der PEW-Studie im Jahr 2008, dass der Copyright-Schutz in der Zukunft
inhaltliche Kontrolle zur Folge haben könnte, erklärte sich der Großteil der Experten (60%)
nicht einverstanden. Dies wäre nicht wahrscheinlich, weil die Methoden zum Schutz des
geistigen Eigentums auf der einen Seite nicht allgemein akzeptiert werden und auf der
anderen Seite immer Menschen in der Lage sein werden, Schutzmechanismen zu umgehen
und allgemein verfügbar zu machen.
4.5 Neue Gesellschaft
Oft wurde die Zukunft der Gesellschaft im Netz pessimistisch gesehen und die soziale
Verarmung oder zunehmende Vereinsamung Einzelner prognostiziert. In einer Studie des
Stanford Institute for the Quantitive Study of Society (SIQSS) gaben allerdings 90% der
Internet-Nutzer an, trotz der Internet-Nutzung nicht weniger Zeit mit Freunden und Familie
zu verbringen (vgl. UCLA 2003, S. 62). So muss diese Behauptung sicher kritisch gesehen
werden. Dies zeigt sich auch an den zunehmenden Community-Plattformen wie StudiVZ,
Facebook oder Twitter, die sich allgemein großer Beliebtheit erfreuen. Ein wesentlicher
Aspekt des Internet der Zukunft wird die Kommunikation sein. Dass die Kommunikation
dabei nicht unbedingt auf die geschriebene Form begrenzt sein könnte, lässt sich aus dem
zunehmenden Einsatz der Sprachsteuerung herleiten.
Ein wesentliches Problem sind Gräben, die das Internet auftut und von denen bereits jetzt
drei sichtbar sind. So entsteht durch die ungleichen Chancen auf Internet-Zugänge eine
„Zwei-Klassen-Gesellschaft“ einer privilegierten Nutzerschaft mit Internet-Zugang und einer
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
25
benachteiligten Mehrheit ohne (vgl. Dholakia, Kshetri 2002). Mit der zunehmenden
Verbreitung nimmt dieser Unterschied auch aufgrund der möglichen Mehrfachnutzung von
Internet-Zugängen (z.B. in Internet-Cafés, öffentlichen Einrichtungen oder über Nachbarn)
allerdings ab, was durch eine Studie des Bundesverbands Informationswirtschaft
Telekommunikation und neue Medien BITKOM bestätigt wird: Die Anzahl der Internetnutzer
hat sich demnach von 600 Millionen 2002 auf 1,23 Milliarden 2007 verdoppelt. Das Anzahl
der Internet-Nutzer wachse jährlich um 7,7% und verstärkt in Ländern außerhalb der USA,
Europa und Japan. (vgl. BITKOM 2007) Der zweite Graben besteht zwischen den
Generationen, der sich laut Prof. Dr. Urs Gasser jedoch zunehmend vermindert. „Mehr Sorgen
bereitet uns der dritte Typ: Innerhalb der jungen Generation tut sich eine neue Kluft auf,
nämlich zwischen jenen, die wissen, wie man in der Welt des Cyberspace navigiert, und
solchen, denen die nötige Erfahrung mangels Ausbildung oder wegen beschränkter OnlineZeit fehlt. Dies kann längerfristig verheerende Konsequenzen haben.“ (Pregel 2009, S. 1).
Weltweite Bestrebungen in der Politik, all diesen Unterschieden durch Fördermaßnamen
unterschiedlicher Art entgegenzuwirken, sind jedoch vorhanden. (vgl. Fritz 2004, S.77-78)
Die Entwicklung zur Informationsgesellschaft ist mit der zunehmenden Verbreitung des
Internet nicht mehr von der Hand zu weisen. So nutzen bereits heute 93% der 14-19jährigen
das Internet. „Die Informationsgesellschaft ist unter anderem gekennzeichnet durch den fast
unbegrenzten Zugang ihrer Mitglieder zu Informationen und Wissensbeständen aller Art. Der
Besitz von Informationen ist immer weniger ein Privileg einzelner, etwa der Führung eines
Unternehmens oder einer politischen Institution. Das neue Zeitalter demokratisiert somit den
Zugang zu Informationen und Wissen. Im Prinzip könnte das gesamte Wissen der Menschheit
über das Internet jedermann zugänglich gemacht werden. In dem Maße, in dem dieses
Wissen genutzt wird, wandelt sich die Informations- zur Wissensgesellschaft. […] (Die)
zunehmende Vernetzung der Kommunikationsprozesse überschreitet nationale Grenzen und
trägt zur Transformation unserer Welt in ein Global Village bei. […] Sie bildet darüber hinaus
einen Zwischenschritt auf dem Weg zu einer umfassenden Netzwerkgesellschaft, einer
Gesellschaftsvision, die dem Soziologen Manuel Castell zufolge eine Welt global vernetzter
Informations- und Kapitalströme beschreibt.“ (Fritz 2004, S.72-73) Außerdem existiert ein
Trend zur Erlebnisgesellschaft, mit deren Begriff ein gesellschaftlicher Wandlungsprozess
gemeint ist, in dem das Leben zum Erlebnisprojekt wird: „Zunehmend ist das alltägliche
Wählen zwischen Möglichkeiten durch den bloßen Erlebniswert der gewählten Alternative
motiviert: Konsumartikel, Essgewohnheiten, Figuren des politischen Lebens, Berufe, Partnerm
Wohnsituationen, Kind oder Kinderlosigkeit“ (Schulze 1992, S.13) Dass die Menschen ihr
Handeln zunehmend an dem Ziel „schöner Erlebnisse“ ausrichten, führt dazu, dass Medien,
die einen solchen Erlebniswert bieten, auch zunehmend genutzt werden. Das Internet ist im
Begriff, das Wichtigste dieser Medien zu werden oder ist es bereits.
5. Zusammenfassung
Das Internet hat seit seiner Erfindung die Gesellschaft, Technik und Wirtschaft tiefgreifend
verändert. Der schnelle Austausch von Daten und deren Verfügbarkeit für jeden Nutzer hat
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
26
einen wesentlichen Einfluss auf das Leben der Menschen. Diese Entwicklung wird in der
Zukunft mit hoher Wahrscheinlichkeit anhalten. Den erwähnten Umfragen ist gemein, dass
darin hauptsächlich positive Entwicklungen bestätigt werden. Dennoch birgt die Zukunft viele
mögliche Gefahren, wie z.B. Suchtgefahr, mangelnden Kinder- und Jugendschutz, Kluften
zwischen Arm und Reich sowie Realität und Virtualität, mangelnden Schutz geistigen
Eigentums und privater Daten und andere Probleme. Es ist jedoch zu beobachten, dass sich
in der digitalen Welt zunehmend auch regulierende Instanzen wie Politik und Gesetz stark
machen und gemeinsam mit den „Netizens“ versuchen, schlechten Entwicklungen
entgegenzuwirken. Die wirtschaftliche Erschließung des Internets führt zudem zu einem sehr
entscheidenden Kriterium für die Zukunft: Da das Internet sehr hohe wirtschaftliche
Bedeutung erlangen wird, ist das Interesse der resultierenden Lobbys, diese Plattform zu
schützen, entsprechend hoch und führt zu einer gewissen Sicherheit des Internets.
Selbstverständlich beinhaltet diese Sicherheit nicht die Form des Internets jedoch ist
abzusehen, dass der Nutzer in Zukunft auf ein ähnlich hohes kostenfreies Angebot wie heute
zurückgreifen kann. Bestärkt wird dies mit der zunehmenden Open-Source-Moral der Nutzer,
die sich nicht nur auf Software-Entwicklung sondern auch auf Inhalte erstreckt. Da sich
Anbieter kommerzieller Inhalte und Anwendungen dem Druck einer solchen Mentalität
gegenüberstehen sehen werden, wird sich die Art und Weise derer Geschäftsmodelle
entsprechend ändern müssen. Die zunehmende Verbreitung des Internets führt außerdem
dazu, dass das Internet noch globaler wird, da sich durch die sinkenden Kosten von
Netzzugängen und Initiativen wie OLPC zunehmend auch ärmere Nutzer im Internet
wiederfinden werden. Gemeinsam mit den neuen Nutzern wird sich durch die Entwicklung
des Internets zur Plattform auch eine Vielzahl neuer Geschäftsmodelle und Firmen am Markt
etablieren.
Die Schwierigkeit im neuen Netz wird hauptsächlich darin bestehen, die Standards, die immer
schneller gesetzt werden, und die Vielzahl an neuen Ideen in die Realität umzusetzen und die
Auswirkungen auf Probleme wie Datenschutz und Gleichverteilung angemessen zu
berücksichtigen. Es besteht die Gefahr, dass wirtschaftlich starke Unternehmen wie z.B.
Google und Amazon von der breiten Masse unbemerkt Vormachtstellungen einnehmen, die
es schwer werden lassen, deren Macht angemessen zu regulieren. Dies betrifft insbesondere
Software-Patente und Daten. Letztere werden in der Zukunft zum entscheidenden MachtInstrument, indem sie eine hohe wirtschaftliche Bedeutung erlangen. Da zunehmend eine
Vielzahl an Aktivitäten über das oder mit dem Internet stattfinden und der Mensch dabei zum
voll überwachbaren Objekt wird, sind verbindliche Regelungen zum Datenschutz und die
Sensibilität der Menschen für dieses Problem von höchster Dringlichkeit. Es bleibt
abzuwarten, wie sich diese Probleme in Zukunft entwickeln.
Die wachsende Bedeutung des mobilen Internets wird zu einer Vermengung von Alltag und
Internet führen und das Internet für eine Vielzahl neuer Einsatzbereiche interessant zu
machen. In Einheit mit neuen Eingabemethoden wie z.B. Sprachsteuerung wird damit eine
wesentlich höhere Vernetzung in viel mehr Bereichen möglich sein. Die „Augmented Reality“
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
27
ist eine Folge dessen. Es werden durch Quelloffenheit und Programmierschnittstellen schnell
Software-Lösungen entwickelt werden können, die diese neuen Bereiche abdecken.
Das Internet wird in jede Richtung wachsen: Schnelligkeit, Größe, Verbreitung, Akzeptanz und
Wirtschaftlichkeit sind einige davon. Dabei ist es jedoch wichtig, dass der Mensch und seine
Rechte in dieser Welt ausreichend geschützt werden.
6. Literaturverzeichnis
Agof; IVW; INFOnline (Hg.) (2008): Die Zukunft des Internet. Online verfügbar unter
http://www.agof.de/omd-2008-agof-ivwinfonline.download.ad25d6a337f503bc30b3c2fc04b31909, zuletzt aktualisiert am 18.09.2008.
BITKOM (Hg.) (2007): Zahl der Phishing-Opfer steigt in Deutschland weiter. Online verfügbar
unter http://www.bitkom.org/47755_47739.aspx, zuletzt aktualisiert am 29.08.2007.
BITKOM (Hg.) (2007): Fast jeder fünfte Mensch ist online. Online verfügbar unter
http://www.bitkom.org/46074_46069.aspx, zuletzt aktualisiert am 23.05.2007.
Browser-Statistik.de » Mit welchem Browser wird gesurft? (2009). Online verfügbar unter
http://www.browser-statistik.de/, zuletzt aktualisiert am 28.02.2009.
Dholakia, Nikhilesh; Kshetri, Nir B. (2002): The Webs and the Web-nots in the Global
Economy. Online verfügbar unter http://ritim.cba.uri.edu/working%20papers/Fritz-2nd-edWebs-Web-nots-v3%5B1%5D.pdf, zuletzt aktualisiert am 10.04.2002.
Elon University; PEW Internet; American Life Project (Hg.) (2004): Predictions Database. Online
verfügbar unter http://www.elon.edu/predictions/q9.aspx, zuletzt aktualisiert am 24.02.2009.
Fiutak, Martin (2004): Experten: Internet steht vor dem Zusammenbruch. ZDNet.de. Online
verfügbar unter
http://www.zdnet.de/news/wirtschaft_telekommunikation_experten_internet_steht_vor_dem_z
usammenbruch_story-39001023-39125948-1.htm, zuletzt aktualisiert am 14.09.2004.
Friedmann, Björn (2007): ARD - ZDF Onlinestudie: Internetnutzer in %. Online verfügbar
unter http://www.ard-zdf-onlinestudie.de/index.php?id=20.
Fritz, Wolfgang (2004): Internet-Marketing und Electronic Commerce.
Google (Hg.) (2009): About Gmail. Online verfügbar unter
http://mail.google.com/mail/help/about_privacy.html, zuletzt aktualisiert am 03.01.2009.
Koomey, Jonathan (2007): Estimating regional power consumption by servers: A technical
notr. Herausgegeben von Agof, IVW und INFOnline. Online verfügbar unter
http://enterprise.amd.com/Downloads/Technology/Koomey_Estimating.pdf, zuletzt
aktualisiert am 07.12.2007.
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
28
Leyden, John (2007): US State department rooted by 0-day Word attack. Herausgegeben von
The Register. Online verfügbar unter
http://www.theregister.co.uk/2007/04/19/us_state_dept_rooted/, zuletzt aktualisiert am
19.04.2007.
Markoff, John (2007): Steve Jobs Walks the Tightrope Again. Herausgegeben von New York
Times. Online verfügbar unter
http://www.nytimes.com/2007/01/12/technology/12apple.html?_r=1, zuletzt aktualisiert am
12.01.2007.
O'Reilly, Tim (2005): What Is Web 2.0. Herausgegeben von O'Reilly Media. Online verfügbar
unter http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web20.html?page=1, zuletzt aktualisiert am 30.09.2005.
Perrin, Chat (2006): Die Geheimnisse der Open-Source-Sicherheit. Herausgegeben von
ZDNet.de. ZDNet.de. Online verfügbar unter
http://www.zdnet.de/anwendungsentwicklung_die_geheimnisse_der_open_source_sicherheit_
story-20000201-39144261-3.htm, zuletzt aktualisiert am 13.06.2006.
Pregel, Bettina (2009): Interview mit Prof. Dr. Urs Gasser. Medienkompetenz für das digitale
Zeitalter braucht es dringend. Herausgegeben von Bayerische Landeszentrale für neue
Medien (BLM). Online verfügbar unter http://www.blm.de/apps/documentbase/data/de/12133.pdf, zuletzt aktualisiert am 22.01.2009.
Quitney Anderson, Janna; Rainie, Lee (2006): The Future of the Internet II. Herausgegeben von
PEW Internet und American Life Project. Online verfügbar unter
http://www.pewinternet.org/pdfs/PIP_Future_of_Internet_2006.pdf, zuletzt aktualisiert am
24.09.2006.
Quitney Anderson, Janna; Rainie, Lee (2008): The Future of the Internet III. Herausgegeben
von PEW Internet und American Life Project. Online verfügbar unter
http://www.pewinternet.org/pdfs/PIP_FutureInternet3.pdf, zuletzt aktualisiert am 12.12.2008.
Quitney Anderson, Janna; Rainie, Lee; Fox, Susannah (2005): The Future of the Internet.
Herausgegeben von PEW Internet und American Life Project. Online verfügbar unter
http://www.pewinternet.org/pdfs/PIP_Future_of_Internet.pdf, zuletzt aktualisiert am
09.01.2005.
Radcliff, Deborah (2007): When World of Warcraft spreads to your world. Computerworld Inc.
Online verfügbar unter
http://www.computerworld.com/action/article.do?command=viewArticleBasic&articleId=901
6684, zuletzt aktualisiert am 16.04.2007.
Reimer, Jeremy (2007): Security researchers uncover massive attack on Italian web sites.
Herausgegeben von Ars Technica. Online verfügbar unter
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
29
http://arstechnica.com/security/news/2007/06/security-researchers-uncover-massive-attackon-italian-web-sites.ars, zuletzt aktualisiert am 18.05.2007.
Schulze, Gerhard (1992): Die Erlebnisgesellschaft. Kultursoziologie der Gegenwart. Frankfurt
a.M.
Spafford, Gene (2007): Re: $100 laptops from HRD Ministry, India. Online verfügbar unter
http://www.listbox.com/member/archive/247/2007/05/sort/time_rev/page/2/entry/23:91/200
70506140410:307417BE-FBFC-11DB-A2B9-C8C92BEBA671/.
Sullivan, Bob (2007): Virus gang warfare spills onto the Net. Herausgegeben von The Red
Tape Chronicles und MSNBC.com. Online verfügbar unter
http://redtape.msnbc.com/2007/04/virus_gang_warf.html, zuletzt aktualisiert am 03.04.2007.
T-Online (2007): Steht das Internet vor dem Zusammenbruch? Online verfügbar unter
http://computer.t-online.de/c/12/50/60/28/12506028.html, zuletzt aktualisiert am 26.9.2007.
UCLA (2003): UCLA Internet Report (online version). Online verfügbar unter
http://www.digitalcenter.org/pdf/InternetReportYearThree.pdf, zuletzt aktualisiert am
01.02.2003.
Weber, Tim (2007): Criminals 'may overwhelm the web'. Herausgegeben von BBC NEWS.
Online verfügbar unter http://news.bbc.co.uk/2/hi/business/6298641.stm, zuletzt aktualisiert
am 25.01.2007.
Wikipedia (Hg.) (2009): OLPC XO-1. Online verfügbar unter
http://de.wikipedia.org/wiki/OLPC_XO-1#Netzwerkbildung, zuletzt aktualisiert am 27.02.2009.
Wikipedia (Hg.) (2009): IPv6. Online verfügbar unter http://de.wikipedia.org/wiki/Ipv6, zuletzt
aktualisiert am 24.02.2009.
Wikipedia (Hg.) (2009): Mashup (Internet). Online verfügbar unter
http://de.wikipedia.org/wiki/Mashup_(Internet), zuletzt aktualisiert am 16.02.2009.
Wikipedia (Hg.) (2009): DynDNS. Online verfügbar unter
http://de.wikipedia.org/wiki/DynDNS, zuletzt aktualisiert am 11.02.2009.
Wikipedia (Hg.) (2009): Elektronischer Handel. Online verfügbar unter
http://de.wikipedia.org/wiki/Elektronischer_Handel, zuletzt aktualisiert am 24.02.2009.
Zittrain, Jonathan L. (2008): The future of the Internet and how to stop it. Herausgegeben von
Yale University Press. (ISBN 978-0-300-12487-3). Online verfügbar unter
http://futureoftheinternet.org/static/ZittrainTheFutureoftheInternet.pdf, zuletzt aktualisiert
am 15.02.2008.
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
30
Zulfikar, Ramzan; Wüest, Candid (2007): Phishing Attacks: Analyzing Trends in 2006.
Herausgegeben von Inc Symantec. Online verfügbar unter
http://www.ceas.cc/2007/papers/paper-34.pdf, zuletzt aktualisiert am 31.07.2007.
Christian Opitz – Die Zukunft des Internet (2009)
Netzelf – Agentur für guten Eindruck (Herausgeber)
31

Documents pareils