Opitz - Die Zukunft des Internet
Transcription
Opitz - Die Zukunft des Internet
Christian Opitz, Netzelf - Agentur für guten Eindruck (Hg.) Die Zukunft des Internet 01.03.2009 Netzelf Agentur für guten Eindruck Opitz & Scholz GbR Merseburg Postanschrift: Netzelf Geusaer Str. 88 - Poststelle FH D-06217 Merseburg Web: www.netzelf.de Mail: [email protected] Fon: 03461 479020 Fax: 03461 479021 Inhaltsverzeichnis 1. Einleitung ................................................................................................................................................................ 3 2. Ausgangspunkt ..................................................................................................................................................... 3 3. Das Internet in Gefahr ........................................................................................................................................ 8 3.1 Das Protokoll-Problem ............................................................................................................................... 8 3.2 Terror ................................................................................................................................................................. 9 3.3 Wild West im Web........................................................................................................................................ 9 3.4 Der Wendepunkt......................................................................................................................................... 13 3.5 Ist das Netz bedroht? ................................................................................................................................ 15 4. Das Internet der Zukunft ................................................................................................................................. 17 4.1 Neue Nutzer.................................................................................................................................................. 17 4.2 Neue Software ............................................................................................................................................. 20 4.3 Neue Technologie ...................................................................................................................................... 22 4.4 Neue Wirtschaft........................................................................................................................................... 24 4.5 Neue Gesellschaft ....................................................................................................................................... 25 5. Zusammenfassung ............................................................................................................................................ 26 6. Literaturverzeichnis ........................................................................................................................................... 28 Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 2 1. Einleitung Da der Begriff Zukunft ebenso weitläufig wie der Begriff Internet aufgefasst werden kann, ist es von Nöten den Rahmen des Themas dieser Arbeit einzugrenzen. So ist mit Zukunft die Entwicklung des Internets in den nächsten fünf bis zehn Jahren gemeint. Das Internet sollte dabei hauptsächlich aus technischen Aspekten betrachtet werden. Da die technische Betrachtung der Zukunft des Internets jedoch, wie sich in der Vergangenheit zeigte, nur eine sehr vage sein kann, wird in dieser Arbeit auch auf zukünftige soziale und wirtschaftliche Aspekte im Netz eingegangen. Dieser Arbeit liegen verschiedene Expertenbefragungen und -berichte, Berichte aus Fachmagazinen, Fachliteratur und Studien zu Grunde. Aus nahliegenden Gründen entstammen diese auch dem Objekt dieser Arbeit, dem Internet. Eines ist dabei allen Quellen gemein: Sie prophezeien Trends, die sich schon mehr oder minder lang abzeichnen. Es soll nicht Bestandteil dieser Arbeit sein, zu klären, inwieweit die Zukunft tatsächlich von der Gegenwart abhängig ist, jedoch liegt allen getroffenen Voraussagen eine Beurteilung der jüngeren Vergangenheit und Gegenwart in Bezug auf das Thema zugrunde. Als besonders bedeutend für die Entwicklung des Internets in Hinblick auf Software-Strukturen haben sich dabei die Definition des Begriffs Web 2.0 von Tim O’Reilly und Jonathan L. Zittrain’s umfassendes Buch „The future of the Internet and how to stop it“ hervorgetan. 2. Ausgangspunkt Web 2.0 ist das Stichwort, das momentan sowohl die Programmierer- als auch die Nutzerwelt bewegt. Der Begriff wurde 2004 von Dale Dougherty und Craig Cline geprägt, jedoch erst richtig bekannt durch den Visionär Tim O’Reilly mit seinem Artikel „What is Web 2.0“ vom 30. September 2005. Darin definierte er sieben Prinzipien, die das Web 2.0 charakterisieren: Das Web als Plattform Dies ist die zentrale Position des Begriffs Web 2.0. Der Begriff Plattform bedeutet dabei, dass so gut wie alle Aktivitäten am PC in’s Internet verlagert werden können. Die Vorteile, die sich daraus ergeben sind so vielfältig wie die Anwendungen, die im Web 2.0 möglich sind: Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 3 (Quelle: O'Reilly 2005) Kollektive Intelligenz Den Giganten, die die Internet-Blase im Jahr 2001 überstanden haben und nun unumstößlich scheinen, ist gemein, dass ihr Erfolg auf die Erkenntnisse aus dem Verhalten ihrer Nutzer und vor allem der Umsetzung und Weitergabe dieser basiert. So basiert die Suche Googles auf der PageRank-Methode, die die Ergebnisse anhand der Verlinkungen auf anderen Seiten bewertet. Das heißt, umso öfter eine Website verlinkt wurde (und damit sozusagen auch von anderen als relevant ausgewiesen wurde) umso höher ist auch ihre Position auf der Ergebnisseite. Amazon vertreibt dieselben Produkte mit denselben Preisen, Produktbeschreibungen und Bildern wie seine Konkurrenten. Jedoch begann es schon früh Nutzerbewertungen zu sammeln und zur Verfügung zu stellen, einer Produktsuche deren Ergebnisse nach Verkaufszahlen, Produktbewertung und mehr geordnet werden, stellte also den Nutzer und nicht direkt seine Produkte in den Vordergrund. EBay stellte seinen Nutzern gar nur die Plattform für deren Verkäufe und Käufe zur Verfügung und erlaubte es Ihnen Auktionen und andere Nutzer zu bewerten. Fortgesetzt wurde diese Erkenntnis am radikalsten von Wikipedia, das seinen Nutzern eine leere Enzyklopädie in die Hand gab, auf das diese sie füllen. Erwiesenermaßen trägt die Freiheit, die Wikipedia den Nutzern damit in die Hände gab große Früchte. Cloudmark bewertet Emails anhand der Erfahrungen anderer Nutzer als Spam, Flickr findet Fotos und Bilder aufgrund der Stichworte, die ihnen Nutzer zuweisen, del.icio.us schlägt Websites nach verschlagworteten Lesezeichen seiner Nutzer als besuchenswert vor (Public Bookmarking) usw.. Die Open Source Bewegung ist nicht nur Erschaffer sondern gleichzeitig Produkt kollektiver Intelligenz. Ihre weltweit gemeinschaftlich entwickelten Softwareprodukte wie Linux, Apache, MySQL, PHP und unzählige mehr sind Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 4 nicht nur hochsichere und moderne Anwendungen sondern auch wesentlich am Entstehen des Web 2.0 beteiligt indem sie zumindest die Rahmenbedingungen schufen. Das Fazit O’Reillys: „Network effects from user contributions are the key to market dominance in the Web 2.0 era.“ (O'Reilly 2005, S.2) Daten als „Intel Inside“ Jede wichtige Internet-Anwendung verfügt heutzutage über spezielle Datenbanken. Datenbankmanagement ist die Kernkompetenz jedes Web 2.0 Unternehmens. Amazon z.B. erweiterte die ursprüngliche Datenbasis des ISBN Registrars R.R. Bowker akribisch um Cover, Inhaltsverzeichnisse, Indizes, Samples und v.a. Kundenrezensionen und Kundenbewertungen. Nun ist Amazon und nicht Bowker die wichtigste Quelle für Bücherdaten, Referenz für Schüler, Studenten, Bibliothekare und v.a. Kunden. Googles Daten-Sammelwut (Google erweitert seine Dienste permanent: Google Maps, Google Earth, Google Video (YouTube), Google Code, Google News etc.) ist vollkommen erklärlich, finanziert sich das Unternehmen doch aus Werbung, die hochgradig genau platziert werden kann (Google AdWords). Es ist ein regelrechter Krieg um Daten jeglicher Art entstanden, der in einem krassen Gegensatz zu den Bedenken der Nutzer, die ein gewisses Maß an Privatsphäre und die Rechte an ihren Daten auch in Zukunft behalten wollen. O’Reilly setzt diesen Bedenken allerdings eine interessante These entgegen: So wie das Aufkommen proprietäre Software zur Entwicklung freier Software führte, werden auch in Zukunft freie Datenbestände als Reaktion auf proprietäre Datenbanken erscheinen. Erste Anhaltspunkte für diese These findet sich bei Wikipedia (deren Inhalte größtenteils unter Open Source Lizenz stehen) und den Creative Commons (Einer Bestrebung, Lizenzen zur Verfügung zu stellen, die es ermöglichen kreative Werke für die Weiterverwendung und Wiedergabe lizenzieren zu können, ohne das Urheberrecht zu verwerfen). Proprietäre Datenbanken führen kurzfristig zu sogenannten Mashups. Dabei handelt es sich um die neue (z.B. collageartige) Präsentationen bereits bestehender Daten wie Text, Bilder, Tönen oder Videos. Mashups nutzen dafür meist APIs (Programmierschnittstellen), die von anderen Webanbietern wie z.B. Google oder Flickr zur Verfügung gestellt werden. „Während Mashups zunächst als Spielzeug abgestempelt wurden, machen sich in der Zwischenzeit auch einige kommerzielle Anbieter, z. B. zahlreiche Immobilienanbieter oder Dienste wie whatsyourplace.de die oben genannten Möglichkeiten zu Nutze. Eine besonders große Anzahl an Mashups verknüpft dabei geographische Daten, beispielsweise von Google Maps, mit anderen Inhalten wie Fotos oder Kleinanzeigen.“ (Wikipedia (Hg.) 2009 – Mashup Internet) Software ohne Lebenszyklus Webbasierte Software wird im Gegensatz zu herkömmlicher stationärer Software nicht als Produkt sondern als Service ausgeliefert. Dieser Umstand führt zu einigen Änderungen im Geschäftsmodell von Web 2.0-Firmen: Betriebsabläufe werden zur Kernkompetenz solcher Unternehmen. Das heißt, dass Entwicklung, Pflege und Anpassungen gleichzeitig ablaufen müssen. Diese Abläufe kontrollieren zu können, erfordert ein hohes Maß an Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 5 Organisationsstruktur und Kontrolle. Die Nutzer der Software müssen wie auch bei der OpenSource-Entwicklung gebräuchlich als Mitentwickler gesehen und in die Programmierprozesse einbezogen werden. Aus dem Grundgedanken des Open Source „Veröffentliche früh und oft“ wurde schnell ein „ewiges Beta“ (Mit Beta werden Software-Produkte gekennzeichnet, die eigentlich noch nicht serienreif aber schon bereit zum Testeinsatz sind). So werden viele Dienste wie Gmail, Google Maps oder Flickr wohl noch ein paar Jahre das Zeichen „Beta“ in ihren Logos führen. Ein Webentwickler eines bedeutenden Online-Services bemerkte dazu im Beitrag O’Reillys: „Wir veröffentlichen zwei oder drei neue Features pro Tag auf bestimmten Teilen der Seite. Wenn die Leute sie nicht nutzen, nehmen wir sie wieder raus. Und wenn die Leute sie mögen, weiten wir sie auf die gesamte Seite aus.“ (O'Reilly 2005, S. 3) Die sich daraus ergebende hohe Entwicklungs-Geschwindigkeit zwingt auch Anbieter traditioneller Softwareprodukte wie z.B. Microsoft dazu ihr Geschäftsmodell zu überdenken und zumindest anzupassen, womit Sie Web 2.0-Startups gegenüber im Nachteil sind, da diese keine alten Muster, Geschäftsmodelle und Einnahmequellen ablegen müssen. Lightweight Programming Models Am Beispiel der Webservices lässt sich die Entwicklung hin zu einfachen und schnell zu implementierenden Softwareprodukten sehr gut ableiten: „Als die Idee der Web Services bekannt wurde, stürzten sich große Firmen mit einem ganzen Haufen komplexer Web Services ins Getümmel, die der Kreation hochverfügbarer Programmierumgebungen für verteilte Anwendungen dienen sollten. Aber so wie das Web Erfolg erlangte, indem es viel von der Theorie des Hypertext wieder verwarf und stattdessen einen Pragmatismus des idealen Designs einsetzte, wurde RSS aufgrund seiner Einfachheit der vermutlich am weitesten verbreitete Web Service, während die komplexen Dienste der Unternehmen noch auf ihre Verbreitung warten.“ (O'Reilly 2005, S. 4) Webservices oder auch Webdienste sind Software-Anwendungen, die online über URIs (Uniform Resource Identifier) eindeutig identifizier- und erreichbar sind. Über bestimmte XML-basierte Schnittstellen unterstützen Sie die Interaktionen mit anderen Anwendungen. Komplizierte und hochwertige Schnittstellen werden allerdings hauptsächlich im B2B-Bereich eingesetzt, für den Großteil der Programmkommunikation (z.B. RSS-Feeds, Trackbacks, AJAX) werden zwar nicht so „Hacker“-resistente aber weniger komplizierte Austauschformate verwendet. Dieses Modell der Einfachheit ergibt besonders in Zusammenhang mit dem Punkt „Software ohne Lebenszyklus“ Sinn und es lassen sich daraus drei Grundsätze moderner Programmierung ableiten: „Lightweight Programming Models“, die lose gekoppelte Systeme ermöglichen, werden bevorzugt. So ist eine schnelle und effiziente Entwicklung möglich (Besonders kommt man damit dem Umstand entgegen, dass (Web-) Programmierung der traditionellen IT oftmals schon veraltet war, als sie abgeschlossen war). „Kooperation ohne Koordination“ ist in Anlehnung an das „End to End“-Prinzip für das Internet an sich die Absicht, Daten zu verteilen oder auszutauschen und nicht deren Verbleib Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 6 zu kontrollieren. „Hackability“ und „Remixability“ sind wichtige Aspekte bei der Gestaltung moderner Softwareprodukte. Da Quellen heutzutage oft völlig offen liegen und sofern nicht, oft kein Problem besteht, sie aufzudecken gibt es wenige Mittel zum Schutz gegen geistiges Eigentum. „Die erfolgreichsten Web Services sind die, die sich leicht in Richtungen weiterentwickeln lassen, an die der ursprüngliche Erfinder gar nicht gedacht hat. Der Ausdruck ‚einige Rechte vorbehalten‘, erstmals von den Creative Commons als Kontrast zum bekannten “alle Rechte vorbehalten” verwandt, zeigt die Richtung an, in die es gehen wird.“ Begleitet wird diese Entwicklung von „Leightweight Business Models“. Diese bedeuten, dass Geschäftsfelder häufiger erschlossen werden ohne, dass vorher klare Geschäftsmodelle gesucht wurden. Software über Gerätegrenzen hinweg Web-Inhalte werden über Gerätegrenzen hinweg. Diese Entwicklung wird in Zukunft in Verbindung mit dem Punkt „Das Web als Plattform“ selbstverständlich, wenn man bedenkt, welche Medien zusätzlich internetfähig werden. Beim Handy ist dies bereits eine Selbstverständlichkeit, auch wenn die Preismodelle der Anbieter für den Großteil der Mobilfunk-Kunden noch zu unattraktiv für die dauerhafte Nutzung des Internets via Handy sind. Das Fernsehen wird über kurz oder lang auch mit dem Internet verschmelzen. Es gibt schon Beispiele von Software, die das Internet als Bestandteil ihrer geräteübergreifenden Infrastruktur nutzen. So sind z.B. iTunes und TiVo keine reinen Internetanwendungen, setzen das Internet jedoch äußerst wirksam ein. Rich User Expiriences Das Zauberwort des Web 2.0 ist AJAX. AJAX ist eine Verknüpfung von Technologien, die es u.a. Webprogrammierern ermöglicht, den Browser der Nutzer asynchron und ohne Verlassen der Seite mit dem Server Daten austauschen zu lassen. Weiterhin können zur Laufzeit (sprich ohne neues Laden der Seite) alle HTML-Elemente mittels des Document Object Models erstellt, entfernt und manipuliert werden sowie Daten via XML und XSLT geladen, verändert und dargestellt werden. Über die Programmiersprache JavaScript stehen dem Entwickler damit sehr wichtige Werkzeuge zur Verfügung mit denen es möglich ist, webbasierte Anwendungen mit der Mächtigkeit PC-basierter Applikationen zu erstellen. Diese Technologien sind nicht neu, jedoch wurden sie in den 90er Jahren hauptsächlich durch den Konkurrenzkampf Microsofts mit Netscape unmöglich gemacht, da ein browserübergreifender Einsatz nicht möglich war. Heutzutage steht Microsoft im BrowserBereich mit Mozilla Firefox zwar wieder ein mächtiger Konkurrent gegenüber, jedoch behindert Microsofts zunehmende und Mozillas grundsätzliche Akzeptanz und Umsetzung von Web-Standards den Einsatz mächtiger Entwicklerwerkzeuge wie JavaScript nicht mehr so stark. Dadurch ist JavaScript der für browserbasierte Programmierung bisher größtenteils verwendeten Software Macromedias bzw. Adobes Flash ein gutes Stück näher gerückt, auch wenn viele Probleme nach wie vor nur mit Flash oder Java gelöst werden können. Diese Technologien in Verbindung mit stetig verbesserten Browsern jedoch lassen webbasierte Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 7 Anwendungen zukünftig ausgesprochen mächtig werden: „Wir erwarten in den nächsten Jahren viele neue Webanwendungen, sowohl völlig neu erdachte als auch Reimplementierungen von Desktop-Programmen. Jeder Plattformwechsel bringt auch die Möglichkeit eines Führungswechsels bei den dominierenden Anwendungen mit sich.“ (O'Reilly 2005, S. 6) Alle genannten Prinzipien finden heutzutage schon in vielen Webanwendungen und Webunternehmen Anwendung und werden sich über die nächsten Jahre signifikant durchsetzen, falls das Internet in der Zwischenzeit nicht ernsthaft in seinem Wachstum behindert wird. Die nachfolgend erläuterten Bedrohungen könnten dem Internet und damit auch der heutigen Gesellschaft und Wirtschaft schwerwiegende Probleme bereiten. 3. Das Internet in Gefahr 3.1 Das Protokoll-Problem 2004 ging eine Pressemeldung in den Medien um, nach der der Zusammenbruch des Internets durch mangelnde Adressräume im IP-Protokoll kurz bevorstünde. (Fiutak 2004) Dieser Fall ist allerdings bis heute nicht eingetreten, da auf die dynamische IP-Vergabe durch Internet Service Provider (ISP) aufbauende Technologien eine effektivere Adressraumausnutzung erlauben. Bei der dynamischen Adressvergabe werden Teilnehmern IP-Adressen nicht statisch dauerhaft sondern erst bei der Anmeldung beim ISP freie IPAdressen zugewiesen, die dann jeweils für die Dauer der Sitzung konstant bleiben. In Verbindung mit DynDNS (RFC 2845) können sogar Server unter dynamisch vergebenen IPAdressen erreicht werden. (Wikipedia (Hg.) 2009 – DynDNS) Diese Technologie wird durch das IPv6-Protokoll aufgegriffen, das schrittweise v.a. in neuen Netzwerken im asiatischen Raum eingeführt wird und den IP-Adressraum von 232 (IPv4) auf 2128 Adressen erweitert. Mit den erweiterten Funktionalitäten dieses Protokolls, wie Autokonfiguration, Umnummerierung, Multihoming und Mobile IP kann eine noch effizientere Ausnutzung der Adressräume und erhöhte Verbindungssicherheit erreicht werden. Der Umstieg auf IPv6 gestaltet sich zwar langsam, da er aber parallel zur weiteren Nutzung des IPv4 geschieht, ist auf Dauer eine Verbesserung der Lage zu erwarten. (Wikipedia (Hg.) 2009 – IPv6) Diese Entwicklung, nämlich die Konzentration auf die Verbesserung bestehender Technologien (IPv4 seit 1981, IPv6 seit 1999), wurde auch in der PEW-Expertenbefragung bestätigt: „Next-generation research will be used to improve the current Internet; it won’t replace it.“ (Quitney Anderson, Rainie 2008, S. 6). Demnach sieht der Großteil (78%) der 578 befragten Experten die aktuell vorherrschende Infrastruktur auch als Basis bis mindestens zum Jahre 2020, an der kontinuierlich weiterentwickelt und damit auf kommende Anforderungen reagiert wird. (Quitney Anderson, Rainie 2008, S. 111-125) Aus diesem Beispiel lässt sich exemplarisch auch die Realitätsnähe ähnlicher UntergangsPrognosen anzweifeln, da diese oft einer einseitigen Sicht und häufig eigennützigen Interessen entspringen. So ist dieses Zitat Zeuge einer Informationspolitik Intels, die im Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 8 Konkurrenzkampf zumindest Vorteile bringen sollte: „Intel hat nach eigenen Angaben bereits ein neues Netzwerk namens PlanetLab entwickelt, welches diese Probleme umgehen und ein sicheres Netzwerk etablieren kann. Noch dazu würde somit die Vormachtstellung des Konkurrenten Cisco gebrochen werden[…]“ (Fiutak 2004). 3.2 Terror Der Pew-Umfrage im Herbst 2004 zufolge sahen zu diesem Zeitpunkt 66% der befragten Personen mindestens einen Terror-Angriff auf die Netz-Infrastruktur bis zum Jahr 2010 als wahrscheinlich an. (Quitney Anderson, Rainie et al. 2005, S. 14) In einer erweiterten Auflistung einiger Aussagen der Befragten zeigt sich, dass Einigkeit in dem Punkt besteht, dass die Infrastruktur des Internets nicht genügend gegen physische Angriffe geschützt ist und ein solcher Angriff auf die Infrastruktur sehr effektive Zerstörungskraft auf das restliche Internet ausübt. (Elon University, PEW Internet et al. (Hg.) 2004). In diesem Text wird auch von der Kombination von Software- und physischen Angriffen gesprochen, die noch weit dramatischere Folgen verursachen können. Es wird auch deutlich, dass der tatsächlich flächendeckende Schaden nicht in erster Linie durch die Beeinträchtigung der Infrastruktur sondern vielmehr durch die weltweiten Abhängigkeiten von einer angegriffenen Netzmacht wie z.B. den USA herrühren würde. Es ist darin jedoch klar formuliert, dass das Internet permanent Attacken von Hackern und Malware ausgesetzt ist und diese bisher keine längerfristig signifikanten Folgen außer der stetigen Verbesserung der Abwehrmechanismen auslösten. In der darauffolgenden Erhebung im Jahr 2006 bejahten 58% der Befragten, dass es möglich wäre, dass sich im Jahr 2020 Technikfeinde von der Internetgesellschaft ab- und sich einige in Form von Terror- oder Gewaltakten gegen jene wenden würden. Allerdings zeigt sich dabei, dass die Befragten dem friedlichen Widerstand gegen die Technisierung mehr Bedeutung beimessen als dem gewalttätigen. (Quitney Anderson, Rainie 2006, S.59-66) Bleibt also festzustellen, dass die befragten Menschen durchaus Gefahren für die Zukunft des Internets sehen, sich aber offensichtlich nicht allzu viel Sorgen darum machen. Welche Folgen das haben wird und inwieweit Terrorangriffe auf die Infrastruktur des Internet aus einer Welt, die entweder weitgehend vernetzt oder zu arm ist, solche auszuüben überhaupt wahrscheinlich sind, bleibt abzuwarten. Außerdem fehlen für eine ganzheitliche Beurteilung der Terrorgefahr für das Internet Informationen über die Meinungen von Menschen außerhalb der Industrienationen zu diesem Thema. 3.3 Wild West im Web Die Firma VeriSign klagte nach einem Bericht von T-Online vom 26.9.2007 über eine zu starke Bedrohung durch Hacker und sagte damit das angeblich baldige Ende des Internets voraus. VeriSign ist heute immer noch der größte Herausgeber von Sicherheitszertifikaten und hat die Angriffe offensichtlich gut überstanden. Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 9 Allerdings ist die Gefahr durch bösartige Softwareattacken stets präsent. In seinem Buch „The future of the Internet and how to stop it” stellt Jonathan L. Zittrain diese als das Hauptproblem für die Zukunft des Internet heraus. Besonders interessant ist dabei, dass er einen Aspekt betrachtet, der bisher in der Öffentlichkeit zu Unrecht noch nicht besonders eingehend diskutiert wurde: Das extrem hohe Sicherheitsrisiko, dem das Internet ausgesetzt ist, entsteht durch selbst gewartete PCs. Seine These besagt, dass der Umstand, dass Millionen von unerfahrenen Nutzern völlig ungeschützt im Internet aktiv sind und damit wirklich bösartigen Würmern Einfallstore bieten, auch die Sicherheit vermeintlich geschützter Rechner gefährdet. Hochgradig gefährlich ist das mögliche Vorgehen von Hackern, Würmer über lange Zeit in sehr viele Rechner einzuschleusen und zu einem nicht bestimmbaren Zeitpunkt anschlagen zu lassen. Die Gründe für Übergriffe können inzwischen im Gegensatz zur Vergangenheit, da bösartiger Code größtenteils aus Ehrgeiz oder Spaß in Umlauf gebracht wurde, sehr vielfältig sein. Erpressung, Raub und Betrug sind dabei die wesentlichen, denn die Verquickung von realer und virtueller Welt, hat u.a. zur Folge, dass virtuelle Übergriffe reales Geld erzeugen können. Z.B. die tatsächliche Praxis, dass Gaming-Konten mit hohen Punkteständen für viel Geld im Internet feil geboten werden, bietet Hackern genügend Motivation, diese Punkte nicht zu erspielen sondern zu rauben. So sind z.B. Hackern durch Eingriffe in das Gaming-Portal GuildPortal große Mengen an Passwörtern für Gaming-Konten in die Hände gefallen. Wenn man bedenkt, dass viele Spieler für Ihre mühsam erspielten virtuellen Leben auch reales Geld bezahlen würden, sind diese Übergriffe durchaus lohnende Aktivitäten: „Such transactions (known sometimes as RMT, or real-money transactions) contravene many games' terms of services. Many players say they violate the spirit of the games themselves; a comparable situation in the offline world would be buying a high military rank or an Oscar. It also introduces real, out-of-world money into the equation, with perhaps predictable results. ‘Once it became possible to transform virtual goods into money, it paved the way for laundering, fraud and theft’, Lewis says. ‘It wasn’t a huge leap to keylogging software.’” (Radcliff 2007 – When World of Warcraft spreads to your world). Davon abgesehen, können Hacker mit den erbeuteten Passwörtern auch auf andere Seiten zugreifen, auf denen sich die Gamer mit diesen Passwörtern anmelden. Dabei kann es sich je nach dem Passwortverhalten der Nutzer um Zugänge zum Firmennetz oder zum Online-Bankkonto handeln: „As more and more users log in, create value, and buy and sell virtual goods, some are figuring out ways to turn such virtual goods into real-world dollars. Viruses and phishing e-mails target the acquisition of gaming passwords, leading to virtual theft measured in real money“ (Zittrain 2008, S. 47) Auch die Verseuchung des Internets mit Spam-Nachrichten entspringt weniger bösartigen als viel mehr finanziellen Interessen, denn selbst wenn Spam-Filter und Benutzer den Großteil des Spam als solchen identifizieren so trägt die Werbung über Spam-Nachrichten durchaus Früchte. „It's as bad as you can imagine, it puts the whole internet at risk.” (John Markoff) Denn um Gewinn aus Spam- und Phishing-Nachrichten zu schlagen, müssen Kriminelle Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 10 offenbar riesige Netze von automatischen Helfern errichten. Diese sogenannten Botnets haben tatsächlich extreme Ausmaße: „Of the 600 million computers currently on the internet, between 100 and 150 million were already part of these botnets[…]” (Weber 2007). Ebenfalls eine lukrative Einnahmequelle für kriminelle Hacker, könnte die Erpressung von Firmen im Internet werden, bzw. scheint sie es bereits zu sein: „Botnets can also be used to launch coordinated attacks on a particular Internet endpoint. For example, a criminal can attack an Internet gambling Web site and then extort payment to make the attacks stop. The going rate for a botnet to launch such an attack is reputed to be about $50,000 per day.” (Zittrain 2008, S. 46) Das Problem bei der Bekämpfung ist die Tatsache, dass die Dunkelziffer über die tatsächlichen Aktivitäten solcher krimineller Vereinigungen sehr hoch liegt. Eine tatsächliche Bedrohung entsteht weiterhin, sofern die angeführten Punkte nicht schon bedrohlich genug sind, wenn sich Hackerbanden gegenseitig bekämpfen. „Last month, the Internet Corporation for Assigned Names and Numbers, which helps run those computers, speculated in a recent report that the attack was the work of a bot herder trying to close a sale by demonstrating the size and power of his army of hijacked computers.” (Sullivan 2007) Diese Kriege werden mit den und über die Armeen von missbrauchten PCs der Botnets ausgetragen. Nehmen diese Kriege zu hohe Ausmaße an, kann das durchaus Gefahren für die Internet-Gemeinschaft und damit auch das Internet bergen. Doch die Hacker führen nicht nur Kriege sondern betreiben auch Handel untereinander. So wurden erfolgreiche Angriffe auf italienische Websites, mit Hilfe einer kommerziellen Software, entwickelt von anderen kriminellen Programmierern, durchgeführt. Über die kompromittierten Websites konnten die Hacker bösartige Software auf den Rechnern der Benutzer installieren. „The attackers used a "commercial" malware kit called MPack, which is sold by a Russian gang. Currently at version 0.86, MPack provides would-be malware installers with a complete package that can be installed on any web server that runs PHP with an SQL database. The owners of MPack have been selling it to other criminal organizations for between $700 and $1,000 a pop, with additional exploit modules available for between $50 and $150. For an additional $30, the MPack owners will include a feature that helps prevent the malware from being detected by antivirus programs.[…] The rise of off-the-shelf malware packages is another indication that compromising users' computers has become a huge business and especially attractive for criminal organizations. The risk of detection and capture is low: the attackers typically install MPack on a compromised web server, and the malware itself can be hosted on any number of servers. Even if an MPack server is discovered and shut down, any users who have infected by the exploits that MPack uses will continue to generate revenue from whatever spyware the attackers choose to install on the compromised systems.” (Reimer 2007) Die Probleme, die eine “Untergrund-Softwareindustrie” den Nutzern und Betreibern in Zukunft bereiten könnte, könnten wesentlich schwerwiegender als Viren und Trojaner in der Vergangenheit werden, da die Entwicklungszeiten für die kriminellen Software-Lieferanten immer geringer werden. So könnte auf Antiviren-Software-Updates wesentlich schneller reagiert werden. Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 11 Ob diese Wild West-Mentalität der Hacker das Internet auf Dauer wirklich ernsthaft gefährdet ist jedoch zumindest fraglich, denn es verfügt laut einem der Väter des Internet Vint Cerf über großes Widerstandsvermögen: „Despite all that, the net is still working, which is amazing. It's pretty resilient.“ Die Großen der Softwarebranche und die Web-Experten seien jedoch angehalten, effektivere Maßnahmen gegen die Internetkriminalität zu finden: „But its members were unsure about feasible solutions, even though they identified operating systems and authentication as key issues. It was still too easy for net criminals to hide their tracks, several panel members said, although they acknowledged that it was probably not desirable that every individual was definitively identifiable.” (Weber 2007) Eine weitere Gefahr, zwar nicht direkt für das Internet, die sich jedoch über das Internet ergibt, ist, dass kriegerische Handlungen von Hacker-Attacken unterstützt werden können. So wurde im Mai 2006 gezielt das US-Außenministerium von Hackern vermutlich aus Asien angegriffen. Dadurch wurden die US-Botschaften überall in Ostasien in den spannungsgeladenen Wochen vor den Atom-Tests in Nordkorea komplett vom Netz getrennt. Erst Anfang des Juli brachte das Außenministerium das Problem unter Kontrolle und erst zehn Wochen später korrigierte Microsoft den aus einer Sicherheitslücke seines Produktes MS Word resultierenden Fehler. „US government representatives are refusing to be drawn on the likely identity and motive of attackers. But external security experts speculate that the sophistication of the attack suggests foreign government might have been involved.” (Leyden 2007) Wie sich in der folgenden Grafik zeigt, steigen die bei CERT/CC gemeldeten Sicherheitsvorfälle erst ab 1999 signifikant und logarithmisch an. Die Registrierungsstelle für Hackerangriffe stellte die zahlenmäßige Erfassung der gemeldeten Vorfälle 2004 ein, da die Vorfälle so alltäglich und verbreitet wurden und sich nicht mehr voneinander unterscheiden ließen. Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 12 Gemeldete Sicherheitsvorfälle 1988-2003, Quelle: Zittrain 2008, S.48; CERT Coordination Center, CERT/CC Statistics 1988–2005 3.4 Der Wendepunkt Zittrain stellt ein von ihm als Wendepunkt-Szenario bezeichnetes Szenario vor, das das Ende des Internets oder wenigstens das Ende des Internets, wie wir es kennen besiegeln könnte. „Man stelle sich vor, dass ein Wurm veröffentlicht wird, der die Sicherheitslücken in einem häufig verwendeten Webserver und einem auf sowohl Windows- als auch Mac-Plattformen verbreiteten Webbrowser ausnutzt. Der Wurm verbreitet sich rasant durch zwei Mechanismen. Als erstes klopft er zufällig an die Tore von mit dem Internet verbunden Maschinen und infiziert sofort verwundbare Webserver, die antworten. Nichtsahnende Benutzer, die verwundbare Webbrowser benutzen, besuchen die infizierten Server, welche die Computer jener Benutzer infizieren. Kompromittierte Maschinen werden zu Zombies, die Befehle vom Author des Wurms erwarten. Der Wurm weißt seine Zombies an, sich für ein oder zwei Tage nach nahestehenden Systemen umzuschauen und diese zu infizieren und dann befiehlt er den befallenen Systemen, ihre eigenen Festplatten um Mitternacht zu löschen, wobei die Zeitzonen berücksichtigt werden, um sicherzugehen, dass der kollektive Absturz weltweit zur selben Zeit stattfindet. Dies ist keine Science Fiction. Es ist viel mehr eine andere Episode des Morris-Wurms (Erster Internet-Computerwurm, der 10% des damaligen Weltweiten Netzes lahm legte, obwohl er keine eingebaute Schadensroutine besaß), ein Muster, dass seitdem unzählbar reproduziert wurde, so oft, dass die Betreiber von Webservern möglichen Eindringlingen, die sich in ihre Systeme geschlichen haben könnten, gleichgültig gegenüberstehen. Google und Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 13 StopBadware.org, die bei der Verfolgung und Eliminierung von Webserver-Eindringlingen zusammenarbeiten, berichten hundertfache Anstiege an Befällen zwischen August 2006 und März 2007. Im Februar 2007 fand Google während einer Webcrawl-Aktion 11.125 infizierte Server. In einer im März 2006 durchgeführten Studie, fanden Forscher Googles heraus, dass von 4.5 Millionen analysierten URLs, die als potentielle Schadsoftware-Hoster analysiert worden waren, 1.15 Millionen tatsächlich Schadsoftware verbreiteten. Man kombiniere einen gut geschriebenen Wurm von der Sorte, die Firewalls durchbricht und Antiviren-Software umgeht, mit einem wirklich bösartigen Wurmprogrammierer und man hat die Aussicht auf ein panikerzeugendes Ereignis, dass auf die reale Welt überspringen kann: kein Check-In an Airline-Schaltern, die mit dem Internet verbundene PCs verwenden, keine ÜbernachtZustellung oder andere Formen der Paket- und Postzustellung, keine Abrechnungssoftware mehr, die Arbeitern Ihre Gehälter auszahlt, die Eliminierung, Veröffentlichung oder bösartige Änderung von Daten auf Arztpraxis-, Schul-, Stadtverwaltungs- oder anderen DatenRechnern, die aus Geldgründen nicht rund um die Uhr von einem IT-Betreuer gesichert und gegen Angriffe geschützt werden können. Einen solchen Wurm zu programmieren und zu verbreiten, könnte in den Augen vieler Feinde der Moderne ein Verlockender Akt im Informations-Krieg sein – ein asymmetrischer Krieg, wenn man bedenkt, dass der strenge Glauben manche Feine an den Rand der entwickelten Welt und damit in die Lage versetzt, nicht so stark von der modernen Informationstechnologie abhängig zu sein.“ (Zittrain 2008, S.52) Gegen diese Theorie hält Zittrain jedoch selbst einige Punkte: So z.B. sieht er die Gefahr, dass ein Angriff auf das Internet in dieser Form terroristisch motiviert sein könnte als ausgesprochen gering an. Wie sich auch in der jüngeren Vergangenheit zeigte sind die Ziele terroristischer Attacken meist nicht wie in der traditionellen Kriegsführung infrastruktureller oder militärischer Natur sondern Terroristen zielen eher darauf ab, den Gegner psychologisch zu schwächen, indem sie die Gegner an ihrem verletzlichsten Punkt nämlich ihrer Zivilbevölkerung treffen. Ein solcher Angriff auf das Internet würde schlicht nicht die Art von Angst erzeugen, die eine physische Attacke hervorruft. Hacker dagegen, die aus persönlichem Ehrgeiz oder einfach aus Spaß heraus handeln, fügen sich bei all der „Bösartigkeit“ ihres Tuns doch den ethischen Grundsätzen, bei ihren Angriffen keinen oder geringen Schaden zu erzeugen. Hacker, die aus finanziellen Gründen bzw. Profitstreben hacken, erreichen wenig, wenn ihre Angriffe bemerkt und ausgeschaltet werden oder sie gar die Grundlage ihrer Existenz nämlich das Internet vernichten. Da Banken und andere Einrichtungen, die mit empfindlichen Daten arbeiten, ihre Sicherheit stets überprüfen und stetig verbessern ist es für elektronische Diebe und Betrüger gar effektiver gar nicht diese Einrichtungen selbst anzugreifen sondern die Benutzer viel mehr mit Hilfe von Phishing-Emails dazu zu bringen, ihnen sicherheitsrelevante Daten wie Passwörter und TANs persönlich „auszuliefern“. Dies wird in einem Bericht der Internet-Sicherheitsfirma Symantec aus dem Jahr 2007 bestätigt: Im Jahr 2006 wurden insgesamt 2.848.531.611 Phishing-Emails von der Software Brightmail Symantecs blockiert, von denen 323.725 eindeutige PhishingNachrichten waren. Demzufolge wurden im Jahr 2006 täglich durchschnittlich 7,8 Millionen Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 14 Phishing-Emails, davon 887 eindeutige Phishing-Nachrichten abgewehrt. (vgl. Zulfikar, Wüest 2007, S. 3) Aus diesen enormen Zahlen lässt sich entnehmen, dass die Motivation für Phishing-Attacken sehr hoch liegt. Deutlich wird das besonders in den Summen, die durch Phishing erbeutet werden: Im Jahr 2006 wurden in Deutschland in „mehr als 3250 Fällen rund 13 Millionen Euro“ von den Konten von Phishing-Opfern abgehoben. (BITKOM (Hg.) 2007 – Zahl der Phishing-Opfer steigt). Die Dunkelziffer dürfte wohl wesentlich höher liegen. Dazu kommt, dass Antiviren- und Sicherheits-Software inkrementell verbessert und aktualisiert wird. Diagnose-Software wird zudem zusätzlich zunehmend direkt in Betriebssystemen und wichtigen Programmen integriert, die in ihrer Grundkonfiguration also in den meisten Fällen ihres Einsatzes ihre Sicherheitsbibliotheken und –Routinen meist täglich aktualisieren. Trotzdem Malware zunehmend unauffälliger daherkommt, hat sie mit den weltweit hochaktuellen Virenbibliotheken der Sicherheits-Software-Hersteller zu kämpfen, womit eine durchgängige weltweite Verbreitung von Schad-Software, um einen Angriff der den beschriebenen Wendepunkt zu bewirken, als sehr unwahrscheinlich zu bewerten ist. 3.5 Ist das Netz bedroht? Zunächst muss man sagen, dass das Netz von jeher bedroht war und sicher auch immer bedroht sein wird. Dass das Internet aus einem militärischen Projekt (dem ARPANET, einem Projekt der Advanced Research Project Agency des US-Verteidigungsministeriums) hervorging spricht sicherlich dafür, dass es von Beginn an auf Sicherheit ausgelegt wurde. Jedoch wurde das Internet tatsächlich nie wie einigen Legenden zufolge militärisch im Kalten Krieg sondern hauptsächlich für zivile Zwecke eingesetzt. Besonders in den Anfängen war der Sicherheitsaspekt stets der gewünschten Flexibilität untergeordnet, was sich bis heute nicht maßgeblich geändert hat.: „one must understand just how deeply computing architectures, both then and now, are geared toward flexibility rather than security, and how truly costly it would be to retool them.“ (Zittrain 2008, S. 40). Allerdings ist die Bedeutung der Sicherheit mit der zunehmenden kommerziellen Nutzung des Internet in den letzten Jahren gewachsen und viel für die Sicherheit getan worden. So wäre E-Banking und E-Government oder die Verlegung von Geschäftsprozessen in’s Internet ohne verschlüsselte Verbindungen undenkbar. Das Interesse von Unternehmen, die auf Software angewiesen sind (und das sind heutzutage sehr viele), legen großen Wert nicht nur die Sicherheit ihrer Kommunikation sondern auch auf die Ausfallsicherheit ihrer Software und Netzwerk-Technik. Da Unternehmen durch solche Ausfälle Unsummen an Kosten entstehen können und auch schnell zum finanziellen Ruin führen können, steht böswilligen Hackern ein gewaltiges Geldgeber-Potential, das viel in der Sicherheits-Technik bewirkt. In der gerade für Internet-Anwendungen bedeutenden und den meisten Servern zu Grunde liegenden Open-Source-Software-Produktion kommt davon unabhängig noch ein weiterer wesentlicher Umstand zum Tragen: An verbreiteten Software-Anwendungen entwickeln in der Regel Entwickler weltweit und daher auch fast rund um die Uhr. Die Richtlinien für die Aufnahme von Entwicklungen in solche Softwareprojekte werden von den Projektbesitzern meist penibel umgesetzt und orientieren sich fast durchgehend an Standards. Für Nicht- Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 15 Programmierer ist dieser Umstand vergleichbar mit der Open-Source-Enzyklopädie Wikipedia. Die Fehlerkorrektur geschieht damit um ein vielfaches (im folgenden Beispiel 114mal) effizienter bzw. schneller als bei Closed-Source-Software: „So fand Coverity bei einer Codeanalyse des Linux-Kernel-Codes mit 5,7 Millionen Codezeilen nur 985 Bugs. Im Vergleich dazu ergab eine durch das CyLab der Carnegie Mellon University durchgeführte Studie, dass eine typische kommerzielle Closed Source-Software zwischen 20 und 30 Bugs pro 1000 Codezeilen aufweist. Mit diesem Bug-Anteil käme man bei 5,7 Millionen Codezeilen auf mehr als 114.000 Bugs. Das sind über 114 Mal mehr Bugs als beim Linux-Kernel-Code.“ (Perrin 2006 – Die Geheimnisse der Open-Source-Sicherheit, S. 3) Dies spiegelt sich auch in der zunehmenden Verbreitung von Open-Source-Software (z.B. Open Office oder Mozilla Firefox) wieder. (Laut Browser-Statistik.de hat Mozilla Firefox Microsofts Internet Explorer mit einem Nutzeranteil von 55.9% bereits von der Spitze abgelöst) In gewisser Weise kann damit die Open-Source-Software und damit auch das Internet als selbstheilend betrachtet werden. Ein weiterer Punkt, der diese Selbstheilungskraft unterstützt, soll an dem Beispiel des Autors des ersten Internetwurms „Morris-Wurm“ exemplarisch aufgezeigt werden: Im November 1988 setzte der Informatiker Robert Morris, Sohn des Leiters des zur National Security Agency gehörenden National Computer Security Centers zu dieser Zeit, den ersten Internetwurm Morris frei. Nachdem er Mitte 1989 als Freisetzer des Wurms identifiziert worden war wurde er 1990 zu einer Bewährungsstrafe, 400 Stunden sozialer Arbeit und zur Zahlung von 10.000 US-Dollar Geldstrafe sowie 150.000 US-Dollar Gerichtskosten verurteilt. Seine Karriere war damit keinesfalls ruiniert. Morris wechselte von der Cornell University nach Harvard, gründete 1995 ein dot com Startup (Viaweb), das er 1998 für 49 Millionen US-Dollar an Yahoo! verkaufte, beendete seinen Abschluss und ist nun Professor am MIT-Institut. (Zittrain 2008, S.39) Aus dieser Geschichte, die exemplarisch für die Geschichte vieler ehemaliger Hacker steht, ist zu erkennen, dass die Gesellschaft Hackern zwar meist feindselig gegenüber steht, sie aber in Sicherheitsfirmen und Experten-Kreisen hoch angesehen und vor allem begehrt sind, da sie über ein hohes Wissen über Sicherheitsaspekte verfügen. Aus diesen drei für sich allein schon gewichtigen Punkten sowie den in 3.1, 3.2, 3.3 und 3.4 erwähnten Gegenargumenten zu den jeweiligen Szenarien lässt sich erkennen, dass der oftmals prophezeite Untergang des Internet kaum als realistisch zu sehen ist. Die Tatsache, dass das Internet keine Feinde hat, die ihm tatsächlich gefährlich werden könnten oder wollten und die daraus resultierende stetige Weiterentwicklung der Technologie bestärkt das Internet viel mehr in seiner Verbreitung. Das heißt allerdings nicht, dass das Internet in Zukunft so bleibt, wie wir es kennen, denn das Netz hat nicht nur Auswirkungen auf soziale Gegebenheiten sondern die Nutzer und Entwickler selbst haben den weit größeren Einfluss auf das Wesen des Internets. Die neuen Anforderungen aus allen Richtungen an das Netz, werden es sich sogar gravierend wandeln lassen. Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 16 4. Das Internet der Zukunft 4.1 Neue Nutzer Im Jahr 2005 stellte der ehemalige MIT-Media-Lab-Direktor Nicholas Negroponte das Projekt One Laptop Per Child (OLPC) vor. Ziel des Projektes ist es Laptops herzustellen, die so preisgünstig sind, dass sie von Spendern in den Industriestaaten problemlos finanziert werden können, um Kinder der Dritten Welt mit diesen Laptops auszustatten. Ziel sei dabei nicht das bloße Verteilen von Laptops sondern die Ausstattung der Kinder mit Laptops als Schlüssel zur Bildung. Die XOs sind speziell für die Bedürfnisse der Kinder in Entwicklungsländern ausgelegt: Die Laptops sind extrem robust und einfach gebaut, verfügen über Flash-Speicher anstatt Festplatten und nur zwei interne Kabel, Pivot-LCD-Displays mit Monochrom-Modus für den Einsatz bei starker Sonneneinstrahlung, widerstandsfähige Touchpads und WLAN-Antennen, die auch noch im ausgeschalteten Zustand Aufgaben im vermaschten Netz wahrnehmen können, sind fehlertolerant aufladbar (Z.B. über einen Dynamo, Autobatterien o.ä. – von -32 bis 40V Toleranz), Kratz- und Staubfest. Außerdem verfügen sie über technisch aktuelle Ausstattung wie integrierte Video-Kameras, Lautsprecher und sind extrem handlich und leicht (ca. 25cm x 23cm x 3,2cm und 1,5KG). Zusätzlich zu dieser speziellen Ausstattung sind die XOs mit einem eindeutig für Kinder gestalteten Design (Abgerundete Ecken, grelle Farben, entsprechend dimensionierte Peripherie) um den Raub und Handel auf dem Schwarzmarkt entgegenzuwirken. Das Betriebssystem baut auf Linux auf und ist extrem einfach zu bedienen. Mit dem XO können Kinder sämtlichen schulischen Aktivitäten von Sport abgesehen nachgehen: Lesen, Schreiben, Rechnen, Zeichnen, Musik erlernen, Physik verstehen (z.B. mit Hilfe eines Mess-Programms, dass Größen wie Strom, Lautstärke u.a. graphisch darstellen kann) und Astronomie. Für die älteren Kinder sind jede Menge unterschiedlich komplexe spielerische Programmierumgebungen implementiert. Das Betriebssystem hat mit in den Industrieländern gewohnten Betriebssystemen recht wenig gemein. Z.B. dient der Mauszeiger einem anderen Zweck: Wird er in die Mitte des Bildschirms bewegt, erscheinen Optionen für den Computer, wird er in eine Ecke bewegt, werden Interaktionen mit Computern in der Umgebung oder der Community im Großen möglich. Trotzdem die Laptops mit allen üblichen Anwendungen, wie Internt-Telefonie, Video-Streaming, Messenger, InternetBrowser und Medienwiedergabe ausgeliefert werden, sind sie hauptsächlich für die Bildung ausgelegt, setzt allerdings nicht mit der in Industrieländern gewohnten SchulbuchLernmethode sondern an der auch unter dem Begriff Konstruktivismus bekannten LehrTheorie des Media Lab-Visionärs Seymour Papert an. Diese zieht das Erlernen des Lernens durch Aktivitäten, die sich auf den normalen Alltag beziehen der bloßen Vermittlung von Fakten und abstrakten Fähigkeiten im klassischen Modell. Die Schüler sollen motiviert werden, ihre eigenen Computer umprogrammieren zu können, auch wenn sie nebenbei erst lesen und schreiben lernen. Es gibt nur wenige Trainer, die die tausenden Schulen abdecken, die als Verteil-Zentren der Laptops fungieren und deren Training-Funktion beschränkt sich mehr darauf, die Installation und Funktionalitäten der Schulserver abzusichern. Es wird also von den Kindern erwartet, dass sie sich zur Handhabung und Programmierung ihrer Laptops Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 17 selbst austauschen und helfen. Z.B. sollen die Programmierkenntnisse der Kinder u.a. durch eine Taste gefördert werden, die es jederzeit ermöglicht den Quellcode jedes Programms einzusehen. Das nach all diesen Besonderheiten jedoch interessanteste Merkmal der XOs in Bezug zum Thema Internet sind ihre Netzwerkfähigkeiten: „Über das mobile Mesh-Netzwerk (auch als mobiles Ad-hoc-Netz bezeichnet) vernetzen sich automatisch die in Reichweite befindlichen Laptops miteinander über WLAN, ohne dass manuelle Konfiguration erforderlich wäre. Damit entsteht ein lokales Netz. Das Zuweisen einer IP-Adresse für das ineinandergreifende Netz erfolgt automatisch. Folglich ist kein Administrator oder eine zentrale Verwaltung der IPAdressen erforderlich.[21] Somit würde der automatische Netzwerkaufbau auch die automatische Einrichtung eines Schulnetzwerkes bzw. eines Netzwerkes für eine bestimmte Unterrichtsstunde ermöglichen, ohne vertiefte Computerkenntnisse über Soft- und Hardware. Zudem ist der Laptop, neben dem unmittelbaren Datenaustausch, für netzwerkbasierte Videogespräche, Telefongespräche, und Netzwerk-Chat geeignet. Die XO-Nutzer können nicht nur lokal das Funknetz nutzen. Soweit ein zentraler Internetzugang in der Schule vorhanden ist, können sich die Laptops über WLAN in das globale Internet „einklinken“. Der XO-Laptop verwendet dabei bereits das neue Internetprotokoll IPv6. Damit ist es jederzeit möglich, das Internet als Informationsquelle heranzuziehen. Wissensaneignung soll daher nicht nur auf reine Datenabfrage beschränkt sein, sondern beinhaltet auch die Nutzung des Internets als Kommunikationsmedium (z.B. Soziale Netzwerke, Chat, E-Mail). Durch spontane Bildung von beliebigen Netzwerken ermöglicht das technische Netzwerk auch die Bildung und Vertiefung von sozialen Netzwerken. Kinder sind damit in der Lage, durch Verwendung und bei Bedarf spontane Neubildung des lokalen, aber mobilen Mesh-Netzwerkes, die Zusammenarbeit und soziale Interaktion untereinander auf neue Art und Weise kennenzulernen. Kinder sollen in der Lage sein, je nach dem zu lösenden Problem und selbst über eine gewisse Distanz, Arbeitsgemeinschaften durch spontane Neuvernetzung zu bilden. Aufgrund seines geringen Gewichts und der erheblichen Reichweite des Funknetzwerkes können sich die Kinder auch außerhalb der Schule miteinander vernetzen. Somit kann soziale Interaktion mittels Netzwerken und damit die Bildung von Wissensnetzen auch außerhalb der Schule erfolgen. Als weiterer positiver Aspekt wird gemäß den Befürwortern von freien Funknetzen angeführt, dass durch „PicoPeering-Vereinbarungen“ und die gemeinsame Verantwortung eines Wohnviertels für die Funktionsfähigkeit des WLAN die nachbarschaftliche Solidarität und Bürgerinitiative gefördert werden.“ (Wikipedia (Hg.) 2009 – OLPC XO-1) So verließen im November 2006 die ersten XO genannten Laptops die Produktion. Im Februar 2007 wurden die ersten XOs verteilt, im März das erste mobile Ad-Hoc-Netzwerk und im April 2007 der erste Schul-Server eingerichtet. Seitdem wurden bis zum heutigen Tag ca. 350.000 XO-Laptops in 26 Länder (z.B. Uruguay, Peru, Mexico, Afghanistan, Ruanda, Kambodscha, Thailand) ausgeliefert bzw. bestellt. Da die XOs von Haus aus mit einem freien Betriebssystem mit integrierten Antivirus-Funktion, geringer bis keiner Schad-SoftwareAnfälligkeit und erweiterten Sicherheitsrestriktionen versehen sind, sind sie gegenüber den Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 18 Krankheiten, gegen die herkömmliche PCs aufwendig geschützt werden müssen, kaum anfällig. Trotz ihrer generischen Natur (automatische Vernetzung, Möglichkeit für die Kinder in die Programmierung der Software einzugreifen) ist die Struktur der OLPC-Netze doch mit Merkmalen der „Angebundenen Anwendungen“ (Begriff wurde geprägt von Jonathan L. Zittrain) versehen: Zwar wird der Inhalt, den die Kinder über das Internet abrufen, nicht gefiltert, jedoch haben die Entwickler die XOs mit einer Funktion versehen, die das externe Sperren eines Gerätes bei Diebstahl oder Missbrauch ermöglicht. Die XOs sind sowohl generisch als auch angebunden, da sie extern aktualisiert, kontrolliert und deaktiviert werden können. Die XOs sind mit dem Gedanken der Generik gestaltet und akribisch darauf ausgelegt, von Menschen, die weder lesen noch schreiben können, bequem benutzt aber auch programmiertechnisch modifiziert werden zu können. Es wird ausgesprochen interessant, welche technischen Neuerungen die neuen Nutzer auf diese Weise entwickeln und wie sich der schnelle Zuwachs von weitestgehend ungebildeten Kindern und Jugendlichen im Internet auf die Gegebenheiten im Internet und auf diese Menschen selbst auswirken werden. Der bisherige Erfolg des OLPC jedenfalls spricht sehr für eine Verbesserung der Bildungschancen in den unterstützten Gebieten. Der InformatikWissenschaftler Gene Spafford schrieb: „We can’t defend against the threats we are facing now. If these mass computer giveaways succeed, shortly we will have another billion users online who are being raised in environments of poverty, with little or no education about proper IT use, and often in countries where there is little history of tolerance (and considerable history of religious, ethnic and tribal strife). Access to eBay and YouTube isn’t going to give them clean water and freedom from disease. But it may help breed resentment and discontent where it hasn’t been before. Gee, I can barely wait. The metaphor that comes to mind is that if we were in the ramp-up to the Black Plague in the middle ages, these groups would be trying to find ways to subsidize the purchase of pet rats.“ (Spafford 2007 – Re: $100 laptops from HRD) Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 19 Ein mobiles Ad-Hoc-Netzwerk mit InternetAnbindung (Quelle: http://wiki.laptop.org/go/Image:802.11s_5.jpg) Der OLPC XO 1 (Quelle: http://laptop.org/en/laptop/) 4.2 Neue Software Grundlage der Voraussagen für die Zukunft der Software im Internet sind die in Kapitel 2 erläuterten Prinzipien des Web 2.0 in Verbindung mit dem Begriff der „Angebundenen Anwendungen“ Zittrains. Dieser sieht als größte Anforderungen an das Internet der Zukunft die Sicherheit der Nutzer. Seine zentrale These ist, dass die bisherige Form des PC und dessen Betriebssystems, die größten Sicherheitsprobleme mit sich bringt. Da jeder Nutzer sein Betriebssystem um etliche Programme von Drittanbietern erweitern kann, ist es nicht verwunderlich, dass viele Anwender zum Einen unabsichtlich fehlerhaft programmierte und zum Anderen bösartige Software installieren können. Die Folgen solcher Installationen können nicht nur für den Anwender selbst sondern auch für andere Teilnehmer im Netz fatale Folgen haben. Das ist insbesondere dann der Fall, wenn Nutzer Spyware oder Badware installieren, die es Hackern ermöglicht, die Kontrolle über den Rechner zu übernehmen und von da aus Angriffe auf andere Rechner im Netzwerk vorzunehmen. Zwar steht dem wie in 3.4 erläutert, eine große Macht der Antiviren- und Sicherheits-Software gegenüber jedoch lösen diese nicht die Ursachen des Problems sondern kämpfen hauptsächlich gegen die Folgen an. Neben diesem wichtigen Aspekt führen auch andere vom PC als Plattform zum Web als Plattform: Die Installation von PC-basierter Software ist häufig mit Problemen verbunden, gerade, wenn es sich dabei um systemnahe Software, die aktiv in die Systemkonfiguration eingreift und verursacht daher in Unternehmen ohne serverbasierte Betriebssysteme hohe Kosten und dem Privatanwender Ärger. Bei vielen v.a. kostengünstigen PC-Produkten sind die Komponenten Soft- und Hardware-seitig oft schlecht aufeinander abgestimmt, was wiederrum zu Ausfällen führt. Ist ein PC-System heutzutage von SchadSoftware befallen, hilft oft nichts anderes, als das System komplett neu aufzusetzen, was einen enormen Aufwand und meist auch den Verlust wichtiger Daten bedeutet. Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 20 All diese Punkte sind bei Webanwendungen nicht mehr zu erwarten, da die Pflege der Anwendungen serverseitig Experten unterliegt und diese wesentlich besser in der Lage sind, ihre Softwareprodukte aktuell zu halten und Fehler zu korrigieren. Dies bedeutet für den Anwender, dass er stets mit aktueller Software arbeitet und die Softwarequalität und Störsicherheit drastisch verbessert wird. Betriebssysteme werden zwar auch in Zukunft weiterhin eine wichtige Rolle spielen jedoch wird sich diese Rolle verändern, indem sie Nutzern wesentlich weniger Gelegenheit geben werden, Software von unbekannten Herausgebern zu installieren. Nach dem Vorbild Apples und Dells werden Betriebssysteme in Einheit mit dem Gerät und gut darauf abgestimmt geliefert werden. Damit wird dem Chaos, das durch die Unzahl an Software, die nicht vom Betriebssystem-Anbieter selbst stammt, entgegengewirkt. Selbstverständlich kann diese Umstellung nicht abrupt stattfinden sondern wird vielmehr ein stetiger Prozess sein, in dem Webapplikationen immer mächtiger und die Betriebssysteme immer sicherer werden. Ein Grund logischer Natur für diese Entwicklung liegt darin, dass Benutzer mit einer Vielzahl an Geräten (PC, Notebook, Handy und mehr) mit den jetzigen Gegebenheiten jeweils mit den notwendigen Programmen ausstatten und die Daten regelmäßig synchronisieren müssen. Eine Verlegung der Applikationen ins Internet und dem Betriebssystem als Zugang dazu bedeutet auch die Lösung dieses Problems und vermeidet redundante Daten, zusätzlichen Aufwand und Kosten. Das Beispiel des iPhones sieht Zittrain als exemplarisch für das zukünftige Software-Modell an: „It is sterile. Rather than a platform that invites innovation, the iPhone comes preprogrammed. You are not allowed to add programs to the all-in-one device that Steve Jobs sells you. Its functionality is locked in, though Apple can change it through remote updates. Indeed, to those who managed to tinker with the code to enable the iPhone to support more or different applications, Apple threatened (and then delivered on the threat) to transform the iPhone into an iBrick. The machine was not to be generative beyond the innovations that Apple (and its exclusive carrier, AT&T) wanted. Whereas the world would innovate for the Apple II, only Apple would innovate for the iPhone. (A promised software development kit may allow others to program the iPhone with Apple’s permission.)“ (Zittrain 2008, S. 2) Steve Jobs, der Gründer und Geschäftsführer von Apple, selbst bemerkt dazu: „We define everything that is on the phone. [...] You don’t want your phone to be like a PC. The last thing you want is to have loaded three apps on your phone and then you go to make a call and it doesn’t work anymore. These are more like iPods than they are like computers.“ (Steve Jobs; Markoff 2007 ) Doch nicht nur die Nutzer werden das Internet als Plattform nutzen, sondern auch die Applikationen selbst. Betriebssysteme und deren installierte Software werden zunehmend mit den Hersteller-Servern kommunizieren um sich zu aktualisieren, Fehler zu berichten und sogar das Nutzerverhalten an die Hersteller weiterzuleiten (Laut den Herstellern, um die Qualität ihrer Produkte stetig zu verbessern). Das Internet spielt dabei eine zentrale Rolle. Für Webapplikationen gilt ähnliches: Die Software wird zunehmend verteilt. Auch in Folge der Asymmetrie des Besitzes an Daten, wird zunehmend auf die APIs (Application Programming Interfaces) von anderen Anbietern (z.B. Google Maps) zurückgegriffen und Daten über spezielle Transport-Formate ausgetauscht, was eine hohe Dynamik und kurze Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 21 Entwicklungszeit neuer Anwendungen zur Folge haben wird. Für die Nutzer wird dies v.a. im breiten Angebot an Webanwendungen spürbar. Durch die zunehmende Transparenz und ungeklärten Eigentumsrechte von Daten wird der Datenschutz zu einem zentralen Thema werden und die Nutzer werden zunehmend empfindlicher auf dieses Thema reagieren. Dadurch werden auch Dienstleister der Sicherheits-Branche in der Zukunft durchaus eine Daseins-Berechtigung haben. Die in Kapitel 2 erläuterten Prinzipien im Web 2.0 gelten schon heute als Manifest für moderne Software-Entwicklung und werden in der Zukunft wahrscheinlich vermehrt Anwendung in der Praxis finden. 4.3 Neue Technologie Die zunehmende Bedeutung des mobilen Internets zeigt sich schon heute und wird sich in der Zukunft mit hoher Wahrscheinlichkeit verstärken. Laut der PEW-Studie 2008 erklärte sich der Großteil der Befragten mit dieser Voraussage einverstanden. Gründe dafür lägen im Bedürfnis der Menschen, auch mobil mit dem Internet verbunden zu sein. Die KostenEffizienz und der unkomplizierte Zugang zum Internet führen dazu, dass mobile Geräte für viele Menschen und gerade für Menschen in ärmeren der einzige Zugang zum Internet sein werden. Die Leistungsfähigkeit mobiler Geräte wird weiterhin zunehmen und den PC damit in vielen Einsatzfällen ersetzen. Viele Experten befürchten allerdings, dass Beschränkungen durch Regierungen oder Unternehmen, die einen höheren Einfluss anstreben, die Entwicklung in einigen Ländern behindern könnten. „this scenario’s predicted benefit of “effortless” connectivity is dependent on corporate and government leaders’ willingness to serve the public good.“ (vgl. Quitney Anderson; Rainie 2008, S.25-37) Die Peripherie-Elemente der Zukunft werden Sprache, Bewegung und Berührung sein. Die Menschen werden sich mit hoher Wahrscheinlichkeit daran gewöhnen, dass Menschen ihre Geräte in der Öffentlichkeit mit Befehlen über die Sprache oder Bewegung steuern werden. Berührungsempfindliche Displays werden in der Zukunft zunehmend von Bedeutung sein und Peripheriegeräte wie Maus und Tastatur vollständig ersetzen. Die schon heute fortgeschrittene Technologie der Bewegungserfassung wird in Zukunft in Verbindung mit Kameras wahrscheinlich die Steuerung und Bedienung revolutionieren und einen intuitiveren Umgang mit Software ermöglichen. Die hochentwickelte elektronische Bildverarbeitung wird in Verbindung mit interaktiven 3D-Kartendaten und weiteren Daten zu einem wichtigen Bestandteil der „Erweiterten Realität“ (Augmented Reality). So gibt es z.B. schon heute ein Programm (Wikitude) für Googles Smartphone-Plattform „Android“, das das Kamerabild eines Smartphone mit Informationen zu den sichtbaren Sehenswürdigkeiten überlagern kann. Diese Informationen werden aus Wikipedia-, Qype- und Panoramio-Daten gewonnen, die mit der GPS-Position und Adressen abgeglichen werden: Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 22 Das Programm Wikitude im Einsatz, Quelle: http://www.mobilizy.com/wikitude.php Auch wenn die Entwicklung der Technologie schwer abzusehen ist, ist jedoch eines klar vorauszusehen: Die Infrastruktur des Internets wird in Zukunft mit dem Wachstum des Internets zunehmend ressourcenlastiger. Bereits im Jahr 2005 betrug der weltweite Energieverbauch durch Server und deren Kühlung einer Studie des Lawrence Berkeley National Laboratory zufolge 123 Billionen Kilowatt-Stunden, was Stromkosten in Höhe von 7.2 Billionen US-Dollar und einem Anteil von 0.8% am weltweiten Energieverbrauch entspricht. Dieser Verbrauch hat sich damit von 2005 bis 2007 mehr als verdoppelt. Der Autor des Berichts Jonathan Koomey spricht von 16% Wachstum des Energiebedarfs jährlich durch Server. Im Jahr 2010 würde der Energiebedarf durch Server um 76% höher sein als 2005. Zusätzliche Rechentechnik wie Speicherarrays und Vermittlungstechnik (die laut Koomey den dreifachen Energieverbrauch der Server haben) sowie die PCs, Notebooks und Smartphone der Anwender sind in dieser Studie nicht berücksichtigt. Dennoch wird deutlich, dass das Internet in Zukunft wesentlich mehr Energie verbrauchen wird, was deutliche Verbesserungen in der Stromerzeugung erfordert. Falls die Energieerzeugung in der Zukunft nicht deutlich umweltfreundlicher wird, könnte das Internet somit auch die Umwelt und das Klima zusätzlich belasten. Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 23 Der Gesamtenergieverbrauch von Servern in den USA und weltweit, Quelle: Koomey 2007 Gleichfalls betrifft das Wachstum des Internets auch die Vermittlungstechnik. Wie in 3.1 erläutert ist die zunehmende Anzahl an Nutzern in der Internetschicht des OSIReferenzmodells mit IPv6 ausreichend berücksichtigt. Die der Netzzugangsschicht zugrunde liegende Technik sprich die internationalen Leitungen müssen jedoch in Zukunft ausgebaut werden um die Versorgung mit hoher Geschwindigkeit weltweit zu gewährleisten. 4.4 Neue Wirtschaft Die schon in Kapitel 2 erwähnten Änderungen, die unter dem Begriff Web 2.0 bekannt sind, werden in der Wirtschaft tiefgreifende Veränderungen zur Folge haben. Als Hauptursache kann der Wechsel vom PC zum Internet als Plattform gesehen werden. Dadurch, dass Software in Form von Webapplikationen zunehmend ins Internet verlagert wird, werden neue Firmen den Markt erobern und alte Unternehmen bedrohen, falls sich diese dem Trend nicht anpassen können. Weiterhin führt die Verfügbarkeit von Daten über die ebenfalls erwähnten Webservices zu einer schnellen Entwicklungszeit von Mashups, was die Entstehung neuer Firmen zusätzlich bestärkt. Als eines der vielen Beispiele solcher Mashup-Services wurde die Augmented-Reality-Software Wikitude genannt. Die Entwicklung von Software vom Produkt zum Service führt dazu, dass Software-Firmen im Web 2.0 rentabler wirtschaften können, da sie zum Einen vor dem Diebstahl durch gecrackte Software geschützt sind und zum Anderen stets Einfluss auf die Software haben, was den Support wesentlich vereinfacht. Sie ermöglicht außerdem die Entstehung neuer Geschäftsideen mit neuen Geschäftsmodellen. Als eines dieser Geschäftsmodelle zeichnet sich schon heute der „Premium-Service“ ab, den Web 2.0 Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 24 Firmen zusätzlich zu ihrem kostenfreien Angebot meist mit verbessertem Support und mehr Funktionen anbieten. Das Internet führte in der jüngeren Vergangenheit schon zu tiefgreifenden Veränderungen, indem Anbieter ihre Waren zunehmend auch in Online-Shops anboten. Für viele Firmen ist der Verkauf über das Internet die Haupteinamequelle (z.B. Amazon). Angebote wie EBay ermutigen auch Unternehmen ohne eigene IT-Abteilung ihre Produkte im Internet anzubieten. Dieser Trend wird auch in der Zukunft anhalten. Durch die wirtschaftliche Erschließung des Internets gewinnt auch die Werbung im Internet zunehmend an Bedeutung und Effizienz. Eine neue Form der Werbung, das so genannte „Behavioral Targeting, gewinnt dabei zunehmend an Einfluss. Das „Behavioral Targeting“ nutzt Daten über das Verhalten der Nutzer, um ihnen personalisierte Werbung anzubieten. Diese Daten können in unterschiedlichster Form gewonnen werden: So wird z.B. Werbung bei der Google-Suche auf den Suchbegriff abgestimmt angezeigt und in Googles GMail werden die Nachrichten nach Schlagworten durchsucht und auf diesen basierende Werbung eingeblendet. (Google (Hg.) 2009 – About Gmail) Laut einer Expertenbefragung der Arbeitsgemeinschaft Online Forschung (AGOF) ist die Werbefinanzierung aufgrund der „Umsonst-Kultur“ im Netz das Geschäftsmodell schlechthin und kostenpflichtige Inhalte werden auf bestimmte Bereiche beschränkt bleiben. Die Experten sind sich allerdings auch weitestgehend einig darüber, dass die klassischen Werbeformen trotz Entstehung neuer Werbeformen erhalten bleiben werden, da diese die „notwendige Trennung von Werbung und Content“ böten. Mit der These in der PEW-Studie im Jahr 2008, dass der Copyright-Schutz in der Zukunft inhaltliche Kontrolle zur Folge haben könnte, erklärte sich der Großteil der Experten (60%) nicht einverstanden. Dies wäre nicht wahrscheinlich, weil die Methoden zum Schutz des geistigen Eigentums auf der einen Seite nicht allgemein akzeptiert werden und auf der anderen Seite immer Menschen in der Lage sein werden, Schutzmechanismen zu umgehen und allgemein verfügbar zu machen. 4.5 Neue Gesellschaft Oft wurde die Zukunft der Gesellschaft im Netz pessimistisch gesehen und die soziale Verarmung oder zunehmende Vereinsamung Einzelner prognostiziert. In einer Studie des Stanford Institute for the Quantitive Study of Society (SIQSS) gaben allerdings 90% der Internet-Nutzer an, trotz der Internet-Nutzung nicht weniger Zeit mit Freunden und Familie zu verbringen (vgl. UCLA 2003, S. 62). So muss diese Behauptung sicher kritisch gesehen werden. Dies zeigt sich auch an den zunehmenden Community-Plattformen wie StudiVZ, Facebook oder Twitter, die sich allgemein großer Beliebtheit erfreuen. Ein wesentlicher Aspekt des Internet der Zukunft wird die Kommunikation sein. Dass die Kommunikation dabei nicht unbedingt auf die geschriebene Form begrenzt sein könnte, lässt sich aus dem zunehmenden Einsatz der Sprachsteuerung herleiten. Ein wesentliches Problem sind Gräben, die das Internet auftut und von denen bereits jetzt drei sichtbar sind. So entsteht durch die ungleichen Chancen auf Internet-Zugänge eine „Zwei-Klassen-Gesellschaft“ einer privilegierten Nutzerschaft mit Internet-Zugang und einer Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 25 benachteiligten Mehrheit ohne (vgl. Dholakia, Kshetri 2002). Mit der zunehmenden Verbreitung nimmt dieser Unterschied auch aufgrund der möglichen Mehrfachnutzung von Internet-Zugängen (z.B. in Internet-Cafés, öffentlichen Einrichtungen oder über Nachbarn) allerdings ab, was durch eine Studie des Bundesverbands Informationswirtschaft Telekommunikation und neue Medien BITKOM bestätigt wird: Die Anzahl der Internetnutzer hat sich demnach von 600 Millionen 2002 auf 1,23 Milliarden 2007 verdoppelt. Das Anzahl der Internet-Nutzer wachse jährlich um 7,7% und verstärkt in Ländern außerhalb der USA, Europa und Japan. (vgl. BITKOM 2007) Der zweite Graben besteht zwischen den Generationen, der sich laut Prof. Dr. Urs Gasser jedoch zunehmend vermindert. „Mehr Sorgen bereitet uns der dritte Typ: Innerhalb der jungen Generation tut sich eine neue Kluft auf, nämlich zwischen jenen, die wissen, wie man in der Welt des Cyberspace navigiert, und solchen, denen die nötige Erfahrung mangels Ausbildung oder wegen beschränkter OnlineZeit fehlt. Dies kann längerfristig verheerende Konsequenzen haben.“ (Pregel 2009, S. 1). Weltweite Bestrebungen in der Politik, all diesen Unterschieden durch Fördermaßnamen unterschiedlicher Art entgegenzuwirken, sind jedoch vorhanden. (vgl. Fritz 2004, S.77-78) Die Entwicklung zur Informationsgesellschaft ist mit der zunehmenden Verbreitung des Internet nicht mehr von der Hand zu weisen. So nutzen bereits heute 93% der 14-19jährigen das Internet. „Die Informationsgesellschaft ist unter anderem gekennzeichnet durch den fast unbegrenzten Zugang ihrer Mitglieder zu Informationen und Wissensbeständen aller Art. Der Besitz von Informationen ist immer weniger ein Privileg einzelner, etwa der Führung eines Unternehmens oder einer politischen Institution. Das neue Zeitalter demokratisiert somit den Zugang zu Informationen und Wissen. Im Prinzip könnte das gesamte Wissen der Menschheit über das Internet jedermann zugänglich gemacht werden. In dem Maße, in dem dieses Wissen genutzt wird, wandelt sich die Informations- zur Wissensgesellschaft. […] (Die) zunehmende Vernetzung der Kommunikationsprozesse überschreitet nationale Grenzen und trägt zur Transformation unserer Welt in ein Global Village bei. […] Sie bildet darüber hinaus einen Zwischenschritt auf dem Weg zu einer umfassenden Netzwerkgesellschaft, einer Gesellschaftsvision, die dem Soziologen Manuel Castell zufolge eine Welt global vernetzter Informations- und Kapitalströme beschreibt.“ (Fritz 2004, S.72-73) Außerdem existiert ein Trend zur Erlebnisgesellschaft, mit deren Begriff ein gesellschaftlicher Wandlungsprozess gemeint ist, in dem das Leben zum Erlebnisprojekt wird: „Zunehmend ist das alltägliche Wählen zwischen Möglichkeiten durch den bloßen Erlebniswert der gewählten Alternative motiviert: Konsumartikel, Essgewohnheiten, Figuren des politischen Lebens, Berufe, Partnerm Wohnsituationen, Kind oder Kinderlosigkeit“ (Schulze 1992, S.13) Dass die Menschen ihr Handeln zunehmend an dem Ziel „schöner Erlebnisse“ ausrichten, führt dazu, dass Medien, die einen solchen Erlebniswert bieten, auch zunehmend genutzt werden. Das Internet ist im Begriff, das Wichtigste dieser Medien zu werden oder ist es bereits. 5. Zusammenfassung Das Internet hat seit seiner Erfindung die Gesellschaft, Technik und Wirtschaft tiefgreifend verändert. Der schnelle Austausch von Daten und deren Verfügbarkeit für jeden Nutzer hat Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 26 einen wesentlichen Einfluss auf das Leben der Menschen. Diese Entwicklung wird in der Zukunft mit hoher Wahrscheinlichkeit anhalten. Den erwähnten Umfragen ist gemein, dass darin hauptsächlich positive Entwicklungen bestätigt werden. Dennoch birgt die Zukunft viele mögliche Gefahren, wie z.B. Suchtgefahr, mangelnden Kinder- und Jugendschutz, Kluften zwischen Arm und Reich sowie Realität und Virtualität, mangelnden Schutz geistigen Eigentums und privater Daten und andere Probleme. Es ist jedoch zu beobachten, dass sich in der digitalen Welt zunehmend auch regulierende Instanzen wie Politik und Gesetz stark machen und gemeinsam mit den „Netizens“ versuchen, schlechten Entwicklungen entgegenzuwirken. Die wirtschaftliche Erschließung des Internets führt zudem zu einem sehr entscheidenden Kriterium für die Zukunft: Da das Internet sehr hohe wirtschaftliche Bedeutung erlangen wird, ist das Interesse der resultierenden Lobbys, diese Plattform zu schützen, entsprechend hoch und führt zu einer gewissen Sicherheit des Internets. Selbstverständlich beinhaltet diese Sicherheit nicht die Form des Internets jedoch ist abzusehen, dass der Nutzer in Zukunft auf ein ähnlich hohes kostenfreies Angebot wie heute zurückgreifen kann. Bestärkt wird dies mit der zunehmenden Open-Source-Moral der Nutzer, die sich nicht nur auf Software-Entwicklung sondern auch auf Inhalte erstreckt. Da sich Anbieter kommerzieller Inhalte und Anwendungen dem Druck einer solchen Mentalität gegenüberstehen sehen werden, wird sich die Art und Weise derer Geschäftsmodelle entsprechend ändern müssen. Die zunehmende Verbreitung des Internets führt außerdem dazu, dass das Internet noch globaler wird, da sich durch die sinkenden Kosten von Netzzugängen und Initiativen wie OLPC zunehmend auch ärmere Nutzer im Internet wiederfinden werden. Gemeinsam mit den neuen Nutzern wird sich durch die Entwicklung des Internets zur Plattform auch eine Vielzahl neuer Geschäftsmodelle und Firmen am Markt etablieren. Die Schwierigkeit im neuen Netz wird hauptsächlich darin bestehen, die Standards, die immer schneller gesetzt werden, und die Vielzahl an neuen Ideen in die Realität umzusetzen und die Auswirkungen auf Probleme wie Datenschutz und Gleichverteilung angemessen zu berücksichtigen. Es besteht die Gefahr, dass wirtschaftlich starke Unternehmen wie z.B. Google und Amazon von der breiten Masse unbemerkt Vormachtstellungen einnehmen, die es schwer werden lassen, deren Macht angemessen zu regulieren. Dies betrifft insbesondere Software-Patente und Daten. Letztere werden in der Zukunft zum entscheidenden MachtInstrument, indem sie eine hohe wirtschaftliche Bedeutung erlangen. Da zunehmend eine Vielzahl an Aktivitäten über das oder mit dem Internet stattfinden und der Mensch dabei zum voll überwachbaren Objekt wird, sind verbindliche Regelungen zum Datenschutz und die Sensibilität der Menschen für dieses Problem von höchster Dringlichkeit. Es bleibt abzuwarten, wie sich diese Probleme in Zukunft entwickeln. Die wachsende Bedeutung des mobilen Internets wird zu einer Vermengung von Alltag und Internet führen und das Internet für eine Vielzahl neuer Einsatzbereiche interessant zu machen. In Einheit mit neuen Eingabemethoden wie z.B. Sprachsteuerung wird damit eine wesentlich höhere Vernetzung in viel mehr Bereichen möglich sein. Die „Augmented Reality“ Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 27 ist eine Folge dessen. Es werden durch Quelloffenheit und Programmierschnittstellen schnell Software-Lösungen entwickelt werden können, die diese neuen Bereiche abdecken. Das Internet wird in jede Richtung wachsen: Schnelligkeit, Größe, Verbreitung, Akzeptanz und Wirtschaftlichkeit sind einige davon. Dabei ist es jedoch wichtig, dass der Mensch und seine Rechte in dieser Welt ausreichend geschützt werden. 6. Literaturverzeichnis Agof; IVW; INFOnline (Hg.) (2008): Die Zukunft des Internet. Online verfügbar unter http://www.agof.de/omd-2008-agof-ivwinfonline.download.ad25d6a337f503bc30b3c2fc04b31909, zuletzt aktualisiert am 18.09.2008. BITKOM (Hg.) (2007): Zahl der Phishing-Opfer steigt in Deutschland weiter. Online verfügbar unter http://www.bitkom.org/47755_47739.aspx, zuletzt aktualisiert am 29.08.2007. BITKOM (Hg.) (2007): Fast jeder fünfte Mensch ist online. Online verfügbar unter http://www.bitkom.org/46074_46069.aspx, zuletzt aktualisiert am 23.05.2007. Browser-Statistik.de » Mit welchem Browser wird gesurft? (2009). Online verfügbar unter http://www.browser-statistik.de/, zuletzt aktualisiert am 28.02.2009. Dholakia, Nikhilesh; Kshetri, Nir B. (2002): The Webs and the Web-nots in the Global Economy. Online verfügbar unter http://ritim.cba.uri.edu/working%20papers/Fritz-2nd-edWebs-Web-nots-v3%5B1%5D.pdf, zuletzt aktualisiert am 10.04.2002. Elon University; PEW Internet; American Life Project (Hg.) (2004): Predictions Database. Online verfügbar unter http://www.elon.edu/predictions/q9.aspx, zuletzt aktualisiert am 24.02.2009. Fiutak, Martin (2004): Experten: Internet steht vor dem Zusammenbruch. ZDNet.de. Online verfügbar unter http://www.zdnet.de/news/wirtschaft_telekommunikation_experten_internet_steht_vor_dem_z usammenbruch_story-39001023-39125948-1.htm, zuletzt aktualisiert am 14.09.2004. Friedmann, Björn (2007): ARD - ZDF Onlinestudie: Internetnutzer in %. Online verfügbar unter http://www.ard-zdf-onlinestudie.de/index.php?id=20. Fritz, Wolfgang (2004): Internet-Marketing und Electronic Commerce. Google (Hg.) (2009): About Gmail. Online verfügbar unter http://mail.google.com/mail/help/about_privacy.html, zuletzt aktualisiert am 03.01.2009. Koomey, Jonathan (2007): Estimating regional power consumption by servers: A technical notr. Herausgegeben von Agof, IVW und INFOnline. Online verfügbar unter http://enterprise.amd.com/Downloads/Technology/Koomey_Estimating.pdf, zuletzt aktualisiert am 07.12.2007. Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 28 Leyden, John (2007): US State department rooted by 0-day Word attack. Herausgegeben von The Register. Online verfügbar unter http://www.theregister.co.uk/2007/04/19/us_state_dept_rooted/, zuletzt aktualisiert am 19.04.2007. Markoff, John (2007): Steve Jobs Walks the Tightrope Again. Herausgegeben von New York Times. Online verfügbar unter http://www.nytimes.com/2007/01/12/technology/12apple.html?_r=1, zuletzt aktualisiert am 12.01.2007. O'Reilly, Tim (2005): What Is Web 2.0. Herausgegeben von O'Reilly Media. Online verfügbar unter http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web20.html?page=1, zuletzt aktualisiert am 30.09.2005. Perrin, Chat (2006): Die Geheimnisse der Open-Source-Sicherheit. Herausgegeben von ZDNet.de. ZDNet.de. Online verfügbar unter http://www.zdnet.de/anwendungsentwicklung_die_geheimnisse_der_open_source_sicherheit_ story-20000201-39144261-3.htm, zuletzt aktualisiert am 13.06.2006. Pregel, Bettina (2009): Interview mit Prof. Dr. Urs Gasser. Medienkompetenz für das digitale Zeitalter braucht es dringend. Herausgegeben von Bayerische Landeszentrale für neue Medien (BLM). Online verfügbar unter http://www.blm.de/apps/documentbase/data/de/12133.pdf, zuletzt aktualisiert am 22.01.2009. Quitney Anderson, Janna; Rainie, Lee (2006): The Future of the Internet II. Herausgegeben von PEW Internet und American Life Project. Online verfügbar unter http://www.pewinternet.org/pdfs/PIP_Future_of_Internet_2006.pdf, zuletzt aktualisiert am 24.09.2006. Quitney Anderson, Janna; Rainie, Lee (2008): The Future of the Internet III. Herausgegeben von PEW Internet und American Life Project. Online verfügbar unter http://www.pewinternet.org/pdfs/PIP_FutureInternet3.pdf, zuletzt aktualisiert am 12.12.2008. Quitney Anderson, Janna; Rainie, Lee; Fox, Susannah (2005): The Future of the Internet. Herausgegeben von PEW Internet und American Life Project. Online verfügbar unter http://www.pewinternet.org/pdfs/PIP_Future_of_Internet.pdf, zuletzt aktualisiert am 09.01.2005. Radcliff, Deborah (2007): When World of Warcraft spreads to your world. Computerworld Inc. Online verfügbar unter http://www.computerworld.com/action/article.do?command=viewArticleBasic&articleId=901 6684, zuletzt aktualisiert am 16.04.2007. Reimer, Jeremy (2007): Security researchers uncover massive attack on Italian web sites. Herausgegeben von Ars Technica. Online verfügbar unter Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 29 http://arstechnica.com/security/news/2007/06/security-researchers-uncover-massive-attackon-italian-web-sites.ars, zuletzt aktualisiert am 18.05.2007. Schulze, Gerhard (1992): Die Erlebnisgesellschaft. Kultursoziologie der Gegenwart. Frankfurt a.M. Spafford, Gene (2007): Re: $100 laptops from HRD Ministry, India. Online verfügbar unter http://www.listbox.com/member/archive/247/2007/05/sort/time_rev/page/2/entry/23:91/200 70506140410:307417BE-FBFC-11DB-A2B9-C8C92BEBA671/. Sullivan, Bob (2007): Virus gang warfare spills onto the Net. Herausgegeben von The Red Tape Chronicles und MSNBC.com. Online verfügbar unter http://redtape.msnbc.com/2007/04/virus_gang_warf.html, zuletzt aktualisiert am 03.04.2007. T-Online (2007): Steht das Internet vor dem Zusammenbruch? Online verfügbar unter http://computer.t-online.de/c/12/50/60/28/12506028.html, zuletzt aktualisiert am 26.9.2007. UCLA (2003): UCLA Internet Report (online version). Online verfügbar unter http://www.digitalcenter.org/pdf/InternetReportYearThree.pdf, zuletzt aktualisiert am 01.02.2003. Weber, Tim (2007): Criminals 'may overwhelm the web'. Herausgegeben von BBC NEWS. Online verfügbar unter http://news.bbc.co.uk/2/hi/business/6298641.stm, zuletzt aktualisiert am 25.01.2007. Wikipedia (Hg.) (2009): OLPC XO-1. Online verfügbar unter http://de.wikipedia.org/wiki/OLPC_XO-1#Netzwerkbildung, zuletzt aktualisiert am 27.02.2009. Wikipedia (Hg.) (2009): IPv6. Online verfügbar unter http://de.wikipedia.org/wiki/Ipv6, zuletzt aktualisiert am 24.02.2009. Wikipedia (Hg.) (2009): Mashup (Internet). Online verfügbar unter http://de.wikipedia.org/wiki/Mashup_(Internet), zuletzt aktualisiert am 16.02.2009. Wikipedia (Hg.) (2009): DynDNS. Online verfügbar unter http://de.wikipedia.org/wiki/DynDNS, zuletzt aktualisiert am 11.02.2009. Wikipedia (Hg.) (2009): Elektronischer Handel. Online verfügbar unter http://de.wikipedia.org/wiki/Elektronischer_Handel, zuletzt aktualisiert am 24.02.2009. Zittrain, Jonathan L. (2008): The future of the Internet and how to stop it. Herausgegeben von Yale University Press. (ISBN 978-0-300-12487-3). Online verfügbar unter http://futureoftheinternet.org/static/ZittrainTheFutureoftheInternet.pdf, zuletzt aktualisiert am 15.02.2008. Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 30 Zulfikar, Ramzan; Wüest, Candid (2007): Phishing Attacks: Analyzing Trends in 2006. Herausgegeben von Inc Symantec. Online verfügbar unter http://www.ceas.cc/2007/papers/paper-34.pdf, zuletzt aktualisiert am 31.07.2007. Christian Opitz – Die Zukunft des Internet (2009) Netzelf – Agentur für guten Eindruck (Herausgeber) 31