Immer häufiger fallen wegen Fehlern eines einzigen Dienstes Tausende von Webseiten aus. Das zeigt: Das Internet stößt im Kapitalismus an Grenzen.
Seit Jahren nehmen weitreichende und für viele Nutzer spürbare Ausfälle großer Teile des Internets und großer Webseiten zu. Zuletzt zeigte sich das vor wenigen Wochen durch Probleme bei Fastly, dem Betreiber eines Content Delivery Networks (CDN). Dabei ist Fastly ein vergleichsweise kleiner Diensteanbieter in einer sehr speziellen Nische, von dem die meisten betroffenen Nutzer wahrscheinlich das erste Mal hörten.
Der Vorfall zeigt jedoch exemplarisch, dass der Aufbau der aktuellen Internet-Infrastruktur immer mehr von Konsolidierung und damit von kapitalistischen Zwängen geprägt ist. Was dagegen helfen kann und ob eine Regulierung zurück zu einer größeren Dezentralisierung wünschenswert und überhaupt möglich ist, ist derzeit kaum zu sagen. Eine einfache Aufspaltung der Cloud-Dienste ist jedenfalls nicht des Rätsels Lösung. Erstmal muss das Problem deutlich werden; vielen Nutzern, Betreibern, politischen Enscheidungsträgern ist es das nämlich nicht.
Weitreichender Ausfall bei Fastly
Die schiere Reichweite des Fastly-Ausfalls dürfte jedenfalls viele überrascht haben. So gehörten zu den betroffenen Kunden Zeitungen wie die Financial Times, die New York Times und The Guardian sowie das Online-Angebot der BBC - und damit auch Angebote für typische Internetsurfer, die für ihren Alltag gar nicht so ein tiefes Verständnis des Internets brauchen. Der Ausfall traf zwar nur einen Dienstleister, aber dennoch Millionen von Nutzer.
Auch fielen aus: der Regierungsauftritt des Vereinigten Königreiches, zahlreiche Onlineshops, die Communityseite Reddit und das Streamingportal Twitch. Der Grund für den Ausfall dürfte auch bei jenen auf Unverständnis gestoßen sein, die selbst die Internet-Infrastruktur für große Webseiten betreuen: So war die Konfiguration eines einzigen Kunden der Auslöser für einen Fehler, der am Ende alle anderen Kunden von Fastly betraf und deren Angebote offline nahm. Für den Anbieter wohl eines der schlimmsten Szenarien überhaupt, für das es keinerlei Vorkehrungen gab.
Wirklich überraschend ist der Ausfall aus technischer und vor allem ökonomischer Perspektive dennoch nicht. Er reiht sich in eine lange Liste ähnlich schwerwiegender Vorfälle ein, die je nach Tages- und Ortszeit und den betroffenen Diensten große Medienaufmerksamkeit bekommen - eben, weil von dem Ausfall wiederum zahlreiche Portale mit großer Reichweite betroffen sind. Und auch wenn nicht direkt die Webseiten von einigen Hundert Millionen Endnutzer medienwirksam leer bleiben, betreffen derartige Ausfälle zentraler Infrastruktur oft Hunderte oder Tausende verschiedene Dienste, die millionenfach genutzt werden.
Lange Liste weitreichender Ausfälle
Dazu zählen beispielsweise Vorkommnisse bei den riesigen Cloud-Hostern: So hatten Azure und AWS Probleme mit den Datenbankdiensten, Google mit seinen Load-Balancern und Google und Microsoft mit der Authentifizierung. Auch ein Brand in einem Rechenzentrum von OVH führte in diesem Frühjahr zum Ausfall von Millionen von Webseiten.
Immer wieder treffen diese Ausfälle aber auch Unternehmen und Dienstleister, die sich inzwischen für Millionen Kunden um zentrale Dienste des Internetangebots kümmern. Dazu gehört etwa Cloudflare, das mit herausgezogenen Kabeln und Konfigurationsfehlern Schlagzeilen machte.
Aber auch klassische und grundlegende Dienste des Internet wie BGP oder das DNS haben beim Ausfall einzelner Dienstleister oft sehr weitreichende Folgen.
All diese Vorfälle der vergangenen Jahre eint, dass hier jeweils Tausende oder gar Millionen von Seiten von einem einzigen Dienstleister abhingen. Hat dieser ein schwerwiegendes Problem, sind auch die anderen Seiten offline. In einem Kommentar vor einigen Jahren haben wir das bereits als Verrat an der Grundidee des Internetaufbaus bezeichnet: Dezentralisierung.
Denn eigentlich ist das Netz von Beginn an als dezentrale und damit potenziell ausfallsichere Infrastruktur konzipiert worden. Exzellent beschrieben wird diese Idee durch das Bonmot: "Hat das Internet ein Problem, routen wir einfach drumherum." Mit der immer stärker werdenden Abhängigkeit von ein paar wenigen, aber sehr viel genutzten Dienstleistern ist das jedoch leichter gesagt als getan, wie die Ausfälle zeigen. Begünstigt wird dies von den Marktmechanismen des Cloud-Computing. Gibt es also überhaupt einen Weg zurück?
Die Abhängigkeit von wenigen großen Dienstleistern geht einher mit der immer größer werdenden Skalierung des Internets und den Versprechungen der Cloud einerseits sowie den damit verbundenen wirtschaftlichen Erwägungen andererseits. So war es zwar auch schon vor Jahrzehnten möglich, eigene Internetdienste wie E-Mail- oder Web-Server selbst zu hosten - doch das ließ sich ebenso gut an einen Dienstleister auslagern.
Bei Angeboten wie den eingangs erwähnten englischsprachigen Nachrichtenseiten oder auch Onlineshops, die sich potenziell an Milliarden Nutzer weltweit richten, ist der Betrieb eigener Infrastruktur schon deutlich mehr Aufwand. Genau hier setzen die weltweit agierenden Cloud-Anbieter wie Amazon, Google und Microsoft mit ihren Angeboten an.
Hinzu kommen hoch spezialisierte Unternehmen wie Fastly für CDNs. Zu der Konkurrenz in dem Markt gehören Cloudflare, Amazons Cloudfront und Akamai. Sie alle bieten ein weltweit verteiltes Netz an Rechenzentren, Servern und Anbindungen, die es theoretisch problemlos ermöglichen, auch Milliarden Zugriffe auf einer Seite zu verarbeiten, indem die Seite schlicht nah am Nutzer zwischengespeichert wird.
Die dafür nötigen Vorab-Investitionen in Hardware und Infrastruktur sind aber derart riesig, dass es wohl allein deshalb schon zu einer Art natürlicher Konsolidierung kommt. Es ist kaum zu erwarten, dass hier plötzlich Hunderte Betreiber ein ähnliches Angebot bereitstellen könnten.
Regulierung statt Konsolidierung
Ebenso ist es unwahrscheinlich zu erwarten, dass sich die Seitenbetreiber selbst um Redundanz in den von ihnen gebuchten Dienstleistern bemühen. Eine parallele Infrastruktur für Ausfälle zu betreiben, die im Zweifel nur wenige Stunden im Jahr umfassen, ist wirtschaftlich oft nicht zweckmäßig. Eine einfache Lösung, den damit verbundenen teils riesigen Ausfällen vorzubeugen, gibt es also zunächst nicht. Dabei können sie verheerend sein.
Allein die genannten CDN-Betreiber sind inzwischen für rund 20 Prozent aller Webseiten weltweit zuständig. Und dabei handelt es sich wiederum um Dienste mit sehr großer Reichweite. Die Annahme ist nicht übertrieben, dass etwa die Hälfte aller Nutzer im Internet täglich auf die Dienste dieser Anbieter vertrauen muss.
Man könnte vor dieser Übermacht nun einfach resignieren. Wissenschaftler wie Niels ten Oever, der zurzeit an der Universität Amsterdam forscht und sich seit Jahren in Organisationen wie der IETF oder Icann engangiert, wollen aber gerade das nicht. Dem Magazin Wired sagte ten Oever mit Bezug auf den Ausfall bei Fastly: "Wir befinden uns in einem fantastischen Moment, um dies anzugehen."
Mit Blick auf die Infrastruktur erklärte er außerdem: "Es zeigt sich, dass Ingenieure nur an Technologie gedacht haben, aber nicht an die Wirtschaft." Die beschriebene Konsolidierung und damit einhergehende Kontrolle einiger weniger Firmen über die Ausfallsicherheit vieler Dienste werde aber zunehmend auch als politisches Problem erkannt: "Die Zivilgesellschaft und Regierungen zeigen zunehmend Unbehagen damit", sagt ten Oever.
Ob dies dazu führen wird, dass weitreichende Regulierungen umgesetzt werden, ist derzeit noch mehr als fraglich. Zumindest mittelfristig ist aber zu hoffen, dass wenigstens staatliche Webseiten und -dienste so aufgestellt werden, dass sie auch mit Ausfällen einzelner Dienstleister dank redundanter Infrastruktur umgehen können. Immerhin sollten die Regierungen selbst ein starkes Interesse daran haben.
Für die Privatwirtschaft bleibt es ohne entsprechende Regulierung immer eine einfache Kosten-Nutzen-Rechnung, bei der im Zweifel Ausfälle mit einberechnet werden. Abseits der häufig geforderten Aufspaltung großer Cloud-Dienste gibt es kaum Ideen. Und auch diese Forderung ist eher wenig zweckmäßig, wird doch damit der vermeintliche Vorteil der Größe und Fähigkeit zur Skalierung unterlaufen. Einen offensichtlichen Weg aus dieser Zwickmühle gibt es zurzeit nicht.
https://ift.tt/2U0pC5H
Wissenschaft & Technik
Bagikan Berita Ini
0 Response to "Infrastruktur: Wie das Internet am Kapitalismus scheitert - Golem.de - Golem.de"
Post a Comment