re:publica 2013: Wie sich die Infrastruktur des Internet verändert und warum das mit der Netzneutralität zusammenhängt

Logo der re:publica 2013In den letzten Wochen ist – wieder einmal – die Debatte um die Netzneutralität in den Fokus der Öffentlichkeit gerückt. Hintergrund war die Diskussion um eine mögliche Bandbreitendrosselung bei DSL-Verträgen.  Auch auf der Konferenz re:publica ging es in diesem Jahr gleich in mehreren Veranstaltungen um das Thema.

Um zu verstehen, um was es bei der Netzneutralität eigentlich geht, lohnt sich ein Blick auf die technische Infrastruktur des Internet – nämlich darauf, wie genau die Daten vom Inhalteproduzenten  zum Internetnutzer auf den Bildschirm kommen.

Um Inhalte überall anbieten zu können und den weltweiten Zugriff zu ermöglichen, müssen sich Betreiber großer eigener Netze wie Webhoster, DSL-Provider usw. mit möglichst vielen anderen Betreibern zusammenschließen. Dies geschieht entweder an öffentlichen Knotenpunkten wie dem DE-CIX in Frankfurt am Main oder über private Knotenpunkte der Anbieter.

Bei der Übertragung der Daten über einen öffentlichen Knotenpunkt, dem so genannten Public Peering, zahlt jeder angeschlossene Netzbetreiber einen festen Betrag an den Knotenbetreiber. Damit kann dieser die für den Betrieb anfallenden Kosten decken, etwa für Raummiete, Strom, Kühlung, technisches Equipment wie Router und Sicherheitseinrichtung. Als Gegenleistung kann jeder angeschlossene Netzbetreiber mit allen anderen Teilnehmern ohne zusätzliche Verträge seine Daten austauschen.

Daneben unterhalten die meisten Netzbetreiber auch direkte Verbindungen mit anderen Providern, etwa um redundant erreichbar zu sein und eine ausreichend hohe Gesamtbandbreite zur Verfügung zu haben. Für solche Verbindungen ist meist eine vertragliche Vereinbarung zwischen den kommunizierenden Netzbetreibern nötig. Bei diesem privaten Peering gilt das selbe Prinzip wie beim öffentlichen Peering: Beide beteiligten Anbieter leiten ihre Daten in der Regel kostenlos durch das Netz des Partners.

Bei Verbindungen zwischen Partnern, bei denen nur einer einen Vorteil in der Vernetzung der beiden sieht bzw. deren Größe oder Traffic sehr stark voneinander abweichen, wird die Zusammenarbeit über einen Transitvertrag geregelt. Dieser legt fest, welche Datenmenge ein Betreiber im Netz eines anderen übertragen darf und wie viel er dafür zahlen muss.

Wie Klaus Landefeld vom deutschen Internetknoten DE-CIX auf der re:publica erklärte, sind inzwischen auch große Content-Anbieter wie Google, ebay oder Facebook direkt an den Knotenpunkten angeschlossen. Diese Anbieter betreiben eigene Netze, um die Daten zwischen ihren global verteilten Rechenzentren auszutauschen oder nutzen Content Delivery Networks (CDN). Das sind spezielle Server-Netzwerke, die dazu dienen, gleiche Inhalte, die von vielen Internetnutzern abgerufen werden, möglichst schnell und effizient zu verteilen.

Wie kommt jetzt die Netzneutralität ins Spiel? Das Internet basiert auf dem TCP/IP-Protokoll. Dabei werden alle Daten – ob Text, Bild, Ton, Video, Software oder etwas anderes – in einzelne Pakete zerlegt, unabhängig voneinander übertragen und beim Empfänger wieder in der richtigen Reihenfolge zusammengesetzt. Man spricht hier vom so genannten „Best Effort-Prinzip“ – alle Daten werden „so gut es geht“ transportiert. Oder wie Cara Schwarz-Schilling von der Bundesnetzagentur auf der re:publica sehr schön erkläuterte: „Wenn zu viele Daten hereinkommen, wird alles gleichmäßig langsamer.“

Bei E-Mails, Downloads oder auch dem Betrachten von Webseiten spielt das kaum eine Rolle – die heutigen Zugangsnetze und auch PCs, Tablets und Smartphones sind so schnell, dass das Zusammensetzen der Pakete unbemerkt geschieht, selbst wenn einzelne Pakete einmal Verspätung haben. Anders sieht das dagegen bei Videos und auch Audio-Daten aus, die in „Echtzeit“ empfangen werden sollen: Damit das Bild beim Internet-Video nicht stockt oder das VoIP-Telefonat nicht zerhackt wird, müssen die Datenpakete in der richtigen Reihenfolge ankommen. Dabei spricht man von „Quality of Service“ – um diese zu gewährleisten, wurden Qualitätsklassen definiert, die aber zumindest über Netzgrenzen hinweg bis heute kaum eingesetzt werden. Stattdessen sorgen bei Videodiensten heute die oben erwähnten CDNs für die Servicequalität – denn sie bringen die Daten möglichst nahe an den Internetnutzer heran. Die Zugangsprovider wiederum können für bestimmte Dienste wiederum „virtuelle Kanäle“ reservieren, die etwa sicherstellen, dass für die Internettelefonie immer ausreichend Bandbreite bereitsteht.

Die Crux der aktuellen Debatte hat in einer zweiten re:publica-Veranstaltung der derzeit in Berlin tätige US-Politikberater, Wissenschaftler und  Aktivist Ben Scott auf den Punkt gebracht: „Internetanbieter argumentieren: Ich muss den Datenverkehr priorisieren, für den das technisch notwendig ist. Oder aber ich verkaufe diese Priorisierung als Dienst.“ Und bei dieser zweiten Variante könnten dann kleinere Inhalteanbieter das Nachsehen haben.

Tatsächlich hat diese Debatte und ihr weiterer Verlauf viel mit der Nutzung von Videos und Fernsehen im Netz zu tun. Denn diese bandbreitenhungrigen Dienste sind schon in den letzten Jahren explodiert – ob Plattformen wie Youtube oder die Mediatheken der öffentlich-rechtlichen Fernsehsender. Und der Trend geht weiter. Letztlich lässt sich dieses Problem neben der Priorisierung von Diensten noch auf eine andere Art lösen: Durch den ausreichenden Ausbau der Netze auf allen Ebenen – vom Backbone bis zur letzten Meile. Doch das kostet viel Geld, das die Netzbetreiber erst einmal verdienen müssen.

Kategorie: Netzkultur
0 Kommentare0