Im heutigen Wettlauf um die Beschleunigung der Ladezeit von Websites ist jede Millisekunde entscheidend. Das Team von Kinsta testete und studierte den Einfluss der Website-Geschwindigkeit auf Verkäufe, Konversionen, Benutzererfahrung und Interaktion mit den Nutzern.

Aber es gibt einen Vorbehalt. Die Optimierung der Seite ist zwar wichtig, um die Geschwindigkeit zu erhöhen, aber das ist nicht der einzige Aspekt, auf den wir achten sollten. Auch die Hardware und die Netzwerkinfrastruktur, die unsere Webseite unterstützen und sie mit unseren Besuchern verbinden, sind wichtig. Und zwar sehr viel.

Heute werden wir darüber diskutieren, warum Google viel Geld in seine Netzwerkinfrastruktur investiert, und einige der Unterschiede im Premium-Tier-Netzwerk und Standard-Tier-Netzwerk der Google Cloud Platform.

Bandbreite und Latenz (Schlüsselkriterien für die Leistung der Hosting-Infrastruktur)

Bevor wir uns mit den Besonderheiten des Netzwerks von Google Cloud befassen, ist es wichtig, zunächst die beiden folgenden Konzepte zu verstehen: Bandbreite und Latenzzeit.

Die Bandbreite ist die Durchsatzkapazität des Netzwerks, gemessen in Mbit/s; während die Latenz die Verzögerung oder die Summe aller Verzögerungen ist, die verschiedene Router auf dem Weg dorthin zu unseren Webanfragen und Antworten hinzufügen.

Bildlich gesprochen kann die Bandbreite oder der Durchsatz als Wasserschlauchkapazität dargestellt werden, um ein bestimmtes Volumen an Wasser pro Sekunde zuzulassen. Die Latenzzeit kann mit der Verzögerung vom Öffnen der Wasserleitung bis zum Durchsickern verglichen werden.

Aufgrund des geringen Aufwands beim Aufbau der Verbindung zwischen verschiedenen Routern fügt jeder „Hop“ auf dem Weg dorthin den endgültigen Anfragen und Antworten eine kleine Latenz hinzu.

Je weiter sich also der Besucher und der Server, auf dem die Website gehostet wird, befinden, desto größer ist die Latenzzeit. Außerdem gilt: Je fragmentierter das Netzwerk, desto größer die Latenz.

Wir können dies mit Hilfe eines Tools namens traceroute oder tracert on windows darstellen. In den nächsten Screenshots haben wir damit Routenverzögerungen von zwei Anfragen aus Europa untersucht. Konkret:
eins an weibo.com:

Weibo.com
Weibo.com

und ein anderes zu bbc.co.uk:

Bbc.co.uk
Bbc.co.uk

Wie von uns erwartet, ist die Anzahl der Hops auf der Website in China fast 2x größer als auf der europäischen. Es ist also die zusätzliche Latenzzeit im Vergleich zu einer Anfrage an eine in Großbritannien gehostete Website.

Die drei Spalten, die auf dem Bild zu sehen sind, stellen drei Roundtrips (RTT) dar. Jede Zeile repräsentiert verschiedene Router oder Hops auf dem Weg dorthin. Sie haben oft URLs, die uns helfen zu bestimmen, wo sich dieser spezielle Router befindet.

Die Hin- und Rückfahrt zu Routern in China / Hongkong dauert fast eine Drittelsekunde.

Wir haben pingdom-Tools verwendet, um eine in London gehostete Website von Pingdom’s Australien-Standort zu laden, um zu versuchen, den Anteil des Netzwerks an den Gesamtladezeiten einer Website zu ermitteln.

Ein Beispiel von Ladezeiten
Ein Beispiel von Ladezeiten

Dies sind die Daten für eine kleine CSS-Datei, die in diesem Testszenario geladen wurde. Der Verbindungsteil hat den höchsten Anteil am Laden dieser Ressource, gefolgt von SSL und Wait. Die gesamte Zeit bis und mit der Wartezeit zusammen wird auch als Time to First Byte (TTFB) bezeichnet, das die Netzwerklatenz beinhaltet.

Wenn Internet Service Provider für die Geschwindigkeit der Internetverbindung werben, werben sie in der Regel mit ihrer Bandbreite (die „Breite des Schlauches“ erinnerst du dich?), was wirklich kein Maß für die Geschwindigkeit ist. Die Vergrößerung der Breite des Rohres kann die Geschwindigkeit der Website nur bis zu einem gewissen Grad erhöhen. Es ist nützlicher, wenn wir eine große Menge an Daten pro Sekunde übertragen müssen, wie z.B. beim Streamen von hochauflösenden Videoinhalten. Aber für Benutzer, die möglicherweise Echtzeit-Mehrspielerspiele online spielen, wird die Latenz viel wichtiger sein.

Mike Belshe, einer der Mitverfasser der HTTP/2-Spezifikation und des SPDY-Protokolls, analysierte die Auswirkungen der erhöhten Bandbreite auf die Ladegeschwindigkeit der Website im Vergleich zu den Auswirkungen der sinkenden Latenz auf die Ladegeschwindigkeit der Website.

Hier sind Belshe’s Ergebnisse, kuratiert in einer schönen Tabelle:

Ladezeit/Bandbreitenänderung vs. Ladezeit/Latenzzeitänderungen
Ladezeit/Bandbreitenänderung vs. Ladezeit/Latenzzeitänderungen

Es sollte klar sein, dass die Verbesserung der Website-Geschwindigkeit durch Erhöhung der Bandbreite nicht der effektivste Weg ist, um eine bessere Leistung zu erreichen. Andererseits können wir durch die Reduzierung von RTT (Round-Trip-Zeit) oder Latenzzeit eine kontinuierliche Verbesserung der Seitenladezeit feststellen.

Netzwerke vs. Internet Peering vs. Transit

Um unser Thema etwas besser zu verstehen, müssen wir die Grundlagen der Internet-Topologie erklären. Im Kern besteht das globale Internet aus mehreren globalen, regionalen und lokalen Netzwerken.

Bis 2018 gab es mehr als 60.000 AS (Autonome Systeme). Diese Netzwerke gehören Regierungen, Universitäten, ISPs.

Unter diesen unterscheiden wir Tier-1-, Tier-2- und Tier-3-Netzwerke. Diese Ebenen repräsentieren die Unabhängigkeit jedes Netzwerks im Internet als Ganzes.

  • Tier-1-Netzwerke sind unabhängig, in dem Sinne, dass sie nicht bezahlen müssen, um sich mit einem anderen Punkt im Internet zu verbinden.
  • Tier-2-Netzwerke haben Peering-Vereinbarungen mit anderen ISPs, bezahlen aber auch den Transit.
  • Tier-3-Netzwerke, die unterste Ebene, verbinden sich mit dem Rest des Internets, indem sie Transit von höheren Ebenen kaufen. Sie sind praktisch wie Verbraucher, die für den Zugang zum Internet bezahlen müssen.

Peering-Beziehung bedeutet, dass zwei Netzwerke den Verkehr auf gleicher Basis austauschen, so dass keines von ihnen das andere für den Transit bezahlt und das andere kostenlos zurückgibt.

Der Hauptvorteil von Peering ist eine drastisch geringere Latenzzeit.

Wie Webanfragen durch das hierarchische Netzwerk der ISPs laufen.
Wie Webanfragen durch das hierarchische Netzwerk der ISPs laufen.

Im obigen Bild sehen wir ein klassisches Szenario, bei dem die Webanfrage durch das hierarchische Netzwerk von ISPs auf Stufe 1, Stufe 2 und Stufe 3 geht, um eine Website abzurufen, die in einem Rechenzentrum an einem entfernten Standort gehostet wird.

Pfeile stellen die Reise der Webanfrage dar. Gestrichelte Pfeile stellen die Transitverbindungen dar, und vollflächige Pfeile stellen Peering-Verbindungen dar.

Sobald der Tier-1-Anbieter erreicht ist, ist seine Beziehung zu einem anderen Anbieter auf gleicher Ebene eine Peer-Relation. Tier-1-Netzwerke verbinden sich mit anderen und leiten ihre Anfragen ausschließlich über Peering-Partner weiter. Sie können alle anderen Netze im Internet erreichen, ohne für den Transit zu bezahlen.

Wir sehen auch ein alternatives Szenario, bei dem zwei Tier-2-Anbieter eine Peering-Vereinbarung mit türkisfarbener Farbe haben. Die Anzahl der Hops in diesem Szenario ist geringer und die Website wird viel weniger Zeit zum Laden benötigen.

Border Gateway Protokoll

BGP ist ein Protokoll, über das selten gesprochen wird, außer in sehr technischen Zusammenhängen. Dieses Protokoll bildet jedoch den Kern des Internets, wie wir es heute kennen. Es ist von grundlegender Bedeutung für unsere Fähigkeit, auf fast alles im Internet zuzugreifen, und es ist eines der anfälligsten Links im Internet-Protokollstapel.

Das Border Gateway Protocol ist in der IETF Request For Comments #4271 von 2006 definiert und wurde seitdem mehrfach aktualisiert. Wie der RFC sagt:

„Die Hauptfunktion eines BGP-Sprechersystems ist der Austausch von Informationen über die Erreichbarkeit des Netzwerks mit anderen BGP-Systemen..“

Einfach ausgedrückt, ist BGP ein Protokoll, das für die genaue Bestimmung der Route einer Netzwerkanforderung über Hunderte und Tausende von möglichen Knoten zu ihrem Ziel verantwortlich ist.

Border Gateway Protokoll
Border Gateway Protokoll

Wir können jeden Knoten als ein autonomes System oder ein Netzwerk darstellen, das aus mehreren Knoten oder Routern, Servern und damit verbundenen Systemen besteht.

Im BGP-Protokoll gibt es keinen automatischen Erkennungsalgorithmus (einen Mechanismus oder ein Protokoll, mit dem jeder neu verbundene Knoten benachbarte Knoten erkennen kann, durch die er sich verbinden kann), sondern jeder BGP-Peer muss seine Peers manuell angeben lassen. Wie für den Pfad-Algorithmus, um einen Cisco-Experten zu zitieren:

„BGP hat keine einfache Metrik, um zu entscheiden, welcher Weg der beste ist. Stattdessen wirbt sie mit jeder Route für einen umfangreichen Satz von Attributen und verwendet einen komplexen Algorithmus, der aus bis zu 13 Schritten besteht, um zu entscheiden, welcher Weg der beste ist.“

Autonome Systeme übertragen Routing-Daten an ihre Kollegen, es gibt jedoch keine festen Regeln, die bei der Pfadauswahl durchgesetzt werden müssten. BGP ist ein System, das implizit auf Vertrauen basiert und dies kann eine der größten Sicherheitslücken im heutigen Internet sein. Der Diebstahl im Jahr 2018, als der Traffic von MyEtherWallet.com entführt wurde und mehr als 200 Ether gestohlen wurden (Wert 152.000 $), offenbarte diese Schwachstelle.

In Wirklichkeit führt diese Schwäche von BGP dazu, dass verschiedene Netzwerke (AS) BGP-Daten mit anderen Interessen als der Effizienz und Geschwindigkeit für Endanwender ausstrahlen. Dies können kommerzielle Interessen sein, wie z.B. bezahlter Transit, oder sogar politische oder sicherheitspolitische Aspekte.

Entwicklung von Cloud Computing, CDN und Edge Market

Aufgrund der wachsenden Anforderungen des IT-Marktes, von der Web-Industrie, dem Online-Gaming, dem Internet der Dinge und anderen, wurde der Marktplatz für Dienstleister und Produkte, die das Latenzproblem lösen, offensichtlich.

Jahr für Jahr gibt es mehr Cloud-basierte Produkte, die statische Ressourcen in der Nähe der Besucher zwischenspeichern (Content Delivery Networks) oder das eigentliche Computing dem Endanwender näher bringen. Ein solches Produkt ist Cloudflare’s Workers, das V8-Javascript-Engine kompatiblen Code auf Cloudflare’s Netzwerk von Kantenknoten ausführt. Das bedeutet, dass auch WebAssembly oder GO-Code sehr nah am Besucher ausgeführt werden können.

Lambda@Edge von Amazon ist ein weiteres Beispiel für diesen Trend, ebenso wie die Partnerschaft von Intel und Alibaba Cloud zur Bereitstellung der Joint Edge Computing Platform für den IoT-Markt.

Ein weiterer erwähnenswerter Punkt ist Googles globales Netzwerk von Caching-Knoten, das sowohl als CDN als auch als Video-Caching & Delivery Network für seine Tochtergesellschaft YouTube dient.

Um zu veranschaulichen, wie verfeinert und fortschrittlich die Cloud-Branche geworden ist und wie sehr sie es geschafft hat, die Netzwerklatenz für Endanwender zu reduzieren, lasst uns einen Blick auf GaaS werfen.

GaaS ist die Abkürzung für Gaming as a Service. Es handelt sich um ein Cloud-Angebot, das es Benutzern ermöglicht, Spiele zu spielen, die in der Cloud gehostet und ausgeführt werden. Dieser Artikel vergleicht einige herausragende Produkte in der GaaS-Nische.

Jeder, der schon einmal für einen Fernseher oder einen Videoprojektor zum Spielen eingekauft hat, oder einige Zeit damit verbracht hat, Miracast oder eine andere Casting-Verbindung zwischen einem Fernseher und einem anderen Gerät herzustellen, wird wissen, wie wichtig die Latenzzeit ist. Dennoch gibt es GaaS-Anbieter, die jetzt Spiel-Streaming mit 4k Auflösung und 60Hz Bildwiederholrate anbieten… und die Spieler müssen nicht in Hardware investieren.

Das Drama des jüngsten Huawei-Verbotes durch die USA hat die Problematik der 5G-Netze und die dringende Notwendigkeit eines klaren Weges zur Modernisierung der weltweiten Netzwerkinfrastruktur aufgezeigt.

Sensoren, die große Mengen an Informationen in Echtzeit und mit minimaler Latenz übertragen, um Smart Cities, Smart Houses und autonome Fahrzeuge zu koordinieren, werden von dichten Netzwerken von Edge Devices abhängen. Latenz ist die aktuelle Obergrenze für Dinge wie selbstfahrende Autos, mit verschiedenen Sensorinformationen, LIDAR-Daten, Verarbeitung dieser Daten gegenüber Daten anderer Fahrzeuge.

Content Delivery Networks und Cloud Computing Provider stehen dabei im Vordergrund. Wir haben bereits darüber gesprochen, dass das QUIC / HTTP3-Protokoll von den Branchenführern eingeführt wird, die in der Lage sind, den Request Response Zyklus zu kontrollieren.

Wie Lösen Cloud-Provider das Latenzproblem?

AWS ist vielleicht der größte Cloud-Anbieter nach Marktanteil. Im Jahr 2016 investierten sie in das Hawaii Transpacific Submarine Cable System, das darauf abzielte, eine größere Bandbreite bereitzustellen und die Latenzzeiten zwischen Hawaii, Australien und Neuseeland zu verringern, was ihre erste Investition in die Unterwasserinfrastruktur war. Es wurde 2018 in Betrieb genommen.

Unterwasser-Lichtwellenleiter
Unterwasser-Lichtwellenleiter (Bildquelle: NEC)

Zu diesem Zeitpunkt war Google bei der Entwicklung von U-Boot-Backbones seiner Konkurrenz bereits weit voraus. Ein Jahr vor der ersten Investition von Amazon veröffentlichte ITWorld einen Artikel mit dem Titel: „Googles Rechenzentren wachsen zu schnell für normale Netzwerke, also baut sie ihre eigenen“.

Tatsächlich schrieb der Technikjournalist Mark Stephens, alias Robert X Cringely, 2005 in seiner Kolumne für PBS.org und kommentierte Googles Einkaufsbummel durch die Dark Fiber (ausgelegte, aber ungenutzte Glasfaserinfrastruktur):

„Das ist mehr als ein anderer Akamai oder sogar ein Akamai mit Steroiden. Dies ist ein dynamisch angetriebener, intelligenter, thermonuklearer Akamai mit einem speziellen Backchannel und anwendungsspezifischer Hardware. Es wird das Internet geben, und dann wird es das Google-Internet geben, das darüber gelegt wird.“

Googles Cloud Network Kabelinfrastruktur
Googles Cloud Network Kabelinfrastruktur (Quelle: Google)

Im Jahr 2010, in einem Artikel auf zdnet.com, sagt Tom Foremski:

„Google ist eines der Unternehmen, das einen großen Teil des Internets besitzt“, und fährt fort: „Google hat sich darauf konzentriert, das effizienteste und kostengünstigste private Internet aufzubauen. Diese Infrastruktur ist der Schlüssel zu Google, und sie ist der Schlüssel zum Verständnis von Google.“

Zu dieser Zeit äußerte Cringley’s Artikel einige Bedenken über Google, das versucht, das Internet zu übernehmen, aber die Dinge wurden klarer, als das Unternehmen Google Fiber startete, Googles Versuch, den ISP-Markt in den größten Städten der USA zu erobern. Das Projekt hat sich seitdem verlangsamt, so dass TechRepublic 2016 eine Post-Mortem des Projekts veröffentlichte, aber die Investitionen in die Infrastruktur, die inzwischen weltweit erfolgt sind, nicht zurückgingen.

Die jüngste Investition von Google, die in diesem Jahr live gehen soll, ist ein Backbone, das Los Angeles in den USA und Valparaiso in Chile mit einer Niederlassung für die zukünftige Verbindung nach Panama verbindet.

„Das Internet wird allgemein als Cloud bezeichnet. In Wirklichkeit ist es eine Reihe von nassen, zerbrechlichen Röhren, und Google ist dabei, eine alarmierende Anzahl von ihnen zu besitzen.“ – VentureBeat

Warum Investiert Google so viel in Seine Netzwerkinfrastruktur?

Standard Routing
Standard Routing

Wir alle wissen, dass Google die Suchmaschine Nummer eins ist, aber es ist auch folgendes:

  • Besitzt die größte Video-Plattform
  • Ist der größte E-Mail-Anbieter (Gmail und Google Workspace).
  • Verdient mit seinen Cloud-Computing-Produkten einiges an Geld (jährliche Betriebsrate von über 8 Milliarden Dollar).

Deshalb benötigt es die kleinstmögliche Latenz und maximale Bandbreite. Google will auch die eigentliche Infrastruktur besitzen, denn sein „unstillbarer Hunger“ nach mehr Bandbreite und Latenz versetzt Google und seine Konkurrenten in die Lage, völlig individuelle Hard- und Softwarelösungen zu entwickeln.

PoP nodes
PoP nodes

Points of Presence, oder Edge-PoP-Knoten, befinden sich am Rande des globalen privaten Kabelnetzes von Google. Dort dienen sie als Ein- und Ausstiegspunkte für den Traffic, der mit den Rechenzentren von Google verbunden ist.

Moore’s Law ist eine Beobachtung von Gordon Moore, Mitbegründer von Intel, die besagt, dass sich die Anzahl der Transistoren, die wir auf eine integrierte Schaltung setzen können, alle zwei Jahre verdoppeln wird. Jahrzehntelang galt diese Erwartung, aber jetzt, da die Computerindustrie im Begriff ist, das Gesetz von Moore auf eine harte Probe zu stellen, könnte es in naher Zukunft sein Ende finden. Zu deiner Information: NVIDIA CEO hat Moores Gesetz Anfang des Jahres für tot erklärt.

Inwiefern hängt dies also mit der Cloud-Branche und der Netzwerkinfrastruktur von Google zusammen?

Auf der Open Networking Foundation Connect Veranstaltung im Dezember 2018 gab Googles Vizepräsident und TechLead for Networking, Amin Vahdat, das Ende des Moore’schen Gesetzes bekannt und erklärte das Rätsel des Unternehmens:

„Unser Computerbedarf steigt weiterhin mit erstaunlicher Geschwindigkeit. Wir werden Beschleuniger und engere Berechnungen benötigen. Die Netzwerkstruktur wird eine entscheidende Rolle dabei spielen, die beiden miteinander zu verbinden.“

Eine Möglichkeit für Cloud-Anbieter, mit der steigenden Nachfrage nach Rechenleistung Schritt zu halten, ist das Clustering. Clustering, um es einfach auszudrücken, bedeutet, mehrere Computer zusammenzustellen, um an einem einzigen Problem zu arbeiten, um Prozesse einer einzigen Anwendung auszuführen. Eine Voraussetzung, um von einem solchen Aufbau zu profitieren, ist natürlich eine geringe Latenzzeit oder eine hohe Netzwerkkapazität.

Als Google 2004 begann, seine eigene Hardware zu entwerfen, dachten die Anbieter von Netzwerk-Hardware in Form von Boxen, und Router und Switches mussten einzeln über die Befehlszeile verwaltet werden. Bis dahin kaufte Google Cluster von Switches von Anbietern wie Cisco und gab ein Vermögen pro Switch aus. Aber die Ausrüstung konnte mit dem Wachstum immer noch nicht mithalten.

Google benötigte eine andere Netzwerkarchitektur. Die Nachfrage nach Googles Infrastruktur wuchs exponentiell (ein Forschungsbericht von Google aus dem Jahr 2015 behauptet, dass ihre Netzwerkkapazität in zehn Jahren um das 100-fache gestiegen sei) und ihr Wachstum so schnell war, dass die Kosten für den Kauf der vorhandenen Hardware sie auch dazu brachten, ihre eigenen Lösungen zu entwickeln. Google begann mit der Entwicklung kundenspezifischer Switches aus handelsüblichen Siliziumchips und übernahm eine andere, modularere Netzwerktopologie.

Die Ingenieure von Google begannen, auf einem alten Telefonie-Netzwerkmodell namens Clos Network aufzubauen, das die Anzahl der pro Switch benötigten Ports reduziert:

„Der Vorteil des Clos-Netzwerks ist, dass Sie eine Reihe identischer und kostengünstiger Geräte verwenden können, um den Baum zu erstellen und eine hohe Leistung und Widerstandsfähigkeit zu erreichen, die sonst mehr kosten würde, als die Konstruktion.“ – Geschlossene Netzwerke: Was alt ist, ist wieder neu, Netzwerkwelt

Für diese neue, modulare Hardware musste das Team von Google auch bestehende Protokolle neu definieren und ein eigenes Netzwerkbetriebssystem entwickeln. Die Herausforderung bestand darin, eine große Anzahl von Switches und Routern zu nehmen und sie so zu bedienen, als wären sie ein einziges System.

Der benutzerdefinierte Netzwerkstapel und die Notwendigkeit neu definierter Protokolle veranlassten Google, sich an Software Defined Networking (SDN) zu wenden. Hier ist eine Keynote von Amin Vahdat, Google Vice President, Engineering Fellow und Leiter des Netzwerkinfrastruktur-Teams ab 2015, in der alle Herausforderungen und die Lösungen erläutert werden, die sie entwickelt haben:

Für die Neugierigsten gibt es diesen interessanten, lesenswerten Blogbeitrag.

Espresso

Espresso ist die neueste Säule des SDN von Google. Es ermöglicht es dem Netzwerk von Google, über die Grenzen der physischen Router hinauszugehen, indem es den eingehenden und ausgehenden Datenverkehr an die Peering-Partner von Google lernt und koordiniert.

Espresso ermöglicht es Google, die Leistung von Verbindungen in Echtzeit zu messen und die Entscheidung auf der Grundlage von Echtzeitdaten auf den besten Punkt der Präsenz für einen bestimmten Besucher zu treffen. Auf diese Weise kann das Netzwerk von Google dynamisch auf unterschiedliche Staus, Verlangsamungen oder Ausfälle bei seinen Peering-/ISP-Partnern reagieren.

Darüber hinaus ermöglicht Espresso die Nutzung der verteilten Rechenleistung von Google zur Analyse aller Netzwerkdaten seiner Kollegen. Die gesamte Routing-Steuerung und -Logik befindet sich nicht mehr bei einzelnen Routern und dem Border Gateway Protocol, sondern wird an das Computernetzwerk von Google übertragen.

„Wir nutzen unsere umfangreiche IT-Infrastruktur und die Signale aus der Anwendung selbst, um zu erfahren, wie sich die einzelnen Abläufe verhalten, was durch die Qualitätswahrnehmung des Endverbrauchers bestimmt wird.“ – Espresso macht Google Cloud schneller, 2017

Wie Ist Das Alles für Das Google Cloud Network Relevant?

Was wir bisher abgedeckt haben, zeigt alle Probleme und Herausforderungen (sowohl hardware- als auch softwarebasiert), die Google durchlaufen hat, um das wahrscheinlich beste globale private Netzwerk zusammenzustellen, das heute verfügbar ist.

Wenn es um den Marktanteil geht, ist Google Cloud Platform weltweit der drittgrößte Anbieter (hinter AWS und Microsoft Azure). Aber bei der hochwertigen privaten Netzinfrastruktur lässt sie ihre Wettbewerber weit hinter sich, wie diese Daten von BroadBand Now zeigen:

Eigentum an Unterwasserkabeln
Eigentum an Unterwasserkabeln, September 2018. (Quelle: BROADBANDNOW, Centerfield BBN LLC)

Im Jahr 2014 veröffentlichte GigaOM einen Artikel, in dem AWS und Google Cloud Platform verglichen wurden, aber nur eine Woche später veröffentlichten sie einen weiteren mit dem Titel: „Was ich in der Google vs. Amazon Cloud-Debatte verpasst habe – Glasfaser“, wo sie erkennen, dass Google in Sachen Infrastruktur um Jahre voraus ist.

„Große, schnelle Leitungen für Ihren – und den Traffic Ihrer Kunden – zur Verfügung zu haben, ist eine große Sache.“ – Barb Darrow, GIGAOM

Google’s Premium vs. Standard Tier-Netzwerke

Google Cloud Netzwerk Plattform
Google Cloud Netzwerk Plattform

Die Google Cloud Platform bietet zwei verschiedene Netzwerkebenen, die sich sowohl in Preis und Leistung unterscheiden.

Google Premium Tier-Netzwerk

Mit dem Premium Tier Network von Google können Benutzer die Vorteile des globalen Glasfasernetzes mit global verteilten Points of Presence nutzen. Der gesamte eingehende Datenverkehr vom Kunden zu den Rechenzentren von Google wird an den nächstgelegenen Point of Presence weitergeleitet, der weltweit verteilt ist, und dann wird die Anfrage zu 100% über den privaten Backbone von Google weitergeleitet. Wie wir in einem früheren Artikel erwähnt haben – das kann 30% verbesserte Latenz oder 50% bessere Bandbreite bedeuten.

Auf dem Rückweg werden alle vom Rechenzentrum an den Besucher gesendeten Daten über die Cold Potato-Richtlinie weitergeleitet. Im Gegensatz zum Hot Potato-Routing, das im Standard-Tier-Netzwerk verwendet wird, bei dem der Datenverkehr so früh wie möglich an andere ISPs übergeben (oder fallen gelassen) wird, bedeutet Premium-Tier-Routing, dass der Ausgangsverkehr so lange wie möglich auf Googles eigener Glasfaser gehalten und an Peers oder Transit-ISPs so nah wie möglich am Besucher weitergegeben wird.

Um es auf den Punkt zu bringen. Premium-Tier-Pakete verbringen mehr Zeit im Netzwerk von Google, wobei weniger herumhüpfen und somit eine bessere Leistung erbringen (aber mehr kosten).

Für die Sci-Fi-Fans unter uns könnte man es mit einem kosmischen Wurmloch vergleichen, das unseren Traffic direkt an unser Ziel weiterleitet, ohne durch das Internet zu roamen.

Bei Kinsta nutzen wir das Premium Tier Network von Google Cloud für alle unsere Hosting Pläne. Dadurch werden Entfernung und Sprünge minimiert, was zu einem schnelleren und sichereren globalen Transport deiner Daten führt.

Kinsta Hosting Architektur
Kinsta Hosting Architektur

Google Standard Tier-Netzwerk

Auf der anderen Seite verwendet das Standard Tier Network Points of Presence in der Nähe des Rechenzentrums, in dem sich unsere Inhalte oder Web-Apps befinden. Das bedeutet, dass der Verkehr unserer Besucher durch viele verschiedene Netzwerke, autonome Systeme, ISPs und durch viele Hops fließt, bis er sein Ziel erreicht. In diesem Szenario wird die Geschwindigkeit beeinträchtigt.

Inhalte, die auf Standard Tier reisen, werden nicht in vollem Umfang von den Vorteilen des SDN von Google und der enormen Rechenleistung profitieren können, um die besten Routen dynamisch zu berechnen. Der Traffic unterliegt den BGP-Richtlinien aller Systeme zwischen Google und dem Besucher.

Um es auf den Punkt zu bringen. Standard-Tier-Pakete verbringen weniger Zeit im Google-Netzwerk und mehr Zeit damit, in öffentlichen Netzwerken Hot Potato zu spielen, und leisten somit schlechtere Ergebnisse (aber weniger Kosten).

Darüber hinaus verwendet Premium Tier Global Load Balancing, während die Standard Tier nur Regional Load Balancing anbietet, was mehr Komplexität und mehr „Footwork“ für Kunden auf Standard bringt.

Premium Tier Network bietet ein globales Service Level Agreement (SLA), was bedeutet, dass Google die vertragliche Verantwortung für die Bereitstellung eines bestimmten Service Levels übernimmt. Es ist wie ein Qualitätsgarantiezeichen. Standardnetzknoten bieten diese SLA-Stufe nicht an.

Für diejenigen, die mehr darüber erfahren möchten, gibt es einen recht umfangreichen Vergleich und eine Dokumentation der beiden Ebenen auf der Google Cloud Website. Sie bieten sogar ein praktisches Diagramm, das dir hilft, leichter zu bestimmen, welche Netzwerkebene du verwenden solltest:

Network Service Tiers Entscheidungsbaum
Network Service Tiers Entscheidungsbaum. (Quelle: Google Cloud Platform)

Zusammenfassung

Seit Jahren investiert Google in den Aufbau einer globalen Netzwerkinfrastruktur, den Einsatz eigener Protokolle und kundenspezifischer Hardware- und Software-Netzwerkstacks. In Zeiten, in denen das Gesetz von Moore von Jahr zu Jahr schwächer zu werden scheint, ermöglicht die Infrastruktur von Google dem Unternehmen, mit der ständig wachsenden Nachfrage nach Cloud-Ressourcen Schritt zu halten.

Obwohl es in Bezug auf den Marktanteil immer noch hinter Amazon Cloud und Microsofts Azure Cloud liegt, hat Google einige entscheidende Vorteile sowohl für die Glasfaser, die es besitzt, als auch für die innovativen Hard- und Softwarelösungen, die seine Ingenieure einsetzen.

Wir können davon ausgehen, dass Google eine Schlüsselrolle in der Technologie des IoT spielen wird, in Smart Cities, fahrerlosen Autos und die Nachfrage nach Edge Computing wächst weiter.

Google Cloud Network Premium Tier ist das erste Produkt, das die innovativen Netzwerkleistungen von Google nutzt. Es ermöglicht es Kunden, das Netzwerk von Google und den gesamten Stack zu nutzen, um Inhalte mit hoher Geschwindigkeit bereitzustellen. Mit den Garantien von Google in Bezug auf Latenzzeiten.

Kinsta hat es sich zur Aufgabe gemacht, dir die beste Leistung für Anwendungs-Hosting, Datenbank-Hosting und Managed WordPress Hosting auf globaler Ebene zu bieten. Deshalb wird Kinsta mit Google Cloud Hosting betrieben und wir nutzen das Premium Tier Network von Google für alle unsere Hosting Pläne.

Tonino Jankov

Tonino is an entrepreneur, Linux & OSS enthusiast, developer, and tech educator. He has over ten years of experience in development and has been in the blockchain space for 3+ years. When he's not coding, he writes for SitePoint and Alibaba Cloud, binge-watches the newest works of fiction on Netflix, and explores new travel destinations.