ウェブサイト読み込み時間を高速化する今日のレースの中では、ミリ秒が勝敗を決します。Kinstaのスタッフは、販売、コンバージョン、ユーザーエクスペリエンス、ユーザーエンゲージメントにウェブサイトの速度が与える影響をテスト、調査しました。
注意したいのは、速度の向上にはオンサイトオプティマイゼーションがカギを握る一方で、考慮すべき点はそれだけではないこと。サイトを支え、サイトと訪問者をつなぐハードウェアとネットワークインフラも非常に重要です。
今回の記事では、Googleがネットワークインフラストラクチャに多額の投資をしている理由と、Google Cloud Platformのプレミアムティアネットワークとスタンダードティアネットワークの違いについてご説明します。
帯域幅と待機時間(ホスティングインフラストラクチャにおけるパフォーマンスの主要な基準)
Google Cloudのネットワークについて詳しく話を始める前に、まず帯域幅と待機時間の2つの概念を理解することが重要です。
帯域幅は、ネットワークのスループットの容量であり、Mbpsで測定されます。一方、レイテンシは、遅延または途中のさまざまなルーターがウェブのリクエストとレスポンスに追加するすべての遅延の合計を意味します。
帯域幅やスループットは、一定の時間(秒)に一定の水量が流れることのできるホースに例えることができます。そして、レイテンシは、水道管が開いてから噴出が始まるまでの遅延です。
異なるルーター間での接続を確立する際の小さなオーバーヘッドにより、「経由」が増えるたびに、最終的なリクエストとレスポンスにわずかな遅延が追加されます。
そのため、訪問者とウェブサイトがホストされているサーバーの間の距離が長いほど、遅延は大きくなります。また、ネットワークの断片化が進むと、遅延が大きくなります。
これは、traceroute(またはWindowsではtracert)と呼ばれるツールで理解できます。次のスクリーンショットでは、このツールを使用して、ヨーロッパからの2つのリクエストのルーティングの遅延を調べてみました。具体的にはweibo.comを対象としています。

そして、bbc.co.ukも試してみました。

予想どおり、中国のサイトまでのホップ数は、ヨーロッパにおけるそれのほぼ2倍です。そのため、イギリスでホストされているウェブサイトのリクエストに比べて、待ち時間が長くなります。
tracertにある3つの列は、3つの往復(RTT)を表しています。各行は、途中の異なるルーターまたはホップの数を表します。多くの場合、一定のルーターの場所を特定するのに役立つURLが用意されています。
中国/香港のルーターとの間の往復時間は3分の1秒近くかかります。
pingdom toolsを使用して、Pingdomのオーストラリアのロケーションからロンドンでホストされているウェブサイトを読み込み、ウェブサイト全体の読み込み時間の内訳を確認しました。

こちらが、このテストシナリオで読み込んだ小さなCSSファイルデータです。「接続」部分が、このリソースのロードで最も多くを占め、「SSL」と「待機」がそれに続きます。接続から待機時間までのすべての時間は、タイムトゥーファーストバイト(以下、 TTFB)としても知られ、これにはネットワークレイテンシも含まれます。
インターネットサービスプロバイダーがインターネット接続の速度を宣伝するとき、通常、帯域幅(「ホースの太さ」を覚えていますか?)に焦点を当てますが、これは実際には速度の尺度ではありません。ホースの太さで、ウェブサイトの速度をある程度まで上げることができます。高解像度のビデオコンテンツをストリーミングする場合など、1秒間に大量のデータを送信する必要があるときに便利です。しかし、リアルタイムのマルチプレイヤーゲームをオンラインでプレイしているユーザーにとっては、待機時間の方がはるかに重要です。
HTTP/2の仕様とSPDYプロトコルの作成者の1人であるMike Belshe氏は、帯域幅の増加がウェブサイトの読み込み速度に与える影響と、待機時間がウェブサイトの読み込み速度に与える影響を分析しました。
以下が、素敵な図にまとめられたBelshe氏の調査結果です。

帯域幅を増やしてウェブサイトの速度を改善することは、パフォーマンスを向上させる最も効果的な方法ではない、という事実は明らかです。一方、RTT(ラウンドトリップタイム)または待ち時間を短縮することにより、ページの読み込み時間の一貫した改善が見られます。
ネットワーク vs ピアリング vs トランジット
このトピックをもう少しよく理解するには、インターネットトポロジーの基本を把握する必要があります。中核となるグローバルインターネットは、複数のグローバル、リージョナル、ローカルネットワークで構成されています。
2018年現在、AS(自律システム)は60,000以上あります。これらのネットワークは、政府、大学、ISPに属します。
そのうち、ティアワン、ティアツー、およびティアスリーネットワークに区別されます。これらの層は、インターネット全体の各ネットワークの独立性を表しています。
- ティアワンネットワークは、インターネット上の他のポイントに接続するために料金を支払う必要がない(無償)という意味で、独立しています。
- ティアツーネットワークは、他のISPとピアリング契約を結んでいますが、トランジットに対して支払いを行います。
- 最下位にあるティアスリーネットワークは、上位の層からトランジットを購入することで、インターネットの残りの部分に接続しています。インターネットにアクセスするためにお金を払わなければならない消費者のようなものです。
ピアリングとは、2つのネットワークが同等にトラフィックを交換することを意味します。そのため、どちらのネットワークもトランジットに対してもう一方に支払わず、無料でそれを提供しています。
ピアリングの主な利点は、レイテンシが大幅に短縮されることです。

上の画像では、リモートロケーションのデータセンターでホストされているウェブサイトを取得するために、リクエストがティアワン、ティアツー、ティアスリーのISPの階層ネットワークを通過するという古典的なシナリオが示されています。
矢印はリクエストの進み方を表しています。破線の矢印はトランジット接続を表し、実線の矢印はピアリング接続を表します。
ティアワンプロバイダーに到達すると、同じレベルの別のプロバイダーとの関係はピアになります。ティアワンネットワークは他のネットワークに接続し、ピアリングパートナーのみを介してリクエストを中継します。その際、トランジットに費用を支払うことなく、インターネット上のすべてのネットワークに到達できます。
また、2つのティアツープロバイダーによる(青緑色で示された)ピアリング契約の別のシナリオも見てとれます。このシナリオのホップ数は少なく、ウェブサイトの読み込み時間が大幅に短縮されます。
ボーダー ゲートウェイ プロトコル(BGP)
BGPは、非常に技術的な文脈を除いて、めったに語られることはありません。ただし、この通信規約は、今日知られているように、インターネットの中心に位置しています。これは、インターネット上のほぼすべてにアクセスする能力の基本であり、インターネットプロトコルスタックの脆弱なリンクの1つでもあります。
BGPは、2006年のIETFの「リクエスト フォー コメンツ#4271 (RFC)」で定義されており、その後、いくつかの更新が行われています。 RFCはこのように定めています。
「BGPスピーキングシステムの主な機能は、ネットワーク到達可能性情報を他のBGPシステムと交換すること」
簡単に言えば、BGPは、ネットワークリクエストの正確なルートを決定するプロトコルであり、その目的地へは数百および数千のノードが考えられます。

それぞれのノードを自律システム、または複数のノードまたはルーター、サーバー、それに接続したシステムで構成されるネットワークとして考えることができます。
BGPプロトコルには、自動検出アルゴリズム(新しく接続したすべてのノードが接続するための隣接するノードを検出できるメカニズムまたはプロトコル)はありません。ですので、すべてのBGPピアが手動でピアを指定する必要があります。パスアルゴリズムに関しては、Ciscoの専門家の言葉を引用します。
「BGPには、どのパスが最適であるかを決定する単純な指標がありません。代わりに、各ルートについて広範な属性を持ち、最大13のステップで構成される複雑なアルゴリズムを使用して、最適なパスを決定します。
自律システムは、ピアにルーティングデータを送信しますが、パスの選択に関して強制される厳格なルールはありません。BGPは暗黙的に信頼に基づいたシステムであり、これは今日のインターネットの最大のセキュリティ上の欠陥の1つとなり得ます。2018年には、EMyEtherWallet.comのトラフィックがハイジャックされ、200を超えるイーサリアムが盗まれた(価値にして152,000ドル相当)ことで、この脆弱性が露呈しました。
実際、BGPのこの弱点により、 エンドユーザーの効率と速度よりも、他の要素を念頭に置いてさまざまなネットワーク(AS)がBGPデータを送信することが多くなります。ここで優先されるのは、有料のトラフィックなどの商業的利益、または政治的、安全上の考慮となることがあります。
クラウドコンピューティング、CDN、エッジマーケットの開発
ウェブ業界、オンラインゲーム、モノのインターネットなど、IT市場のニーズの高まりに伴い、レイテンシの問題を解決するサービスや製品の市場は明らかになりました。
毎年、訪問者の近くに静的リソースをキャッシュする( コンテンツ デリバリ ネットワーク)、または実際のコンピューティングをエンドユーザーに近づけるクラウドベースの製品が増えています。そのような製品の1つがCloudflareのワーカーで、これはCloudflareのエッジノードのネットワークでV8(JavaScriptエンジン)互換コードを実行します。つまり、WebAssemblyまたはGOのコードでさえ、訪問者の非常に近くで実行できることを意味します。
AmazonのLambda@Edge、そして、IoT市場を対象としたJoint Edge Computing Platform(JECP)を提供するIntelとAlibabaのパートナーシップもこの傾向を示す一例です。
もう1つ、Googleキャッシュノードのグローバルネットワークが、子会社であるYouTubeのCDNとビデオキャッシュ/デリバリネットワークの両方として機能していることも言及に値します。
クラウド業界がいかに洗練され、高度に進化したのか、そして、エンドユーザーのネットワークレイテンシをどれだけ短縮できるのか理解するために、GaaSを見てみましょう。
GaaSとは「ゲーミング アズ ア サービス/Gaming as a Service」の略です。これは、クラウドでホストおよび実行されるゲームをユーザーがプレイできるようにする製品です。 こちらの記事では、GaaSにおける著名な製品の比較を行なっています。
ゲーム用のテレビやビデオプロジェクターを購入したか、テレビと別のデバイス間でMiracastやその他のキャスト接続を設定するのに時間を費やしたことがある人なら誰でも、レイテンシがどれほど重要か心得ているはず。ただ、4kの解像度と60Hzのリフレッシュレートでゲームストリーミングを提供するGaaSプロバイダーも存在し、ゲームのプレーヤーはハードウェアに投資する必要はありません。
アメリカでの最近のファーウェイ禁止の一件により、5Gネットワークの問題と、世界のネットワークインフラストラクチャをアップグレードする明確な道筋の必要性が明るみに出ました。
スマートシティ、スマートハウス、自動運転車を調整するために、最小限の遅延でリアルタイムに大量の情報を中継するセンサーは、エッジデバイスの高密度ネットワークに依存します。レイテンシは、さまざまなセンサー情報、LIDARデータ、そして他の車両のデータを処理する必要のある自動運転自動車などにおいて、現在は大きな制限になっています。
この競争の最前線にいるのが、コンテンツデリバリネットワークとクラウドコンピューティングプロバイダー。業界を牽引する大手企業が導入し、リクエスト/レスポンスのサイクルを制御することのできるQUIC/HTTP3プロトコルについては、こちらの記事でご説明しています。
クラウドプロバイダーはレイテンシの問題をどのように解決しているのか
市場シェアで最大のクラウドプロバイダーとして考えられるのは、AWSでしょう。2016年には、ハワイ、オーストラリア、ニュージーランド間の帯域幅の拡大と遅延の削減を目指し、「ハワイキ太平洋海底ケーブルシステム」への投資を行いました。これは、海底インフラストラクチャへの最初の投資であり、2018年に稼働開始しています。

その時点で、Googleはすでに海底ケーブル設置においては競合他社をはるかに上回っていました。Amazonの最初の投資の1年前に、ITWorldは「Googleのデータセンターは通常のネットワークに対し成長が速すぎるため、独自に構築することに」というタイトルの記事を公開しています。
実際、テクノロジージャーナリストであるMark Stephens氏(別名、Robert X Cringely)が2015年に、PBS.orgのコラムで、Googleの「ダークファイバー爆買い」(設置されたものの未使用の光ファイバーインフラストラクチャ)についてコメントしています。
「これはアカマイ以上の存在—筋肉増強版のアカマイ。専用のバックチャネルとアプリケーション固有のハードウェアを備えた、動的に駆動するインテリジェントかつ熱核融合レベルのアカマイです。インターネットがあり、その上にGoogleのインターネットが鎮座する状態でしょう」

2010年、zdnet.comの記事で、Tom Foremski氏は次のように述べています。
「Googleは、インターネットの大部分を所有している企業の1つです」から始まり、以下のように続きます。「Googleは、最も効率的で低コストのプライベートインターネットの構築に注力しています。このインフラストラクチャはGoogleの鍵であり、Googleを理解する鍵でもあります」
当時、Cringleyの記事は、Googleがインターネットを乗っ取ろうとすることについて懸念を示していましたが…同社が米国最大の各都市におけるISP市場を征服しようとGoogle Fiberを立ち上げたときに、事態はより明確になりました。プロジェクトはその後、失速し、TechRepublicは2016年にプロジェクトの事後分析を公開。しかし、インフラストラクチャーへの投資は、今や世界規模で見れば、減速していません。
今年稼働予定のGoogleの最新の投資は、アメリカ、ロサンゼルスとチリ、バルパライソを結ぶバックボーンであり、パナマへの将来的な接続も視野に入れられています。
「インターネットは一般的にクラウドと呼ばれる。しかし、実際には、これは濡れた壊れやすいチューブの集まりであり、Googleは驚くほど多くのチューブを所有しようとしている」— VentureBeat
Googleがこれほどネットワークインフラストラクチャに投資する理由

Googleが一番の検索エンジンであるということは誰もが知っていますが、以下の側面も持ち合わせます。
- 世界最大のビデオプラットフォームを所有
- 世界最大のメールサービスプロバイダー(GmailとGoogle Workspace)
- クラウドコンピューティング製品でかなりのお金を稼いでいる(年間80億ドル以上)
そのため、可能な限り最小のレイテンシと最大の帯域幅が必要なのです。また、Googleは帯域幅とレイテンシについての「飽くなき飢え」により、AmazonやMicrosoftのような大企業と同様に、完全カスタムのハードウェア、ソフトウェアソリューションを考え出す必要があるため、実際のインフラストラクチャも所有したいと考えています。

ポイント オブ プレゼンス—エッジPoPノード—は、Googleのグローバルプライベートケーブルネットワークの末端にあり、そこで、Googleのデータセンターに接続するトラフィックの入口と出口として機能しています。
Intelの共同設立者であるGordon Moore氏が、ムーアの法則を唱えました。2年ごとに、集積回路に搭載できるトランジスタの数は2倍になる、とするものです。何十年もの間、この予測は真実となりましたが、現在、コンピューティング業界は今、ムーアの法則に厳しい試練を与えようとしており、さらに、近い将来にその終末すら訪れるかもしれません。参考までに、 NVIDIAのCEOは、今年の初めにムーアの法則は死んだと宣言しています。
では、これがクラウド業界やGoogleのネットワークインフラストラクチャとどのように関係しているのでしょうか?
Foundation Connectイベントで、Googleのネットワーク テックリード兼ヴァイスプレジデントであるAmin Vahdat氏は、ムーアの法則の終結を認め、会社の難問を説明しています。
「私たちのコンピューティングに対する需要は驚くべき速度で成長し続けており、アクセラレータとより緊密に結合されたコンピューティングが必要になります。ネットワークファブリックは、これら2つを結び付ける上で重要な役割を果たすでしょう」
クラウドプロバイダーがコンピューティングパワーの増大を続ける需要に対応する1つの方法として、クラスタリングが挙げられます。簡単に言えば、クラスタリングとは、複数のコンピューターをまとめて単一の問題を処理し、単一のアプリケーションのプロセスを実行することを意味します。明らかに、このようなセットアップから利益を得るための1つの前提条件は、低いレイテンシまたは膨大なネットワーク容量です。
Googleが独自のハードウェアの設計を開始した2004年には、ネットワークハードウェアベンダーはボックスの観点から考えており、ルーターとスイッチは、コマンドラインを使用して個別に管理する必要がありました。それまで、Googleはシスコなどのベンダーからスイッチのクラスターを購入し、1台のスイッチごとに大金を費やしていたのです。それでも、機器は成長に追いつけませんでした。
Googleには、別のネットワークアーキテクチャが必要でした。Googleのインフラストラクチャに対する需要は飛躍的に増大しています(2015年のGoogleの調査論文によると、ネットワーク容量は10年で100倍に増加したとのこと)。その成長は非常に急速であったため、既存のハードウェアを購入するコストの観点からも、独自のソリューション開発が急がれました。そして、Googleは、汎用のシリコンチップからカスタムスイッチの構築を開始し、よりモジュール化された別のネットワークトポロジを採用することに。
Googleのエンジニアは、 Clos Networkと呼ばれる古いテレフォニーネットワークモデルの構築を開始しました。これにより、スイッチごとに必要なポート数が削減されるという狙いです。
「クロス・ネットワークの利点は、同一の安価なデバイスをまとめて使用してツリーを作成し、他の方法では構築するのにコストがかかる高いパフォーマンスと回復力を獲得できることです」— Clos Networks: What’s Old Is New Again, Network World
この新しいモジュール式ハードウェアについて、Googleのチームは既存のプロトコルを再定義し、カスタムネットワークオペレーティングシステムを構築する必要もありました。そこで直面した課題は、膨大な数のスイッチとルーターを取り、それらを単一のシステムのように操作することです。
カスタムネットワーキングスタックと再定義したプロトコルの必要性から、GoogleはSoftware Defined Networking(SDN)へと移行。以下は、Googleのヴァイスプレジデント、エンジニアリングフェロー、ネットワークインフラストラクチャチームのリーダーであるAmin Vahdat氏による2015年の基調講演です。検討、考案されたすべての課題と解決策が説明されています。
好奇心が強い人のために、この興味深いブログ記事もオススメです。
Espresso
Espressoは、GoogleのSDNにおける最新の柱だと言えるでしょう。これのおかげで、Googleのネットワークは、物理的ルーターの制約を超えて、Googleのピアリングパートナーとの間で送受信されるトラフィックを学習および調整することができます。
Espressoの力により、Googleは接続のパフォーマンスをリアルタイムで測定し、特定の訪問者にとって最適なポイント オブ プレゼンスをリアルタイムデータに基づき決定します。このようにして、Googleのネットワークは、ピアリング/ ISPパートナーのさまざまな混雑、減速、停止に動的に対応できます。
その上、Espressoは、Googleの分散コンピューティングパワーを利用し、すべてのピアネットワークデータを分析することも可能です。すべてのルーティング制御とロジックは、個々のルーターやボーダー ゲートウェイ プロトコルに存在するのではなく、Googleのコンピューティングネットワークに転送されます。
「大規模なコンピューティングインフラストラクチャとアプリケーションそのものからの信号を活用、エンドユーザーの質に対する認識に基づき、個々のフローがどのように実行されているかを学習します」— EspressoがGoogleクラウドをさらに高速に(2017年)
ここまでの話とGoogleクラウドネットワークとの関連性
これまでにご紹介したすべては、Googleが、現在提供する最高のグローバルプライベートネットワークを構築するために乗り越えてきた問題と課題(ハードウェアベースとソフトウェアベースの両方)を強調するためのものでした。
市場占有率に関しては、Google Cloud Platformは、AWS、Microsoft Azureに次いで世界3位についています。しかし、プレミアムプライベートネットワークインフラストラクチャに関しては、BroadBand Nowのこのデータが示すように、競合他社を大きく引き離しています。

2014年、GigaOMはAWSとGoogle Cloud Platformを比較した記事を公開しましたが、わずか1週間後、別の記事「GoogleとAmazonのクラウド比較検討で見逃していたもの…ファイバー!」を公開しています。そして、その記事の中で彼らはGoogleがインフラストラクチャの面で何年も先を行っていることを認識しています。
「大きく、高速なパイプをあなた、そして、あなたの顧客のトラフィックのために利用できるようにするのは、大変なこと」— GIGAOM、Barb Darrow
Googleのプレミアム vs スタンダードティアネットワーク

Google Cloud Platformには、価格とパフォーマンスの両方が異なる2つのネットワークティアが用意されています。
Googleのプレミアムティアネットワーク
Googleのプレミアムティアネットワークを使用すると、グローバルに分散されたポイント オブ プレゼンスからグローバルなファイバーネットワークを利用できるようになります。利用者からGoogleのデータセンターへのすべてのイングレス(インバウンド)トラフィックは、最も近いポイント オブ プレゼンス(世界各所に位置)にルーティングされ、その後リクエストは、100%Googleのプライベートバックボーンを介してルーティングされます。以前の記事で述べたように、これは遅延が30%改善されるか、帯域幅が50%改善されることを意味します。
反対方向に戻る、データセンターから訪問者に送信されるすべてのデータは、 Cold Potatoポリシーを使用しルーティングされます。スタンダードティアネットワークで使用されるHot Potatoルーティングではトラフィックは可能な限り早期に他のISPに渡される(またはドロップされる)ものの、対照的に、プレミアムティアルーティングでは、出力トラフィックがGoogle自身のファイバーで可能な限り保持され、可能な限り訪問者に近いピア、中継ISPへと渡されます。
より易しい言葉で言えば、プレミアムティアパケットは、Googleのネットワークでより多くの時間を費やし、あちこち経由する必要性が減るため、パフォーマンスが向上します(ただし、コストもかかります)。
もし読者の中にSF好きな方がいたら…ふわふわと漂うことなく、目的地まで直接運んでくれるワームホールに匹敵するとお考えください。
Kinstaでは、すべてのホスティングプランでGoogle Cloudのプレミアムティアネットワークを使用しています。これにより、距離とホップが最小限に抑えられ、データのより安全かつ高速な転送が実現します。

Googleのスタンダードティアネットワーク
一方、スタンダードティアネットワークは、コンテンツまたはウェブアプリが存在するデータセンターの近くにあるポイント オブ プレゼンスを使用します。つまり、訪問者のトラフィックは、目的地に到達するまで、さまざまなネットワーク、自律システム、ISP、多くのホップを通過します。そして、速度は低下します。
スタンダードティアで届けられるコンテンツは、GoogleのSDNと膨大なコンピューティングパワーの利点を最大限に活用して、最適なルートを動的に計算することはできません。トラフィックは、Googleと訪問者の間のすべてのシステムのBGPポリシーに左右されます。
易しい言葉を使うなら、スタンダードティアのパケットでは、Googleのネットワークで費やす時間が短くなり、パブリックネットワークでの処理時間が長くなるため、パフォーマンスが低下します(コストは下がります)。
さらに、プレミアムティアはグローバルロードバランシングを使用しますが、スタンダードティアでは、リージョナルロードバランシングしか利用できません。
プレミアムティアネットワークは、国際規模でのサービスレベル合意書(SLA)を提供しています。つまり、Googleが一定レベルのサービスを提供する契約上の責任を負うという意味です。品質保証のサインだとお考えください。スタンダードティアには、このレベルのSLAは付随していません。
詳細を知りたい人のために、Google Cloudのウェブサイトから2つのティアの細かい比較が確認できます。使用すべきネットワークティアを簡単に決められるグラフも掲載されています。

まとめ
Googleは長年にわたり、グローバルネットワーキングインフラストラクチャの作成、独自のプロトコル、カスタムハードウェア、ソフトウェアネットワーキングスタックの展開に投資してきました。ムーアの法則が年々弱くなると思われるこの時代であっても、Googleのインフラストラクチャにより、クラウドリソースに対する需要の高まりに対応することができます。
市場シェアでは、AWSとMicrosoft Azureに遅れをとっているものの、Google Fiberとエンジニアが展開する最先端のハードウェア、およびソフトウェアソリューションの両方において、いくつかの面で決定的な優位性をもっています。
GoogleがIoT、スマートシティ、自動運転といった技術で重要な役割を果たすことが予想でき、エッジコンピューティングの需要は増え続けています。
Google Cloud Networkプレミアムティアは、Googleの革新的なネットワーキングの成果を活用した最初の製品です。これにより、Googleのネットワークとスタック全体を活用して、コンテンツを最高速度で配信できます。レイテンシに関するGoogleの保証付きです。
Kinstaは、業界トップクラスのアプリケーションホスティング、データベースホスティング、およびWordPress専用マネージドホスティングを世界規模で提供することに尽力しています。Google Cloud Platformのみを採用し、すべてのホスティングプランにGoogleのプレミアムティアネットワークを使用しています。
コメントを残す