以下斜め読んだ内容

pseudo translation of useful posts, book reviews, remarks,etc. twitter: feeddict

Guy Podjarny「SPDYのベンチマークに寄せられた声へのリプライ」

Guy's Pod 2012.6.20のブログエントリ

Guy's Pod » Blog Archive » SPDY Benchmark – Feedback Highlights

以下斜め読んだ内容
  • 前に出したエントリ。反響たくさん
  • Q:ウェブサイトはhttpに最適化されてるから「spdyは言うほど速くない」という結論が出たんじゃ?
  • A:
    • 一理ある。が、自分のテストの結論に影響無し
    • http時代の高速化tipsであるdomain sharding
      • spdyと相性悪い
    • domain shardingへの対策
      • 自分も取り組んだ経験あり
      • 例。リソースをページと同一ドメインに引越したり
      • だが、引越しは全てを解決しない
      • domain shardingは未だ使われ続けてる
    • 自分のテストで出した結論に影響はない
    • テスト対象にしたサイトが使ってるドメイン数は、平均18個
    • 自社管理ドメイン(1stパーティドメイン)はわずか2-3個、残りは外部サイトドメイン(3rdパーティドメイン)
  • Q:理想は、サイトがspdyに最適化すること
  • A:
    • spdy時代特有の高速化tipsは今後出てくる、かも
    • たいていはhttpの場合でも有効なものが多い
    • domain shardingはhttp時代限定のtips。例外的存在
    • 理想(みんなspdy)への過渡期として、http/spdy両方対応の時期がある
    • http/spdy両方対応できるサイトは、それなりのインフラ持った所じゃないのと難しく、少数派だと
    • 限られたサイトだけがspdyのメリットを存分に享受
  • Q:テストではCDN〜オリジンサーバ間はhttpだった。それではspdyの真価は測れない
  • A:
    • テストおさらい
      • 対象サイト群がspdy対応のリバースプロキシーをフロントに置いてる、かのような状態にした
      • リバースプロキシ役を演じたのがcotendo cdn
      • エッジサーバ(cdn)とオリジンサーバ(対象サイト)の間の通信はhttpだけ
      • cdnのリージョンは東海岸(new york)
    • オリジン〜エッジサーバ間の通信がボトルネックになる?
      • だからクライアント(ブラウザとか)〜エッジサーバ間がspdyだとしても効果が相殺される
      • という想定をしてる人がこういう疑問出してくる
    • この懸念は的外れ。3つ理由ある
      • 1。間にcdn入れたから遅くなるとかありえない
        • cdnはクライアント〜オリジン間の通信高層化のための技術
        • エッジ〜オリジン間のリクエスト多重化とか色々高速化するためのテクニックが投下されてる
        • akamai、cotendoとかに限らずcdn屋がみんなやってること
        • cdnは実績積み重ねてる
      • 2。レイテンシと帯域の平均を比較すれば、オリジン〜エッジサーバ間の方が圧倒的に上
        • モバイルネットワークと比較すると、その差は一番大きくなる
        • テストによれば、モバイルネットワークでもspdyは高速化にそれほど貢献してなかった
      • 3。クライアント〜エッジサーバ間の平均読込時間は、環境によって大きく変わる
        • ケーブルはモバイルの半分以下のレイテンシ
        • cdn〜オリジン間はクライアント〜cdn間がケーブルだろうとモバイルだろうと一定
    • cdnを間においてるからspdyの価値を測りそこねてるという言い草はナンセンス
    • cdn〜オリジン間がspdyだったとしてもテスト結果は変わらない
  • Q:1stパーティのリソースはcdnに全てキャッシュした状態でテストしないとspdyの真価は分からない
  • A:
    • つまり、エッジサーバ〜オリジンサーバ間の通信が実質ゼロ状態でテストすること
    • 懸念に同意できないが、試してもいいテスト方法
    • 現実のケースには無いようなバイアスを色々持ち込むテストでもある
      • cdn〜オリジン間の通信がほぼゼロなんだから、現実よりもリソース読み込みが当然速なった状態でのてスト
      • spdyのパフォーマンスのテスト結果の信頼性を損なう
      • リソースの読込がどれとっても高速なんだったら、リクエスト多重化の効果は軽減するから
  • Q:spdyファーストなサイト設計がデフォルトになれば、3rdパーティのドメインからのリソース読込は消え去るのでは?
  • A:
    • そうなってほしいが、そんな兆しは見えません
    • 益々3rdパーティドメインからのリソース利用は増えてる
    • ソーシャルプラグインとか3rdパーティのドメインのリソース利用がサイトを遅くする元凶なのは一目瞭然
    • ビジネス上の理由で3rdパーティのリソースはサイトに組み込まれてる
    • 3rdパーティのリソース利用の増大が現在の趨勢
    • spdy(http/2.0でもいいけど)はこの趨勢への対応策を含んだ設計になっていくかな、と感じてる
    • 有りそうもない流れを期待しないspdyの変化

まとめ

    • 誤解があるかも。自分はspdyラブ
    • みんながあらゆる手立てを講じてspdyをプッシュすべき
    • spdyが力を発揮できない局面では発揮できるように障害を取り除くべき

Guy Podjarny「HTTP Pipeliningはwebを速くも遅くもしない」

Guy's Pod 2012.6.26のブログエントリ

Guy's Pod » Blog Archive » HTTP Pipelining – Not So Fast…(Nor Slow!)

  • http pipeliningサポートが普及した
  • でも全然サイト高速化に貢献できてないこと
  • なんで速くなってないのか調べた(サイトの作りが効果を相殺してる)
  • グラフ入りで詳しく書いてるエントリ

spdyのベンチマークの姉妹編のようなエントリで、http pipeliningとspdyが持てる力を発揮できてない理由は共通してる、など勉強になった

以下斜め読んだ内容

http pipelinig

  • 昔から知られた最適化テクニック
  • 最近モバイルでもブラウザでも広く使われつつある
  • chrome/fxはデフォルト有効になった

http pipeliningで速くなったと期待して軽くテストしてみた

  • 全然速くなくてびっくりした
  • びっくりしたので本腰入れてテストした
  • テストして学んだことをまとめた

いきなりまとめ(時間ない人向け)

  • http pipeliningはサイトを高速化しない。が、遅くもしない
  • ネットワーク速度、ブラウザ、サイト。色々変えても結論は変わらない
  • 効果ゼロな理由は現状のwebサイトの設計の仕方にある
    • 読み込むリソースがたくさんのドメインに分散させている
    • フロントエンドの設計が筋悪。スクリプトが読込/ブロックしてる状態を放置してる、とか色々

http pipeliningのテスト結果は、自分のspdyのテスト結果にも通じるものあり

テストその1:firefox13。pipelinineオン/オフ。色々なネットワーク環境

  • テスト前に思ってたこと
    • 遅いネットワーク(レイテンシ高いネットワーク)でpiepeliningは真価を発揮する、はず
  • テスト対象。alexaランキングの上位500サイト
  • テスト・ツール:WebPageTest
  • ブラウザ:Firefox
  • 回線速度:DSL、ケーブル、ファイバー。ツールでシミュレート
  • レイテンシ:2-4段階で変えた
  • 結果
    • グラフにした
    • x軸:レイテンシ(ミリ秒)
    • 読込時間に変化なし:パイプラインon/offで比較して読込時間変化なし
  • DSL
  • ケーブル
  • ファイバー
  • pipeliningの実装は複雑
  • 概念はシンプルだが実装は大変
  • 実装のポイントを前に書いた
  • 実装のポイントをおさらい
    • サーバ側が実装してるかどうかを検知する仕組み
      • サーバの要件
        • http/1.1
        • keep-alive
    • 多くのブラウザの挙動
      • コネクションの度にpipeliningサポートをチェックする
      • リクエスト送ってレスポンスがhttp/1.1かつkeep-aliveかどうかチェックする
      • チェックをパスしてからpipeliningオンにしてサーバ通信開始する
    • コネクションを作るたびにチェックする
    • operaの挙動
      • サーバー単位でpipeliningをチェックする
      • keep-aliveでレスポンス来たら「pipelinigオンでOK」と判断してpipeliningオンにする
      • エラーも増えるが、pipeliningオンにできる場面も増えるアプローチ
    • リクエストを分配するモデルをどうするか
      • ブラウザが4リクエストを2つのコネクション使って出したいとき、リクエストをどうやってコネクションに割り振るか
      • 2つやりかたあり
      • 分配してからリクエストを出す
        • リクエスト1と2を1つ目のコネクションに割り振り、リクエスト3と4を2つ目のコネクションに割り振ってから通信開始
      • 都度リクエストを分配する
        • コネクションの上限数に到達してからpipeliningがオンになる
        • コネクション1にリクエスト1、コネクション2にリクエスト2を割り振って通信開始
        • 開始してから、リクエスト3をコネクション1に、リクエスト4をコネクション3に割り振って、第二弾のリクエストにする
      • 去年ブラウザをテストした時。最大コネクション数に達してからpipeliningがオンになる流れ
  • fx13の実装
      • コネクションごとにpipeningサポートをチェック
      • 最大コネクション到達を待たずにpipelingスタート
        • コネクション1にリクエスト1,2を割り振るやつ
  • 自分の理想
    • サーバ単位でサポートチェック、最大コネクション到達後にpipeliningスタートの組み合わせ
    • fxの中の人も自分と同意見になっていった
    • fx14でテコ入れ入って、fx16で新しくなった
  • fx16
    • piepeningの実装は複雑
    • 自分た書いた2つのポイント以外の要素も追加されてる
    • テストみてもpipeliningの実装として改善してる
  • chrome
    • pipelingオンはコマンドライン経由
    • 実装もfirefoxと違う
  • fx13,fx16,chromeでpipeliningのテストした理由
    • 実装が異なるから

テストその2:firefox16、chrome

  • テスト1と違って1/5の規模でやった。諸事情で
    • alexa上位100サイトで実施
    • 回線はfiberのみ。上り5Mbps。下り20Mbps
    • レイテンシは、300ミリ秒のみ
    • 結果はほぼテスト1と同じ
      • 平均値と中央値の差分も1-2%以下だから無視できる
    • 補足するとfx16はnightlyビルド。なので正式版じゃないのでバグとか機能制限とかあるかも
      • pipeliningモデルの実装がfx13とくらべて大きく変わったのは、waterfallの図を見比べれば一目瞭然
  • fx16(pipe=オフ)、fx13(pipe=オン)、fx16(pipe=オン)

pipeliningがオンになった頻度

  • pipeliningがオンになっててもpipelining通信が発生してるかどうかとは別
  • fx13
    • 初回12リクエストはpipeliningされなかった
    • ドメインあたり13以上リクエストあるときにだけpipelingの恩恵を得る
  • テストツール(=webpagetest)はpipeliningと相性悪い
    • pipeliningされてリクエストを取りこぼしたりしてる可能性がある
    • waterfallの図みても取りこぼしをもいつけることができない
    • pipeliningオフの平均リクエスト数のデータと比較してpipeliningされたリクエストの比率を出した
  • fx13
    • リクエスト数:off=79、on=68
    • pipeされたリクエスト数:11。13.9%
  • fx16
    • リクエスト数:off=78.6、on=65.9
    • pipeされたリクエスト数:12.7。16.1%
  • chrome
    • リクエスト数:off=77.8、on=65
    • pipeされたリクエスト数:12.8。16.4%
  • 全てのリクエストがpipeliningされてない
  • スポットで手動でもテストを行った

テストその3:fx16のbrute foces設定を使う

  • fx16,chromeのpipelining実装はとても複雑
  • 履歴からpipeliningをオンにしたサーバなのかどうかとかから学習するような機能もある
  • fx16のbrute forces設定
    • network.http.pipelining.aggressive
    • pipelining通信を最大限行う設定で、フォールバック機能付き
  • alexa上位100サイトでfx16をbrute force設定で追加でテストしてみた
  • 結果は前(brute forceオフ)と大差ない
    • pipeliningオフ時と比べると、平均値は3%遅く、中央値は8%遅い
    • pipelining利用頻度は35%まで上がった
  • brute force設定オンにしてpipelining利用率最大化したら結果
    • 却って遅くなったサイトが出てきた
    • 速くなったサイトもあり、だいたい10-15%高速化
  • brute modeオンはまだ適切じゃない
    • ブラウザがpipeliningオンにすべきかどうかまで学習できてるわけじゃないから
  • 最良の結果が出た所だけとってもpipeliningは1%の高速化にとどまった

なぜ高速化しないか

  • ありそうな説明
    • 読込が遅いリソースが混じってると、順番待ちしてるリソースの読込がブロックされた状態が長くなる
    • 読込が遅いリソースとそうでないリソースを自動判定する仕組みは実現が難しい
    • 自分はこれが原因ではないと思ってる
  • pipelining機能を活かすようなウェプページになってないのが原因
  • 16%のリクエストでしかpipeliningが実際に使われてない
    • brute force設定オンでも35%くらい
  • リソース別にみると、jsやcssの読込はpipelingほとんどされてない。画像系がpipeliningされてた
  • 画像のようなサイズ大のリソースのpipeliningはそれほどインパクト大きくない
  • brute force設定オンの時にパフォーマンスが改善したサイトがいくつかあった
  • 改善するサイトの数はどんどん増やしていけると思う
  • pipeliningが実際に使われる頻度が低い理由
    • リソースが多数のドメインに分散しすぎ
      • 平均で18ドメイン使ってた
      • 各ドメインは1-2リソースしか読み込まれないからpipeliningが利用される機会がない
    • フロントエンド実装にボトルネックあり
      • cssの@importやjsが他のリソースの読込をブロックしてる状況
      • pipeliningはこの状況を改善するものじゃない。引き続きブロックされ続ける
    • pipelining実装も万全じゃない
      • proxyなどがpipelining通信を邪魔する可能性にブラウザが備えないといけない
      • pipeliningが利用可能かどうかをブラウザの検知機能がもっと良くならないといけない

まとめ

  • 理論上はpipeliningは有益
  • webはプロトコルに最適化していく途上
  • 現在のサイトは複雑な怪物で、プロキシは役割から外れた振る舞いする
  • Subbu Allamarも似たようなこと言ってた
  • spdy利用は状況を改善策として指摘できる
    • が、指摘したボトルネックへの解決策ではない
  • リソースの複数ドメインへの分散や筋の悪いフロントエンド実装は、プロトコルで解決できるものじゃない
  • pipeliningの力を存分に引き出すために必要なこと