Interop Tokyo 2012 3日目 「ShowNetに見る近未来ネットワーク仮想化の姿とOpenFlowの真実」
いよいよ最終日です。
3日目は、PCも順調、席にもちゃんと座れたので、ちゃんとメモが取れました。
○ ShowNet に見る近未来ネットワーク仮想化の姿と OpenFlow の真実 11:00-11:40
講演者:宇多 仁氏 / 関谷 勇司氏 (Interop Tokyo 2012 ShowNet NOC Team ジェネラリスト)
・ShowNetとは?
・最新の技術、機器を集め構築される近未来のネットワーク
→ 「明日のネットワーク」を意識したデザイン
・世界最大のライブデモンストレーション
→ 新技術の相互接続検証をするためのラボ
・contribution(機器、技術、人材)によって構築
→ 60を越える
・年々、特定ベンダの機器で作られる傾向が高まっている。
→ ベンダ各社が集まって作っているのは、いまやTokyoだけ!
・Reborn to the Future
→ これからのネットワークがどういう形であるべきか
→ サービスオリエンテッドなネットワークに変わっていく
(下位レイヤの制約から上位が決まっていくのではなく、
「やりたいこと」を実現するための方法を、ソフトウェア制御で実現していく)
・見所(すべてメモしきれませんでした)
・ Enterprise
→ 40GbE
→ スタック
→ MC-LAG
・事業者
→ MultiService用VPLS
→ コンテンツキャッシュ
→ 10年前からある → キャリアネットワークに入ってきているのがポイント
→ 小さなISPにとっては、トランジット接続のコストが馬鹿にならない
→ Fabric技術
・IPFIX
・トポロジーの可視化
・EtherOAM
→ 実際は多様なプロトコルがある
・セキュリティ
→ 標的型攻撃
・ファシリティ
→ DCIM
→ 環境モニタ
→ 日本は土地の単価が高い → 機器の密度が高い → 冷却効率
→ 当初から、インタオペラビリティを意識して構築
・サーバ
→ オープンソースのハイパーバイザーの隆盛
→ でもやっぱり、ESXi前提のソフトウェアアプライアンスになってしまいがち
→ 一方、KVMの安さも魅力
・測定器
→ テスト自体の自動化による効率的な検査・検証
→ 光スイッチ、光アグリゲータなど
・OpenFlow
→ OpenFlowのさまざまなユースケース
→ 「オープン」に着目
→ セキュリティ
・IPv6移行技術
→ 実利用され始めたNAT64
SA46T、464RAT...
→移行技術にはいろいろある
→ どこに使うかで使うかで、選択すべき移行技術は変わっていく
→ とは言っても、どれを使っても大丈夫
・無線
→ メッシュ&ビームフォーミング
→ 本格的なWi-Fiの普及
→ビームフォーミング
→ クライアントの方向を見ながら、そこに強い電波を出す
→ ShowNet会場では、2.4Gは使い物にならない。5Gは大丈夫かも?
→ この会場に基地局が1000個くらいある → S/N比がどうしようもない
・40Gのスイッチ
→ サーバで40Gに対応しているものがあまりない。
→ テスタでトラフィックを掛け、負荷を高めている。
・100G
→ 今年は真面目に負荷を掛けて、テスタ等も組み合わせている
→ ダイナミックLAGも
・DC同士をShowNetのバックボーンを使って接続している(拠点間のL2延伸)
・VPLS with MC-LAG
→ スタックを使えばいままでも出来ていたが、管理プレーンが一つになってしまう
→冗長性に若干の不安
→ 二つの回線を効率的に使う為に、MC-LAG
→ 上流側が2つなのであれば、下流も2つでいくべき
→ 上下ともにMC-LAG
→ 基本的には、キャリアなどが提供するサービス
→ IPリーチャブルならネットワークはなんでもいい
→ DC側で対応する
・もう一つはWAN高速化装置
→ 疑似拠点間には120msの疑似遅延を挿入してデモしている
→ 隣同士のラックでは、遅延なんて起きっこないため、高速になりようがないから。
→ ほこたてw → NOCブースのホワイトボードにも書いてありましたw
・DC内
→ 今年はFabric
→ 片側ではBrocadeのイーサネットFabric
→ もう片方は、CiscoのFabricパス
・EtherOAMのチャレンジ
・4Byteペアリング
ここから関谷氏(OpenFlowについて)
・OpenFlowを使ってみた
→ 3つのチャレンジ
→ セキュリティ → いちばん苦労した
→ ライフ
→ アクセス
→ これはデモ環境の構築、という感じ
・セキュリティ
・OpenFlowを使って、s-Flowなどを使ってトラフィックを検知し、
あやしいトラフィックを検知したら、そのパターンをコントローラに伝え、
OpenFlowスイッチに指示をして、ルートをねじ曲げてブロックする、という動作をさせている。
・NTTコム提供のフロー解析ツールを使っている。
・RISEコントローラ
→ Tremaベース
→ OpenFlowスイッチ
・ライフ
→ 構築と生活を分けて、一つの平面で二つのネットワークを動かす
・現状で出来ること
→ 各社、1.0仕様で機器が作られている。
→ 相互接続は、まだ「夢」の段階。
→ 各社の癖や、仕様の解釈に違いがあるので、構築する人が調整する必要がある。
→ ルールを入れたから動くわけでは無い。
→ これは、いわゆる「作り込み」で凌げるようなレベルにも達していない段階
・苦労した点
→ コントローラがすべて!
→ コントローラが少ない
→ コントローラは難しい!
→ トポロジ把握のLLDPひとつとっても挙動が違う
→ コントローラがサポートしているOpenFlow製品しか制御できない
→ これって、本当に「Open」なのか???
・よく語られる夢のような使い方
→ VLANの4096枯渇問題を越えられる
→ OpenFlow内部はMPLSラベルや独自フィールドを用いて、VLANの「ような」制御は可能
→ しかし、末端スイッチに届ける場合にはVLANとなる
・管理コストの低減
→ 現状ではコントローラの調整には多大なコストを要する
→構築コストや運用コストはそれほど変わらない(むしろ上がるかも)
・柔軟なネットワークを構築できる
→ 真ではあるが、その対価が見合うかどうか
→ 既存技術の方が安い!
→ 従来のQ-in-Q、MPLS、VPLS、Fabricとの比較
→ OpenFlowを使うことのメリットは?
・OpenFlow構築を担当したメンバいわく
→ 5/31から泊まり込みでネットワークを作っている
→ 専門家集団が数人がかりでも、14日でこのネットワークが作れるかどうか
→ コントローラを作れる人じゃ無いと構築は難しいのでは
→ ポリシーを放り込む機器を識別して、アクションを放り込む方法を変えなくてはいけない
・課題
→ 規模性
→ 冗長性
→ 同期ずれや耐呼称性、コントロールプレーんを分離したことによる弊害
→ コントロールプレーンへのアクセスが切れたときの制御は、
現状では各社でバラバラな仕様になっている
→ 追跡可能性
→ デバックなどが充分に揃っていない
→ 光レベルでのパケットダンプしかないのが現状
→ パケットカウントですら信じられないような状況
→ 相互接続性
→ 多数ベンダ製品の制御
→ コントローラの多様化
・しかし可能性も
→ SDN技術に未来が無いわけではない
→ これからのネットワーク(インターネットでは無い)を買えていく技術だろう
→ 適用範囲を限定し、限定した製品で作り込めばコストに見合うものになっていくはず
→ 大手はそういう方向で進んでいる
・概念としては有用、今後製品化がさらに進む
→ OpenFlow1.3ベースの製品が出てくる(各社はここをひとつのターゲットにしている)
・新たな使いかた
→ コンテンツオリエンテッド
→ クオリティオリエンテッド
→ ユーザオリエンテッド
ユーザからのデマンドで、ネットワークを瞬時に変えていくようなネットワークになっていく。
感想
とても面白く、興味深い講演でした。今回の講演でナンバーワンかも。
内容もとんでもなく濃くて、メモするのが追っつきませんでした。
また、お二方とも、語りが上手い!
特に、後半の関谷氏が語ったOpenFlowの構築に当たっての部分が最高でしたね。
OpenFlowというものは、まだ黎明期の技術なんだな、ということが、
実際に構築した人たちの視点からの語りで、聴いてる側にも実感として伝わってきました。