インターネットはもともとメール交換やファイル共有を目的として開発されてきたが、1990年代にWWW (World Wide Web)が発明され、インターネットに接続されたコンピュータ(エンドホストと呼ぶ)上に散在する情報の関連付けが可能になった。さらに、メディア処理技術やユーザインターフェース技術の進展に伴って、テキスト情報だけでなく、マルチメディア情報も扱えるようになり、現在のインターネット環境が整えられるようになった。
インターネットに接続されているホスト数は現在、全世界で数億台に達するとも言われ、コンピュータの前にいながらにして世界中の情報が得られるようになっている。インターネットを支える通信技術は、エンドホストの間でパケットを誤りなく通信するために定められているTCP (Transmission Control Protocol)と、パケットを送信ホストから受信ホストまで、ネットワーク内のルータを経由しつつ送り届けるIP (Internet Protocol)が中心になっている。すなわち、ネットワーク内においてはIPがエンドホスト間の接続性(connectivity)を保証するだけであり、ベストエフォートネットワーク(エンドホスト間でやりとりされるパケットをできる限りの努力で配送する)と呼ばれているゆえんである。
以下では、通信品質(QoS: Quality of Service)要求を満たすネットワーク、および、P2Pネットワークを紹介しつつ、現状のネットワークの問題点を考察する。
ユーザのさまざまな通信品質(QoS: Quality of Service)要求を満たすような機構をネットワーク内に実現するには、それらの要求に対応できるようにネットワーク資源(回線、ルータバッファなど)を積極的に管理するしくみが必要になる。事実、情報のマルチメディア化に伴い、メディアごとに異なるQoSを満足させるための機構に関する研究が近年さかんに行われてきた。たとえば、あるエンドホストのペアの間で回線容量のうちの一部の通信容量(帯域と呼ぶ)を保証するためには、
が必要になる。これらによって、エンドホスト間に通信帯域が保証され、常に一定時間内に情報が届けられるようになり、品質の高い通信が実現できる。実際、上述のしくみはインターネットの標準化団体であるIETFにおいてIntServ (Integrated Services)ネットワークとして標準化され、将来のマルチメディアネットワークの基盤となることが期待された。しかし、IntServネットワークに対して以下の2つの問題がすぐに指摘されるようになった。
インターネットのように常に成長しているネットワークにおいては、システムの巨大化とともに処理量がどのように増加するかが問題となる。たとえば、ホスト数、あるいはユーザ数Nに対して処理量がN
IntServでは、世界中のすべてのルータがIntServ機構をサポートしていないと、QoS保証の論理が破綻する。新しいネットワークが優れたものであっても、現行からの移行シナリオがなければ受け入れられない。
IntServの反省に基づき考案されたのが、DiffServ (Differentiated Services)である。そこでは、QoS保証はあきらめ、QoSに関するコネクション間の差別化にとどめることにより、上述の2つの問題点は解決された。しかし、DiffServアーキテクチャについてもいくつかの問題点が指摘されており、広く利用されるには至っていない。
ここでは、特に、上記2つのネットワークに共通する問題点として、以下の点を指摘しておきたい。IntServではQoS保証のために、送受信ホスト間のすべてのルータにおいてネットワーク資源を確保する。そのために、途中経路をあらかじめ決めておく必要があり、通信中にルータや回線の故障があるとそのしくみ自体が破綻する。これはDiffServにおいても共通するものである。特に、今後、モバイル通信技術が発展すると、たとえ故障が発生しなくとも、エンドホストの移動によって、エンドホスト間のネットワーク資源は半固定的に存在するという仮定自体が成立しなくなる。
しかし、Webシステムにおいては、Webサーバへの負荷集中により、サーバコンピュータの処理が極度に遅くなったり、果てはダウンしたりすることもある。そのため、サーバの並列化や分散化、プロキシキャッシュサーバ(遠方のWebサーバにある情報を一時的に保管する)の設置などによって負荷を分散する方法がとられるようになってきている。しかし、コスト面も含めてそのような対策には限界がある。特に、ADSLやFTTH などの導入でユーザがインターネットに常時接続するようになってトラヒックが増大していること、光通信技術の発展によって回線容量が増大する一方、サーバコンピュータの高速化には限界があること、などからサーバボトルネックは顕著になりつつある。
このような背景の中、エンドホスト間の直接的な通信によってサービスを実現するP2Pネットワークが登場してきた。インターネットはもともとエンドホスト間の通信が原則であり、このようなことを強調すること自体、奇異に映るかもしれない。しかし、Webシステムの登場により、ネットワークはサーバ主体のものになった。P2Pネットワークを導入し、サーバ主体のWebシステムから脱却することによって、耐故障性やスケーラビリティを確保できること、サーバを介さない「中抜き」によってサーバやネットワークの初期導入コストや管理コストを削減できること、その結果、情報システムの運営者、管理者が不要になること、などが期待できる。また、サーバを介さず、ユーザがさまざまなコミュニティに属することができるようになるため、情報化時代における自律・分散・協調による主体的活動を促進できる。さらに、サーバの中抜きによる新しいビジネスモデルの創出も期待できる。
クライアントサーバシステムでは、Webサーバにアクセスすれば情報があり、ファイルサーバにアクセスすればファイルがある。また、情報がない場合には検索サーバにアクセスすれば情報の所在を見つけることができる。一方、P2P ネットワークにおいては、サーバがないゆえに、情報が必要になったときに、その情報をネットワーク上のどのエンドホスト(P2Pではピアと呼ぶ)が所持しているかを発見する機構が必要になる。そのため、P2Pネットワークにおける情報資源の発見機構に関する研究が最近活発に行われている。以下に、2つの方法を紹介する。
ピュア型P2Pでは、情報が必要になった場合、ネットワーク上のすべてのピアに対して問い合わせ(query)を行う。情報を所有しているピアは、そのことを問い合わせピアに対して通知する。いくつかのピアから通知があった場合、問い合わせを行ったピアは、最適なピアを選んでそのピアから情報を取得する。問い合わせはフラッディングにより行う。すなわち、各ピアは問い合わせに該当する情報を持たない場合、隣接するすべてのピアに問い合わせメッセージを受け渡す。問い合わせメッセージを受け渡す回数には上限(TTL: Time-to-Live)を設けておく。ピュア型では情報を維持するサーバが不要になり、Webシステムに比して耐故障性が確保されている。一方、問い合わせのフラッディングのために、スケーラビリティに欠ける。たとえば、TTL=10の場合、すべてのノードが6ピアに受け渡すとすると最悪610個オーダの問い合わせメッセージが発生する。
スケーラビリティに欠けるシステムの解決策として通常とられるアプローチは、対象となるシステムを階層型にすることである。ハイブリッド型P2Pでは、情報自体はピアが持っているが、メタ情報(情報そのものの所在を示す情報)はサーバによって管理され、各ピアはサーバにメタ情報を登録する。その結果、ある情報を必要とするピアは、問い合わせ(query)をサーバに対して行えばよい。サーバが情報所有者を問い合わせピアに返した後、実際のデータ送受信が行われる。ハイブリッド型では、ピア数の増大に対するスケーラビリティが確保され、また、ピアはサーバに問い合わせればよいので探索が速い。しかし、Webシステムと同じように、負荷の一極集中が発生する。また、サーバの故障の可能性を考えると耐故障性に弱いと言える。
以上のように、現状では、スケーラビリティと耐故障性、性能は相反の関係にあり、最終的な解決策はまだ得られていないのが現状である。しかし、P2Pネットワークがもたらす影響は大きく、(1) 分散環境においてCPUやディスクを共有するためのGrid計算ネットワーク、(2) ネットワーク上での仮想的なコミュニティ(サイバーコミュニティ)、(3) さまざまなセンサを至るところに配置し、そのセンサ情報を利用するセンサネットワーク、(4) 無線通信機能を有するデバイス(PDAやパソコンなど)の間の通信を提供するアドホックネットワーク、などの基盤技術となることが期待されている。たとえば、以下のように現在、発展しつつあるさまざまな応用に対する基盤技術となることが期待されている。
以上2つの例で明らかなように、今後、ネットワークにおいて重要となるキーワードは、以下の3つであると考えられる。
インターネット利用人口の増加は言うまでもなく、センサ機器の増大、情報家電の普及など、インターネットに接続される情報機器端末の数は今後ますます増大する。また、それらの機器は当然、モバイル環境において利用されることを前提とする。その結果、ネットワーク資源の管理方法も当然変化せざるをえず、また、ルータ数やエンドホスト数、ユーザ数の増大に対応可能としておく必要がある。
ネットワーク技術はますます多様化している。無線LANやWCDMA 技術などによる無線回線、DSLやFTTH技術などのアクセス回線、ギガビットイーサなどのLAN、光通信技術によるバックボーン回線など、さまざまな高速化技術が開発されつつある。その結果、過去たびたび提唱がなされてきたような単一のネットワークアーキテクチャによる統合ネットワークはもはや存在しえず、その結果、安定した通信回線をエンド間で提供するような通信形態の実現もあり得ない。また、情報機器・デバイスの多様性からネットワークに流入するトラヒックの特性はますます多様化する。
モバイル環境においては、利用者自身の移動を考慮しなければならない。そのためには、柔軟なネットワーク制御が必要になる。さらに、通信相手となる他の利用者にとっては、ネットワーク資源そのものの移動や生成・消滅までもが頻繁に発生することを意味する。また、P2Pネットワークのように情報資源提供者がサーバではなく、ユーザの場合、コンピュータをネットワークから容易に切り離すことも考えられる。さらにモバイル環境では、ルータ自体が移動する可能性がある。
以上の3つのキーワードを前提とした場合、「すべてのユーザの通信要求を満たす」単一のネットワークアーキテクチャはもはや存在しえず、それよりも、エンドホストの適応性(adaptability)向上を根幹とし、ネットワークはそのような適応性をサポートするための機構を提供することを基本原理としていかねばならない。インターネットはもともと分散指向であるが、例えば、IPにおける経路制御においてもルータ間の協調は必要であり、それがネットワークの耐 故障性を弱めることにつながっている。ここでの意図は、分散処理指向をさらに推し進め、しかし、それによって損なわれるであろう資源利用の効率性の向上については、エンドホストの現状のネットワークの状態に対する適応性によって補償しようとするものである。その結果、今後も開発されていくであろう多様な通信技術に対応しながら、スケーラブルでかつ耐故障性に富んだネットワークが構築され、ユーザの多様な要求に対するサービスが提供できるようになると考えられる。そのためには、エンドホストの自律性がますます要求されるようになり、それを前提として、ネットワーク全体の調和的な秩序が必要となる。これは適応複雑系において議論されているところであり、それらの知見を活かしていく可能性が見えてくる。
インターネットにおいては“End-to-End Principle”が繰り返し強調されてきた。これは、
というものである。極論すれば、「通信機能はできるだけエンドノードにおいて実現し、ネットワークはビットを運ぶことに徹する」ということになる。この原則は“KISS: Keep it Simple, Stupid”とも呼ばれており、上述のネットワークは、インターネットの原点に戻り、それを一層推し進めようというものである。
ネットワークの価値を示す有名な法則として “Metcalf's law”がある。“The value of a network increases exponentially with the number of nodes.” すなわち、ネットワークの価値はノード数(あるいは、ユーザ数)に対して指数的に増加するというものである。すべてのユーザが直接的に通信できる場合、Nをユーザ数とすれば、ネットワークの価値V(N)~ N 2 ということになる。しかし、Webシステムのクライアント/サーバモデルによって、この法則は崩れつつあった。その方向性を再び変えようとしているのが、P2Pネットワークである。ところが、P2Pネットワークにおいても、そのピアの接続数を観察するとパワー則が観察され、複雑系の様相を呈している。このような現象の原因を解明できれば、耐故障性と最適性や最適解への収束速度との関係が明らかにできるであろう。特に重要な点は、インターネットは他の複雑系と異なり、制御可能なものであるという点である。すなわち、インターネット自体が複雑系に関する巨大な実験場と見ることもでき、本研究テーマで得られた知見を他の複雑系に関する研究にフィードバックすることも将来的には可能であると考えている。
以上、まとめると以下のようになる。まず、エンドホストのネットワーク適応性を得ようとすれば、ネットワークの状態を知るための方法としてネットワーク計測技術が根幹となり、計測結果に基づいたエンドホストの制御が必要になる。一方、ネットワークは、自律的分散的な制御を行うことが必須となる。このような研究の方向性は、バックボーンのインフラストラクチャとなるフォトニックネットワークにおいても例外ではない。
本研究グループでは、以上の考察のもと、次章において述べるような研究テーマを推進している。