現在言われている仮想化技術の原型はもうずいぶん前に作られている。メインフレーム時代、IBMのMVSというOSは、今で言うハイパーバイザとして機能し、そのうえで複数のOS環境を作ることができた。PCの世界ではVMWAREが、PCのOS上で別の仮想OS環境を起動できる仕組みを、これも比較的早い時期から実用化し、私なども検証用に複数の環境が必要な時に重宝したものである。
仮想化、ということがサーバ側で本格的に言われだしたのは、ここ数年だ。追い風になった要因は様々だが、たとえば、不景気によるコストダウン圧力からTCO削減を目的に始まった、サーバ統合、これは電力消費の削減と平準化という意味ではエコでもあり、それもまた追い風になっている。JSOXなどを皮切りに日本では、BCPの一環として、情報システムの災害対策が一気に進んだが、バックアップシステムを新たに作るにあたって、既存システムを仮想マシン化し、仮想化環境の上で動作させることが多くなっている。
こうしたニーズを受けて、仮想化プラットホームも進化していく。もともと1台のサーバリソースの有効利用だった仮想化は、複数サーバ、しかも遠隔地にあるサーバ間での仕事の受け渡しが、限定的ながらも可能になった。あと少し進化すれば、複数のデータセンタと高速な通信回線を基盤として、データセンタグリッドを作る条件が整う。これができれば、クラウドコンピューティングのスケーラビリティは格段に向上する。しかし、経済的な問題はついてまわる。1社で大規模な複数のデータセンタを配置し、高速な回線を占有できる会社は限られているから、ここでも放置すれば寡占化が進んでしまう。独立系のデータセンタ事業者は、そろそろこれに対抗する策を真剣に考えないと生き残りが難しくなってくるかもしれないと思う。Googleの例を見れば明らかなように、大規模化と負荷の平準化によるハードウエアリソースの削減は低価格化を促すからだ。タイムゾーンが重なる日本でも、多くの異なる業種のユーザを共存させることで、ある程度の平準化は可能だろう。したがって、そのようなことができる一定規模以上のファシリティを用意できない事業者は価格競争に勝てない可能性が高いのである。
(続く)
コメントする