ビッグデータ時代?

By ttakao, 2012年3月16日

また、ITベンダーの半分本当、半分嘘なキャンペーンが始まっている。
今更のようにいう。
もともと大量データなんて、RFID(商品や部品ごとにマイクロチップを埋め込み、流通を管理するチップのこと)が作られたころからわかりきっている。

さらに、取引の量がインターネットのせいで増えたわけじゃない。既存の世界からインターネットの世界に持ち込まれたというのが最大で、波及効果で取引も増えているでしょうね、っていうことに過ぎない。

し・か・も、もう一方で、HDDに代表されるストレージの単価はどんどん下がっている。ちょっと前に巨大なディスクシステムが1つのディスクに収まる。

ストレージベンダーやソフトウェアベンダーは既存ディスクに収まらないようにするために、非正規データやHadoopと騒ぐ。

が、待って欲しい。

大規模データを扱うために、昔から仮想ボリュームだなんだかんだが考えられ、じんわりじんわり広まった。今のLinuxのディストリビューションの大半がサポートしている。これだけでも十分な容量がある。

RDBMSが業界に広まり20年以上の寿命を保ちつづけている(それより前のDBMSは今は話題にもならない)のは集合論という数学に裏付けられた理論をもつから。

非正規データというのは、扱いはラクだがSQLからすると、パフォーマンス重視の退化であることは知っておいたほうがいい。RDBMS以前のデータベースの構造はとてもシンプルでキー+データだった。そのまま連想配列になりそうな勢いであった。

またHardoopの周辺も、扱いが難しいからと数種類のフレームワークが誕生している。これがアヤシサに拍車をかける。PHPやRubyで経験済みのはずだが、フレームワークってどこかの誰かには都合よくできているけれど、他所の人から見ると理解にとても時間がかかる。しかもサンプル程度はできても、いざ少し複雑なことをやろうとすると途端に訳がわからないのがフレームワーク。結局、オープンソースのフレームワークって作ったところにコンサル依頼というみっともない結果になる。
現場経験もなしに、「フレームワークがあるから便利」ってカタログスペックを唱える人を見ると香ばしいなと切り込み隊長じゃなくても思う。

気がついてほしい。インフラ製品は成熟期間と学習期間が絶対に必要なのだ。現場でスキルにカネを払わないのに、なぜ、こういう構築が可能だと言い切るのだろうか。

こういう議論をすると必ず新しもの好きは「用途を見極めて使えばいいなじゃないか」とか、「試しの軽いシステムで」という。一見それは正論だ。
だが、売る時にマーケティングの人間は大風呂敷を広げているし、それを新しもの好きは制止しない。プロダクションシステムに重いも軽いもない。エンドユーザーからしたら、どれも動かなきゃ仕事ができなくなる。かくして、また、最新技術により「動かないシステム」が出来上がる。

一方で、「動かないシステム」に対し、金を出したお客は被害者面をよくする。経営者のレベルだと、それは被害だと思う。が、お客サイドにもいた新しもの好きが「これがいい」と叫び、稟議書を書いて通したのは間違いないのだ。ビジネスの世界で「騙された」というのは、「俺は頭が悪い」と言っているのと同値じゃないか。この時点で、責任のいくぶんかはお客にもある。

海外のお客はこういう時、必ずベンダーと一緒のランプアップ(基本的なシナリオテスト)やPRC(Proof Of Concept)というテスト期間を設ける。日本のお客だけが、「そういうことは無駄で、製品は絶対に動かなければいけないノダ」という現実を無視したべき論に走る。
でもね、お客をそういう風に教育したのはベンダーさん。自分達がかつてやった安請け合いがオープンソースビジネスになっで、責任のもっていきどころがなくなりタイヘンになってきた。

大きなシステムを作るなら、少し慎重な大人の感覚をもつべきだよ。

What do you think?

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です