明治大学の教授陣が社会のあらゆるテーマと向き合う、大学独自の情報発信サイト

もっと速く、もっと効率の良いコンピューティング環境へ。- 目の前のプログラムを速く動かす環境や手法づくりが一貫したテーマ。-

明治大学 総合数理学部 ネットワークデザイン学科 准教授 秋岡 明香

もっと速く、もっと効率の良いコンピューティング環境へ

●ビッグデータをリアルタイムで処理・解析するには、データストリーム解析(※1)の高速化が必須。
●ビッグデータ専用のベンチマークをつくりたい。これをリリースすることで開発環境が整う。
●コンピュータに適した単純な作業は、すべてコンピュータに任せられることが理想。
(※1)データストリーム解析
大量発生する実世界データをリアルタイムで時系列処理し、集計・分析する手法。従来のデータをサーバに蓄積して処理する方法ではタイムラグが生じるが、データストリーム解析ではリアルタイムな状況監視や、より新しいデータをもとにした意思決定を行うことができ、さまざまな業種でビジネスチャンスを拡大できると期待されている。

ビジネスが求めるスピードに応える

fl22_img01
「ビッグデータに関する議論はまだ始まったばかり」と語る秋岡准教授。
 ビッグデータの有効活用がビジネス上の課題になっている今、大量のデータをより速く、効率的に処理できるコンピュータシステムへの期待も高まっています。私の専門分野は並列分散処理で、よく知られている言葉ではスーパーコンピュータがそれにあたります。課題はその高速化で、コンピュータの処理能力を速くすることに最大の関心をもって研究を進めています。
 では、コンピュータを高速化すると、一体どんなメリットがあるのでしょうか。まず、計算速度が速ければ同じ時間で、より深い解析ができるようになります。特にビジネスにおける意思決定にはスピードが重視されるため、高精度な分析以上にスピードが優先されます。さらに膨大なデータを扱えるようになることで、新しい事業が生まれることも期待されています。このような社会のニーズに応え、コンピュータサイエンスの分野では、多様で膨大な情報を効率よく、スピーディーに処理するための研究を進めています。
 ビッグデータのプログラムとしての挙動はこれまでスーパーコンピュータが扱ってきたプログラムとは大きく異なります。そのため、高速化にも従来とは異なる新たな戦略が必要です。実は並列分散処理はどちらかといえばビッグデータの扱いが得意ではありませんでした。研究者の間では、これまで課題を先送りしていたような雰囲気さえあります。しかし、例えば遺伝子解析の分野も、以前はスーパーコンピュータには向いていないと言われていた時期がありました。それが2004年頃にIBMが世界最速クラスで遺伝子解析に優れた性能を発揮するスーパーコンピュータ「Blue Gene」を出してから、遺伝子解析をはじめとするライフサイエンス研究が一気に進んだという前例があります。同様に「並列分散処理はビッグデータの解析には適さない」というような見極めを下すのはまだまだ早計だと思っています。私はコンピュータサイエンティストとして、特にデータストリーム解析の分野で、きちんとした戦略を考え、特徴を明確にしてモデル化することなどをまずクリアにし、戦略やCPUやコンピュータアーキテクチャをどう最適化すべきかを考えることに取り組んでいこうとしています。

専用ベンチマークづくりが急務

fl22_img02
fl22_img03
コンピュータはあくまで道具。人に無理を強いるような道具ではまだまだです。
 そのロードマップを意識した上で、現在取り組んでいるのはビッグデータのアプリケーションの挙動をモデル化することです。しかし、それが世の中で使われているビッグデータの90%以上をカバーできるかどうかまでは確証が得られていないので、現在はその検証を進めているところです。
 また、同時にビッグデータ用のベンチマークプログラムをつくることも課題です。高速コンピュータの世界ランキングに使用されているベンチマークプログラムとしては「LINPACK」が有名ですが、現状のベンチマークプログラムにはビッグデータのアプリケーションの挙動が反映されていないため、新たなベンチマークを作ることが次の仕事だと思っています。
 ベンチマークプログラムができれば、何をどう速くすればビッグデータは速く動くということが明確になるため、それが開発のマイルストーンになります。ハードもソフトも、みなそこを目指して開発することができるため、進化にも拍車がかかるでしょう。まずはそういうベンチマークを提示することが当面の目標です。もちろん簡単な仕事ではありません。いまでこそ世界標準とされる「LINPACK」にしても、最初のバージョンがリリースされてから世の中に浸透するには5年から10年の月日がかかっていますし、30年経ったいまでも繰り返しアップデートがなされています。ビッグデータアプリケーションのベンチマークも、そういう意味ではライフワークになるでしょう。ベンチマークは世の中の人が使い、その意見も吸い上げてバージョンを重ねていくものなので、まずはリリースすることが大切です。

ハードとソフト両面の進化へ

 ビッグデータの分野で私が最も問題視しているのは、ビッグデータ解析の手法を考え、プログラムを書いている人たちが、ビッグデータには向かないコンピュータであることを前提に、睡眠時間を削って対応している状態です。やはりコンピュータはあくまで道具ですから、その道具の使い方で誰かが頭を悩ませているようでは、まだまだダメだと思っています。
 この問題がビッグデータのいくつかの不要な足かせにもなっているので、まずはそこを変えていくことが先決です。そして、足かせが外れて、もっと自由にできるということが、手法を考えている側の専門家たちに浸透すれば、もっと本来の仕事-つまり無理やりプログラムを書くことではなく、ビッグデータを解析し、そこから有用な情報を取り出すこと-に全力を注げるようになるはずです。
 そのためには研究コミュニティを形作り、コミュニティぐるみで開発に取り組んでいくべきではないかとも考えています。ハードだけが進化しても、ソフトウェア側にとって使いづらいものでは普及は望めません。良いハードができて、それを生かすプログラムやソフトが生まれるというように、両方をセットで考えていくことが不可欠です。
 幸い、「明治大学総合数理学部」には多彩な研究分野を持つ専門家が集い、分野を越えた情報交換によって、ときおり自分の研究の立ち位置を再確認できるというメリットがあります。ビッグデータは、まだ課題解決の方向が一つに絞れるほど成熟していないアプリケーションであり、3次元のどの方向にも技術的に開発する可能性がある分野です。専門家だけでは偏ったベクトルに進みがちなところを、客観的に見直せることが分野横断型の学部の大きな利点だと思っています。

単純作業はコンピュータに

 これからも私は並列分散処理を軸に、より速く、より効率的な技術に取り組んでいくと思いますが、コンピュータはあくまで道具であり、人はクリエイティブなことに専念し、それ以外の単純な作業はコンピュータに任せることが理想なのです。誰が書いたプログラムでも受け取り、必要があれば自分で書き換えて、一番速い戦略で、一番速い環境を選んで実行し、気がついたら結果を返してくれるコンピュータ。それは100年たっても実現しない夢かもしれませんが、そういう世界が観たいと思って研究に取り組んでいます。

ビッグデータ時代のビジネス改革の関連記事

データから答えを導く力、統計学 – 統計学は経済や物理、生物、医療、防災など広い分野の研究に役立てられています。 –

2013.12.1

データから答えを導く力、統計学 – 統計学は経済や物理、生物、医療、防災など広い分野の…

  • 明治大学 総合数理学部 現象数理学科 准教授
  • 中村 和幸
ビッグデータの活用に向けて秘匿化技術の確立に取り組む – ビッグデータの活用には賛成です。ただし安全管理を徹底することが大前提になります。 –

2013.12.1

ビッグデータの活用に向けて秘匿化技術の確立に取り組む – ビッグデータの活用には賛成で…

  • 明治大学 総合数理学部 先端メディアサイエンス学科 教授
  • 菊池 浩明

Meiji.netとは

新聞広告連動企画

新着記事

2019.08.21

地方自治の権限の拡大によって、現代型民主主義は進化する

2019.08.07

生物化学は、「より良く生きるための医療」に貢献する

2019.07.31

万葉集に由来する「令和」に込められた、時代にふさわしい願い

2019.07.24

使い心地の良い道具は、道具ではなくなる

2019.07.17

フランス人はなぜデモを続けるのか

人気記事ランキング

1

2018.05.23

衰える結婚、止まらぬ無子化 ――このままでは日本の未来が失われる

2

2019.08.07

生物化学は、「より良く生きるための医療」に貢献する

3

2019.08.21

地方自治の権限の拡大によって、現代型民主主義は進化する

4

2015.10.21

うつ病の対処に必要な「援助希求」という能力

5

2014.09.01

緊急提言、人口減少社会に歯止めをかける ―方策は少子化対策、社会…

Meiji.net注目キーワード

【注目!】連載コラム