ビッグデータから、いかにしてビジネスに貢献する価値を引き出すか。目まぐるしく変化する経済環境、市場環境の中で競争力を高めたいと願う企業にとって、これは優先順位の高い命題となっている。

ビジネスアナリティクスの専業ベンダーであるSAS Institute Japanは、5月24日にプライベートカンファレンス「SAS forum Japan 2012」を開催した。「Big Analytics-スピードがもたらすイノベーション」との副題が付けられた同イベントは、アナリティクス(分析)の観点からビッグデータの活用を図ろうとする多くのビジネスパーソンで賑わった。

今回、同イベントで「Big Data Analyticsのための革新的戦略」と題した基調講演を行った、SAS Instituteでフェローを務めるAllan Russell氏に話を聞いた。Russell氏はこの講演の中で、ビッグデータの特長として「量(Volume)」「種類(Variety)」「速度(Velocity)」の「3つのV」に加え、4つ目の「V」に「価値(Value)」が含まれているとし、この価値をデータから最大限に引き出すには、分析の「スピード」を高めることが重要と述べた。

SAS Institute フェロー Allan Russell氏

このスピードを加速するためのシステムアーキテクチャ上のテクニックとして「グリッド」「ビジュアライゼーション」「インメモリ分析」「インデータベース処理」の4つを挙げ、SASの「High-Performance Analytics」と呼ばれるプロダクトファミリーが、その実現に必要な機能を持っている点をアピール。さらに、SASはこうした高度な分析を企業内で十分に活用できるようにする組織作りのためのアセスメントなど、「データ分析」に関して幅広いサポートを行えることを聴衆に訴えた。

インタビューでは、この基調講演の内容に加え、企業が「分析を活用できる」ようになるための組織作りをいかに進めるべきかについて、Russell氏の考えを聞くことができた。

これまで分析できなかったデータの関連性から価値が生まれる

--SAS Forumの講演では、ビッグデータが量や種類、速度といった要素に加えて「価値」を持っていること、そして、そこから利益を得るためには「スピード」がカギを握っていると話されていました。この「価値」は、具体的にはどこから生まれるものなのでしょうか。--

Russell氏: 講演の中で「ビッグデータは絶対的なものではなく、相対的な表現である」とも述べました。これは、今まで自社で「蓄積はできたが、活用が難しかったほどの量、種類、頻度のデータを活用できる時代が来ている」という意味です。ビッグデータの価値は、そうした、これまでは活用が難しかったさまざまなデータ間の「関係性」を見つけ出すことで生まれてきます。

量的にわかりやすい例としては「ソーシャルメディア」が挙げられるでしょう、1日当たりにTwitter上でつぶやかれる文章量や、生成されるFacebookのページ数は膨大なものになります。そのほとんどは、ビジネスにとって価値のないデータかもしれませんが、なかには注目すべきものも含まれています。

これまで、これらがビジネスに積極的に生かされてこなかったのは、多くの場合、データ量が多すぎて「処理ができなかった」ためです。High-Performance Analyticsによって、こうした処理が迅速に行えるようになれば、見過ごしていたデータを活用できるようになるのです。

そのほか、近年注目を集めているトピックとして「ナノデータ」があります。これは、顧客が自社サイトでとった行動を細かくトラッキングしたデータなどを指すのですが、これまでは分析するリソースが確保できないという理由で、多くの企業は活用しないまま捨ててしまっていました。こうしたデータも分析できるようになることで、他のデータと組み合わせて「価値」が生まれてくる可能性があります。

--データの価値の最大化のために「スピード」が必要とのことでしたが、それは処理のスピードが大切ということでしょうか。--

Russell氏: それは必要な要素です。データから知見を導き出し、それに対して迅速に行動することにより価値は最大化されます。企業が「ビックデータを活用したい」と考える最大の目的は「ビジネスの成果を上げる」ためです。したがって、今そして直近の未来に起こることを事前に予測し、それを踏まえた行動を行いたいと考えます。

ここで必要となるのは、「より短いタイムスパン」で意思決定することです。事後ではなく、事象が起きている最中もしくは起きた直後に、リアルタイムに近い形で意思決定を行う必要がある。そのためにデータ処理のスピード、分析のスピード、結果を示すスピード、モデルを構築するスピード、すべてが重要な意味を持ちます。

--企業がそうした環境を実現するために必要な4つの技術要素として「グリッド」「ビジュアライゼーション」「インメモリ分析」「インデータベース処理」を挙げておられました。SAS High-Analyticsには、4つの要素が揃っているとのことでしたが、これらはすべて必要なのでしょうか。--

Russell氏: 基調講演では、アナリティクスのライフサイクルとして「問題の定義」「データの準備」「データ探索」「データの選別」「モデルの構築」「モデルの評価」「モデルの配備」「結果のモニタリングと評価」といった段階を示し、各段階で「ビジネスアナリスト」「データ分析の担当者」「ITマネージャー」「ビジネスマネージャー」のそれぞれが果たす役割を説明しました(下図参照)。

アナリティクスのライフサイクル

このライフサイクルは全体的な視点で見る必要があり、段階ごとに使う技術要素が異なります。例えば、データの準備を行う際は、インメモリ、インデータベースといった技術がパフォーマンスを上げるために役立つといった具合です。このサイクルを高速に回していくには、すべての段階に4つの技術要素を当てはめて実現していくのが一番効果的だと思います。

「グリッド」「ビジュアライゼーション」「インメモリ」「インデータベース」はアナリティクスのライフサイクルを高速に回すために欠かせないギアとなる

「分析」にも組織的に取り組むことが重要

**--現在でも多くの日本企業では、データ分析はマーケティングや事業企画など、特定の部門でしか使わない手法というイメージがあるように思います。一方で「データ分析のライフサイクル」という考え方は、より広い範囲で分析を活用していく体制がなければ成立しないものではないでしょうか。分析を企業内に根付かせるために、どのような手順を踏むべきだと考えますか。

Russell氏: 確かに、アナリティクスの活用度合いは企業によってまちまちです。しかし、それではそれは大きな機会損失につながるでしょう。分析にも、「エンタープライズストラクチャ」が必要になってきているのです。

アナリティクスを全社規模で展開する場合、「どんなデータを扱うか」「どんなテクノロジーや方法論を使うか」「統計の結果をどのような問題を解決するために生かすか」「組織に属する人のリソースをどう使うか」そして「管理やガバナンスをどうするか」という5つのテーマを考えるとよいでしょう。

4番目や5番目の課題は特にトップの決定が重要な意味を持ちます。アナリティクスに関するプロジェクトの価値をトップが認めていることが必要です。そのためには、分析に関する投資と、それに対するリターンに一貫性を持たせることがポイントになります。

また、スキルと人材に関する問題も簡単ではありませんが、必ずしもアナリティクスに関して博士号クラスの知識を持っている人材を多く揃える必要性はないでしょう。各部門で、プロジェクトを進めていくのにふさわしい人材に定義された役割を与えるほうが重要だと考えます。

これら5つのテーマについて、しっかりと権限と責任の所在を明らかにしたうえで、同時進行で進めていくのが、よいやり方だと思います。

私は織物の街として有名なスコットランドのペイズリーの出身です。1700年代、ペイズリーでは、職人が自分の小屋で、他の職人と連携することなく、バラバラに仕事をしていました。そのため、製品の品質に一貫性がなく、生産性も低かったのです。しかしその後、職人同士が組織化されることにより、生産性は上がり、製品の品質も高まっていきました。

データ分析にも、これと同じことが起こるのではないかと考えます。これまで、事業所や部門単位でバラバラに行われていた分析という手法が、全社レベルで組織化され、一貫性をもって行われることで、品質の高い結果を得ることができるのではないでしょうか。

--ビッグデータの時代には、ライフサイクルとして企業組織に組み込まれたアナリティクスが戦っていくうえでの武器になるということですね。--

Russell氏: ええ。競争のグローバル化が進むなかで、ビッグデータとその分析は絶対に必要なものになってきます。変化が早い国際的な経済状況の中で「何で戦っていく」かを決めるにあたっても、ビッグデータを集めて分析をする必要があるでしょう。

しかし、そこには戦略が必要です。ツールとしてのビッグアナリティクスを多くの組織が使うようになれば、その中で最もうまくビッグデータを活用し、価値を抽出していかなければなりません。

現在、世界経済全体が不況期にあります。経済の成長期には、どんどん商品を作って、どんどん売ればよかった。しかし、不景気の今日、企業はリソースをどのように振り分けるかを慎重に考えなければなりません。そのために「ビッグデータ」を、よりうまく活用しようという気運が、世界的に高まっていると感じています。

「分析」に高速化のための技術を提供できるのはSASだけ

--では、企業が効率良くビッグデータを活用できるようにするため、「SAS High-Analytics」は今後どのように強化されていくのでしょうか。--

Russell氏: High-Performance Analyticsの開発の方向性としては、ビッグデータを扱うハイパフォーマンス化の範囲を広げていこうと考えています。特に、最適化と予測分析の分野で、イベントストリームプロセッシングに対応していくことを計画しています。これは、絶え間なく生み出され続けるデータを、いったんデータベースに格納するのではなく、流れている状態のままリアルタイムに処理していく技術です。これにより、最新のデータをアナリティクスのエンジンへと高速に送り込むことで、さらなるパフォーマンス向上を図っていきます。

現在、ビッグデータを扱うためのさまざまな高速化技術が出てきており、多くのベンダーがそれらを活用したソリューションを提供しようとしています。しかし、技術はあっても、それをどこに使うかが重要です。例えば、SQL、トランザクション、クエリ、レポーティングといった分野の処理をインメモリで高速に行うソリューションは多いですが、モデルの作成や統計的な処理といった「アナリティクス」そのもののために、こうした技術を活用できるところは、SAS以外にないのではないでしょうか。