Archive - 7月 2011

QlikView × QVSource は”無料で”最強のソーシャルメディア分析ができる!

QlikView×QVSource

 

※追記
残念ながら、2011年12月から有料(1年ごとにライセンス料が発生)となってしまいました。無償版のQlikViewでも使えるバージョンは年額数万円という設定金額ですので、これを高いと見るか安いと見るかは難しいですが、私はこれを払って現在色々と検証しています。

今後、またブログで取り上げようと思います。

 

以前、NPOがビジネスインテリジェンスを導入するのに最適なBIツールは「Excel 2010」と「PowerPivot for Excel」の組み合わせか、「QlikView」だと紹介しました。

理由としては、直感的でわかりやすいセルフサービスBIを無料(QlikViewはグレーかもしれませんが)で導入することができるからです。

今回、そのBIツールである「QlikView」とQlikView API Connectorの「QVSource」を組み合わせることによって、現時点で最強と言えるソーシャルメディア分析ができる、ということを紹介したいと思います。しかも無料です。

現時点と言っていますが、このQVSourceは開発が始まってまだ数ヶ月で、しかもかなりの速いペースでバージョンアップしているので、今後が更に楽しみです。

 

 QVSourceとは?

QVSourceは、QlikView専用のAPI Connectorです。

QVSourceを開発しているのは、Chris Brain氏(@Qlikster)を中心としたIndustrial CodeBoxという企業(恐らく数人規模)です。2006年にイギリスで創立され、QVSourceやQVExcelなどのQlikViewのアドオンに注力しているようです。どうやらQlikTech社と近い関係にあるようで、恐らく、これらの製品を各企業向けにカスタマイズしたQlikViewインテグレーションのコンサルティングが主な業務のようです。

 

QVSourceの理念は、様々なソーシャルメディアやビジネスアプリからQlikViewに取り込める形で簡単にデータを取得し、それらをマッシュアップしながら取り込み、QlikViewで誰でも分析ができるような最強のBIプラットフォームにしよう、というものです。

何よりもすごいのがその開発スピードです。まだ開発開始から2ヶ月しか経っていませんが、既に以下のAPIに対応しています。

NPOのソーシャルメディア分析支援という意味では、本当はFacebook Pagesの紹介をしたいのですが、Facebook Pagesはまだ限られたユーザにしか公開していないそうなので、Facebook Personalを例に紹介します。

Facebook Pagesも近いうちに公開されると思うので、その時にまた紹介します。

無償版QlikViewを入手する

まずはQlikTechの日本語公式HPから無償版のQlikViewをダウンロードし、インストールしましょう。他のBIツールと違い、QlikViewの無償版はトライアルではなく、試用期間もありません。全ての機能を制限なしに使うことができます。

ただ、インストーラーをダウンロードするには個人情報を入れる必要があります。もちろん、その連絡先に営業のメールや電話が来ることもあるかもしれませんので、自己責任でよろしくお願いします。

 

QVSource(Beta)を入手する

QVSourceはまだベータ版です。HP上から自由にダウンロードできるのではなく、ここ(QVSource Beta Request)からベータ版が欲しいというリクエストをします。

名前やメールアドレスを入力してリクエストを送信すると、24時間以内にQVSourceの最新版ダウンロード先リンクが書かれたメールが送られてきます。私の場合、8時間後ぐらいに送られきました。

送られてきたメールからQVSourceの圧縮ファイルをダウンロードし解凍します。解凍したフォルダはフォルダ内のディレクトリ構成を変えなければどこに置いても構いません。

 

QVSourceを起動し、データを取得する

フォルダの中に「QVSourceDesktopEdition.exe」という実行ファイルがあるので、これを起動します。初回起動時のみ「End User Licence Agreement」ウィンドウが表示されるので、チェックボックスにチェックを入れ、OKボタンを押します。

 今回はFacebookのデータを取得するので、「Facebook Connector」をダブルクリックするか、選んでConfigureボタンを押します。

 

Facebook Connectorの設定画面が表示されるので、自分のFacebookのAccess Tokenを取得するために「Authenticate」ボタンを押します。

 

 Facebookにログインします。

 

 QlikView Connectorを許可します。

すると、Access Tokenが取得されます。

 

Connector Dataタブを押すと、取得するデータテーブルの一覧画面があり、それぞれのテーブルをクリックするとデータをダウンロードします。最初のダウンロードには時間がかかります。(アクティブなFriendが多ければ多いほど時間がかかります。)

ダウンロードが完了すると、Dataタブにデータが表示されます。

正直、ここまでデータが取れてしまうのかと驚きました。個人情報がもりだくさんなので、ダウンロードしたファイル(「QVSourceDesktopEdition.exe」があるフォルダの「Data」→「IndustrialCodeBox_FacebookConnector」→「Cache」に保存されています)の取り扱いにはご注意ください。

 

全てのテーブルのデータ取得が終わったら、分析フェーズに移ります。 

 

データをQlikViewにロードし、データ分析する

通常であればデータのロード処理や分析画面を作成しなければいけません。

しかし、今回は既に完成度の高いFacebook Friend Analyzerと名付けられたデモがあるのでそちらをダウンロードして使います。こちらから、「Download(.QVW)」のリンクをクリックすると、既に分析画面が作成されたQlikViewのドキュメントファイルをダウンロードできます。(※.QVWはQlikViewのドキュメントの拡張子です。)

もし、無償版QlikVeiwのダウンロードを諦めた方がいたら、「Launch This Demo」ボタンか「Web Browser(AJAX)」のリンクをクリックすると、サンプルデータで作成されたデモをブラウザ上で操作できます。

ダウンロードした「Facebook Friend Analyzer.qvw」を実行すると、自動的にQlikViewが立ち上がり、上記のブラウザで見るデモと同じものが表示されます。

 

それでは、自分のデータをロードしてみましょう。データのロード元は既にQVSourceが設定されているので、このままロードすれば自分のデータに更新されます。

なぜか、デモの地図の縦横の長さがちゃんと設定されていないので、以下に修正してロードすると良いです。 ツールバーから[ファイル ]→[ロードスクリプトの編集]を実行し、「HomeTownGeoCode」と「Checkins」タブにある”geo_map_size_x”(横の長さ)を修正します。

それではロードします。ツールバーから[ファイル ]→[リロード]を実行するか「Ctrl+R」のショートカットを使うと、ロード処理が始まります。

 ロードが終了すると、「閉じる」ボタンがアクティブになります。それでは、分析結果を見ていきましょう。

操作方法については割愛しますが、シート左側にあるリスト項目を選択したり、チャートを選択範囲することによって絞り込みなどをすることができます。それらの選択を全てクリアするためには「Clear」ボタン を押します。これだけわかれば、ある程度いじれると思います。

  1.  Friends シート

友達の属性分析ができます。

デモでは基本的に性別を分析軸に持ってきています。

  1.  Groups シート

友達が所属しているグループについて分析できます。

私が知るかぎり、友達が所属しているグループって見ることができなかった気がするんですが。

  1. Likes シート

友達が「いいね!」しているFacebookページについて分析できます。

私の場合、ある一人の男性がすごい「いいね!」をしているので、男女比の割合が極端になっています。その場合、その男性を除いた分析というのも簡単にできます。

  1. Pages シート

Facebook全体の「いいね!」と友達の「いいね!」を比較分析できます。

  1. Status シート

友達が「今なにしてる?」にどれだけ書き込んだかを分析できます。

ここでも一人の男性がすごい更新数であることがわかります。もっと左下の方がどうなっているか見たい場合は、散布図上で範囲指定をドラッグ&ドロップするだけで絞り込みができます。

  1. Check Ins シート

友達がいつ何のアプリでどこにチェックインしたかを分析できます。

Foursquareのデータもマッシュアップできるようになれば、もっと色んな分析ができるようになりますね。

いかがだったでしょうか。このデモで出来ることは、取得したデータに比べれば本当に極一部です。QlikViewの画面作成の仕方を覚えれば、もっと詳細な分析ができるようになります。

 今のところ1つ改善点があるとすれば、このデータを差分更新できないことです。もし最新のデータを分析したい場合、Facebook Connectorからキャッシュを一度削除してから、再度全てのデータをダウンロードする必要があります。

今後について

今回はFacebookのみのデータを使用しましたが、今後は複数のAPIをマッシュアップすることによって、様々な分析ができるようになるでしょう。例えばTwitterとKloutの組み合わせなど(既にデモがあります→ここ)。

そして、様々なデータの統合・分析という点で、やはりBIツールは優れています。私の場合は、データ分析に予算を割けないNPOなどの組織にBIを導入したいという思いがあるのでQlikViewを使いましたが、最近のBIツールはどれもセルフサービス指向になってきているので、どのBIツールでもよいと思います。

QVSourceは短期間でどんどんアップデートされているので、気になるアップデートがあった場合はTwitterで随時報告していこうと思います。

今回の記事で興味を持ったNPOの方で、もっと詳細を聞きたいという方がいましたら、プロボノで出来る範囲でしかお役に立てませんが、遠慮なくご連絡ください。

 

次世代 (第四世代) SQL Server ”Denali”はセルフサービスBIを更に加速させる!

denali

ロサンゼルスで7月10日~14日に開催された「Worldwide Partner Conference」では、現在開発中の次世代 SQL Server Code Name “Denali”のデモンストレーションが多く行われました。

そして12日、ついにCTP3(Community Technology Preview)が公開され、これまで(CTP1で)は実際に使うことの出来なかったDenaliの新機能を試すことができるようになりました!日本語版も用意されているので、私もインストールして試してみようと思っています。

SQL ServerのBI機能については、2008 R2でPowerPivotが追加され、誰でも操作できるセルフサービスBIを掲げました。そしてDenaliでは、データの可視化だけでなく多くの点でBI機能が大幅に強化されます。

Denaliは以下3本の軸で機能が強化・改善されます。

それぞれの軸で、BI機能に絞ってどのように進化するのかを説明します。

まずは①MISSION-CRITICAL PLATFORMです。

この中で最も重要な新機能は、コードネーム”Apollo”と呼ばれるカラム(列)ベースのクエリアクセラレータです。カラムストア型データベースはBig Data時代のデータ処理高速化技術の一つとして、IBM NetezzaSAP HANASybase IQOracleExadataCassandraなど多くのDWHアプライアンスやDBに使われています。(カラムストア型DBやインメモリDBなどの技術については今後紹介していきたいと思っています。)

カラムストア型DBであることで、高い圧縮率とディスクI/Oの削減などによって、BIにとって大事なデータ処理の高速化を実現することが出来ます。これまで、もしSQL Server Analysis ServicesやReporting Servicesを使っていたとしてもSQL Serverでは大量データには対処できず、別のDWHアプライアンスなどを導入する必要がありました。今後はMicrosoft製品に一貫したBI環境を構築することができるようになります。

 

次に②DEVELOPER and IT CONDUCTIVITYです。

 コードネーム”Juneau”という新しい開発ツールが提供されます。2008 R2までは、SQL Server のインスタンスやデータベースへの管理・運用は SQL Server Management Studio で、Integration ServicesやAnalysis Services、Reporting ServicesはBusiness Inteligence Development Studio で作業するというように使い分けなければいけませんでしたが、DenaliからはこのJuneauというツールだけで管理などを一元化できるようになります。

また、テキストや画像ファイルなどのRDBには格納できない非構造化データをFileTableというところに格納することによって、ファイルシステムに直接アクセスするプログラムを修正せずにDB内外からシームレスにアクセスが出来るようになるそうです。

 

 

最後に③PERVASIVE INSIGHTです。

目玉はプロジェクト”Crescent”という、これまでのReporting Servicesを大幅に進化させた、Silverlightを利用したインタラクティブなレポーティング・プレゼンテーションツールです。

BIツールはデータ処理の高速化はもちろんですが、なによりもデータを簡単に見たいように操作・分析できることが重要です。では、このCrescentではこれまでの(結構静的だった)Reporting Servicesからどのような進化をするのか、18日に公開されたばかりの以下の動画をご覧ください。(720pまで解像度を上げられます。)

[youtube]http://www.youtube.com/watch?v=TURzIxZTFaY[/youtube]

 

見ていただいてわかるように、ドラッグ&ドロップによる簡単な操作でグラフなどが作成でき、クリックで複数のチャート・グラフなどが連動した直感的な絞り込みなど、本当に誰でも簡単にデータ分析ができそうなツールになりそうです。

また、PowerPivotもDenaliで進化し、一足先に「Microsoft SQL Server  コードネーム ‘Denali’ PowerPivot for Microsoft Excel (CTP 3)」として公開されています。Denaliでは、新しいDAX(Data Analysis Expressions)が追加されていたり、時間軸設定が簡単になったり、ドリルスルーができるようになったりと、色々な機能が追加されているようです。こちらも詳細がわかり次第、紹介したいと思います。

 

この次世代SQL Server “Denali”がいつ正式リリースになるかは未定ですが、PowerPivotで謳ったセルフサービスBIが更に進化するであろうということを、今回のCTP3の公開によってイメージしやすくなりました。

今後もリリースに向けてどんどんと情報が公開されてくると思いますので、また紹介したいと思います。

 

日本語でのSQL Server “Denali”についての記事:

EnterpriseZine

2008 R2、Denali、そしてSQL Azure… 日本マイクロソフトに聞くMicrosoft SQL Serverロードマップ
あたらしいSQL Server/Denaliの世界

MSDN Blogs > 雲のごとく
Next SQL Server ”Denali” CTP3 公開だん!!そろそろ新機能に触れてみよう。

インフォグラフィックの検索・共有・作成ができる「Visual.ly」はインフォグラフィックの未来を変える!

visual.ly

インフォグラフィックの未来を変えるかもしれないWebサービス、それが7月13日にローンチされたばかりのインフォグラフィックの検索・共有・作成が出来る「Visual.ly」です。まずは、かなりかっこいい紹介ビデオをどうぞ。

[youtube]http://www.youtube.com/watch?v=AiVKfNeRbPQ[/youtube]

 

既に2,000以上のインフォグラフィックが登録ユーザーやパートナーサイト・企業から共有されていて、検索することが出来ます。どれもレベルが高く、検索・共有だけのサービスであってもかなり魅力的なサービスです。

しかし、Visual.lyがインフォグラフィックの未来を変えると言える要因は、Webアプリのツールで作成までできるということです。しかもただの静的なものだけでなく、ニュースサイトでよく見られるデータをインタラクティブに見せるグラフやチャートも作ることができ、最近ではVisual.lyが作成したインタラクティブチャートがCNNの記事で使われています。

このWebベースの作成ツールは、最初のバージョンが今後数ヶ月で提供開始される予定ということです。どうやらフリーミアムモデルで無料会員には機能が限定されたものを、そして有料会員は全ての機能が使えるようになるそうです。

そしてプロフェッショナルな人たちであれば、自分が作成したテンプレートを販売することが出来るようになります。

ここでちょっと道を外れて問題提起したいことは、このツールで作成できるモノはInfographicなのかData Visualizationなのかということです。

海外ではData VisualizationとInfographicの分野は日本に比べてかなり進んでいますが、それが災いしてかよく混同されることがあるそうです。

それを表わすように、Quoraでは以下のような面白い議論が起きています。

What is the difference between a data visualization and an infographic?

  • Infographicは静的で、Data Visualizationは動的ではないか。
  • Infographicは社会的で、Data Visualizationは科学的ではないか。
  • InfographicはData Visualizationの一部ではないか。
  • 複数のData Visualizationが集まったものがInfographicではないか。

このような議論がされているわけですが、答えはなんなのでしょうか。これはDataとInformationをどのように定義するかによって変わってくると思いますが、私が少し近いと思ったのは以下です。

Data Visualizationは、既知の可視化アルゴリズムとプロセス(等値度面、折れ線グラフ、ラインなど)を通じて科学的なデータ(シミュレーションされたものや測定されたもの)を表わしたもの。
Infographicは、視覚的に満足のいく形(フローチャート、比較表)で非構造化情報を表わしたもの。

しかし、Infographicの中には折れ線グラフやラインチャートが組み込まれているものもあるからな、と考えているところにeagereyesがvisual.lyを「The Future of Data-Based Infographics」として紹介していることを見つけました。

Data-Based Infographicという言葉に、なるほど!と思いました。構造化データを自動的に取り入れたインフォグラフィックを作成できるのがvisual.lyなんだと。

既存のインフォグラフィックは、当たり前のごとく数値があったとしてもそれはテキスト情報として入っていますが、visual.lyでは自動的に計算された値を入れたインフォグラフィックを作成できようになるのでは、と考えています。

とにかくこの作成ツールがリリースされるのを、そんな想像をしながら待ちたいと思います。

参考記事:
TechCrunch
Visually Launches To Automate The Making Of Infographics
AllThingsD
visual.ly Wants to Bring Nifty Charts and Graphs to the Rest of Us
eagereyes
Visual.ly: The Future of Data-Based Infographics
search engine land
Data Visualization & Infographic Search Engine Visual.ly Launches

 

Competitive Intelligence(CI)って何?BIとの関係は?BIとの違いは?

Description of the competitive intelligence process

 

 

Competitive Intelligence(CI)をご存じでしょうか。海外では結構盛んに議論がされているようですが、日本ではまだあまり聞き慣れない言葉です。日本の企業は競合分析をあまりやっているイメージがありません。

このCIについて、BIとの比較を中心としてまとめた良記事がBeyeNETWORKに書かれて、これが結構役に立つ情報だったので、かなり長くなってしまいましたが、ほとんど要約せずに翻訳したのでご紹介します。

翻訳元:Competitive Intelligence: The Natural Extension to Business Intelligence

————————————————————————————————————————-

多くの企業にとって、Competitive Intelligence(CI)は、市場での可視性を向上させ、その市場シェアを拡げるために不可欠です。CIとは何かと言うと、『競合他社・類似製品・市場動向・分野・新しい特許や技術・新しい顧客の期待に関する情報の体系的・継続的・合法的な収集と分析』のことを言います。

ビジネスインテリジェンス(BI)は、マネージャーが企業の情報を収集して分析し、市場でどのような行動を起こしていく必要があるかということを見つけるためのものです。一方でCIは、BIと同じように収集したデータから企業の意思決定者にとって重要な情報を明らかにするのですが、この情報はその企業の外部から見つけ出し、その企業が属している市場セグメントに関するヒントを与えてくれるものです。 違いを明確にすると、BIは自社内部にある自社に関する情報を利用することであり、CIはその企業の外部から見つけ出すことができる、その企業が属す経済的エコシステムに関する追加的なインテリジェンスです。

市場との関係の中での活動を判断するために、企業は顧客と製品の両方の視点を持ったほうがよいでしょう。BIとCI共に、事実だけでなく、企業の戦略と戦術の修正に有益な情報を提供してくれます。市場環境及びパラメータは、顧客・競合他社・政治・トレンドなどによって決定され、意思決定者が市場環境の変化によって発生する調整が、必要とする分野で素早く行動できるような形でCIを収集して用意することができます。BIとCIは重要な情報を生み出し、企業全体の目標を達成するために必要な賢い意思決定のための強固な基盤を構築するものです。

どのようにCIを活用していくか

企業は以下の手順によって、CIのための情報の強固な基盤を構築できます。

  1. データを収集する
  2. 情報を抽出する
  3. 情報のコンテクキト(コンテクスト)を得る

データの収集にはいくつかの方法があります。

  • Webクローラ
    体系的にインターネットのページを検索し、そのままの形でコンテンツを抽出します。
     
  • 公共のウェブサイト
    顧客、競合、もしく規制当局のWeb上でのプレゼンスになります。
     
  • ニュースサービス
    有料購読での専門的なサービスです。市場パラメータを書いているロイターやブルームバーグなどです。  
     
  • ソーシャルメディア
    ブログ、Twitter、Facebookなどは、市場での異なるプレーヤーに関する多くの情報があります。    
     
  • オンラインサービス
    例えばEdgar Onlineは、貸借対照表、キャッシュフロー、損益計算書、競合他社へ関心がある可能性のある従業員の数などの企業に関する財務情報を提供しています。  
     
  • 市場アナリスト
    彼らの研究は、市場や変化への洞察を与えてくれます。また、トレンドを見極め予測します。

情報源は多種多様な形式で提供されるように期待される一方、そのほとんどは非構造化データです。

次のステップで、異なる情報源から収集した様々なデータから有益な情報を抽出する必要があります。情報の収集と集約はテキストマイニングの様々な方法で行うことができます。人的資源の投入は、情報の評価と、有意な関係に多種多様な情報を置いていくという点で、BIよりCIの方が更に重要になります。

CIの最後のステップでは、できるだけ正確に現実を反映するように情報をコンテキストに入れていきます。このステップが最も多くの時間を必要とします。 よく知られている80/20のルールを使い、データを収集し抽出するための時間は20%だけにし、コンテキストに情報を入れていくことに残りの80%を使った方が良いということです。これは、記事の後半で詳しく説明します。

CIはコンテキストを意味する

市場、競合他社、顧客や規制当局は、企業が属するコンテキストの中で表されます。

競合他社という継続的な圧力、要求の厳しい顧客、顧客のロイヤルティの低下、価格感度の上昇は、意思決定者に不可欠な、企業の経済的エコシステムについての幅広いしっかりとした知識を持つことによって対処できます。知識のベースの元になる情報収集はBI、CRM(Customer Relationship Management)、CIのタスクです。 CIはCRMと同様に、企業の焦点を顧客だけでなく他の市場にいる人達にも合わせます。競合他社は自社と同じ顧客を競い合うことができますし、規制当局は市場をコントロールすることができます。

CI環境で収集された情報は、以下の条件を満たしている必要があります。

  •  情報源(またはデータの質)の妥当性
    データの質は大丈夫か。情報の内容は明らかか。この情報源は洞察を得るための一歩をもたらすか。  
     
  • 適時性
    情報はどれだけ最新のものか。一年前、それとも数日前のものか。一般的に最新の情報は古い情報より企業に対して深い影響を与えます。  
     
  • 関連性、接続性
    抽出された情報は企業の目標に関係があるか。どんなキーパーソンが重要な顧客に関連しているか。  
     
  • メッセージ性
    情報の一部が資料で頻繁に使用されたり、リサーチ活動に大きな影響がある場合、それはとても強いメッセージ性があります。

同じ基準をBIアプリケーションに適用しようとすると、これらの条件はCIと同じように重要であるとわかるでしょう。しかし、BIとCIにこれら4つの基準を適用すると小さな違いがあることに気づきます。

  • 情報のソース(またはデータの質)の妥当性
    BI環境のほうが基準をクリアしやすいです。全てのデータソースがBI/データウェアハウス(DWH)に接続されているため、明確なデータ品質ポリシーが実施されていれば、情報を高品質にすることが可能です。  
     
  • 適時性
    多くの時間と費用をかければBIアプリケーションでクリアできます。リアルタイムソリューションまたはインメモリアプリケーションが情報の現実性の高品質化に役立ちます。  
     
  • 関連性、接続性
    良いモデリングは、クエリやレポートを使って特定の質問に対して正確なキー数値を結びつけます。
     
  • メッセージ性
    情報が強い影響を持ったキー数値とディメンションをスマートに構築できれば、BIの方がクリアしやすいです。

最も重要なコンセプトを視覚化するグラフィックスおよびダイアグラムに様々な構造の基準を使うことによって、CI分析の結果はテーブルから様々な方法で出すことができます。例えば、ブロゴスフィアでは特定のタグの強さを可視化するためにタグクラウドを使うことができます。情報の表現が直感的で、理解しやすく、人間工学的である限り、何でも受け入れられます。

 「BI 対 CI」か、それとも「BI と CI」か

カリフォルニア州クレアモント大学院教授のPaul Gray氏は、BIとCIの違いをこう要約しています。”ほとんどのBIは、主に内部要因を理解し使用するということに基づいていて、事実ベースでの意思決定に焦点が当てられています。”

BIとCIの目的は共に、コンテキストにローデータを入れ、有益な情報を得ることです。次のレベルでは、収集した情報から新たな洞察を得る必要があります。これは、比較、フィルタリング、視点の変更、または情報の様々な部分の連想連結を使うことでクリアできます。言い換えれば、CIでインテリジェントな情報を得ることは人間の推論に非常に似ています。

最初の違いは、BIとCIがデータを有益化させる、連結データ→情報(Information)→知識(Knowkedge)→知恵(Wisdom)という流れの中で見つけることができます。BIは、データの収集と濃縮化を高度な自動化で実現しています。CIは、もっと手動でのステップや人の力に依存します。

CIで結果を得るためのプロセスを下図に示しています。データを濃縮化する手順と、大規模なコンテキストにデータを入れることは普遍的なため、再び連結データ→情報(Information)→知識(Knowkedge)→知恵(Wisdom)という流れが発生します。「Intelligence」のステップは、企業で意思決定者が決定を下すために知識を使用して、決定の行方を観察し、必要に応じて変更できる準備がされていることを前提としています。CI環境の恒久的なメンテナンスは、それが最適な方法でビジネスを推進していれば、企業にとって追加の価値にすることができます。

もしBIとCIのデータソースを見れば、BIは主に企業内部のデータを使用していることがわかります。ほとんどのBIデータは構造化データです。CIは社外からの情報を使用し、関連する全てのデータソースが取得できているか確認することはできません。 ほとんど全てのデータソースが使われている理想的な状況であっても、競合他社や他の市場エージェント、が真実を伝えたり情報の対称性を探したりすることを望んでいないかもしれないため、確信してはいけません。 また、時々間違っていたり虚偽の情報(FUD=fear, uncertainty ,doubt)が意図的に市場に広がっているかもしれません。CI環境内のほとんどの情報は非構造化データで、BIとCIは相互補完の関係であることを強調しています。

BIとCIは、同じ大きなチャレンジに直面しています。それは、処理すべき企業内部及び外部の情報が多すぎるということです。

知識は明示的でもあり暗黙的でもありますが、明示的な情報だけが自動的に処理することが出来ます。CIは、実際に何を探しているのかわからない状態でスタートしますが、時間が経つにつれ、いくつかの洞察が得られ、情報が研ぎ澄まされてきます。推論的な手順はまるで探偵の仕事のようでしょう。CIは時として低品質ですが、暗黙知を得ることができます。 最近まで、BIは明示的な情報のみを処理していました。関連情報で知的労働者を養うために、自動化された手順、DWH管理、複雑なETLプロセス、そしてキー数値の計算が使われています。最近では暗黙知を抽出するために、予測分析がBI環境の中でますます重要になってきています。 BIとCIを比較せずに、企業内で双方を統合する方法を考えましょう。

 データ分析の手法について

 CIのプロセスは、2つのフェーズで構成されています。

フェーズ1は、二次調査( secondary research)として知られています、収集データの80%を、全体のプロセスに割り当てられた20%の時間で分析します。

フェーズ2は、一次調査・初期調査(primary research)と言い、データの20%を全体の80%の時間で評価します。 80/20のルールを下図で説明しています。

 

フェーズ1では全体の時間の20%で、データの80%を収集します。リサーチと分析がフェーズ2に比べるとそれほど重要ではないため、二次調査と呼ばれています。 フェーズ1での結果は、フェーズ2の一次調査で処理されることになります。フェーズ2では、割り当てられた時間の残り80%を使って処理をします。

フェーズ1では、データのオーバーフローが発生する可能性があるため、フェーズ2では、フェーズ1で収集されたデータからインテリジェンスをマイニングしなければいけません。フェーズ2では、人的投資が非常に重要です。有益な情報は、企業のビジネス環境の反映や専門家とのインタビューから得ることができます

フェーズ2は、特定のソフトウェア技術を使って自動化できる定量的手法なので、より簡単と思われます。一次調査は人によって行われるため、自動化することは難しいです。CIに従事する社員に必要なスキルは、「好奇心」「中立であること」「我慢強さ」です。

この80/20ルールをBI環境へ適用することはできるのでしょうか?もちろん出来ます!

BIユーザーも80%の時間で、レポートやグラフでは明示的に得られない残り20%の有益な情報を得るために使うべきです。もちろんここでも人の力が重要になります。BIユーザーは、なぜ特定のキー数値がその値を持っているのかを見つけたり、異なる数値の関係性を確立させたり、BIシステムからわかる事実をBIシステムの外部情報と連結させたりします。残念なことに、ほとんどのBIシステムは過去のデータが格納されています。予測分析はユーザーの経験と知識によって導かれる反復的なプロセスであるため、ユーザーの入れ替えは簡単ではありません。

まとめ


■補完的な性質

BIとCIの補完的な性質は何か?

まとめると、BIとCIは企業が属している市場環境での行動に役立つ情報を得るための補完的なメソッドです。

  • BI環境では、情報のコンテキストはすぐに企業に利用できますし、簡単にアクセスできます。 CI環境では、反復的で様々なメソッドを使って正しいコンテキストを推測しなければなりません。CIのコンテキストと情報源にアクセスすることは難しいですし、情報の質は日常的に疑問視されるものです。

  • BIのデータソースは企業内部に存在する一方、CIのデータソースは企業の外にあり、評価して選んで収集しなければいけません。

  • BIのデータは主に構造化データで、主にキー数値に焦点を当てます。CIのデータは主に非構造化データで、いくつかのキー数値(例えば、同期間の収益)を構築しなければなりませんが、BIよりも更にテキストに本気で時間をかけなければいけません。

 

■類似点

BIとCIの一般的な性質と類似点は何か?

  • CIの80/20ルールは、BI環境にも適用できます。

  • 情報の収集は、BIではかなり自動化されています。CIは一定のレベルであれば自動化できますが、人的資源を多く必要とします。この違いは、BIには人の力が同等には必要ではないという誤った認識を助長してしまうかもしれません。BI環境では、アナリストはインテリジェントな関連性の中にキー数値を入れなければいけませんし、質問を投げかけ、その答えと理由を検索しなければいけません。

  • 予測分析は、BI環境の中でますます重要になってきています。CIは推論的なプロセスで、時には予測分析(例えば、テキストマイニング)を使用します。

  • BIとCIのアナリストは、外部からの情報を収集するために自らの地平線の向こうに目線をやることで、卓越したレベルに到達することができます。

CIは、BIの拡張機能として推奨します。共に、企業の本質的なインテリジェンスのようなものを構築します。戦略にBIとCIを使用する企業は、市場の中で優位なポジションに立ち、競合に比べ市場ポジショニングをより現実的に推定し、より良い意思決定をし、適切な未来への扉を開けることができます。

CIを使うには、人的要因に直面します。Hans-Georg Kemper氏とHenning Baars氏の「テクノロジーが全てにおいて勝っているわけではない」という勧告が内在化するでしょう。 “現実には、BI/CIプロジェクトにはテクノロジー志向が支配的に公言され、逆効果な信頼を得るということがよくあります。これは数十年来知られている再発現象です。

クラウドBIで注目のスタートアップといえばこれ!「Bime」

bime

フランスのWe Are Cloud社が提供するクラウドBIツールがBime」です。SaaSとして提供されているBIツールで、データのインポートからダッシュボードなどの構築まで全てネット上で完結させることが出来ます。

最近ではMicroStrategyが年内にもクラウドBIを提供開始か、と言ったように大手BIベンダーもクラウドBIに参入予定であったり、多くの小規模なBIベンダーではクラウドBIのアプリケーションを既に提供していますが、We Are Cloud社はBimeを2007年の創業以来から提供している、恐らくクラウドBIの先駆けです。

Bimeは先月6月に2つの賞を受賞しました。一つ目は2011 Cloud Computing World Series AwardsのBest Cloud Applicationで、二つ目がBest Start Up of the Year at ICT Springです。調べてみると、クラウドBIという言葉は数年前から出てきていましたが、実際に注目され初めて来たのはここ最近なので、クラウドBIへの注目と共にBimeの存在感も増してきているように感じます。

実際にダッシュボードの画面を構築してみましたが、そんなに難しくなくドラッグ&ドロップで結構簡単に作成できました。アプリと共にデータ内の日本語も残念ながら非対応でしたが・・・。

【追記 2011/07/06】
We Are Cloud社の方が、わざわざこの記事をGoogle translateで翻訳して読んでくれたらしく、メールを頂戴しました。メールでは以下のことが書かれていました。

もうすぐ(very soon)リリースするBime V3(現在はV2.6)では、UIは英語のままですが、日本語のデータも使えるようにサポートされます!

とのことで、今後の動きもウォッチしていかないといけないですね!Twitterのおかげ?か、こんな小さいブログの記事を見つけて翻訳してまで読んでメールまで頂けるとは、とても好印象でファンになりました。
【追記終わり】

上記にあるように全てのことがブラウザだけで可能ですが、Adobe Airで動作するデスクトップ版(Windows、Mac)もあったりします。基本的に操作方法もほとんどブラウザ版と同じです。

私がBimeの中で最も取り上げたい特徴としては、その対応するデータソースの多さです。

  • RDB
    Oracle, PostgreSQL, Mysql, Microsoft Sql Server, FireBird, Informix, SADAS, IBM DB2
  • Excelファイル
  • OLAP
    Microsoft Analysis Services, Mondrian OLAP Engine, Oracle Essbase など
  • フラットファイル
  • SOAP
  • Google Analytics
  • Saleforce
  • Google spreadsheets
  • Lighthouse
  • Amazon SimpleDB


オンプレミスのデータもクラウド上のデータも同じようにデータソースとして取り込むことができるのがBimeの強みです。

料金については、データサイズに不安はありますが組織として使うのであればそんなに高くない料金設定です。

あとはかなり個人的な嗜好ですが、ネットベンチャーなどのスタートアップには欠かせないサービス紹介ビデオですね。新しいネットサービスを見つけた時に、実際に使おうと思うかは、私の場合こういう動画がきっかけになったりします。

Business Intelligence with Bime!