顧客事例

アスタミューゼ株式会社:2 億件近い非正規データを BigQuery で高速分析。コンサルティング事業 SaaS 化も視野に

hero_image_astamuse.png

所有する豊富なデータとノウハウを用いて顧客の技術・資産評価や、それに基づく新規事業の提案などを行うアスタミューゼ株式会社。まさにデータが命とも言える同社が、そのデータ分析基盤を Google Cloud Platform(GCP)に移行したのはなぜなのか? その理由と、GCP 導入によって拓けた新たな可能性について、同社のキーパーソンに語っていただきました。

利用している Google Cloud Platform サービス:BigQueryCompute Engine など

BigQuery の導入でデータ分析速度が 200 ~ 300 倍に

「今から約 4 年前、私がアスタミューゼに参加した時、そのデータ分析基盤は、データセンター内のオンプレミス環境上に構築されていたのですが、そのサーバーやネットワーク構成にやや問題があり、思ったようなスループットがでないという悩みを抱えていました。さらに対外的に提供している Web サービスと同居していたため、データ分析で大きな通信が発生するとサービスの方に影響がでてしまうという問題も……。こうした課題を解決するため、クラウドへの移行が段階的に始まっていたのです。」

……と、当時をふり返るのは、同社開発・インフラ本部長の並河さん。当時、すでにステージング環境の一部で大手クラウド プラットフォームを利用しており、その後も順次利用を拡大していく計画だったそうですが、並河さんは、そこに「待った」をかけます。

「我々が将来的にデータを最大限に活かしたビジネスを展開していくにあたり、本当にそれがベストな選択肢なのかを考え直すべきだと思ったのです。そこでオンプレミスでの運用を継続するケースも含め、各種クラウド プラットフォームのメリットとデメリットをまとめ、役員向けにプレゼンを行いました。」(並河さん)

ここで並河さんが強く推したのが Google Cloud Platform(GCP)。そのメリットについては次のように語ってくれました。

「分かりやすいところでは、ストレージのコストメリットなどが挙げられますが、何より大きかったのは BigQuery の存在ですね。私は前職でいくつかのクラウド プラットフォームを利用していたのですが、大量のデータを分析するプロダクトとして BigQuery が非常に優れているという感触がありました。また、我々のデータ分析は、担当アナリストがクライアントにあわせてオーダーメイドな形で行っているのですが、その負担を機械学習で軽減できるのではないかというもくろみもありました。そう考えると、TensorFlowCloud TPU などを使える Google Cloud には大きなアドバンテージがあります。つまるところ、Google Cloud に賭けたくなったんです。」(並河さん)

17A8542_small.jpg

その後、アスタミューゼは約 2 年をかけて段階的にデータ分析基盤やサービス プラットフォームを GCP へと移行していくことに。ただし、当初は既存システムをそのままクラウドに載せ替えるというやり方を採用。社内エンジニアのほとんどがマネージド サービス未経験だったこともあって、「基礎検証もしっかり行いながら、最も低リスクなやりかたで移行を進めました」(並河さん)と言います。

そしてクラウドを安定して利用できるようになってきたところで、徐々に BigQuery の本格利用を開始。その具体的な導入効果については次のように当時をふり返ります。

「我々の行うデータ分析は、例えば特許情報を元に、お客さまのお持ちになっているアセットがどのような分野で活用できるのかなどを分析していきます。従来はこれを通常の RDB や全文検索エンジンを用いて実行していたのですが、膨大な量の投資データや特許データなどからなる自然文の塊を対象としていたため、1 回あたり約 10 ~ 12 時間もかかってしまっていたんです。これを BigQuery にすることで速くなることは分かりきっていたのですが、実際に試してみたところ、なんと 200 ~ 300 倍も高速化。この結果にはものすごいインパクトがありましたね(笑)。」

コンテナ技術、機械学習の活用でサービス品質のさらなる向上を狙う

アスタミューゼでは、今後、同社が提供予定の Web サービスでも BigQuery を活用していく予定。具体的には、データ コンサルティング事業を SaaS 化していくプロジェクトを推進しているそうです。そこで GCP をどのように利用しているのか、テックリードを務める池田さんが次のように説明してくれました。

「アスタミューゼの Web サービスは、原則的にオンプレミスで運用していたものをそのまま Compute Engine のインスタンス上に移す形で動かしています。今回のプロジェクトに関しても同様で、Scala あるいは Java で書いたアプリケーションから BigQuery を叩いて、お客さまのリクエストに沿ったデータを表示するということをやっています。この際、重要なのが利用頻度の高いデータを事前に用意しておくことと、試行錯誤の結果をいかに素早く表示するか。現在はそこをどのようにして Google Cloud のマネージド サービスで実現していくのかを検証している段階です。」(池田さん)

具体的には Google Kubernetes Engine(GKE)Cloud Run といったコンテナ技術を活用していきたいと考えているそうです。ただし、そのためには社内エンジニアの知識やノウハウの底上げを行う必要もあるとのこと。「言うなれば考え方のシフトチェンジが必要になるのですが、それさえクリアできれば、開発生産性やスピードが上がっていく感触があります。」(池田さん)
17A8702_small.jpg

なお、データ コンサルティング事業の SaaS 化についてはもう 1 つ高いハードルがあります。それは、アスタミューゼの保有する論文や特許情報などの自然言語データ 1 つひとつに意味づけをしていくこと。並河さんは、ここに機械学習が使えるのではないかと考え、すでに取り組みを開始しています。

「これまでのコンサルティングは、まずお客さまがありきのオーダーメイド形式だったので、お客さまのアセットを見て、必要なデータに人力で意味づけをしていく形でした。しかし、これを SaaS として一般に開放していく以上、あらかじめ全てのデータを使える状態にしておかねばなりません。とは言え、グローバルな特許情報だけでも 1 億件以上あり、それが日々増加している以上、人力でそれをやるのは現実的ではありません。そこでアスタミューゼでは、機械学習でこれを自動化できるモデルの作成に着手。これを来年度中には形にしたいと考えています。」(並河さん)

なお、その際、対象となるデータが多言語に及んでいることも悩みの種。そこで並河さんのチームでは、分析モデルの作成と並行して保有する全てのデータを一旦英訳するというプロジェクトも開始しました。

「本当はここで Translation API を使いたかったのですが、翻訳しなければならないデータがあまりにも多すぎて、コスト面で現実的ではありませんでした。そこで今回は既存の翻訳エンジンを利用しています。その際、どうすれば膨大なデータを短期間で翻訳できるかを考え、結論としては GPU を積んだサーバーを 100 台並べてやってやろうと(笑)。実施はこれからなのですが、理論上は 2 週間程度で作業が完了する見込みです。」(並河さん)

17A8846_small.jpg

最後に、GCP が導入されたことによる、社内の意識の変化についても聞いてみました。

「エンジニアの視野が広がったかなと思っています。GCP を利用していく中で、マネージド サービスが技術利用の敷居を下げることにより、様々なアーキテクチャに目がいくようになったかな、と。また、アナリストら、ビジネスサイドのメンバーも、 BigQuery の導入で柔軟かつ素早いデータ分析ができるようになったことから、より積極的にいろいろなことを試すようになったように感じています。」(並河さん)


astamuse_logo.png
17A8950_small.jpg

(写真右から)

  • 執行役員、開発・インフラ本部 本部長  並河 祐貴 氏

  • 開発・インフラ本部 テックリード  池田 裕介 氏 

アスタミューゼ株式会社

世界 80 か国を対象とした事業、技術、製品への投資データを専門チームが分析し、将来の有望成長領域と技術分野を独自に定義。それに基づく経営の意思決定、希少人材の採用支援、技術データ分析などのサービスを提供するコンサルティング企業。従業員数は 2019 年 12 月時点で 100 名。


アスタミューゼ株式会社の導入事例 PDF はこちらをご覧ください。

その他の導入事例はこちらをご覧ください。