ページの先頭です。

サイト内の現在位置を表示しています。
  1. ホーム
  2. 製品
  3. NEC Solution Platforms
  4. ラインアップ
  5. Data Platform for Hadoop
  6. データレイク・ソリューションの始め方
ここから本文です。

Hadoop/Sparkを活用したデータレイク・ソリューションの始め方

事例や体験版を通じて、データ活用のイメージをつかむ

Hadoop/Sparkと聞くと、扱いが難しいのではないかというイメージを持たれる方も多いと思います。
「データの収集、蓄積、分析までとできることが多岐にわたりどう使うかイメージが湧きにくい」、
「今の環境で十分だし、新たに学習してまで導入する価値がわからない」などの理由からそう感じるかもしれません。

また、データを活用し課題を解決すると言っても対象となる業務や課題は多岐にわかり、こちらもなかなかイメージしにくい部分があるかもしれません。

一方で、Hadoop/Sparkは、一旦環境を構築すると様々な分析をその上で行うことができ、また、用途を明確にして活用すれば、便利で使いやすい面が多くあります。

そこで、まず、Hadoop/Sparkを活用して成果を上げている事例や体験版を通じて利用イメージやその有効性を理解し、実際のどの課題を解決していくのに有効かを検討されることをお勧めします。

目的を一つ定め、実践できることから始める

始め方としては、目的を1つ定めて実践できることから小さく始め、その後複数のケースに適用していくケースが多いです。

例えば、ある物流会社では、ルート毎の物流量や輸送にかかる時間のデータをクエリーで取り出し、加工する処理をマニュアルで行なっていました。
そこで、まずは関連データを全てHadoop/Sparkに取り込み自動化することでレポート作成時間を大幅に短縮しました。さらに、ルート毎の貨物の位置情報を配送依頼者に公開するサービスを始めたり、天候情報を取り込み効率的な配送ルート情報を配送者に提供し、効果を上げています。

また、自動車保険会社は、運転手の運転情報や位置情報を取り込み、その運転の安全度に応じ保険金額を変動させる保険プランを提供しました。さらに、位置情報に加えて気象データを取り込み、迂回すべき走行地域情報の提供などの付加価値サービスの提供を行っています。
このように1つのデータの活用から、さらにそのデータに別のデータを組み合わせ、効率化を図ったり、新たな付加価値サービスを提供するアイデアはさまざまなビジネスで可能です。 

NECでは、お客様がHadoop/Sparkを簡単に使えるようにする様々なサービスを提供してますので、そちらも是非ご活用いただければと思います。

  • Apache, Hadoop, Falcon, Atlas, Tez, Sqoop, Flume, Kafka, Pig, Hive, HBase, Accumulo, Storm, Solr, Spark, Ranger, Knox, Ambari, ZooKeeper, Oozie, Phoenix, NiFi, Zeppelin, Slider, MapReduce, HDFS, YARN, and Druidの名称およびそのロゴは、Apache Software Foundationの米国およびその他の国における登録商標または商標です。

ページの先頭へ戻る