ページの先頭です。

サイト内の現在位置を表示しています。
  1. ホーム
  2. 製品
  3. NEC Solution Platforms
  4. ラインアップ
  5. Data Platform for Hadoop
  6. データレイク・ソリューションの始め方
  7. 導入ステップ
  8. Step1 一つの目的でのスタート
ここから本文です。

導入ステップ:Step1

一つの目的でのスタート

具体的に成果を経験し、デジタル変革を開始

代表的な課題

Hadoop/Sparkをベースとしたデータレークソリューションの特徴の一つは、収集・蓄積/処理・分析を同一プラットフォームで実現でき、段階的に拡張できることです。

スケールアウト型でないシステムの場合、達成したいゴール実現にリスクがあっても、将来の拡大を見込んで最初に投資する必要があり、高いコストとリスクが発生します。

それに対しエンタープライズ・データウェアハウス(EDW)のETL(Extract, Transform, Load)処理や増加データのオフロードによるコスト抑制や従来システムで保有するデータとWebログなどの非構造化データを組み合わせあたらな価値を提供するなど、成果の出やすい優先的課題の解決に注力し、その効果を検証しながら段階的にシステムを拡充していくことでROIを見極めながら進めることができます。

取り組みを開始するケースとしては、以下のような課題が明確にあり、効果が上がりやすいケースから始めることをお勧めします。

  • 事業規模の増大により膨れ上がった業務データのバッチ処理が設定時間内に終了しない
  • 既存のシステムでは需要にあわせたシステムの増強が困難
  • 多様な業務記録データがサイロ化しており分析に活用できない
従来のシステム継続して使用するとコストが大きいので、部分的にHadoopにオフロードしてコストを抑えながら、従来分析しているデータに、Webログなどの非構造化データを加えた分析を行うとか、リアルタイムに状況を把握する機能を追加で導入するというようなケースが代表的なケースになります。

実装例

  • 業務システムのデータベースに記録されている業務データ収集し、業務を可視化

  • Apache, Hadoop, Falcon, Atlas, Tez, Sqoop, Flume, Kafka, Pig, Hive, HBase, Accumulo, Storm, Solr, Spark, Ranger, Knox, Ambari, ZooKeeper, Oozie, Phoenix, NiFi, Zeppelin, Slider, MapReduce, HDFS, YARN, and Druidの名称およびそのロゴは、Apache Software Foundationの米国およびその他の国における登録商標または商標です。

ページの先頭へ戻る