ページの先頭です。

サイト内の現在位置を表示しています。
  1. ホーム
  2. 製品
  3. NEC Solution Platforms
  4. ラインアップ
  5. Data Platform for Hadoop
  6. データレイク・ソリューションの始め方
  7. 導入ポイント
  8. Point1 対象業務・対象データの決定
ここから本文です。

導入ポイント:Point1

対象業務・対象データの決定

対象業務と対象データを定めて、取り組みを開始

成果の上がる対象領域を定め、デジタル変革を推進

デジタル変革を成功されているケースに共通するのは、最初に解決したい優先課題を定め、その解決に必要なデータを明確にして取り組みを開始し、成果をあげながら取り組み領域と対象データを広げていることです。

システム的には、一度にシステムを置き換えるのではなく、各システムの処理の特性やデータの規模と期待する改善効果を考慮し、従来の資産を活かしながらHadoop/Spark基盤と組み合わせ、段階的に移行することによって、効果を最大化します。

実際には、いざ課題を解決しようと分析を始めようとしたら期待成果を上げるデータがなかったというのもよく聞く話です。

そこで、導入にあたっては、まず必要なデータがあるか、業務部門の協力を得られるかなどを考慮し、優先順位の高くかつ実現性の高い領域を見定め取り組まれることをお勧めします。

取り組み課題例

以下にHadoop/Sparkを活用したデータレークソリューションを用いて課題解決に取り組む代表的なケースをまとめました。
実際には、これらが組み合わさったケースも多いですが、「対象業務とデータの選定」の参考にして見てください。

処理時間短縮による効率化

  • データ容量の増大や集計内容の複雑化により、日時集計処理が期待する時間内に完了できなくなった。
  • 断続的に発生する大量イベント情報の集計処理を、今よりも短時間で実施したい。
時間がかかるために夜間処理で行っていた処理を高速化し、1日に複数回処理を行い、変化への対応の柔軟性を高めたケースなどが代表です。

既存リソースの有効活用による効率化

  • ETL処理に時間を要し、本来の目的である分析処理ができない。
  • より大量のデータを処理したいがリソースが不足し対応できない。
DWH基盤のデータで行っているデータの取り込み、加工処理をHadoop/Spark基盤に移行し、頻度高く行うクエリー処理をDWH基盤で実行しそのリソースを有効活用するケースなどが代表です。

サイロ化されたデータの統合

  • 類似の情報が複数の部門やシステムに分散しており、それらの情報を串刺しして分析できない。
  • 情報がばらばらに管理されているために、必要なデータがどこにあるかわからない。
  • GDPRなどコンプライアンス上のレポート要求に対して、タイムリーに作成できない。
部門や会社ごとに管理されてている顧客情報を一元管理化してお客様の属性や行動パターンを把握し、マーケティングキャンペーンやお客様により満足度の高いサービスを提供に活用するケースなどが代表です。

新しいデータへの取り組み

  • 顧客のWebアクセスデータとリアルの購買データを連動できていない
  • 画像や動画データとRDBMSにあるデータを組み合わせて活用できていない。

リアルタイム ストリーミングへの対応

  • 顧客の行動をリアルタイムに把握しアクションを取りたいが、リアルタイムにデータを取り込む仕組みがない。
  • 不正をタイムリーに検知し対処したいが、分析・表示する仕組みがない。
今後、顧客サービスの向上やリスク回避などの目的で様々なケースができる領域です。
設備稼働状況やシステムへのアクセス状態のデータをリアルタイムで収集し、何らかの異常が発生した場合にタイムリーにアラートを上げ対処するなどのケースが代表です。
これにより設備停止による生産停止やサービス停止を回避したり、不正アクセスによる被害を防ぎ、損失を防ぐことができます。

  • Apache, Hadoop, Falcon, Atlas, Tez, Sqoop, Flume, Kafka, Pig, Hive, HBase, Accumulo, Storm, Solr, Spark, Ranger, Knox, Ambari, ZooKeeper, Oozie, Phoenix, NiFi, Zeppelin, Slider, MapReduce, HDFS, YARN, and Druidの名称およびそのロゴは、Apache Software Foundationの米国およびその他の国における登録商標または商標です。

ページの先頭へ戻る