DWHの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:122

DWHの案件を探す

案件内容

事業横断のデータ基盤(DWHとデータパイプライン)の設計・構築・運用
既存DWH(BigQuery)とデータパイプラインの拡充
将来のデータ基盤戦略の策定と推進
データ分析によるビジネス課題の発見と推進
・受注背景:既存事業の運用基盤を引き継ぎ、信頼性・利便性向上にコミットするため

必須スキル
・1名でのデータ分析業務経験または現場リーダー経験
・BigQuery、Redshift、Snowflake等のDWH環境利用経験:3年以上
・GCP、AWS等のクラウド環境利用経験:3年以上
・データ分析基盤開発におけるETL処理の理解・経験:3年以上
・データベースに関する知識とSQLの利用経験:3年以上
・ 正規化されたデータをもとにSQLを用いてデータ抽出ができる
案件内容

■担当業務
 ・すでに稼働中システムの機能追加、機能改修のビジネス要件定義(プロセスの整
理を含む)、要件定義書作成
 ・ユーザーストーリー/Technical Requirementの作成
 ・開発チームとの情報共有
 ・ステークホルダーコミュニケーションのサポート
 ・SQLを用いたデータValidationの実施
 ・SIT・UATのサポート、レビュー

必須スキル
経験 :BI/DWH領域の上流工程経験が豊富な方(Waterfall型開発的には要件定
義・基本設計・UAT対応の経験が豊富なことが必須)。管理経験のみはNG。
技術 :上流工程のドキュメント作成の経験がある方(管理経験のみはNG)、基本
的なDBMSの知識(SQLの発行等)、システム間のI/Fの知見
DWH開発プロジェクト、分析システム開発プロジェクトの経験
語学力 :日本語 ビジネスレベル、英語 翻訳機能を使って読み書きできるレベル
その他 :本業務を専任で担当できる方
案件内容

・DWH層テーブルの設計
・DWH層テーブルのSQLおよびPySparkを用いた実装
・DWH層テーブルについての問い合わせ対応・不具合調査
・DWH層開発環境の設計・開発・保守・運用

必須スキル
・実務でのSQL利用経験(1年以上)
・実務でのDWH・データマートの構築経験(1年以上)
・実務でのプログラミング経験(2年以上)
・クラウド環境のDWH利用経験
・git/GitHubの利用経験
・チケット管理 (JIRA, backlog等) での開発経験
案件内容

■背景
・クライアント内の提案活動に於いて自然言語案件が増え始めており、リソースが必要となった
・クライアント内で自社分析ツール(テキスト分析)あり
■クライアント支援範囲
・データ基盤構築、機械学習システム構築/精度向上、時系列データ予測/異常検知、自然言語(テキスト)解析、画像認識
■エンドクライアント
・建築・製造・医療など
■想定業務
・データ基盤を構築するプロジェクト。蓄積したデータをBIやAIで活用するためのプラットフォームの設計・構築が主業務となります。要求開発フェーズからご参画いただくことを想定。
・顧客案件におけるデータ基盤構築支援(要件定義・設計・構築・テスト・マニュアル作成など)
・要件定義 /基本設計/詳細設計

必須スキル
・DWH構築経験
・基本設計~製造・テスト経験
・GCP「Google BigQuery」/ AWS「Amazon Redshift」などのパブリッククラウド経験
・Azure基盤
案件内容

・内部開発の詳細設計~テストフェーズのリーダー支援
・詳細設計
 -SEからのインプットを基に詳細設計
 -ワークフローシナリオ実装
 -UT観点項目作成
 -UTスクリプト作成
・QA
 -試験管理(試験進捗管理/スケジュール策定/対向システム調整)
 -試験項目作成
 -試験自動化
 -品質管理

必須スキル
・Pythonを用いた開発経験
・5名程度の開発チームのリーダー経験
・開発フレームワーク/ツール/プロセスの選定と制定
・試験項目の立案やテスト計画の策定を行った経験
案件内容

GCP上に構築したデータ分析環境の機能改善と運用を担当するメンバを募集しております。
既存ML基盤の Kubernetes 化や CI/CD Pipeline の整備等、基盤のモダナイズを推進しており、設計・構築・運用の面でチームの一員としてご活躍いただける方を募集しております

作業概要:
・クラウド環境におけるビッグデータ処理基盤の改善及び運用
・具体的にはGCP BigQuery を中心とした分析基盤に関して、以下のような運用業務を対応いただきます
・Terraformで組織内の権限付与業務、インスタンスの作成
・Ansdibleでサーバーの設定
・GCPのプロダクトやOS、様々なEOSL対応
・業務時間内(10:00-19:00)の障害検知・障害対応、など
・慣れてくれば初めて使用するミドルウェアやツールの検証・導入計画・設計・装着などもご担当いただくこともあります。

必須スキル
・[重要] GCP、AWSを含むクラウド環境の構築、実運用経験
・インフラの運用として決まった手順を実施するだけでなく、手順の確立や検討のご経験がある方
・awsのec2,s3,LBを使ってました程度だと難しいです
・Linuxベースのシステム(DBなどのミドルウェア含む)の経験3年以上
・シェルスクリプト以外のプログラム言語1種類以上の経験(ある程度でよいです)
案件内容

顧客内の情報を一元的に管理・可視化する、データ分析基盤の開発支援です。
チームメンバーと共に試行錯誤しながら業務を進めていただきます。
下記業務をご担当いただく予定です。
・データソースの収集
・S3への蓄積
・AWS Glueを使用したデータ加工
・外部ツールからのデータ収集/外部ツールへの加工データ連携
・QuickSightを使用したデータ集計
・データ加工の自動化(Lambda、StepFunctionを想定)
・terraformを利用した構成管理(Glueのジョブ、IAMロール、S3
、Quicksight)

必須スキル
・BI/ETLツールを使用したデータ分析の経験
・AWSサービスの経験(AWS Glue、Quicksight など)
・SQLによるETL(データ加工)の経験
・新しい技術の導入に積極的な方
案件内容

データユーザーの要求から的確なデータとフローの設計を行い、パイプラインの構築やパイプラインを動かすデータ分析基盤の運用保守を担当いただきます。

技術要素(★が特に重要)

  • ETL/ELTツール
  • Embulk★
  • digdag
  • BIツール
  • Redashなど
  • GoogleCloud
  • Cloud Storage★
  • BigQuery★
  • Cloud Monitoring / Cloud Logging
  • その他
  • Git
必須スキル
・データ分析に関わる開発実務経験(SQL/Pythonなど)
・データモデリング力とバッチ設計能力が高い方
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・Linux / ネットワークの基礎知識
・運用リーダーとしてのタスク管理や運用業務改善の経験
案件内容

現在国内エネルギー系⼤⼿企業がエンド顧客となるデータ基盤構築PoCプロジェクトが進⾏中。
PoCを通してインフラアーキテクチャの策定、⼤まかなデータパイプラインのフローを策定した9⽉以降の本番環境構築では、インフラ構築からセキュリティ対応、より多くのデータパイプライン構築を予定しており、データエンジニアの拡充を⾏っている。

データ基盤要件定義
データレイクに保存するデータの形式の洗い出し (CSV, JSON, 画像ファイ
ル etc…)
データソースのインターフェイス特定 (REST API, FTP etc…)
データ加⼯(ETL)要件ヒアリング
データレイク設計 (Hadoop File System)
DWH設計/テーブル定義 (Apache Hive, Spark, HBase etc…)
データフロー設計 (Apache NiFi)
バッチアプリケーション作成 (Java, Shellスクリプト)
インフラセキュリティ対応 (SSL化対応、AD認証連携 etc…)

   

環境
オンプレサーバー (現地作業等は無し、リモートから接続)
OS: RHEL8HPE Ezmeral Data Fabric (Hadoop, Hive, Spark, NiFi etc…)
データ分散処理基盤にまつわるpache系OSSをまとめたパッケージ製品
(サポートが付くだけのようなイメージ)
HPE Ezmeral Runtime (≒ Kubernetes)
OpenShift等に⽐べ、より純正Kubernetesに近い
構成
データレイク: HDFS, minio(≒S3), HBase
DWH: Hive or Spark
ワークフロー: NiFi or Airflow
データ加⼯: Hive, Spark (シェルスクリプト/Java or Python)
BI: Tableau, Palantir (本募集スコープの作業範囲外)
体制
アジャイル開発 (スクラム)
メンバー10名程度
デイリーで午前にスクラムミーティング有り

必須スキル

3年以上のバックエンドまたはインフラ開発経験

案件内容

■CDP/BIアーキテクト
企業のデータ資産価値の向上のため、戦略立案・組織設計、先端技術導入シナリオ策定の課題に対して、コンサルタント(アーキテクチャ設計)として戦略基盤支援。
・Tableauの要件定義~詳細設計、構築、レポーティング(メイン業務)
・Tableau + GCPのBIリプレース案件
・データの細部が見れデータマートをパフォ考慮して設計
・マイグレーション支援
・同時に、CDP/MAの構築要件定義が走っており、マーケティング統合基盤の全体PRJの一貫です。

具体例:
-DWH環境: salesforce CDP, teradata, Athena のデータブレンドが必要
-CDP, S3, Athena, Tableau onlineのデータソース/データマート/ダッシュボードの設計・開発
※CDPを中心とした顧客360PRJは、本案件以外で今後も増加予定
※国内でも初のソリューションスタック
※適材適所でポジションを用意(エンドクライアントは小売業が多い)

【依頼元会社】
デジタルトランスフォーメーションを実現するために必要な、
コンサルティングからマーケティングまで、ワンストップで提供している会社の業務です。
エンドクライアント別で新規顧客の獲得や見込み顧客の育成なども含めたマーケティング施策をサポートしています。(MA)

必須スキル
・BI開発経験(Tableau(BI)エンジニア)
・クレンジング、AWSやGCP、bigquery、python等のデータエンジニアリング経験
・SQLに十分な経験
・AWS系DB経験 Athena, redshift等
・クラウド系のDWH経験
※全て満たしている必要はございません。

検索結果122件中21-30件