DWHの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:122

DWHの案件を探す

案件内容

クライアント内で構成されているOSSアプリケーションの仕様を把握し、それぞれの連携を行い、データ基盤そのものを構築いただきます。

技術要素
GoogleCloud
Cloud Composer2(及びAirflow2)
Cloud Dataproc(Apache Spark(scala))
Cloud Build
Cloud Storage
BigQuery
Cloud Monitoring / Cloud Logging
AWS
Kinesis firehose
SQS / SNS
ECS
Lambda
ECR
S3
Cloud Watch
その他
GithubActions
Terraform

必須スキル
・アプリケーション仕様の理解力とシステム設計能力が高い方
・Pythonを利用したデータ分析/開発経験
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux / ネットワークの基礎知識
案件内容

デジタルマーケティングツールやデータ分析ツールへのデータ投入のための ETL 準備、実装を行います。

作業内容:
・某社向けデータ分析のためのデータ処理基盤の開発・保守・運用・機能追加

必須スキル
・Linux 環境での開発経験
・AWS, GCP などクラウドを使用した開発やインフラ設計・構築の経験
・SQL が実践レベルで書けること(3年以上の実務経験)
・Python, Java, PHP いずれかの言語での開発経験が3年以上
・スピード感が求められる作業が多いので、報告や相談などのコミュニケーションがスムーズにできること
案件内容

土地・建物に関する情報の収集・クレンジングを行うデータ連携基盤(データレイク/DWH)の構築

必須スキル
・要件定義/基本設計の経験
・①DWH構築
・②データクレンジング
①②いずれかの知識・経験
案件内容

【業務内容】
大手広告代理店が展開しているインターネット広告代理店業における、膨大な広告データを収集・蓄積したデータレイクからデータを展開するためのデータ基盤(ETL処理、DWH、DM)の開発、運用、保守をお願いします。

【ポイント】

  • データレイクが取り扱うデータ量は数十TB/月を誇り、毎日数10億単位のレコードを蓄積しているため、そんな大規模データと向き合った開発にチャレンジすることができます。
  • 複数のプロダクトを管理しているチームのため、様々な技術を習得することができます。

【開発チームと配属先について】
当事業部には現状で約60名のエンジニアが在籍しており、複数のチームに分かれて開発を進めています。
今回お願いしたいポジションはサーバサイドエンジニアです。

チームには現在18名のエンジニアが在籍しています。
また、複数のプロダクトを管理しているチームのため、担当領域ごとにグループ分けをしています。

  • Infeed領域の広告運用のためのプロダクトを開発するグループ
  • インターネット広告関連データをデータレイクに蓄積するシステムを開発するグループ
  • インターネット広告関連データが蓄積されたデータレイクを用いたデータ基盤を開発するグループ
  • 機械学習を用いたプロダクトを開発するグループ
  • 掲載情報や実績情報を出力・レポーティングするための分析用プロダクトを開発するグループ

【技術キーワード】

  • ApacheSpark
  • AWS Glue
  • Snowflake
  • データレイク/データウェアハウス/データマート
必須スキル
– Scala,Java,Pythonなどを用いた開発経験 3年以上
– ApacheSpark,PySparkなどを用いたETL処理の開発・保守経験 1年以上
– SQLを用いた開発経験 3年以上
– AWSを利用した開発経験
– Dockerなど、コンテナ技術を利用した開発経験
– GitHubでのPRを利用した開発経験
案件内容

データパイプラインの構築エンジニア
主業務:要件に合わせルールに則ったデータモデリングを行い、各基盤のツール群を使ってデータ加工するパイプラインバッチの構築を担当いただきます。

技術要素(★が特に重要)
GoogleCloud
★Cloud Composer2(及びAirflow2)
★Cloud Dataproc(Apache Spark(scala))
Cloud Build
Cloud Storage
BigQuery
Cloud Monitoring / Cloud Logging
AWS
★Kinesis firehose
★SQS / SNS
★ECS
★Lambda
ECR
S3
Cloud Watch
その他
GithubActions
Terraform

必須スキル
・データモデリング力とバッチ設計能力が高い方
・Pythonを利用したデータ分析/開発経験
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux / ネットワークの基礎知識
案件内容

・お客様にて展開予定のSaaS開発での基盤構築に携わって頂きます。
 ・DevOpsの流れで、先ずは基本機能の実装を目指しております。
 ・現在は、主にインフラ面で弊社にて先行してPoCを通じシステム
  要求事項とAWS仕様調査、実現性確認を行っております。
 ・今後は、上記フェーズを踏まえて本番に向けた設計、実装フェーズ
  に入って参ります。

必須スキル
・AWSの設計・開発のご経験
※以下、利用想定サービスです。
-APIGW+Lambda
-Glue(or Fargate)
-S3
-Athena
-DynamoDB
案件内容

【仕事内容】
・DWH層テーブルの要件定義・設計・開発・保守

  • 関係者からのヒアリング・データ調査
  • メンテナンス性・汎用性を意識したテーブルの設計
  • SQLおよびPySparkを用いた実装
    ・DWH層テーブルについての問い合わせ対応・不具合調査
    ・DWH層開発環境の設計・開発・保守・運用
    【開発工程】
    基本設計|詳細設計|実装・構築・単体試験|運用・保守

【環境】
言語:SQL,Python
FW:Apache Spark
環境・OS:GCP (Google Cloud Platform),AWS (Amazon Web Services)
ツール:Docker,Terraform,JIRA,Github

必須スキル
・実務でのSQL利用経験(1年以上)
・実務でのDWH・データマートの構築経験(1年以上)
・Git/GitHubの利用経験
・チケット管理 (JIRA, backlog等) での開発経験
・クラウド環境のDWH利用経験
・Pythonでのプログラミング経験
案件内容

大手専門商社のDX管掌部署にて実施中の「データ利活用」をエンドユーザー伴走で推進いただきたい。
≪ポジション≫
①②でそれぞれ1名ずつ
①:各事業部の業務/状況のヒアリング~BIツール(Tableau導入済)活用や見える化の検討~定着化 の支援
②:①と連携し、DWH(Aurora/Redshift導入済)箇所の対応整理・定義・構築

必須スキル
・データ利活用のコンサルティング経験(ユーザー側)
・上記の支援が一人称で可能
・BIツールの知見
・DWH(Aurora、Redshift)の設計・開発経験
・クライアントフェイシングが可能
案件内容

製薬企業がマーケティングやMEDICAL AFFAIRS活動のために使うことができる
医療ビッグデータの機能開発・運用保守をご担当いただきます。
主な業務内容
・新規機能開発
・運用保守開発
・問い合わせ対応、データ抽出業務
・その他PDCA実施

技術スタック:
・LOOKER
・TABLEAU
・BIGQUERY
・DATAFORM
・AWS(ROUTE53, ALB, S3, CLOUDFRONT, ECS ETC)

必須スキル
・LOOKERやTABLEAU等のBIツールを用いだダッシュボードの開発・運用経験
・BIGQUERYやEMBULKを利用したデータ分析基盤の開発・運用経験
・その他一般的なWEBアプリケーション開発の知識
案件内容

自社にてECサイト・口コミサイトを開発運営している大手企業でGoogle Cloudを利用したデータパイプラインの開発・運用を行っていただきます。

必須スキル
・データ分析に関わる開発実務経験(SQL/Pythonなど)2年半以上
・AWS、GCPいずれかのクラウドデータ分析基盤の運用経験 合計1年以上
・高度なSQL(複雑な副問い合わせなど)の経験
・データマネジメントに関する基本的な知識
・データモデリングの経験、DWHの構築・運用経験

検索結果122件中41-50件