DWHの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:156

DWHの案件を探す

案件内容

pandas ライブラリを利用した ETL 処理
をしていただきます。

担当フェイズ
設計~開発~テスト

必須スキル
pandas ライブラリを利用した ETL 処理に慣れている方
— データソース:csv, parquet, Redshift/RDS table, boto3 API
— 加工処理:カラムの追加・削除、行列抽出、値の置換、四則演算、日付演算等
— アウトプットの書き込み:S3(csv, parquet, json), Redshift, RDS
静的解析ツールのチェック結果に基づいてコードの修正が可能な方(flake8, mypy)
ユニットテストを実装できる方(pytest)
案件内容

■背景
・クライアント内の提案活動に於いてDWH案件が増えており、リソースが必要となった
■クライアント支援範囲
・データ基盤構築、機械学習システム構築/精度向上、時系列データ予測/異常検知、自然言語(テキスト)解析、画像認識
■エンドクライアント
・建築・製造・医療など
■想定業務
※クライアントの案件状況やスキルによってポジション・案件は検討
・データ基盤を構築するプロジェクト。蓄積したデータをBIやAIで活用するためのプラットフォームの設計・構築が主業務
要求開発フェーズからご参画いただくことを想定。
・顧客案件におけるデータ基盤構築支援(要件定義・設計・構築・テスト・マニュアル作成など)
・要件定義 /基本設計/詳細設計
・ETLジョブ開発
・DWH構築
・ドキュメンテーション(設計書・仕様書)

必須スキル

・DWHサービス知見
・基本設計~製造・テスト経験
・データフロー/マート設計
・ドキュメンテーション力

※全て満たしていない場合でも相談可
※DWHサービス活用は必須

案件内容

【案件概要】
クライアント先ユーザ部門の方と仕様検討しCDPツール(Treasure Data)を使用したデータ分析やBIツール(tableau)を使用し、経営指標の可視化を行います。

必須スキル
・ユーザーサイドでの業務経験
・BIツールを用いたダッシュボード構築経験があること(3年程度)
・CDPツールの使用経験
※ツール例
Treasure Data、BigQuery、Snowflake等
案件内容

【概要】
通信会社サービスのデータ分析データマート開発・改修業務。
・BtoBのデータトリブンを進めていくためにDWHにデータを集める作業
・通信会社独自ツールよりデータを加工し、移行
・テーブル内データの整備がメイン。

必須スキル
・Python分析経験(pandas)
・データ加工、抽出経験
・DWH構築経験
・基盤構築経験
案件内容

・ビジネスプラットフォームを展開されている企業様にてデータサイエンティストとして参画をしていただきます。
・具体的には データの分析とモデリングや機械学習の実装等に携わって頂きます。
【参画のメリット】
・勤務形態としてフルリモートになりますので、ご自身のリラックス出来る環境で働くことが可能となっております。

◆主な開発環境・ツール
・使用言語:Python
・DB:PostgreSQL
・インフラ:AWS(Glue、S3、Athena等)
・その他ツール:Tableau Server、JupyterLab、Github、JIRA、Slack

必須スキル
・データサイエンティストとしてのご経験が3年以上
・Pythonを用いた機械学習ご経験が3年以上
・RDBやDWHなどのデータベースの利用されたご経験
案件内容

【概要】
・通信会社内コンシューマ営業情報を、チームでTableau構築/運営を行う
・適正に応じて以下どちらかのポジションを担当

設計者】
・要件定義/設計
・投入データの設計/tableauでの可視化
・PMOとの相対、作業者との相対

【作業者】
・Snowflake/tableauでの加工編集、マート作成、ダッシュボード作成

必須スキル
【設計者】
・要件定義、設計経験
・Snowflakeに関する知見経験
・tableauを一通り使いこなせる(データ設計、マート作成、ダッシュボード作成)

 

【作業者】
・Snowflake/tableauでのデータ加工編集、マート作成、ダッシュボード作成経験

 

【共通】
・データマート構築に関する経験/知見
・コミュニケーション能力
案件内容

Google Cloud / AWSを利用した商用稼働サービスのデータパイプラインの開発・保守運用
データ分析システム・サービスの監視設計・運用
日々の運用業務から発生する課題の解決・改善

技術要素(★が特に重要)
GoogleCloud
★Cloud Composer2(及びAirflow2)
★Cloud Dataproc(Apache Spark(scala))
Cloud Build
Cloud Storage
BigQuery
Cloud Monitoring / Cloud Logging
AWS
★Kinesis firehose
★SQS / SNS
★ECS
★Lambda
ECR
S3
Cloud Watch
その他
GithubActions
Terraform

必須スキル
・Pythonを利用したデータ分析/開発経験
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux / ネットワークの基礎知識
案件内容

■背景
・募集部署はデータ基盤&AI・BI&運用を一気通貫で担っており、
 現在プリセールス中である。(DWH)
・ただ受注となった場合、プロパーを含めてリソース不足が目下課題となっている。
■クライアント支援範囲(該当部署)
・データ基盤構築、機械学習システム構築/精度向上、時系列データ予測/異常検知、自然言語(テキスト)解析、画像認識
■エンドクライアント
・建築・製造・医療など様々
■想定業務
・データ基盤を構築するプロジェクトを想定。
 蓄積したデータをBIやAIで活用するためのプラットフォームの設計・構築が主業務となる。
 要求開発フェーズからご参画いただくことを想定。
※下記スキルによって相談
・顧客案件におけるデータ基盤構築支援(要件定義・設計・構築・テスト・マニュアル作成など)
・要件定義 /基本設計/詳細設計
・ETLジョブ開発
・DWH構築
・ドキュメント作成

必須スキル
・DWHサービス知見
・splunk知見(当該PJでエンドが利用しているため)
・基本設計~製造・テスト経験(設計書)
・データフロー/マート設計

 

※全て満たしていない場合でも相談可
※DWHサービス活用は必須
案件内容

・官公庁向けのデータ分析基盤において、データレイク、データパイプライン、DWHの設計業務をご担当いただきます。
今回は3名の募集ですが、2名は設計業務、1名は運用設計をお任せいたします。
BIツールにはTableauを使用する予定でございます。
設計フェーズは現状3月までですが、
案件状況により構築フェーズも引き続きご担当いただきます。

必須スキル
・Azureの基本設計経験
または
・Azureの運用設計経験
案件内容

【システム概要】
複数のビジネスチーム向けに必要なデータセットの要件を整理し、
Databricks上で分析用データセットを効率的に作成するETL、
ワークフローを開発します。

【業務内容】
各チームから挙げられる要件の整理や、ベストプラクティスを調査し、
購買情報、各種施策、会員情報やアクセスログなどを元に、効率的な
データセットを作成するためのETL、パイプラインの作成を行います。
データ分析基盤チームに参画しており、必要に応じてノウハウなどを
共有しながら作業を進めて頂きます。

【担当領域】
要件定義~実装

【開発方式】
お客様と都度調整しながら進めるアジャイル開発となります。

   

【システム構成】
サービス:AWS、Databricks、Redshift
利用ツール:Slack、Backlog、Git (GitHub)

必須スキル
DWH/DM設計
ETL開発
Python

検索結果156件中41-50件