ETLの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:110

ETLの案件を探す

案件内容

機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築や、
効率よくデータを捌くためのミドルウェア開発、インフラ構築

▼業務内容
・ビジネス課題と要求の整理(案件の要件定義をPMと行える=足りない情報が何かを定義し、自身で要求できる)
・機械学習ワークフローの設計/開発/運用
・データ提供のためのAPI設計/開発/運用(アプリ開発側との連携)
・機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築
・運用体制構築のためのルール・ドキュメント整備

必須スキル
・SQLを用いたデータ抽出経験
・ETL/ELTのデータパイプライン設計/構築
・Infrastructure as CodeおよびCI/CDの経験
・ワークフローの構築経験
・Pythonなどを利用したアプリケーション開発経験
・GCPでの開発経験
・コンテナ技術(Docker)を用いた開発経験
案件内容

【概要】
・データアナリスト業務を担当
-KPI可視化(経営管理/事業管理)
-売上進捗、EC注文状況をダッシュボード化
-データ集計/アドホック分析、記述統計的分析

【開発環境】
・SQL
・BigQuery
・Trocco
・Google Spread Sheet,Looker Studio, Redash

必須スキル

・SQLデータ抽出・データ分析の業務経験2年以上
・以下のいずれかの経験2年以上 
-分析結果を踏まえたご提案&レポート作成(ドキュメンテーション) 
-BIツールを用いたダッシュボード構築 
-DWH(データウェアハウス)/データマート設計構築

案件内容

■案件概要
 某社の顧客データを活用したマーケティングを行い、
 顧客に最適な広告・クーポン・キャンペーン情報を配信する基盤を構築する。
 構成(予定)は以下の通り。
 ・広告入稿用 Web フロントエンド (広告運用者がアクセス)
 ・広告用 API サーバー
 ・Data Pipeline
  
■作業工程
 広告配信基盤 要件定義/設計/開発/テスト

■使用予定技術
 Cloud:AWS
 言語 :Python,Typescript、Kotlin
 フレームワーク:React、NextJS、expressjs、TypeORM、pandas
 その他:terraform、kubernetes、Snowflake、dbt、dagster

必須スキル
・WEBアプリ(フロント/バックエンド)開発経験3~5年以上
・PythonやTypescriptなどスクリプト言語開発経験
・コミュニケーションスキル
・何らかのクラウド環境での開発経験
案件内容
  • 新規データの仕様調査やドキュメント化
  • 分析に必要な中間テーブルの洗い出しと作成
  • ダッシュボード構築・運用・保守
  • データ集計
必須スキル
[ビジネススキル]
– 論理的思考力(定量思考力/要約力/仮説構築能力など)
– ドキュメント作成能力 (見栄えではなく、構成の組み立て方やわかりやすさが担保できる)
– 他部署メンバーと円滑なコミュニケーションを図りながら業務を進めることができる
[エンジニアリングスキル]
– SQLを利用してデータを加工・集計した経験
– 100~200行のコードを読み書きできる
– 結合, CTE (WITH句)・サブクエリ, ウィンドウ関数が利用できる
– SQL を用いた分析用データマートの設計・開発・運用経験
– Git などのバージョン管理システムの利用経験
案件内容

エネルギー会社におけるDWH刷新後の運用保守

必須スキル
・クラウド(Azure)運用・保守の経験
・DWH・ETLシステム運用・保守の経験
・ジョブ管理ツール運用・保守の経験(System Walker Operation Manager、等)
案件内容

【案件概要】
 ・顧客データ分析基盤 スクラム開発メンバー
【作業内容】
 ・顧客PO、弊社SMのもとでスクラム開発
 ・データエンジニア、DevOpsエンジニアの役割を担う
 ・データサイエンティストチームが分析業務を行うためのデータ分析環境、機械学習環境をAWS環境上に実装

必須スキル
・AWSサービスの構築経験 ※IaaS(EC2)のみは不可
・CI/CDに関する知識・経験
・ETLに関する知識・経験
・Pythonで実装された機械学習コードの読解
・スクラム開発における心理的安全に配慮したコミュニケーション力
案件内容

自動車企業向けにSnowflakeにてログデータ可視化のデータ基盤を構築する。

必須スキル
・Snowflakeを利用したアーキテクチャの設計経験
・Snowflakeでのジョブ設計、開発経験
・Snowflakeでの性能改善の経験
・SnowflakeでのETL処理の設計、開発、テスト経験
・Snowflakeの新機能をキャッチアップしており、新機能を踏まえた設計ができること
案件内容

・データ基盤の現行調査(バッチ数やテーブル数、データサイズなど+現行の課題把握)
・アーキテクチャ選定(SybaseIQ、Treasure Dataから分析に最適なDB選定および検証)

必須スキル
・データ分析基盤の設計・構築経験者
・ETLツールの設定内容やSQLなどのソース解析
・ETLツールの設計・構築経験者
案件内容

業務効率化・販路拡大を目指すクライアントへ対し、データマネジメントシステム基盤の構築を進めています。
フェーズ毎に増減しますが、チームは総員30名規模を見込んでおり、その方の対応可能領域、
得意領域に応じて業務分担を行う予定ですが、要件定義から支援いただける方を募集しています。

<想定される業務内容>
・業務要件のヒアリング、収集対象となるデータの洗い出し
・ETLジョブ(databricks)の設計~リリース/保守
・BIの設計~リリース/保守
 ※状況に応じ、上記業務以外が発生します。

<環境>
クラウド間連携/ETL機能:databricks
BIツール:SAS、databricks、Looker(複数ツール併用)

必須スキル
・ETL(databricksだと尚良)構築に関わるプロジェクト参画経験
・BIツールの設計~リリース/保守まで一貫した対応経験
案件内容

・大手エンターテインメント企業において、親会社が運営するゲームタイトルのデータを、
データレイクに格納するデータパイプライン構築の業務がメインとなります。

内容や案件はゲームタイトルのスケジュール等に依存するため、
ゲームタイトル以外のデータパイプライン構築や、社内システムの構築をお願いする可能性もございます。
(Webサイト等その他サービス)

※お願いする可能性のある業務スコープ例

・データ分析基盤の開発・運用
データを収集するETL/ELTパイプラインの開発
運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

GCPを採用しており、GCP系リソースを中心に活用します。(BigQueryなど)
インフラ管理:terraform
パイプライン構築:Airflow(Cloud Composer)、Argo workflow、SaaSであるtrocco等

必須スキル
1. SQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験

検索結果110件中1-10件