ETLの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:145

ETLの案件を探す

案件内容

ETLジョブ開発、データエンハンス処理、テーブル設計、データマート構築
・CDM領域のデータ開発
・要件定義、基本設計、調査対応
・Talend等のETLツールを用いた開発
・Snowflake、AWS環境でのデータ処理
・ダミーデータの準備(GDPR対応)

必須スキル
・ETLツールを用いたジョブ開発経験(Talend)
・SQLクエリの作成スキル
・要件定義・基本設計の経験
・データマートやテーブル設計の経験
・チームでの開発経験
・Snowflake、AWS環境での開発経験
・報連相がしっかり出来る方(事前に休暇の連絡等)
・体調管理をしっかり出来る方
案件内容

銀行ユーザー部における情報系基盤更改に伴う、Talendカスタマイズ開発。
データ・計数の分析や要望に応じたデータ可視化業務を支援する。
TableauPrep/TableauDesktopを使用したデータ作成/ダッシュボード作
成。
要望に応じて、必要データ項目、及びデータ調達先の調査。
データ加工、及びデータ可視化方法の検討・開発業務。

必須スキル
・コミュニケーションスキル(ユーザーとのやり取り)
・TableauDeskTop/TableauPrepを利用したダッシュボード/ワークブック/ク
エリの作成経験
案件内容

・運用業務

  • セキュリティ点検(四半期ごとに利用実態の確認)
  • 問い合わせ対応(データハブ利用に関する問い合わせへの対応)
    ・新規データ投入業務
  • データハブ(Snowflake)における新規データ拡充対応
  • データ投入方式の設計・検討・実装
必須スキル

・Snowflakeの実務経験(1年以上、Snowflakeにおける設計・実装の経験があること)

案件内容

グループ会社で既に導入済みのクラウドデータウェアハウス Snowflake を活用し、お客様が求めるアウトプットを効率的に導き出すためのデータ基盤を構築するプロジェクトです。

具体的には、Snowflake と Amazon S3 に格納された各種データを整理・統合し、ビジネスニーズに合致したデータマートの設計および構築を推進いただきます。これにより、お客様が迅速かつ正確にデータ分析を行い、意思決定に繋げられるよう、データ活用を強力に支援します。

必須スキル
・データウェアハウス設計の経験: Snowflake、または他の主要なDWH(Redshift, BigQueryなど)での設計・構築経験。
・SQL・データ操作: 大規模データに対する複雑なSQLを用いたデータ抽出、加工、変換の実務経験。
・データパイプライン構築経験: データフローの設計、ETL/ELTツールの選定・実装経験(例:dbt、Airflowなどの知識があれば尚可)。
・セキュリティ・ガバナンスに関する知見: データアクセス制御、プライバシー保護、監査ログなど、データセキュリティとガバナンスに関する知識と実践経験。
案件内容

オルタナティブデータ(今まで利活用の進んでいないビッグデータ)を用いた分析サービスを提供するプロダクトの募集になります。
オルタナティブデータを加工・分析し、SaaSプロダクトとして展開しています。
POSデータ、クレカデータ、ポイントカードデータ、位置情報データといった様々なオルタナティブデータから得られたインサイトを、海外の機関投資家から国内の官公庁、事業会社まで幅広い顧客に提供しています。
本ポジションは、大規模データ分析基盤の知見を活かし、顧客のデータ基盤の開発支援を行うポジションです。

・データ基盤開発案件の推進。主に設計や実装フェーズに参画していただきます

必須スキル

・Pythonを用いた開発・運用経験
・クラウドインフラ開発・運用経験
・データ分析基盤の構築・運用経験
・チームでのシステム開発・運用、3年以上(サブリード以上が望ましい)
・対面折衝(クライアントコミュニケーション)経験

案件内容

【案件概要】
・データ分析基盤 スクラム開発メンバー
【作業内容】
・プロダクトオーナー、スクラムマスター(クライアント)のもとでスクラム開発
・データエンジニア、DevOpsエンジニアの役割を担う
・データサイエンティストチームが分析業務を行うためのデータ分析環境、機械学習環境をAWS環境上に実装

必須スキル

・データエンジニアスキル
・AWSのサービスを用いてETLパイプラインを構築できる
・Python、SQLを用いて、データの収集・加工・処理を実装できる
・個人情報(PII)の秘匿化、権限処理を実装できる
・クラウドエンジニアスキルAWSサービスの構築経験
・サーバレスサービス、IaCを用いて、データ分析環境を構築・運用できる
・クラウドサービスにおけるセキュリティ脆弱性の管理運用ができる
・スクラム開発
・アジャイルの思想、原則を重視したプロジェクトでの開発経験がある

案件内容

ETLツール(PowerCenter)でのIFバッチ開発を担当します。
詳細設計からプログラミング、結合テストまでを含む長期のプロジェクトです。

■開発環境■
PowerCenter

必須スキル
・処理設計(処理フロー/データフロー作成)に単独で対応可能な方
・データベースに関連した保守や開発業務経験が1年以上(1人称での経験)
・SQLによるデータ操作スキル
案件内容

・大手エンターテインメント企業において、親会社が運営するゲームタイトルのデータを、
データレイクに格納するデータパイプライン構築の業務がメインとなります。

内容や案件はゲームタイトルのスケジュール等に依存するため、
ゲームタイトル以外のデータパイプライン構築や、社内システムの構築をお願いする可能性もございます。
(Webサイト等その他サービス)

※お願いする可能性のある業務スコープ例

・データ分析基盤の開発・運用
データを収集するETL/ELTパイプラインの開発
運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

GCPを採用しており、GCP系リソースを中心に活用します。(BigQueryなど)
インフラ管理:terraform
パイプライン構築:Airflow(Cloud Composer)、Argo workflow、SaaSであるtrocco等

必須スキル
1. SQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験
案件内容

BOATRACEにおける投票システムの開発業務にご参画いただきます。
データハブ関連の開発を中心に、ETL処理やデータ加工処理、AWSサービスを活用したインフラ周りの対応も行っていただきます。

必須スキル

以下いずれかのご経験(優先度順)
① AWS関連スキル
・Glue上での開発経験(Python)
・Lambda(Docker)での開発経験(Python・Java)
・クラウドサービスを用いたETLアプリケーションの構築経験
・データ加工(正規表現やSQL等)の実務経験

② 製品調査
・AWS・fluentd等の公式ドキュメントを参照し仕様調査が可能な方
(英語ドキュメントに対し、Google翻訳等を用いて対応できれば問題ありません)
・パラメータシートレベルでの技術調査のご経験

③その他
・Linuxコマンド操作スキル
・DB開発経験

案件内容

エンド企業様の賃貸物件サービスの保守・改修を行っていただきます。

下記想定業務になります。
・Java、Pythonでのバックエンドでのバッジ処理メイン
・Junitを使ったテスト(結合テスト、単体テスト)

必須スキル
・JavaまたはPythonによるアプリケーション開発経験3年以上
・テスティングフレームワークを用いた単体テストの実装経験

検索結果145件中1-10件