データエンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:791

データエンジニアの案件を探す

案件内容

販売管理システムの開発プロジェクトにおいて、データ領域の専門性を活かした技術サポートを担当いただきます。

主な業務内容

  • データ利活用に向けた技術的なアドバイザリおよび実務支援
  • 業務要件に基づいたデータ構造の検討支援

■環境■
C#、SQLServer

必須スキル

– 財務・会計系システム開発プロジェクトへの参画経験、および関連する業務知識
– 特定の製品に限定されない、幅広いBIツール(データ可視化ツール)の選定・活用に関する実務経験

案件内容
  • リアルタイムデータを活用するプラットフォームにおける、商業施設向けのデータ分析および可視化プロジェクトに携わっていただきます。

具体的業務

  • クラウド型DWHやデータ変換ツールを用いたデータマートの設計およびバッチ処理の構築
  • BIツールを用いたダッシュボードのロジック設計および運用管理
必須スキル

– BIツールを用いた可視化システムの設計および開発実務経験
– SQLを用いたデータ加工およびデータマート設計の実績
– 自律的な課題発見スキルおよび対外的な調整・コミュニケーション能力

案件内容
  • 既存のデータ統合・分析基盤における運用および改善支援業務。
  • 基幹システムや周辺システムから連携されるデータを対象に、ETL処理、データモデリング、データマート設計などを担当します。

◆作業内容

  • DWHへのデータ取り込み(ETL/ELT)の設計・開発・改修
  • SQLを用いたデータ加工・集計処理
  • データモデル(正規化/スター・スキーマ等)の設計・管理
  • 既存ジョブ・処理の調査、性能改善、障害対応
  • 関係部署との仕様確認・調整
  • 保守運用に伴う定常作業、問い合わせ対応
必須スキル

– DWHまたはデータ基盤に関する実務経験
– SQLを用いたデータ抽出・加工の経験
– ETL処理(ツールまたはSQL/バッチ)の設計・開発経験
– RDB(Oracle)の利用経験
– チームでの開発・保守経験

案件内容
  • 金融機関における決算業務(国内基準および国際会計基準)の自動化を目指すプロジェクトです。
  • 現在、国内基準向けのシステムはテストフェーズにあり、並行して国際基準対応の仕組みを新規に立ち上げます。
  • 大量データを効率的に処理するためのETL処理を実装し、後続の各システムへデータを橋渡しする仕組みの設計から開発までを担います。

◆開発環境の傾向

  • インフラ: AWS環境(AWS Glue, Amazon Redshift等)を活用したデータ基盤
  • アプリケーション: Pythonを用いた開発、およびPySparkによる大規模データ分散処理
必須スキル

– ETL開発経験、Python

案件内容
  • 組織横断で利用されるデータサービスの改修および最適化を支援します。
  • 既存のワークフロー管理環境からManaged Airflowへの移行作業を主導します。
  • 分析に必要となるデータの調達から、システムの実装・リリース、提供後の運用・保守までを一貫して担当します。

◆主な業務内容

  • データベースの操作およびApache AirflowからManaged Airflowへの移行対応
  • データパイプラインの実装、リリース、および運用保守業務
必須スキル

– SQLを使用した業務経験
– Webシステム開発経験(Pythonだと尚可)
– コミュニケーション力

案件内容
  • AWSおよびSnowflakeを活用して構築されたデータ基盤の開発・保守業務
  • 製造業界向けデータ利活用プラットフォームの安定運用と機能拡張
必須スキル

– Apache Iceberg Table / Catalog および Iceberg から Snowflake への連携に関する知見
– 日本語:ネイティブレベル、英語:読み書きレベル

案件内容

Microsoft Fabricを用いたデータ分析基盤の構築およびデータ処理開発
・Microsoft Fabric(Lakehouse/Data Factory/Notebook)を用いたデータ基盤構築
・Pythonによるデータ加工・ETL処理の開発
・データパイプラインの設計・実装
・Power BIとの連携によるデータ可視化支援
・既存データ基盤の改善・運用支援

必須スキル

・Microsoft Fabricの利用経験
・Pythonを用いたデータ処理開発経験
・SQLを用いたデータ抽出・加工経験
・クラウド環境(Azure/AWS/GCPいずれか)での開発経験
・データ基盤またはETL開発経験

案件内容

Snowflakeを用いたデータ取込み処理・ELT処理・データマート作成
・ETL処理の開発
・単体テスト~総合テスト
※Phase2(6月以降)ではAWS連携対応の可能性あり

必須スキル

・Snowflake(Snowflake SQL・Snowpipe・Task・Copy into等の連携処理経験)※1年以上の経験が望ましい
・ETL/ELTの実装経験
・ストアドプロシージャの経験
・詳細設計~STまでの経験
・Python読解経験(既存処理がPythonのため)

案件内容

SAPからSQLServer、Databricks、Synapseへのシステム移行およびデータ移行作業をご担当いただきます。
2027年の本番稼働に向けたリハーサル作業、課題検討、移行ツールの開発、本番移行対応が主な業務です。
移行作業の閑散期には、通常の開発・保守作業をサポートいただく場合もございます。

必須スキル
・SQLの実務経験
・クラウド基盤(Azure/AWS/GCPいずれか)の利用経験

検索結果791件中1-10件