データエンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:769

データエンジニアの案件を探す

案件内容

データエンジニアとして、マーケティングデータの管理・分析基盤の構築業務をお願いします。
主に、下記業務をお願いします。

・BigQueryを用いたデータ自動化環境の構築
・BIツールを用いた分析
・要件定義
・インフラ構築 等

◆主な開発環境・ツール◆
・言語:SQL
・データ基盤 / DWH:BigQuery
・BIツール:Looker Studio・Tableau・GoogleDataStudio
・管理ツール:Trello・JIRA
・コミュニケーションツール:Slack・Notion
・その他ツール:GoogleWorkspace・Looker Studio

必須スキル
・BigQuery・Looker Studioを用いたデータ基盤の構築・運用・カスタマイズ経験1年以上
・SQLをを用いたデータ抽出経験
・顧客, 売上などのマーケティングデータの分析経験
案件内容

・実績/計画/マスタデータ等の抽出、突合、クレンジングおよび統合処理
・在庫推移ダッシュボード(プロトタイプ)の迅速な設計・構築(Tableau/Power BI)
・クライアントヒアリングを通じたデータ定義整理および分析基盤への実装フロー設計
・PM(0.5稼働)と連携し、自走型でのデータエンジニアリング実務推進
・現場入力負荷を考慮したデータ運用フロー設計支援
・PSI会議等トライアル運用の伴走支援

必須スキル

・SQL/Pythonを用いた複雑データ(実績・計画・マスタ等)の抽出、加工、統合経験
・TableauまたはPower BIを用いたダッシュボード構築経験(プロトタイプレベル可)
・クライアントヒアリングを基にしたデータ要件定義および実装設計経験
・PMの意図を汲み取り、自立して業務遂行できる推進力
・データ運用フロー設計、業務トライアル伴走経験

案件内容

大手通信企業にて販売するインフラサービスの販売から受注、工事までの業務をカバーする基幹システムを刷新し、大規模な業務効率化の実現を目指すプロジェクト。要件定義/設計工程にて、システム要件定義の支援を行っていただきます。

必須スキル
・システム開発プロジェクトにおける要件定義工程経験
・円滑なコミュニケーションを取ることができるスキル
・API設計、開発経験
案件内容

既存環境(SQL、Access、Excel)を解析し、BigQueryおよびTableau環境への置き換えを推進。
抽出用SQLの作成、Tableauダッシュボード構築、Salesforce埋め込み用ソースの提供、仕様書等のドキュメント作成を担当いただきます。
21部署分のデータをフィルタ切り替え可能な1画面へ集約する構築業務がメインです。

必須スキル
・Tableauを用いたダッシュボード開発実務経験
・SQLを用いたデータ抽出・操作経験
案件内容

データエンジニアとして主に以下の業務に携わっていただきます。
・各国・各拠点で利用されているERPや業務システムからデータを集約し、データ基盤の設計、構築、運用を技術面からリードする
・クラウド環境上でのデータウェアハウス/データレイクのアーキテクチャ設計、技術選定、実装方針の策定を担い財務・原価・生産・販売などの基幹業務データを、グローバルで横断的に扱えるデータ基盤として構築する
・ETL/ELT処理の設計・開発、BIツールを活用したダッシュボード・レポート提供などデータ利活用の促進に携わる

■開発環境■
Snowflake、PowerBI

必須スキル

・クラウド環境(AWS、Azure、GCP 等)におけるデータ基盤のアーキテクチャ設計・開発・運用経験
・SQLを用いたデータ設計・分析経験(業務データを理解した上での設計)
・ETL/ELTパイプラインの設計・実装経験
・技術的な内容を業務部門・関係者に分かりやすく説明し、合意形成を行った経験

案件内容

・ステークホルダーヒアリングを通じた課題理解・改善ソリューションの実施
・ディメンショナルモデリングを活用したデータモデル設計・データパイプラインの改善
・Airflow DAG,dbtなどによるSnowflake上でのデータパイプライン構築・実装
・データパイプラインの運用監視・障害対応などの運用
・技術的な提案・検証(メタデータ管理、データ品質管理など)

【開発環境】
開発言語: Python, SQL 等
開発/運用環境: Docker, VSCode, IntelliJ, GitLab, GitLab CI, Claude Code, GitHub Copilot, JetBrains AI Assistant
データ基盤: Snowflake
ワークフロー管理: Amazon Managed Workflows for Apache Airflow (MWAA)​
インフラ環境: AWS [AppFlow, MWAA, S3 等]​(※インフラの設計・構築・運用は別担当)
社内ツール: Confluence, JIRA, Redmine, Slack, Zoom, Google Meet
外部SaaS: Salesforce, Marketo, GA4, Datadog, Zendesk等

必須スキル
・ディメンショナルモデリング(Dimensional Modeling)の実務経験
・Snowflake, SnowSQLを用いたデータ変換の実務経験
・Apache Airflowやdbtなど用いたワークフロー構築の実務経験
案件内容

鉄鋼業向けBIプラットフォームを基盤としたデータ蓄積
BIプラットフォームを基盤としたデータ蓄積機能を流用し、
各システム・業務領域へ横展開していくエンハンス開発案件です。
現行で稼働している機能を流用し、
新たなデータ収集機能を追加していく想定となります。
テスト工程がやや複雑とのことで、開発経験が豊富な方、
もしくはテスト設計・実施まで対応できる方を求めています。

作業内容:
詳細設計、製造、単体テスト、結合テスト

環境:
Microsoft Azure、Microsoft Fabric

必須スキル
・システム開発の実務経験5年以上
・テスト工程の経験(観点整理、ケース作成、実施)がある方
・チームでの開発経験があり、円滑にコミュニケーションが取れる方
・データ移行経験がある方
案件内容

DWH/BI領域における業務支援および分析基盤の構築・運用改善をご担当いただきます。

・既存集計フローの自動化・効率化
・既存帳票(Excel, CSV)からのSQL作成、BI(QuickSight)での可視化・分析
・AWS(Glue, Athena等)を用いたETL処理、データレイク・データマートの構築
・既存のデータ分析基盤の改修・運用保守

◆主な開発環境・ツール◆
・言語:Python (PySpark, pandas), Power Query, VBA, SQL
・DB/DWH:AWS Athena, Glue Data Catalog, AWS RDS (SQLServer), S3
・BIツール:QuickSight
・環境:AWS Lambda
・管理ツール:GitHub

必須スキル
・Pythonを用いた開発実務経験
・SQL, Power Query, VBAを用いた実務経験
・AWS環境(Glue, Athena等)の知見・利用経験
・データ分析業務経験(データマート作成、分析基盤の構築・運用)
・ETL処理の開発・運用経験
・生成AI(GitHub Copilot等)の導入・活用に意欲的な方
・GitHubを用いたソースおよびドキュメント管理の経験
案件内容

要件定義をお願い致します。

■環 境:
<現環境>
ソース:SAPECC6.0orスクラッチ
DWH:Oracle
BI:Jasper
<新環境>
ソース:S/4HANAorスクラッチ
DWH:AmazonRedshift
BI:AmazonQuickSight

必須スキル
PL経験
何かのDWH→RedShift移行経験者
案件内容

メーカー様が小売店様と契約して受領しているPOSデータを収集しクレンジングして、DWH(snowflake)に蓄積するパッケージシステムをこれから受注する顧客用に個社対応で機能追加していく。

必須スキル
・Python(モジュールやパッケージが作れる、使える)開発経験※BI系はNG
・SQLの使用経験(3年以上)
・要件定義~の開発経験
・コミュニケーション能力のある方

検索結果769件中1-10件