データエンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:766

データエンジニアの案件を探す

案件内容

既存環境(SQL、Access、Excel)を解析し、BigQueryおよびTableau環境への置き換えを推進。
抽出用SQLの作成、Tableauダッシュボード構築、Salesforce埋め込み用ソースの提供、仕様書等のドキュメント作成を担当いただきます。
21部署分のデータをフィルタ切り替え可能な1画面へ集約する構築業務がメインです。

必須スキル
・Tableauを用いたダッシュボード開発実務経験
・SQLを用いたデータ抽出・操作経験
案件内容

データエンジニアとして主に以下の業務に携わっていただきます。
・各国・各拠点で利用されているERPや業務システムからデータを集約し、データ基盤の設計、構築、運用を技術面からリードする
・クラウド環境上でのデータウェアハウス/データレイクのアーキテクチャ設計、技術選定、実装方針の策定を担い財務・原価・生産・販売などの基幹業務データを、グローバルで横断的に扱えるデータ基盤として構築する
・ETL/ELT処理の設計・開発、BIツールを活用したダッシュボード・レポート提供などデータ利活用の促進に携わる

■開発環境■
Snowflake、PowerBI

必須スキル

・クラウド環境(AWS、Azure、GCP 等)におけるデータ基盤のアーキテクチャ設計・開発・運用経験
・SQLを用いたデータ設計・分析経験(業務データを理解した上での設計)
・ETL/ELTパイプラインの設計・実装経験
・技術的な内容を業務部門・関係者に分かりやすく説明し、合意形成を行った経験

案件内容

・ステークホルダーヒアリングを通じた課題理解・改善ソリューションの実施
・ディメンショナルモデリングを活用したデータモデル設計・データパイプラインの改善
・Airflow DAG,dbtなどによるSnowflake上でのデータパイプライン構築・実装
・データパイプラインの運用監視・障害対応などの運用
・技術的な提案・検証(メタデータ管理、データ品質管理など)

【開発環境】
開発言語: Python, SQL 等
開発/運用環境: Docker, VSCode, IntelliJ, GitLab, GitLab CI, Claude Code, GitHub Copilot, JetBrains AI Assistant
データ基盤: Snowflake
ワークフロー管理: Amazon Managed Workflows for Apache Airflow (MWAA)​
インフラ環境: AWS [AppFlow, MWAA, S3 等]​(※インフラの設計・構築・運用は別担当)
社内ツール: Confluence, JIRA, Redmine, Slack, Zoom, Google Meet
外部SaaS: Salesforce, Marketo, GA4, Datadog, Zendesk等

必須スキル
・ディメンショナルモデリング(Dimensional Modeling)の実務経験
・Snowflake, SnowSQLを用いたデータ変換の実務経験
・Apache Airflowやdbtなど用いたワークフロー構築の実務経験
案件内容

鉄鋼業向けBIプラットフォームを基盤としたデータ蓄積
BIプラットフォームを基盤としたデータ蓄積機能を流用し、
各システム・業務領域へ横展開していくエンハンス開発案件です。
現行で稼働している機能を流用し、
新たなデータ収集機能を追加していく想定となります。
テスト工程がやや複雑とのことで、開発経験が豊富な方、
もしくはテスト設計・実施まで対応できる方を求めています。

作業内容:
詳細設計、製造、単体テスト、結合テスト

環境:
Microsoft Azure、Microsoft Fabric

必須スキル
・システム開発の実務経験5年以上
・テスト工程の経験(観点整理、ケース作成、実施)がある方
・チームでの開発経験があり、円滑にコミュニケーションが取れる方
・データ移行経験がある方
案件内容

DWH/BI領域における業務支援および分析基盤の構築・運用改善をご担当いただきます。

・既存集計フローの自動化・効率化
・既存帳票(Excel, CSV)からのSQL作成、BI(QuickSight)での可視化・分析
・AWS(Glue, Athena等)を用いたETL処理、データレイク・データマートの構築
・既存のデータ分析基盤の改修・運用保守

◆主な開発環境・ツール◆
・言語:Python (PySpark, pandas), Power Query, VBA, SQL
・DB/DWH:AWS Athena, Glue Data Catalog, AWS RDS (SQLServer), S3
・BIツール:QuickSight
・環境:AWS Lambda
・管理ツール:GitHub

必須スキル
・Pythonを用いた開発実務経験
・SQL, Power Query, VBAを用いた実務経験
・AWS環境(Glue, Athena等)の知見・利用経験
・データ分析業務経験(データマート作成、分析基盤の構築・運用)
・ETL処理の開発・運用経験
・生成AI(GitHub Copilot等)の導入・活用に意欲的な方
・GitHubを用いたソースおよびドキュメント管理の経験
案件内容

要件定義をお願い致します。

■環 境:
<現環境>
ソース:SAPECC6.0orスクラッチ
DWH:Oracle
BI:Jasper
<新環境>
ソース:S/4HANAorスクラッチ
DWH:AmazonRedshift
BI:AmazonQuickSight

必須スキル
PL経験
何かのDWH→RedShift移行経験者
案件内容

メーカー様が小売店様と契約して受領しているPOSデータを収集しクレンジングして、DWH(snowflake)に蓄積するパッケージシステムをこれから受注する顧客用に個社対応で機能追加していく。

必須スキル
・Python(モジュールやパッケージが作れる、使える)開発経験※BI系はNG
・SQLの使用経験(3年以上)
・要件定義~の開発経験
・コミュニケーション能力のある方
案件内容

ログ管理プラットフォームの整備における実務および進捗管理を担当していただきます。
技術的なログ設計、出力設計・収集設計および実装作業を行いながら、
開発部門・基盤部門と連携し、プロジェクトを推進していただきます。

必須スキル
1.ログ設計・要件定義
・監査や調査に必要なログの整理
・ログに記録すべき項目や出力形式などのログ仕様策定
・開発チームへの実装依頼および調整
2.インフラ・ミドルウェア実装
・Linux、Windowsの操作(OSコマンド、権限管理、設定ファイル編集 等)
・td-agent(Fluentd)等を用いたログ転送・収集の仕組みの構築
 ※収集したログの転送設定、ログ受信側の設定も実施していただきます。
3.クラウド上のログ収集設定
・AWS CLI/SDKを用いたS3操作等によるクラウド上ログ取得環境の構築
・APIを用いたクラウドログ取得環境の構築
4.プロジェクト管理
・全体タスクおよび課題の整理、WBS作成、スケジュール管理
・関連部門(開発・基盤)との会議体運営および作業調整
案件内容

ダッシュボード構築の知見をお持ちの方を募集しております。
SAP会計データをPower BIで数値検証するプロジェクト。短期間(3月末予定)で検証と
マッピングを並行して進める必要がある。
お客様側も負荷で疲弊しているため、技術対応だけでなく心理的なサポートも意識しながら
進行するできる方を募集しております。

必須スキル
・Power BI
・データ(ワークテーブル)の知見
案件内容

通信事業者向けデータ統合システムを主体としたデータマート構築および、BIツールによる可視化業務を担当。

データエンジニアの立ち位置として、設計・構築業務に加え、部分的に顧客調整も実施。
Tableau Prepを用いたデータ加工・統合処理の実装、進捗・課題管理、会議体での報告対応を通じて、データ基盤の品質向上を支援する。

必須スキル
・Tableau Desktop または Power BI Desktop/Service を用いた開発経験
・DAX計算ロジックの実装経験、既存メジャーの読解・最適化経験
・Power BI モデル設計の実務経験(スライサー、参照テーブル、フィルタ挙動の理解)
・SQLを用いたデータ処理、ETLパイプラインの設計・構築経験
・課題に対して自走できる問題解決力
・チーム内外との円滑なコミュニケーション力

検索結果766件中1-10件