データエンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:758

データエンジニアの案件を探す

案件内容

元請けプロパーチームに参画し下記作業を実施。

・クライアントの業務要件・課題を理解し、Power BIを駆使したソリューションを提案
・Power BIを活用したダッシュボード・レポートの設計・開発・運用
・会計データを中心としたデータモデルおよびレポートの設計、最適化
・SnowflakeやSQLデータベースからのデータ取得・変換・統合
・データ品質管理、モニタリングシステムの導入
・プロジェクト進行におけるBI環境におけるクライアントとのコミュニケーション、課題解決のリード
・グローバルメンバーと協力し、プロジェクト目標の達成に向けてタスクの遂行

必須スキル

・BIツールに関する実務経験:5年以上
・Power BIに関する実務経験:3年以上
・Power BIを用いたダッシュボード・レポート開発経験
・データモデリングおよびDAXの知識
・SQLおよびPythonの使用経験
・データウェアハウスの利用経験
・クライアント課題のヒアリング・要件定義の経験
・国際的な環境での業務経験、優れたコミュニケーション能力(英会話が堪能であれば尚可)

案件内容

元請けプロパーチームに参画し下記作業を実施。

•クライアントの業務要件・課題を理解し、Snowflakeを駆使したソリューションを提案
•Snowflakeを活用したデータウェアハウスの設計・開発・運用
•会計データを中心としたデータウェアハウスおよびデータモデルの設計、最適化
•ETLパイプラインの構築・保守
•SQLデータベースやERPなど複数ソースからのデータ統合・変換
•データ品質管理、モニタリングシステムの導入
•Snowflakeのパフォーマンスチューニング
•プロジェクト進行におけるデータウェアハウス環境におけるクライアントとのコミュニケーション、課題解決のリード
•グローバルメンバーと協力し、プロジェクト目標の達成に向けてタスクの遂行

※英語に抵抗がない方 英会話堪能だと尚可

必須スキル
・データウェアハウスに関する実務経験:5年以上
・Snowflakeに関する実務経験:3年以上
・Snowflakeを用いたデータウェアハウス設計・開発経験
・SQLおよびPythonの使用経験
・ETLパイプライン構築経験
・クライアント課題のヒアリング・要件定義の経験
・国際的な環境での業務経験、優れたコミュニケーション能力(英語できれば尚可)
案件内容

データエンジニアとしてデータモデルの設計・開発
事業企画との折衝、主には実現方法の検討であったり連携項目の整理といったレポートで表現するにあたっての要件定義

【対応工程】
・BI レポート用のデータマートの設計・開発
・テーブル設計、SQL実装、リレーション構築、バッチ実装
・BI レポートの開発・保守運用
・レポート開発にあたっての要件定義
・実現方法検討、連携項目整理
 ※現在PowerBIとTableauを併用しています

【開発環境】
データベース:Databricks、Snowflake
BIツール:Power BI、Tableau

必須スキル
・DWH設計・開発の経験 2年以上
・SQLを用いたデータ抽出・加工の経験 3年以上
・BIツールを用いたダッシュボード・レポートの設計、開発経験
案件内容

大規模な生データを取り込み、クリーンアップするための堅牢でスケーラブルなデータパイプラインを構築・維持する、技術的デリバリーの要です。Python/SQL、GCP等のツールを用いてデータ品質を徹底的に保証し、データサイエンティストと連携して高品質なBIダッシュボードを本番環境に移行させます。

【役割/タスク】
・大規模データの取り込み・変換・クリーンアップを行うスケーラブルなパイプラインを構築
・高稼働率のBIダッシュボードを本番環境にデプロイし、技術的基盤を管理
・データ品質保証プロセスを主導し、納品前のデータ出力の厳密性を確保

必須スキル
・データエンジニアリング、データ品質、または技術分析の役割における経験
・データ処理と自動化のためのSQLとPythonの熟練度
・データオーケストレーションツール (例: Airflow、dbt、Prefect) の経験
・高稼働率の顧客向けアプリケーション、ダッシュボード、またはその他のツールをデプロイ・維持した経験
案件内容

Googleスプレッドシートに保存された広告データを、BigQueryに取り込み、Looker Studioにて可視化・レポート作成を行う支援業務。BigQuery環境の利用が前提
Fivetranを使用したデータ統合の自動化

必須スキル

・BigQueryを用いたデータ連携・加工経験
・Looker Studioでのダッシュボード作成経験
・スプレッドシートとのデータ連携知識(GAS実務経験)

案件内容

既存のTableau環境に対しDatabricksを追加採用し、社内外データを一元的・効率的に管理できる統合データ基盤を構築するプロジェクトになります。

現状:Tableau (BIツール) のみ導入済み。
構築対象範囲:
・Databricksデータ基盤環境の追加構築。
・データレイク、DWH(データウェアハウス)の統合。
・周辺のデータ準備処理およびワークフローの整備。
主要業務: データパイプラインの設計・構築

必須スキル

・大規模データ基盤構築プロジェクトにおける構築実務経験
(データ設計/データパイプライン処理実装等)
・Pythonを使用したデータ分析などのご経験
・自主的・積極的な業務推進

案件内容

主にマルチクラウド環境(AWS/GCP)のデータ基盤構築と整備、およびデータ活用のための前処理開発を担当いただきます。

データ基盤構築・統合:
現在AWSとGCPに分散しているデータ基盤を、BigQuery上への統合(一元化)を目指す構築作業が主。
データベース型サイト(5〜10サイト、大規模データ)の分析基盤の設計、保守、セキュリティ対策。

データパイプライン開発:AWSとGoogle Cloudの両方からデータを接続するデータパイプラインの設計・実装。
データソース(アクセスログ、AWS S3上のマスターデータ等)の接続設定。

データ前処理・加工(データマート構築):
データ抽出、グルーピング、定義付けなど、分析用データマートの部分の加工・実装。

運用・保守:
構築後のメンテナンス費用やセキュリティまで考慮した管理体制の提案・構築。
フェーズ: プロジェクトはこれから始まる段階(現時点では知見の少ないメンバーで対応中)。

ELTについて:
Google Cloud内の機能でELTを内製
データ抽出:SQL
変換:SQL or Python
格納:BigQuery

必須スキル
クラウド: AWSとGoogle Cloud (GCP)の両方のデータ領域に精通していること。
DWH/ETL: BigQueryを用いたデータ基盤構築、およびデータパイプラインの設計・実装経験。
データ処理: データの前処理(データマート構築)や加工、抽出パターン、グルーピング定義を理解し、実装できること。
コミュニケーション能力が高く、指示に対して一人称でロジカルに作業を進められるミドル以上の経験。
案件内容

テレビ局データのダッシュボード構築(Tableau)、ダッシュボードに載せる「合成指標」の探索的分析、実装業務

必須スキル

・KPIの整理であったり、指標を組み合わせたモデリングができる

案件内容

・2,000万人近いアクティブユーザーを抱える化粧品サイト運営企業において、データエンジニアとしてご稼働いただきます。
・商用稼働サー眉宇のデータパイプライン構築・運用及び、日々の運用業務から発生する課題解決・改善をご担当いただきます。

◆主な開発環境・ツール
・BigQuery
・Docker
・dbt
・Composer
・ GitHub

必須スキル
・BigQuery上でのデータモデル設計・構築のご経験
・dbtを用いたデータパイプラインの設計・実装のご経験
・Composer、BigQueryを用いた分析基盤構築・運用のご経験
案件内容

・クライアントは半導体メーカー。
・Tableauにおける現行の運用改善・運用業務を担当していただきます。
・クライアントの社員がリーダーとしてアサインされており、長期的に安定したプロジェクトに参画いただける方を募集しております。

必須スキル
・Tableauの運用・保守の経験
・Tableau Serverの知見

検索結果758件中11-20件