データエンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:694

データエンジニアの案件を探す

案件内容

・PoC環境の全体アーキテクチャ方針設計
・PoC向けデータモデル設計(論理設計、物理設計)
・PoC環境の構築(顧客提供環境:ベースはAWS)
・PoC環境の試験実施、及び結果報告書の作成
・PoC環境定義書の作成

必須スキル

・AWSでの環境構築スキル(EC2、Lambda、API Gateway、S3/RDS、CI/CD環境、Docker利用、コスト管理)
・データモデル設計
・コンポーネントモデル設計(AWSサービス構成、サービス連携)

案件内容

【業務内容】
・施策に基づくデータマネジメント推進プラットフォームシステム構築・設定(メインツール:tableau
tableauの可視化を加速させるツール の選定・導入・運用(SQL、DWH等)支援​
・システムデータ管理​
・カスタムソフトウェアの開発支援(RFP作成、検証テスト、導入、運用支援)​
・レポート/DBの作成、データ入力/移行等を含むCRMの定着、運用/保守に関する業務、マニュアルの作成、またそれに付随する業務
・データ分析し、本社推進部/海外拠点へアクションの提案(海外拠点との直接コミュニケーション/Excel/PPT作成等資料作成含む)​

必須スキル

・tableauにおけるデータ抽出、可視化 分析

案件内容

・法人向けSaaSプロダクトにおけるデータパイプラインの設計・構築及び最適化を行っていただきます。
・具体的には様々な外部データソース(例:Google Drive, Dropbox, Webpage, etc)とのデータ連携のための処理の実装です。
・データの正確性、完全性、一貫性を保証するためのデータ品質管理プロセスの設計と実装、およびデータパイプラインの健全性を監視するシステムの構築

【参画メリット】
・急成長中のスタートアップ企業なので、今後のキャリアアップにつながる環境です。
・リモート併用案件のため、比較的リラックスした環境で働くことが可能です。

必須スキル

・Pythonを用いたデータ処理(Flask, Pandas, NumPy, Daskなど)の実務経験3年以上。
・GCPを用いたデータウェアハウス、データレイク、またはデータパイプライン構築の実務経験。
・リレーショナルデータベース(例:PostgreSQL, MySQL)またはデータウェアハウス
(例:BigQuery)におけるSQLを用いたデータ操作、分析のご経験。

案件内容

個人の様々な行動データを基にしたデータプラットフォームを用いて、
各種分析から施策企画・検討までを行います。
・データマート構築(要件定義、設計、実装、テスト)
・データエンジニアリング業務(データの収集、加工、集計)
・バッチ基盤の運用保守
・DMBOKを軸にしたデータマネジメント業務、及び利活用促進
・dbtを用いたデータ変換とモデルの開発
・データ利活用促進のためのメタデータ及びデータカタログ整備
DB:Databricks, BigQuery, Redshift, MySQL, PostgreSQL
クラウド:AWS, GCP, Azure
ツール:Adobe Analytics, Google Analytics, Firebase
バッチ処理:Airflow, dbt, digdag
言語:Python, Shell Script, SQL
CI/CD:CodeCommit, CodeDeploy, CodePipeline, Azure DevOps
データカタログ: OpenMetadata

必須スキル
・要件定義のご経験
・システム開発の経験5年以上(Python、Javaなど)
・データベース(SQL, RDB, NoSQL, DWHなど)関連の業務経験
・データ活用環境(データ分析基盤など)の構築、
 または、データ活用の実務(戦略、分析、施策改善等)の経験
案件内容

・大手エンターテインメント企業において、親会社が運営するゲームタイトルのデータを、
データレイクに格納するデータパイプライン構築の業務がメインとなります。

内容や案件はゲームタイトルのスケジュール等に依存するため、
ゲームタイトル以外のデータパイプライン構築や、社内システムの構築をお願いする可能性もございます。
(Webサイト等その他サービス)

※お願いする可能性のある業務スコープ例

・データ分析基盤の開発・運用
データを収集するETL/ELTパイプラインの開発
運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

GCPを採用しており、GCP系リソースを中心に活用します。(BigQueryなど)
インフラ管理:terraform
パイプライン構築:Airflow(Cloud Composer)、Argo workflow、SaaSであるtrocco等

必須スキル
1. SQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験
案件内容

・製薬業界での豊富な経験を持つ、英語と日本語のバイリンガルPower BI開発者を緊急募集。
・Power BIを用いたデータ可視化、ダッシュボード開発、レポート作成の実務経験
・売上レポート、コンプライアンス追跡、製品ライフサイクル分析

必須スキル
・Power BI 開発の経験
・英語と日本語のバイリンガル能力
・製薬業界のプロセスと KPI に関する理解
・製薬業界の規制およびコンプライアンス基準に関する理解
案件内容

■背景
・募集部署はデータ基盤&AI・BI&運用を一気通貫で担っており、
 現在エンド会社にDWH構築を上流から提案中
⇒既契約のエンド会社より技術要件に落とし込める英語できる方を求められている(5月末ぐらいまでに決定希望)
⇒技術サポートで既契約中(Snowflake環境構築)

■当社クライアント支援範囲(該当部署)
・データ基盤構築、機械学習システム構築/精度向上、時系列データ予測/異常検知、自然言語(テキスト)解析、画像認識
■想定業務
・プロパーの方との連携(Snowflake実装)
・英語でのやり取り(技術要件に落とし込み)
・ドキュメント作成(アーキテクト構成図・設計書・仕様書)
・技術サポート

※基本的にプロパー(Snowflake環境構築出来る方)がいるが、自身が構築・技術サポートしていくのも想定業務

必須スキル

・DWH構築経験(特にSnowflake)
・上流(要件定義・提案)の経験
・データフロー/マート設計
・ビジネス英語(クライアント折衝)

※全て満たしていない場合でも相談可(英語は必須)
※DWH上流経験があれば幅は広がります
※DWHサービス活用は必須

案件内容

・現在クライアント主導にて、ERPと連動した経営情報の仕組み(BIツール)を構築し、その連携先をグローバルへと展開しています。
・本社が使用するERPはSAPとなりますが、展開先にはSAP以外(EBSやD365等)の拠点もあり、特にファイナンスや連結/PSI領域を中心に、展開先の仕組みを理解した上でデータ収集や連携を進めています。
●役 割:
・BI展開チームのITチーム サブリード
・連結/PSI領域×1名
主な活動イメージとしては、海外拠点との調整、及び進捗管理を主業務とし、
データの確からしさについて、ビジネス側のメンバーと適宜確認、検証していくイメージです。

必須スキル
・ERP、基幹システムの経験者(特にトランザクション周りの知見必須)
・英語ビジネス(尚可、読み書きは必須)
・コンサルファーム出身者
案件内容

秒間25万リクエストを超える動画配信をはじめとした視聴に関するビッグデータの収集・整形・蓄積まで一貫して行なっていただきます。

【業務内容】
ビッグデータ基盤におけるデータの収集、データレイクからデータウェアハウス/データマートまでのワークフローの開発・運用をお任せします。
ご自身のアイディア・工夫をカジュアルに提案しプロダクトに反映していただける環境であり、単純に作るのではなく価値を提供することを重視しております。
データ基盤はGCP(Google Cloud Platform)を主軸とし、サブシステムにはAWS(Amazon Web Services)を部分的に採用した構成。日々進化するクラウドサービスをキャッチアップし最適な構成に随時進化し続けています。
今後もさらに安定してバージョンアップやスケーラビリティ・パフォーマンス改善を重ねるため、その開発の中核を担っていただくデータエンジニアを募集しております。

【開発環境】
■主要開発技術:GCP(Google Cloud Platform)環境でのワークフロー開発
■開発言語:Python, JavaScript, SQL
■クラウドプラットフォーム : Googleクラウド(BigQuery, Dataform, Workflows, CloufdFunctions, CloudRun)
■データ収集 : Fastly
■データウェアハウス : BigQuery
■コミュニケーションツール:Slack
■開発手法:アジャイル(一部ウォーターフォール)
■開発支援ツール・環境:GitHub, GitHub Actions(CI/CD)
■構成管理 : Terraform
■エディタ/IDE:VSCode Vim(*お好みのエディタを使用していただいてOKです。)

必須スキル
・Pythonを利用した開発経験
・SQLを使ったDBプログラミングの開発経験
・パブリッククラウドを利用したサービス開発・運用経験
・Gitなどのソースコード管理ツールの使用経験
案件内容

・Power BIを活用したデータ可視化・レポート作成
・Power Automateを活用した業務フロー自動化(クラウド/デスクトップフロー)
・Accessを利用したデータ管理・システム開発(VBA活用)
・各種データソースとの連携(Excel, SQL, SharePoint, API連携)
・データ整備・業務プロセス改善の提案

必須スキル
・Power BIのダッシュボード設計の活用経験
・Power Automateのワークフロー作成経験(クラウド/デスクトップフロー)
・データベース設計
・SQLを用いたデータ抽出・加工の経験
・業務効率化や自動化の実務経験

検索結果694件中21-30件