データエンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:533

データエンジニアの案件を探す

案件内容

デジタルマーケティングツールやデータ分析ツールへのデータ投入のための ETL 準備、実装を行います。

作業内容:
・某社向けデータ分析のためのデータ処理基盤の開発・保守・運用・機能追加

必須スキル
・Linux 環境での開発経験
・AWS, GCP などクラウドを使用した開発やインフラ設計・構築の経験
・SQL が実践レベルで書けること(3年以上の実務経験)
・Python, Java, PHP いずれかの言語での開発経験が3年以上
・スピード感が求められる作業が多いので、報告や相談などのコミュニケーションがスムーズにできること
案件内容

土地・建物に関する情報の収集・クレンジングを行うデータ連携基盤(データレイク/DWH)の構築

必須スキル
・要件定義/基本設計の経験
・①DWH構築
・②データクレンジング
①②いずれかの知識・経験
案件内容

【業務内容】
大手広告代理店が展開しているインターネット広告代理店業における、膨大な広告データを収集・蓄積したデータレイクからデータを展開するためのデータ基盤(ETL処理、DWH、DM)の開発、運用、保守をお願いします。

【ポイント】

  • データレイクが取り扱うデータ量は数十TB/月を誇り、毎日数10億単位のレコードを蓄積しているため、そんな大規模データと向き合った開発にチャレンジすることができます。
  • 複数のプロダクトを管理しているチームのため、様々な技術を習得することができます。

【開発チームと配属先について】
当事業部には現状で約60名のエンジニアが在籍しており、複数のチームに分かれて開発を進めています。
今回お願いしたいポジションはサーバサイドエンジニアです。

チームには現在18名のエンジニアが在籍しています。
また、複数のプロダクトを管理しているチームのため、担当領域ごとにグループ分けをしています。

  • Infeed領域の広告運用のためのプロダクトを開発するグループ
  • インターネット広告関連データをデータレイクに蓄積するシステムを開発するグループ
  • インターネット広告関連データが蓄積されたデータレイクを用いたデータ基盤を開発するグループ
  • 機械学習を用いたプロダクトを開発するグループ
  • 掲載情報や実績情報を出力・レポーティングするための分析用プロダクトを開発するグループ

【技術キーワード】

  • ApacheSpark
  • AWS Glue
  • Snowflake
  • データレイク/データウェアハウス/データマート
必須スキル
– Scala,Java,Pythonなどを用いた開発経験 3年以上
– ApacheSpark,PySparkなどを用いたETL処理の開発・保守経験 1年以上
– SQLを用いた開発経験 3年以上
– AWSを利用した開発経験
– Dockerなど、コンテナ技術を利用した開発経験
– GitHubでのPRを利用した開発経験
案件内容

【概要】
・BI高度化に向けサポートポジション
・BIツールを使用して顧客管理/売上管理データ等を含むレポートティング/ダッシュボード作成
・複数のマスターデータから必要なデータを抽出/加工も業務スコープ

【業務内容】
・BIレポート/ダッシュボード作成
・部門間コーディネート、ユーザコミュニケーション

必須スキル
・PowerBI 開発経験必須
・SQLなどのクエリの取り扱い可能な方
・プロアクティブなコミュニケーション能力
案件内容

某大手事業会社の経営企画部にて、Power BI(BIツール)を使用して、
組織のさまざまなデータを容易にアクセス、分析、視覚化を行っております。
顧客からの要望に合わせて運用改善を行っていくなどの開発支援がメインの
業務となります。
Power BIを実際に動かしてPowerqueryを組んでいきデータの取り込み、
クリーニング、変換、結合を行っていきます。

必須スキル
・Power BIを利用した現場経験
・Powerquery
・データ操作、GUI操作、データクリーニングができること
案件内容

データ分析基盤の開発・構築を行なっていただきます。

必須スキル
・BigQuery、Redshift、Hadoop、Snowflakeなどの分散データ基盤の利用経験
・アプリケーション開発経験 または ETL/ELTツールを利用した開発経験
・RDBMSの利用経験
案件内容

データパイプラインの構築エンジニア
主業務:要件に合わせルールに則ったデータモデリングを行い、各基盤のツール群を使ってデータ加工するパイプラインバッチの構築を担当いただきます。

技術要素(★が特に重要)
GoogleCloud
★Cloud Composer2(及びAirflow2)
★Cloud Dataproc(Apache Spark(scala))
Cloud Build
Cloud Storage
BigQuery
Cloud Monitoring / Cloud Logging
AWS
★Kinesis firehose
★SQS / SNS
★ECS
★Lambda
ECR
S3
Cloud Watch
その他
GithubActions
Terraform

必須スキル
・データモデリング力とバッチ設計能力が高い方
・Pythonを利用したデータ分析/開発経験
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux / ネットワークの基礎知識
案件内容

・クライアントグループ全社のデータパイプライン設計・実装及び実装委託
 (APIやパブリックデータの取得/整備)
・DWH管理業務 (欠損,Issue,申請等の対応)

【業務スコープ】
・Google Cloud Platformをバックエンドとするデータ分析基盤の開発・運用
・データ分析基盤と各事業部が有するデータを活用するための開発・運用
★データ分析基盤にデータを収集するETL/ELTパイプラインの開発・管理
・データ分析基盤でデータを集計するワークフローの開発
・技術調査

必須スキル
・ 複雑なSQLを用いたデータ抽出経験
・ ETL/ELTのデータパイプライン設計/構築
・ワークフローの構築経験(Digdag / Airflow etc.)
・ GCPでの開発経験
案件内容

●案件:管理システム追加開発
●内容:
・管理システムのクラウド化に伴いオンプレ環境からクラウド環境にシフトします。
管理パッケージはOracle EMP Cloudです。
●工程:基本設計~総合テスト
●場所:フルリモート ※打合せで目黒駅にご出社頂く場合がございます。

必須スキル
・詳細設計から一人称で対応可能
・PL/SQL、ストアドにてデータ作成経験
・ETL データロジックを理解できる方

検索結果533件中181-190件