分析基盤エンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:287

分析基盤エンジニアの案件を探す

案件内容

FY2023末に現行DWH移管、共通IT基盤への切替を計画している。
お客様の各部門でBIツール(Tableau)導入が進んでおり、共通IT基盤等のデータを活用した全社データ活用基盤を構築することを目標としている。
現在、フェーズ1(案件目的整理、ロードマップ策定、グランドデザイン策定)をやっており、8月からのフェーズ2(全社将来像整理、データ活用基盤PoC検討/要件定義、データ分析基盤検討/要件定義)から参画の要員を募集している。※PJチームが増え規模が大きくなるためフェーズ2は8月〜10月でスケジュールをひいているが、後続フェーズも控えているため契約更新想定。

必須スキル
・データ活用基盤導入経験
・データマネジメント
・Snowflake、Tableauに関する知見(当PJで導入予定のため)
※Snowflake自体の経験がなくても、データ利活用の知見があればそちらのスキルを優先
・プロジェクト推進(チームが増えるため、全体を見据えてチーム間のやり取りをする必要がある)
案件内容

デジタルマーケティングツールやデータ分析ツールへのデータ投入のための ETL 準備、実装を行います。

作業内容:
・某社向けデータ分析のためのデータ処理基盤の開発・保守・運用・機能追加

必須スキル
・Linux 環境での開発経験
・AWS, GCP などクラウドを使用した開発やインフラ設計・構築の経験
・SQL が実践レベルで書けること(3年以上の実務経験)
・Python, Java, PHP いずれかの言語での開発経験が3年以上
・スピード感が求められる作業が多いので、報告や相談などのコミュニケーションがスムーズにできること
案件内容

土地・建物に関する情報の収集・クレンジングを行うデータ連携基盤(データレイク/DWH)の構築

必須スキル
・要件定義/基本設計の経験
・①DWH構築
・②データクレンジング
①②いずれかの知識・経験
案件内容

【業務内容】
大手広告代理店が展開しているインターネット広告代理店業における、膨大な広告データを収集・蓄積したデータレイクからデータを展開するためのデータ基盤(ETL処理、DWH、DM)の開発、運用、保守をお願いします。

【ポイント】

  • データレイクが取り扱うデータ量は数十TB/月を誇り、毎日数10億単位のレコードを蓄積しているため、そんな大規模データと向き合った開発にチャレンジすることができます。
  • 複数のプロダクトを管理しているチームのため、様々な技術を習得することができます。

【開発チームと配属先について】
当事業部には現状で約60名のエンジニアが在籍しており、複数のチームに分かれて開発を進めています。
今回お願いしたいポジションはサーバサイドエンジニアです。

チームには現在18名のエンジニアが在籍しています。
また、複数のプロダクトを管理しているチームのため、担当領域ごとにグループ分けをしています。

  • Infeed領域の広告運用のためのプロダクトを開発するグループ
  • インターネット広告関連データをデータレイクに蓄積するシステムを開発するグループ
  • インターネット広告関連データが蓄積されたデータレイクを用いたデータ基盤を開発するグループ
  • 機械学習を用いたプロダクトを開発するグループ
  • 掲載情報や実績情報を出力・レポーティングするための分析用プロダクトを開発するグループ

【技術キーワード】

  • ApacheSpark
  • AWS Glue
  • Snowflake
  • データレイク/データウェアハウス/データマート
必須スキル
– Scala,Java,Pythonなどを用いた開発経験 3年以上
– ApacheSpark,PySparkなどを用いたETL処理の開発・保守経験 1年以上
– SQLを用いた開発経験 3年以上
– AWSを利用した開発経験
– Dockerなど、コンテナ技術を利用した開発経験
– GitHubでのPRを利用した開発経験
案件内容

データ分析基盤の開発・構築を行なっていただきます。

必須スキル
・BigQuery、Redshift、Hadoop、Snowflakeなどの分散データ基盤の利用経験
・アプリケーション開発経験 または ETL/ELTツールを利用した開発経験
・RDBMSの利用経験
案件内容

データパイプラインの構築エンジニア
主業務:要件に合わせルールに則ったデータモデリングを行い、各基盤のツール群を使ってデータ加工するパイプラインバッチの構築を担当いただきます。

技術要素(★が特に重要)
GoogleCloud
★Cloud Composer2(及びAirflow2)
★Cloud Dataproc(Apache Spark(scala))
Cloud Build
Cloud Storage
BigQuery
Cloud Monitoring / Cloud Logging
AWS
★Kinesis firehose
★SQS / SNS
★ECS
★Lambda
ECR
S3
Cloud Watch
その他
GithubActions
Terraform

必須スキル
・データモデリング力とバッチ設計能力が高い方
・Pythonを利用したデータ分析/開発経験
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux / ネットワークの基礎知識
案件内容

●案件:管理システム追加開発
●内容:
・管理システムのクラウド化に伴いオンプレ環境からクラウド環境にシフトします。
管理パッケージはOracle EMP Cloudです。
●工程:基本設計~総合テスト
●場所:フルリモート ※打合せで目黒駅にご出社頂く場合がございます。

必須スキル
・詳細設計から一人称で対応可能
・PL/SQL、ストアドにてデータ作成経験
・ETL データロジックを理解できる方
案件内容

データを用いた意思決定や課題解決に活用するため、各事業・プロダクト・サービスの全てのデータを一元的に収集・保存・管理するデータ基盤の構築を担うポジションです。

データ基盤の開発・改修・保守運用
・データ基盤の物理・論理データモデル設計・開発・保守運用
・データ基盤のシステムアーキテクチャの設計
・データパイプライン (ETL) の設計・開発・保守運用

[開発環境]
インフラ:GCP (データ基盤) / AWS (関連システム)
データパイプライン (ETL):CloudComposer (Airflow)
DWH:BigQuery
その他インフラ管理:Docker、GKE / GAE / CloudRun
可視化ツール:Google Data Portal / Tableau
分析環境:Jupyter Notebook / Google Colab / Google Cloud ML
その他:GitHub / Slack / Notion

[チーム体制(業務委託の方含む)]
・統括ディレクター: 1名
・データエンジニア: 1名
・機械学習エンジニア: 1名 (兼務)
・データサイエンティスト: 3名
・技術顧問: 1名

必須スキル
エンジニアリング
・GCP や AWS などの主なクラウドサービスにおける開発経験。
・DWH や業務系などのデータベースの設計・開発・運用経験。
・データパイプライン (ETL) の設計・開発・運用経験。
・基本技術情報試験レベルのコンピューターサイエンスの知識。
データ専門性
・SQLを記述する事が出来る。 (数十行位) 
・基礎集計を通じてデータの全体像や質を確認することができる。
ビジネス
・事業会社における情報システム企画の経験 (どんなシステムがどんな処理をどんな順番で実施するかの要件定義レベル)
・論理的思考力。 (定量思考力、要約力、仮説構築能力など) 
・ドキュメント作成能力。 (見栄えではなく、構成の組み立て方やわかりやすさが担保出来るか)
・プロジェクトマネジメント能力 。 (完了定義。スコープ策定。制約を考慮した優先度決定。タスク洗い出し)
案件内容

某ベンチャー企業にて、在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
自社サービスSaasの新バージョンをこの春リリースし、 エンタープライズとの契約が急激に増えている中で、 非常に多くの機能改善要望や機能追加要望が出てきています。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、 開発メンバー全員でスプリントを消化していく体制になります。

業務内容
顧客の持つ様々なビッグデータをクラウド環境で統合し、その分析/活用が出来る基盤の構築/運用します。

・新規データ取得のETL及びデータウェアハウスの実装
・データ基盤の運用及び保守開発
・データの可視化
・定例MTG対応
・仕様書等ドキュメント作成(一部)

技術環境
O S    :Linux, Windows
言 語    :Python, SQL
D B    :Redshift, Aurora(PostgreSQL互換)
Cloud   :AWS(ECS, S3, StepFunctions, Lambda, Redshift, Aurora等)
DWH   :BigQuery, TreasureData等
機械学習系:Kedro, MLflow
C I    :CircleCI
監視系  :Sentry
その他  : GitHub, Slack, CircleCI

必須スキル
・何かしらのシステム開発経験3年以上
・Pythonの実装経験1年以上
・Sparkなどの分散処理システムの経験
・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方)
・データ基盤の構築経験
・アプリケーションの設計経験
・AWSなどクラウド環境を利用したシステム開発の経験

検索結果287件中91-100件