分析基盤エンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:284

分析基盤エンジニアの案件を探す

案件内容

【業務内容】
大手広告代理店が展開しているインターネット広告代理店業における、膨大な広告データを収集・蓄積したデータレイクからデータを展開するためのデータ基盤(ETL処理、DWH、DM)の開発、運用、保守をお願いします。

【ポイント】

  • データレイクが取り扱うデータ量は数十TB/月を誇り、毎日数10億単位のレコードを蓄積しているため、そんな大規模データと向き合った開発にチャレンジすることができます。
  • 複数のプロダクトを管理しているチームのため、様々な技術を習得することができます。

【開発チームと配属先について】
当事業部には現状で約60名のエンジニアが在籍しており、複数のチームに分かれて開発を進めています。
今回お願いしたいポジションはサーバサイドエンジニアです。

チームには現在18名のエンジニアが在籍しています。
また、複数のプロダクトを管理しているチームのため、担当領域ごとにグループ分けをしています。

  • Infeed領域の広告運用のためのプロダクトを開発するグループ
  • インターネット広告関連データをデータレイクに蓄積するシステムを開発するグループ
  • インターネット広告関連データが蓄積されたデータレイクを用いたデータ基盤を開発するグループ
  • 機械学習を用いたプロダクトを開発するグループ
  • 掲載情報や実績情報を出力・レポーティングするための分析用プロダクトを開発するグループ

【技術キーワード】

  • ApacheSpark
  • AWS Glue
  • Snowflake
  • データレイク/データウェアハウス/データマート
必須スキル
– Scala,Java,Pythonなどを用いた開発経験 3年以上
– ApacheSpark,PySparkなどを用いたETL処理の開発・保守経験 1年以上
– SQLを用いた開発経験 3年以上
– AWSを利用した開発経験
– Dockerなど、コンテナ技術を利用した開発経験
– GitHubでのPRを利用した開発経験
案件内容

データ分析基盤の開発・構築を行なっていただきます。

必須スキル
・BigQuery、Redshift、Hadoop、Snowflakeなどの分散データ基盤の利用経験
・アプリケーション開発経験 または ETL/ELTツールを利用した開発経験
・RDBMSの利用経験
案件内容

データパイプラインの構築エンジニア
主業務:要件に合わせルールに則ったデータモデリングを行い、各基盤のツール群を使ってデータ加工するパイプラインバッチの構築を担当いただきます。

技術要素(★が特に重要)
GoogleCloud
★Cloud Composer2(及びAirflow2)
★Cloud Dataproc(Apache Spark(scala))
Cloud Build
Cloud Storage
BigQuery
Cloud Monitoring / Cloud Logging
AWS
★Kinesis firehose
★SQS / SNS
★ECS
★Lambda
ECR
S3
Cloud Watch
その他
GithubActions
Terraform

必須スキル
・データモデリング力とバッチ設計能力が高い方
・Pythonを利用したデータ分析/開発経験
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux / ネットワークの基礎知識
案件内容

●案件:管理システム追加開発
●内容:
・管理システムのクラウド化に伴いオンプレ環境からクラウド環境にシフトします。
管理パッケージはOracle EMP Cloudです。
●工程:基本設計~総合テスト
●場所:フルリモート ※打合せで目黒駅にご出社頂く場合がございます。

必須スキル
・詳細設計から一人称で対応可能
・PL/SQL、ストアドにてデータ作成経験
・ETL データロジックを理解できる方
案件内容

データを用いた意思決定や課題解決に活用するため、各事業・プロダクト・サービスの全てのデータを一元的に収集・保存・管理するデータ基盤の構築を担うポジションです。

データ基盤の開発・改修・保守運用
・データ基盤の物理・論理データモデル設計・開発・保守運用
・データ基盤のシステムアーキテクチャの設計
・データパイプライン (ETL) の設計・開発・保守運用

[開発環境]
インフラ:GCP (データ基盤) / AWS (関連システム)
データパイプライン (ETL):CloudComposer (Airflow)
DWH:BigQuery
その他インフラ管理:Docker、GKE / GAE / CloudRun
可視化ツール:Google Data Portal / Tableau
分析環境:Jupyter Notebook / Google Colab / Google Cloud ML
その他:GitHub / Slack / Notion

[チーム体制(業務委託の方含む)]
・統括ディレクター: 1名
・データエンジニア: 1名
・機械学習エンジニア: 1名 (兼務)
・データサイエンティスト: 3名
・技術顧問: 1名

必須スキル
エンジニアリング
・GCP や AWS などの主なクラウドサービスにおける開発経験。
・DWH や業務系などのデータベースの設計・開発・運用経験。
・データパイプライン (ETL) の設計・開発・運用経験。
・基本技術情報試験レベルのコンピューターサイエンスの知識。
データ専門性
・SQLを記述する事が出来る。 (数十行位) 
・基礎集計を通じてデータの全体像や質を確認することができる。
ビジネス
・事業会社における情報システム企画の経験 (どんなシステムがどんな処理をどんな順番で実施するかの要件定義レベル)
・論理的思考力。 (定量思考力、要約力、仮説構築能力など) 
・ドキュメント作成能力。 (見栄えではなく、構成の組み立て方やわかりやすさが担保出来るか)
・プロジェクトマネジメント能力 。 (完了定義。スコープ策定。制約を考慮した優先度決定。タスク洗い出し)
案件内容

某ベンチャー企業にて、在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
自社サービスSaasの新バージョンをこの春リリースし、 エンタープライズとの契約が急激に増えている中で、 非常に多くの機能改善要望や機能追加要望が出てきています。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、 開発メンバー全員でスプリントを消化していく体制になります。

業務内容
顧客の持つ様々なビッグデータをクラウド環境で統合し、その分析/活用が出来る基盤の構築/運用します。

・新規データ取得のETL及びデータウェアハウスの実装
・データ基盤の運用及び保守開発
・データの可視化
・定例MTG対応
・仕様書等ドキュメント作成(一部)

技術環境
O S    :Linux, Windows
言 語    :Python, SQL
D B    :Redshift, Aurora(PostgreSQL互換)
Cloud   :AWS(ECS, S3, StepFunctions, Lambda, Redshift, Aurora等)
DWH   :BigQuery, TreasureData等
機械学習系:Kedro, MLflow
C I    :CircleCI
監視系  :Sentry
その他  : GitHub, Slack, CircleCI

必須スキル
・何かしらのシステム開発経験3年以上
・Pythonの実装経験1年以上
・Sparkなどの分散処理システムの経験
・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方)
・データ基盤の構築経験
・アプリケーションの設計経験
・AWSなどクラウド環境を利用したシステム開発の経験
案件内容

【案件概要】

  • データ分析基盤に関する業務支援。
    現状「販売に関わるシステム」「自社ブランドクレジットカードに関わるシステム」などが分散稼働しているが、これらの統合化が進められている。
    これら統合化作業の推進を行う人材が必要とされている。
  • クライアント側プロパーメンバーには若手層も多いため、一緒にプロジェクトを進めながらの指導・育成的な面も期待されている。
  • 販売・クレジットカード以外にもグループ内には機能子会社が存在する。それらの子会社(兄弟会社)に対する諸々の推進活動も期待されている。

【システム環境に関わる情報】

  • GCP (BigQuery 他) ----> バックエンドシステムはGCPが主
  • MA:SalesForce Marketing cloud
  • DWH:Exadata
  • AWS ----> EC等のフロントシステムはAWSが主
  • Tableau (DeskTop & Server)
  • 消えつつあるものの、まだ一部で SAP Business Object が使われている。

【クライアント側の体制・および関係者】

  • 顧客企業のプロパーメンバーが分析・施策 等の上位レイヤーを担当している。
  • 複数の外部パートナーメンバーが常駐参画して、分析・開発・運用を行っている。
  • 「開発の一部」と「インフラ維持管理 ~ データ整備」は海外オフショアチームが 担当している。
  • 顧客プロパーと一緒に動けるリーダー候補、およびメンバーのアサインが急務という状況。

【募集要員】

  • リーダー 1名 100%稼働:
    ・データ分析基盤の構築/維持/管理 および データ分析 に対する長年の経験
    ・オフショアメンバーのコントロール
    ・グループ会社に対する技術的/営業的な支援活動
  • サブリーダー 1名 80%稼働程度でも可:
    ・データ分析基盤の構築/維持/管理 および データ分析 に対する長年の経験
    ・BigQuery ML を用いた機械学習に対する経験。
    ・Tableau を用いた可視化。
    ・クライアント側プロパーメンバーの育成活動。
  • メンバー 2名 100%稼働:
    ・データ分析基盤の構築/維持/管理 および データ分析 の経験2年以上
必須スキル
– 小売業に関するマーケティング分析
– 売上予測、顧客離反予測、顧客ランクアップ施策等に対する理解。

 

– リーダー 1名 100%稼働:
・データ分析基盤の構築/維持/管理 および データ分析 に対する長年の経験
・オフショアメンバーのコントロール
・グループ会社に対する技術的/営業的な支援活動
– サブリーダー 1名 80%稼働程度でも可:
・データ分析基盤の構築/維持/管理 および データ分析 に対する長年の経験
・BigQuery ML を用いた機械学習に対する経験。
・Tableau を用いた可視化。
・クライアント側プロパーメンバーの育成活動。
– メンバー 2名 100%稼働:
・データ分析基盤の構築/維持/管理 および データ分析 の経験2年以上
案件内容

リードエンジニアとしてデータ分析基盤の設計・構築・運用をおまかせします。

・各種システムからのBigQueryへのデータパイプラインの設計・構築・運用
・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用
・Issue対応
・技術調査

開発環境
言語 : Python,
データベース : BigQuqery, Aurora MySQL 2.0, Aurora PostgreSQL
インフラ : AWS (ESC,EC2, S3, Lambda etc.) , GCP,Dagster,Airflow
バージョン管理 : git/Github
CI : CircleCI, Jenkins
コミュニケーション : Slack, JIRA, ClickUP, Notion

必須スキル
・Pythonでの開発経験
・クラウド(GCP/AWS)での分析基盤のアーキテクト設計、構築・運用経験(2年以上)
・テラバイトクラスのデータパイプライン(ワークフロー)の設計、構築、運用経験(2年以上)
・IaCおよびCI/CDの経験(2年以上)
・リードテック経験
・コミュニケーション能力
案件内容

2023年6月~2024年5月(要件定義、設計~総合テスト・リリース後フォロー)にて対応を進めるにあたりMotionBoard画面担当を募集しています。

BIツールはMotionBoard Cloud for Salesforceを使用する予定

必須スキル

BIに関する設計~テストの経験者

検索結果284件中91-100件