募集終了
【Scala/Java/Pythonなど】大手広告代理店におけるデータ基盤の開発、運用、保守の求人・案件

リモート

※本サイトでは募集中の案件だけでなく過去の募集案件を掲載しております。
※単価や稼働日数など条件面についても無料サポート登録よりお気軽にご相談ください。
※当社が保有する非公開案件等からスキルに適した案件をご提案いたします。

案件概要

職種
案件内容

【業務内容】
大手広告代理店が展開しているインターネット広告代理店業における、膨大な広告データを収集・蓄積したデータレイクからデータを展開するためのデータ基盤(ETL処理、DWH、DM)の開発、運用、保守をお願いします。

【ポイント】

  • データレイクが取り扱うデータ量は数十TB/月を誇り、毎日数10億単位のレコードを蓄積しているため、そんな大規模データと向き合った開発にチャレンジすることができます。
  • 複数のプロダクトを管理しているチームのため、様々な技術を習得することができます。

【開発チームと配属先について】
当事業部には現状で約60名のエンジニアが在籍しており、複数のチームに分かれて開発を進めています。
今回お願いしたいポジションはサーバサイドエンジニアです。

チームには現在18名のエンジニアが在籍しています。
また、複数のプロダクトを管理しているチームのため、担当領域ごとにグループ分けをしています。

  • Infeed領域の広告運用のためのプロダクトを開発するグループ
  • インターネット広告関連データをデータレイクに蓄積するシステムを開発するグループ
  • インターネット広告関連データが蓄積されたデータレイクを用いたデータ基盤を開発するグループ
  • 機械学習を用いたプロダクトを開発するグループ
  • 掲載情報や実績情報を出力・レポーティングするための分析用プロダクトを開発するグループ

【技術キーワード】

  • ApacheSpark
  • AWS Glue
  • Snowflake
  • データレイク/データウェアハウス/データマート
必須スキル
– Scala,Java,Pythonなどを用いた開発経験 3年以上
– ApacheSpark,PySparkなどを用いたETL処理の開発・保守経験 1年以上
– SQLを用いた開発経験 3年以上
– AWSを利用した開発経験
– Dockerなど、コンテナ技術を利用した開発経験
– GitHubでのPRを利用した開発経験
尚可スキル
– 外部APIを利用した開発経験
– 大規模データを扱った開発経験
– Kubernetesなど、コンテナオーケストレーションサービスを利用した開発経験
– Snowflake,Redshift,BigQueryなどを用いたDWH・DMの運用経験
– インターネット広告についての基礎知識
言語
環境・ツール
フレームワーク・ライブラリ
契約形態 派遣
  • リモート
稼働率 100%
面談回数 1回
稼働日数 週5日
募集人数 1人

関連する案件

お仕事を開始するまでのステップ

案件のご紹介はもちろん、案件参画後も担当コンサルタントより定期的なフォローを実施いたします。

案件お問い合わせ

必須項目

*必須項目です。

*必須項目です。

*年を入力してください。

*月を入力してください。

*日を入力してください。

ハイフン無しでご記入ください

*携帯電話番号を正しく入力してください。

*メールアドレスを正しく入力してください。

*希望稼働日数/週を選択してください。

*希望稼働条件を選択してください。

*職種を選択してください。

*経験年数を選択してください。

経歴書 5MBまで
選択されていません

当社の個人情報保護方針および利用規約に同意の上、送信してください。


個人情報の取り扱い、利用規約に同意してください

戻る