募集終了
【分析基盤エンジニア】データ利活用を推進するETL/ELT処理開発、DWH構築などのデータ基盤開発支援

リモート

※本サイトでは募集中の案件だけでなく過去の募集案件を掲載しております。
※単価や稼働日数など条件面についても無料サポート登録よりお気軽にご相談ください。
※当社が保有する非公開案件等からスキルに適した案件をご提案いたします。

案件概要

職種
案件内容

エンドユーザー(企業)のDX化を支援するためにデータ事業の展開や社内のデータ利活用を推進する、ETL/ELT処理開発、DWH構築などのデータ基盤開発の責務を担っていただきます。
◆業務内容の詳細◆
Databricks、Airflow、AWS Glueを利用したデータパイプラインの開発・運用
Apache Sparkを利用したETL処理の開発
各サービス開発チームのデータエンジニアリングの支援
◆今後の進展について◆
昨年夏頃にDatabricksを導入したばかりのため、既存基盤からの移行を実施し、全社横断データ基盤として活用していきます。
それに伴い、各サービス開発チームを中心とした分散オーナーシップ型データ基盤開発組織化の推進と全社横断的なデータマネジメントに注力していきます。

必須スキル

・サーバーサイドのアプリケーション開発経験
・AWS/GCP/Azureのいずれかのクラウドサービスを利用した経験
・データレイク、データウェアハウスの設計・構築・運用経験
・ETL/ELTなどのデータワークフロー管理ツールの開発・運用経験
・チーム開発経験

尚可スキル

・Pythonでの開発経験
・Databricksの利用経験
・Spark、Prestoを利用する大規模なデータプラットフォームの開発・運用経験
・Terraformなどを使ったインフラの自動構築の経験
・匿名加工が必要なデータの取り扱い経験
・データマネジメント・ガバナンス施策の実施経験
◆求める人物像◆
・クライアントのバリューに共感いただける方
・チームで成果を出すことに喜びを感じる方
・課題提起から実際に手を動かして解決してくれる方
・新しい技術などに好奇心をもち積極的に挑戦してくれる方
・HRT(謙虚・尊敬・信頼)の姿勢を大切にしている方

環境・ツール
  • リモート
契約開始 2023年2月
稼働率 100% ※スクラムイベント参加他の為、週5日8時間の稼働
面談回数 1回
稼働日数 週5日
募集人数 1人
備考 ◆チーム◆
開発ディレクター:1
データエンジニア:3
◆開発環境◆
開発言語…Python、Apache Spark、SQL
データベース・データウェアハウス・データフォーマット…Databricks、BigQuery、Amazon Aurora、Amazon DynamoDB、Delta Lake、Apache Parquet
インフラ…AWS、GCP
開発手法…スクラム
構成管理…Terraform
バージョン管理、コラボレーションツール…GitHub、Slack、esa、JIRA、Trelloなど

関連する案件

お仕事を開始するまでのステップ

案件のご紹介はもちろん、案件参画後も担当コンサルタントより定期的なフォローを実施いたします。

案件お問い合わせ

必須項目

*必須項目です。

*必須項目です。

*年を入力してください。

*月を入力してください。

*日を入力してください。

ハイフン無しでご記入ください

*携帯電話番号を正しく入力してください。

*メールアドレスを正しく入力してください。

*希望稼働日数/週を選択してください。

*希望稼働条件を選択してください。

*職種を選択してください。

*経験年数を選択してください。

経歴書 5MBまで
選択されていません

当社の個人情報保護方針および利用規約に同意の上、送信してください。


個人情報の取り扱い、利用規約に同意してください

戻る