募集終了
【Python/SQL】データエンジニア(ビッグデータの収集・整形・蓄積)の求人・案件

リモート

※本サイトでは募集中の案件だけでなく過去の募集案件を掲載しております。
※単価や稼働日数など条件面についても無料サポート登録よりお気軽にご相談ください。
※当社が保有する非公開案件等からスキルに適した案件をご提案いたします。

案件概要

職種
案件内容

秒間25万リクエストを超える動画配信をはじめとした視聴に関するビッグデータの収集・整形・蓄積まで一貫して行なっていただきます。

【業務内容】
ビッグデータ基盤におけるデータの収集、データレイクからデータウェアハウス/データマートまでのワークフローの開発・運用をお任せします。
ご自身のアイディア・工夫をカジュアルに提案しプロダクトに反映していただける環境であり、単純に作るのではなく価値を提供することを重視しております。
データ基盤はGCP(Google Cloud Platform)を主軸とし、サブシステムにはAWS(Amazon Web Services)を部分的に採用した構成。日々進化するクラウドサービスをキャッチアップし最適な構成に随時進化し続けています。
今後もさらに安定してバージョンアップやスケーラビリティ・パフォーマンス改善を重ねるため、その開発の中核を担っていただくデータエンジニアを募集しております。

【開発環境】
■主要開発技術:GCP(Google Cloud Platform)環境でのワークフロー開発
■開発言語:Python, JavaScript, SQL
■クラウドプラットフォーム : Googleクラウド(BigQuery, Dataform, Workflows, CloufdFunctions, CloudRun)
■データ収集 : Fastly
■データウェアハウス : BigQuery
■コミュニケーションツール:Slack
■開発手法:アジャイル(一部ウォーターフォール)
■開発支援ツール・環境:GitHub, GitHub Actions(CI/CD)
■構成管理 : Terraform
■エディタ/IDE:VSCode Vim(*お好みのエディタを使用していただいてOKです。)

必須スキル
・Pythonを利用した開発経験
・SQLを使ったDBプログラミングの開発経験
・パブリッククラウドを利用したサービス開発・運用経験
・Gitなどのソースコード管理ツールの使用経験
尚可スキル
・AirflowやDigDag・Azkabanなどのワークフロー管理ツールの利用経験
・Git、Ansible、Jenkins、Chef、MackerelなどのDevOps系の知識や経験
・高負荷対策・パフォーマンスチューニングに関する知識や経験
・PLやPMなどのプロジェクトやメンバーの管理、マネジメント経験
・Docker、k8sなどのコンテナ環境での開発経験
・DMPサービスなどのプロダクト開発経験
・社内・受託問わず分析基盤の構築・運用経験
・統計解析、機械学習、ディープラーニング等の手法を用いてビジネスに貢献した経験
・機械学習のアルゴリズム・モデルに関する知見(課題に応じて適切な分析手法を選択できる)
言語
環境・ツール
稼働率 100%
面談回数 2回
稼働日数 週5日
募集人数 1人

関連する案件

お仕事を開始するまでのステップ

案件のご紹介はもちろん、案件参画後も担当コンサルタントより定期的なフォローを実施いたします。

案件お問い合わせ

必須項目

*必須項目です。

*必須項目です。

*年を入力してください。

*月を入力してください。

*日を入力してください。

ハイフン無しでご記入ください

*携帯電話番号を正しく入力してください。

*メールアドレスを正しく入力してください。

*希望稼働日数/週を選択してください。

*希望稼働条件を選択してください。

*職種を選択してください。

*経験年数を選択してください。

経歴書 5MBまで
選択されていません

当社の個人情報保護方針および利用規約に同意の上、送信してください。


個人情報の取り扱い、利用規約に同意してください

戻る