募集終了
【DBエンジニア】データ基盤構築PoCプロジ ェクトの求人・案件

リモート

※本サイトでは募集中の案件だけでなく過去の募集案件を掲載しております。
※単価や稼働日数など条件面についても無料サポート登録よりお気軽にご相談ください。
※当社が保有する非公開案件等からスキルに適した案件をご提案いたします。

案件概要

職種
案件内容

現在国内エネルギー系⼤⼿企業がエンド顧客となるデータ基盤構築PoCプロジェクトが進⾏中。
PoCを通してインフラアーキテクチャの策定、⼤まかなデータパイプラインのフローを策定した9⽉以降の本番環境構築では、インフラ構築からセキュリティ対応、より多くのデータパイプライン構築を予定しており、データエンジニアの拡充を⾏っている。

データ基盤要件定義
データレイクに保存するデータの形式の洗い出し (CSV, JSON, 画像ファイ
ル etc…)
データソースのインターフェイス特定 (REST API, FTP etc…)
データ加⼯(ETL)要件ヒアリング
データレイク設計 (Hadoop File System)
DWH設計/テーブル定義 (Apache Hive, Spark, HBase etc…)
データフロー設計 (Apache NiFi)
バッチアプリケーション作成 (Java, Shellスクリプト)
インフラセキュリティ対応 (SSL化対応、AD認証連携 etc…)

   

環境
オンプレサーバー (現地作業等は無し、リモートから接続)
OS: RHEL8HPE Ezmeral Data Fabric (Hadoop, Hive, Spark, NiFi etc…)
データ分散処理基盤にまつわるpache系OSSをまとめたパッケージ製品
(サポートが付くだけのようなイメージ)
HPE Ezmeral Runtime (≒ Kubernetes)
OpenShift等に⽐べ、より純正Kubernetesに近い
構成
データレイク: HDFS, minio(≒S3), HBase
DWH: Hive or Spark
ワークフロー: NiFi or Airflow
データ加⼯: Hive, Spark (シェルスクリプト/Java or Python)
BI: Tableau, Palantir (本募集スコープの作業範囲外)
体制
アジャイル開発 (スクラム)
メンバー10名程度
デイリーで午前にスクラムミーティング有り

必須スキル

3年以上のバックエンドまたはインフラ開発経験

尚可スキル
データエンジニアとしての経験
データ基盤における要件定義・設計経験
データ基盤の開発・運用経験
データレイク、DWHの実装経験
データパイプラインの実装経験
Python or Javaによるアプリケーション実装経験
Kubenetesの知見
言語
環境・ツール
契約形態 準委任(個人事業主)
  • リモート
稼働率 100%
面談回数 1回
稼働日数 週5日
募集人数 2人

関連する案件

お仕事を開始するまでのステップ

案件のご紹介はもちろん、案件参画後も担当コンサルタントより定期的なフォローを実施いたします。

案件お問い合わせ

必須項目

*必須項目です。

*必須項目です。

*年を入力してください。

*月を入力してください。

*日を入力してください。

ハイフン無しでご記入ください

*携帯電話番号を正しく入力してください。

*メールアドレスを正しく入力してください。

*希望稼働日数/週を選択してください。

*希望稼働条件を選択してください。

*職種を選択してください。

*経験年数を選択してください。

経歴書 5MBまで
選択されていません

当社の個人情報保護方針および利用規約に同意の上、送信してください。


個人情報の取り扱い、利用規約に同意してください

戻る