kubernetesの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:72

kubernetesの案件を探す

案件内容

リアルタイムなデータパイプラインを構築するためのデータエンジニア業務と、
機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築、効率よくデータを捌くためのミドルウェア開発、インフラ構築などを行う、MLOpsエンジニア業務をおまかせします。
GCPデータ基盤とその活用案件、は既に多数存在するものの、さらなる拡充を狙った専門人材の募集となります。
IP(知的財産)ビジネスがドメインの事業会社において、全社へ大きな影響を与える分析部門にアサイン頂きます。

【業務スコープ】
分析官や機械学習エンジニアと連携しながら、速く安全に機械学習のサイクルを回せるML基盤の構築をお任せします。

[データエンジニア概要]
■データパイプライン(リアルタイム)の設計・実装

(具体的な職務)
・収集対象:ECサイト
・データ分析基盤の開発・運用
・データを収集するETL/ELTパイプラインの開発
・運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

[MLOpsエンジニア概要]
■ ビジネス課題と要求の整理(案件の要件定義をPMと行える=足りない情報が何かを定義し、自身で要求できる)
■ 機械学習ワークフローの設計/開発/運用
■ データ提供のためのAPI設計/開発/運用(アプリ開発側との連携)
■ 機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築
■効率よくデータを捌くためのミドルウェア開発、インフラ構築
■ ML基盤内へログデータを収集・蓄積・加工する、一連のデータパイプラインの設計/開発/運用

(具体的な職務)
■ ビジネス課題と要求の整理(案件の要件定義をPMと行える=足りない情報が何かを定義し、自身で要求できる)
■ 機械学習ワークフローの設計/開発/運用
■ データ提供のためのAPI設計/開発/運用(アプリ開発側との連携)
■ 機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築
■ 運用体制構築のためのルール・ドキュメント整備

必須スキル
・SQLを用いたデータ抽出経験
・ETL/ELTのデータパイプライン設計/構築
・Infrastructure as CodeおよびCI/CDの経験
・ワークフローの構築経験
・Pythonなどを利用したアプリケーション開発経験
・GCPでの開発経験
・コンテナ技術(Docker)を用いた開発経験
案件内容

運用保守での定例作業および問い合わせや障害時の調査を担当

必須スキル
・java またはKotlinでの開発経験
・SQL(PostgreSQL)の知見
・Vue.jsの知見
・Flutterの知見
・GitHubを使った開発経験
※ネイティブフロントの開発経験は大歓迎です。(Flutter)
案件内容

・エンターテインメント企業における、スマホゲームのログデータ投入業務をおまかせします。

【業務スコープ】
・Google Cloud Platformをバックエンドとするデータ分析基盤の開発・運用
・データ分析基盤と各事業部が有するデータを活用するための開発・運用
・データ分析基盤にデータを収集するETL/ELTパイプラインの開発
・データ分析基盤でデータを集計するワークフローの開発
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)

必須スキル
1. SQLを用いたデータ抽出経験
2. Python、データエンジニアリングの開発経験
3. GCPでの開発経験
案件内容

・データ種の追加やアプリケーション追加によるデータ処理(Go言語・コンテナアプリケーション)の追加
・既存データ基盤(オンプレ、Kubernetes環境)の改修・検証・テスト
・各種ミドルウェア(CI/CD、監視、DB)の導入・検証・テスト
・データ基盤の量産
・顧客との打ち合わせ

必須スキル
・LinuxによるWEBアプリの開発経験3年以上
・コンテナアプリケーションの開発経験1年以上
・Docker・Kubernetes等でのコンテナ運用経験1年以上
・システムアーキテクチャ設計経験1年以上
案件内容

・Pythonを用いたデータ分析基盤の作成、テスト
・データの提供プラットフォームへのパイプライン構築
・GCP上での機能追加・改善
・本番環境上での安定運用と障害対応

必須スキル
・python 3.x(numpy, pandasなどの集計ライブラリ)
・SQL
・Docker、terraform、Kubernetesなどを利用した開発経験
・DNS, load balancer, firewall(security group), routing table,
networkの知識
・分散処理に関する理解
案件内容

・エンタープライズ企業向けにAI Saasサービスを展開している企業のPJ
・データエンジニアとしてデータプラットフォームの企画およびアーキテクチャ設計や、データパイプラインの設計・構築といった業務を担当

必須スキル
・PythonまたはTypeScriptでの開発経験3年以上
・データ基盤および分析基盤などの開発・構築経験3年以上
・AWS、GCP等の各種クラウドサービスの利用およびスケーラブルなクラウドベースのアーキテクチャデザイン・実装経験
・ETLやELTの実装経験
・TerraformなどInfrastructure as Codeの運用経験
案件内容

・マイクロサービスプラットフォームの構築
・運用オペレーションの自動化(Toilの削減)
・各種KPIの可視化
・クラウドインフラの構築
・プラットフォームエンジニアリング
【担当工程】
要件定義、基本設計、詳細設計、開発、テスト、保守改修、研究開発、基盤設計

■開発環境
言語:Go
クラウド環境:AWS/GCP
コンテナオーケストレーション:GKE & EKS
CIツール:Github Actions
CDツール:Spinnaker
メトリクス/監視:Datadog
構成管理ツール:Terraform

必須スキル
・SREの経験かつサーバサイドもしくはインフラエンジニアとしての開発経験 (3年以上)
・CI/CD を利用した開発環境での開発経験
案件内容

現在AIロボットサービスのプロジェクトが走っておりそのプロジェクトに置いて以下の領域をご担当いただきます。

・IOTコアのサービスを使って機体と連携
・機体の中にプロメテウスのためのエクスポータがいくつか経っている
・GKEのオートパイロット→スタンダードクラスタに戻す
・クラスタのステージングが2つ立っているのを消す
・スマホアプリに撮った写真を見れる機能の改修

必須スキル
・Google Cloud/Kubernetes/GOのいずれか二つにある程度習熟していること(特にGO)
※習熟していないものがある場合は、代替となるスキル(Google CloudならAWS、Goなら別の型付け言語など、Kubernetesならインフラの運用経験など)を持っているか、あるいは素養や意欲(独学しているなど)があること

 

・ 自ら調査、提案できること

 

・ (WANT)SRE的な考え方をもっていること※ スクラムやマネージメントスキルは特に求めていません
案件内容

SRE支援を担っていただきます。

   

【開発環境/使用ツール】

  • 言語: Go言語(Ent)、TypeScript(Next、React)
  • プラットフォーム: AWS(EKS, S3, RDS, etc.)
  • データベース:PostgreSQL
  • CI/CD: AlgoCD, tekton
  • 構成管理: Docker, Terraform, Kubernetes
必須スキル
・5年以上のWeb系システム開発実務経験
・AWS、GCP、Azureのいずれかを利用しクラウドインフラを設計・構築した経験
・SQLを用いたデータベース操作の経験
・Docker/Kubernetes/Github Actions/CircleCI/Jenkins/Ansible等を用いたCI/CD構築経験
・インタプリタ型言語/コンパイラ型言語の双方の利用経験
案件内容

現在国内エネルギー系⼤⼿企業がエンド顧客となるデータ基盤構築PoCプロジェクトが進⾏中。
PoCを通してインフラアーキテクチャの策定、⼤まかなデータパイプラインのフローを策定した9⽉以降の本番環境構築では、インフラ構築からセキュリティ対応、より多くのデータパイプライン構築を予定しており、データエンジニアの拡充を⾏っている。

データ基盤要件定義
データレイクに保存するデータの形式の洗い出し (CSV, JSON, 画像ファイ
ル etc…)
データソースのインターフェイス特定 (REST API, FTP etc…)
データ加⼯(ETL)要件ヒアリング
データレイク設計 (Hadoop File System)
DWH設計/テーブル定義 (Apache Hive, Spark, HBase etc…)
データフロー設計 (Apache NiFi)
バッチアプリケーション作成 (Java, Shellスクリプト)
インフラセキュリティ対応 (SSL化対応、AD認証連携 etc…)

   

環境
オンプレサーバー (現地作業等は無し、リモートから接続)
OS: RHEL8HPE Ezmeral Data Fabric (Hadoop, Hive, Spark, NiFi etc…)
データ分散処理基盤にまつわるpache系OSSをまとめたパッケージ製品
(サポートが付くだけのようなイメージ)
HPE Ezmeral Runtime (≒ Kubernetes)
OpenShift等に⽐べ、より純正Kubernetesに近い
構成
データレイク: HDFS, minio(≒S3), HBase
DWH: Hive or Spark
ワークフロー: NiFi or Airflow
データ加⼯: Hive, Spark (シェルスクリプト/Java or Python)
BI: Tableau, Palantir (本募集スコープの作業範囲外)
体制
アジャイル開発 (スクラム)
メンバー10名程度
デイリーで午前にスクラムミーティング有り

必須スキル

3年以上のバックエンドまたはインフラ開発経験

検索結果72件中1-10件