kubernetesの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:151

kubernetesの案件を探す

案件内容

【概要】
・PoC案件(実証実験系の開発)となります。
(機密性が高いため、面談時にある程度の情報をお伝えさせて頂きます)

・既に初期開発は終わっていますが、今後も追加開発が継続していくための要員補強となります。

・基本的にはアジャイル(スクラム)となりますので、顧客や他の協業会社メンバーとも同じ
チームとして開発していきます。

・環境構築のサポートや業務初期キャッチアップは、上位の開発メンバーがフォローいたしますが、
基本的には1人称で動いて頂くことになります。

【業務内容】
・Pythonを使用したバックエンドシステムの設計、開発、テスト、デプロイを担当します。

・スクラムチーム内でプロダクトバックログアイテムの実装を行い、
スプリント計画に従ってタスクを完遂します。

・コードレビューを通じて品質保証を行い、持続的なコード改善を推進します。

必須スキル
Pythonによるプロフェッショナルな開発経験
優れたチームワークとコミュニケーション能力
案件内容

連合学習技術の研究環境のフレームワーク化と整備およびアルゴリズムモジュールフレームワークの開発補助業務を行っていただきます。

今後機械学習を実施される方向けのフレームワーク作成といった業務内容となります。
機械学習の知見を活かしてフレームワークを作成していただく形となります。

プロジェクト管理は不要ですが、クライアントへの口頭での報告、質疑応答といった折衝は発生します。

必須スキル
・Python:
 優先度:高
 期待するレベル感:経験年数3年以上。flask等でWebアプリケーションを開発できる。Pythonを使いこなすことができる。
コードレビューを行った経験がある。
・Pythonアプリケーションを環境含め(インフラ周り含め)構築できる

 

・インフラ構築の経験
(通信等の知見がある)

 

・kubernetes:
 経験年数1年以上。業務、私的にkubernetesを使ったことがある。
案件内容

【概要】
・クライアントの自社サービスやプロダクトのための技術開発及びアプリへの組み込みを担当
・基礎研究ではなく、既存の技術を改善して実用化させることが目的
・シーズアウトではなくアプリケーションレイヤーでの"ニーズベース"の技術開発
※LLM自体の開発・プロンプトエンジニアとは異なるポジション

【業務内容】
・技術開発
-機械学習や(生成系を含む)AIを活かしたアルゴリズム、技術の調査
-技術の精度評価や改善などの仮説検証プロセスの実施
-モック開発
・組み込み
-モック開発からシステム開発へのブリッジ
-実用化に向けたAIエンジンや機械学習モデルの設計、開発、テスト

【環境】
・Python、Javascript、Typescript
・Azure、AWS
・postgresql
・github

必須スキル

・データサイエンスの知識理解
・レコメンド、広告配信、検索での実務経験
・Pythonを使ったデータ分析、前処理に関わる経験
・TensorFlow, Chainer, Keras, PyTorch等を用いてモデルをチューニングした経験
・ユーザーやプロダクトチームとコミュニケーションを取りながらの仮説構築とその分析・検証をした経験

案件内容

・大手エンターテインメント企業において、親会社が運営するゲームタイトルのデータを、
データレイクに格納するデータパイプライン構築の業務がメインとなります。

・増員のための募集ですが、チームを技術で引っ張ることのできる中堅レベル、リーダポジションとなれる方をお願いしたいと考えております。

内容や案件はゲームタイトルのスケジュール等に依存するため、
ゲームタイトル以外のデータパイプライン構築や、社内システムの構築をお願いする可能性もございます。
(Webサイト等その他サービス)

※お願いする可能性のある業務スコープ例

・データ分析基盤の開発・運用
データを収集するETL/ELTパイプラインの開発
運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

GCPを採用しており、GCP系リソースを中心に活用します。(BigQueryなど)
インフラ管理:terraform
パイプライン構築:Airflow(Cloud Composer)、Argo workflow、SaaSであるtrocco等

必須スキル
1. SQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験
案件内容

[データエンジニア職務]
・収集対象:ECサイト
・データ分析基盤の開発・運用
・データを収集するETL/ELTパイプラインの開発
・運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

必須スキル
・SQLを用いたデータ抽出経験
・ETL/ELTのデータパイプライン設計/構築
・Infrastructure as CodeおよびCI/CDの経験
・ワークフローの構築経験
・Pythonなどを利用したアプリケーション開発経験
・GCPでの開発経験
・コンテナ技術(Docker)を用いた開発経験
案件内容

機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築や、
効率よくデータを捌くためのミドルウェア開発、インフラ構築

▼業務内容
・ビジネス課題と要求の整理(案件の要件定義をPMと行える=足りない情報が何かを定義し、自身で要求できる)
・機械学習ワークフローの設計/開発/運用
・データ提供のためのAPI設計/開発/運用(アプリ開発側との連携)
・機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築
・運用体制構築のためのルール・ドキュメント整備

必須スキル
・SQLを用いたデータ抽出経験
・ETL/ELTのデータパイプライン設計/構築
・Infrastructure as CodeおよびCI/CDの経験
・ワークフローの構築経験
・Pythonなどを利用したアプリケーション開発経験
・GCPでの開発経験
・コンテナ技術(Docker)を用いた開発経験
案件内容

新しくリリースしたプロダクトのバックエンド・フロントエンドの開発を行います。

【主な業務内容】
・データカタログ機能の開発
・BigQuery/Snowflake上のデータの依存関係を可視化する機能の開発(データカタログ、データリネージ)
・データエンジニアリングの課題を解決する、各種新機能の開発
・バグの調査・改修
■開発環境 :■開発環境
・言語
 Ruby (Rails), Typescript (React), Java (Embulk)
・インフラ
 AWS (EKS, ECS Fargateが中心)
・構成管理
 Kustomize, Terraform
・監視
 CloudWatch, New Relic, Redash, Rollbar
・CI/CD
 CircleCI, GitHub Actions
・コミュニケーション
 GitHub, Google Workspace, Slack, Confluence, Miro
・その他
Okta, 1Password

必須スキル
・パフォーマンスチューニングや技術難易度の高いご経験
・WEBアプリケーションの開発経験が計5年以上
・サーバサイド/フロントエンド両方の開発経験
・Ruby/Ruby on Railsの開発3年以上
・データベース設計・運用
・ビジネスレベルの日本語力
案件内容

[概要]
生成AIを活用して自社サービスのソフトウェア開発プロセスを最適化し、生産性を向上させることを目指します。社内の開発チームと連携し、生成AI技術の導入とその効果的な運用を支援します。また、業務プロセスの分析も行い、改善点を特定して最適なソリューションを提案します。

[業務詳細]
・業務プロセスの分析と改善点の特定
・生成AIツールの評価、導入、カスタマイズ
・AIを用いたコード生成、テスト自動化、バグ検出の仕組み作り
・AIを活用した開発プロジェクトの計画、実行、評価
・社内開発チームへのトレーニングとサポート
・継続的なフィードバック収集と改善提案

必須スキル
・ソフトウェア開発やプログラミングの実務経験(1年以上)
・AI技術・機械学習に関する実務経験(1年半以上)
・生成AIツールの実務経験(例:GPT-3、Codexなど)
・プロジェクトマネジメントのスキル
・業務プロセスの分析スキル
・優れたコミュニケーション能力
・ドキュメンテーション能力
案件内容

・ボーナスシステムの開発、保守、運用
・APIやバッチの保守、運用

・問い合わせ対応

・新規機能開発

   

<マイクロサービス>

言語:Go

クラウド環境:AWS・GCP

コンテナオーケストレーション:Kubernetes(予定)

CIツール:CircleCI(予定)

CDツール:Spinnaker(予定)

メトリクス/監視:Datadog

構成管理ツール:Terraform(予定)

DB:Aurora、DynamoDBなど

<レガシーサービス>

言語:PHP

オンプレ環境:CentOS6

CI/CDツール:Jenkins

メトリクス/監視:Datadog

DB:MySQL

<共通>

プロジェクト管理:ZenHub、JIRA

バージョン管理:GitHub、Bitbucket

情報共有:Confluence、Slack

その他:Re:dash、PagerDuty

必須スキル
・Go / Java / PHPのいずれかを用いた開発経験3年以上

 

・自動テスト、自動デプロイを用いた開発経験
・k8s / ECSなどのコンテナサービスの利用経験
・運用保守経験3年以上
案件内容

・大手エンターテインメント企業において、親会社が運営するゲームタイトルのデータを、
データレイクに格納するデータパイプライン構築の業務がメインとなります。

内容や案件はゲームタイトルのスケジュール等に依存するため、
ゲームタイトル以外のデータパイプライン構築や、社内システムの構築をお願いする可能性もございます。
(Webサイト等その他サービス)

※お願いする可能性のある業務スコープ例

・データ分析基盤の開発・運用
データを収集するETL/ELTパイプラインの開発
運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

GCPを採用しており、GCP系リソースを中心に活用します。(BigQueryなど)
インフラ管理:terraform
パイプライン構築:Airflow(Cloud Composer)、Argo workflow、SaaSであるtrocco等

必須スキル
1. SQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験

検索結果151件中61-70件