Dockerの求人・案件一覧

エンジニア、データサイエンティスト、マーケターの案件情報をご紹介。募集中だけでなく、過去の募集案件も掲載しています。
業務委託、派遣を中心に非公開求人も多数保有しています。単価や稼働日数など条件面についてもお気軽にご相談ください。

該当件数:27

Dockerの案件を探す

案件内容

研究成果から実応用へ向けて磨き込みをかけていくため、論文のデータ前処理、基礎解析、及び実証検証支援に協力いただけるAIエンジニアを募集しています。
【想定業務】※タスクに応じて変わりますが、一般的な業務をご紹介いたします。
・自然言語処理、機械学習/ディープラーニング・データ基礎解析、データスクレイピング
・機械学習前処理(アノテーション等)
・CPU/GPUサーバー構築・保守・Cloud環境におけるWebアプリ/API開発
【期待する責任】
・各タスクにおける前処理、基礎解析、検証、追試、パラメーターチューニングの実行支援
・タスク実行のための環境構築・管理支援・各プロセスにおいての状況や結果レポート支援
(開発環境)Python, Docker, GitHub, JIRA, AWS, SQL, C++

必須スキル

・機械学習における前処理からファインチューニングまでの一連のタスクを単独実行できること
・汎用プログラミング言語(Python, C++, SQL など)
・フレームワーク (PyTorch等)
・開発環境 (AWS, GCP等のクラウド環境, Docker)
・ツール (GitHub, Confluence, Jira, Google Workspace, Slack, Zoom, Colab等)
・優れたコミュニケーションスキル

尚可スキル

・Transformer LMを多様するので言語系機械学習処理のご経験があると良い
・異常値を検知しエラーアナリシスができると良い
・特に言語系機械学習処理の経験があると良い
・コンピュータサイエンスのPhD(または博士号取得のためのMS)、関連する技術分野または同等の実務経験があるとなお良い

案件内容

AI有識者リードのもと、精度検証、学習データ収集・生成、テストなど、開発作業全般を行う。

必須スキル

・ソフトウェアエンジニアとしての業務経験(3年以上)
・チームで開発をした経験(1年以上)
・業務でJavaまたはPythonを用いてプログラミングをした経験(1年以上)
・git、AWS、Docker、PyCharm。この内、2つ以上を業務で使用した経験
・Linuxの基礎知識(grep,chmod,sshなど基本的なコマンドが使えること)
・テストケース設計の基礎知識(境界値分析など)
・Java・Python・機械学習の知識が必要になりますので、未経験の領域については学ぶ意欲があること

尚可スキル

・Jenkins上にビルドジョブを作成した経験
・Jenkinsfileを作成した経験
・機械学習モデルの作成、チューニング経験
・Kaggleに参加した経験
・画像処理についての知識

案件内容

[ポジション]:分析基盤エンジニア

以下2つの案件(分析基盤・データ加工)を0.5人月づつご対応頂きます。
①分析基盤
既に構築済みの分析基盤のさらなる改善等をチームで案を出しながら実施します。
②データ加工
既存のデータ加工用のPythonコード及びSQLを要望に合わせて修正したり、データベースのカラム追加等を行います。

必須スキル

① 分析環境支援
* チームで開発する経験
* GCP、AWS上にデータ利活用に関するソフトウェアの開発、運用、保守の経験
* ネットワークに関する基本的な知識
* SQL, pythonの開発/運用経験
* gitの利用経験
* チームの開発工程の定義や改善した経験
* dockerを利用したアプリケーションの開発/運用
* ワークフローツールの運用経験
② データ加工
* チームで開発する経験
* GCP、AWS上にデータ利活用に関するソフトウェアの開発、運用、保守の経験
* ネットワークに関する基本的な知識
* SQL, pythonの開発/運用経験
* gitの利用経験
* チームの開発工程の定義や改善した経験
* ビジネスユーザーとコミュニケーションし、ソフトウェア開発を行った経験

尚可スキル

① 分析環境支援
・apache beamもしくはcloud dataflowの利用経験
② データ加工
* 機械学習モデルの開発、運用の経験

案件内容

[ポジション]:分析基盤エンジニア

◇データ分析対応チーム、もしくはデータ分析基盤構築チームにて、
A: 定型化されたデータ分析の実行(集計/加工/分析/可視化/アドホック対応など)  
B: 関連するデータ分析基盤システム構築(インフラ,システム開発/仮想化/など) のいずれかをご対応いただく予定です。
・仕様や方針などは、A/B領域共にクライアント側で設定の上、後続対応を実施していただきます。
・Aについては、基本出社対応、Bについては状況に応じて出社を予定しております。
[稼働先最寄り]
・基本リモート or 現場常駐(出社時は東京都 港区エリア)
 ※現状、タスクに応じて50/50で対応中
 ※ご面談設定の際に、詳細情報を連携させていたます。
[募集人数]
・メンバー枠:
 データ分析エンジニア    : ~1名
 データ分析基盤構築エンジニア: ~最大3名

必須スキル

・Python、SQLを用いた実務経験(3年以上目安)
-オーダーに対して、プログラミング領域を一定自走できる方のイメージです。
・データ分析関連業務のご経験
-データ抽出/集計/加工/分析/可視化/アドホック対応など
・AWS等のCloud環境下での実務経験
・チームコミュニケーションスキル

尚可スキル

・データ分析基盤構築関連業務のご経験
-分析モデルシステム化、自動化ツール作成、ソースコード改修、機械学習など
・システム/インフラ運用保守開発経験
-UNIX、コンテナ仮想化(Docker)、ミドルウェア対応経験など

インフラエンジニア

リモート/在宅
案件内容

クライアント様が提供するサービスの設計・開発から、パフォーマンス改善や安定性・開発効率の向上など、インフラマネジメントをお任せします。

必須スキル

下記のうち2つ以上当てはまる方。
・Linuxサーバの運用経験がある方(AWS、GCP等のpublic cloudでも可)
・クラウドやインフラ、オペレーションの自動化の経験・知識がある方
・Webのアプリケーション全般について一通りの経験・知識がある方

尚可スキル

・システム・ネットワークプログラミングに詳しい方
・大規模なWebサービスの運用経験がある方(Railsは特に歓迎)
・アプリケーション開発・運用経験がある方(クライアント、サーバサイド問わず)
・Webアプリケーションのパフォーマンスモニタリングと改善経験
・CI/CDの導入や改善経験がある方
・ソフトウェア開発経験、プロセス(およびツール)の導入や改善経験がある方(Rubyは特に歓迎)
・サービス運用に関するソフトウェア(例: Docker, Ansible)の調査・導入・運用経験がある方
・AWS等のパブリッククラウドの運用改善がある方
・GitHubを使ったコードやデータの管理運用経験がある方

案件内容

AI事業部関連webアプリケーションの開発

必須スキル

・要件定義、基本設計、詳細設計、製造、単体経験
・素早いコーディングができる方が望ましい。
・イメージとしては訂正部分を即時修正できる方。
・python(5年以上)、Dash、Dockerでの開発経験
・postgres(または相当する技術)

案件内容
内容:
大きく以下3つの業務をお任せします。
 ①部門内のデータ民主化PJTのプロジェクトマネジメント
 ②非テック人材への基礎的なSQLやBIツール利用方法のレクチャー ※BIはGoogle Data PortalとTableauを利用
 ③各チームのKPI設計とダッシュボード要件検討の支援
開発環境:
・インフラ:GCP(データ関連)/ AWS(ユーザー向けサービス)
・ETL:CloudComposer (Airflow)
・サーバーレス環境:GAE / CloudRun
・インフラ管理:GKE / Docker
・DWH:BigQuery
・監視:Stackdriver
・可視化ツール:Data Studio / Tableau
・分析環境:Jupyter Notebook
・その他:GitHub / Slack / Qiita:Team
必須スキル

・業務改善を中心としたプロジェクトマネジメントの豊富な経験 (目安は3年以上)
・データ分析の実務経験 (基礎集計レベルでも可)
・KPI設計の実務経験
・BIツールなどでのデータ可視化の実務経験

案件内容
主にAWSを使用したインフラ整備、運用に携わって頂きます。
特定のサービスに限らず、今後展開する教育サービスや、新しいAIアプリケーション等の開発にも参加していただくことも想定しており、インフラの運用だけでなく、AI・機械学習やデータ分析等、幅広く関わってみたいという方をお待ちしております。
■インフラ環境
【AWS】
- EC2
- S3
- VPC
- ECS
- ALB
- RDS
- ElastiCache
- Route53
- CloudWatch
■使用ツール
MYSQL/Ubuntu/Docker/Git/Gitlab/redis/nginx/flask
必須スキル

AWSや類似するクラウドサーバーサービスでのインフラ業務経験(3年以上)

尚可スキル

AWS 認定ソリューションアーキテクト アソシエイト以上の資格
テスト自動化、デプロイ自動化等CIサービスに関する知識・経験

AWSのサーバー構築経験有り
オンプレサーバーの構築経験が豊富
CICDの構築経験有り
docker、kubernetes等のコンテナ構築経験が豊富
Pythonによるバックエンド実装経験

案件内容
 AIモデリングのディープラーニング、Python 3、Pandas、TensorFlowを使用した開発
・さまざまなツールとデータ分析手法を使用して、複雑で大容量の高次元データを操作および分析する
・インヴァスト証券の製品、インフラストラクチャ、ツール、システム、データに関するシステムを開発する
・既存のアプリケーションスタックを改良して、パフォーマンスなどの側面を強化します。
必須スキル

・コンピュータサイエンス、エンジニアリング、または関連する技術分野の学士号(または同等の実務経験)
・Python(Python 3)および/またはデータサイエンス
 (ビッグデータ、ディープラーニング)でのソフトウェア開発の3〜5年の経験
・AWSやGCPなどのクラウドサービス環境での開発、または保守の経験

尚可スキル

・外国人の方が多いチームですので英語でのコミュニケーションが取れる方
・ビジネスレベルの英語によるコミュニケーション
・TensorFlowを使用したデータモデリングソリューションの経験
・Amazon SageMakerのご経験
・Python3マルチプロセッシング(Ray、マルチプロセッシングなど)のご経験
・AWS、GCP、Docker、Kubernetesなどのご経験
・オブジェクト指向での開発のご経験
・オープンソースソフトウェアの理解(Apache、Redis、Prometheus、Elasticsearchなど)

案件内容
案件概要
◆需要予測
業務用のPCや測定器等のレンタル需要予測
レンタル品目は数十万オーダ
選挙等の特需による需要変動
コスト算出ロジックの検討
売却予測モデルと需要予測モデルを組み合わせた収益シミュレーション
◆売却価格予測
売却実績データを利用し、集計/可視化/予測モデル作成を通して、後続案件に進むべき商品カテゴリーを選定する。
選定したカテゴリーについて、データを追加して予測モデルを構築し、精度評価を行う。
◆作業依頼内容
各種実績データの加工および可視化
クロス集計、ヒートマップ、ヒストグラム作成、時系列でのバイオリンプロット作成、外れ値の検出
予測モデル構築・評価
特徴量設計、データマート作成、時系列の予測モデル構築(自己回帰、XGBoostなど)、モデルの精度検証
必須スキル

・SQL (Redshift, PostgreSQL記述)
・Pythonを用いた時系列データ分析の経験
・pandas, scikit-learn, statsmodels, prophet 等の機械学習ライブラリの利用経験
・ソースコード管理ツール(Git)利用経験

尚可スキル

・Redmine, Planner等のタスク管理ツール利用経験
・R
・ベイズ回帰の利用経験
・AWSの利用経験
・Docker, kubernetes開発経験

検索結果27件中1-10件