GCPの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:276

GCPの案件を探す

案件内容

【業務概要】
SREエンジニアとしてAI翻訳SaaS開発の以下の業務に携わっていただきます。
・SLI/SLOの定義
・監視システムの構築・サービスの信頼性に関するデータの分析・アラート対応
・ダウンタイムを極小化するための仕組みの構築
・運用全般の自動化によるToilの削減
・CI/CDパイプラインの構築・運用
・IaC化、コンテナ化の推進
・プロダクトに関する各種メトリクスの分析環境の構築・運用

【参画メリット】
・フルリモートとなりますので、ご自身のリラックス出来る環境で作業を行って頂きます

【技術環境】
・言語:Java、Scala、PHP、Python、TypeScript、JavaScript
・フレームワーク:Spring boot、Angular、React
・インフラ:AWS
・テスト:Jest,mabl,Pytest, Selenium,JUnit
・バージョン管理、デプロイ:GitHub, GitHub Actions, CodeDeploy,CircleCI
・その他:Slack, Zoom, oVice,Office365, Jira, Confluence, DocBase, Miro, Figma

必須スキル
・SREの経験がある方
・クラウドインフラの構築・運用経験(AWS, Azure, GCPのいずれか)
・AWS ECS/EKSなどによるコンテナアプリケーションの開発運用の経験
案件内容

主に Python を用いたデータ基盤や ETL の構築・運用
・同じく Python(FastAPI)を用いて Web サービス向けサーバサイド API の実装・運用
・ クラウドインフラ(GCP)のアーキテクチャ上での機能追加・改善
・多数のデータサービス施策のモニタリングとインシデント発生時のオペレーション
・エンジニアリングチーム内の技術コミュニケーション(レビューや技術調査)
BI開発(未経験可)

必須スキル
– Python 3系 での開発経験
– SQLに関する理解と充分な経験
– GCP 環境上での開発経験
– BigQuery 上でのデータマート運用経験
– Docker フレンドリな環境での開発・運用経験
– Git ベースの開発経験
– チケット駆動型のタスク管理
– リモート環境下での他者との意思疎通が柔軟にできること
案件内容

Stable Diffusionをはじめとする画像生成AIの進化により、単純なテキストから高品質な画像を生成することが可能になりました。
最近では、テキストでの制御だけでなく、ControlNet、LoRA、IP-Adapterなどの狙った画像を作り出すための様々な技術が日進月歩で登場しています。
このような技術を活用し、ECサイトや広告用の画像生成サービスを展開しています。
【具体的な業務内容】
・実写画像生成システムの精度、クオリティ、再現度の向上
・最新の生成AI技術の迅速なキャッチアップとプロダクト化に向けた検討・実装
・生成AIと従来の画像処理技術を組み合わせたComfyUIのワークフロー開発
・GPUを用いた画像生成APIの基盤構築、最適化

【例となる技術】
・PyTorch
・Stable Diffusion
・ControlNet / IP-Adaptor / LoRA
・ComfyUI
・AWS / RunPod

必須スキル
・最低限の数学・コンピュータサイエンスの素養(線形代数、確率統計、情報理論、計算機アーキテクチャ、アルゴリズムなど)
・PyTorchを使ったディープラーニングシステムの開発経験
・生成AIを始めとした最新の技術への興味、キャッチアップ力
案件内容

法人企業様において、Webサービスを提供するにあたり、システム化するための要件定義を進めてまいります。
本案件では、GCPを利用した共通基盤上にシステム化するための要件定義をご担当いただきます。
下記、構成要素に伴い機能配置、非機能設計などシステム化するための要件定義を、お客様/大手SIer様と調整しながら進めていただきます。
※お客様との調整については、基本的には大手SIer様の担当者が進めます。

【構成】
・GCP上に構成
マルチテナントリソース、WebAPコンテナ、業務画面コンテナ、バッチ帳票コンテナ
バッチ帳票接続用コンテナ、DBサーバ(Spanner)、オンライン業務コンテナ
・SW
RedHat Enterprise Linux 8、Debian、Apache Tomcat、TERASOLUNA Framework for Java
OpenJDK、SVF for PDF、SVF for PDF Connector、Datadog
※その他、共通基盤を流用するためセキュリティ、運用回りの各種ツールについて、共通基盤のものを利用

必須スキル

・パブリッククラウド(GCP、AWS、Azureなど)環境における要件定義/設計/構築のご経験

案件内容

Google Cloud / AWSを利用した商用稼働サービスのデータパイプラインの開発・保守運用
データ分析システム・サービスの監視設計・運用
日々の運用業務から発生する課題の解決・改善

技術要素(★が特に重要)
GoogleCloud
★Cloud Composer2(及びAirflow2)
★Cloud Dataproc(Apache Spark(scala))
Cloud Build
Cloud Storage
BigQuery
Cloud Monitoring / Cloud Logging
AWS
★Kinesis firehose
★SQS / SNS
★ECS
★Lambda
ECR
S3
Cloud Watch
その他
GithubActions
Terraform

必須スキル
・Pythonを利用したデータ分析/開発経験
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux / ネットワークの基礎知識
案件内容

某製造業における冷温システムの異常検知システムにおけるデータ分析、モデル開発業務を
元請のAIコンサルタントおよびエンドクライアントの専門家と協業し、概念実証から本番導入まで
データサイエンティストのポジションでご参画頂きます。

ご担当いただく業務としては、以下を想定しております。
・異常検知(異常が発生した際の検知、または異常が起こる前の予兆の検知)における
 エンドクライアントの課題および要件を理解し、課題解決、達成に向け仮設の立案、データの収集・分析
・数理/機械学習モデルの予測精度や汎用性を向上させるための特徴量エンジニアリング
・目的に対して適切なモデルを選定、開発し仮設検証の実施
・一連の作業に必要な分析基盤の構築、運用

必須スキル
・数理モデルと機械学習を用いた異常検知プロジェクトの従事経験
・コンピューターサイエンス、電気工学、機械工学、制御工学、または関連する分野での学位を保有している方
(要件ヒアリング、関連データの収集と分析、特徴量選択/エンジニアリング、モデル開発、精度検証、結果報告まで一通りご対応した経験)
・温度、電力消費量、内部機構の稼働率などのセンサーから得られる時系列データを扱った経験
・Pythonを使ってデータ前処理、可視化、分析を実施した経験
 - scipy, pandas, matplotlib, seaborn…などの統計ライブラリや可視化ツールを用いたデータ分析
 - データベースやDataFrameを使いこなせる方 pandas、dask、modinなどのフレームワークを用いて、小規模から大規模までのデータを扱うことができる
 - 分類、クラスタリング、回帰、相関分析の豊富な経験
・ビジネスレベルの英語力(読み書きメイン)
案件内容

・「●●(エンドクライアントSaas名・人格生成プラットフォーム)」プロジェクトにおける開発業務
・プロダクトの高精度化/高効率化に向けた技術検証
・現状のプログラムの精度評価結果や、社内関連部門へのヒアリングを通した研究課題の発見
 - 関連領域の学術論文や技術報告を参考にした手法選定
 - 上記手法の実装。またはGitHub等にある公開実装の調査と取得
 - 上記実装を用いた精度評価実験
 - 上記実験結果の社内ステークホルダーへの報告
・言語処理・画像生成などの技術を効果的に活用するための新機能に関する技術検証
 ・社内関連部門と連携した、新技術の商用化
 ・外部研究機関との連携プロジェクトの主導
 ・論文発表等のアウトリーチ活動
・新技術の研究・開発 など

【技術環境】
開発言語:Python
フレームワーク:PyTorch, HuggingFace, SpeechBrain, scikit-learn
データベース:Cloud Firestore
インフラ:AWS, GCP, Azure, Cloud Firebase, Cloud Functions
ソースコード管理:Bitbucket
開発管理:Notion, JIRA
コミュニケーションツール:Zoom, Slack, Google Workspace
※他の技術の社内導入も歓迎いたします

【組織】
R&D部門への配属を予定しております。
R&D部門では現在約5名体制で開発に取り組んでいますが、今後当ポジションで複数名採用予定です。

必須スキル
・コンピュータサイエンス、人工知能、機械学習、または関連分野の学士号以上
・AI、自然言語処理、画像生成等の分野での研究開発経験
・革新的なアイディアを持ち、チームで協力して作業できる能力機械学習分野(特に深層学習)の専門知識と実務経験
・深層学習フレームワークを用いた実務経験
・Python/SQL/機械学習の知識・利用経験
・読み書きレベルの英語
・クラウド利用経験
案件内容

RAGシステムの設計、開発、および精度向上への取り組み
社内データソースと基幹システムのデータ統合
データ整形/変換/最適化方法の検討及び開発

ChatGPTを安全かつ効率的に利用するための基幹システム開発に注力しています。
このプロジェクトでは、社内の生成AI利活用の基盤システム開発と、RAG(Retrieval-Augmented Generation)の精度向上に重点を置いており、
これらの領域において深い知識と技術力を持つデータエンジニアを募集します。
このポジションでは、AIモデルの性能向上のためのデータ整形方法の策定や、RAGシステムの開発と最適化に携わります。

必須スキル
– AI(特に生成AIやRAGシステム)に関する深い知識と実務経験
– 社内外の様々なデータソースとの連携経験
– データモデリング、データ処理技術に関する広範な知見
– チームワークとコミュニケーションスキル
– セキュアなシステム開発の理解
案件内容

新規事業に伴うサービス構築において、
プロダクト/Generative AI(ChatGPT等)を用いたソリューションのご提案と導入支援をお願いします。
必要に応じてプロジェクトを通じて得たプロダクトの課題を、社内プロダクト開発チーム・インフラチームへfeedbackしプロダクト開発の支援をお願いします。

具体的には下記の業務になります。
・クライアントの課題、要件を理解しGenerative AI(ChatGPT等)を利用したソリューション構築と提案書の作成
・Generative AIが生成するテキストやイメージの入力として、使用するテンプレートや指示などのプロンプトを設計・開発
・Generative AIによって生成された出力の品質を評価し、プロンプトを調整することによる出力の品質の改善・向上
・APIやスクリプトを使用したプロンプト自動化の実装
・Generative AIによって生成されたデータ・コンテンツの管理

必須スキル
・Pythonを活用した機械学習やAIソリューションを設計・開発した経験
・プロンプトエンジニアリングに関する基本的な理解
・自然言語処理「NLP」の基本的な理解およびNLPツール利用経験
・機械学習アルゴリズムに関する基本的な理解および経験
・大規模言語モデル「LLM」に関する基本的な理解
・IaaS(Azure/AWS/GCP等)を利用した開発経験
案件内容

リアルタイムなデータパイプラインを構築するためのデータエンジニア業務と、
機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築、効率よくデータを捌くためのミドルウェア開発、インフラ構築などを行う、MLOpsエンジニア業務をおまかせします。
GCPデータ基盤とその活用案件、は既に多数存在するものの、さらなる拡充を狙った専門人材の募集となります。
IP(知的財産)ビジネスがドメインの事業会社において、全社へ大きな影響を与える分析部門にアサイン頂きます。

【業務スコープ】
分析官や機械学習エンジニアと連携しながら、速く安全に機械学習のサイクルを回せるML基盤の構築をお任せします。

[データエンジニア概要]
■データパイプライン(リアルタイム)の設計・実装

(具体的な職務)
・収集対象:ECサイト
・データ分析基盤の開発・運用
・データを収集するETL/ELTパイプラインの開発
・運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

[MLOpsエンジニア概要]
■ ビジネス課題と要求の整理(案件の要件定義をPMと行える=足りない情報が何かを定義し、自身で要求できる)
■ 機械学習ワークフローの設計/開発/運用
■ データ提供のためのAPI設計/開発/運用(アプリ開発側との連携)
■ 機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築
■効率よくデータを捌くためのミドルウェア開発、インフラ構築
■ ML基盤内へログデータを収集・蓄積・加工する、一連のデータパイプラインの設計/開発/運用

(具体的な職務)
■ ビジネス課題と要求の整理(案件の要件定義をPMと行える=足りない情報が何かを定義し、自身で要求できる)
■ 機械学習ワークフローの設計/開発/運用
■ データ提供のためのAPI設計/開発/運用(アプリ開発側との連携)
■ 機械学習モデルをより素早く安定的にデプロイできるようなCI/CDパイプラインの構築
■ 運用体制構築のためのルール・ドキュメント整備

必須スキル
・SQLを用いたデータ抽出経験
・ETL/ELTのデータパイプライン設計/構築
・Infrastructure as CodeおよびCI/CDの経験
・ワークフローの構築経験
・Pythonなどを利用したアプリケーション開発経験
・GCPでの開発経験
・コンテナ技術(Docker)を用いた開発経験

検索結果276件中11-20件