GCPの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:292

GCPの案件を探す

案件内容

【案件概要】弊社クライアント(HR系)のデータサイエンス部署にてデータマート開発実務を担当いただきます。データマート開発実装をメインにご担当いただきますが、要件定義にてクライアントと直接コミュニケーションを取っていただく必要があります。
【具体的な業務内容】・分析用データマート開発 ┗ 要件定義、データマート(テーブル)設計、SQL実装、テスト・バッチ基盤(digdag)の実装、運用保守・データエンジニアリング業務 ┗ データの収集、加工、集計・データマートの保守運用・TableauのViz作成

必須スキル
・データマート設計
・Redshift、BigQueryでの大量データのハンドリング(SQL実装、データマート設計)経験
・クラウド(AWS、GCP)、オープンソース(digdag、git)
・要件定義
案件内容

・バンダイナムコエンターテインメントのデータパイプライン設計・実装及び実装委託・DWH管理業務 (欠損,Issue,申請等の対応)・技術調査
【業務スコープ】・Google Cloud Platformをバックエンドとするデータ分析基盤の開発・運用・データ分析基盤と各事業部が有するデータを活用するための開発・運用・データ分析基盤にデータを収集するETL/ELTパイプラインの開発・データ分析基盤でデータを集計するワークフローの開発・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)・技術調査

必須スキル
1. SQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験
案件内容

業務:プロダクトの分析業務を支える基盤の機能拡充ならびに運用自動化に関わる開発を担当いただきます。・データウェアハウスへのデータ連携を含む、データ基盤で動作するETL処理の開発・データパイプラインを管理・運用・監視する仕組みづくり・取り扱うデータのセキュリティやガバナンス対応・各種運用業務の自動化とドキュメント整備
環境:プログラミング言語: Python, SQLバージョン管理: Git/GitHubデータ分析基盤、環境: AWS, SnowflakeETLツール: trocco, Airbyte, dbt(導入準備中)IaCツール: TerraformBI: Redash, Google Spread Sheet, Looker Studioコミュニケーション: Slack, ClickUp, Notion

リモートワークをベースとしていますが、週1日程度出社日を設けています。週5未満の場合でも、出社日、スクラムイベントのため火曜は勤務日となるようお願いします。

必須スキル
・データ基盤技術の基本的な理解(OS, RDBMSなど)
・データウェアハウスの設計とETL処理の開発経験
・Pythonなどのスクリプト言語を用いた開発経験
案件内容

クライアント社内で運用している需要予測・発注数量最適化ソリューションにおけるデータパイプライン、MLパイプラインの運用、エラー発生、顧客問い合わせ時の初動調査のご担当をいただきます。複数のクライアントの運用を行っており、各パイプラインの運用、さらには、将来的にはその開発まで対応を可能な方を期待しています。

必須スキル
– GCP (BigQuery, GKE, Composer)
– Docker
– Airflow
– python
MLOpsの経験
Pythonを使ったデータ分析の経験
案件内容

最先端タクシーサービスに蓄積されたデータを用いてデータ解析や機械学習モデルの改修を行っていただきます。
【環境】 言語____:Python,SQL DB____:BigQuery FW____:Django 環境・OS_:GCP (Google Cloud Platform)

必須スキル
・PythonおよびDjangoの利用経験が2年以上あること
・機械学習モデルの提案/構築/評価/デプロイ/改善の実績があること
・Bigqueryを用いた分析業務やSQLを用いたDB対応の経験が2年以上あること
案件内容

■概要GCPでサーバレスシステムを作るべく、開発を進めておりGCP、Kubernetesの設計~構築をしていきたい。GCP、Kubernetesを基盤とし、Node.jsなどいくつかフレームワークを上物としている状況。

必須スキル

・GCP、Kubernetesの設計~構築の経験

案件内容

【業務内容】①ソリューションの提案• CSやBiz、品管の業務課題に対し、AI/MLで解決できるものを洗い出しソリューションを提案する•データ分析を元にソリューションを提案する。②モデルの開発• ヒアリングした内容や発見した課題に対し、モデルの作成③システム化• 必要なバッチ、APIの作成(歓迎要件)• システムへの落とし込みや落とし込むための支援④PoCの実施• KPIに対して有効なモデルの検証⑤既存モデルの保守・改善• SEMで過去開発したモデルのアップデートや改善
【開発環境】・開発言語:Python, Ruby on Rails・インフラ:AWS, GCP・機械学習ツール:Amazon SageMaker、Jupyter Notebook・データ分析:BigQuery, DOMO, Redash, Amazon RDS・CI/CD:Jenkins, CircleCI, Capistrano, Github Actions,・コードリポジトリ、レビュー:Git, Github, Gitlab

必須スキル
• Python, SQLの経験がある方
• 機械学習に対する幅広い知識(画像、自然言語、テーブルデータ)
• 実務としてモデルを開発し、運用まで落とし込んだ経験
• 高いコミュニケーションスキル
• 能動的に行動できる方
案件内容

Google Analitycsからの情報に基づいて顧客の購買行動を促す業務およびマーケティング分析・Pythonスクリプトでデータの投入・AWS環境での開発・ビッグデータの分析(4千万件数PV)・ビジネス英語でアメリカの技術者と打合せ
■環境:・Windows・Google Cloud Platform(GCP)・mPartical(CDP)■言語:・Python・Google Apps Script(GAS)・Shell

必須スキル
・SQLのselectを利用したデータ取得経験
・Redshift/Bigquery等のDWHを扱った経験
・顧客データ集計や分析経験
案件内容

弊社新規事業、業務アプリの基盤構築のDevOpsコアメンバーとなり、新規事業開発、追加施策対応、業務システムリプレースを担当
【必須マインド】​今回のチーム開発では、アジャイル型開発をScrumフレームワークで実践。そのため、以下のマインドを持った方はおススメです。・アジャイル Scrum開発をしたい・個人ではなく、チームで成果をあげる手法に理解がある・チームで学びを共有しながら仕事をしたい

必須スキル
・アーキテクト領域の設計及び開発経験
・開発経験 [WebのMVCの開発経験](3年以上)
・オブジェクト指向言語による開発経験(3年以上)
・SQLを利用した開発運用保守の経験
・AWS/GCPなどのクラウドサービスを使用した開発経験
・Pythonを利用した開発経験
案件内容

・自社プロダクトであるデータ統合SaaSおよび、AWSやGoogle Cloud等のクラウドサービスを用いたデータ分析基盤構築・データ統合パイプラインの設計および実装・SQLを用いたデータマート作成、名寄せ、クレンジング等の実施・BIツールを用いたデータ可視化・外部サービス(CDP/MA/SFA等)とのデータ連携および活用の支援

必須スキル
・AWSやGoogle Cloudなど、パブリッククラウド上でのシステムまたはデータパイプライン構築経験が2年以上
・DWH製品(BigQuery / Redshift / Snowflake 等)の利用経験
・速さよりも品質を重視するため基盤やシステムを通した構築・テストなどの経験がしっかりある方

検索結果292件中201-210件