BigQueryの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:322

BigQueryの案件を探す

案件内容

・自社プロダクトの納品業務と納品に付随する関連業務
・データ連携バッチの開発
・CDPワークフロー / Looker Dashboard構築業務

【開発環境】
・主要開発言語/フレームワーク:
 ∟ フロントエンド:TypeScript/NextJS
 ∟ バックエンド:Golang/Rust/Python/NodeJS
・開発ツール:GitHub、Slack、Confluence
・DB : MySQL、Bigquery
・クラウド : GCP
【作業環境】
・Mac (Apple Silicon)
・モニター2台まで利用可能

チーム体制
【役割】
・開発部長 : 1名
・機能開発チーム: 6名 (マネージャー含む)
・TechCSチーム: 2名 (マネージャー含む)

必須スキル
・Pythonの実装経験 2年以上
・社内外のコミュニケーションに抵抗が無い方
・データ連携・加工処理経験
・CDP プロダクトの運用経験
・データパイプラインの構築経験
・Google Looker / Looker Studio / TableauのDashboard作成経験
案件内容

・金融SaaSサービス運営企業におけるデータサイエンティストとしてデータ解析及び機械学習モデルの活用に携わっていただきます。
・データの前処理、特徴量エンジニアリング、モデル構築・評価おびよび改善
・機械学習モデルのパフォーマンス最適化
・プロダクト内および社内へのAI導入

【技術環境】
・開発言語:Python、Typescript
・機械学習・統計モデリング:scikit-learn、LightGBM、pandas、numpy etc.
・クラウドプラットフォーム:Google Cloud Platform
・分析基盤:BigQuery
・アプリケーション:Next.js、FastAPI
・構成管理ツール:Terraform、Cloud Build
・データモデリング:Dataform
・データビジュアライゼーション:Metabase/Redash
・その他:Docker、GitHub、Slack、Github Copilot etc.

必須スキル
・金融ドメイン(銀行、証券、クレジット)の知見、ご経験
・BigQuery / Cloud StorageなどGoogle Cloudを用いたデータ分析のご経験
・Google Cloudを用いたデータ基盤の構築・運用のご経験
・Pythonを用いた機械学習モデル実装のご経験
・scikit-learn / LightGBMなど、機械学習におけるライブラリやフレームワークのご利用経験
案件内容

店舗集客プロダクトから、顧客の購買体験そのものを担うためのプロダクトへ転換することを目標に、様々なニーズで検索するユーザーに対する検索機能や、顧客が商品購入の意思決定を行うための機能を追加開発しています。
プロダクトを安定かつ成長に向けて向上させていくため、以下の取り組みを行っています。

・アプリ、WEB、運営管理システムの開発要件、仕様整理
・開発作業の効率化・自動化
・ペアプログラミング、モブプログラミング
・GoogleAnalytics、firebase設計・構築、BigQueryデータ連携
・CI/CDの整備
・障害対応
・新規技術要素の検証・実装
・専門知識の共有、仲間とのコミュニケーション
・スクラム開発のルール厳守
・上記に関連した付帯作業
・インフラ設計・構築
・監視設計・構築
・運用作業の標準化/自動化

■開発環境■
TypeScript, React, Next.js, tailwind, HTML, DB, Serverless Flamework, GraphQL, AWS (Lambda, AppSync, AppRunner), GoogleAnalytics, firebase, BigQuery

必須スキル

・TypeScript / React / Next.jsでの開発に精通している
・テストコード設計・テストコード作成
・なんらかの自動デプロイ運用経験
・tailwindを用いたCSSの全体設計
・HTMLコーディング
・Webサービスの運用経験

案件内容

・医療業界向けBtoCアプリケーションのデータエンジニア(SE)の募集。
・分析運用チームメンバーとして、主に下記のような内容を対応いただきます。
‐SQL+R言語でのデータ分析、データ抽出、データ加工
‐Pythonでのモジュール改修(設計~テスト)
※キャッチアップ期間を取るため、R言語の経験はなくて構いません
・上位リーダー配下メンバー枠のため、参入後のキャッチアップ等、現場内でフォローさせていただきます。
※守秘義務のため、その他詳細は面談時にご本人へ連携いたします。

■開発環境■
・チーム5名程度/全体10名程度
・DB:BigQuery(経験無い場合でも、固有の使い方はキャッチアップしていただく形で問題ございません)
・言語:R言語 / Pyhtonなど
・バージョン/チケット管理:Github / JIRA / Confluence / backlog など
・コミュニケーションツール:Slack / Googlemeets / Zoom など
・その他:googleスプレットシート、googleドキュメントなど

必須スキル
・SQLの実務経験 合計3年以上 (データの抽出/集計・分析・加工・レポーティング・複数テーブル結合など)
・Python、Java、PHP、C#いずれかのコーディング実務経験 合計2年以上
・基本設計経験 合計1年以上
・1年以上の長期参画が可能な方
・研修期間除く業界経験4年以上
案件内容

・金融SaaSサービス運営企業におけるデータサイエンティストとしてデータ解析及び機械学習モデルの活用に携わっていただきます。
・データの前処理、特徴量エンジニアリング、モデル構築・評価おびよび改善
・機械学習モデルのパフォーマンス最適化
・プロダクト内および社内へのAI導入

【参画メリット】
・フルリモートですので、ご自身のリラックス出来る環境で作業を行って頂きます。
・フルフレックスとなりますので、中抜けなど柔軟な働き方が可能となっております。
・現在弊社から複数名参画中のエンド様であり、どの技術者も稼働が安定しており、コミュニケーションがとりやすいとのお話をいただいております。

◆補足
【技術環境】
・開発言語:Python、Typescript
・機械学習・統計モデリング:scikit-learn、LightGBM、pandas、numpy etc.
・クラウドプラットフォーム:Google Cloud Platform
・分析基盤:BigQuery
・アプリケーション:Next.js、FastAPI
・構成管理ツール:Terraform、Cloud Build
・データモデリング:Dataform
・データビジュアライゼーション:Metabase/Redash
・その他:Docker、GitHub、Slack、Github Copilot etc.

必須スキル
・BigQuery / Cloud StorageなどGoogle Cloudを用いたデータ分析のご経験
・Google Cloudを用いたデータ基盤の構築・運用のご経験
・Pythonを用いた機械学習モデル実装のご経験
・scikit-learn / LightGBMなどのご利用経験
案件内容

・大手グルメ口コミサイト運営企業における検索基盤エンジニアとして参画していただきます。
・ユーザー価値提供の最前線で、企画や他開発チームと密に連携しながら検索基盤システムの構築、運用に携わっていただきます。

【主な開発環境・ツール】
・全文検索エンジン: Apache Solr
・開発言語: Go, Python, Bash, SQL
・構成管理: Ansible
・関連システム / ミドルウェア: MySQL, Fluentd
・ソースコード管理: GitHub
・運用ツール: Jenkins, Rundeck, Prometheus, Grafana, NewRelic, Opsgenie
・OS・Webサーバ・コンテナ技術: Linux, Nginx, Docker, Kubernetes
・開発支援ツール: Microsoft Teams, Asana, Confluence, Miro, Qiita Team, CircleCI
・データ基盤:BigQuery, Tableau

必須スキル
・Solr, Elasticsearchなどの全文検索エンジンを用いた設計・開発・構築・運用の経験
・業務時間外のオンコール対応、緊急対応もOKな方
案件内容

グループ会社で既に導入済みのクラウドデータウェアハウス Snowflake を活用し、お客様が求めるアウトプットを効率的に導き出すためのデータ基盤を構築するプロジェクトです。

具体的には、Snowflake と Amazon S3 に格納された各種データを整理・統合し、ビジネスニーズに合致したデータマートの設計および構築を推進いただきます。これにより、お客様が迅速かつ正確にデータ分析を行い、意思決定に繋げられるよう、データ活用を強力に支援します。

必須スキル
・データウェアハウス設計の経験: Snowflake、または他の主要なDWH(Redshift, BigQueryなど)での設計・構築経験。
・SQL・データ操作: 大規模データに対する複雑なSQLを用いたデータ抽出、加工、変換の実務経験。
・データパイプライン構築経験: データフローの設計、ETL/ELTツールの選定・実装経験(例:dbt、Airflowなどの知識があれば尚可)。
・セキュリティ・ガバナンスに関する知見: データアクセス制御、プライバシー保護、監査ログなど、データセキュリティとガバナンスに関する知識と実践経験。
案件内容

7月以降のデータ分析基盤の高度化に向けた提案、およびその根拠となる現状のアセスメントを実施いただく方を募集します。

アセスメントは、以下を実施いただきます。

  1. BIで出力しているデータの課題と解決方針:
    ・出力データの定義、加工プロセス、データ取得元の整理
    ・上記に関する課題の洗い出しと具体的な解決方針の策定
    ・例:ユーザー数増加に向け、新規入会画面フローにおける離脱ポイントの具体的把握ができていない、等
  2. システム DB ・ DWH から BI 出力の処理プロセスの課題と解決方針:
    ・現状の処理プロセスに関する課題の洗い出しと具体的な解決方針の策定
必須スキル

・Google Cloud (特に BigQuery , Looker Studio ) を活用したデータ分析基盤の設計・構築・運用経験
・データ分析基盤に関するアセスメント、課題分析、改善提案の経験
・データモデリング、データパイプライン設計・構築スキル
・SQL を用いたデータ抽出・加工・分析スキル
・BI ツールを用いたデータ可視化、レポーティング経験
・システム構成、処理プロセスに関する課題発見・解決策提案能力
・ドキュメンテーション能力(アセスメント報告書、提案書作成等)
・コミュニケーション能力(ヒアリング、報告、調整等)
・工数見積もり、プロジェクト計画の作成の経験

案件内容

・クライアントが提供するオンラインPAYMENTサービスを通じた招待制の資金調達サービスで、
将来も含めた売上などを元に調達資金を決定、融資するサービスがある。
そのサービスに付随したクライアント独自のデータをもとにした与信管理システムを実装予定。

作業内容
・BigQueryを用いて、データ集計、分析(SQL作成)
・データ構成検討
・ワークフローパイプラインの策定、改修(VertexAI)
・クレジットサービスは与信実装を予定しているため、その分析も含む

<チーム体制>
・与信管理T:4名
・モニタリングT:3名

必須スキル
・GCP環境での開発経験
(IAM、Terraform、CloudRun、VertexAI)
・コンテナ経験
・Linux開発経験
・BQ(SQL)データマート作成経験があるとよし
・python
・DBT
・シェル
案件内容

・ECアプリケーション運営企業様におけるバックエンドエンジニアとしてご参画いただきます。
・コマースシステムの開発や、ゲームなどのエンターテインメント領域の開発、toB向け管理画面のバックエンドの
 いずれかの領域に携わっていただきます。

【技術環境】
・言語:Go
・API:Protocol Buffers, gRPC
・インフラ: Google Cloud (Cloud Run, Cloud Firestore, Cloud Spanner, etc.)
・CI/CD:GitHub Actions, Cloud Build
・構成管理: Terraform
・モニタリング:Cloud Monitoring, Cloud Logging, Cloud Trace
・分析:BigQuery, Looker
・その他:Notion, JIRA, Slack

必須スキル
・Goを用いた開発のご経験
・WEBアプリケーションの開発経験3年以上
・AWS、GCPなどクラウド環境下での開発経験
・チームで開発されたご経験

検索結果322件中1-10件