BigQueryの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:166

BigQueryの案件を探す

案件内容 ・分析用データマート開発 ┗ 要件定義、データマート(テーブル)設計、SQL実装、テスト ・バッチ基盤(digdag)の実装、運用保守 ・データエンジニアリング業務 ┗ データの収集、加工、集計 ・データマートの保守運用 ・TableauのViz作成 【概要】 クライアント内のデータサイエンス部署にてデータマート開発実務を担当いただきます。 データマート開発実装をメインにご担当いただきますが、要件定義にてクライアントと直接コミュニケーションを取っていただく必要があります。
必須スキル
・データマート設計
・Redshift、BigQueryでの大量データのハンドリング(SQL実装、データマート設計)経験
・クラウド(AWS、GCP)、オープンソース(digdag、git)
・要件定義
案件内容

データ分析基盤の構築・運用に際し下記業務をご担当いただきます。

・各種システムからのBigQueryへのデータパイプラインの構築、運用

・BigQuery上のデータウェアハウス・データマートの加工処理の構築、運用

   

◆開発環境

・言語 : Python

・データベース : BigQuqery, Aurora MySQL 2.0, Aurora PostgreSQL

・インフラ : AWS (EC2, S3, Lambda etc.) , GCP

・バージョン管理 : git/Github

・CI : CircleCI, Jenkins

必須スキル
・クラウドでのデータ分析基盤の構築、運用経験
・DWH環境の利用経験 例)BigQuery、Redshift、Snowflakeなど
・BigQuery経験 1年
・DWHへのデータパイプラインの運用経験
・SQL経験
案件内容

データ分析基盤の構築・運用をおまかせします
・各種システムからのBigQueryへのデータパイプラインの構築・運用

・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用

   

開発環境言語 : Python,

データベース : BigQuqery, Aurora MySQL 2.0, Aurora PostgreSQL

インフラ : AWS (EC2, S3, Lambda etc.) , GCP

バージョン管理 : git/Github

CI : CircleCI, Jenkins

コミュニケーション : Slack, JIRA, ClickUP, Notion

必須スキル
・GCP、AWSなどクラウドでのデータ分析基盤の構築・運用経験
・BigQuery、Redshift、Snowflake などの DWH環境の利用経験
・DWHへのデータパイプラインの運用経験
・データベースに関する知識とSQLの利用経験
案件内容

データ分析業務支援

・開発ロードマップ対応や個別案件の定量効果だしについてO2O領域のサポート

・O2O関連のテーブル構造理解

・BigQueryを用いたデータ抽出

・Dataポータル用のデータソース証跡やマニュアルのまとめ

必須スキル
・Tableau等のBIツール利用経験
・任意の言語を用いた開発経験
・BigQuery
・GCP
・ドキュメントに作成(調査結果を纏める)
・主体的にプロジェクトを進められる方
案件内容

クライアント(HR系)のデータマネジメント部署にてデータマートの開発およびディレクション業務を担当いただきます。

データ分析/活用プロジェクトへ参画いただき、データエンジニアとしてデータマート開発実装をメインにご担当いただきつつ、データ要件の定義やプロジェクトの進行管理などディレクション業務も一部ご担当いただきます。
【業務内容】

・データ分析/活用プロジェクトの推進

・データマート開発における要件定義、プロジェクトの進行管理

・分析用データマートの開発

 └データマート(テーブル)設計、SQL実装、バッチ(digdag)実装

・データマートの保守運用

必須スキル
・SQL を用いた分析用データマートの設計・開発・運用経験
・Redshift、BigQueryでの大量データのハンドリング経験
・データの可視化・レポーティング経験
・Web システムに関する基本的な理解と業務開発経験
・Git などのバージョン管理システムを活用した開発経験
・データ分析/活用プロジェクトのマネジメント経験
・周囲と適切にコミュニケーションをとりながら抽象的な課題を整理して解決に導く
案件内容

【案件概要】

データ基盤内のコンテンツチーム(お客様のコンテンツ指標を整備、可視化、分析を行い、事業判断やコンテンツ判断にデータ活用を推進する)での稼働を想定。
業務としては、FPA(番組コンテンツごとの収支)システムの改修・運用・保守。
FPA システムは Djangoによる WebApp、Tableau Prep、Tableau(ダッシュボード)で構成される。

【担当業務】

DB設計からSQL実装、Workflowsの実装を行う。
・障害時対応(障害の原因究明)

・SQL実装

・テスト設計

・SQLによるアドホックの調査

・セキュリティ対応

【環境】

Jira, Confluence,BitBucket, Slack

必須スキル
・GCP全般の知識
・SQL
・Cloud SQL(PostgreSQL)
・BigQuery
・Python(Django)
・セキュリティ系の知見
・ネットワーク系の知見
案件内容

【業務概要】

広告クリエイティブの制作プロセスを事前効果予測AIで支援するサービスの新機能開発を担当していただきます。
【開発環境】

Mac, GitHub, GCP
【コミュニケーション・ツール】

Slack, Notion, Google Meet, Zoom, Repsona, Tableau
【システム】

Python / TensorFlow / Triton Inference Server / Docker / Embulk / Argo WorkflowVertex AI / GKE / Cloud Run / Dataflow / GCS / CloudSQL / Memorystore / BigQuery / PubSubCloud Build / Cloud Monitoring
【業務内容】

機械学習モデルを中心とした新しいサービスの設計・開発を担当していただきます

・膨大な広告データのデータエンジニアリング

・画像・動画・テキストを扱う高度な機械学習モデルの学習基盤構築

・機械学習モデルのAPIサービス設計開発と運用

・CI/CD・モニタリング・インフラの調整などの運用

必須スキル
・Python を用いたMLサービスバックエンドの開発経験
・SQL を用いた DB 利用やデータ分析経験
・GAE, GKE, BigQuery, Dataflow 等の各種 GCP サービスの技術選定や利用経験
・GitHubでのPull Requestを利用した開発フロー経験
・Webアプリケーション・ソフトウェア・DB設計経験
案件内容

【背景】

アクセス解析データ/DBデータ/APIデータ等合計600TBのデータ基盤を管理データ基盤を管理・改善する人員が不足しており今回の募集にいたりました。
【お願いしたい業務】

* 運用改善

* データ基盤関連ツールの導入(ELTツール - dataform, データガバナンス - dataplex/DataCatalogなど)

* CDPの構築(店舗向け、ラベル推定/スコア推定など, SFAツールへの連携)
【できればお願いしたい業務】

* 新規データ連携対応(DB - embulk, API - Cloud Run/Pythonによる実装)

* データマート整備(Composerなど)
DWHはbigqueryBIはtableauはtreasuredataにアクセスし可視化しています

必須スキル
* データ基盤構築/運用の経験がある
* BigQuery/RedShiftの知識がある
* インフラ(Linux)の知識がある
案件内容

弊社クライアント(HR系)のデータ事業部にてデータ抽出業務を担当いただきます。

(主に戦略・方針策定のための実態の把握に向けたデータ抽出

クエリの「読み・書き」ができるだけでなく、依頼者側がどのような用件でデータ抽出したいのかを汲み取って使仕様検討・データ抽出ができる方を求めています。
【業務内容】

・基幹データやアクセスログからのデータ抽出

 └新規のSQL作成、既存SQLの調査/改修

・依頼者(事業担当者)との抽出要件の整理、プロジェクトの進行管理

必須スキル
・SQL を用いたデータ抽出経験
・Redshift、BigQueryでの大量データのハンドリング経験
・Web システムに関する基本的な理解と業務開発経験
・周囲と適切にコミュニケーションをとりながら抽象的な課題を整理して解決に導く能力・スタンス
案件内容

【業務内容・稼働イメージ】※ Phase1だけの参画も可。

・Phase1: 5-6月: 60%稼働

 - データマートの整備(Bigquery)

 - データマートのデータを利用して Tableauでの分析環境整備

・Phase2: 7月以降: 20%稼働

 - 週次レポートの作成・報告

 - アドホック分析対応

必須スキル
① SQLを用いたデータベース操作、集計の実務経験(主にBigQuery)
 - 欲しい数値を取得するために必要となるテーブルを選定し、SQLを実行することが出来る
 - 効率や可読性を考慮したSQLを実行する事が出来るとなお良い(分析関数, UDFやクエリスクリプト)
② Tableauの分析環境整備・運用経験
 - 1年以上想定

検索結果166件中81-90件