BigQueryの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:237

BigQueryの案件を探す

案件内容

クライアント内で構成されているOSSアプリケーションの仕様を把握し、それぞれの連携を行い、データ基盤そのものを構築いただきます。

技術要素
GoogleCloud
Cloud Composer2(及びAirflow2)
Cloud Dataproc(Apache Spark(scala))
Cloud Build
Cloud Storage
BigQuery
Cloud Monitoring / Cloud Logging
AWS
Kinesis firehose
SQS / SNS
ECS
Lambda
ECR
S3
Cloud Watch
その他
GithubActions
Terraform

必須スキル
・アプリケーション仕様の理解力とシステム設計能力が高い方
・Pythonを利用したデータ分析/開発経験
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux / ネットワークの基礎知識
案件内容

概要:
配送拠点での人員管理の目的のため、需要予測モデルを構築する業務になります。まずPoCを行なって精度検証・報告までとなります。

業務:
・モデル設計、構築
・データ加工、学習検証
・精度改善調査
・ドキュメント作成

体制:
2名体制
PM1名
DS1名(当該募集)

必須スキル
・Python・SQL
・LightGBMなどによる予測モデルの構築経験
・モデルに投入する特徴量データ集計のパイプライン構築経験
案件内容

デジタルマーケティングツールやデータ分析ツールへのデータ投入のための ETL 準備、実装を行います。

作業内容:
・某社向けデータ分析のためのデータ処理基盤の開発・保守・運用・機能追加

必須スキル
・Linux 環境での開発経験
・AWS, GCP などクラウドを使用した開発やインフラ設計・構築の経験
・SQL が実践レベルで書けること(3年以上の実務経験)
・Python, Java, PHP いずれかの言語での開発経験が3年以上
・スピード感が求められる作業が多いので、報告や相談などのコミュニケーションがスムーズにできること
案件内容

・事業成長のための最も重要な課題の発見、整理、解決
・オペレーション、マーケティング、事業推進、ハードウェアなど各チームの課題解決のための分析設計、データ分析、データ可視化、ダッシュボード設計
・モニタリング基盤の構築、メトリクスの設計
・プロジェクトの実証設計、仮説検証、機械学習プロジェクト等の設計・実行

必須スキル
【SQL】
・基礎的な文法(SELECT, JOIN, GROUP BYなど)と、BigQuery の集計関数、JSON関数などを用いて必要なデータを取り出し、集計できること
【ビジネス】
・仮説設定・検証スキル(ABテスト構築や、適切な指標設計など、論理的・定量的に仮説検証を進められること)
案件内容

【業務内容】
大手広告代理店が展開しているインターネット広告代理店業における、膨大な広告データを収集・蓄積したデータレイクからデータを展開するためのデータ基盤(ETL処理、DWH、DM)の開発、運用、保守をお願いします。

【ポイント】

  • データレイクが取り扱うデータ量は数十TB/月を誇り、毎日数10億単位のレコードを蓄積しているため、そんな大規模データと向き合った開発にチャレンジすることができます。
  • 複数のプロダクトを管理しているチームのため、様々な技術を習得することができます。

【開発チームと配属先について】
当事業部には現状で約60名のエンジニアが在籍しており、複数のチームに分かれて開発を進めています。
今回お願いしたいポジションはサーバサイドエンジニアです。

チームには現在18名のエンジニアが在籍しています。
また、複数のプロダクトを管理しているチームのため、担当領域ごとにグループ分けをしています。

  • Infeed領域の広告運用のためのプロダクトを開発するグループ
  • インターネット広告関連データをデータレイクに蓄積するシステムを開発するグループ
  • インターネット広告関連データが蓄積されたデータレイクを用いたデータ基盤を開発するグループ
  • 機械学習を用いたプロダクトを開発するグループ
  • 掲載情報や実績情報を出力・レポーティングするための分析用プロダクトを開発するグループ

【技術キーワード】

  • ApacheSpark
  • AWS Glue
  • Snowflake
  • データレイク/データウェアハウス/データマート
必須スキル
– Scala,Java,Pythonなどを用いた開発経験 3年以上
– ApacheSpark,PySparkなどを用いたETL処理の開発・保守経験 1年以上
– SQLを用いた開発経験 3年以上
– AWSを利用した開発経験
– Dockerなど、コンテナ技術を利用した開発経験
– GitHubでのPRを利用した開発経験
案件内容

データ分析基盤の開発・構築を行なっていただきます。

必須スキル
・BigQuery、Redshift、Hadoop、Snowflakeなどの分散データ基盤の利用経験
・アプリケーション開発経験 または ETL/ELTツールを利用した開発経験
・RDBMSの利用経験
案件内容

データパイプラインの構築エンジニア
主業務:要件に合わせルールに則ったデータモデリングを行い、各基盤のツール群を使ってデータ加工するパイプラインバッチの構築を担当いただきます。

技術要素(★が特に重要)
GoogleCloud
★Cloud Composer2(及びAirflow2)
★Cloud Dataproc(Apache Spark(scala))
Cloud Build
Cloud Storage
BigQuery
Cloud Monitoring / Cloud Logging
AWS
★Kinesis firehose
★SQS / SNS
★ECS
★Lambda
ECR
S3
Cloud Watch
その他
GithubActions
Terraform

必須スキル
・データモデリング力とバッチ設計能力が高い方
・Pythonを利用したデータ分析/開発経験
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux / ネットワークの基礎知識
案件内容

●案件:管理システム追加開発
●内容:
・管理システムのクラウド化に伴いオンプレ環境からクラウド環境にシフトします。
管理パッケージはOracle EMP Cloudです。
●工程:基本設計~総合テスト
●場所:フルリモート ※打合せで目黒駅にご出社頂く場合がございます。

必須スキル
・詳細設計から一人称で対応可能
・PL/SQL、ストアドにてデータ作成経験
・ETL データロジックを理解できる方
案件内容

概要 :
昨年度まで少人数での事業運営を行ってきたが、近年、電子書籍業界の大きな成長が見られる中で、今年度より強化事業の位置付けとなった。高い目標を掲げるとともに、大幅な人員増加を行っている。
事業ゴール達成に向けて、プロダクト開発や、プロモーションおよび編成(WEBやアプリ上での書籍の掲載)の施策効果の最大化・効率化を目的とし、PDCAサイクルを日々回せるよう、以下を整備したい
・WEB、アプリの主要指標の見える化  (KPIツリー、ダッシュボード整備)
・WEB~アプリ横断でのユーザーの購買行動のモデル化  (コホート分析、ファネル分析など)
・ユーザーセグメント、コンテンツ群の優先度 見える化

対応業務(ミッション) :
[1] 計測環境整備(0.5人月程度)
WEB/アプリ横断のクロスプラットフォーム分析を目的とし、主に、Google Analytics 4により安定的な計測環境の整備がミッション
20名ほどの社員からなる事業運営チームの中で、分析チームの支援を行う。分析チームは、5月より7名からなるチームであるが、WEB/アプリ計測スキルを持つ人員が不足している。
WEB/アプリともに計測タグの整備が行き届いていない箇所があり、ユーザー行動の把握や、ユーザーセグメントごとの購入商品の分析などが着手できていない。

求める人物像 :
・お客様目線で市場トレンドやユーザー動向をもとに、新たなアイディアを出したりチャレンジできる方
・社内外の関係者と良好な関係を構築し、複数部署が関わるプロジェクトに対応できる方

必須スキル
・Google Analytics 4 によるWEB/アプリ横断のクロスプラットフォーム分析スキル・経験
 ※ ただし、実装は別メンバー
・ダッシュボード作成(GA4探索レポート, LookerStudio など)
・ドキュメント作成スキル(powerpoint, confluenceなど)
・コミュニケーションツール(Slack中心、microsoft Teams)
案件内容

【概要】
・広告配信における傾向の分析及び、異常の検知
・WEB広告の種別、サイト内での掲載位置、閲覧ユーザーの情報から成果の確認
・ユーザの行動分析を行い、最も効果が高くなる広告を推測する
・Treasure Data等を経由して連携されるユーザーデータの管理
・データパイプラインの保守運用

【開発環境】
Python、PyTorch、Hive、PySpark、PostgreSQL、Apache Airflow
Google Cloud Dataproc、BigQuery、Cloud Composer
GitHub、Slack

必須スキル
・実務でのデータパイプラインを用いたデータ処理経験
・SQL、Linux、Gitの経験
・Pythonを用いた開発経験
・GCP/AWSなどパブリッククラウド上での開発経験

検索結果237件中131-140件