BigQueryの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:229

BigQueryの案件を探す

案件内容

・金融SaaSサービス運営企業におけるデータサイエンティストとしてデータ解析及び機械学習モデルの活用に携わっていただきます。
・データの前処理、特徴量エンジニアリング、モデル構築・評価おびよび改善
・機械学習モデルのパフォーマンス最適化
・プロダクト内および社内へのAI導入

   

・開発言語:Python、Typescript
・機械学習・統計モデリング:scikit-learn、LightGBM、pandas、numpy etc.
・クラウドプラットフォーム:Google Cloud Platform
・分析基盤:BigQuery
・アプリケーション:Next.js、FastAPI
・構成管理ツール:Terraform、Cloud Build
・データモデリング:Dataform
・データビジュアライゼーション:Metabase/Redash
・その他:Docker、GitHub、Slack、Github Copilot etc.

必須スキル
・BigQuery / Cloud StorageなどGoogle Cloudを用いたデータ分析のご経験
・Google Cloudを用いたデータ基盤の構築・運用のご経験
・Pythonを用いた機械学習モデル実装のご経験
・scikit-learn / LightGBMなど、機械学習におけるライブラリやフレームワークのご利用経験
案件内容

国内外の様々なお客様にSnowflakeの導入とそれに伴うデータ活用の支援
-Snowflakeの導入コンサルティング
-Snowflakeを中心としたデータ基盤の開発支援、データ活用支援
-Snowflakeや周辺技術領域(モダンデータスタック)の情報収集、技術検証
-データ基盤やデータエンジニアリングに関する技術情報発信

必須スキル

-RDBMS製品(Oracle、 PostgreSQL、MySQL等)または
DWH製品(Teradata、Redshift、BigQuery等)または
データレイク製品(Hadoop/Spark、EMR等)に関する開発経験

-クラウド(AWS、Azure、GCP等)に関する開発経験
-基本的なSQLまたはPythonのコーディングスキル
-論理的思考、ドキュメンテーションのスキル

案件内容

社内データ基盤の活用を推進するため、BIレポートの設計・開発からデータマートの構築までを一気通貫で担当いただきます。 単なる開発作業にとどまらず、社内ステークホルダーからの要望ヒアリングや要件定義、運用マニュアルの作成、問い合わせ対応など、ディレクション業務も並行して行っていただくポジションです。
・BIレポート・セマンティックモデルの設計および開発
・データマート(DWH)の設計・開発
・BI活用に関する社内問い合わせ・改善要望の整理、対応
・各種運用マニュアル、ドキュメントの作成
・ビジネスサイドの意思決定を支援するアドホック分析の実施

必須スキル

・SQLを用いたデータ集計・分析の実務経験
・RDB(MySQL, PostgreSQL, BigQuery, Snowflake等)におけるテーブル設計の実務経験
・事業会社またはクライアント先での案件ディレクション、ステークホルダーとの折衝経験
・Python等のプログラミング言語を用いたデータ処理の基礎知識

案件内容

■具体的な業務内容
基盤の運用改善および次世代データ基盤の要件定義、設計、構築を担当して頂きます。

■具体的な業務内容

  • 現行基盤の課題整理および改善方針の策定
  • 次世代データ基盤の要望・要件整理・設計
  • 技術・ツール選定、比較検討
  • パフォーマンスチューニング
  • キャパシティプランニング
  • CI/CDパイプラインの改善
  • 新規パイプラインの構築、旧パイプラインの閉鎖
    ※社内のデータ基盤ユーザーとのコミュニケーションが発生。
    ※リーダー、メンバーおよび関係各所に対する実装方針・技術選定結果などの説明が発生。
    ※会議におけるファシリテーションなどが発生。

■求める人物像
・円滑なコミュニケーション能力を有している方
・抽象的な問題を整理し、具体的な課題解決へ落とし込む能力を有している方
・自立的に課題解決に取り組んで頂ける方

必須スキル
・クラウド環境(AWS/Google Cloud)を用いた5年以上のデータ基盤構築/運用経験(Lambda、Cloud Run Functions、Cloud Storage、 S3、Compute Engine、Cloud SQL, BigQuery、EMR、RDS、Redshift、 Athena、Airflow、Dataformなどを使用する開発経験)
・データベースの管理経験
・データモデリングの経験
・データベースの最適化、キャパシティプランニングの経験
・TableauやLooker StudioなどのBIツールの利用経験
・並列分散処理に関する基本的な知識
・Linux、Docker、ネットワークの基礎知識
・IaC(terraform)を利用したインフラリソースの管理経験
・Github,Gitを利用したコード管理・チーム開発経験
案件内容

基盤の運用および改善業務を担当して頂きます。

■具体的な業務内容

  • ユーザーからの依頼および問い合わせ対応
  • テーブル・ビュー追加/改修作業
  • データ閲覧権限管理作業
  • データパイプライン運用/改修作業
  • Google Cloud設定変更作業
  • 技術調査/検証作業
  • その他運用改善に伴うツール開発/改修業務
    ※社内のデータ基盤ユーザーとのコミュニケーションが発生します

■求める人物像
・円滑なコミュニケーションが取れる方
・能動的に仕事に取り組める方

必須スキル
・Pythonもしくはオブジェクト指向、スクリプト言語の経験
・SQLの実用的・高度な知識とリレーショナル データベース、クエリ作成 SQL の操作経験
・Linux、Docker、ネットワークの基礎知識
・IaC(terraform)を利用したインフラリソースの管理経験
・Github,Gitを利用したコード管理・チーム開発経験
・3年以上のデータ分析基盤に関する業務経験
・Google Cloudでのデータ基盤運用経験
案件内容

Googleスプレッドシートに保存された広告データを、BigQueryに取り込み、Looker Studioにて可視化・レポート作成を行う支援業務。BigQuery環境の利用が前提
Fivetranを使用したデータ統合の自動化

必須スキル

・BigQueryを用いたデータ連携・加工経験
・Looker Studioでのダッシュボード作成経験
・スプレッドシートとのデータ連携知識(GAS実務経験)

案件内容

AIエージェント化、セマンティックモデル、データカタログ整備を横断的に実行し、検証~運用をドライブして経営に寄与する示唆創出を実現する。

技術者ランク:リーダ・サブリーダ相当

必須スキル

・データ分析の自走経験
目的設計、EDA、可視化、要因分析、予測、レポーティング、とここまでの手順のドキュメント化まで独力で推進できる
・Snowflake, BigQuery, Amazon Athena, Databricks, Oracle Analytics等データ分析基盤の実務経験
データ分析の推進を目的としたデータ分析基盤の基本検討、構築、運用いずれかの経験
・データベース知識
データ分析基盤検討に必要な設計を理解し、DBやSQL等のクエリ操作ができること
・ステークホルダー調整力
関連組織とのデータ調達・優先度策定・進捗/リスク管理
・案件を独力で推進できる、またはメンバーを指揮してプロジェクトをリードした実務経験

案件内容

主にマルチクラウド環境(AWS/GCP)のデータ基盤構築と整備、およびデータ活用のための前処理開発を担当いただきます。

データ基盤構築・統合:
現在AWSとGCPに分散しているデータ基盤を、BigQuery上への統合(一元化)を目指す構築作業が主。
データベース型サイト(5〜10サイト、大規模データ)の分析基盤の設計、保守、セキュリティ対策。

データパイプライン開発:AWSとGoogle Cloudの両方からデータを接続するデータパイプラインの設計・実装。
データソース(アクセスログ、AWS S3上のマスターデータ等)の接続設定。

データ前処理・加工(データマート構築):
データ抽出、グルーピング、定義付けなど、分析用データマートの部分の加工・実装。

運用・保守:
構築後のメンテナンス費用やセキュリティまで考慮した管理体制の提案・構築。
フェーズ: プロジェクトはこれから始まる段階(現時点では知見の少ないメンバーで対応中)。

ELTについて:
Google Cloud内の機能でELTを内製
データ抽出:SQL
変換:SQL or Python
格納:BigQuery

必須スキル
クラウド: AWSとGoogle Cloud (GCP)の両方のデータ領域に精通していること。
DWH/ETL: BigQueryを用いたデータ基盤構築、およびデータパイプラインの設計・実装経験。
データ処理: データの前処理(データマート構築)や加工、抽出パターン、グルーピング定義を理解し、実装できること。
コミュニケーション能力が高く、指示に対して一人称でロジカルに作業を進められるミドル以上の経験。
案件内容

時系列データを対象とした予測モデルおよび因果推論モデルの構築・評価を行う業務。
具体的には、ビジネス課題に応じたアルゴリズム選定から、データ前処理・特徴量設計、モデル構築・評価、結果解釈までを一貫して担当。
また、SHAPなどの説明可能AI(XAI)手法を用いて、モデルの特徴量寄与度を可視化・検証する。
加えて、時系列データにおける構造的因果推論(因果効果の特定や介入シミュレーション)を実施し、意思決定支援に繋げる。

必須スキル
Pythonを用いた機械学習モデルの構築経験
時系列データ分析・予測モデルの実務経験
特徴量エンジニアリング・多重共線性対策の実務経験
機械学習アルゴリズム(線形回帰、ツリーモデル、時系列モデルなど)への理解
構造的因果推論(SCM、DoWhy、causal impact など)の実務経験
案件内容

・2,000万人近いアクティブユーザーを抱える化粧品サイト運営企業において、データエンジニアとしてご稼働いただきます。
・商用稼働サー眉宇のデータパイプライン構築・運用及び、日々の運用業務から発生する課題解決・改善をご担当いただきます。

◆主な開発環境・ツール
・BigQuery
・Docker
・dbt
・Composer
・ GitHub

必須スキル
・BigQuery上でのデータモデル設計・構築のご経験
・dbtを用いたデータパイプラインの設計・実装のご経験
・Composer、BigQueryを用いた分析基盤構築・運用のご経験

検索結果229件中1-10件