BigQueryの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:223

BigQueryの案件を探す

案件内容
内容:
大きく以下3つの業務をお任せします。
 ①部門内のデータ民主化PJTのプロジェクトマネジメント
 ②非テック人材への基礎的なSQLやBIツール利用方法のレクチャー ※BIはGoogle Data PortalとTableauを利用
 ③各チームのKPI設計とダッシュボード要件検討の支援
開発環境:
・インフラ:GCP(データ関連)/ AWS(ユーザー向けサービス)
・ETL:CloudComposer (Airflow)
・サーバーレス環境:GAE / CloudRun
・インフラ管理:GKE / Docker
・DWH:BigQuery
・監視:Stackdriver
・可視化ツール:Data Studio / Tableau
・分析環境:Jupyter Notebook
・その他:GitHub / Slack / Qiita:Team
必須スキル

・業務改善を中心としたプロジェクトマネジメントの豊富な経験 (目安は3年以上)
・データ分析の実務経験 (基礎集計レベルでも可)
・KPI設計の実務経験
・BIツールなどでのデータ可視化の実務経験

案件内容
【作業内容】
IOT データなどから GIS ツールで車の利用実態を可視化、
また、販売及びファイナンスデータなどを紐づけて、個別の利用実態を深堀分析した上で、
上記の新施策や新企画の市場可能性を「データ分析」の側面から検討します
特に、分析の素養を持ちながら、開発・データマネジメントに強い方を探しています
言語:SQL、Excel、PowerPoint
必須スキル

・GCP 上での SQL/BigQuery 等によるビッグデータの加工(かなりのデータ規模予定)

案件内容 クライアント:小売業(衣料品) データレイク構築に伴うデータチェック、データ整理、可視化等の業務
必須スキル

・BigQueryの実務経験
・Pythonの実務経験
・データ前処理についての実務経験

案件内容
■内容:
大手不動産会社にある様々な課題や経営戦略・営業戦略に活かすためのデータの集計・分析設計、分析業務。
以下のようなデータがあり、それを適切に管理し前処理から分析業務まで行います。
ex,
・貸しオフィスのユーザー利用履歴
・飲食、ファッションなどの顧客購買履歴
・イベント(催し物)活動データ 等
分析テーマは(基本的に)決められており、
それに対して、どのようなデータが必要か、どう集めるか、どう分析するか
など求められます。
分析アナリスト業務ができ、かつデータ管理における設計やマネジメントなど
幅広く理解している方を求めています。
必須スキル

・Pythonを使った分析経験
・Treasure Data
・GCP

案件内容
■業務内容
・各サービスの共通基盤の構築
・各サービスの共通モニタリング基盤の構築/監視
・データレイクの基盤構築/監視/運用
・アーキテクチャの刷新から実装業務
・マイグレーションの計画から実施
主な技術スタック
 クラウドサービス:AWS,GCP
 AWS:ECS,SQS,SNS,Lambda,S3,Cloud Front,Batch,Secrets Manager,Polly,RDS,ElasticSearch Searvice...
 仮想化基盤:Docker
 オーケストレーション:Kubenetes
 OS:CentOS,AmazonLinux
 ミドルウェア:Nginx,MySQL,ElasticSearch
 プロビジョニング:Terraform,Packer,Ansible
 監視:Mackerel,NewRelic,Sentry,Datadog
 分析基盤:fluentd, igQuery,Google Data Portal(旧Google Data Studio)
 開発環境:Mac,GitHub,JIRA,Confluence,Jenkins,Slack,Hubot
 使用言語:Java,Scala,Go,Python,JavaScript,Bash.
必須スキル

・Infrastructure as a Codeベースの思想がある方
・Docker/コンテナ化の経験
・上記思想の元でのSRE経験が1年以上ある方
・事業会社での業務経験が5年程度以上ある方
・Infrastructure as a Codeに関わる業務(Docker、Terraform、Ansibleなどの経験)

案件内容
■業務内容
・各事業の開発、デプロイ業務を自動化
・CI/CDなどのフロー整備、自動化
・障害発生時に自動で修復するための仕組みの開発
・信頼性、可用性を向上させるソフトウェアの開発
・各事業部の単一障害点や、その他のリスクの高いアーキテクチャの問題の特定、より良い解決方法を提案/実装
・ソフトウェアの更新やセキュリティ脅威への対応
・問題を解決するための標準的な運用手順の作成/更新
主な技術スタック
クラウドサービス:AWS,GCP
AWS:ECS,SQS,SNS,Lambda,S3,Cloud Front,Batch,Secrets Manager,Polly,RDS,ElasticSearch Searvice...
仮想化基盤:Docker
オーケストレーション:Kubenetes
OS:CentOS, AmazonLinux
ミドルウェア:Nginx, MySQL,ElasticSearch
プロビジョニング:Terraform,Packer,Ansible
監視:Mackerel,NewRelic,Sentry,Datadog
分析基盤:fluentd,BigQuery,Google Data Portal(旧Google Data Studio)
開発環境:Mac,GitHub,JIRA,Confluence,Jenkins,Slack,Hubot
使用言語:Java,Scala,Go,Python,JavaScript,Bash...
必須スキル

・コンテナ化の経験
・コンパイル言語でのCIおよびデプロイ自動化経験
・事業会社での業務経験が3年以上
・Infrastructure as a Codeベースの思想
・CI及びデプロイ自動化経験
・クラウドネイティブの知見
・Intrastructure as a Codeに関わる業務(Docker, Terraform, Ansibleなどの経験)

案件内容
【概要】
BIツールのダッシュボードの作成を加速させるための募集となります。
各部署からダッシュボードの作成依頼が来るので、要件を確認しながら、ダッシュボードの作成を行って頂きます。
【主な業務】
・BIツール上でのダッシュボードの作成
・BigQueryを使ったデータ集計
必須スキル

・SQLに関する知識(結合・集約関数・分析関数)
・データベースに関する知識
・BIツールのダッシュボード作成の経験
・ETLツールを使用したデータ統合、データクレンジング経験

・BIツールはDomoを使用しています。タブローなどの経験のある方も歓迎です。

案件内容
内容:
サイトのCV率を上げるための分析案件となります。
分析対象データがBigQueryにあり、そこで集計。
その先のデータ加工にpythonが必要になります。
必須スキル

SQL、Python経験

案件内容
内容:
サービスを含む多種多様なデータを収集、蓄積、提供するデータ基盤の開発をお任せします。
具体的には下記の業務をお任せします。
・データパイプラインの設計 (リアルタイム処理、バッチ処理の両方)
・データ基盤全体のアーキテクチャ設計
・リアルタイムにデータを収集するサーバーアプリケーションの開発 (GAE + Go言語で開発中)
・データを提供するサーバーアプリケーション(主にAPI)の開発 (Go言語で開発中)
・各種サービス(自社サービス及び外部サービス)データのETL (日次バッチ処理)
・分析環境と機械学習環境の構築 (例:Dockerを用いたJupyter環境の構築)
開発環境:
・インフラ:GCP(データ解析基盤)/ AWS(ユーザー向けサービス)
・分析基盤:BigQuery / Data Portal / Tableau
・監視:Stackdriver Logging / Stackdriver Monitoring / Stackdriver Trace
・データ基盤:GAE / GCS / Datastore / Pub Sub / Dataflow
・その他:GitHub / Slack / Qiita:Team
必須スキル

・データパイプラインの設計 (リアルタイム処理、バッチ処理の両方)
・データ基盤全体のアーキテクチャ設計
・リアルタイムにデータを収集するサーバーアプリケーションの開発 (GAE + Go言語で開発中)
・データを提供するサーバーアプリケーション(主にAPI)の開発 (Go言語で開発中)
・各種サービス(自社サービス及び外部サービス)データのETL (日次バッチ処理)
・分析環境と機械学習環境の構築 (例:Dockerを用いたJupyter環境の構築)

検索結果223件中201-210件