Snowflakeの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:61

Snowflakeの案件を探す

案件内容

・某社向けデータ分析のためのデータ処理基盤の開発・保守・運用・機能追加

主な使用ツール、サービス:
・Snowflake, BigQuery などの DWH
・Embulk などの ETL ツール
・Hightouch などの Reverse ETL ツール
・AWS, GCP の各種サービス(S3, EC2, Step Functions, …)
・さまざまなBIツール

必須スキル
・Linux 環境での開発経験
・AWS, GCP などクラウドを使用した開発やインフラ設計・構築の経験
・SQL が実践レベルで書けること(3年以上の実務経験)
・Python, Java, PHP いずれかの言語での開発経験が3年以上
・スピード感が求められる作業が多いので、報告や相談などのコミュニケーションがスムーズにできること
案件内容

デジタルマーケティングツールやデータ分析ツールへのデータ投入のための ETL 準備、実装を行います。

作業内容:
・某社向けデータ分析のためのデータ処理基盤の開発・保守・運用・機能追加

必須スキル
・Linux 環境での開発経験
・AWS, GCP などクラウドを使用した開発やインフラ設計・構築の経験
・SQL が実践レベルで書けること(3年以上の実務経験)
・Python, Java, PHP いずれかの言語での開発経験が3年以上
・スピード感が求められる作業が多いので、報告や相談などのコミュニケーションがスムーズにできること
案件内容

 データ分析基盤(データクリーンルーム)の設計/開発へ参画いただきます。
 既存のデータ分析基盤案件を対応しているチームをベースに、
新しくData Engineeringチームの設立を行う予定で、その構成メンバーを募集しています。
 Data Engineeringチームの主な活動は、同社が対応を進めているデータベース、
クラウドベースのDWH案件の各種開発サポート、アドホック対応、
PoC対応など全般を各種案件チームの一員としてご対応いただきます。
 状況によって、開発されたデータベース、データウェアハウスの検証作業も担当いただきます。
 対応すべき案件の幅が広いことから、幅広いご経験と知見を必要としますが、
案件の開発状況に対し、リーダーからメンバー適正に合わせた業務割り振りを行います。
 その為、専門分野でない未経験領域への挑戦意欲や、新しいテクノロジーに対する
学習意欲の高い方が求める人物像となります。

必須スキル
 ・SQLを用いたDB構築経験 ⇒ 
 ・下記いずれかのロール経験 ⇒ 
  (データエンジニア、データアナリスト、データベースエンジニア、アナリティクスエンジニア)
 ・下記いずれかのクラウドベースのデータウェアハウスの利用スキル ⇒ 
  (Snowflake、Amazon Redshift、BigQuery、Azure Synapse Analytics)
 ・様々な種類のデータ(構造化/非構造化)を扱った経験 ⇒ 
 ・データインジェスト、データパイプライン、ETL、ELT、データモデルの概念の理解 ⇒ 
 ・リレーショナルおよびディメンショナルデータ構造、理論、実践に関する知識 ⇒ 
案件内容

デジタルマーケティングツールやデータ分析ツールへのデータ投入のための ETL 準備、実装を行います。

作業内容:
・某社向けデータ分析のためのデータ処理基盤の開発・保守・運用・機能追加

必須スキル
・Linux 環境での開発経験
・AWS, GCP などクラウドを使用した開発やインフラ設計・構築の経験
・SQL が実践レベルで書けること(3年以上の実務経験)
・Python, Java, PHP いずれかの言語での開発経験が3年以上
・スピード感が求められる作業が多いので、報告や相談などのコミュニケーションがスムーズにできること
案件内容

FY2023末に現行DWH移管、共通IT基盤への切替を計画している。
お客様の各部門でBIツール(Tableau)導入が進んでおり、共通IT基盤等のデータを活用した全社データ活用基盤を構築することを目標としている。
現在、フェーズ1(案件目的整理、ロードマップ策定、グランドデザイン策定)をやっており、8月からのフェーズ2(全社将来像整理、データ活用基盤PoC検討/要件定義、データ分析基盤検討/要件定義)から参画の要員を募集している。※PJチームが増え規模が大きくなるためフェーズ2は8月〜10月でスケジュールをひいているが、後続フェーズも控えているため契約更新想定。

必須スキル
・データ活用基盤導入経験
・データマネジメント
・Snowflake、Tableauに関する知見(当PJで導入予定のため)
※Snowflake自体の経験がなくても、データ利活用の知見があればそちらのスキルを優先
・プロジェクト推進(チームが増えるため、全体を見据えてチーム間のやり取りをする必要がある)
案件内容

デジタルマーケティングツールやデータ分析ツールへのデータ投入のための ETL 準備、実装を行います。

作業内容:
・某社向けデータ分析のためのデータ処理基盤の開発・保守・運用・機能追加

必須スキル
・Linux 環境での開発経験
・AWS, GCP などクラウドを使用した開発やインフラ設計・構築の経験
・SQL が実践レベルで書けること(3年以上の実務経験)
・Python, Java, PHP いずれかの言語での開発経験が3年以上
・スピード感が求められる作業が多いので、報告や相談などのコミュニケーションがスムーズにできること
案件内容

【業務内容】
大手広告代理店が展開しているインターネット広告代理店業における、膨大な広告データを収集・蓄積したデータレイクからデータを展開するためのデータ基盤(ETL処理、DWH、DM)の開発、運用、保守をお願いします。

【ポイント】

  • データレイクが取り扱うデータ量は数十TB/月を誇り、毎日数10億単位のレコードを蓄積しているため、そんな大規模データと向き合った開発にチャレンジすることができます。
  • 複数のプロダクトを管理しているチームのため、様々な技術を習得することができます。

【開発チームと配属先について】
当事業部には現状で約60名のエンジニアが在籍しており、複数のチームに分かれて開発を進めています。
今回お願いしたいポジションはサーバサイドエンジニアです。

チームには現在18名のエンジニアが在籍しています。
また、複数のプロダクトを管理しているチームのため、担当領域ごとにグループ分けをしています。

  • Infeed領域の広告運用のためのプロダクトを開発するグループ
  • インターネット広告関連データをデータレイクに蓄積するシステムを開発するグループ
  • インターネット広告関連データが蓄積されたデータレイクを用いたデータ基盤を開発するグループ
  • 機械学習を用いたプロダクトを開発するグループ
  • 掲載情報や実績情報を出力・レポーティングするための分析用プロダクトを開発するグループ

【技術キーワード】

  • ApacheSpark
  • AWS Glue
  • Snowflake
  • データレイク/データウェアハウス/データマート
必須スキル
– Scala,Java,Pythonなどを用いた開発経験 3年以上
– ApacheSpark,PySparkなどを用いたETL処理の開発・保守経験 1年以上
– SQLを用いた開発経験 3年以上
– AWSを利用した開発経験
– Dockerなど、コンテナ技術を利用した開発経験
– GitHubでのPRを利用した開発経験
案件内容

データ分析基盤の開発・構築を行なっていただきます。

必須スキル
・BigQuery、Redshift、Hadoop、Snowflakeなどの分散データ基盤の利用経験
・アプリケーション開発経験 または ETL/ELTツールを利用した開発経験
・RDBMSの利用経験
案件内容

全国展開の小売データの基幹システム開発となります。

主にpython、AWS各種サービスを使用し製造~テストをメインに担当いただきます。
対応可能であれば設計~もお願いしたいです。

必須スキル

・python、SQLの経験2年以上+他のシステム開発経験者

案件内容

製薬企業がマーケティングやMEDICAL AFFAIRS活動のために使うことができる
医療ビッグデータの機能開発・運用保守をご担当いただきます。
主な業務内容
・新規機能開発
・運用保守開発
・問い合わせ対応、データ抽出業務
・その他PDCA実施

技術スタック:
・LOOKER
・TABLEAU
・BIGQUERY
・DATAFORM
・AWS(ROUTE53, ALB, S3, CLOUDFRONT, ECS ETC)

必須スキル
・LOOKERやTABLEAU等のBIツールを用いだダッシュボードの開発・運用経験
・BIGQUERYやEMBULKを利用したデータ分析基盤の開発・運用経験
・その他一般的なWEBアプリケーション開発の知識

検索結果61件中31-40件