Redshiftの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:92

Redshiftの案件を探す

案件内容

・既存システムの運用、保守、機能追加
・要件定義~運用テストを想定している

必須スキル
(SE)
・要件定義の経験
・システム開発orWebアプリ開発累計5年程度
(PG)
・システム開発orWebアプリ開発累計3年程度

 

・Python開発経験(2年以上)
・DBを利用した開発経験
・積極性があり、自身で問題解決ができる方
・コミュニケーション良好な方
・リモートワークに慣れた方
・勤怠・健康状態共に良好な方
・日本語で技術的なコミュニケーション及び仕様書が理解できる方
案件内容

デジタルマーケティングツールやデータ分析ツールへのデータ投入のための ETL 準備、実装を行います。

作業内容:
・某社向けデータ分析のためのデータ処理基盤の開発・保守・運用・機能追加

必須スキル
・Linux 環境での開発経験
・AWS, GCP などクラウドを使用した開発やインフラ設計・構築の経験
・SQL が実践レベルで書けること(3年以上の実務経験)
・Python, Java, PHP いずれかの言語での開発経験が3年以上
・スピード感が求められる作業が多いので、報告や相談などのコミュニケーションがスムーズにできること
案件内容

 データ分析基盤(データクリーンルーム)の設計/開発へ参画いただきます。
 既存のデータ分析基盤案件を対応しているチームをベースに、
新しくData Engineeringチームの設立を行う予定で、その構成メンバーを募集しています。
 Data Engineeringチームの主な活動は、同社が対応を進めているデータベース、
クラウドベースのDWH案件の各種開発サポート、アドホック対応、
PoC対応など全般を各種案件チームの一員としてご対応いただきます。
 状況によって、開発されたデータベース、データウェアハウスの検証作業も担当いただきます。
 対応すべき案件の幅が広いことから、幅広いご経験と知見を必要としますが、
案件の開発状況に対し、リーダーからメンバー適正に合わせた業務割り振りを行います。
 その為、専門分野でない未経験領域への挑戦意欲や、新しいテクノロジーに対する
学習意欲の高い方が求める人物像となります。

必須スキル
 ・SQLを用いたDB構築経験 ⇒ 
 ・下記いずれかのロール経験 ⇒ 
  (データエンジニア、データアナリスト、データベースエンジニア、アナリティクスエンジニア)
 ・下記いずれかのクラウドベースのデータウェアハウスの利用スキル ⇒ 
  (Snowflake、Amazon Redshift、BigQuery、Azure Synapse Analytics)
 ・様々な種類のデータ(構造化/非構造化)を扱った経験 ⇒ 
 ・データインジェスト、データパイプライン、ETL、ELT、データモデルの概念の理解 ⇒ 
 ・リレーショナルおよびディメンショナルデータ構造、理論、実践に関する知識 ⇒ 
案件内容

1.新アーキテクチャ対応移行作業(単体テスト、結合テスト、システムテスト)
2.新アーキテクチャ対応移行作業(移行テスト、パフォーマンステスト、運用テスト)
3.既存ソースコードの修正(新アーキテクチャ対応移行作業)(AWS Lambda、AWS Glue)

必須スキル
・Python3 に関する設計・実装経験
・SQL に関する設計・実装経験
・Gitの使用経験
・Shell に関する設計・実装経験
・課題に関する共有と解決
・AWS Lambda(Python3) 全般の知識、設計・開発経験
・Amazon Redshift、S3 全般の知識
案件内容

デジタルマーケティングツールやデータ分析ツールへのデータ投入のための ETL 準備、実装を行います。

作業内容:
・某社向けデータ分析のためのデータ処理基盤の開発・保守・運用・機能追加

必須スキル
・Linux 環境での開発経験
・AWS, GCP などクラウドを使用した開発やインフラ設計・構築の経験
・SQL が実践レベルで書けること(3年以上の実務経験)
・Python, Java, PHP いずれかの言語での開発経験が3年以上
・スピード感が求められる作業が多いので、報告や相談などのコミュニケーションがスムーズにできること
案件内容

デジタルマーケティングツールやデータ分析ツールへのデータ投入のための ETL 準備、実装を行います。

作業内容:
・某社向けデータ分析のためのデータ処理基盤の開発・保守・運用・機能追加

必須スキル
・Linux 環境での開発経験
・AWS, GCP などクラウドを使用した開発やインフラ設計・構築の経験
・SQL が実践レベルで書けること(3年以上の実務経験)
・Python, Java, PHP いずれかの言語での開発経験が3年以上
・スピード感が求められる作業が多いので、報告や相談などのコミュニケーションがスムーズにできること
案件内容

土地・建物に関する情報の収集・クレンジングを行うデータ連携基盤(データレイク/DWH)の構築

必須スキル
・要件定義/基本設計の経験
・①DWH構築
・②データクレンジング
①②いずれかの知識・経験
案件内容

【業務内容】
大手広告代理店が展開しているインターネット広告代理店業における、膨大な広告データを収集・蓄積したデータレイクからデータを展開するためのデータ基盤(ETL処理、DWH、DM)の開発、運用、保守をお願いします。

【ポイント】

  • データレイクが取り扱うデータ量は数十TB/月を誇り、毎日数10億単位のレコードを蓄積しているため、そんな大規模データと向き合った開発にチャレンジすることができます。
  • 複数のプロダクトを管理しているチームのため、様々な技術を習得することができます。

【開発チームと配属先について】
当事業部には現状で約60名のエンジニアが在籍しており、複数のチームに分かれて開発を進めています。
今回お願いしたいポジションはサーバサイドエンジニアです。

チームには現在18名のエンジニアが在籍しています。
また、複数のプロダクトを管理しているチームのため、担当領域ごとにグループ分けをしています。

  • Infeed領域の広告運用のためのプロダクトを開発するグループ
  • インターネット広告関連データをデータレイクに蓄積するシステムを開発するグループ
  • インターネット広告関連データが蓄積されたデータレイクを用いたデータ基盤を開発するグループ
  • 機械学習を用いたプロダクトを開発するグループ
  • 掲載情報や実績情報を出力・レポーティングするための分析用プロダクトを開発するグループ

【技術キーワード】

  • ApacheSpark
  • AWS Glue
  • Snowflake
  • データレイク/データウェアハウス/データマート
必須スキル
– Scala,Java,Pythonなどを用いた開発経験 3年以上
– ApacheSpark,PySparkなどを用いたETL処理の開発・保守経験 1年以上
– SQLを用いた開発経験 3年以上
– AWSを利用した開発経験
– Dockerなど、コンテナ技術を利用した開発経験
– GitHubでのPRを利用した開発経験
案件内容

データ分析基盤の開発・構築を行なっていただきます。

必須スキル
・BigQuery、Redshift、Hadoop、Snowflakeなどの分散データ基盤の利用経験
・アプリケーション開発経験 または ETL/ELTツールを利用した開発経験
・RDBMSの利用経験

検索結果92件中21-30件