Redshiftの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:95

Redshiftの案件を探す

案件内容

土地・建物に関する情報の収集・クレンジングを行うデータ連携基盤(データレイク/DWH)の構築

必須スキル
・要件定義/基本設計の経験
・①DWH構築
・②データクレンジング
①②いずれかの知識・経験
案件内容

【業務内容】
大手広告代理店が展開しているインターネット広告代理店業における、膨大な広告データを収集・蓄積したデータレイクからデータを展開するためのデータ基盤(ETL処理、DWH、DM)の開発、運用、保守をお願いします。

【ポイント】

  • データレイクが取り扱うデータ量は数十TB/月を誇り、毎日数10億単位のレコードを蓄積しているため、そんな大規模データと向き合った開発にチャレンジすることができます。
  • 複数のプロダクトを管理しているチームのため、様々な技術を習得することができます。

【開発チームと配属先について】
当事業部には現状で約60名のエンジニアが在籍しており、複数のチームに分かれて開発を進めています。
今回お願いしたいポジションはサーバサイドエンジニアです。

チームには現在18名のエンジニアが在籍しています。
また、複数のプロダクトを管理しているチームのため、担当領域ごとにグループ分けをしています。

  • Infeed領域の広告運用のためのプロダクトを開発するグループ
  • インターネット広告関連データをデータレイクに蓄積するシステムを開発するグループ
  • インターネット広告関連データが蓄積されたデータレイクを用いたデータ基盤を開発するグループ
  • 機械学習を用いたプロダクトを開発するグループ
  • 掲載情報や実績情報を出力・レポーティングするための分析用プロダクトを開発するグループ

【技術キーワード】

  • ApacheSpark
  • AWS Glue
  • Snowflake
  • データレイク/データウェアハウス/データマート
必須スキル
– Scala,Java,Pythonなどを用いた開発経験 3年以上
– ApacheSpark,PySparkなどを用いたETL処理の開発・保守経験 1年以上
– SQLを用いた開発経験 3年以上
– AWSを利用した開発経験
– Dockerなど、コンテナ技術を利用した開発経験
– GitHubでのPRを利用した開発経験
案件内容

データ分析基盤の開発・構築を行なっていただきます。

必須スキル
・BigQuery、Redshift、Hadoop、Snowflakeなどの分散データ基盤の利用経験
・アプリケーション開発経験 または ETL/ELTツールを利用した開発経験
・RDBMSの利用経験
案件内容

大手専門商社のDX管掌部署にて実施中の「データ利活用」をエンドユーザー伴走で推進いただきたい。
≪ポジション≫
①②でそれぞれ1名ずつ
①:各事業部の業務/状況のヒアリング~BIツール(Tableau導入済)活用や見える化の検討~定着化 の支援
②:①と連携し、DWH(Aurora/Redshift導入済)箇所の対応整理・定義・構築

必須スキル
・データ利活用のコンサルティング経験(ユーザー側)
・上記の支援が一人称で可能
・BIツールの知見
・DWH(Aurora、Redshift)の設計・開発経験
・クライアントフェイシングが可能
案件内容

製薬企業がマーケティングやMEDICAL AFFAIRS活動のために使うことができる
医療ビッグデータの機能開発・運用保守をご担当いただきます。
主な業務内容
・新規機能開発
・運用保守開発
・問い合わせ対応、データ抽出業務
・その他PDCA実施

技術スタック:
・LOOKER
・TABLEAU
・BIGQUERY
・DATAFORM
・AWS(ROUTE53, ALB, S3, CLOUDFRONT, ECS ETC)

必須スキル
・LOOKERやTABLEAU等のBIツールを用いだダッシュボードの開発・運用経験
・BIGQUERYやEMBULKを利用したデータ分析基盤の開発・運用経験
・その他一般的なWEBアプリケーション開発の知識
案件内容

AWS上で運用されている情報系システムにおいてTableauの性能に問題を抱えており、その調査と対策の検討を実施いただきたいです。

必須スキル
以下のいずれかのスキル
◇Tableau+Windowsスキル
・ETLプロセスを理解し、Tableauが効率的にデータを処理できるような仕組みを考えることができる。
・Tableauが参照するテーブルのインデックスの作成、クエリの最適化、データのキャッシュ、アグリゲーションの最適化といった対策に知見がある。
・Windowsのパフォーマンスモニタで収集可能なメトリクスとその内容を理解し、性能問題が発生した際の対処方法を検討することができる

 

◇AWS(Redshift、ELB、EC2、EBS、S3)スキルセット
・Redshiftのスケーリングの仕組みを理解し、効率的なクラスタの構成や仕組みを考えることができる。
・性能課題に応じて適切な負荷分散やストレージの構成を検討することができる。
・CloudWatchで収取可能なメトリクスとその内容を理解し、性能問題が発生した際の対処方法を検討することができる
案件内容

・自社プロダクトであるデータ統合SaaSおよび、AWSやGoogle Cloud等のクラウドサービスを用いたデータ分析基盤構築・データ統合パイプラインの設計および実装
・SQLを用いたデータマート作成、名寄せ、クレンジング等の実施
・BIツールを用いたデータ可視化
・外部サービス(CDP/MA/SFA等)とのデータ連携および活用の支援

【ツール】
AWS(Redshift, QuickSightなど), trocco
■開発環境
 言語____:SQL
 環境・OS_:AWS (Amazon Web Services)
 ツール___:AWS Redshift (Amazon Redshift)
■開発工程__:基本設計|詳細設計|実装・構築・単体試験

必須スキル
・AWSやGoogle Cloudなど、パブリッククラウド上でのシステムまたはデータパイプライン構築経験が2年以上
・DWH製品(BigQuery / Redshift / Snowflake 等)の利用経験
・速さよりも品質を重視するため基盤やシステムを通した構築・テストなどの経験がしっかりある方
・Pythonを用いた開発経験
案件内容

概 要:

世界各国で利用されるオンラインサービスにおけるデータ分析基盤の開発運用支援をお願い致します

必須スキル
Python(3系)での開発経験
Linux系サーバの基本操作、基礎知識(Bash)
データ分析基盤/Pythonフレームワークのご経験
AWSの基礎知識(VPC, EC2, S3, IAMなど)
案件内容

概要:海外旅行・国内旅行・法人向けといった各販売実績や会計データなど幅広いデータを標準化・集計・分析するシステムになります。
作業:顧客と直接コミュニケーションを取りながら、以下の作業を担当いただきます。

・現行システムの保守開発作業へ落とし込むための要件定義・基本設計

必須スキル
・データベース・SQLの知見
・要件定義、基本設計といった上流工程の業務経験
・顧客との要件調整、コミュニケーションスキル
・主体性、積極性
案件内容

外資系大手製薬企業のGlobal組織(海外)がメインで、システム運用・保守されるクライアント日本法人組織向けデータ分析基盤のインフラ領域の非機能/運用面の改善検討のリードです。

クライアント日本法人のユーザ部門およびIT部門の意向を踏まえ、ゴールを描きながら検討を行う必要がございます。

必須スキル
・データ分析基盤のインフラ領域の非機能/運用面の改善検討のリード(現時点でMLOps自体のスキルは求めない)-日本法人組織向けデータ分析基盤のインフラ領域の非機能/運用面の改善検討のリードです
-お客様日本法人のユーザ部門およびIT部門の意向を踏まえ、ゴールを描きながら検討を行う必要がございます  -必要な主な技術知識は、AWS、MWはSAS・R・Python、AWSコンポーネントはEC2・EKS・Redshift・S3、OSはRHEL。
・MLOps導入検討のインフラ領域の設計検討・リード。(MLOpsに必要なルール整備などは別チームで実施)
・メンバーとチームを組み、チームリーダーとしてお客様とのコミュニケーションを行う
・Global組織とのミーティングはあまりないが、メールなどでの文字ベースの会話あり

検索結果95件中31-40件