Redshiftの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:90

Redshiftの案件を探す

案件内容

大規模言語モデル(LLM)を利用したセキュアなシステムの開発、社内データとの統合を含む。
LLMの開発における深い技術知識の活用、社内データソースとの接続を可能にするためのインフラ構築。
技術戦略および戦術の策定と実施、データの利活用を最大化するためのアプローチの開発。
開発に必要なリソースの設計と管理、データアクセスと分析のためのシステムの構築。

主な担当業務:現状分析、データ活用の施策決め、データの可視化、データオペレーション

業務例①:XplentyやSnowflake、Amazon Redsift、Amazon QuickSight等のツールを用いて、お客様のデータを可視化し、経営判断等に使用可能な有用なデータをマイニングできるようにする。

業務例②:生成AI用のデータの準備やデータフローの設計・実装を行う。

必須スキル

技術戦略の立案と実行経験、データ利活用に関する知識。

案件内容

上位クライアント(HR系)のデータマネジメント部署にてデータマート開発、基盤開発チーム(約10名)のリーダーポジションを担当いただきます。

データ分析/活用プロジェクトへ参画いただき、シニアデータエンジニアとしてデータマート開発実装をメインにご担当いただきつつ、技術リーダーとしてチームメンバーのサポート及び、データ要件の定義や調査、他部署との連携含めた顧客折衝をご担当いただきます。

【対応工程】
・分析用データマートの開発
 └データマート(テーブル)設計
 └SQL実装
 └バッチ処理実装
・社内メールシステムの保守運用
 └Python、SQL実装
・データマートの保守運用

【開発環境】
・データベース:Databricks、Redshift
・ワークフローエンジン:Airflow、Digdag
・プログラミング:Python
・インフラ:Azure、AWS
・コミュニケーション: Outlook・Teams・Slack・Backlog

必須スキル

・5名以上のチームリーダー経験 1年以上
・SQLを用いた分析用データマートの設計・開発・運用経験 3年以上
・Pythonを用いたデータハンドリングの経験 3年以上
・Webシステムに関する基本的な理解と業務開発経験

案件内容

【概要】
通信会社サービスのデータ分析データマート開発・改修業務。
・BtoBのデータトリブンを進めていくためにDWHにデータを集める作業
・通信会社独自ツールよりデータを加工し、移行
・テーブル内データの整備がメイン。

必須スキル
・Python分析経験(pandas)
・データ加工、抽出経験
・DWH構築経験
・基盤構築経験
案件内容

弊社クライアント(HR系)のデータマネジメント部署にてデータマートの開発業務を担当いただきます。
データ分析/活用プロジェクトへ参画いただき、データエンジニアとしてデータマート開発実装をメインにご担当いただきつつ、データ要件の定義や必要に応じて各種調査も一部ご担当いただきます。
【対応工程】
・分析用データマートの開発
 └データマート(テーブル)設計、SQL実装、バッチ(Digdag)実装
・社内メールシステムの保守運用
 └Python、SQL実装
・データマートの保守運用
【開発環境】
・データベース:Redshift、BigQuery
・プログラミング:Python
・インフラ:AWS、GCP
・コミュニケーション:Outlook・Teams・Slack・Backlog

必須スキル
・SQLを用いた分析用データマートの設計・開発・運用経験1年以上
・Pythonを用いたデータハンドリングの経験1年以上
・Webシステムに関する基本的な理解と業務開発経験
案件内容

大手商社の商品データの品質を維持・向上するチームの業務支援案件となります。
「データ品質をチェックするシステムの保守・運用」「データの大量更新の業務支援」が主なミッションになります。

データの整合性をとるためのRPA(UiPath)の保守・運用をご支援いただきます。
このRPAでは、データ品質チェックシステムというAWS上(CloudWatch、Fargate、lambda、Redshift(DB))に構築されたシステムに対し、
SQLやExcelマクロを実行することでデータ抽出やアップロードファイルを作成。その後作成したファイルを別の上流システムにアップロードしています。
クライアントからの依頼に応じ、上記RPAの機能拡張や類似のRPAの開発などの作業がメイン業務となります。
作業管理、作業設計などは上位メンバーが実施するため、作業を実行する業務をご担当いただきます。

実務経験3~5年程度で、システムより業務に興味がある若手の方にマッチする案件となります。
また、受け身の態勢ではなく、「主体的に動ける」ことを重視しております。

必須スキル
・UiPath開発経験1年以上
・SQL開発経験2年以上
・主体的にアクションができる
・手順書に従って作業が実施できる
・適切なタイミングでのコミュニケーションができる
案件内容

2年ほど前にAWSをベースに分析基盤が構築されたものの、現状がわかりづらい状況となっています。
現状を調査し調査の後、必要に応じて「システムの再構築」
「一部破棄」または「システムの刷新」の方針決めを行います。
※詳細、募集背景は面談時にご説明いたします。

【ターゲットとなるシステム】
・In Data : Salesforce 他
・Out Data : Tableau 他

必須スキル
・AWSに関する基本的なスキル
・SQLによるデータ操作
・主体的に動ける方
案件内容

■背景
・募集部署はデータ基盤&AI・BI&運用を一気通貫で担っており、
 現在プリセールス中である。(DWH)
・ただ受注となった場合、プロパーを含めてリソース不足が目下課題となっている。
■クライアント支援範囲(該当部署)
・データ基盤構築、機械学習システム構築/精度向上、時系列データ予測/異常検知、自然言語(テキスト)解析、画像認識
■エンドクライアント
・建築・製造・医療など様々
■想定業務
・データ基盤を構築するプロジェクトを想定。
 蓄積したデータをBIやAIで活用するためのプラットフォームの設計・構築が主業務となる。
 要求開発フェーズからご参画いただくことを想定。
※下記スキルによって相談
・顧客案件におけるデータ基盤構築支援(要件定義・設計・構築・テスト・マニュアル作成など)
・要件定義 /基本設計/詳細設計
・ETLジョブ開発
・DWH構築
・ドキュメント作成

必須スキル
・DWHサービス知見
・splunk知見(当該PJでエンドが利用しているため)
・基本設計~製造・テスト経験(設計書)
・データフロー/マート設計

 

※全て満たしていない場合でも相談可
※DWHサービス活用は必須
案件内容

・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り)

<業務詳細>
・分析基盤整備
 └ダッシュボードの作成(KPIツリー、目的別ボード)
 └ユーザー行動の可視化(推移、利用特性)
 └分析基盤整備の推進(データ取得の推進、課題点洗い出し)
・分析
 └データを用いた仮説検証(機能、UI改善、施策)
 └ユーザー行動(数値化、可視化、セグメント分類)
 └効果検証(広告、キャンペーン、メールマガジン等)
 └得られたデータを元にしたインサイトの提供

    

<使用ツール>
・開発言語:Go
・インフラ環境:Google Cloud、Cloud Spanner、Cloud Function、Cloud Run、BigQuery
・ソースコード管理:GitHub
・CI/CD:CircleCI, Cloud Build
・監視/モニタリング:Google Cloud Logging, Google Cloud Monitoring
・インシデント管理:PagerDuty
・コミュニケーション:Slack, Google Meet
・プロジェクト管理/ドキュメント:JIRA/Confluence/DocBase

必須スキル
・データ分析経験3年以上
・SQLを用いたデータ分析やデータ集計の経験
・PythonやRなどを利用したデータ分析業務の経験
・Google Analytics, BIツール、エクセル等を利用した、サービスの分析および示唆出しの経験
・BIツール(Looker、Tableau、Redash等)でのダッシュボード経験
案件内容

内容:
物流マッチングプラットフォームを展開する企業にて、データエンジニアとしてご参画頂きます。
主に各事業のデータ分析基盤(DWHとデータパープライン)の設計・構築・運⽤を⾏っていただきます。
<具体的な業務内容>
既存のDWH(BigQuery)とデータパイプラインの拡充

  • 利用可能なデータの拡充
  • データのリアルタイム性の向上
    将来のデータ基盤戦略の策定とその推進
  • 新たなDWHとデータパイプライン(ELT)の設計・構築・運用
    データ分析によるビジネス課題の発見の推進
  • データによる課題の可視化
  • BIなどを通したモニタリング環境の構築
    技術環境:
    ・言語:Ruby、Python
    ・バージョン管理:Git/GitHub
    ・データ基盤:BigQuery、AWS RDS
    ・BI: Redash、Google Spread Sheet、Google Data Studio
    ・コミュニケーション:Slack、Notion
必須スキル
・1名でのデータ分析業務を担当した経験または現場リーダーとしての経験
・BigQuery、Redshift、Snowflake などのDWH環境の利⽤経験(3年以上)
・GCP、AWSなどクラウド環境の利⽤経験(3年以上)
・データ分析基盤開発における、ETL処理の理解・経験(3年以上)
・データベースに関する知識とSQLの利⽤経験(3年以上)
・正規化されたデータをもとに要望にあわせてSQLを⽤いてデータ抽出ができる方
案件内容

■クライアント支援範囲
・データ基盤構築、機械学習システム構築/精度向上、時系列データ予測/異常検知、自然言語(テキスト)解析、画像認識
■概要
<1月~3月にて、データ基盤構築(Power BIとTableau込み)の上流工程(基本設計)を予定>
本プロジェクトは、現行のAWS(プロトタイプ環境)からAzureへの移行および拡張となります。
・Azure Synapse Analyticsへ外部データやユーザーが保有するデータを投入し、Power BIとTableauで分析。
TableauはTableau ServerからTableau Cloudへの移行を伴い、外部データの取り込みには、Synapse Analytics のパイプラインや、Azure FunctionsやAzure Logic Appsを利用。
■想定業務
※Azure Synapse Analyticsを中心とした関連技術の担当者
・ドキュメント作成(基本設計書/移行計画書)
・Azure Synapse Analyticsのデータアーキテクチャ(データパイプライン・データマート)に関する基本設計

   

▼関連ソリューション
・Azure Synapse Analytics
・Azure Functions
・Azure Logic Apps
・Tableau Cloud(またはTableau Server)
・Power BI Service
■体制
体制:
AIチームは全部で15名程度
6名~7名→AIエンジニア  6~7名→BI・データ基盤
1クライアントに対して4~5名で体制を組んでいる
■環境
クライアント内ではデータ基盤設計~BI・内製化/運用支援まで行っている
データ基盤:Azure
(クライアント内で基盤設計・構築)
BI:PowerBI
(クライアント内でレポート作成・運用)

必須スキル
・Azure Synapse Analyticsのデータアーキテクチャ(データパイプライン・データマート)に関する基本設計の経験
・Microsoft 認定試験(DP-203: Microsoft Azure でのデータ エンジニアリング)

検索結果90件中1-10件