DWHの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:152

DWHの案件を探す

案件内容

データ分析基盤の構築・運用に際し下記業務をご担当いただきます。

・各種システムからのBigQueryへのデータパイプラインの構築、運用

・BigQuery上のデータウェアハウス・データマートの加工処理の構築、運用

   

◆開発環境

・言語 : Python

・データベース : BigQuqery, Aurora MySQL 2.0, Aurora PostgreSQL

・インフラ : AWS (EC2, S3, Lambda etc.) , GCP

・バージョン管理 : git/Github

・CI : CircleCI, Jenkins

必須スキル
・クラウドでのデータ分析基盤の構築、運用経験
・DWH環境の利用経験 例)BigQuery、Redshift、Snowflakeなど
・BigQuery経験 1年
・DWHへのデータパイプラインの運用経験
・SQL経験
案件内容

データ分析基盤の構築・運用をおまかせします
・各種システムからのBigQueryへのデータパイプラインの構築・運用

・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用

   

開発環境言語 : Python,

データベース : BigQuqery, Aurora MySQL 2.0, Aurora PostgreSQL

インフラ : AWS (EC2, S3, Lambda etc.) , GCP

バージョン管理 : git/Github

CI : CircleCI, Jenkins

コミュニケーション : Slack, JIRA, ClickUP, Notion

必須スキル
・GCP、AWSなどクラウドでのデータ分析基盤の構築・運用経験
・BigQuery、Redshift、Snowflake などの DWH環境の利用経験
・DWHへのデータパイプラインの運用経験
・データベースに関する知識とSQLの利用経験
案件内容

クライアントの調達部門にてAWSを利用した購買データのデータパイプライン構築~運用をご担当いただきます。

必須スキル
・AWS基盤構築~運用
・AWS(S3, Glue, Lambda, Step functions, redshift, quicksight)
・DWH, ETL開発
・Python(AWS上データに対してのデータ加工、クエリ等)
案件内容

・会計ソフトメーカーにて情報を一元管理・可視化するデータ分析基盤の構築を計画しております。

業務内容として、AWS環境上にて各システムからデータを収集/加工するための調査・設計・実装やBIツールと連携してデータを可視化する機能の設計・実装まで広範に渡り対応して頂きます。

必須スキル
・AWS Glueの構築経験
・ETLによるデータ加工経験
案件内容

レガシーなシステムから収集したデータを、イタリアで構築されたDWHへ適切な形で整理しながら格納していくことが求められています。
英会話のスキルにより、担当いただく業務内容と稼働率が変動します。
■英会話レベル:

ビジネス外国人技術者と英語でディスカッションしながら、DWHの設計や勘定科目の変換ロジックを構築する。

稼働率の範囲は40~100%
■英会話レベル:

日常会話PowerBIツールやExcel、Accessを用いてデータ間の相関関係を検証したり、データの格納を行う。

稼働率の範囲は40%前後

   

・本年9月末まで予定・現場では英語が飛び交いますので、英語に抵抗がない方がフィットするかと思います

必須スキル
・DWHの構築経験
・日常会話レベル以上(もしくはビジネスレベル)の英会話力
・PowerBIツール、Excel(マクロを使えるレベル)、Accessのいずれかを使用した、データ間の関係性の検証経験
案件内容

Google Cloud / AWSを利用した商用稼働サービスのデータパイプラインの開発・保守運用

データ分析システム・サービスの監視設計・運用

日々の運用業務から発生する課題の解決・改善

   

クライアントにて日本最大の美容総合サイトを運営しております。

豊富なサービス(EC・リアル店舗など)で生み出される膨大で多様なデータを取り扱うことで、大規模なデータパイプラインの設計・開発・運用経験が得られます。

主務となるtoB向け商用稼働サービスの取引実績は順調に増加しており、現在は200以上のブランドに向けサービスを提供中。

特に、ミドル・テール(認知度がまた高くない)ブランド向けのエントランス戦略が動いており、サービスの拡大、ユーザーへの貢献を実感しながら開発に携わることができます。
また、今後全社でデータの利活用を促進していくにあたり、直接プロジェクトに携わることで、ビジネスに必要なデータに関する管理運用方針への理解が深まり、データを中心とした社内外の課題に対しての提案・解決能力を養うことができます。

必須スキル
・Pythonを利用したデータ分析等の開発経験
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux / ネットワークの基礎知識
案件内容

データプラットフォーム基盤の構築

・データモデル設計

・アーキテクチャ設計

・技術調査

・ETL / ELT処理の実装

※ システムとしてのユースケースを整理しながら進行しているため、要求定義、要件定義の視点で物事を考える必要があるケースが多い
【開発環境】

-技術要素-

・BigQuery

・MySQL

・Cloud SQL

・Go言語

必須スキル
・DWH設計、構築、運用経験
・アジャイル(スクラム)開発経験
案件内容

顧客内の情報を一元的に管理・可視化する、データ分析基盤の開発支援です。チームメンバーと共に試行錯誤しながら業務を進めていただきます。

下記業務をご担当いただく予定です。

・データソースの収集

・S3への蓄積

・AWS Glueを使用したデータ加工

・外部ツールからのデータ収集/外部ツールへの加工データ連携

・QuickSightを使用したデータ集計

・データ加工の自動化(Lambda、StepFunctionを想定)

・terraformを利用した構成管理(Glueのジョブ、IAMロール、S3、Quicksight)

必須スキル
・BI/ETLツールを使用したデータ分析の経験
・AWSサービスの経験(AWS Glue、Quicksight など)
・SQLによるETL(データ加工)の経験
・新しい技術の導入に積極的な方
案件内容

蓄積された様々なデータからAWSサービスやオープンソースなどのML/DLフレームワーク技術などを活用し、テレビ局ならではの大規模オーディエンスデータの活用をメインに、データの抽出や分析、その結果のレポーティング業務等を行って頂きます。

■こんな方におススメ

・アドテクやクラウド、データ収集/分析関連の最新技術を学び、経験することができる。

・テレビ局特有の高アクセス環境で技術的なチャレンジができる。

・30代~40代半ば辺りの方が多い職場

必須スキル
・SQLを使用した、加工・抽出・クレンジング等、データ前処理の実務経験
・AWS等のパブリッククラウドを利用したサービス開発・運用経験
案件内容

・データ基盤

Azure上にデータ基盤を構築するプロジェクト。蓄積したデータをBIやAIで活用するためのプラットフォームの設計・構築が主業務となります。要求開発フェーズからご参画いただくことを想定。
・作業概要

顧客案件におけるデータ基盤構築支援(要件定義・設計・構築・テスト・マニュアル作成など)

【案件概要】

例:

①某金融業様向けBIレポート可視化用データ基盤構築(常駐型) 

②某大学様向け農業IoTデータ収集分析基盤構築 

対象リソース: Azure Data Factory, Data Lake, SQL Database, Synapse Analytics, IoT Hub, Stream Analytics, ADLS Gen2(またはBlob Storage), Azure AD B2C, 等

①要件定義 ②基本設計 ③詳細設計 ④構築 ⑤テスト設計 ⑥テスト⑦運用マニュアル作成を行います。

必須スキル
・Azure PaaS構築経験
・DWH構築経験
・基本設計~製造・テスト経験

検索結果152件中91-100件