DWHの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:163

DWHの案件を探す

案件内容

国内外の様々なお客様にSnowflakeの導入とそれに伴うデータ活用の支援
-Snowflakeの導入コンサルティング
-Snowflakeを中心としたデータ基盤の開発支援、データ活用支援
-Snowflakeや周辺技術領域(モダンデータスタック)の情報収集、技術検証
-データ基盤やデータエンジニアリングに関する技術情報発信

必須スキル

-RDBMS製品(Oracle、 PostgreSQL、MySQL等)または
DWH製品(Teradata、Redshift、BigQuery等)または
データレイク製品(Hadoop/Spark、EMR等)に関する開発経験

-クラウド(AWS、Azure、GCP等)に関する開発経験
-基本的なSQLまたはPythonのコーディングスキル
-論理的思考、ドキュメンテーションのスキル

案件内容

下記のBI製品の開発経験者を常時募集しています

・★PowerBI,★tableau,★motionboard・Looker
※★印のツールの需要が高いです

上記ツールは案件多数あります
そのほか、下記ツール経験者も募集しています。

・IBMCognosAnalytics
・OracleBI
・SAPBusinessObjects

必須スキル

・PowerBI・tableau・motionboard・Looker
上記BIツールの各工程経験者
①要件定義,基本設計~
②詳細設計以降~製造

案件内容

データエンジニアとしてデータモデルの設計・開発
事業企画との折衝、主には実現方法の検討であったり連携項目の整理といったレポートで表現するにあたっての要件定義

【対応工程】
・BI レポート用のデータマートの設計・開発
・テーブル設計、SQL実装、リレーション構築、バッチ実装
・BI レポートの開発・保守運用
・レポート開発にあたっての要件定義
・実現方法検討、連携項目整理
 ※現在PowerBIとTableauを併用しています

【開発環境】
データベース:Databricks、Snowflake
BIツール:Power BI、Tableau

必須スキル
・DWH設計・開発の経験 2年以上
・SQLを用いたデータ抽出・加工の経験 3年以上
・BIツールを用いたダッシュボード・レポートの設計、開発経験
案件内容

AIエージェント化、セマンティックモデル、データカタログ整備を横断的に実行し、検証~運用をドライブして経営に寄与する示唆創出を実現する。

技術者ランク:リーダ・サブリーダ相当

必須スキル

・データ分析の自走経験
目的設計、EDA、可視化、要因分析、予測、レポーティング、とここまでの手順のドキュメント化まで独力で推進できる
・Snowflake, BigQuery, Amazon Athena, Databricks, Oracle Analytics等データ分析基盤の実務経験
データ分析の推進を目的としたデータ分析基盤の基本検討、構築、運用いずれかの経験
・データベース知識
データ分析基盤検討に必要な設計を理解し、DBやSQL等のクエリ操作ができること
・ステークホルダー調整力
関連組織とのデータ調達・優先度策定・進捗/リスク管理
・案件を独力で推進できる、またはメンバーを指揮してプロジェクトをリードした実務経験

案件内容

主にマルチクラウド環境(AWS/GCP)のデータ基盤構築と整備、およびデータ活用のための前処理開発を担当いただきます。

データ基盤構築・統合:
現在AWSとGCPに分散しているデータ基盤を、BigQuery上への統合(一元化)を目指す構築作業が主。
データベース型サイト(5〜10サイト、大規模データ)の分析基盤の設計、保守、セキュリティ対策。

データパイプライン開発:AWSとGoogle Cloudの両方からデータを接続するデータパイプラインの設計・実装。
データソース(アクセスログ、AWS S3上のマスターデータ等)の接続設定。

データ前処理・加工(データマート構築):
データ抽出、グルーピング、定義付けなど、分析用データマートの部分の加工・実装。

運用・保守:
構築後のメンテナンス費用やセキュリティまで考慮した管理体制の提案・構築。
フェーズ: プロジェクトはこれから始まる段階(現時点では知見の少ないメンバーで対応中)。

ELTについて:
Google Cloud内の機能でELTを内製
データ抽出:SQL
変換:SQL or Python
格納:BigQuery

必須スキル
クラウド: AWSとGoogle Cloud (GCP)の両方のデータ領域に精通していること。
DWH/ETL: BigQueryを用いたデータ基盤構築、およびデータパイプラインの設計・実装経験。
データ処理: データの前処理(データマート構築)や加工、抽出パターン、グルーピング定義を理解し、実装できること。
コミュニケーション能力が高く、指示に対して一人称でロジカルに作業を進められるミドル以上の経験。
案件内容

売上・需要予測を中心としたデータ利活用プロジェクトにて、
経営・マーケティング・営業計画など複数部門と連携し、
データドリブンな意思決定を支援していただきます。
主な業務内容は以下の通りです:
売上・顧客・在庫・広告など多変量データの解析
需要予測・キャンペーン効果分析・価格弾力性のモデル化
分析方針・仮説立案、データパイプラインの要件整理
経営層・事業部門への分析結果の報告および施策提言

必須スキル
売上・需要予測、あるいは類似の時系列分析経験(3年以上目安)
Python(pandas, statsmodels, scikit-learn, prophet など)やRによるモデリング経験
回帰分析、変数選択、異常検知、特徴量設計の実務スキル
(大規模な)データを用いた事業課題の仮説構築・示唆抽出・提案までの一貫経験
SQLによるデータ抽出・加工スキル
案件内容

人事/キャリアデータ(経歴データを含む)を活用し、組織の課題解決を推進していただきます。
キャリアパスや研修、配置転換などが従業員のパフォーマンスや定着率に与える因果関係を分析し、データに基づいた戦略的な意思決定を支援する業務です。
具体的には、ビジネス課題の抽出、データパイプラインの整備、分析モデルの構築、施策の立案までを一貫して担当いただきます。

必須スキル

データ分析スキル: ビジネス課題抽出、探索的データ解析、分析レポートおよび施策案の作成経験。

案件内容

在庫管理数が多く、データ分析等に追加で自走可能なメンバーが現場で必要になっている状況になります。
期間としては長期で1~3年想定。多少時間がかかっても良い方にアサインいただきます。
また、業務実践による業務回復(商品部・需給)、計画業務の策定・型化(グローバルテンプレート)、
業務実践・計画業務を下支えするシステム・DWH/DM構築も業務の中に含まれてくる想定になります。

必須スキル
・データ分析経験(1日に何億件など大量のデータ分析経験など)
・Python/queryについて深い知見
・問題なく自走出来る方
・コミュニケーションスキル
・データサイエンティスト M/High Cons相当
案件内容

製薬会社における副作用評価業務の効率化・品質向上を目的とした統合データ基盤構築プロジェクトです。
Java/MyBatisを用いたAPI開発及び一部DWHを用いた構築などをご担当いただきます。
要件定義フェーズから参画し、PowerBIによる可視化を見据えた整備に関与いただきます。

必須スキル
・IT業界経験(5年以上)
・要件定義・基本設計のご経験
・Javaを用いた開発経験(3年以上)
・MyBatis(またはiBatis)の使用経験
・DB設計・SQL処理に関する実務経験
案件内容

現行システム(Oracle Database)をSnowflakeに乗せ換えするにあたり、システム化検討と現行調査を実施。
リーダー枠とメンバー枠セットで2,3名のご提案歓迎。

■開発環境■
Oracle Database、Snowflake、DWH、Datalake

必須スキル
・Oracle Databaseの開発
・顧客折衝、コミュニケーション能力

検索結果163件中1-10件