分析基盤エンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:354

分析基盤エンジニアの案件を探す

案件内容

既存のTableau環境に対しDatabricksを追加採用し、社内外データを一元的・効率的に管理できる統合データ基盤を構築するプロジェクトになります。

現状:Tableau (BIツール) のみ導入済み。
構築対象範囲:
・Databricksデータ基盤環境の追加構築。
・データレイク、DWH(データウェアハウス)の統合。
・周辺のデータ準備処理およびワークフローの整備。
主要業務: データパイプラインの設計・構築

必須スキル

・大規模データ基盤構築プロジェクトにおける構築実務経験
(データ設計/データパイプライン処理実装等)
・Pythonを使用したデータ分析などのご経験
・自主的・積極的な業務推進

案件内容

アサイン先案件
・金融業界の法人営業DXに対し、AI活用施策の明確化・AI基盤・データ基盤の設計を行うプロジェクト。

業務内容・期待役割
PMと一緒に下記取り組みをSEとしてリード
・業務システム及び社内データの調査・整理
・AI活用基盤のアーキテクチャ検討
・AI活用基盤(データ基盤・マルチクラウド(AWS, Azure, GCP等)連携)の要件整理
・AI活用基盤構築に向けた顧客との調整
・AI活用基盤の共通機能の一部構築
・AI活用基盤の運用方法の検討

必須スキル

・要件定義の実務経験(3年以上)
・顧客の業務分析の実務経験
・業務分析から要求・要件定義を行った経験

・バックエンドの開発経験(5年以上)
 ┗pythonによるWebアプリケーションのバックエンド・バッチ開発経験(3年以上)
 ┗REST APIの設計・実装経験(3年以上)

・インフラの開発経験
 ┗データ分析基盤(snowflake, redshift等)の構築経験(2年以上)
 ┗ETLの構築・活用経験(2年以上)
 ┗terraformでのインフラ管理経験(3年以上)
 ┗CI/CDパイプラインの構築・管理経験(3年以上)
 ┗運用監視の構築・管理経験

・その他開発経験
 ┗AWS環境を用いた開発経験(2年以上)
 ┗Gitを利用したチーム開発経験
 ┗AIを搭載したシステムの開発経験

・姿勢
 ┗業務要件の理解に努め、関係者との円滑なコミュニケーションが取れる方
 ┗スケジュールを意識して、自走して開発を進めていただける方

案件内容

在庫管理数が多く、データ分析等に追加で自走可能なメンバーが現場で必要になっている状況になります。
期間としては長期で1~3年想定。多少時間がかかっても良い方にアサインいただきます。
また、業務実践による業務回復(商品部・需給)、計画業務の策定・型化(グローバルテンプレート)、
業務実践・計画業務を下支えするシステム・DWH/DM構築も業務の中に含まれてくる想定になります。

必須スキル
・データ分析経験(1日に何億件など大量のデータ分析経験など)
・Python/queryについて深い知見
・問題なく自走出来る方
・コミュニケーションスキル
・データサイエンティスト M/High Cons相当
案件内容

AWSインフラ環境でのデータプラットフォーム保守作業
└弊社メンバーと共に、運用保守「障害対応、ユーザ問い合わせ対応、リリース作業等」を実施して頂きます。
 ETLツールとしてTalendを使用しております。
 ソースはJavaで書かれております。

必須スキル
➀Java知識(Talendを使用)
➁プラットフォームやサポートセンター等での運用保守経験
└(エンドユーザと直接やり取りする機会があるため、関係性を意識できる方)
➂ AWS
➃Snowflake
➄Talend
➅フットワークが軽く、コミュニケーション能力がある方
➆自身の担務を意識して行動できる方
➇自発的に調べものができる方
➈設計書の読み書きができる方
➉インフラスキル
⑪SQL
案件内容

データ基盤全体のアーキテクチャ設計から、ガバナンス設計(Unity Catalogなど)、dbtやワークフローの設計・運用、GitHubを活用した開発プロセスの整備まで、プロジェクト全体をリードする役割になります。

【想定内容】
・全体アーキ設計:3層(着地/精錬/提供)の責務分離、命名規約、スキーマ進化方針、データ契約の策定
・ガバナンス設計(必須):Unity Catalog 等を用いた権限モデル、監査・データ分類、変更管理プロセスの整備
・dbt:プロジェクト構成(stg/int/mart)、モデル分割、tests とドキュメントの整備、依存グラフ設計
・Databricks:Lakehouse 基盤設計、ジョブ/ノートブックの責務分離、再実行・冪等性設計
・ワークフロー:依存制御・スケジューリング、失敗時の復旧方針、SLA/アラート、可観測性(メトリクス/ログ/リネージ)
・GitHub:ブランチ戦略、PR レビュー基準、CI(dbt build・lint 等)とリリース運用
・移行設計:Snowflake+Xplenty → Databricks+dbt の段階移行(Dual-run、差分検証、カットオーバー、ロールバック)

必須スキル
・Databricks を中核にしたデータ基盤の設計・実装・運用経験
・要件定義~設計~テスト~運用までの一連の推進経験
・dbt によるモデリング/テスト/ドキュメント整備の実務経験
・3層(Bronze/Silver/Gold もしくは Staging/Conformed/Mart) の設計・文書化経験
案件内容

・データマート構築
・データ抽出/集計
・ダッシュボード構築

【開発環境】
・言語:SQL、LookML
・ツール:GitHub、Slack、Confluence
・データ基盤:BigQuery
・BIツール:Looker
・開発マシン:Windows or Mac(どちらか選択)

【担当工程】
・プロジェクト進行
・案件定義
・基本設計
・詳細設計
・開発※クエリ作成/レポーティング
・保守改修

必須スキル
・BigQueryでのデータマート設計・構築経験、データ抽出経験(3年以上)
・Lookerでのデータモデル設計・ダッシュボード作成経験
・BIツールでのダッシュボード作成経験(1年以上)
案件内容

ETLツールを用いたアプリケーションの保守対応をお任せします。既存システムの安定稼働を支え、必要に応じて改善提案も行っていただきます。チームの一員として業務を進めていただく形となります。

必須スキル
・Talendの使用経験または、他のETLツールの開発経験
・円滑なコミュニケーションスキル
案件内容

・既存システムのキャッチアップ
・データ分析基盤の保守開発

必須スキル
・データ分析基盤の構築経験が豊富
・既存システムの仕様把握・キャッチアップ能力が高い方
・以下の技術を利用したシステム構築および開発経験
Azure関連:Azure Data Factory, Azure Data Lake Storage, Azure Databricks
ツール,言語関連:SQL, Python(特にPySpark), Apache Spark
案件内容

精密機器製造・販売メーカ様において、経営目標を達成するためのモニタリング・分析を可能にすることを目的に膨大なデータから、価値ある情報を迅速に提供する仕組みを構築しているPJTになります。

【役割】
今回は顧客直営に代わってシステム基盤のアーキテクトとして
下記業務を対応頂きます。

◼システムリソースに関連する課題の抽出・整理
◼システムリソースの利用状況の調査・分析から打つべき手の検討・提案
 –直近①:Databricksを活用したIF連携基盤の検証・本番化
 –直近②:ECS等のコンテナ関連サービス群を活用したWebアプリケーション(Python中心)の検証・構築
 –直近③: Snowflakeを活用したDM作成基盤の検証・構築
◼システムリソースの利用状況を監視する仕組みの検討・実装
◼必要に応じて、システム構成の見直し、アーキテクチャ検討
◼上記に関する進捗報告・課題検討・進め方すり合せについて、チーム内・対顧客とのコミュニケーション

必須スキル
・エンド顧客の社員代替としての経験
・中~大規模なデータ基盤の調査,課題洗い出し経験
・各種AWSサービスを使ったアプリケーション基盤の構築の経験
(EC2、S3、ロードバランサ、Route53、Lambda、ECS・Fargate、など)
・Dockerを使ったコンテナサービス基盤の構築の経験
案件内容

グループ会社で既に導入済みのクラウドデータウェアハウス Snowflake を活用し、お客様が求めるアウトプットを効率的に導き出すためのデータ基盤を構築するプロジェクトです。

具体的には、Snowflake と Amazon S3 に格納された各種データを整理・統合し、ビジネスニーズに合致したデータマートの設計および構築を推進いただきます。これにより、お客様が迅速かつ正確にデータ分析を行い、意思決定に繋げられるよう、データ活用を強力に支援します。

必須スキル
・データウェアハウス設計の経験: Snowflake、または他の主要なDWH(Redshift, BigQueryなど)での設計・構築経験。
・SQL・データ操作: 大規模データに対する複雑なSQLを用いたデータ抽出、加工、変換の実務経験。
・データパイプライン構築経験: データフローの設計、ETL/ELTツールの選定・実装経験(例:dbt、Airflowなどの知識があれば尚可)。
・セキュリティ・ガバナンスに関する知見: データアクセス制御、プライバシー保護、監査ログなど、データセキュリティとガバナンスに関する知識と実践経験。

検索結果354件中1-10件