分析基盤エンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:356

分析基盤エンジニアの案件を探す

案件内容

データエンジニア/クラウドエンジニア/PMとして、Databricksの導入によるデータ基盤開発や顧客企業のデータ利活用の促進業務。
◆Databricksを用いた顧客のデータ活用基盤開発、データ活用を支援するため、下記の業務を担当。
-データ利用部門との課題定義および要件整理
-データ基盤の設計/開発(AWS、Azure等、他のクラウドと連携したデータ基盤の設計・開発)
-データ基盤上のデータモデル設計・開発
-データ加工処理(ETL/ELT)の設計・開発
-データ分析を行う上で必要となるデータ可視化(BI)の設計・開発
-AIモデルの継続的なデリバリ(MLOps)を考慮した環境の設計・開発

必須スキル

-顧客もしくは自社のクラウド開発プロジェクトにおけるチームのリーダもしくはサブリーダとして、要件定義、設計、実装のいずれかの工程を担当した経験
-5名以上のチームのマネジメントもしくはリーダ経験
-Professionalレベル以上の認定資格(AWS、Azure、Google Cloud等)を有する方もしくは、3年以上のクラウド開発経験

案件内容

データパイプラインの構築、BIツールの整備を中心にご自身のスキルに合わせて業務をご担当いただきます。
具体的には下記になります。

・dbt(data build
tool)にて構築されたデータパイプラインのデータモデルのリファクタリング
・データ利活用のための環境整備 等

必須スキル
・dbt(data build tool)を利用した開発、運用経験
・SQLを用いたDWHやデータマートの構築、運用経験
案件内容

既存のTableau環境に対しDatabricksを追加採用し、社内外データを一元的・効率的に管理できる統合データ基盤を構築するプロジェクトになります。

現状:Tableau (BIツール) のみ導入済み。
構築対象範囲:
・Databricksデータ基盤環境の追加構築。
・データレイク、DWH(データウェアハウス)の統合。
・周辺のデータ準備処理およびワークフローの整備。
主要業務: データパイプラインの設計・構築

必須スキル

・大規模データ基盤構築プロジェクトにおける構築実務経験
(データ設計/データパイプライン処理実装等)
・Pythonを使用したデータ分析などのご経験
・自主的・積極的な業務推進

案件内容

アサイン先案件
・金融業界の法人営業DXに対し、AI活用施策の明確化・AI基盤・データ基盤の設計を行うプロジェクト。

業務内容・期待役割
PMと一緒に下記取り組みをSEとしてリード
・業務システム及び社内データの調査・整理
・AI活用基盤のアーキテクチャ検討
・AI活用基盤(データ基盤・マルチクラウド(AWS, Azure, GCP等)連携)の要件整理
・AI活用基盤構築に向けた顧客との調整
・AI活用基盤の共通機能の一部構築
・AI活用基盤の運用方法の検討

必須スキル

・要件定義の実務経験(3年以上)
・顧客の業務分析の実務経験
・業務分析から要求・要件定義を行った経験

・バックエンドの開発経験(5年以上)
 ┗pythonによるWebアプリケーションのバックエンド・バッチ開発経験(3年以上)
 ┗REST APIの設計・実装経験(3年以上)

・インフラの開発経験
 ┗データ分析基盤(snowflake, redshift等)の構築経験(2年以上)
 ┗ETLの構築・活用経験(2年以上)
 ┗terraformでのインフラ管理経験(3年以上)
 ┗CI/CDパイプラインの構築・管理経験(3年以上)
 ┗運用監視の構築・管理経験

・その他開発経験
 ┗AWS環境を用いた開発経験(2年以上)
 ┗Gitを利用したチーム開発経験
 ┗AIを搭載したシステムの開発経験

・姿勢
 ┗業務要件の理解に努め、関係者との円滑なコミュニケーションが取れる方
 ┗スケジュールを意識して、自走して開発を進めていただける方

案件内容

在庫管理数が多く、データ分析等に追加で自走可能なメンバーが現場で必要になっている状況になります。
期間としては長期で1~3年想定。多少時間がかかっても良い方にアサインいただきます。
また、業務実践による業務回復(商品部・需給)、計画業務の策定・型化(グローバルテンプレート)、
業務実践・計画業務を下支えするシステム・DWH/DM構築も業務の中に含まれてくる想定になります。

必須スキル
・データ分析経験(1日に何億件など大量のデータ分析経験など)
・Python/queryについて深い知見
・問題なく自走出来る方
・コミュニケーションスキル
・データサイエンティスト M/High Cons相当
案件内容

AWSインフラ環境でのデータプラットフォーム保守作業
└弊社メンバーと共に、運用保守「障害対応、ユーザ問い合わせ対応、リリース作業等」を実施して頂きます。
 ETLツールとしてTalendを使用しております。
 ソースはJavaで書かれております。

必須スキル
➀Java知識(Talendを使用)
➁プラットフォームやサポートセンター等での運用保守経験
└(エンドユーザと直接やり取りする機会があるため、関係性を意識できる方)
➂ AWS
➃Snowflake
➄Talend
➅フットワークが軽く、コミュニケーション能力がある方
➆自身の担務を意識して行動できる方
➇自発的に調べものができる方
➈設計書の読み書きができる方
➉インフラスキル
⑪SQL
案件内容

データ基盤全体のアーキテクチャ設計から、ガバナンス設計(Unity Catalogなど)、dbtやワークフローの設計・運用、GitHubを活用した開発プロセスの整備まで、プロジェクト全体をリードする役割になります。

【想定内容】
・全体アーキ設計:3層(着地/精錬/提供)の責務分離、命名規約、スキーマ進化方針、データ契約の策定
・ガバナンス設計(必須):Unity Catalog 等を用いた権限モデル、監査・データ分類、変更管理プロセスの整備
・dbt:プロジェクト構成(stg/int/mart)、モデル分割、tests とドキュメントの整備、依存グラフ設計
・Databricks:Lakehouse 基盤設計、ジョブ/ノートブックの責務分離、再実行・冪等性設計
・ワークフロー:依存制御・スケジューリング、失敗時の復旧方針、SLA/アラート、可観測性(メトリクス/ログ/リネージ)
・GitHub:ブランチ戦略、PR レビュー基準、CI(dbt build・lint 等)とリリース運用
・移行設計:Snowflake+Xplenty → Databricks+dbt の段階移行(Dual-run、差分検証、カットオーバー、ロールバック)

必須スキル
・Databricks を中核にしたデータ基盤の設計・実装・運用経験
・要件定義~設計~テスト~運用までの一連の推進経験
・dbt によるモデリング/テスト/ドキュメント整備の実務経験
・3層(Bronze/Silver/Gold もしくは Staging/Conformed/Mart) の設計・文書化経験
案件内容

・データマート構築
・データ抽出/集計
・ダッシュボード構築

【開発環境】
・言語:SQL、LookML
・ツール:GitHub、Slack、Confluence
・データ基盤:BigQuery
・BIツール:Looker
・開発マシン:Windows or Mac(どちらか選択)

【担当工程】
・プロジェクト進行
・案件定義
・基本設計
・詳細設計
・開発※クエリ作成/レポーティング
・保守改修

必須スキル
・BigQueryでのデータマート設計・構築経験、データ抽出経験(3年以上)
・Lookerでのデータモデル設計・ダッシュボード作成経験
・BIツールでのダッシュボード作成経験(1年以上)
案件内容

ETLツールを用いたアプリケーションの保守対応をお任せします。既存システムの安定稼働を支え、必要に応じて改善提案も行っていただきます。チームの一員として業務を進めていただく形となります。

必須スキル
・Talendの使用経験または、他のETLツールの開発経験
・円滑なコミュニケーションスキル
案件内容

・既存システムのキャッチアップ
・データ分析基盤の保守開発

必須スキル
・データ分析基盤の構築経験が豊富
・既存システムの仕様把握・キャッチアップ能力が高い方
・以下の技術を利用したシステム構築および開発経験
Azure関連:Azure Data Factory, Azure Data Lake Storage, Azure Databricks
ツール,言語関連:SQL, Python(特にPySpark), Apache Spark

検索結果356件中1-10件