分析基盤エンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:364

分析基盤エンジニアの案件を探す

案件内容

鉄鋼業向けBIプラットフォームを基盤としたデータ蓄積
BIプラットフォームを基盤としたデータ蓄積機能を流用し、
各システム・業務領域へ横展開していくエンハンス開発案件です。
現行で稼働している機能を流用し、
新たなデータ収集機能を追加していく想定となります。
テスト工程がやや複雑とのことで、開発経験が豊富な方、
もしくはテスト設計・実施まで対応できる方を求めています。

作業内容:
詳細設計、製造、単体テスト、結合テスト

環境:
Microsoft Azure、Microsoft Fabric

必須スキル
・システム開発の実務経験5年以上
・テスト工程の経験(観点整理、ケース作成、実施)がある方
・チームでの開発経験があり、円滑にコミュニケーションが取れる方
・データ移行経験がある方
案件内容

DWH/BI領域における業務支援および分析基盤の構築・運用改善をご担当いただきます。

・既存集計フローの自動化・効率化
・既存帳票(Excel, CSV)からのSQL作成、BI(QuickSight)での可視化・分析
・AWS(Glue, Athena等)を用いたETL処理、データレイク・データマートの構築
・既存のデータ分析基盤の改修・運用保守

◆主な開発環境・ツール◆
・言語:Python (PySpark, pandas), Power Query, VBA, SQL
・DB/DWH:AWS Athena, Glue Data Catalog, AWS RDS (SQLServer), S3
・BIツール:QuickSight
・環境:AWS Lambda
・管理ツール:GitHub

必須スキル
・Pythonを用いた開発実務経験
・SQL, Power Query, VBAを用いた実務経験
・AWS環境(Glue, Athena等)の知見・利用経験
・データ分析業務経験(データマート作成、分析基盤の構築・運用)
・ETL処理の開発・運用経験
・生成AI(GitHub Copilot等)の導入・活用に意欲的な方
・GitHubを用いたソースおよびドキュメント管理の経験
案件内容

要件定義をお願い致します。

■環 境:
<現環境>
ソース:SAPECC6.0orスクラッチ
DWH:Oracle
BI:Jasper
<新環境>
ソース:S/4HANAorスクラッチ
DWH:AmazonRedshift
BI:AmazonQuickSight

必須スキル
PL経験
何かのDWH→RedShift移行経験者
案件内容

メーカー様が小売店様と契約して受領しているPOSデータを収集しクレンジングして、DWH(snowflake)に蓄積するパッケージシステムをこれから受注する顧客用に個社対応で機能追加していく。

必須スキル
・Python(モジュールやパッケージが作れる、使える)開発経験※BI系はNG
・SQLの使用経験(3年以上)
・要件定義~の開発経験
・コミュニケーション能力のある方
案件内容

ログ管理プラットフォームの整備における実務および進捗管理を担当していただきます。
技術的なログ設計、出力設計・収集設計および実装作業を行いながら、
開発部門・基盤部門と連携し、プロジェクトを推進していただきます。

必須スキル
1.ログ設計・要件定義
・監査や調査に必要なログの整理
・ログに記録すべき項目や出力形式などのログ仕様策定
・開発チームへの実装依頼および調整
2.インフラ・ミドルウェア実装
・Linux、Windowsの操作(OSコマンド、権限管理、設定ファイル編集 等)
・td-agent(Fluentd)等を用いたログ転送・収集の仕組みの構築
 ※収集したログの転送設定、ログ受信側の設定も実施していただきます。
3.クラウド上のログ収集設定
・AWS CLI/SDKを用いたS3操作等によるクラウド上ログ取得環境の構築
・APIを用いたクラウドログ取得環境の構築
4.プロジェクト管理
・全体タスクおよび課題の整理、WBS作成、スケジュール管理
・関連部門(開発・基盤)との会議体運営および作業調整
案件内容

通信事業者向けデータ統合システムを主体としたデータマート構築および、BIツールによる可視化業務を担当。

データエンジニアの立ち位置として、設計・構築業務に加え、部分的に顧客調整も実施。
Tableau Prepを用いたデータ加工・統合処理の実装、進捗・課題管理、会議体での報告対応を通じて、データ基盤の品質向上を支援する。

必須スキル
・Tableau Desktop または Power BI Desktop/Service を用いた開発経験
・DAX計算ロジックの実装経験、既存メジャーの読解・最適化経験
・Power BI モデル設計の実務経験(スライサー、参照テーブル、フィルタ挙動の理解)
・SQLを用いたデータ処理、ETLパイプラインの設計・構築経験
・課題に対して自走できる問題解決力
・チーム内外との円滑なコミュニケーション力
案件内容

Dataiku上での自動生成アプリ作成いただきます。
想定される作業内容は以下です。
WebAppsまたはAgent Connectを用いたアプリUIの作成と、ETL・推論パイプラインの自動化設定を行います。
データ接続・前処理・モデル評価・運用設計を含む一連の開発およびテストを担当します。

必須スキル
・ ETLツール経験(Informatica PowerCenter、Talend、Alteryx
AWS Glue、Azure Data Factory等)
・ Pythonでのデータ処理・ML経験
・ SQL+データ基盤の経験
案件内容

Databricksを新規構築し、Databricks上でPoCとして機械学習のユースケースを実証する。

期待役割:
・基盤のリーディング
・顧客対峙、
・databricksの基盤周りの設計、構築
・databricksの標準機能をフルに活かしてデータサイエンティストの実装支援
(既存の数理モデルの解析は別担当者が実施します。解析後にdatabricksの標準機能を利用してモデルを実装頂きます。)

必須スキル

・クラウド基盤の設計、構築経験があること
・Databricksの構築経験があること
・DatabricksにてAutoML等での機械学習プログラムの実装経験があること
・顧客と仕様についての折衝経験があること
・1人称でタスク遂行できること
・顧客向けにパワーポイントで検証結果報告資料が作成できること

案件内容

データエンジニア/クラウドエンジニア/PMとして、Databricksの導入によるデータ基盤開発や顧客企業のデータ利活用の促進業務。
◆Databricksを用いた顧客のデータ活用基盤開発、データ活用を支援するため、下記の業務を担当。
-データ利用部門との課題定義および要件整理
-データ基盤の設計/開発(AWS、Azure等、他のクラウドと連携したデータ基盤の設計・開発)
-データ基盤上のデータモデル設計・開発
-データ加工処理(ETL/ELT)の設計・開発
-データ分析を行う上で必要となるデータ可視化(BI)の設計・開発
-AIモデルの継続的なデリバリ(MLOps)を考慮した環境の設計・開発

必須スキル

-顧客もしくは自社のクラウド開発プロジェクトにおけるチームのリーダもしくはサブリーダとして、要件定義、設計、実装のいずれかの工程を担当した経験
-5名以上のチームのマネジメントもしくはリーダ経験
-Professionalレベル以上の認定資格(AWS、Azure、Google Cloud等)を有する方もしくは、3年以上のクラウド開発経験

案件内容

データパイプラインの構築、BIツールの整備を中心にご自身のスキルに合わせて業務をご担当いただきます。
具体的には下記になります。

・dbt(data build
tool)にて構築されたデータパイプラインのデータモデルのリファクタリング
・データ利活用のための環境整備 等

必須スキル
・dbt(data build tool)を利用した開発、運用経験
・SQLを用いたDWHやデータマートの構築、運用経験

検索結果364件中1-10件