データエンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:696

データエンジニアの案件を探す

案件内容

■背景
・昨年度より社内のBI移行プロジェクトを実施しており、レポート開発が佳境を迎えている
・利用部門ユーザが自ら作成しているレポートが大半を占めていることから、レポートの作成について伴走型で支援を行いたい
・DOMO→PowerBIへの移行(レポート作成)

■内容
既存レポートのPower BI移行開発や、新規レポート構築、非エンジニア向けにレポート作成についての支援を行う。

<技術支援例>
・レポート移行(他ツールからPowerBIへの移行)
・作成済みレポート改善
・レポート構築・ナレッジ共有

■データ群
会社が管理している予算、受注/売上の見込、実績、原価や利益管理、勤怠情報など

データ量:
基本的には昨対を管理するのと、
過去5年分を履歴として持ち、推移を確認するので、300万行~500万行くらいのデータがある

必須スキル
・Power BI経験(レポート製造・テスト)
・BIツールによるレポート作成経験(他ツールからの移行経験)
・PowerBIのレクチャー経験(人に作り方伝えることが出来る。コミュニケーションスキル重視)
案件内容

取引先データを管理するシステムのマスタデータの管理でInformaticaを採用。
IDM、MDMのサービス展開を実施中。
承認ワークフローはAgileWorks、データ連携する際にInformaticaと絡ませる。
今回はInformatica内のマスタ管理機能の開発がメイン
スケジュールは今月まで要件定義、8月から基本設計。
要件定義は4名体制、設計開発で5名体制で開始し、段階的に人を増やしていく。

必須スキル
・Inforrmatica IDMC設計開発経験者(基本設計以降)もしくはETLツールの設計開発経験
・業務アプリケーション設計開発経験者
案件内容

・大手エンターテインメント企業において、親会社が運営するゲームタイトルのデータを、
データレイクに格納するデータパイプライン構築の業務がメインとなります。

・増員のための募集ですが、チームを技術で引っ張ることのできる中堅レベル、リーダポジションとなれる方をお願いしたいと考えております。

内容や案件はゲームタイトルのスケジュール等に依存するため、
ゲームタイトル以外のデータパイプライン構築や、社内システムの構築をお願いする可能性もございます。
(Webサイト等その他サービス)

※お願いする可能性のある業務スコープ例

・データ分析基盤の開発・運用
データを収集するETL/ELTパイプラインの開発
運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

GCPを採用しており、GCP系リソースを中心に活用します。(BigQueryなど)
インフラ管理:terraform
パイプライン構築:Airflow(Cloud Composer)、Argo workflow、SaaSであるtrocco等

必須スキル
1. SQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験
案件内容

人事管理本部で取り組んでいる人事DXでのデータ加工やBIツールでのダッシュボードの作成

必須スキル
・Pythonでのデータ加工
・PowerBIでのダッシュボード構築経験
・読み書きレベルの英語力
案件内容

■案件背景
・統合データソースをリリース予定
・統合データソースを利用した運用/ダッシュボード構築が今後必要

■案件概要
・データ利活用施策の検討
・データ利活用施策の推進
・特に休眠顧客の掘り起こし/休眠候補顧客へのアプローチ

必須スキル
・CRM領域における実務経験
└ 休眠顧客離反防止に向けた施策検討経験
└ 休眠顧客のアクティブ化施策の推進経験
案件内容

【概要】
・SNS等の投稿データやアカウントデータを分析して市場調査・分析
(中期でLLMモデルが必要と想定している)
・機械学習等のモデル:AI等を通して、他のアンケートと出ている情報を比較して、データの正確性の評価

【ポジション】
・データサイエンティスト
・データエンジニア

必須スキル

【データサイエンティスト】
・データ分析の実務経験がある (2年以上)
・主にPythonを用いたデータ分析
・Scikit-learn, NumPy,
Pandasなどのライブラリを用いたデータ分析、統計、機械学習モデリングの経験
・Tableauを用いて分析結果などのレポーティングなどを行った経験

【データエンジニア】
・データ分析基盤あるいはサーバーサイドの開発実務経験がある (3年以上)
・主にPython, Java, Scalaなどの言語での開発経験がある
・AWS/GCPを使ったシステム開発を行った経験がある
・Airflow, Athena, Redshift, ECS/ECR,
snowflakeなどを利用したシステム開発を行った業務経験がある

案件内容

■データ分析基盤チーム
エンド会社が提供する各プロダクトからのデータ収集、加工・集計対応。
その後可視化、分析結果からの将来予測など。
データレイク、DWH。

【開発環境】
インフラ:AWS(Athena、Redshift、Glue、QuickSightなど)
データベース:RDS(Aurora MySQL)
ETL:AWS Glue
BIツール:QuickSight
言語:Python
コミュニケーション:Slack、Zoom、Backlog、DocBase

必須スキル
・データベースを活用したシステムの設計・開発経験(2年以上)
・AWSの各種サービスを活用したシステムの構築経験
・データ加工、SQL発行し、ご自身で設計経験
・BIシステムの開発経験がある方
案件内容

作業内容:(上から優先度が高い順)
1.詳細設計、実装
データロード処理の追加、改修
(Pythonの追加実装・修正、Cloud Functionsのデプロイを含む)
マート作成処理の追加/改修(SQLの追加実装/修正)
2.単体・結合テスト項目作成とテスト実施
単体テスト、結合テスト、システムテスト
3.運用保守
バッチ処理失敗時の原因調査、影響範囲調査、リカバリ
4.バッチ処理仕様調整
既存処理リファクタリング、追加実装の技術検証、要件確認等

必須スキル
・Python
・SQL
・Google Cloud CLI
・課題に関する共有と解決能力
・自己タスク管理能力
・Google Cloud、BigQuery、GCSに関する基礎知識

検索結果696件中131-140件