分析基盤エンジニアの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:349

分析基盤エンジニアの案件を探す

案件内容

データソース→ETL→BIへのデータ連携業務となります。

複数案件があり、タスクベースでアドホックな対応をお願いします。

分析は別スコープとなります。

必須スキル
・BIツール経験
・SQL経験
・DB知識
案件内容

【業務内容】

在庫管理システムを支えるデータ基盤の構築案件となります。

主に、機能改善及び機能追加をご担当頂き、大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。

必須スキル
・システム開発経験3年以上
・Pythonの実装経験1年以上
・Sparkなどの分散処理システムの経験
・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、
 Window関数などを理解している方)
・データ基盤の構築経験
・アプリケーションの設計経験
・AWSなどクラウド環境を利用したシステム開発の経験
案件内容

・データ利用部門からのフィードバックを基にしたデータ基盤改善推進

・データ基盤改善のための要件定義、プロジェクト推進、実開発業務

・データ基盤の新サービスへの切り替え

【技術環境】

・開発言語: Python or Scala

・インフラサービス: AWS(EC2, Lambda, Glueなど)

・データベース環境: MySQL、TreasureData、Snowflake

・業務ツール:Slack、Notion、Google Workspace

・その他利用サービス:GitLab、Digdag、Terraform, Ansible、LookerStudio, Tableau など

必須スキル
・バックエンド/ データエンジニアとしての実務のご経験2年以上
・データ基盤の運用やパイプライン構築のご経験
案件内容

大手化粧品会社のDXプロジェクトにおいて、SQLを使用してDWHからのデータ抽出を行い、他システムへの自動データ連携設定などの構築をお任せできる方を募集しています。

プロジェクト全体では20名近くのメンバーが参画しており、その中の約5~7名で構成されているチームに所属いただきます。

【業務詳細】

プロジェクト全体を理解した上で、起用しているTreasure DataからSQLで複数のテーブルを結合、サブクエリも含めた詳細なデータ抽出、顧客マスタ・行動履歴・購買履歴といったデータを結合し、マーケティングデータの抽出や顧客のセグメンテーションを行っていただきます。

会員データはすべてTreasure Dataに入っており、新たな会員データも日々追加させていきます。

すでに構築設定したワークフローを読み解き、既存の構築内容を踏襲、改修を行い、SFMCで配信をおこないます。

必須スキル
・SQLで複数のテーブルを結合、サブクエリも含めたデータ抽出の経験
・SQLで各データを結合し、マーケティングデータの抽出や顧客のセグメンテーションの経験
・要件定義された内容をもとに設計に必要なドキュメントを作成した経験
案件内容

今後の世界的な課題であるエネルギー問題に対するシステム的な取り組みとなります。そのため社会意義の高い要件を新しい技術領域で対応していく事になります。現在、国内の一部地域を利用した分散電源のデータを共有化するためデータ連携基盤の構築が進められております。技術的な背景はクラウド・DWHの技術的な知見が必要となります。業務設計は出来ておりますが、アーキテクチャー設計は出来ていないため、抽象的な要件の非機能要件化を進めて頂きます。

必須スキル
・クラウド基盤における知識/実務経験
・技術的に有ると望ましい物
 Kafka / AirFlow / Spark等のデータ分析基盤のクラウドエンジニア側での知識/経験
 コンテナオーケストレーション(Kubernetes)知識/経験
※重要:DWH(TiDB/Snowflake)の実務経験
案件内容

概要:

エンドクライアントの分析基盤の設計、開発、運用を担当いただきます
業務内容:

・外部とのデータ連携

・データ仕様や処理のスキームについての要件擦り合わせ

・AWS S3, Google Cloud Storage, Google Drive と言った各種ストレージと BigQuery 間でのデータの転送処理を Cloud Functions と Airflow を用いて実装・管理

・IAM の発行・管理、データのアクセスコントロール

・データサイエンティストと意見交換しながら、データの取得や前処理、予測モデル・予測値生成、および抽出のバッチ化・運用

・データ処理に係るコストのモニタリング、最適化施策

・データ連携に係るプライバシーマークへの対応

フラットな組織で、自身で物事を推進する文化です。

必須スキル
・社内外と的確かつ迅速に物事を相談して進めるためのコミュニケーションスキル
・データベース、処理スキームの設計、運用
・ビッグデータの処理スクリプト開発(大量ファイル・大容量データにおける文字コード変換、文字置換、一括解凍・圧縮等)
・Python, Java, Go, Rのいずれかの言語による簡易なデータ分析スクリプト開発
案件内容

概要:

エンド企業へGCP導入にあたってのデータエンジニアを募集しています。
業務例:

・顧客折衝、要件整理、ドキュメンテーション

・データパイプライン設計構築

・DWH、データマート設計構築
環境:

GCP(BigQuery,Dataflow等)

必須スキル
・GCP経験
・データエンジニアリング経験
案件内容

弊社最初のプロダクトである、鉄スクラップ解析アプリケーションに搭載されるAIのモデルをAIチームと協業しながら、パイプラインを構築し、本番環境でモデルのトレーニング、テスト、デプロイ、配信、監視、保守、運用を担当いただきます。もちろんチームと相談して分担はしますが、データ収集、前処理といったデータエンジニア領域での活躍も期待しております。
1人目のMLOpsエンジニアとして技術選定はもちろんチームの開発スタイルを形作るところからお任せさせていただきます。将来的にCTOやEM等のポジションを目指すことも期待しています。

まだまだ出来上がった製品ではなく、ユーザーと近い距離で開発をすることができることも魅力の一つです。

必須スキル
– MLOps、SREに関連した業務開発経験
– Docker等のコンテナ技術の基礎的知識
– Git / GitHubを利用したチーム開発経験
– AWS等のクラウドシステムを利用した開発経験

検索結果349件中211-220件