案件内容 |
顧客内の情報を一元的に管理・可視化する、データ分析基盤の開発支援です。チームメンバーと共に試行錯誤しながら業務を進めていただきます。 下記業務をご担当いただく予定です。 ・データソースの収集 ・S3への蓄積 ・AWS Glueを使用したデータ加工 ・外部ツールからのデータ収集/外部ツールへの加工データ連携 ・QuickSightを使用したデータ集計 ・データ加工の自動化(Lambda、StepFunctionを想定) ・terraformを利用した構成管理(Glueのジョブ、IAMロール、S3、Quicksight) |
---|---|
必須スキル | ・BI/ETLツールを使用したデータ分析の経験
・AWSサービスの経験(AWS Glue、Quicksight など)
・SQLによるETL(データ加工)の経験
・新しい技術の導入に積極的な方
|
分析基盤エンジニアの案件一覧
過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。
該当件数:352件
分析基盤エンジニアの案件を探す
案件内容 |
・データ基盤 Azure上にデータ基盤を構築するプロジェクト。蓄積したデータをBIやAIで活用するためのプラットフォームの設計・構築が主業務となります。要求開発フェーズからご参画いただくことを想定。 顧客案件におけるデータ基盤構築支援(要件定義・設計・構築・テスト・マニュアル作成など) 【案件概要】 例: ①某金融業様向けBIレポート可視化用データ基盤構築(常駐型) ②某大学様向け農業IoTデータ収集分析基盤構築 対象リソース: Azure Data Factory, Data Lake, SQL Database, Synapse Analytics, IoT Hub, Stream Analytics, ADLS Gen2(またはBlob Storage), Azure AD B2C, 等 ①要件定義 ②基本設計 ③詳細設計 ④構築 ⑤テスト設計 ⑥テスト⑦運用マニュアル作成を行います。 |
---|---|
必須スキル | ・Azure PaaS構築経験
・DWH構築経験
・基本設計~製造・テスト経験
|
- 〜¥700,000 /月
- 分析基盤エンジニア
- 東京都
- コンサル・シンクタンク
案件内容 |
カーライフテックサービスの顧客データを的確に分析するためのデータ基盤の構築をお願いいたします。 ビジネスサイトと開発チームで必要なデータをすり合わせし、構築いただきます。 言語____:Python,SQL DB____:AWS Aurora (Amazon Aurora) FW____: 環境・OS_:AWS (Amazon Web Services) |
---|---|
必須スキル | ・データ基盤の開発経験
・Pythonでの開発経験
・SQLでの開発経験
・データ処理やETL/ELTの経験
|
案件内容 |
データソース→ETL→BIへのデータ連携業務となります。 複数案件があり、タスクベースでアドホックな対応をお願いします。 分析は別スコープとなります。 |
---|---|
必須スキル | ・BIツール経験
・SQL経験
・DB知識
|
- 〜¥700,000 /月
- 分析基盤エンジニア
- 東京都
- コンサル・シンクタンク
案件内容 |
【業務内容】 在庫管理システムを支えるデータ基盤の構築案件となります。 主に、機能改善及び機能追加をご担当頂き、大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。 |
---|---|
必須スキル | ・システム開発経験3年以上
・Pythonの実装経験1年以上
・Sparkなどの分散処理システムの経験
・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、
Window関数などを理解している方)
・データ基盤の構築経験
・アプリケーションの設計経験
・AWSなどクラウド環境を利用したシステム開発の経験
|
案件内容 |
・データ利用部門からのフィードバックを基にしたデータ基盤改善推進 ・データ基盤改善のための要件定義、プロジェクト推進、実開発業務 ・データ基盤の新サービスへの切り替え 【技術環境】 ・開発言語: Python or Scala ・インフラサービス: AWS(EC2, Lambda, Glueなど) ・データベース環境: MySQL、TreasureData、Snowflake ・業務ツール:Slack、Notion、Google Workspace ・その他利用サービス:GitLab、Digdag、Terraform, Ansible、LookerStudio, Tableau など |
---|---|
必須スキル | ・バックエンド/ データエンジニアとしての実務のご経験2年以上
・データ基盤の運用やパイプライン構築のご経験
|
- 〜¥600,000 /月
- 分析基盤エンジニア
- 東京都
- コンサル・シンクタンク
案件内容 |
大手化粧品会社のDXプロジェクトにおいて、SQLを使用してDWHからのデータ抽出を行い、他システムへの自動データ連携設定などの構築をお任せできる方を募集しています。 プロジェクト全体では20名近くのメンバーが参画しており、その中の約5~7名で構成されているチームに所属いただきます。 【業務詳細】 プロジェクト全体を理解した上で、起用しているTreasure DataからSQLで複数のテーブルを結合、サブクエリも含めた詳細なデータ抽出、顧客マスタ・行動履歴・購買履歴といったデータを結合し、マーケティングデータの抽出や顧客のセグメンテーションを行っていただきます。 会員データはすべてTreasure Dataに入っており、新たな会員データも日々追加させていきます。 すでに構築設定したワークフローを読み解き、既存の構築内容を踏襲、改修を行い、SFMCで配信をおこないます。 |
---|---|
必須スキル | ・SQLで複数のテーブルを結合、サブクエリも含めたデータ抽出の経験
・SQLで各データを結合し、マーケティングデータの抽出や顧客のセグメンテーションの経験
・要件定義された内容をもとに設計に必要なドキュメントを作成した経験
|
案件内容 |
客先社内のDBAエンジニアとしてDBの構築・運用などを主にご担当いただきます。 |
---|---|
必須スキル | DBの構築経験 |
案件内容 |
今後の世界的な課題であるエネルギー問題に対するシステム的な取り組みとなります。そのため社会意義の高い要件を新しい技術領域で対応していく事になります。現在、国内の一部地域を利用した分散電源のデータを共有化するためデータ連携基盤の構築が進められております。技術的な背景はクラウド・DWHの技術的な知見が必要となります。業務設計は出来ておりますが、アーキテクチャー設計は出来ていないため、抽象的な要件の非機能要件化を進めて頂きます。 |
---|---|
必須スキル | ・クラウド基盤における知識/実務経験
・技術的に有ると望ましい物
Kafka / AirFlow / Spark等のデータ分析基盤のクラウドエンジニア側での知識/経験
コンテナオーケストレーション(Kubernetes)知識/経験
※重要:DWH(TiDB/Snowflake)の実務経験
|
案件内容 |
GCP構築業務 ・データパイプライン設計構築 ・DWH、データマート設計構築 GCP(BigQuery,Dataflow等) |
---|---|
必須スキル | GCP構築経験 |
検索結果352件中211-220件