DB/基盤系の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:812

DB/基盤系の案件を探す

案件内容

■概要
某有名WEBサービス事業にてBIエンジニアを募集します。
先ずは分析テーマ一つをお任せします。
他事業部と連携を取りながら自走いただきます。

■業務スコープ
・ダッシュボード開発要望のヒアリングと詳細要件定義、画面設計
・Tableauダッシュボード実装
・ダッシュボード実装に必要なデータマート作成

■分析テーマ例
・ユーザーのアクセス分析
・プロダクト周り分析
・記事に対するアクセス年代別の集計等

■取扱いデータ例
・テラバイトクラスのデータ量
・ユーザの口コミデータ
・予約データ
・アクセスログ

■環境
BigQuery,Tableau,SQL

必須スキル
・Tableauダッシュボードの要件定義・開発業務(1年以上)
・SQLを用いたデータ処理業務(
2年以上)
・サブクエリ、window関数等の使用経験
・コミュニケーション能力
案件内容

VB.NETを使用した、基幹システムの運用業務にかかるオフショアチームのテクニカルディレクション
【工程】
・設計
・テスト仕様書作成
・コードレビュー
・マネジメント(5~6名程度)

必須スキル
1. VB.NET
2.HTML、CSS
3.JavaScript
・1~3のコードレビュー経験
・Git
・開発チームのリーダー経験
案件内容

【システム概要】
複数のビジネスチーム向けに必要なデータセットの要件を整理し、
Databricks上で分析用データセットを効率的に作成するETL、
ワークフローを開発します。

【業務内容】
各チームから挙げられる要件の整理や、ベストプラクティスを調査し、
購買情報、各種施策、会員情報やアクセスログなどを元に、効率的な
データセットを作成するためのETL、パイプラインの作成を行います。
データ分析基盤チームに参画しており、必要に応じてノウハウなどを
共有しながら作業を進めて頂きます。

【担当領域】
要件定義~実装

【開発方式】
お客様と都度調整しながら進めるアジャイル開発となります。

   

【システム構成】
サービス:AWS、Databricks、Redshift
利用ツール:Slack、Backlog、Git (GitHub)

必須スキル
DWH/DM設計
ETL開発
Python
案件内容

データユーザーからの要求をくみとり的確なデータとフローの設計を行い、パイプラインの構築やパイプラインを動かすデータ分析基盤の運用保守を行う。

必須スキル
・クラウドデータ基盤サービスでの開発運用保守経験(特にBigQueryの経験があると良い)
・データ基盤運用の範囲におけるSQL(DDL/DML、CTE、副問い合わせ、information_schemaの利用、など)
・Linux / ネットワークの基礎知識(Linuxサーバの運用保守経験があると良い)

 

以下技術要素参照(*が特に重要)
– ETL/ELTツール
– *Embulk
– trocco
– digdag
– BIツール
– Redashなど
– GoogleCloud
– *BigQuery
– Cloud Storage(updated)
– Data Transfer
– IAM
– Cloud Monitoring / Cloud Logging
– その他
– *Linux
– *Bash
– Git
案件内容

・新機能の設計・開発・保守。
・既存機能の保守・改修。
・ユーザーや社内の声を反映したプログラム改善。
・プログラム起因による障害発生時のトラブルシューティング。
・データベース周りの業務
・API設計の経験

必須スキル
・Gitを用いたWebバックエンド開発経験
・要件定義工程の経験
・Pyhonを用いたAPI結合・ビジネスロジックの構築
・Djangoを用いた開発経験
・MySQL相当の基本操作(CRUD)
・Docker等開発環境の構築・基本操作
・仕様・デザイン折衝の経験
・マネージメント経験
案件内容

コンサルタント会社が進めている大手化粧品会社のDXプロジェクトにご参画いただきます。
こちらのチームでは、20名近いメンバーが各ポジションで動いており、
データ活用・分析、Salesforce Marketing Cloudを活用したメールマーケティング等を支援しています。

【詳細】
・SQLを使用し、BigQuery環境のデータを抽出、加工する業務
・Salesforce Marketing Cloudとの連携、セグメンテーションなど
※顧客マスタ、行動履歴、購買履歴といったデータを使用いたします。

※貸与PCでの業務をお願いします。

必須スキル
・社会人経験(目安2年~)
・BigQuery環境でデータの抽出、加工を行った経験(目安1年~)
・SQL記述スキル
案件内容

・サービスデータのTableauを用いたビジュアライズ
・上記データの分析(営業や企画から依頼が来ます)
・上記データのデータ抽出
・Tableau Serverの管理(ブラウザを用いたUI上の管理です)
・GA、BigQueryを用いたweb分析
・上記データのビジュアライズ
・データマート作成
・データクレンジング

必須スキル
・SQL(MySQL、BigQuery、Athena)
・Tableau
案件内容

概要:
需要予測モデルをEC2上の分析環境で動かしているJupyterコードでの運用になっており、様々な問題が生じている。
SageMakerの実装を進めていただきます。

依頼内容:

  1. 実験環境の整備:既存の実験環境のSageMaker上への移行。
  2. Training/Inferenceパイプラインコードの作成
  3. CI/CD環境の構築
  4. その他追加作業

環境:
SageMaker, Snowflake, Snowpark, Streamlit

必須スキル
・Python(3年以上のコーディング経験(Jupyter Notebook上でのモデル開発))
・SageMakerを含むAWSでのMLops構築経験
案件内容

バックエンドの開発に携わるGo言語エンジニアを募集します。
WEB、モバイル複数のクライアントを提供しており、それら全てのクライアントを支えるバックエンド(API)を開発していただきます。
規模がそれほど大きくない会社のサービス開発なので、開発メンバーが仕様決定に大きく関われる機会がたくさんあります。
メインでお任せするのはGo言語によるAPI実装ですが、前工程のシステム設計、サービス仕様検討に関わっていただき、アイデアをサービスに反映していただくことも大歓迎です。
Go言語を習得しており学ぶ意思があり、コミュニケーション力をお持ちの方を求めています。
バックエンドではAWSを利用しマイクロサービスアーキテクチャを採用しています。
そのためAWSなどの経験があるのが理想ですが、Go言語を熟知しており、好奇心があり学ぶ意思があれば問題ありません。
開発PJはWEBチーム(5人)とモバイルチーム(3人)という小規模体制で、1人1人が複数の役割を持ち密に連携しながらスクラム開発でプロダクトを作り上げます。
今回メインでお任せするのはGo言語によるAPI実装ですが、このようなチームの中で素早く成果を発揮していただくためのコミュニケーション力が必用です。
■利用技術など
バックエンド:
 Golang(gin, grpc-go, sqlx, testify, zerolog)
 gRPC, Protocol Buffers
フロントエンド:
 React, React Router, React Query(TanStack Query), Material-UI
 TypeScript
 REST, Axios, Open API
 Adobe XD
クラウド・インフラ:
 AWS(EKS, EC2, RDS(Aurora MySQL), ALB, DynamoDB, S3, CloudFront, ACM, SQS, SES, ECR, Route53)
 Terraform
クラウド・インフラ-運用監視:
 AWS(CloudWatch, SNS, Connect)
 DataDog
その他:
 GitLab(構成管理)
 Visual Studio Code(IDE)
 Confluence(ドキュメント管理)
 Jira(タスク管理)
 Zoom(リモートワーク)

必須スキル
・開発チーム外と議論しながら自社サービスの仕様検討できる
・Golangを使ったバックエンドシステムの設計・実務経験2年以上
・The Twelve-Factor Appの基本的な考え方
・DevOps、IaC(Terraform, AWS CloudFormationなど)に関する知識
・RESTの基本知識
・中長期的に若手育成が可能な方
案件内容

内容:
物流マッチングプラットフォームを展開する企業にて、データエンジニアとしてご参画頂きます。
主に各事業のデータ分析基盤(DWHとデータパープライン)の設計・構築・運⽤を⾏っていただきます。
<具体的な業務内容>
既存のDWH(BigQuery)とデータパイプラインの拡充

  • 利用可能なデータの拡充
  • データのリアルタイム性の向上
    将来のデータ基盤戦略の策定とその推進
  • 新たなDWHとデータパイプライン(ELT)の設計・構築・運用
    データ分析によるビジネス課題の発見の推進
  • データによる課題の可視化
  • BIなどを通したモニタリング環境の構築
    技術環境:
    ・言語:Ruby、Python
    ・バージョン管理:Git/GitHub
    ・データ基盤:BigQuery、AWS RDS
    ・BI: Redash、Google Spread Sheet、Google Data Studio
    ・コミュニケーション:Slack、Notion
必須スキル
・1名でのデータ分析業務を担当した経験または現場リーダーとしての経験
・BigQuery、Redshift、Snowflake などのDWH環境の利⽤経験(3年以上)
・GCP、AWSなどクラウド環境の利⽤経験(3年以上)
・データ分析基盤開発における、ETL処理の理解・経験(3年以上)
・データベースに関する知識とSQLの利⽤経験(3年以上)
・正規化されたデータをもとに要望にあわせてSQLを⽤いてデータ抽出ができる方

検索結果812件中301-310件