ELTの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:19

ELTの案件を探す

案件内容

【業務内容】
・データ要素追加、アプリケーション追加によるデータ処理(Go言語)の追加
・既存データ基盤(オンプレ、Kubernetes環境)の改修、検証、テスト
・各種ミドルウェア(CI/CD、監視、DB)の導入、検証、テスト
・データ基盤の量産
・顧客折衝

必須スキル
・Kubernetesを利用したインフラ設計構築(インストール)・運用経験
・アプリケーション開発経験(Go言語/Java/Python等でデータ処理経験がある方歓迎)
案件内容

 データ分析基盤(データクリーンルーム)の設計/開発へ参画いただきます。
 既存のデータ分析基盤案件を対応しているチームをベースに、
新しくData Engineeringチームの設立を行う予定で、その構成メンバーを募集しています。
 Data Engineeringチームの主な活動は、同社が対応を進めているデータベース、
クラウドベースのDWH案件の各種開発サポート、アドホック対応、
PoC対応など全般を各種案件チームの一員としてご対応いただきます。
 状況によって、開発されたデータベース、データウェアハウスの検証作業も担当いただきます。
 対応すべき案件の幅が広いことから、幅広いご経験と知見を必要としますが、
案件の開発状況に対し、リーダーからメンバー適正に合わせた業務割り振りを行います。
 その為、専門分野でない未経験領域への挑戦意欲や、新しいテクノロジーに対する
学習意欲の高い方が求める人物像となります。

必須スキル
 ・SQLを用いたDB構築経験 ⇒ 
 ・下記いずれかのロール経験 ⇒ 
  (データエンジニア、データアナリスト、データベースエンジニア、アナリティクスエンジニア)
 ・下記いずれかのクラウドベースのデータウェアハウスの利用スキル ⇒ 
  (Snowflake、Amazon Redshift、BigQuery、Azure Synapse Analytics)
 ・様々な種類のデータ(構造化/非構造化)を扱った経験 ⇒ 
 ・データインジェスト、データパイプライン、ETL、ELT、データモデルの概念の理解 ⇒ 
 ・リレーショナルおよびディメンショナルデータ構造、理論、実践に関する知識 ⇒ 
案件内容

データ分析基盤の開発・構築を行なっていただきます。

必須スキル
・BigQuery、Redshift、Hadoop、Snowflakeなどの分散データ基盤の利用経験
・アプリケーション開発経験 または ETL/ELTツールを利用した開発経験
・RDBMSの利用経験
案件内容

・クライアントグループ全社のデータパイプライン設計・実装及び実装委託
 (APIやパブリックデータの取得/整備)
・DWH管理業務 (欠損,Issue,申請等の対応)

【業務スコープ】
・Google Cloud Platformをバックエンドとするデータ分析基盤の開発・運用
・データ分析基盤と各事業部が有するデータを活用するための開発・運用
★データ分析基盤にデータを収集するETL/ELTパイプラインの開発・管理
・データ分析基盤でデータを集計するワークフローの開発
・技術調査

必須スキル
・ 複雑なSQLを用いたデータ抽出経験
・ ETL/ELTのデータパイプライン設計/構築
・ワークフローの構築経験(Digdag / Airflow etc.)
・ GCPでの開発経験
案件内容

・エンタープライズ様向けにAI Saasサービスを展開されている会社様になります。
・具体的にはデータエンジニアとしてデータプラットフォームの企画およびアーキテクチャ設計や
データパイプラインの設計・構築といった業務に携わって頂きます。

【参画メリット】
・フルリモートですので、ご自身のリラックスできる環境で作業が可能です。
・AIを活用したモダンな開発環境がございますので、今後のスキルアップに繋がりやすいかと存じます。

【就業形態について】
現状、メンバーのほとんどはフルリモートにて業務を行っております。
週に何日かご出社をご希望の際にはご相談ください。

必須スキル
・PythonかTypeScriptでの開発ご経験が3年以上
・データ基盤および分析基盤などの開発・構築ご経験が3年以上
・AWS、GCP等の各種クラウドサービスの利用およびスケーラブルなクラウドベースの
アーキテクチャデザイン・実装経験
・ETLやELTの実装のご経験
・TerraformなどInfrastructure as Codeの運用ご経験
案件内容

自社にてECサイト・口コミサイトを開発運営している大手企業でGoogle Cloudを利用したデータパイプラインの開発・運用を行っていただきます。

必須スキル
・データ分析に関わる開発実務経験(SQL/Pythonなど)2年半以上
・AWS、GCPいずれかのクラウドデータ分析基盤の運用経験 合計1年以上
・高度なSQL(複雑な副問い合わせなど)の経験
・データマネジメントに関する基本的な知識
・データモデリングの経験、DWHの構築・運用経験
案件内容

大手半導体業界メーカーのデータ収集基板構築(オンプレサーバー上にて構築)に伴い、システム構築・データ処理などのプログラム開発、パフォーマンス検証等をご担当頂く方を募集します。

具体的な業務としては以下になります。
・データ種の追加やアプリケーション追加によるデータ処理(Go言語・コンテナアプリケーション)の追加
・既存データ基盤(オンプレ、Kubernetes環境)の改修・検証・テスト
・各種ミドルウェア(CI/CD、監視、DB)の導入・検証・テスト
・データ基盤の量産
・顧客との打ち合わせ (顧客のエンジニアおよび弊社メンバーと一緒に開発頂きます)

必須スキル
①Linuxでの環境構築・Linux上でのアプリ開発経験(3年以上)
②Gitの利用経験(3年以上)
③下記5項目のうち、2項目以上該当する方
・Go言語を用いたアプリケーション開発経験(1年以上)
・コンテナアプリケーションの開発経験(1年以上)
・ミドルウェア(DB・分割ストレージ)の設計・導入・運用経験(1年以上)
・Docker・Kubernetes等でのコンテナ運用経験(1年以上)
・システムアーキテクチャ設計経験(1年以上)
案件内容

・エンタープライズ様向けにAI Saasサービスを展開されている会社様になります。

・具体的にはデータエンジニアとしてデータプラットフォームの企画およびアーキテクチャ設計や データパイプラインの設計・構築といった業務に携わって頂きます。
【参画メリット】

・フルリモートですので、ご自身のリラックスできる環境で作業が可能です。

・AIを活用したモダンな開発環境がございますので、今後のスキルアップに繋がりやすいかと存じます。
【就業形態について】

現状、メンバーのほとんどはフルリモートにて業務を行っております。

週に何日かご出社をご希望の際にはご相談ください。
【備 考】

現場チームについては、様々な分野での経験を持つ少数精鋭のメンバーが集まっております。

必須スキル
・PythonかTypeScriptでの開発ご経験が3年以上
・データ基盤および分析基盤などの開発・構築ご経験が3年以上
・AWS、GCP等の各種クラウドサービスの利用およびスケーラブルなクラウドベースの
アーキテクチャデザイン・実装経験
・ETLやELTの実装のご経験
・TerraformなどInfrastructure as Codeの運用ご経験
案件内容

デジタルメニューブック(セルフオーダー端末)の導入と機能向上、自社配達ネットワークにおける配達員専用アプリの開発、共同デリバリーやエリア配達のシステム構築などをの実績がある
業務スコープその中でデータは溜まってきているがうまく活用ができておらずtoC向けのマーケティングチームと分析施策のアドバイザリー+データ分析基盤構築※知見でOK+ガバナンス
データソース

・Google Analytics

・DWHへ統合 ※CDP、CRM等部門ごとのデータを統合

・外部Web API

データ統合先

・BigQuery

マーケティングレイヤー

・toC向けのデータ活用

ガバナンス

必須スキル
GCP BigQueryの知見
ETL・ELTの知見
データガバナンス

検索結果19件中11-19件