ETLの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:97

ETLの案件を探す

案件内容

・データ基盤(databricks)上で、事業部のデータサイエンティスト向けに
 データマートの構築作業を行っていただきます。
・SaaSツールを組み合わせて、databricks上にデータ基盤構築をしていただきます。
・エンドユーザと直接やり取りができる環境での案件です。

必須スキル

■必須要件:
・データ基盤構築・分析基盤構築経験がある方
・コミュニケーションを円滑に行える方
 (待ちの姿勢でなく、積極的にコミュニケーションを取れる方)

案件内容

■工程:要件定義~

■案件概要:
・オンプレのOracle ExadataからSnowflakeへDWHを移行
・DWH移行に伴いETL(Datastage)ジョブ他を改修(一部は新規開発、廃止も含む)
・DWH移行に伴い関連システムとのとのインターフェース連携方式変更、その他データフロー変更
・データソース一元化のため、連携ファイル格納先としてS3を新規導入
■規模感
・移行対象テーブル数:約1500本
・移行ETLジョブ数:約1000本
・インターフェース数:約1000本

必須スキル
・内外関係者とコミュニケーションを取り、一人称で進められる
・上流工程経験(スコープ、方針検討、工数見積など)
・ETL開発経験(Datastage)※1名はDatastage必須
・DB/DWH開発経験(Snowflakeの知見があると尚可)
案件内容

グローバルブランドとして国内外に展開している某小売企業においてデータエンジニア業務(データ基盤構築、ETL設計・開発)をご担当いただきます。

DWH:Snowflake
ETLツール:dbt

必須スキル
・3年以上のシステム開発業務経験(OS、言語問わず)
・クラウドサービスを利用したデータレイク/DWH/データマートの設計、構築経験
・SQLやPythonを利用したETL開発経験
案件内容

pandas ライブラリを利用した ETL 処理
をしていただきます。

担当フェイズ
設計~開発~テスト

必須スキル
pandas ライブラリを利用した ETL 処理に慣れている方
— データソース:csv, parquet, Redshift/RDS table, boto3 API
— 加工処理:カラムの追加・削除、行列抽出、値の置換、四則演算、日付演算等
— アウトプットの書き込み:S3(csv, parquet, json), Redshift, RDS
静的解析ツールのチェック結果に基づいてコードの修正が可能な方(flake8, mypy)
ユニットテストを実装できる方(pytest)
案件内容

LaKeel BIからpowerBIにダッシュボードの移行作業をお願いいたします。

■業務内容
LaKeel BIで開発した下記のレポートやグラフの移行作業と改善業務
・販売系の実用予測のレポート
・PLの管理会計のグラフ
・プロモーション広告費の費用対効果の分析レポート

■チームメンバー構成
3名体制
その内のメンバーポジションの募集になります。

必須スキル
・powerBI経験
・SQLServer経験
案件内容

クライアントでは「商品名○○」など、クライアントの提供する各種サービスをひとつのIDで使用できる統合管理システム「●●」を運用しております。
今回のポジションは議事録、通話データなどの多様なデータをデジタル化し、統合管理をするデータプラットフォームの構築がメインミッションとなります。

クライアントのデータエンジニアとして、CTO、CSO等と連携しながら、データインテグレーションに関する企画・開発全般をご担当いただきます。

<具体的な業務内容>
・データプラットフォームの企画およびアーキテクチャ設計
・データパイプラインの設計・構築
・データ分析のためのBIの開発・運用
・継続的なモニタリングプロセスの構築・運用
・データサイエンティスト、データアナリストが作成する分析フローの運用改善支援
・顧客データ活用の実態やドメイン知識の理解
・CTO、CSO等と連携し、プロジェクトの目的・方針・計画等の策定 等

技術環境
<プロダクト開発部>
言語:TypeScript, Python, Flutter
フレームワーク:Vue.js, Nuxt.js,Node.js
データベース:Cloud Firestore
インフラ:AWS, GCP, Azure, Cloud Firebase, Cloud Functions
ソースコード管理:Bitbucket
プロジェクト管理ツール:Notion, JIRA
コミュニケーションツール:Zoom, Slack, Google Workspace

<R&D部門>
開発言語:Python
フレームワーク:PyTorch, HuggingFace, SpeechBrain, scikit-learn

必須スキル
・データサイエンス全般に関する理解・経験
・Pythonを含む複数言語(TypeScript等)での開発経験(3年以上)
 TypeScript、SQL、Java、Scalaでの開発経験尚可
・データ基盤および分析基盤などの開発・構築経験(3年以上)
・AWS、GCP等の各種クラウドサービスの利用およびスケーラブルなクラウドベースのアーキテクチャデザイン・実装経験
・ETLやELTの実装経験
・TerraformなどInfrastructure as Codeの運用経験または興味関心
(業務委託の方の場合)平日10:00~18:00の間で週24h以上稼働が可能な方
案件内容

SQLでのデータ抽出&加工、分析
※分析はトラフィックやアプリ利用実績等を集計
※現状はExcel数表ベースで提供
※中長期の案件となります

参考までに、今後、あると良い経験
・ETL…Prep、SASEG、PowerCenter、DataStage
・BI…Tableau、Qlik製品、PowerBI等

必須スキル

SQLによるデータ抽出・加工

案件内容

【業務概要】
・エンタープライズ様向けにAI Saasサービスを展開されている会社様になります。
・具体的にはデータエンジニアとしてデータプラットフォームの企画およびアーキテクチャ設計や
データパイプラインの設計・構築といった業務に携わって頂きます。

【参画メリット】
・フルリモートですので、ご自身のリラックスできる環境で作業が可能です。
・AIを活用したモダンな開発環境がございますので、今後のスキルアップに繋がりやすいかと存じます。

【就業形態について】
現状、メンバーのほとんどはフルリモートにて業務を行っております。
週に何日かご出社をご希望の際にはご相談ください。

必須スキル
・PythonかTypeScriptでの開発ご経験が3年以上
・データ基盤および分析基盤などの開発・構築ご経験が3年以上
・AWS、GCP等の各種クラウドサービスの利用およびスケーラブルなクラウドベースの
アーキテクチャデザイン・実装経験
・ETLやELTの実装のご経験
・TerraformなどInfrastructure as Codeの運用ご経験
案件内容

主に Python を用いたデータ基盤や ETL の構築・運用
・同じく Python(FastAPI)を用いて Web サービス向けサーバサイド API の実装・運用
・ クラウドインフラ(GCP)のアーキテクチャ上での機能追加・改善
・多数のデータサービス施策のモニタリングとインシデント発生時のオペレーション
・エンジニアリングチーム内の技術コミュニケーション(レビューや技術調査)
BI開発(未経験可)

必須スキル
– Python 3系 での開発経験
– SQLに関する理解と充分な経験
– GCP 環境上での開発経験
– BigQuery 上でのデータマート運用経験
– Docker フレンドリな環境での開発・運用経験
– Git ベースの開発経験
– チケット駆動型のタスク管理
– リモート環境下での他者との意思疎通が柔軟にできること

検索結果97件中1-10件