| 案件内容 |
グローバル規模で展開する小売・消費財データを活用し、価格戦略・競合分析を支援するデータ活用プロジェクトに参画。 |
|---|---|
| 必須スキル | ・データエンジニアリングまたは技術分析の実務経験(目安:4~6年)
・SQLおよびPythonを用いたデータ処理・自動化の実務経験
・データオーケストレーションツールの利用経験
・Airflow、dbt、Prefect 等
・クラウドプラットフォームの利用経験(GCP尚可)
・Gitを用いたバージョン管理の知識
コンテナ技術に関する基本的な理解・利用経験
・ビジネスレベル以上の英語力(グローバルチームとの連携必須)
|
Apache Airflowの案件一覧
過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。
該当件数:37件
Apache Airflowの案件を探す
【AWSなど】データ基盤の要件定義、設計、構築支援の求人・案件
| 案件内容 |
■具体的な業務内容 ■具体的な業務内容
■求める人物像 |
|---|---|
| 必須スキル | ・クラウド環境(AWS/Google Cloud)を用いた5年以上のデータ基盤構築/運用経験(Lambda、Cloud Run Functions、Cloud Storage、 S3、Compute Engine、Cloud SQL, BigQuery、EMR、RDS、Redshift、 Athena、Airflow、Dataformなどを使用する開発経験)
・データベースの管理経験
・データモデリングの経験
・データベースの最適化、キャパシティプランニングの経験
・TableauやLooker StudioなどのBIツールの利用経験
・並列分散処理に関する基本的な知識
・Linux、Docker、ネットワークの基礎知識
・IaC(terraform)を利用したインフラリソースの管理経験
・Github,Gitを利用したコード管理・チーム開発経験
|
募集終了【SQL/Python】競合インテリジェンス&プライシング分析支援の求人・案件
| 案件内容 |
大規模な生データを取り込み、クリーンアップするための堅牢でスケーラブルなデータパイプラインを構築・維持する、技術的デリバリーの要です。Python/SQL、GCP等のツールを用いてデータ品質を徹底的に保証し、データサイエンティストと連携して高品質なBIダッシュボードを本番環境に移行させます。 【役割/タスク】 |
|---|---|
| 必須スキル | ・データエンジニアリング、データ品質、または技術分析の役割における経験
・データ処理と自動化のためのSQLとPythonの熟練度
・データオーケストレーションツール (例: Airflow、dbt、Prefect) の経験
・高稼働率の顧客向けアプリケーション、ダッシュボード、またはその他のツールをデプロイ・維持した経験
|
| 案件内容 |
顧客のとあるサービスにおいて、Tableauのレポート新規作成・保守を中心とした業務を行っていただきます。
|
|---|---|
| 必須スキル | ・Tableauのご経験 |
【Python】広告系システムの追加開発と保守支援の求人・案件
- 〜¥450,000 /月
- エンジニア
- 東京都
- メディア・広告・出版
| 案件内容 |
広告系システムの追加開発と保守支援 |
|---|---|
| 必須スキル | ・Pythonを用いたWeb API開発経験(FastAPI,Flask,Djangoなど)
・AWS、GCPなどを用いたシステムの設計・開発経験
・KubernetesやECSなどコンテナ化されたアプリケーションの開発・運用経験
・REST/JSONベースの外部APIとの連携実装経験
・チームでのGit運用(ブランチ、PR運用含む)経験
|
| 案件内容 |
グループ会社で既に導入済みのクラウドデータウェアハウス Snowflake を活用し、お客様が求めるアウトプットを効率的に導き出すためのデータ基盤を構築するプロジェクトです。 具体的には、Snowflake と Amazon S3 に格納された各種データを整理・統合し、ビジネスニーズに合致したデータマートの設計および構築を推進いただきます。これにより、お客様が迅速かつ正確にデータ分析を行い、意思決定に繋げられるよう、データ活用を強力に支援します。 |
|---|---|
| 必須スキル | ・データウェアハウス設計の経験: Snowflake、または他の主要なDWH(Redshift, BigQueryなど)での設計・構築経験。
・SQL・データ操作: 大規模データに対する複雑なSQLを用いたデータ抽出、加工、変換の実務経験。
・データパイプライン構築経験: データフローの設計、ETL/ELTツールの選定・実装経験(例:dbt、Airflowなどの知識があれば尚可)。
・セキュリティ・ガバナンスに関する知見: データアクセス制御、プライバシー保護、監査ログなど、データセキュリティとガバナンスに関する知識と実践経験。
|
| 案件内容 |
オルタナティブデータ(今まで利活用の進んでいないビッグデータ)を用いた分析サービスを提供するプロダクトの募集になります。 ・データ基盤開発案件の推進。主に設計や実装フェーズに参画していただきます |
|---|---|
| 必須スキル | ・Pythonを用いた開発・運用経験 |
| 案件内容 |
モビリティ事業を展開している企業にてデータアーキテクト業務をお願いいたします。 ・データ整備業務 |
|---|---|
| 必須スキル | ・SQL |
| 案件内容 |
・大手エンターテインメント企業において、親会社が運営するゲームタイトルのデータを、 内容や案件はゲームタイトルのスケジュール等に依存するため、 ※お願いする可能性のある業務スコープ例 ・データ分析基盤の開発・運用 GCPを採用しており、GCP系リソースを中心に活用します。(BigQueryなど) |
|---|---|
| 必須スキル | 1. SQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験
|
| 案件内容 |
秒間25万リクエストを超える動画配信をはじめとした視聴に関するビッグデータの収集・整形・蓄積まで一貫して行なっていただきます。 【業務内容】 【開発環境】 |
|---|---|
| 必須スキル | ・Pythonを利用した開発経験
・SQLを使ったDBプログラミングの開発経験
・パブリッククラウドを利用したサービス開発・運用経験
・Gitなどのソースコード管理ツールの使用経験
|
検索結果37件中1-10件





