| 案件内容 |
データパイプラインの構築、BIツールの整備を中心にご自身のスキルに合わせて業務をご担当いただきます。 ・dbt(data build |
|---|---|
| 必須スキル | ・dbt(data build tool)を利用した開発、運用経験
・SQLを用いたDWHやデータマートの構築、運用経験
|
データエンジニアの案件一覧
過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。
該当件数:771件
データエンジニアの案件を探す
募集終了【AWSなど】データ基盤の要件定義、設計、構築支援の求人・案件
| 案件内容 |
■具体的な業務内容 ■具体的な業務内容
■求める人物像 |
|---|---|
| 必須スキル | ・クラウド環境(AWS/Google Cloud)を用いた5年以上のデータ基盤構築/運用経験(Lambda、Cloud Run Functions、Cloud Storage、 S3、Compute Engine、Cloud SQL, BigQuery、EMR、RDS、Redshift、 Athena、Airflow、Dataformなどを使用する開発経験)
・データベースの管理経験
・データモデリングの経験
・データベースの最適化、キャパシティプランニングの経験
・TableauやLooker StudioなどのBIツールの利用経験
・並列分散処理に関する基本的な知識
・Linux、Docker、ネットワークの基礎知識
・IaC(terraform)を利用したインフラリソースの管理経験
・Github,Gitを利用したコード管理・チーム開発経験
|
| 案件内容 |
下記のBI製品の開発経験者を常時募集しています ・★PowerBI,★tableau,★motionboard・Looker 上記ツールは案件多数あります ・IBMCognosAnalytics |
|---|---|
| 必須スキル | ・PowerBI・tableau・motionboard・Looker |
| 案件内容 |
元請けプロパーチームに参画し下記作業を実施。 ・クライアントの業務要件・課題を理解し、Power BIを駆使したソリューションを提案 |
|---|---|
| 必須スキル | ・BIツールに関する実務経験:5年以上 |
| 案件内容 |
元請けプロパーチームに参画し下記作業を実施。 •クライアントの業務要件・課題を理解し、Snowflakeを駆使したソリューションを提案 ※英語に抵抗がない方 英会話堪能だと尚可 |
|---|---|
| 必須スキル | ・データウェアハウスに関する実務経験:5年以上
・Snowflakeに関する実務経験:3年以上
・Snowflakeを用いたデータウェアハウス設計・開発経験
・SQLおよびPythonの使用経験
・ETLパイプライン構築経験
・クライアント課題のヒアリング・要件定義の経験
・国際的な環境での業務経験、優れたコミュニケーション能力(英語できれば尚可)
|
| 案件内容 |
データエンジニアとしてデータモデルの設計・開発 【対応工程】 【開発環境】 |
|---|---|
| 必須スキル | ・DWH設計・開発の経験 2年以上
・SQLを用いたデータ抽出・加工の経験 3年以上
・BIツールを用いたダッシュボード・レポートの設計、開発経験
|
募集終了【SQL/Python】競合インテリジェンス&プライシング分析支援の求人・案件
| 案件内容 |
大規模な生データを取り込み、クリーンアップするための堅牢でスケーラブルなデータパイプラインを構築・維持する、技術的デリバリーの要です。Python/SQL、GCP等のツールを用いてデータ品質を徹底的に保証し、データサイエンティストと連携して高品質なBIダッシュボードを本番環境に移行させます。 【役割/タスク】 |
|---|---|
| 必須スキル | ・データエンジニアリング、データ品質、または技術分析の役割における経験
・データ処理と自動化のためのSQLとPythonの熟練度
・データオーケストレーションツール (例: Airflow、dbt、Prefect) の経験
・高稼働率の顧客向けアプリケーション、ダッシュボード、またはその他のツールをデプロイ・維持した経験
|
| 案件内容 |
Googleスプレッドシートに保存された広告データを、BigQueryに取り込み、Looker Studioにて可視化・レポート作成を行う支援業務。BigQuery環境の利用が前提 |
|---|---|
| 必須スキル | ・BigQueryを用いたデータ連携・加工経験 |
| 案件内容 |
既存のTableau環境に対しDatabricksを追加採用し、社内外データを一元的・効率的に管理できる統合データ基盤を構築するプロジェクトになります。 現状:Tableau (BIツール) のみ導入済み。 |
|---|---|
| 必須スキル | ・大規模データ基盤構築プロジェクトにおける構築実務経験 |
| 案件内容 |
主にマルチクラウド環境(AWS/GCP)のデータ基盤構築と整備、およびデータ活用のための前処理開発を担当いただきます。 データ基盤構築・統合: データパイプライン開発:AWSとGoogle Cloudの両方からデータを接続するデータパイプラインの設計・実装。 データ前処理・加工(データマート構築): 運用・保守: ELTについて: |
|---|---|
| 必須スキル | クラウド: AWSとGoogle Cloud (GCP)の両方のデータ領域に精通していること。
DWH/ETL: BigQueryを用いたデータ基盤構築、およびデータパイプラインの設計・実装経験。
データ処理: データの前処理(データマート構築)や加工、抽出パターン、グルーピング定義を理解し、実装できること。
コミュニケーション能力が高く、指示に対して一人称でロジカルに作業を進められるミドル以上の経験。
|
検索結果771件中21-30件





