| 案件内容 |
データエンジニア/クラウドエンジニア/PMとして、Databricksの導入によるデータ基盤開発や顧客企業のデータ利活用の促進業務。 |
|---|---|
| 必須スキル | -顧客もしくは自社のクラウド開発プロジェクトにおけるチームのリーダもしくはサブリーダとして、要件定義、設計、実装のいずれかの工程を担当した経験 |
データエンジニアの案件一覧
過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。
該当件数:753件
データエンジニアの案件を探す
- 〜¥800,000 /月
- BIエンジニア
- 東京都
- 医療・福祉・ヘルスケア
| 案件内容 |
社内データ基盤の活用を推進するため、BIレポートの設計・開発からデータマートの構築までを一気通貫で担当いただきます。 単なる開発作業にとどまらず、社内ステークホルダーからの要望ヒアリングや要件定義、運用マニュアルの作成、問い合わせ対応など、ディレクション業務も並行して行っていただくポジションです。 |
|---|---|
| 必須スキル | ・SQLを用いたデータ集計・分析の実務経験 |
| 案件内容 |
データパイプラインの構築、BIツールの整備を中心にご自身のスキルに合わせて業務をご担当いただきます。 ・dbt(data build |
|---|---|
| 必須スキル | ・dbt(data build tool)を利用した開発、運用経験
・SQLを用いたDWHやデータマートの構築、運用経験
|
【AWSなど】データ基盤の要件定義、設計、構築支援の求人・案件
| 案件内容 |
■具体的な業務内容 ■具体的な業務内容
■求める人物像 |
|---|---|
| 必須スキル | ・クラウド環境(AWS/Google Cloud)を用いた5年以上のデータ基盤構築/運用経験(Lambda、Cloud Run Functions、Cloud Storage、 S3、Compute Engine、Cloud SQL, BigQuery、EMR、RDS、Redshift、 Athena、Airflow、Dataformなどを使用する開発経験)
・データベースの管理経験
・データモデリングの経験
・データベースの最適化、キャパシティプランニングの経験
・TableauやLooker StudioなどのBIツールの利用経験
・並列分散処理に関する基本的な知識
・Linux、Docker、ネットワークの基礎知識
・IaC(terraform)を利用したインフラリソースの管理経験
・Github,Gitを利用したコード管理・チーム開発経験
|
| 案件内容 |
下記のBI製品の開発経験者を常時募集しています ・★PowerBI,★tableau,★motionboard・Looker 上記ツールは案件多数あります ・IBMCognosAnalytics |
|---|---|
| 必須スキル | ・PowerBI・tableau・motionboard・Looker |
| 案件内容 |
元請けプロパーチームに参画し下記作業を実施。 ・クライアントの業務要件・課題を理解し、Power BIを駆使したソリューションを提案 |
|---|---|
| 必須スキル | ・BIツールに関する実務経験:5年以上 |
| 案件内容 |
元請けプロパーチームに参画し下記作業を実施。 •クライアントの業務要件・課題を理解し、Snowflakeを駆使したソリューションを提案 ※英語に抵抗がない方 英会話堪能だと尚可 |
|---|---|
| 必須スキル | ・データウェアハウスに関する実務経験:5年以上
・Snowflakeに関する実務経験:3年以上
・Snowflakeを用いたデータウェアハウス設計・開発経験
・SQLおよびPythonの使用経験
・ETLパイプライン構築経験
・クライアント課題のヒアリング・要件定義の経験
・国際的な環境での業務経験、優れたコミュニケーション能力(英語できれば尚可)
|
| 案件内容 |
データエンジニアとしてデータモデルの設計・開発 【対応工程】 【開発環境】 |
|---|---|
| 必須スキル | ・DWH設計・開発の経験 2年以上
・SQLを用いたデータ抽出・加工の経験 3年以上
・BIツールを用いたダッシュボード・レポートの設計、開発経験
|
募集終了【SQL/Python】競合インテリジェンス&プライシング分析支援の求人・案件
| 案件内容 |
大規模な生データを取り込み、クリーンアップするための堅牢でスケーラブルなデータパイプラインを構築・維持する、技術的デリバリーの要です。Python/SQL、GCP等のツールを用いてデータ品質を徹底的に保証し、データサイエンティストと連携して高品質なBIダッシュボードを本番環境に移行させます。 【役割/タスク】 |
|---|---|
| 必須スキル | ・データエンジニアリング、データ品質、または技術分析の役割における経験
・データ処理と自動化のためのSQLとPythonの熟練度
・データオーケストレーションツール (例: Airflow、dbt、Prefect) の経験
・高稼働率の顧客向けアプリケーション、ダッシュボード、またはその他のツールをデプロイ・維持した経験
|
| 案件内容 |
Googleスプレッドシートに保存された広告データを、BigQueryに取り込み、Looker Studioにて可視化・レポート作成を行う支援業務。BigQuery環境の利用が前提 |
|---|---|
| 必須スキル | ・BigQueryを用いたデータ連携・加工経験 |
検索結果753件中1-10件





