案件内容 |
上位クライアントである大手印刷会社のデータ分析業務を担っている部署でのデータエンジニアのお仕事です。 【具体的には…】 【就業について】 |
---|---|
必須スキル | ・SQLによるDWHからのデータ抽出/成形の豊富なご経験
※インターネット検索なしでクエリ作成できる能力を持つ方を募集します。
|
DB/基盤系の案件一覧
過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。
該当件数:812件
DB/基盤系の案件を探す
案件内容 |
【概要】 音楽業界の新たな可能性を切り開くWEB3.0グローバルプロダクトの開発を進めていくにあたり、音楽市場を成長させるNFTプラットフォームのフロント~サーバーサイドまでのテクニカルリードとして希望と適性に応じて幅広くご担当頂きます。 音楽配信サービスにおけるシステム全体の設計に携われるチャンスがあります。
〇開発環境 |
---|---|
必須スキル | ・ブロックチェーンゲームに興味のある方
・スマートフォンに対応したWEBサイト及びWEBアプリケーションの業務経験
・リリース経験あり
・React.js、Vue.js、Nuxt.js、Next.jsいずれかのフレームワークを使用したフロントエンド開発経験
・バックエンド経験あり(javascript, typescript, php, ruby, python等)(2年以上)
・クラウドサービスを使用した開発業務経験(AWS、IDCFrontier、GMO Cloud等)
・SVN、Gitなどのバージョン管理システムの使用経験
|
案件内容 |
・お客様からの問い合わせに対する調査 |
---|---|
必須スキル | ・Pythonを使用した開発・運用の経験
・コンテナを利用した開発・運用の経験
・AWS/GCPなどパブリッククラウドでの運用経験
・SQLを使用した開発・運用業務の経験
・BigQuery/Redshift等のDWHを用いた開発・運用業務の経験
・大規模(高負荷)、高可用性サービスの経験
・Serverless Architectureを使用した開発・運用経験
|
案件内容 |
グローバルブランドとして国内外に展開している某小売企業においてデータエンジニア業務(データ基盤構築、ETL設計・開発)をご担当いただきます。 DWH:Snowflake |
---|---|
必須スキル | ・3年以上のシステム開発業務経験(OS、言語問わず)
・クラウドサービスを利用したデータレイク/DWH/データマートの設計、構築経験
・SQLやPythonを利用したETL開発経験
|
- 〜¥1,000,000 /月
- データ集計・分析補佐
- 東京都
- 金融
案件内容 |
・マーケティング部門からの要望に応じ、分析環境DBから各種データを抽出する業務 |
---|---|
必須スキル | ・銀行データを扱った経験
・DBからSASもしくはSQLを用いてデータを抽出した経験
|
- 〜¥500,000 /月
- データ集計・分析補佐
- 東京都
- 金融
案件内容 |
・戦略推進室の要望に応じでRe:dash運用、DBからデータ抽出を実施 |
---|---|
必須スキル | ・下記言語に3-5年の経験 |
案件内容 |
<概要> <使用言語> |
---|---|
必須スキル | ※ご応募時、各項目へコメントを頂けますと幸いです。
・実務経験3年以上
・AWS
・Docker(ECS)
・CI/CD(github actions, ECR)
・Linux
・github(git-flow)
|
案件内容 |
<概要> <業務内容> <使用言語> |
---|---|
必須スキル | ※ご応募時、各項目へコメントを頂けますと幸いです。
・バックエンド(Node.js, Nestjs, SpringBoot, MySQL)の知識がある方
・フロントエンド(React.js, nginx)の知識がある方
・Typescriptによる開発経験がある方
・Docker,Github-Actions,Github-flowを利用した開発経験がある方
・AWSを利用した開発の基本的な知識がある方
・Linuxの基本的な知識がある方
・プロジェクト管理の経験のある方
|
案件内容 |
位置情報プラットフォームを運営するエンドクライアントにてデータエンジニアを募集しております。 【背景と期待する役割】 【業務スコープ】 【体制】 |
---|---|
必須スキル | ・AirflowやDigdagを用いてデータパイプラインの構築を構築されたご経験
・データパイプラインを要件定義から実装までを一人称で遂行したご経験
|
募集終了【pandas】データ(分析)エンジニアの求人・案件
案件内容 |
pandas ライブラリを利用した ETL 処理 担当フェイズ |
---|---|
必須スキル | pandas ライブラリを利用した ETL 処理に慣れている方
— データソース:csv, parquet, Redshift/RDS table, boto3 API
— 加工処理:カラムの追加・削除、行列抽出、値の置換、四則演算、日付演算等
— アウトプットの書き込み:S3(csv, parquet, json), Redshift, RDS
静的解析ツールのチェック結果に基づいてコードの修正が可能な方(flake8, mypy)
ユニットテストを実装できる方(pytest)
|
検索結果812件中231-240件