データ分析基盤エンジニアの求人・案件一覧

該当件数:89

エンジニア、データサイエンティスト、マーケターの案件情報をご紹介。業務委託、派遣を中心に非公開求人を多数保有しています。
単価や稼働日数など条件面についてもお気軽にご相談ください。

データ分析基盤エンジニアの案件を探す

案件内容
■業務内容
・エンドクライアントの持つビックデータを保持、分析するための基盤インフラの運用、構築業務を
 クラウド(AWS/GCP)を用いて行っていただきます。
・データプラットフォームおよびクラウドインフラの設計・実装・運用
・データプラットフォーム上で動作するデータ連携ジョブ、集計ジョブのモニタリング・パフォーマンスチューニング
必須スキル

・AWSソリューションアーキテクト:アソシエイト相当の知識or業務経験
・Infrastructure as Code(Terraform, Chef, Ansibleなど)でインフラの構築管理の経験
・Githubでのチーム開発経験
・Python, GO, Javaいずれかでの開発経験

尚可スキル

・CICD環境の構築管理、フロー整備の経験
・TCP/IP、ネットワークレイヤーに関する深い知識
・プロダクション環境におけるInfrastructure as Code(Terraform, Chef, Ansibleなど)でインフラの構築管理の経験

担当者 西岡

おすすめコメント

やりがいのある環境だと思います。あなたの知見を活かしていただけると嬉しいです。

案件内容
■業務内容
製造メーカー系会社のデータ処理基盤の設計・構築
→ 大量のログデータを蓄積するクラウド環境及び、製品に埋め込むクライアントの開発運用
必須スキル

・クラウド環境の構築経験・知識(AWSなど)
・分散処理の経験・知識 (Spark、分散処理)

尚可スキル

・設計から実装までできる
・コミュニケーション能力
・能動的に動けること

担当者 坂西

おすすめコメント

これまでの経験を活かし、ご活躍いただきたいです!ぜひ一度、お声がけください。

案件内容
■業務内容
・各サービスの共通基盤の構築
・各サービスの共通モニタリング基盤の構築/監視
・データレイクの基盤構築/監視/運用
・アーキテクチャの刷新から実装業務
・マイグレーションの計画から実施
主な技術スタック
 クラウドサービス:AWS,GCP
 AWS:ECS,SQS,SNS,Lambda,S3,Cloud Front,Batch,Secrets Manager,Polly,RDS,ElasticSearch Searvice...
 仮想化基盤:Docker
 オーケストレーション:Kubenetes
 OS:CentOS,AmazonLinux
 ミドルウェア:Nginx,MySQL,ElasticSearch
 プロビジョニング:Terraform,Packer,Ansible
 監視:Mackerel,NewRelic,Sentry,Datadog
 分析基盤:fluentd, igQuery,Google Data Portal(旧Google Data Studio)
 開発環境:Mac,GitHub,JIRA,Confluence,Jenkins,Slack,Hubot
 使用言語:Java,Scala,Go,Python,JavaScript,Bash.
必須スキル

・Infrastructure as a Codeベースの思想がある方
・Docker/コンテナ化の経験
・上記思想の元でのSRE経験が1年以上ある方
・事業会社での業務経験が5年程度以上ある方
・Infrastructure as a Codeに関わる業務(Docker、Terraform、Ansibleなどの経験)

尚可スキル

・アプリケーション開発経験

担当者 川添

おすすめコメント

ご興味いただけた際は、ご連絡ください。経験やスキルを発揮していただけるプロジェクトだと思います。

案件内容
案件概要
基盤構築の要件定義から、構築運用まで。
データ分析業務まで携わることも検討可。
技術要件
 AWS、EMR、Glue、SageMaker等AWSサービス多数利用
必須スキル

・基盤構築経験
・AWS利用経験

担当者 日向

おすすめコメント

おすすめ案件です。充足スピード早いと思いますので、気になった方はお問い合わせください。

案件内容

【背景】証券会社の一般顧客に対しモバイルアプリ上で株式のレコメンドをしたい。
そのために下記はクライアント(証券会社側)で担当する・顧客分析・上流の分析ロジック案検討 
【業務内容】レコメンド基盤構築がメインとなります。
・機械学習,深層学習モデルを用いたアプリケーション構築
・データ分析(データマイニング、各種集計、レポーティング等)
・取引先とのコミュニケーション

必須スキル

<主な条件> 
・機械学習、 ディープラーニングに関する知識
・Pythonを含む複数の言語を用いたプログラミング経験
・DBからBIツール (Tableau,、Power BI等) で可視化できる実務経験
・「SQL」を使用し、DBから様々なデータの結合・抽出の実務経験
・様々な統計手法を使い、「Python」や「R」等での分析基盤の開発経験
・コミュニケーション力(進捗報告、社内メンバーからの案件内容に対し
最適な分析手法を提案し、分析結果を分かりやすくレビューができること)
備考:証券業務に絡みますが、あまり証券知識がなくとも大丈夫です。

担当者 長谷川

おすすめコメント

業界知識は無くてもOK!週3日勤務から相談できます!

案件内容
内容:
サービスを含む多種多様なデータを収集、蓄積、提供するデータ基盤の開発をお任せします。
具体的には下記の業務をお任せします。
・データパイプラインの設計 (リアルタイム処理、バッチ処理の両方)
・データ基盤全体のアーキテクチャ設計
・リアルタイムにデータを収集するサーバーアプリケーションの開発 (GAE + Go言語で開発中)
・データを提供するサーバーアプリケーション(主にAPI)の開発 (Go言語で開発中)
・各種サービス(自社サービス及び外部サービス)データのETL (日次バッチ処理)
・分析環境と機械学習環境の構築 (例:Dockerを用いたJupyter環境の構築)
開発環境:
・インフラ:GCP(データ解析基盤)/ AWS(ユーザー向けサービス)
・分析基盤:BigQuery / Data Portal / Tableau
・監視:Stackdriver Logging / Stackdriver Monitoring / Stackdriver Trace
・データ基盤:GAE / GCS / Datastore / Pub Sub / Dataflow
・その他:GitHub / Slack / Qiita:Team
必須スキル

・データパイプラインの設計 (リアルタイム処理、バッチ処理の両方)
・データ基盤全体のアーキテクチャ設計
・リアルタイムにデータを収集するサーバーアプリケーションの開発 (GAE + Go言語で開発中)
・データを提供するサーバーアプリケーション(主にAPI)の開発 (Go言語で開発中)
・各種サービス(自社サービス及び外部サービス)データのETL (日次バッチ処理)
・分析環境と機械学習環境の構築 (例:Dockerを用いたJupyter環境の構築)

尚可スキル

・Go言語を用いた開発経験
・Pythonを用いた開発経験
・DMPなどデータ基盤の構築経験
・リアルタイムなデータ処理の知見や実務経験

案件内容
■業務内容:
<Ed Tech サービス開発部⾨にて、データ基盤の構築と運⽤を⾏うデータエンジニアのポジション>
これまでの教育事業で培ったノウハウを活かし、Ed -Tech 領域に⼤きく舵を切っており、
その実現のためにデジタル部⾨を創設してエンジニア組織を構築し、内製のEd-Tech プロダクト開発を⾏っています。
具体的には、ビジネス動画のサブスクリプションサービスや学習管理を⽬的としたラーニングプラットフォームなどを開発しています。
また、これらのサービスを含めた多種多様な学習データを蓄積するデータ基盤の構築も⾏っており、学習データの活⽤も⽬指しています。
そこで、このデータ基盤の開発を担当して頂くデータエンジニアを募集します。
教育データ活⽤をミッションとするデータチームにて、データ基盤の構築をお任せします。
また、社内の分析基盤として利⽤しているBig Query の運⽤と改善もお任せします。
具体的には下記2 つの業務をお任せします。
1.データ基盤の構築と運⽤
・データを収集するサーバーアプリケーションの開発 (Go ⾔語で開発中)
・収集したデータを提供するサーバーアプリケーションの開発 (Go ⾔語で開発中)
・各種サービスデータ(⾃社サービス及び外部サービス)のETL
2.分析基盤(Big Query)の運⽤と改善
・分析効率化のための分析基盤の改善 (例:Docker を⽤いたJupyter 環境の構築)
・各種サービスデータ(⾃社サービス)のETL
・データパイプラインの整備と安定性の強化
・インフラ:GCP(データ解析基盤)/ AWS(ユーザー向けサービス)
・分析基盤:BigQuery / Data Portal / Tableau
・監視:Stackdriver Logging / Stackdriver Monitoring / Stackdriver Trace
・データ基盤:GAE / GCS / Datastore / Pub Sub / Dataflow
・その他:GitHub / Slack / Qiita:Team
必須スキル

・DWH, ETL の設計能⼒
・RDB, NoSQL, BigQuery 等DB の運⽤経験
・AWS, GCP 等のクラウド環境の利⽤経験
・ジョブスケジューリングの運⽤経験
・Ruby, PHP, Java, Python などでのWeb アプリケーション開発経験

尚可スキル

・DWH 構築経験
・ETL の運⽤経験
・Go ⾔語を⽤いた開発経験
・Python を⽤いた開発経験

担当者 工藤

おすすめコメント

チャレンジングな環境で、思う存分あなたの経験を発揮してみませんか。

案件内容
概要:
国内最大手の損保会社が、脱メインフレームを目指すためETLツールの
AbInitioを導入予定。メインフレームからデータ連携し、様々な形式の
データを扱うビッグデータ基盤を構築する。
ETL:AbInitio
DB:Teradata
BI:Tableau
必須スキル

ETLツール使用経験
情報系システム開発経験
BIでのレポート開発経験
AWSでのアーキテクチャ検討
※上記いずれかで可

担当者 日向

おすすめコメント

弊社イチ押し案件です。気になった方は、ぜひお問い合わせください。

案件内容 エンドクライアント企業に対するデータ解析業務。 執務エリア内で部門の社員と方向性を確認しつつ解析を実行します。 自社データを使いこなしながらクライアントの課題解決をしていくため、 分析観点もあると良いですが、主として はエンジニアリングとなります。
案件内容 ■プロジェクト概要: 分析官の指示に従ってプログラムの実装や解析環境の構築を行う。 ■タスク概要: 分析官の指示に従って、RやPythonを使用したプログラム開発。 AWSを使用した解析環境の構築。
必須スキル

・R 及び Python を使用した業務経験 ※ポテンシャルによってはどちらかでも可 ・サーバ環境構築経験

尚可スキル

統計・多変量解析の分析業務、AWS使用経験。

担当者

おすすめコメント

あなたのこれまでの経験でプロジェクトを加速していける環境です。まずはご連絡ください。

検索結果89件中1-10件