Hadoopの求人・案件一覧

エンジニア、データサイエンティスト、マーケターの案件情報をご紹介。募集中だけでなく、過去の募集案件も掲載しています。
業務委託、派遣を中心に非公開求人も多数保有しています。単価や稼働日数など条件面についてもお気軽にご相談ください。

該当件数:17

Hadoopの案件を探す

案件内容
tableauを使用して、セルフサービスBIツールの開発~保守業務までを行っていただ
きます。
また、既存DWH基盤での保守業務もございますので、スキルに合わせて業務をお任せ
いたします。
(DWHで使用しているアーキテクチャはhadoop)
DB周りの運用保守経験があると確度高めになります。
必須スキル

・tableauのご経験
・hadoopのご経験
・コミュニケーションに長けている方
・最先端技術への調査力・キャッチアップ力がある方
・データサイエンティストに興味を持っている方
・新しい技術を学ぶ意欲のある方

 ※上記全てのスキルに当てはまらなくても問題御座いません。

尚可スキル

・DBAとしての運用保守経験

案件内容
オンライン・オフラインのデータをクラウド環境で統合して分析できる基盤構築を行うための環境構築、ETL設計・開発、データ抽出を行います。
データを効果的・効率的に活用するための基盤を構築する戦略的なポジションになります。
クラウド環境:AWS
必須スキル

SQL/データベースに精通していること
ETLの開発経験
Linuxサーバ構築経験
SparkやHadoopのような分散処理システムの経験

尚可スキル

ETLツールの実務経験
Python/Scala/Rの実務経験

案件内容

・主に大規模データを処理するためのクラウドインフラ
・アプリケーションソフトの構築からオーディエンスデータとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属し、
ビッグデータ基盤システムの構築、開発、保守を行い、データの加工(ETL)等をご担当いただきます。
・インフラエンジニアやアプリケーションエンジニアといった垣根なく、ご活躍いただくお仕事になります。

必須スキル

・アプリケーション開発経験3年以上
・SQLを使ったDBプログラミングの開発経験
・Python、PHP、JAVA、Golangのいずれかの開発経験1年以上
・AWS等のパブリッククラウドを利用したサービス開発・運用経験
・Gitなどのソースコード管理ツールの使用経験

尚可スキル

・Hadoopエコシステム、HDFS、MapReduce、Hive、Pig、Prestoなどの関連技術の利用経験
・AirflowやDigDagなどのワークフロー管理ツールの利用経験
・Redis、MemcachedなどのKVS利用経験
・Git、Ansible、Jenkins、Chef、MackerelなどのDevOps系の知識や経験
・高負荷対策、パフォーマンスチューニングに関する知識や経験

案件内容
概要
国内メディアのデータを収集したDMPをを活用して、様々な貢献価値につながるアルゴリズムの開発の実施を行う
業務目的
施策で使われるモデルやアルゴリズムを実装し、運用すること。
部門内のインフラエンジニア・アプリケーションエンジニアと協働して、本番システムを開発・運用すること。
プロジェクト例
● 横断データを活用した、カスタマーのライフイベントタイミング予測
● カスタマー属性の予測(年収、職業など)
必須スキル

● 基本的な数学(解析学・線形代数学・確率論)の理解
● 基本的な統計学・機械学習の理解
● Python / Rなどでの統計分析・機械学習の実務経験2年以上

尚可スキル

● 非構造データを取り扱った経験(自然言語処理など)
● 数理統計・応用統計・機械学習・数学などの関連分野での学位・論文の投稿・学会での発表経験
● HadoopやSparkを用いた分散計算に関するスキル
● 大規模データ(数億レコード規模)の取扱経験
● クラウド環境(AWS / GCPなど)での分析環境の構築スキル

案件内容 ■業務内容 (1)Hive、Apache Spark、SQLなどを⽤いたデータ抽出、加⼯ (2)HDPコンポーネントを⽤いたデータ処理フロー構築、データ可視化 (3)Apache Spark MLlibなどを⽤いた機械学習アプリケーションの実装 稼 働:週2日~5日 相談可能 時 間:9:30 - 18:30(応相談) 服 装:ビジネスカジュアル・私服
必須スキル

・Scala(もしくはJava)の実装経験
・Hadoopエコシステムに関する知識(実務経験は問わない)

案件内容 オンプレのHadoop環境上にSQL・Pythonで実装した各種アプリケーションをGCP(GoogleCloudPlatform)環境のBigQuery等へコンバートするための移行開発業務 ■プロジェクト背景 性能面・コスト面の課題を受け、5年間運用してきたお客様のオンプレ環境を刷新することになり、今年1月より稼働中(プロジェクトの終了は来期の1Q予定で)
必須スキル

・常駐可能であること(東京駅近辺)
・SQLを利用した開発経験
・Linux/Shellの開発経験
・Git等のバージョン管理システムの経験
・開発メンバーとコミュニケーションがとれ、主体的に動いて頂ける方
・100%の開発要件がおちてくる訳ではないため、積極的に要件詰めや課題提案ができる方

尚可スキル

・Hadoop環境での開発経験
・GCP環境での開発経験

案件内容 医療に関わる膨大なデータを解析することで新たなサービスを創出する企業。 開発はPythonで実装し、DB側の知識、経験が求められます。 ポテンシャルが高ければビッグデータ、Pythonの経験がなくても問題ありません。 ※今後、Web開発も予定しています
必須スキル

・プロジェクトリーダ経験あり
・基本設計~開発/テストを1人称で行える
・システム開発経験 5年以上
・SQL開発経験(DB問わず)3年以上
・オブジェクト指向言語経験(言語問わず)3年以上
・得意な技術 or フェイズ(要件定義、基本設計など)があること

尚可スキル

スクラム or アジャイル 開発経験
AWS Glue
Apache spark ★
Python ★
AWS Lambda
AWSでの開発経験
Amazon Redshiftの開発経験 ★
列志向データベースの開発経験
※Google Dremel/BigQuery、Amazon Redshift、
Apache Hadoop上で動作するCloudera Impala

案件内容 AIやブロックチェーン等の最新技術を用いた、パッケージ製品への機能拡充を検討されており、 その研究開発のご支援となります。 具体的には、 ・機械学習等のAI機能を用いたグループウェア機能の最適化 ・OCR機能を用いた帳票処理自動化機能 ・ブロックチェーンを用いたBPM連携 等々がスコープとなっております。
必須スキル

・新技術の調査・利用のご経験がある方 ・下記はいずれか1つは必須  - Linux上でのOSSミドルウェア導入経験  - Restful API等を活用したマッシュアップでのアプリ開発   (設計、実装の双方をご経験されている)

尚可スキル

・Hadoop/Sparkを初めとした分散処理製品利用経験 ・機械学習利用経験 ・データアナリティクス経験 ・自然言語解析経験 ・ブロックチェーン利用経験

案件内容 データベース内ビッグデータの集計及び分析作業 データ分析システムの構築/分析データの評価/報告レポートの作成
必須スキル

・Unix /Linux OS の操作経験(2 年以上) ・SQL、Excel 等によるデータ加工経験 ・DBに関する基礎知識(データの読み書き、テーブル操作等)

尚可スキル

・Java 開発経験 ・クラウド(AWS等)関連の知識 ・システム設計(データ処理中心)の経験 ・分析レポート作成経験 ・HadoopやSparkの知見

案件内容 通信会社向けのセキュリティプラットフォーム基盤をOSSを利用して 新規構築する案件となります。各種製品ログをデータレイクに蓄積し、 リアルタイムなアラート検知、およびインタラクティブな集計/分析を 可能とするプラットフォームの構築案件です。
必須スキル

・Apache hadoop/kafka/storm/spark等を利用したビックデータ基盤構築経験

尚可スキル

・英語 ・サイバーセキュリティに関する知識

検索結果17件中1-10件