Hadoopの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:26

Hadoopの案件を探す

案件内容
オンライン・オフラインのデータをクラウド環境で統合して分析できる基盤構築を行うための環境構築、ETL設計・開発、データ抽出を行います。
データを効果的・効率的に活用するための基盤を構築する戦略的なポジションになります。
クラウド環境:AWS
必須スキル

SQL/データベースに精通していること
ETLの開発経験
Linuxサーバ構築経験
SparkやHadoopのような分散処理システムの経験

案件内容

・主に大規模データを処理するためのクラウドインフラ
・アプリケーションソフトの構築からオーディエンスデータとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属し、
ビッグデータ基盤システムの構築、開発、保守を行い、データの加工(ETL)等をご担当いただきます。
・インフラエンジニアやアプリケーションエンジニアといった垣根なく、ご活躍いただくお仕事になります。

必須スキル

・アプリケーション開発経験3年以上
・SQLを使ったDBプログラミングの開発経験
・Python、PHP、JAVA、Golangのいずれかの開発経験1年以上
・AWS等のパブリッククラウドを利用したサービス開発・運用経験
・Gitなどのソースコード管理ツールの使用経験

案件内容
概要
国内メディアのデータを収集したDMPをを活用して、様々な貢献価値につながるアルゴリズムの開発の実施を行う
業務目的
施策で使われるモデルやアルゴリズムを実装し、運用すること。
部門内のインフラエンジニア・アプリケーションエンジニアと協働して、本番システムを開発・運用すること。
プロジェクト例
● 横断データを活用した、カスタマーのライフイベントタイミング予測
● カスタマー属性の予測(年収、職業など)
必須スキル

● 基本的な数学(解析学・線形代数学・確率論)の理解
● 基本的な統計学・機械学習の理解
● Python / Rなどでの統計分析・機械学習の実務経験2年以上

案件内容 ■業務内容 (1)Hive、Apache Spark、SQLなどを⽤いたデータ抽出、加⼯ (2)HDPコンポーネントを⽤いたデータ処理フロー構築、データ可視化 (3)Apache Spark MLlibなどを⽤いた機械学習アプリケーションの実装 稼 働:週2日~5日 相談可能 時 間:9:30 - 18:30(応相談) 服 装:ビジネスカジュアル・私服
必須スキル

・Scala(もしくはJava)の実装経験
・Hadoopエコシステムに関する知識(実務経験は問わない)

案件内容 オンプレのHadoop環境上にSQL・Pythonで実装した各種アプリケーションをGCP(GoogleCloudPlatform)環境のBigQuery等へコンバートするための移行開発業務 ■プロジェクト背景 性能面・コスト面の課題を受け、5年間運用してきたお客様のオンプレ環境を刷新することになり、今年1月より稼働中(プロジェクトの終了は来期の1Q予定で)
必須スキル

・常駐可能であること(東京駅近辺)
・SQLを利用した開発経験
・Linux/Shellの開発経験
・Git等のバージョン管理システムの経験
・開発メンバーとコミュニケーションがとれ、主体的に動いて頂ける方
・100%の開発要件がおちてくる訳ではないため、積極的に要件詰めや課題提案ができる方

案件内容 医療に関わる膨大なデータを解析することで新たなサービスを創出する企業。 開発はPythonで実装し、DB側の知識、経験が求められます。 ポテンシャルが高ければビッグデータ、Pythonの経験がなくても問題ありません。 ※今後、Web開発も予定しています
必須スキル

・プロジェクトリーダ経験あり
・基本設計~開発/テストを1人称で行える
・システム開発経験 5年以上
・SQL開発経験(DB問わず)3年以上
・オブジェクト指向言語経験(言語問わず)3年以上
・得意な技術 or フェイズ(要件定義、基本設計など)があること

案件内容 AIやブロックチェーン等の最新技術を用いた、パッケージ製品への機能拡充を検討されており、 その研究開発のご支援となります。 具体的には、 ・機械学習等のAI機能を用いたグループウェア機能の最適化 ・OCR機能を用いた帳票処理自動化機能 ・ブロックチェーンを用いたBPM連携 等々がスコープとなっております。
必須スキル

・新技術の調査・利用のご経験がある方 ・下記はいずれか1つは必須  - Linux上でのOSSミドルウェア導入経験  - Restful API等を活用したマッシュアップでのアプリ開発   (設計、実装の双方をご経験されている)

案件内容 データベース内ビッグデータの集計及び分析作業 データ分析システムの構築/分析データの評価/報告レポートの作成
必須スキル

・Unix /Linux OS の操作経験(2 年以上) ・SQL、Excel 等によるデータ加工経験 ・DBに関する基礎知識(データの読み書き、テーブル操作等)

案件内容 通信会社向けのセキュリティプラットフォーム基盤をOSSを利用して 新規構築する案件となります。各種製品ログをデータレイクに蓄積し、 リアルタイムなアラート検知、およびインタラクティブな集計/分析を 可能とするプラットフォームの構築案件です。
必須スキル

・Apache hadoop/kafka/storm/spark等を利用したビックデータ基盤構築経験

案件内容 某大手金融事業社内でのビックデータ案件になります。 現在稼働しているHadoop環境の運用、保守に加え、 7月から新規機能の開発などがスタートするため、 人員の増員を計画しております。 データ分析は別チームが存在しますので、あくまで分析を行うための 環境構築を行って頂くポジションとなりますが、現場の状況、 また適正次第では分析業務にも関わっていただく可能性がございます。 ・PySparkでHadoopクラスタ上のデータを分析するアプリの開発 ・Hadoopクラスタにデータを取込(いわゆるETL)アプリ・スクリプトの保守
必須スキル

※以下全てを満たしている必要はありません 1. Pythonで開発経験豊富な方  -要件定義、設計経験があると尚可 2. Java or Scalaで開発経験豊富な方  -要件定義、設計経験があると尚可  -マルチスレッドプログラミング経験があると尚可  -高パフォーマンスを要する案件での開発経験があると尚可 3. シェルスクリプトが書ける方 4. Hadoop運用作業経験があると尚可 5. Spark開発経験があると尚可 6. Perlスクリプトが書けると尚可

検索結果26件中11-20件