単価70万円以上の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:2373

単価70万円以上の案件を探す

案件内容

・開発計画に基づく新機能のフロントエンド開発
・ユーザーフィードバックなどを元にした新機能開発や機能改善
・KPIに基づいた新機能開発や機能改善
・チーム内での相互コードレビュー

単一サービスで売上45億(2021年度)、ユーザー100万人、法人40万社を超える大規模サービスでの自社開発がご経験いただけます。
参画後3ヶ月ほどはサービス理解と開発フローに慣れていただく受け入れ期間を設けています。

必須スキル
・フロントエンド開発領域での業務経験3年
・Reactを用いた実務経験 ※年数問わず ※個人開発は除く
・デザインデータを基にして自身でマークアップした経験(HTML,CSS)
案件内容

地図系クラウドサービス基盤の設計、構築を担当いただきます。
・開発チームと共同でAWSインフラの設計、構築
・AWSインフラ構築、また運用フェーズでの提案(コストダウン、構成変更)
<動作環境>
AWS 
<DB>
RDS、DynamoDB等

必須スキル

・AWSの設計経験(3年が目安)

案件内容

【システム概要】
複数のビジネスチーム向けに必要なデータセットの要件を整理し、
Databricks上で分析用データセットを効率的に作成するETL、
ワークフローを開発します。

【業務内容】
各チームから挙げられる要件の整理や、ベストプラクティスを調査し、
購買情報、各種施策、会員情報やアクセスログなどを元に、効率的な
データセットを作成するためのETL、パイプラインの作成を行います。
データ分析基盤チームに参画しており、必要に応じてノウハウなどを
共有しながら作業を進めて頂きます。

【担当領域】
要件定義~実装

【開発方式】
お客様と都度調整しながら進めるアジャイル開発となります。

   

【システム構成】
サービス:AWS、Databricks、Redshift
利用ツール:Slack、Backlog、Git (GitHub)

必須スキル
DWH/DM設計
ETL開発
Python
案件内容

■案件内容:
【システム概要】
AWS環境に、データ分析用API構築。
AWS(EC2,ECS,ECR,CloudFormation,Lambda等) の構成。

【開発方式】
ウォーターフォールモデル or アジャイル

必須スキル
SQL
プログラミング経験
Python
AWS
案件内容

■案件内容:
【システム概要】
新規でのデータ分析基盤の構築業務

【担当領域】
スキル見合いで体制と相談しますが、上流から下流まで幅広く対応いただけます。

   

【システム構成】
以下の技術要素で構成されます。
インフラ:Azure
DWH:Databricks
BI:PowerBI

【開発方式】
ウォーターフォールモデル

必須スキル
SQL
プログラミング経験
データ基盤構築
案件内容

某省庁統計局が実施している、小売物価統計調査にかかるシステム刷新プロジェクトをご支援いただきます。

現状、レガシーな構成で構築されているシステムをAzureをベースとしたクラウドネイティブな仕組みに刷新いたします。
また、調査員端末としてiPad mini端末を利用し、.NET MAUIを用いたアプリケーション開発を行います。

アプリ設計・開発リーダー(弊社社員)の下で、下記業務をご対応いただきます。
・調達仕様書、要件定義書などの要件確認・対応方針確認
・要件に基づくモバイルアプリケーション、Webアプリケーションの設計、構築及びテスト
 (設計検討作業、動作検証、設計書ドキュメント、テスト仕様書作成を含む)

必須スキル

・業務アプリケーションの設計・構築経験 または モバイルアプリケーションの設計・開発経験

案件内容

原子力規制庁が運用している放射線モニタリングポータルサイトの刷新プロジェクトをご支援いただきます。
 現状、レガシーな構成で構築されているシステムをAWSをベースとしたクラウドネイティブな仕組みに刷新します。
■作業内容:アプリ設計開発リーダーの下で、下記業務をご対応いただきます。
 ・要件に基づくWebアプリケーションの構築及びテスト
  →Lambda(Python)によるバックエンド(DynamoDBからCloudSearchへのデータ連携、DynamoDBからデータ取得するAPI、CloudSearchを検索するAPIなど)のプログラムの実装
  →テスト仕様書の作成、テストコード(pytest)の実装
 ・現行サイトのデータを移行するための移行プログラムの構築及びテスト
  →現行サイトのコンテンツ(テキストデータやファイル)をkintoneのREST APIをコールして登録するPythonプログラムの実装
  →移行対象のデータを読み込んだり、ファイルを参照するため、ディレクトリ参照やファイルReadするPythonの実装

必須スキル
・業務アプリケーションの設計・構築経験
・Python、AWSの開発経験
案件内容

Google Cloud / AWSを利用した商用稼働サービスのデータパイプラインの開発・保守運用と日々の運用業務から発生する課題の解決・改善

主要技術:BigQuery/Cloud Composer(Airflow)/Python/(一部Spark)

必須スキル
・Pythonを利用したデータ分析等の開発経験、SQLの知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux/ネットワークの基礎知識
案件内容

データユーザーからの要求をくみとり的確なデータとフローの設計を行い、パイプラインの構築やパイプラインを動かすデータ分析基盤の運用保守を行う。

必須スキル
・クラウドデータ基盤サービスでの開発運用保守経験(特にBigQueryの経験があると良い)
・データ基盤運用の範囲におけるSQL(DDL/DML、CTE、副問い合わせ、information_schemaの利用、など)
・Linux / ネットワークの基礎知識(Linuxサーバの運用保守経験があると良い)

 

以下技術要素参照(*が特に重要)
– ETL/ELTツール
– *Embulk
– trocco
– digdag
– BIツール
– Redashなど
– GoogleCloud
– *BigQuery
– Cloud Storage(updated)
– Data Transfer
– IAM
– Cloud Monitoring / Cloud Logging
– その他
– *Linux
– *Bash
– Git
案件内容

日本・アジアで使用しているGoogle Workspace環境、EUで使用しているGoogle Workspace環境、USで使用しているMicrosoft365環境を単一のGoogle Workplaceへ統合・移行する方針策定。

必須スキル
・Google Workspace環境の構築・移行経験
・Google Workspace国内外テナント統合・移行経験
・Google WorkspaceへのMicrosoft365からの移行経験

検索結果2373件中411-420件