単価60万円以上の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:5008

単価60万円以上の案件を探す

案件内容

マンション管理業務の基幹システム刷新に伴うシステム更改案件です。現行基幹システムを複数サブシステムへ分割し再構築する中で、受注管理・フロント業務支援サブシステムの開発をご担当いただきます。SPA構成のWebアプリケーションとして構築し、オンプレミス環境からAWSフルクラウド環境へ移行します。

必須スキル

・TypeScript/Reactを用いた3年以上のWebアプリケーション開発経験

案件内容

会計ソフトのAzure化

必須スキル

・Azureの設計・構築経験 3年以上
・Azureの基本設計から詳細設計への落とし込みができること
・基本設計工程経験があると尚可
・報連相が適切にできるコミュニケーション力

案件内容

既存のTableau環境に対しDatabricksを追加採用し、社内外データを一元的・効率的に管理できる統合データ基盤を構築するプロジェクトになります。

現状:Tableau (BIツール) のみ導入済み。
構築対象範囲:
・Databricksデータ基盤環境の追加構築。
・データレイク、DWH(データウェアハウス)の統合。
・周辺のデータ準備処理およびワークフローの整備。
主要業務: データパイプラインの設計・構築

必須スキル

・大規模データ基盤構築プロジェクトにおける構築実務経験
(データ設計/データパイプライン処理実装等)
・Pythonを使用したデータ分析などのご経験
・自主的・積極的な業務推進

案件内容

AIエージェント化、セマンティックモデル、データカタログ整備を横断的に実行し、検証~運用をドライブして経営に寄与する示唆創出を実現する。

技術者ランク:リーダ・サブリーダ相当

必須スキル

・データ分析の自走経験
目的設計、EDA、可視化、要因分析、予測、レポーティング、とここまでの手順のドキュメント化まで独力で推進できる
・Snowflake, BigQuery, Amazon Athena, Databricks, Oracle Analytics等データ分析基盤の実務経験
データ分析の推進を目的としたデータ分析基盤の基本検討、構築、運用いずれかの経験
・データベース知識
データ分析基盤検討に必要な設計を理解し、DBやSQL等のクエリ操作ができること
・ステークホルダー調整力
関連組織とのデータ調達・優先度策定・進捗/リスク管理
・案件を独力で推進できる、またはメンバーを指揮してプロジェクトをリードした実務経験

案件内容

・既存システムのカスタマイズ対応
・要件定義、設計
・受入試験
・中国オフショアチームの管理 ※日本で設計 → 中国で製造 → 日本で受入試験
・長期での保守・追加開発対応

◆技術要素
・言語:PHP
・FW:Laravel
・Web:nginx
・DB: Oracle
・ソース管理:Git
・開発環境:Docker

必須スキル
・PHP(Laravel)の経験5年以上
・要件定義/設計の経験 3年以上
・Web系サービスの開発経験
・勤怠・コミュニケーション良好な方(チーム内外との連携)
案件内容

金融系事業会社と行政が連携して開発している、指定区域内で使用できるQRコード決済アプリの機能追加、機能改修、およびバグ解消をご担当いただきます。アプリはすでにリリース済みです。

必須スキル
・Flutterでの開発経験
・Firebase使用経験
・toC向けアプリの開発経験
・要件定義からの経験
案件内容

クラウドシステムのプロトタイプ開発および検証対応

必須スキル
・C#.NETCoreでの開発対応(未経験可、早期吸収可能な方)
・開発メンバーへの技術サポートが可能なレベル
・インフラ知見を有する方
案件内容

・ECアプリケーション運営企業様において、機械学習をリードしていただくMLエンジニアとしてご参画いただきます。
・要件定義や技術的意思決定の推進や機械学習基盤の設計・構築、
 機械学習を用いたプロダクト設計・開発などをご担当いただきます。

【参画メリット】
・フルリモートのため、ご自身のリラックス出来る環境で作業を行っていただきます。
・モダンな開発環境であり、ご自身のスキルアップにつなげていただきやすい案件でございます。
・マーケットインで新機能を随時リリースする体制なので、ご自身の関わった機能が早いスパンでユーザに使っていただけます。

【技術環境】
・開発言語:Python
・インフラ:GCP
・分析・モニタリング基盤:BigQuery、Tableau、Looker Studio
・その他:Crashlytics、Docker、GitHub、Terraform、Slack、Figma、Notion

必須スキル

・数十万以上のユーザー規模におけるレコメンドシステムの開発・運用をされたご経験
・技術選定、要件定義などの上流工程のご経験
・GCPやAWSのサービスを用いた機械学習のご経験

案件内容

長年のシステム利用により発生した「日本語検索の精度不足」を解決するため
現行のレガシー検索システムから最新の検索基盤へ移行・構築を行います。
検索の原理原則を理解し、日本語処理技術を用いてユーザー体験を向上させるプロジェクトです。

プロジェクトを成功に導くため、主に以下の業務を一貫してお任せします。
・新しい全文検索エンジンの環境構築(オンプレ)
・辞書を用いた検索ロジックの設計とチューニング。
・既存Webサービスと新検索システムを連携させるためのAPI開発と改修。
・大規模リニューアルにおける移行計画のサポートと、運用マニュアルの作成。

必須スキル

全文検索エンジンの構築・運用経験
Sphinx、Elasticsearch、Solrなど、いずれかの新規構築または大規模なリプレイス経験。
NLPを用いた検索精度改善の実務経験
バックエンド開発経験
Python、PHPなどを用いたAPI開発経験。
オンプレミス環境でのサーバー構築・運用経験への理解。

案件内容

主にマルチクラウド環境(AWS/GCP)のデータ基盤構築と整備、およびデータ活用のための前処理開発を担当いただきます。

データ基盤構築・統合:
現在AWSとGCPに分散しているデータ基盤を、BigQuery上への統合(一元化)を目指す構築作業が主。
データベース型サイト(5〜10サイト、大規模データ)の分析基盤の設計、保守、セキュリティ対策。

データパイプライン開発:AWSとGoogle Cloudの両方からデータを接続するデータパイプラインの設計・実装。
データソース(アクセスログ、AWS S3上のマスターデータ等)の接続設定。

データ前処理・加工(データマート構築):
データ抽出、グルーピング、定義付けなど、分析用データマートの部分の加工・実装。

運用・保守:
構築後のメンテナンス費用やセキュリティまで考慮した管理体制の提案・構築。
フェーズ: プロジェクトはこれから始まる段階(現時点では知見の少ないメンバーで対応中)。

ELTについて:
Google Cloud内の機能でELTを内製
データ抽出:SQL
変換:SQL or Python
格納:BigQuery

必須スキル
クラウド: AWSとGoogle Cloud (GCP)の両方のデータ領域に精通していること。
DWH/ETL: BigQueryを用いたデータ基盤構築、およびデータパイプラインの設計・実装経験。
データ処理: データの前処理(データマート構築)や加工、抽出パターン、グルーピング定義を理解し、実装できること。
コミュニケーション能力が高く、指示に対して一人称でロジカルに作業を進められるミドル以上の経験。

検索結果5008件中1-10件