単価70万円以上の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:3626

単価70万円以上の案件を探す

案件内容

データサイエンス、競合インテリジェンス、および価格最適化の交差点に位置し、高度な分析モデルを構築して戦略的な提言が求められます。
クライアントに直接関わり、大規模なデータから得られた実行可能なインサイトを、エグゼクティブレベルのストーリーとして提示し、ビジネス変革を推進します。

【役割/タスク】
ー高度な価格モデルを構築し、競合インテリジェンスと価格最適化を推進
-分析に基づいた実行可能な戦略的インサイトを、エグゼクティブ向けに提示
ークライアントと連携し、データ活用を通じたビジネス変革を主導

必須スキル
・データサイエンス、経済学、ビジネス分析、エンジニアリング、または関連分野の学士号または修士号
・応用データサイエンス、コンサルティング、または分析の役割における経験
・SQL (Snowflake、PostgreSQL)、Python、およびTableauなどのダッシュボードツールの専門知識
・統計分析、教師なし学習手法の経験
・日本語と英語の両方での強力なコミュニケーションおよびプレゼンテーションスキル
案件内容

・Power PlatformやSalesforceで構築された既存システムを対象にメンテナンス対応チームを立ち上げて、アジャイル方式で改修・機能追加を行う。
・スクラムリーダーはお客様が担当し、メンバーとして設計、開発、テスト、ドキュメント作成を実施。

■開発環境■
Power Platform, Salesforce, Dataverse, Java, Azure, JavaScript, Python

必須スキル

・Power Apps、Power Automate、Dataverseの設計、開発、テストの経験(※必須)
・Javaによるシステム開発の経験
(技術的には何かの言語のスペシャリスト、というよりはいろんな言語をできる人がよいが上の二種類がそこに含まれていることが望ましい)

・要件を理解して計画・立案ができるスキル
・現行システムの解析及びシステムに関連する担当者との調整
・新しい技術を学ぶことに抵抗なく、すぐに自分のものにできる人(新しく使う言語でもすぐに成果が出せる人、自己研鑽により成長できる人)
・周りの人と協調して開発ができる人(チーム開発の経験がある人)
・テスト等をやって自分が開発したものの品質の担保ができる人
・指示待ちにならずに、自分の作業を見つけてプロジェクトの進捗に貢献できる人
・過去の失敗の経験を生かせる人(失敗の反省を生かして自身の業務のやり方を変えられる人)

案件内容

様々なWEBサービス(月間数千万ユーザー利用)を提供している社内において各業務に対してAIを活用した様々な改善を行っています。
-ガイドライン遵守監視のAI自動化
-取材・入稿業務の取材AIエージェント
-問い合わせ省人化・応対ログからのナレッジ提案
-議事録ジェネレーター(Google Meet/Slack/Drive 連携、イベント駆動)

各プロジェクトのAI汎用ソリューションの企画構想、新規導入の運用設計からMVP開発、本開発までを一気通貫でお願いします。

【ソリューション例】
-LLMワークフロー実装:要約/抽出/整形/ガイドラインチェック機能の開発
-検索/RAG基盤最適化:埋め込み・インデクシング・再ランキング・プロンプト最適化
-フロントエンド/バックエンド実装:Streamlit/Next.js/FastAPIを用いた機能実装
-議事録自動生成システム:Google Meet連携、Slackボット、Drive保存機能

【開発・運用環境】
-プロジェクト管理:Confluence, Jira
-ソースコード管理:GitHub Enterprise
-生成AIツール:Cursor, Devin, Gemini Advanced, Dify
-コミュニケーション:Slack、Microsoft Teams
-コラボレーション:Miro
-Officeツール:Google Workspace, Box, Microsoft Office365
-端末:Macbook Pro(ローカル開発ではDockerを活用)
-クラウド:Google Cloud(主にCloud Run)
-コンテナ・オーケストレーション:Docker, Kubernetes (GKE)
-プログラミング言語:Python(FastAPI, Streamlit, PyTorch/TensorFlow), TypeScript(Next.js)
-データ・検索:BigQuery, ベクターDB(Pinecone等)
-AI・機械学習:Claude API, OpenAI API
-監視・ログ:Prometheus, Grafana, Datadog
-CI/CD:GitHub Actions
-メッセージング:Slack Bot API, Google Meet API, Gmail API
-データストレージ:Google Cloud Storage, BigQuery

必須スキル
・ITコンサルティング経験
・AI汎用ソリューションの企画構想の経験
・AIソリューションの新規導入の運用設計
・高度なLLMエンジニアリングスキル
・ソフトウェア開発やプログラミングの実務経験(3年以上)
・ClaudeCode/GPT5-codex/cursor/devin等の活用経験
・DevOpsツールの知識(例:Docker、Kubernetesなど)
・ソフトウェアアーキテクチャの設計経験
・能動的な姿勢と優れたコミュニケーション能力
案件内容

・画像解析/コンピュータビジョンの基礎知識
・人物属性推定(性別・年齢推定、人数カウントなど)のモデル構築または活用経験
・エッジデバイス上でのAI推論の実装経験(NVIDIA Jetson、Raspberry Pi + NPU など)
・クラウド側とのデータ連携・API設計経験(AWS / Azure / GCP いずれか)
・カメラ映像の取得・処理パイプラインの設計経験

必須スキル
・YOLO、OpenPose、MediaPipe 等の人物検出 / 姿勢推定モデルの利用経験
・Edge AI 向け最適化経験(TensorRT、OpenVINO、TFLite など)
・屋外環境でのカメラ設置・キャリブレーションにする知識
・ディスプレイ広告系のデータ分析経験(注視時間、視認率、トラフィック分析など)
・プライバシー配慮設計(匿名化処理、映像保持ポリシーなど)の知見
案件内容

既存のTableau環境に対しDatabricksを追加採用し、社内外データを一元的・効率的に管理できる統合データ基盤を構築するプロジェクトになります。

現状:Tableau (BIツール) のみ導入済み。
構築対象範囲:
・Databricksデータ基盤環境の追加構築。
・データレイク、DWH(データウェアハウス)の統合。
・周辺のデータ準備処理およびワークフローの整備。
主要業務: データパイプラインの設計・構築

必須スキル

・大規模データ基盤構築プロジェクトにおける構築実務経験
(データ設計/データパイプライン処理実装等)
・Pythonを使用したデータ分析などのご経験
・自主的・積極的な業務推進

案件内容

AIエージェント化、セマンティックモデル、データカタログ整備を横断的に実行し、検証~運用をドライブして経営に寄与する示唆創出を実現する。

技術者ランク:リーダ・サブリーダ相当

必須スキル

・データ分析の自走経験
目的設計、EDA、可視化、要因分析、予測、レポーティング、とここまでの手順のドキュメント化まで独力で推進できる
・Snowflake, BigQuery, Amazon Athena, Databricks, Oracle Analytics等データ分析基盤の実務経験
データ分析の推進を目的としたデータ分析基盤の基本検討、構築、運用いずれかの経験
・データベース知識
データ分析基盤検討に必要な設計を理解し、DBやSQL等のクエリ操作ができること
・ステークホルダー調整力
関連組織とのデータ調達・優先度策定・進捗/リスク管理
・案件を独力で推進できる、またはメンバーを指揮してプロジェクトをリードした実務経験

案件内容

・ECアプリケーション運営企業様において、機械学習をリードしていただくMLエンジニアとしてご参画いただきます。
・要件定義や技術的意思決定の推進や機械学習基盤の設計・構築、
 機械学習を用いたプロダクト設計・開発などをご担当いただきます。

【参画メリット】
・フルリモートのため、ご自身のリラックス出来る環境で作業を行っていただきます。
・モダンな開発環境であり、ご自身のスキルアップにつなげていただきやすい案件でございます。
・マーケットインで新機能を随時リリースする体制なので、ご自身の関わった機能が早いスパンでユーザに使っていただけます。

【技術環境】
・開発言語:Python
・インフラ:GCP
・分析・モニタリング基盤:BigQuery、Tableau、Looker Studio
・その他:Crashlytics、Docker、GitHub、Terraform、Slack、Figma、Notion

必須スキル

・数十万以上のユーザー規模におけるレコメンドシステムの開発・運用をされたご経験
・技術選定、要件定義などの上流工程のご経験
・GCPやAWSのサービスを用いた機械学習のご経験

案件内容

長年のシステム利用により発生した「日本語検索の精度不足」を解決するため
現行のレガシー検索システムから最新の検索基盤へ移行・構築を行います。
検索の原理原則を理解し、日本語処理技術を用いてユーザー体験を向上させるプロジェクトです。

プロジェクトを成功に導くため、主に以下の業務を一貫してお任せします。
・新しい全文検索エンジンの環境構築(オンプレ)
・辞書を用いた検索ロジックの設計とチューニング。
・既存Webサービスと新検索システムを連携させるためのAPI開発と改修。
・大規模リニューアルにおける移行計画のサポートと、運用マニュアルの作成。

必須スキル

全文検索エンジンの構築・運用経験
Sphinx、Elasticsearch、Solrなど、いずれかの新規構築または大規模なリプレイス経験。
NLPを用いた検索精度改善の実務経験
バックエンド開発経験
Python、PHPなどを用いたAPI開発経験。
オンプレミス環境でのサーバー構築・運用経験への理解。

案件内容

主にマルチクラウド環境(AWS/GCP)のデータ基盤構築と整備、およびデータ活用のための前処理開発を担当いただきます。

データ基盤構築・統合:
現在AWSとGCPに分散しているデータ基盤を、BigQuery上への統合(一元化)を目指す構築作業が主。
データベース型サイト(5〜10サイト、大規模データ)の分析基盤の設計、保守、セキュリティ対策。

データパイプライン開発:AWSとGoogle Cloudの両方からデータを接続するデータパイプラインの設計・実装。
データソース(アクセスログ、AWS S3上のマスターデータ等)の接続設定。

データ前処理・加工(データマート構築):
データ抽出、グルーピング、定義付けなど、分析用データマートの部分の加工・実装。

運用・保守:
構築後のメンテナンス費用やセキュリティまで考慮した管理体制の提案・構築。
フェーズ: プロジェクトはこれから始まる段階(現時点では知見の少ないメンバーで対応中)。

ELTについて:
Google Cloud内の機能でELTを内製
データ抽出:SQL
変換:SQL or Python
格納:BigQuery

必須スキル
クラウド: AWSとGoogle Cloud (GCP)の両方のデータ領域に精通していること。
DWH/ETL: BigQueryを用いたデータ基盤構築、およびデータパイプラインの設計・実装経験。
データ処理: データの前処理(データマート構築)や加工、抽出パターン、グルーピング定義を理解し、実装できること。
コミュニケーション能力が高く、指示に対して一人称でロジカルに作業を進められるミドル以上の経験。
案件内容

データ抽出・準備: 施策対象者と非対象者の行動履歴、購買履歴データなどをSQLを用いて抽出し、分析用データセットを整備。

効果測定・分析: クーポン施策による売上・客単価・来店頻度など主要KPIの有意差を統計的に評価。

レポーティング: 分析結果と施策の評価、および次なる改善提案を盛り込んだ報告用資料を作成し、PMと連携しながらクライアントへ提示。

必須スキル

SQLによる基礎集計、t検定を用いた2群比較、報告用資料作成

検索結果3626件中91-100件