単価80万円以上の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:2396

単価80万円以上の案件を探す

案件内容

大規模な生データを取り込み、クリーンアップするための堅牢でスケーラブルなデータパイプラインを構築・維持する、技術的デリバリーの要です。Python/SQL、GCP等のツールを用いてデータ品質を徹底的に保証し、データサイエンティストと連携して高品質なBIダッシュボードを本番環境に移行させます。

【役割/タスク】
・大規模データの取り込み・変換・クリーンアップを行うスケーラブルなパイプラインを構築
・高稼働率のBIダッシュボードを本番環境にデプロイし、技術的基盤を管理
・データ品質保証プロセスを主導し、納品前のデータ出力の厳密性を確保

必須スキル
・データエンジニアリング、データ品質、または技術分析の役割における経験
・データ処理と自動化のためのSQLとPythonの熟練度
・データオーケストレーションツール (例: Airflow、dbt、Prefect) の経験
・高稼働率の顧客向けアプリケーション、ダッシュボード、またはその他のツールをデプロイ・維持した経験
案件内容

Googleスプレッドシートに保存された広告データを、BigQueryに取り込み、Looker Studioにて可視化・レポート作成を行う支援業務。BigQuery環境の利用が前提
Fivetranを使用したデータ統合の自動化

必須スキル

・BigQueryを用いたデータ連携・加工経験
・Looker Studioでのダッシュボード作成経験
・スプレッドシートとのデータ連携知識(GAS実務経験)

案件内容

データサイエンス、競合インテリジェンス、および価格最適化の交差点に位置し、高度な分析モデルを構築して戦略的な提言が求められます。
クライアントに直接関わり、大規模なデータから得られた実行可能なインサイトを、エグゼクティブレベルのストーリーとして提示し、ビジネス変革を推進します。

【役割/タスク】
ー高度な価格モデルを構築し、競合インテリジェンスと価格最適化を推進
-分析に基づいた実行可能な戦略的インサイトを、エグゼクティブ向けに提示
ークライアントと連携し、データ活用を通じたビジネス変革を主導

必須スキル
・データサイエンス、経済学、ビジネス分析、エンジニアリング、または関連分野の学士号または修士号
・応用データサイエンス、コンサルティング、または分析の役割における経験
・SQL (Snowflake、PostgreSQL)、Python、およびTableauなどのダッシュボードツールの専門知識
・統計分析、教師なし学習手法の経験
・日本語と英語の両方での強力なコミュニケーションおよびプレゼンテーションスキル
案件内容

様々なWEBサービス(月間数千万ユーザー利用)を提供している社内において各業務に対してAIを活用した様々な改善を行っています。
-ガイドライン遵守監視のAI自動化
-取材・入稿業務の取材AIエージェント
-問い合わせ省人化・応対ログからのナレッジ提案
-議事録ジェネレーター(Google Meet/Slack/Drive 連携、イベント駆動)

各プロジェクトのAI汎用ソリューションの企画構想、新規導入の運用設計からMVP開発、本開発までを一気通貫でお願いします。

【ソリューション例】
-LLMワークフロー実装:要約/抽出/整形/ガイドラインチェック機能の開発
-検索/RAG基盤最適化:埋め込み・インデクシング・再ランキング・プロンプト最適化
-フロントエンド/バックエンド実装:Streamlit/Next.js/FastAPIを用いた機能実装
-議事録自動生成システム:Google Meet連携、Slackボット、Drive保存機能

【開発・運用環境】
-プロジェクト管理:Confluence, Jira
-ソースコード管理:GitHub Enterprise
-生成AIツール:Cursor, Devin, Gemini Advanced, Dify
-コミュニケーション:Slack、Microsoft Teams
-コラボレーション:Miro
-Officeツール:Google Workspace, Box, Microsoft Office365
-端末:Macbook Pro(ローカル開発ではDockerを活用)
-クラウド:Google Cloud(主にCloud Run)
-コンテナ・オーケストレーション:Docker, Kubernetes (GKE)
-プログラミング言語:Python(FastAPI, Streamlit, PyTorch/TensorFlow), TypeScript(Next.js)
-データ・検索:BigQuery, ベクターDB(Pinecone等)
-AI・機械学習:Claude API, OpenAI API
-監視・ログ:Prometheus, Grafana, Datadog
-CI/CD:GitHub Actions
-メッセージング:Slack Bot API, Google Meet API, Gmail API
-データストレージ:Google Cloud Storage, BigQuery

必須スキル
・ITコンサルティング経験
・AI汎用ソリューションの企画構想の経験
・AIソリューションの新規導入の運用設計
・高度なLLMエンジニアリングスキル
・ソフトウェア開発やプログラミングの実務経験(3年以上)
・ClaudeCode/GPT5-codex/cursor/devin等の活用経験
・DevOpsツールの知識(例:Docker、Kubernetesなど)
・ソフトウェアアーキテクチャの設計経験
・能動的な姿勢と優れたコミュニケーション能力
案件内容

・画像解析/コンピュータビジョンの基礎知識
・人物属性推定(性別・年齢推定、人数カウントなど)のモデル構築または活用経験
・エッジデバイス上でのAI推論の実装経験(NVIDIA Jetson、Raspberry Pi + NPU など)
・クラウド側とのデータ連携・API設計経験(AWS / Azure / GCP いずれか)
・カメラ映像の取得・処理パイプラインの設計経験

必須スキル
・YOLO、OpenPose、MediaPipe 等の人物検出 / 姿勢推定モデルの利用経験
・Edge AI 向け最適化経験(TensorRT、OpenVINO、TFLite など)
・屋外環境でのカメラ設置・キャリブレーションにする知識
・ディスプレイ広告系のデータ分析経験(注視時間、視認率、トラフィック分析など)
・プライバシー配慮設計(匿名化処理、映像保持ポリシーなど)の知見
案件内容

AIエージェント化、セマンティックモデル、データカタログ整備を横断的に実行し、検証~運用をドライブして経営に寄与する示唆創出を実現する。

技術者ランク:リーダ・サブリーダ相当

必須スキル

・データ分析の自走経験
目的設計、EDA、可視化、要因分析、予測、レポーティング、とここまでの手順のドキュメント化まで独力で推進できる
・Snowflake, BigQuery, Amazon Athena, Databricks, Oracle Analytics等データ分析基盤の実務経験
データ分析の推進を目的としたデータ分析基盤の基本検討、構築、運用いずれかの経験
・データベース知識
データ分析基盤検討に必要な設計を理解し、DBやSQL等のクエリ操作ができること
・ステークホルダー調整力
関連組織とのデータ調達・優先度策定・進捗/リスク管理
・案件を独力で推進できる、またはメンバーを指揮してプロジェクトをリードした実務経験

案件内容

長年のシステム利用により発生した「日本語検索の精度不足」を解決するため
現行のレガシー検索システムから最新の検索基盤へ移行・構築を行います。
検索の原理原則を理解し、日本語処理技術を用いてユーザー体験を向上させるプロジェクトです。

プロジェクトを成功に導くため、主に以下の業務を一貫してお任せします。
・新しい全文検索エンジンの環境構築(オンプレ)
・辞書を用いた検索ロジックの設計とチューニング。
・既存Webサービスと新検索システムを連携させるためのAPI開発と改修。
・大規模リニューアルにおける移行計画のサポートと、運用マニュアルの作成。

必須スキル

全文検索エンジンの構築・運用経験
Sphinx、Elasticsearch、Solrなど、いずれかの新規構築または大規模なリプレイス経験。
NLPを用いた検索精度改善の実務経験
バックエンド開発経験
Python、PHPなどを用いたAPI開発経験。
オンプレミス環境でのサーバー構築・運用経験への理解。

案件内容

主にマルチクラウド環境(AWS/GCP)のデータ基盤構築と整備、およびデータ活用のための前処理開発を担当いただきます。

データ基盤構築・統合:
現在AWSとGCPに分散しているデータ基盤を、BigQuery上への統合(一元化)を目指す構築作業が主。
データベース型サイト(5〜10サイト、大規模データ)の分析基盤の設計、保守、セキュリティ対策。

データパイプライン開発:AWSとGoogle Cloudの両方からデータを接続するデータパイプラインの設計・実装。
データソース(アクセスログ、AWS S3上のマスターデータ等)の接続設定。

データ前処理・加工(データマート構築):
データ抽出、グルーピング、定義付けなど、分析用データマートの部分の加工・実装。

運用・保守:
構築後のメンテナンス費用やセキュリティまで考慮した管理体制の提案・構築。
フェーズ: プロジェクトはこれから始まる段階(現時点では知見の少ないメンバーで対応中)。

ELTについて:
Google Cloud内の機能でELTを内製
データ抽出:SQL
変換:SQL or Python
格納:BigQuery

必須スキル
クラウド: AWSとGoogle Cloud (GCP)の両方のデータ領域に精通していること。
DWH/ETL: BigQueryを用いたデータ基盤構築、およびデータパイプラインの設計・実装経験。
データ処理: データの前処理(データマート構築)や加工、抽出パターン、グルーピング定義を理解し、実装できること。
コミュニケーション能力が高く、指示に対して一人称でロジカルに作業を進められるミドル以上の経験。
案件内容

データ抽出・準備: 施策対象者と非対象者の行動履歴、購買履歴データなどをSQLを用いて抽出し、分析用データセットを整備。

効果測定・分析: クーポン施策による売上・客単価・来店頻度など主要KPIの有意差を統計的に評価。

レポーティング: 分析結果と施策の評価、および次なる改善提案を盛り込んだ報告用資料を作成し、PMと連携しながらクライアントへ提示。

必須スキル

SQLによる基礎集計、t検定を用いた2群比較、報告用資料作成

案件内容

今回のエンド様がエネルギーの提供を運営されている企業様になっており、エネルギー自由化の競争が激化している中で、案件が複数ございます。
その中で、お客さまの課題を解消するプロダクトや価値を生み出す開発の部分で、テックリードとして開発をリードしていき、特にBtoC向けウェブサービスや、マイクロサービス領域を担っていただきます。

◆主な開発環境・ツール
言語: TypeScript、Go
フレームワーク:React、Next.js、NestJS
データベース:GraphQL
プロジェクト管理:Terraform、Docker、GitHub Actions
コミュニケーションツール:Slack、Teams
インフラ環境:AWS、Azure

必須スキル
・Goを用いた開発経験
・TypeScriptを用いた開発経験
・テックリードをされたご経験

検索結果2396件中101-110件