単価70万円以上の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:3560

単価70万円以上の案件を探す

案件内容

現行事業者からの引継ぎを行っており、年末まで準備期間となります。
準備期間の間は設計などの習熟と、基盤保守のチームリーダーとしてチームビルディングを行って頂きます。
「顧客や、関連会社との調整・コミュニケーション」、「能動的なチーム運営」を重要視しています。

必須スキル
・大規模な基盤保守でチームリーダーとしての経験がある。
・AWS SAP保有者
・クライアントオフィスへの出社が可能
案件内容

基盤の運用および改善業務を担当して頂きます。

■具体的な業務内容

  • ユーザーからの依頼および問い合わせ対応
  • テーブル・ビュー追加/改修作業
  • データ閲覧権限管理作業
  • データパイプライン運用/改修作業
  • Google Cloud設定変更作業
  • 技術調査/検証作業
  • その他運用改善に伴うツール開発/改修業務
    ※社内のデータ基盤ユーザーとのコミュニケーションが発生します

■求める人物像
・円滑なコミュニケーションが取れる方
・能動的に仕事に取り組める方

必須スキル
・Pythonもしくはオブジェクト指向、スクリプト言語の経験
・SQLの実用的・高度な知識とリレーショナル データベース、クエリ作成 SQL の操作経験
・Linux、Docker、ネットワークの基礎知識
・IaC(terraform)を利用したインフラリソースの管理経験
・Github,Gitを利用したコード管理・チーム開発経験
・3年以上のデータ分析基盤に関する業務経験
・Google Cloudでのデータ基盤運用経験
案件内容

大規模な生データを取り込み、クリーンアップするための堅牢でスケーラブルなデータパイプラインを構築・維持する、技術的デリバリーの要です。Python/SQL、GCP等のツールを用いてデータ品質を徹底的に保証し、データサイエンティストと連携して高品質なBIダッシュボードを本番環境に移行させます。

【役割/タスク】
・大規模データの取り込み・変換・クリーンアップを行うスケーラブルなパイプラインを構築
・高稼働率のBIダッシュボードを本番環境にデプロイし、技術的基盤を管理
・データ品質保証プロセスを主導し、納品前のデータ出力の厳密性を確保

必須スキル
・データエンジニアリング、データ品質、または技術分析の役割における経験
・データ処理と自動化のためのSQLとPythonの熟練度
・データオーケストレーションツール (例: Airflow、dbt、Prefect) の経験
・高稼働率の顧客向けアプリケーション、ダッシュボード、またはその他のツールをデプロイ・維持した経験
案件内容

Googleスプレッドシートに保存された広告データを、BigQueryに取り込み、Looker Studioにて可視化・レポート作成を行う支援業務。BigQuery環境の利用が前提
Fivetranを使用したデータ統合の自動化

必須スキル

・BigQueryを用いたデータ連携・加工経験
・Looker Studioでのダッシュボード作成経験
・スプレッドシートとのデータ連携知識(GAS実務経験)

案件内容

データサイエンス、競合インテリジェンス、および価格最適化の交差点に位置し、高度な分析モデルを構築して戦略的な提言が求められます。
クライアントに直接関わり、大規模なデータから得られた実行可能なインサイトを、エグゼクティブレベルのストーリーとして提示し、ビジネス変革を推進します。

【役割/タスク】
ー高度な価格モデルを構築し、競合インテリジェンスと価格最適化を推進
-分析に基づいた実行可能な戦略的インサイトを、エグゼクティブ向けに提示
ークライアントと連携し、データ活用を通じたビジネス変革を主導

必須スキル
・データサイエンス、経済学、ビジネス分析、エンジニアリング、または関連分野の学士号または修士号
・応用データサイエンス、コンサルティング、または分析の役割における経験
・SQL (Snowflake、PostgreSQL)、Python、およびTableauなどのダッシュボードツールの専門知識
・統計分析、教師なし学習手法の経験
・日本語と英語の両方での強力なコミュニケーションおよびプレゼンテーションスキル
案件内容

・Power PlatformやSalesforceで構築された既存システムを対象にメンテナンス対応チームを立ち上げて、アジャイル方式で改修・機能追加を行う。
・スクラムリーダーはお客様が担当し、メンバーとして設計、開発、テスト、ドキュメント作成を実施。

■開発環境■
Power Platform, Salesforce, Dataverse, Java, Azure, JavaScript, Python

必須スキル

・Power Apps、Power Automate、Dataverseの設計、開発、テストの経験(※必須)
・Javaによるシステム開発の経験
(技術的には何かの言語のスペシャリスト、というよりはいろんな言語をできる人がよいが上の二種類がそこに含まれていることが望ましい)

・要件を理解して計画・立案ができるスキル
・現行システムの解析及びシステムに関連する担当者との調整
・新しい技術を学ぶことに抵抗なく、すぐに自分のものにできる人(新しく使う言語でもすぐに成果が出せる人、自己研鑽により成長できる人)
・周りの人と協調して開発ができる人(チーム開発の経験がある人)
・テスト等をやって自分が開発したものの品質の担保ができる人
・指示待ちにならずに、自分の作業を見つけてプロジェクトの進捗に貢献できる人
・過去の失敗の経験を生かせる人(失敗の反省を生かして自身の業務のやり方を変えられる人)

案件内容

様々なWEBサービス(月間数千万ユーザー利用)を提供している社内において各業務に対してAIを活用した様々な改善を行っています。
-ガイドライン遵守監視のAI自動化
-取材・入稿業務の取材AIエージェント
-問い合わせ省人化・応対ログからのナレッジ提案
-議事録ジェネレーター(Google Meet/Slack/Drive 連携、イベント駆動)

各プロジェクトのAI汎用ソリューションの企画構想、新規導入の運用設計からMVP開発、本開発までを一気通貫でお願いします。

【ソリューション例】
-LLMワークフロー実装:要約/抽出/整形/ガイドラインチェック機能の開発
-検索/RAG基盤最適化:埋め込み・インデクシング・再ランキング・プロンプト最適化
-フロントエンド/バックエンド実装:Streamlit/Next.js/FastAPIを用いた機能実装
-議事録自動生成システム:Google Meet連携、Slackボット、Drive保存機能

【開発・運用環境】
-プロジェクト管理:Confluence, Jira
-ソースコード管理:GitHub Enterprise
-生成AIツール:Cursor, Devin, Gemini Advanced, Dify
-コミュニケーション:Slack、Microsoft Teams
-コラボレーション:Miro
-Officeツール:Google Workspace, Box, Microsoft Office365
-端末:Macbook Pro(ローカル開発ではDockerを活用)
-クラウド:Google Cloud(主にCloud Run)
-コンテナ・オーケストレーション:Docker, Kubernetes (GKE)
-プログラミング言語:Python(FastAPI, Streamlit, PyTorch/TensorFlow), TypeScript(Next.js)
-データ・検索:BigQuery, ベクターDB(Pinecone等)
-AI・機械学習:Claude API, OpenAI API
-監視・ログ:Prometheus, Grafana, Datadog
-CI/CD:GitHub Actions
-メッセージング:Slack Bot API, Google Meet API, Gmail API
-データストレージ:Google Cloud Storage, BigQuery

必須スキル
・ITコンサルティング経験
・AI汎用ソリューションの企画構想の経験
・AIソリューションの新規導入の運用設計
・高度なLLMエンジニアリングスキル
・ソフトウェア開発やプログラミングの実務経験(3年以上)
・ClaudeCode/GPT5-codex/cursor/devin等の活用経験
・DevOpsツールの知識(例:Docker、Kubernetesなど)
・ソフトウェアアーキテクチャの設計経験
・能動的な姿勢と優れたコミュニケーション能力
案件内容

・画像解析/コンピュータビジョンの基礎知識
・人物属性推定(性別・年齢推定、人数カウントなど)のモデル構築または活用経験
・エッジデバイス上でのAI推論の実装経験(NVIDIA Jetson、Raspberry Pi + NPU など)
・クラウド側とのデータ連携・API設計経験(AWS / Azure / GCP いずれか)
・カメラ映像の取得・処理パイプラインの設計経験

必須スキル
・YOLO、OpenPose、MediaPipe 等の人物検出 / 姿勢推定モデルの利用経験
・Edge AI 向け最適化経験(TensorRT、OpenVINO、TFLite など)
・屋外環境でのカメラ設置・キャリブレーションにする知識
・ディスプレイ広告系のデータ分析経験(注視時間、視認率、トラフィック分析など)
・プライバシー配慮設計(匿名化処理、映像保持ポリシーなど)の知見
案件内容

既存のTableau環境に対しDatabricksを追加採用し、社内外データを一元的・効率的に管理できる統合データ基盤を構築するプロジェクトになります。

現状:Tableau (BIツール) のみ導入済み。
構築対象範囲:
・Databricksデータ基盤環境の追加構築。
・データレイク、DWH(データウェアハウス)の統合。
・周辺のデータ準備処理およびワークフローの整備。
主要業務: データパイプラインの設計・構築

必須スキル

・大規模データ基盤構築プロジェクトにおける構築実務経験
(データ設計/データパイプライン処理実装等)
・Pythonを使用したデータ分析などのご経験
・自主的・積極的な業務推進

案件内容

AIエージェント化、セマンティックモデル、データカタログ整備を横断的に実行し、検証~運用をドライブして経営に寄与する示唆創出を実現する。

技術者ランク:リーダ・サブリーダ相当

必須スキル

・データ分析の自走経験
目的設計、EDA、可視化、要因分析、予測、レポーティング、とここまでの手順のドキュメント化まで独力で推進できる
・Snowflake, BigQuery, Amazon Athena, Databricks, Oracle Analytics等データ分析基盤の実務経験
データ分析の推進を目的としたデータ分析基盤の基本検討、構築、運用いずれかの経験
・データベース知識
データ分析基盤検討に必要な設計を理解し、DBやSQL等のクエリ操作ができること
・ステークホルダー調整力
関連組織とのデータ調達・優先度策定・進捗/リスク管理
・案件を独力で推進できる、またはメンバーを指揮してプロジェクトをリードした実務経験

検索結果3560件中21-30件