単価60万円以上の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:5347

単価60万円以上の案件を探す

案件内容

ライブ配信事業における、データ基板の設計業務に携わっていただきます。

・Trocco / dbt を用いたETLパイプラインの設計・改善
・Snowflakeのロール・権限設計、マスキングポリシー・タグ伝播の実装支援
・データ基盤の開発標準策定・ドキュメント整備

【開発環境】
使用言語: Python, SQL, HCL(Terraform)
ETL:dbt, Trocco
データストア: MySQL, snowflake
インフラ: AWS, GCP
プロジェクト管理ツール: GitHub, Slack, Notion

必須スキル
・データパイプライン設計・実装の実務経験(4年以上)
・クライアントワークにおける要件定義経験(3年以上)
・Snowflake を用いたDWH構築・運用経験
・Trocco を用いたETL設計・運用経験
・dbt によるデータモデリング(staging / intermediate / mart)経験
・SQL / Python の実務経験
・データ基盤の開発標準策定・ドキュメント整備経験
案件内容

某大手企業(店舗向け)のWi-Fi・ネットワーク環境導入プロジェクトにおいて、利用者向けのサポート事務局(ヘルプデスク)業務をご担当いただきます。
一次受けのコールセンターと連携し、エスカレーションされた案件の状態管理や2次対応を行っていただくポジションです。

【主な業務内容(2次対応ヘルプデスク)】
・Wi-Fi、通信環境に関する問合せ受付・案内の2次対応
・通信状況のヒアリング、障害切り分け、ステータス確認、軽微な設定変更
・ログの取得および状況整理
・遠隔システムからの各機器(Wi-Fi AP、PoEスイッチ、L2スイッチ)の再起動
・フィールド保守チームのサポート、機器交換後のステータス確認
・ユーザー問合せ対応(一次受けセンターと連携しながら実施)

【随時対応いただく業務】
ネットワーク機器を利用した、認証サーバーの運用オペレーションもお任せします。
※マニュアル(手順書)に沿って、以下のPC端末登録作業を行っていただきます。
・対象のネットワーク機器(認証用スイッチ)へのアクセス・ログイン
・スイッチからの情報抽出(MACアドレステーブルの取得)
・認証サーバー(RADIUSサーバー)へのMACアドレス登録作業
・上記に伴うデータ入力・確認などの付随業務

必須スキル
・クライアントとの円滑なコミュニケーション能力(1次受けセンターやフィールド保守担当者など、関係者と連携しながら状況整理・ヒアリングができること)
・ITサポート、ヘルプデスク、またはユーザーサポートの実務経験(1次受けのみの経験も可)
・基本的なITリテラシー(PCの基本操作、タイピング、Officeツールの利用など)
・マニュアル(手順書)を読み解き、手順通りに正確なオペレーション・データ入力ができる方
案件内容

Catoの導入・設計・構築・運用支援等
Catoの有識者としての技術支援全般
・受注背景:
SIerにてSASE(Prisma AccessやCato等)の提案・導入案件を複数受注しているが、社内にCatoの有識者が不足しており、プロジェクト推進のために外部人材による知見補強が急務となっているため

必須スキル
Catoに関する深い知見
Catoの導入、設計経験
※運用経験のみ、またはCatoプロジェクトの経験期間が短い方は不可
案件内容

AWS環境下で一般向けWEBサイトを構築する。
RHEL8+Apache+TomcatのWEBシステム構成であり、基本設計、詳細設計、
構築(CloudFormation、yaml)、テスト(インフラテスト、高負荷、運用、IF)、切替、運用を実施。

必須スキル
・AWSの知識、構築運用経験
・WEBアプリケーションサーバ構築の知識・経験
・RHEL OSの知識・経験
・Apache
・Tomcat など。
AWS経験があれば土台に乗ります。
案件内容

複数企業からのAPIリクエストを統合管理し、セキュリティおよびガバナンスの強化を図るため、共通基盤の導入を推進します。
参画後は、現状のヒアリングから要件定義、設計、実装までの一連の工程に携わっていただきます。

【詳細スケジュール(予定)】
・2026/4~5:現行環境の調査・分析(アセスメント)および要件定義
・2026/5:API基盤のシステム設計
・2026/6~7:新基盤への切り替えに向けた移行計画の策定、事前検証、本番移行の実施

必須スキル
・API管理基盤(API Gateway等)の構築に携わった実務経験
・Kong、またはそれに類する製品を用いた設計・構築の実績
案件内容

既存の COBOL一体型システム(画面含む)を、Java+COBOL構成へ分離。Java側からOLTPを介してCOBOL処理を呼び出すアーキテクチャとなっています。現在は システムテスト工程 に入っており、並行して Javaアプリケーションの品質向上(性能・処理方式の改善) を実施します。一部機能では 日立製 e-CANDO を利用中。

【作業内容】
・Java(フロント/バックエンド)の品質改善対応
・性能/処理方式を考慮したアーキテクチャ検討
・既存コードの解析、改善方針の検討・反映
・システムテストと並行した品質向上対応

必須スキル
・Javaを用いた開発経験5年以上
・Javaの品質向上経験
 (AP基盤としての性能・処理方式を意識した設計/検討経験)
・問題に対して自走して解決できる方
・円滑なコミュニケーション能力
案件内容

様々なWEBサービス(月間数千万ユーザー利用)を提供している社内において横串組織として、事業部側と連携しながらデータ基盤の構築・運用を担当しているチームです。事業部側に払い出すGoogle Cloudのプロジェクト自体も管理し、事業部のデータはオン
プレミスサーバー上にあります。セキュアで信頼性の高く、自動化されたデータ基盤構築の実現を目指しています。

求める人物像
セキュアで信頼性の高いデータ基盤の構築・運用を行える方
・アクセスコントロールやセキュリティ境界を意識した設計ができる方
・複数の事業部が利用する基盤を高い視座で効率的な設定、自動化、ルール作りをできる方
新しい技術に対する学習意欲が高い方
・パブリッククラウド、特にGoogle Cloudのキャッチアップを継続的に行っている方
・インフラの知識をベースとして、データエンジニアリングにも興味を持っている方
・Claude Code、Cursor、Devin、Difyなどの生成AIを利用したツールを積極的に利用している方
課題解決に必要なコミュニケーション能力を持っている方
・チームメンバーと協力して課題解決に取り組める方
・事業部との調整や折衝をする際に、エンジニアリング知識が乏しい人とも前向きにコミュニケーションを取れる方

必須スキル
・Google Cloud のプロジェクト作成および IAM での適切なアクセスコントロール
・VPC Service Controls でのセキュリティ境界設計及び構築
・CI/CDを実践しての運用業務効率化
・BigQueryを用いてのデータ基盤の構築(データエンジニアではなく、インフラエンジ
ニアとして構築するべき範囲)
・gcloudコマンドでのGoogle Cloudの操作
・Google Cloud のリソースを対象にしての Terraform での IaC 経験。(IAM、VPC Service Control、Cloud Interconnect、BigQuery、Cloud Storage、Cloud SQL、Cloud Run、Cloud Functions、Artifact Registry、Cloud Scheduler、Pub/Sub、Compute Engine、Secret Manager、Cloud Monitoring、Cloud Logging)
・コンテナ化されたアプリケーションの構築・運用経験
・Artifact Registry を使ったコンテナイメージの管理経験
・Cloud Monitoring、Slack、Opsgenie、PagerDuty 等を用いた通知最適化およびオンコー
ル体制の構築・運用
・事業部側のデータ利用者と連携し、基盤の安定性とコスト効率を両立させる継続的な改
案件内容

精算管理基盤の再構築に伴い、AWS各種サービスの設計・構築・運用を担当。
DB設計・構築・運用(パフォーマンスチューニング含む)、ETL処理実装、
NewRelicを活用した監視設計・構築・運用、将来的なマルチクラウド対応を想定。

必須スキル

・EC2、ECS、コンテナの保守運用および新規構築経験
・証明書管理およびDNS管理の理解・実務経験

案件内容

ヘルスケア系スタートアップの研究開発部門にて、
DNAメチル化(エピゲノム)データを活用した統計解析・データ分析業務を担当いただきます。

本プロジェクトでは、以下のデータを統合し、
生物学的年齢(Biological Age)や疾患発症リスク・死亡リスクの予測モデルの研究開発を進めています。

・DNAメチル化データ(CpGサイト:約27万特徴量)
・人間ドック・健康診断データ
・大学研究機関の長期追跡研究データ(20年スパンの死亡率・疾患発症データ)

チーフサイエンティストおよびバイオインフォマティクスチームと連携しながら、
研究開発に必要なデータ前処理・探索的分析・統計解析・可視化を担っていただきます。

また解析結果は、
医学論文・学会発表・研究レポート等で利用されるため、Publication Qualityのデータ可視化が重要なミッションとなります。

【主な業務内容】
・DNAメチル化データ/医療データのクレンジング・整形
・探索的データ分析(EDA)
・統計解析(回帰分析、生存時間解析など)
・医療研究向けデータ可視化(論文・学会用図表作成)
・Python / Rを用いた解析パイプライン構築
・研究チームとの仮説検証ディスカッション

必須スキル
・PythonまたはRを用いたデータ分析経験
(Pandas / Tidyverse等)
・統計解析の基礎知識
(回帰分析、統計検定など)
・データ可視化スキル
(論文・レポート向けの図表作成経験)
案件内容

LLMを活用した次世代AIエージェントの開発案件
文字、音声を含むマルチモーダルデータを統合的に解析するシステム構築を担当
プロトタイプ開発からプロダクト実装まで幅広く対応

<主な業務内容>
・LLMを活用したAI機能開発、評価、最適化
・AIエージェントの実装
・RAG(RetrievalAugmentedGeneration)およびベクトル検索の実装
・FastAPIベースのバックエンド開発、AI推論API設計
・OpenAI/Gemini/Claude/vLLM等の統合運用
・AWS環境構築およびパフォーマンス最適化

使用技術:Python、FastAPI、OpenAI API、Gemini API、AWS(ECS/Fargate、S3)、Docker、GitHub

必須スキル
※要点:★
・GitHubを用いたチーム開発経験★
・技術課題を自走的に調査、解決できる能力
・以下のうち2つ以上の経験
-生成AI開発経験(LangChain、LangGraph等)★
-RAG構築経験またはRAG精度改善経験★
-FastAPI等PythonフレームワークでのWebAPI実装経験★
-AWS環境構築またはパフォーマンス最適化経験

検索結果5347件中1-10件