単価100万円以上の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:1025

単価100万円以上の案件を探す

案件内容

●電力の需要/発電予測等に関連するデータ分析作業
-基本的には、収集されたデータをもとに作業を進めることになる予定。

必須スキル

・機械学習のデータ前処理を自分で考えて実装することができる
・Pandas/Numpy等を利用した分析ができる(JupyterNotebook/Lab環境等)
・Pythonでscikit-learnを用いて自分で機械学習モデルを構築できる、など。

案件内容

AWSを用いて実現する蓄積基盤の設計、構築(特にRedshift、Glueまわり)
勘定系システムなどからデータを受け取るAWSのデータレイク基盤(蓄積基盤)の設計、構築

必須スキル

AWSのデータ分析基盤関連のサービスの設計、構築スキル(特にRedshift、Glue)

案件内容

不動産データ(家賃)の分析、およびモデル構築

必須スキル

・PythonかRを使ったデータ分析の経験。spyderやRstudioなどの開発環境で作業できること。
・ 確率、統計の知識。例えば、正規分布、指数分布、期待値、標準偏差、回帰分析等の用語がわかる。

案件内容

膨大なSNSマーケティングデータを扱うtoB向けSaaSプロダクトのML開発業務をご担当いただきます。
主に、以下内容を想定しています。
・ML開発業務全般
・Webエンジニアと協働したプロダクトへの適用

【開発環境】
・言語:Python
・フレームワーク:PyTorch/ PyTorch Lightning/ TensorFlow/ Keras
・環境:Jupyter Notebook / Colab Pro + / BigQuery / GitLab / Slack / Zoom / Tandem
・貸与マシン:MacBook Pro

【開発手法】
プロジェクトごとに選択、アジャイル、スクラム、チケット駆動開発、コーディング規約あり

【働き方】ほぼリモート中心。コミュニケーションツールはZoom / Slack / Tandem / Discordなど。

必須スキル

・自然言語処理(NLP)に深い造詣、経験を有していること
・機械学習を利用した自然言語処理を用いてサービス開発を行い、リリース後も品質向上を行った もしくはこれらをリードした経験
・Pythonでの研究や開発経験、特にPyTorch/TensorFlow/scikit-learn/Keras等のライブラリやフレームワークを用いた開発経験

案件内容

【概要】
データエンジニアとしてDMP及びCDP導入案件や顧客の分析要件に基づいたデータ抽出環境整備における構築業務を担っていただきます。
多数のプロジェクトがあり、適性なものにジョインを想定しております。

【環境】
SQL,Python,Git

【業務】
・CDP及びDMPの設計/構築/運用
・各種DB、分析ツールを連携させたデータ管理、分析環境の構築
・データマートの設計/構築/運用
・クライアントとの細部仕様調整

必須スキル

・SQL
・TreasureData/GCP/AWS等のクラウドDWHの構築経験

案件内容

【募集背景】
・人員不足
・サービス力向上

【案件概要】
現在エンジニアスキル不要のフルマネージド型分析SaaS(機械学習が組み込まれている)を開発しており、そこにおけるデータサイエンティストを募集しております。
サービスとしてはデータの可視化や分析が出来るもので、競合イメージとしてはTableauやGoogle データポータル等です。
現在は可視化や分析までのサービスとなりますが、今後はサービスを使う営業の方が「次にどういった事を行えば受注率が上がるのか」、「いつ決裁者へアプローチすべきか」等、データドリブンにサービスを使えるようにしていきます。

【業務内容】
・MLモデル構築
・ML/DL技術を用いた新機能開発
・実装もスコープに入る可能性あり

必須スキル

・Python
・Pandas

案件内容

エンターテインメント系クライアントの
データ戦略部にて下記業務をお願いする想定になります。

【業務スコープ】
・具体的には先方が誰かに伝えたい資料から、本来伝えるべき内容に情報を再整理して資料化する案件です。
・その他室長が担う業務のサポート業務

必須スキル

・資料作成スキル(PPT)
・論理的思考力

案件内容

全国の入札情報を一括検索・管理できるSaaS Webサービスを展開している企業内で、機械学習エンジニアを募集しております。
具体的な業務内容としては以下の通りです。
・モデル開発に必要なデータの洗い出し
・モデル開発のための検索的データ分析(EDA)
・モデル開発のための特徴量選定
・モデル開発のための機械学習手法選定
・構築したモデルのハイパーパラメーターチューニング
・開発したモデルのオフライン性能検証
・オフライン性能検証結果のレポーティング
・本番環境下の推論結果提供用のAPIサーバー構築
・システム稼働後の機械学習モデルの精度モニタリング
技術環境:
・分析基盤:未定
・統合分析環境:SageMakerもしくはVertexAI
・BIツール:未定
・CI/CD:CircleCI
・コンテナ技術:AWS ECS/Fargate
・ワークフローエンジン:AWS Step Functions
・監視ツール:Datadog/CloudWatch
・インフラ構成管理:Terraform
・コード管理:GitHub
・ツール類:Slack

必須スキル

★データサイエンス領域
・データ分析、データ特性に合わせたクレンジング処理の経験
・サービスやビジネス要求に合わせた特徴量選択の経験
・サービスやビジネス要求に合わせた手法選定、精度評価の経験
・精度向上のためのハイパーパラメーターチューニングの経験
・自然言語処理の経験
◆エンジニアリング領域
・機械学習モデルの開発し、プロダクトに組み込んで運用した経験
・レポーティング経験

案件内容

・グループ全社のデータパイプライン設計・実装及び実装委託
 (APIやパブリックデータの取得/整備)
・DWH管理業務 (欠損,Issue,申請等の対応)
・技術調査

【業務スコープ】
・Google Cloud Platformをバックエンドとするデータ分析基盤の開発・運用
・データ分析基盤と各事業部が有するデータを活用するための開発・運用
・データ分析基盤にデータを収集するETL/ELTパイプラインの開発
・データ分析基盤でデータを集計するワークフローの開発
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

必須スキル

1. 複雑なSQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験

案件内容

【プロジェクトの目的】
D&O保険(役員賠償保険)向け保険料プライシングツールのために、下記の分析・モデリングを行う
(1) ESGファクターを考慮したリスク予測モデルの開発(チューニング)
(2) 上記モデルで予測したリスク確率とは別に、個別にプライシング調整を行うためのリスクファクターに関する分析
(1)については、昨年度に一度、別の目的変数を用いたモデル開発を行っており、説明変数の加工等はスクリプトを使い回せる部分も多いと想定。

  1. 使用するデータ
    TSR(東京商工リサーチ)の企業情報やネガティブデータ
必須スキル

・Pythonを用いて、データの加工・可視化、予測モデル構築(重回帰分析、ランダムフォレスト 等)が可能。

検索結果1025件中801-810件