データサイエンティストの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:180

データサイエンティストの案件を探す

案件内容

ベンチャー某社は、製造業の研究開発から量産現場に至る**製造プロセス最適化(プロセスインフォマティクス / PI)を支援しています。

この事業において、製造装置やプロセス改善のためのデータ解析・分析を行うため、自社エンジニアと共同で取り組んでいただけるデータサイエンティストを募集します。

必須スキル
・数学、統計などデータ分析に関するスキル
・Pythonのコーディングスキル
案件内容

【クライアント】
日本最大級の位置情報プラットフォームを展開するベンチャー企業

【業務内容】
レポーティングや要件調整などの要素も強くデータxコンサルティング的な立ち位置として業務に取り組んでいただく想定。

・スマートシティ・まちづくり・リテール・メーカー・エンターテインメント・マスコミ等、広範囲にわたる業界の様々な分野でのデータ分析およびそのコンサルティング
・位置情報をベースにした施設来訪者の属性分析、競合比較等の分析
BIツールを用いたデータの可視化、ダッシュボード化
・位置情報データと購買データや商品データ等を活用した分析手法の検証・実装活用方法の企画(例:商圏のスコアリング、ある特定の行動をとる消費者群のペルソナ自動作成)

【注意点】
特定の案件にアサイン、ではなく、稼働時間分複数の案件で動いていただく想定です。

【姿勢】
案件の性質上、分析者に主体的に動いていただくことが多くなります。
どう価値をクライアントに届けていくかを一緒に考えていく、ということを期待しておりますので、指示待ちや言われた範囲のみの対応に線引きをする方はアンマッチになります

必須スキル
■データ分析の実務経験
■Python, Rなどの汎用言語、SQLによる分析経験
■Excel/Powerpointなどを用いたわかりやすい資料作成経験
■tableauの利用経験
■チームメンバーおよび顧客と対話をしながらレポーティングをした経験
■ビジネス側要求を整理し分析に落とし込むスキル・経験
■統計学の基礎知識(統計検定2級相当以上)
案件内容

データサイエンス、競合インテリジェンス、および価格最適化の交差点に位置し、高度な分析モデルを構築して戦略的な提言が求められます。
クライアントに直接関わり、大規模なデータから得られた実行可能なインサイトを、エグゼクティブレベルのストーリーとして提示し、ビジネス変革を推進します。

【役割/タスク】
ー高度な価格モデルを構築し、競合インテリジェンスと価格最適化を推進
-分析に基づいた実行可能な戦略的インサイトを、エグゼクティブ向けに提示
ークライアントと連携し、データ活用を通じたビジネス変革を主導

必須スキル
・データサイエンス、経済学、ビジネス分析、エンジニアリング、または関連分野の学士号または修士号
・応用データサイエンス、コンサルティング、または分析の役割における経験
・SQL (Snowflake、PostgreSQL)、Python、およびTableauなどのダッシュボードツールの専門知識
・統計分析、教師なし学習手法の経験
・日本語と英語の両方での強力なコミュニケーションおよびプレゼンテーションスキル
案件内容

・ベンチャー某社は主に製造業の研究開発から量産現場までの製造プロセスの最適化(プロセスインフォマティクス / PI)を支援することを事業として行う。

・製造装置等ハードからプロセスそのものの改善において、データ解析及び分析を行っていくが、ベンチャー某社の自社エンジニアと共同いただけるデータサイエンティストの募集を行う。

必須スキル
・数学、統計などデータ分析に関するスキル
・Pythonのコーディングスキル
案件内容

データサイエンティストとして、ネットスーパー事業のデータ基盤整備、および分析業務をお任せいたします。

顧客の購買行動分析、需要予測など様々なデータから最適な分析手法を用いて、プロダクトの継続的なグロース改善やプロダクトのフェーズに応じてデータ分析基盤の整備、より高度な分析機能の提供など プロダクトに関わるデータ分析業務全体に対して、広い範囲でご活躍していただきます。

【対応工程】
・GAアクセスログを中心としたデータ集計/分析
・上記分析結果に基づいたプロダクトの機能提案(設計)
・データのモニタリング環境の整備、継続的なグロース改善
・データ分析基盤の整備
・高度なデータ分析機能の立案・提供

必須スキル
・データサイエンス関連分野での実務経験 2年以上
・Python、R等のプログラミング経験 1年以上
・SQL等を用いたデータベース操作の経験 2年以上
・GAなどのアクセス解析ツールの活用経験⁠⁠ 1年以上
・基礎的な集計から統計的分析手法の経験 1年以上
・分析結果に基づいた改善提案またはレポート作成の経験
案件内容

【クライアント】
日本最大級の位置情報プラットフォームを展開するベンチャー企業

【業務内容】
レポーティングや要件調整などの要素も強くデータxコンサルティング的な立ち位置として業務に取り組んでいただく想定。

・スマートシティ・まちづくり・リテール・メーカー・エンターテインメント・マスコミ等、広範囲にわたる業界の様々な分野でのデータ分析およびそのコンサルティング
・位置情報をベースにした施設来訪者の属性分析、競合比較等の分析
BIツールを用いたデータの可視化、ダッシュボード化
・位置情報データと購買データや商品データ等を活用した分析手法の検証・実装活用方法の企画(例:商圏のスコアリング、ある特定の行動をとる消費者群のペルソナ自動作成)

必須スキル
■データ分析の実務経験
■Python, Rなどの汎用言語、あるいはSQLによる分析経験
■Excel/Powerpointなどを用いたわかりやすい資料作成経験
■チームメンバーおよび顧客と対話をしながらレポーティングをした経験
■ビジネス側要求を整理し分析に落とし込むスキル・経験
■統計学の基礎知識(統計検定2級相当以上)
■事業会社側でのデータ分析経験が2年程度
案件内容

【クライアント】
日本最大級の位置情報プラットフォームを展開するベンチャー企業で、その先のお客様企業はファミリーレストランを展開する大手企業を想定しています。

【PJTの目的】
ファミリーレストランを運営する企業様で発生する様々な事業課題について分析するチームを組成し、先方にリソース提供するプロジェクトです。当面の課題は価格弾力性・交差弾力性をテーマにしておりますが、それが解決した暁には別のテーマが走る可能性があります。

【PJT状況】
11月からキックオフされますので、現在はタスクリストの洗い出しなど、準備作業を行っている所です。
11月以降は価格弾力性、交差弾力性の分析に取り掛かる想定です。

・2025年12月末の時点でのゴール
ポテンシャル予測結果出力/精度評価/選定商品の価格弾力性分析結果の提示

【想定業務内容】
■課題設定とデータ収集・加工
■位置情報をベースにした施設来訪者の属性分析、競合比較等の分析
■大規模データの解析業務(データマイニングや機械学習)
■位置情報ビッグデータおよび購買データや商品データ等を活用した新たな分析手法や活用方法の企画(例:商圏のスコアリング、ある特定の行動をとる消費者群のペルソナ自動作成)
■エンド企業との折衝、レポーティングも場合によって発生する可能性有

【PJT体制】
PJTオーナー1名、ディレクター(分析設計役)1名

必須スキル
■小売や外食産業に関わるデータ分析の実務経験
■Python, Rなどの汎用言語、SQLによる分析経験
■Excel/Powerpointなどを用いたわかりやすい資料作成経験
■チームメンバーおよび顧客と対話をしながらレポーティングをした経験
■ビジネス側要求を整理し分析に落とし込むスキル・経験
■データ分析結果を用いて、意思決定に寄与した経験
案件内容

・金融SaaSサービス運営企業におけるデータサイエンティストとしてデータ解析及び機械学習モデルの活用に携わっていただきます。
・データの前処理、特徴量エンジニアリング、モデル構築・評価おびよび改善
・機械学習モデルのパフォーマンス最適化
・プロダクト内および社内へのAI導入

【参画メリット】
・フルリモートですので、ご自身のリラックス出来る環境で作業を行って頂きます。
・フルフレックスとなりますので、中抜けなど柔軟な働き方が可能となっております。
・現在弊社から複数名参画中のエンド様であり、どの技術者も稼働が安定しており、コミュニケーションがとりやすいとのお話をいただいております。

◆補足
【技術環境】
・開発言語:Python、Typescript
・機械学習・統計モデリング:scikit-learn、LightGBM、pandas、numpy etc.
・クラウドプラットフォーム:Google Cloud Platform
・分析基盤:BigQuery
・アプリケーション:Next.js、FastAPI
・構成管理ツール:Terraform、Cloud Build
・データモデリング:Dataform
・データビジュアライゼーション:Metabase/Redash
・その他:Docker、GitHub、Slack、Github Copilot etc.

必須スキル
・BigQuery / Cloud StorageなどGoogle Cloudを用いたデータ分析のご経験
・Google Cloudを用いたデータ基盤の構築・運用のご経験
・Pythonを用いた機械学習モデル実装のご経験
・scikit-learn / LightGBMなどのご利用経験
案件内容

【概要】
時系列モデルを構築して、ビジネス要件を満たせる予測精度を実現できるかを検証して結果を報告します。
構築したモデルのブラッシュアップを実施して精度向上を目指します。
複数のプロジェクトに対してスキルマッチした案件へアサインいただきます。

【業務】
・基礎分析
・予測モデルの要件定義
・分析用データの前処理、特徴量作成
・予測モデル構築、検証
・検証結果報告書の作成
・そのほかデータサイエンティスト業務全般

【体制】
2名体制
PM1名
DS1名(当該募集)

必須スキル

・Python、SQL経験(2年以上)
・LightGBMなど回帰アルゴリズムによる予測モデルの構築経験(3プロジェクト以上)
・モデルに投入する特徴量データ集計のパイプライン構築経験
・ドキュメンテーション能力
・コミュニケーション能力

案件内容

秒間25万リクエストを超える動画配信をはじめとした視聴に関するビッグデータの整形・分析・レポーティング等の業務を行なっていただきます。

【業務内容】
蓄積された様々なデータからGCP(Google Cloud Platform)やオープンソースなどのML/DLフレームワーク技術を活用し、各種モデルの検討から分析・開発・評価を行っていただきます。
ご入社後まずは、テレビ局ならではのデータの活用、分析、その結果のレポーティング業務等を行って頂きます。

具体的には・・・
・データテーブル設計
・数理統計や機械学習を用いた分析業務
・Python、SQLを用いた分析フローの実装
・報告書作成からクライアントへの提案、プレゼン
・付随するクライアント対応業務

【開発環境】
■開発言語:Python
■GCP利用サービス:BigQuery、Cloud Storage、Vertex AI、ワークフロー、Looker
■AWS利用サービス:S3、Athena、Redshift、Glue、SageMaker
■その他ソフトウェア:MySQL、Docker、JupyterNotebook
■ソースコード管理:Git (GitHub)
■プロジェクト管理:GitHub
■情報共有ツール:Slack、Teams、GoogleMeet、Zoom

必須スキル
・ビッグデータに関する興味関心
・SQLを使用したDBプログラミングの開発経験
・Pythonでの分析経験

検索結果180件中1-10件