データアナリストの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:300

データアナリストの案件を探す

案件内容

生物学的年齢を再定義するアルゴリズム・アーキテクト
・エピジェネティクス情報を用いた新規エイジングクロック(生物学的年齢)算出ロジックの考案 ・臓器別(脳・心臓・腸など)の老化予測モデルの要件定義および実験計画の策定
・深層学習(LLM等)をバイオデータへ適用するためのアーキテクチャ設計および技術選定
・解析結果に基づく「病気にならない体作り(介入方法)」のサービス化に向けた仕様検討

必須スキル
・機械学習・深層学習を用いた新規アルゴリズムの研究開発・実装経験 ・論文からの先行研究調査および実装(SOTAのキャッチアップ)能力
・不確実性が高いデータ(正解が曖昧なデータ)に対する評価指標(F1スコア、再現率等)の設計能力
案件内容

生命のコードをAIに学習させる。LLM×深層学習エンジニア
・Python/PyTorchを用いた深層学習モデル(CNN/Transformer等)の構築・学習・評価, ・大規模言語モデル(LLM)技術を応用したエピジェネティクス解析モデルの実装
・特徴量エンジニアリングおよびハイパーパラメータチューニングによるモデル精度向上
・Git/GitLabを用いたチーム開発(プルリクエスト、コードレビュー)およびモデル管理, ・クラウド環境(GCP/BigQuery等)を用いた学習基盤の活用

必須スキル
・PythonまたはRを用いたデータ分析の実務経験
・機械学習モデル構築の実務経験、または同等レベルの知見
・分析結果を整理し、改善案まで含めて言語化できる能力
案件内容

・データ分析
・DWH構築
・データ統合

<環境/言語/ツール>
azure synapse analytics

必須スキル
・複雑なデータ処理に関わるプログラミングの広範な知識
・データ作成の正確性(納品に耐えうるデータ作成)
・上記スキルを満たす方
案件内容

・研究開発(R&D)領域におけるデータ分析・機械学習業務
・データ収集、前処理、品質確認(欠損・外れ値・分布確認 等)
・探索的データ分析(EDA)、可視化、仮説検証
・機械学習モデルの構築および評価(分類/回帰/時系列/異常検知 等)
・特徴量設計、評価指標設計、データリーク検知
・分析結果のドキュメント化、再現性を意識した社内共有
・適性に応じてモデル開発高度化、AI×DB活用、MLOps領域への関与あり

必須スキル
・PythonまたはRを用いたデータ分析の実務経験
・機械学習モデル構築の実務経験、または同等レベルの知見
・分析結果を整理し、改善案まで含めて言語化できる能力
案件内容

戦略策定支援:
SI案件における、SE目線での生産性・有償稼働率等の評価、データ分析と改善アクションの立案。

多角的なデータ分析:
既存の枠組みにとらわれず、「プロジェクト利益率」「組織生産性」「SEリソース稼働率」「技術ドメイン別成長性」など、最適な切り口(KPI)を自ら設定して分析。

アウトプット作成:
分析結果を可視化し、経営層やステークホルダー向けの戦略レポートやシミュレーションモデルを作成。
意思決定のサポート: データに基づいた「次に打つべき手」の提案。

必須スキル

・高度なExcel活用能力
複雑な関数(VLOOKUP, INDEX/MATCH, SUMIFS等)、ピボットテーブルを自在に操れること。
大量のローデータを迅速にクレンジングし、分析可能な形式に整えられること。
・論理的思考(ロジカルシンキング)
目的から逆算し、どのようなデータが必要か、どの切り口で分析すべきかを自ら定義できる能力。
・SI・IT業界への理解
SIビジネス特有の収益構造(人月単価、外注費、プロジェクト管理など)を理解していること。

案件内容

国内外の様々なお客様にSnowflakeの導入とそれに伴うデータ活用の支援
-Snowflakeの導入コンサルティング
-Snowflakeを中心としたデータ基盤の開発支援、データ活用支援
-Snowflakeや周辺技術領域(モダンデータスタック)の情報収集、技術検証
-データ基盤やデータエンジニアリングに関する技術情報発信

必須スキル

-RDBMS製品(Oracle、 PostgreSQL、MySQL等)または
DWH製品(Teradata、Redshift、BigQuery等)または
データレイク製品(Hadoop/Spark、EMR等)に関する開発経験

-クラウド(AWS、Azure、GCP等)に関する開発経験
-基本的なSQLまたはPythonのコーディングスキル
-論理的思考、ドキュメンテーションのスキル

案件内容

グローバル規模で展開する小売・消費財データを活用し、価格戦略・競合分析を支援するデータ活用プロジェクトに参画。
データサイエンティストと連携し、膨大な生データを経営判断に直結する分析データへと昇華させる役割を担う。
大規模データ基盤の設計・構築から、データ品質管理、運用・保守までを技術面の中核として推進する。

必須スキル
・データエンジニアリングまたは技術分析の実務経験(目安:4~6年)
・SQLおよびPythonを用いたデータ処理・自動化の実務経験
・データオーケストレーションツールの利用経験
・Airflow、dbt、Prefect 等
・クラウドプラットフォームの利用経験(GCP尚可)
・Gitを用いたバージョン管理の知識
コンテナ技術に関する基本的な理解・利用経験
・ビジネスレベル以上の英語力(グローバルチームとの連携必須)
案件内容

データ抽出・準備: 施策対象者と非対象者の行動履歴、購買履歴データなどをSQLを用いて抽出し、分析用データセットを整備。

効果測定・分析: クーポン施策による売上・客単価・来店頻度など主要KPIの有意差を統計的に評価。

レポーティング: 分析結果と施策の評価、および次なる改善提案を盛り込んだ報告用資料を作成し、PMと連携しながらクライアントへ提示。

必須スキル

SQLによる基礎集計、t検定を用いた2群比較、報告用資料作成

案件内容

顧客のとあるサービスにおいて、Tableauのレポート新規作成・保守を中心とした業務を行っていただきます。
アナリストとして、レポート等をよりよくしていくような提案を含めたアクション実施可能な方を希望します。

  • Tableauのレポート新規作成について
    →顧客からの依頼ベースでSQLを用いてデータを抽出し、Tableauでレポート(ダッシュボード)を作成
  • 保守について
    →定期的にデータ更新のバッチ処理ファイルを作成・更新
    ( Tableau prep, Airflowを利用 )
必須スキル

・Tableauのご経験
・SQL
・Python(Airflowメンテ含む)

案件内容

時系列データを対象とした予測モデルおよび因果推論モデルの構築・評価を行う業務。
具体的には、ビジネス課題に応じたアルゴリズム選定から、データ前処理・特徴量設計、モデル構築・評価、結果解釈までを一貫して担当。
また、SHAPなどの説明可能AI(XAI)手法を用いて、モデルの特徴量寄与度を可視化・検証する。
加えて、時系列データにおける構造的因果推論(因果効果の特定や介入シミュレーション)を実施し、意思決定支援に繋げる。

必須スキル
Pythonを用いた機械学習モデルの構築経験
時系列データ分析・予測モデルの実務経験
特徴量エンジニアリング・多重共線性対策の実務経験
機械学習アルゴリズム(線形回帰、ツリーモデル、時系列モデルなど)への理解
構造的因果推論(SCM、DoWhy、causal impact など)の実務経験

検索結果300件中1-10件