フリーランス案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:777

フリーランス案件を探す

案件内容

空港業界のお客様に、ダイナミックプライシングの活用を検討いただくための支援として、
データ分析によるダイナミックプライシングの有効性を検証する案件となります。
主な業務は、ダイナミックプライシングの有効性を検証するデータ分析です。
元請社員にて検討した統計/推定等の実作業を実施いただきます。
また、お客様への説明資料なども作成いただきます。
業務としてはデータ分析が中心となりますが、必ずしもデータ分析の実績は求めておりません(尚可スキルとなります)。
データサイエンティストとしてのキャリアを将来的に検討しているなど、
データ分析に対する志向性がある方のご応募をお待ちしています。

必須スキル

・Pythonでのコーディングスキル
・Excelでの集計スキル

案件内容

グローバル最大手の動画学習プラットフォームのパーソナライズ・レコメンデーション開発業務になります。本国から連携を受け成型されたデータベースに直接アクセスしていただき、データサイエンス実務を進めて頂きます。
=開発環境=
・AWS(S3,Athena)
・Tableau, alteryx
・Confluence, JIRA, Bitbucket
=対応内容=
・データサイエンス系のデータ分析支援
(例:マーケットプレースにおけるアソシエーション分析)
・レコメンドシステム構築時におけるソリューション調査

必須スキル

・ビジネス課題に対して、付加価値向上、生産性向上といった観点から、適切な統計解析/機械学習の手法を組み立てた経験
・Python, R, SQLなどの言語を用いた分析経験 2年以上
・データクレンジング・集計・検証経験 1年以上
・AWSなどクラウドDBの実務経験
・Gitを用いたコード管理
・非構造データ(画像・自然言語)を用いた機械学習システムの検証・評価実務経験

案件内容

データを用いた意思決定や課題解決に活用するため、各事業・プロダクト・サービスの全てのデータを一元的に収集・保存・管理するデータ基盤の構築を担うポジションです。

データ基盤の開発・改修・保守運用
・データ基盤の物理・論理データモデル設計・開発・保守運用
・データ基盤のシステムアーキテクチャの設計
・データパイプライン (ETL) の設計・開発・保守運用

[開発環境]
インフラ:GCP (データ基盤) / AWS (関連システム)
データパイプライン (ETL):CloudComposer (Airflow)
DWH:BigQuery
その他インフラ管理:Docker、GKE / GAE / CloudRun
可視化ツール:Google Data Portal / Tableau
分析環境:Jupyter Notebook / Google Colab / Google Cloud ML
その他:GitHub / Slack / Notion

[チーム体制(業務委託の方含む)]
・統括ディレクター: 1名
・データエンジニア: 1名
・機械学習エンジニア: 1名 (兼務)
・データサイエンティスト: 3名
・技術顧問: 1名

必須スキル

エンジニアリング
・GCP や AWS などの主なクラウドサービスにおける開発経験。
・DWH や業務系などのデータベースの設計・開発・運用経験。
・データパイプライン (ETL) の設計・開発・運用経験。
・基本技術情報試験レベルのコンピューターサイエンスの知識。
データ専門性
・SQLを記述する事が出来る。 (数十行位) 
・基礎集計を通じてデータの全体像や質を確認することができる。
ビジネス
・事業会社における情報システム企画の経験 (どんなシステムがどんな処理をどんな順番で実施するかの要件定義レベル)
・論理的思考力。 (定量思考力、要約力、仮説構築能力など) 
・ドキュメント作成能力。 (見栄えではなく、構成の組み立て方やわかりやすさが担保出来るか)
・プロジェクトマネジメント能力 。 (完了定義。スコープ策定。制約を考慮した優先度決定。タスク洗い出し)

案件内容

・BIツール(Tableau)を使用してのデータ整理
・データ分析基盤のテクニカルサポート
(・データ分析の戦略構想)

必須スキル

・BIツールを使用した経験
・ダッシュボード構築の経験
・英語(ライティング、リーディング)
・ベンダーコントロール
・データ関連の知見
・複数名のステークホルダーとの調整経験

案件内容

営業データの利活用プロジェクトを行っており、下記分析を行っている。
・休眠顧客復活分析
・RFM分析
・レコメンド
その中で当社データサイエンティストの指示により下記業務をお願いする想定です。

【業務スコープ】
■基礎集計
■データの加工
・欠損値補完
・次元圧縮
・各種変換
・説明変数の可変
・ウィンドウ化 等
■モデル構築
・特徴量、パラメータ再エンジニアリング
・変数重要度出力
・アウトプット解釈 等

必須スキル

・Pythonを用いた分析経験
・Pandasを用いた経験2年以上
・コミュニケーション能力

案件内容

例1:図面解析
パートナー様の図面を解析し図面上に記載された情報を抽出する技術開発を行う

  • 図面からの自動情報抽出
  • 図面の高解像度処理
  • 類似図面検索
  • 図面からの自動工程分解
  • 図面からの自動設計ミス検出

例2:サプライチェーンデータ分析
発注者様から受注を受けてから、サプライパートナーの選定や生産管理、物流拠点での受け入れなど非常に長いサプライチェーンを構築、マネジメントを行っています。サプライチェーン上のデータを解析し、コスト削減や将来に渡るエコノミクスの改善は大きなテーマとなっています。それらを実行するための仮説立て、データ解析による仮説検証、実際のデータ解析業務を行います。

  • 課題設定と仮説構築
  • 社内他チームおよび顧客企業と連携した、データ収集・分析基盤構築のリード
  • 需要予測・在庫最適化等を目的とするデータ分析・最適化手法の開発

【開発環境】

  • 利用言語: Python, R
  • フレームワークやライブラリ: TensorFlow, PyTorch, scikit-learn
  • 開発ツール: GitHub, CircleCI, Jupyter Notebook, Google Colab
  • コミュニケーションツール: Slack, Discord, JIRA
必須スキル

モノづくり産業のポテンシャルを解放することへの共感
– 統計学の基礎知識
– 機械学習を用いた研究または業務経験
– Pythonによる開発経験
– 実データに基づく問題解決能力、特に顧客を満足させ技術的に解決可能である適切なタスク定義を行う能力
– Gitなどのバージョン管理システムの利用経験

案件内容

大手通信キャリア様の8,000万人を超えるポイントサービス会員に対する
MAを活用した会員コミュニケーションの企画・設計・運用・改善業務を
主導していただきます。
お客様側体制は課長含め社員4名、パートナー5名程度いらっしゃいますが、
本件対応について知見があるのは社員様で1名いらっしゃるのみで、
シナリオ設定について手が足りていない状況です。
パートナーは施策担当、クリエイティブ担当、MA設定、データ抽出と
役割分担されそれぞれ細切れでの対応のため、
業務対応の際はそれぞれの担当に対応依頼を出し、確認等も行っていく必要があるようです。

必須スキル

・データ分析業務の経験(Web分析、ビジネス指標分析とGA3年以上)
・MAツール活用業務の経験(Hubspot or Salesforce or Marketo 運用経験1年以上)
・BtoCコミュニケーション設計業務経験
・デジタル媒体の運営経験(メルマガ、Line、プッシュいずれか運用経験1年以上)
・複数プロジェクト進行管理スキル
(すべてを満たしている必要無いです。可能な限り満たしていてほしい、レベルです)

案件内容

・2021年10月にリニューアルをした某携帯キャリアショップweb予約システムから日々本社へ送られてくるCSVデータを集計・成型することがメイン作業
・Tableauへの落とし込み・可視化という業務もあるがキャッチアップで構いません
・予約システム内にメモ欄(お客様が自由にテキストを書き込める)があるのですがそこが顧客満足向上につながる宝の山だと捉えておりゆくゆくは自然言語処理による分析に繋げていきたいというその前段のPJです

必須スキル

・データ集計・加工経験
(データを触り続ける作業に抵抗のない方)
・CSVデータの取り扱い
・コミュニケーション力
(MTGが多いことが想定される)

案件内容

【業務スコープ】
■Opsの作業
・バッジ処理
・バッジの運用、改善
・マスターデータをSHに確認
毎月2週間続く、タイムスケジュール管理。
・アラートを上げる。
・エラーが起きたときにトラブルシューティングを行えるかどうか。
■MLopsの改善提案

必須スキル

・MLのご経験
・サーバーサイドエンジニアのご経験
・クラウドサービスのご経験
・データのエンジニアリング経験
(ワークフローツール)
・ETL,パイプライン構築
・Python/SQL

案件内容

=短期的=

  • ユーザーの行動/心理に関する仮説検証/仮説探索
  • A/Bテストによる施策の効果検証
  • 統計的因果推論による施策の効果検証
  • 自由記述データの自然言語処理
  • 上記に関する開発/マーケティング側とのコミュニケーション
    =長期的=
  • 定型レポートのワークフロー開発/ダッシュボード構築
  • コンテンツやオンラインイベントのレコメンド
  • 検索エンジンのアルゴリズム改良
  • コンテンツの画像情報/音声情報を用いた機械学習
必須スキル

◆データサイエンス
– 統計検定2級レベルの知識
– 機械学習・統計モデルの構築、およびモデルに基づく分析の経験
– マーケティング又は教育領域のデータ分析経験
◆ ビジネス
– 論理的思考力(定量思考力/要約力/仮説構築能力など)
– ドキュメント作成能力 (見栄えではなく、構成の組み立て方やわかりやすさが担保出来る)
– 開発/マーケティング側とコミュニケーションしながら分析を推進できる
◆ エンジニアリング
– SQLを利用してデータを加工・集計した経験
・100~200行のコードを読み書きできること
・結合, CTE (WITH句)・サブクエリ, ウィンドウ関数が利用できること
– Pythonによる集計やモデル構築・可視化の経験
・ numpy, pandas などの集計用ライブラリの利用経験
・ scikit-learn などの機械学習ライブラリの利用経験
・ matplotlib, seaborn などの可視化ライブラリの利用経験
– Git・GitHubの利用経験

検索結果777件中1-10件