週3日の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:541

週3日の案件を探す

案件内容

生物学的年齢を再定義するアルゴリズム・アーキテクト
・エピジェネティクス情報を用いた新規エイジングクロック(生物学的年齢)算出ロジックの考案 ・臓器別(脳・心臓・腸など)の老化予測モデルの要件定義および実験計画の策定
・深層学習(LLM等)をバイオデータへ適用するためのアーキテクチャ設計および技術選定
・解析結果に基づく「病気にならない体作り(介入方法)」のサービス化に向けた仕様検討

必須スキル
・機械学習・深層学習を用いた新規アルゴリズムの研究開発・実装経験 ・論文からの先行研究調査および実装(SOTAのキャッチアップ)能力
・不確実性が高いデータ(正解が曖昧なデータ)に対する評価指標(F1スコア、再現率等)の設計能力
案件内容

現状(As-Is)の整理を進める(xx社の調査結果の取りまとめ・追加依頼)
To-Be案(E5単体/E5+Proofpoint)の整理と全体構想サポート
関係者(各社・各部門)へのタスク依頼、会議運営、成果物レビュー

必須スキル
メール基盤 or メールセキュリティの経験(設計・運用・移行のいずれか)
関係者調整をしながら推進できること(課題整理・進捗管理)
基盤全体をある程度俯瞰してみることが出来る
案件内容

カーボンニュートラルDXアプリの開発組織において、
VPoEとして開発体制の構築・強化をお任せします。

単なるアドバイザリーではなく、
開発フローの整備、ドキュメント化、ルール策定など、
ご自身も手を動かしながら組織のオペレーティングシステムを作っていただきます。

◆主な開発環境・ツール◆
・言語:TypeScript
・FW/環境:Node.js・NestJS・React・Next.js・Vue.js・Nuxt.js
・DB:DynamoDB・MySQL
・クラウド(サービス):AWS・Azure
・管理ツール:Notion・Retool
・コミュニケーションツール:Slack・Google Meet・Teams
・その他ツール:Redi・Jest・Synapse Analytics・Redash

必須スキル
・VPoE, CTO, テックリードとして技術選定やアーキテクトを行ったご経験
・20名〜40名規模でのエンジニア組織におけるマネジメント・リード経験
・上場間際のフェーズでのスタートアップ・ベンチャー企業での業務経験
・Typescript(React・Next.js)を用いた開発経験2年以上
・Typescript(NestJS)を用いた開発経験2年以上
案件内容

Databricksを新規構築し、Databricks上でPoCとして機械学習のユースケースを実証する。

期待役割:
・基盤のリーディング
・顧客対峙、
・databricksの基盤周りの設計、構築
・databricksの標準機能をフルに活かしてデータサイエンティストの実装支援
(既存の数理モデルの解析は別担当者が実施します。解析後にdatabricksの標準機能を利用してモデルを実装頂きます。)

必須スキル

・クラウド基盤の設計、構築経験があること
・Databricksの構築経験があること
・DatabricksにてAutoML等での機械学習プログラムの実装経験があること
・顧客と仕様についての折衝経験があること
・1人称でタスク遂行できること
・顧客向けにパワーポイントで検証結果報告資料が作成できること

案件内容

Webサービスの開発案件で記事生成AIもしくはマッチングAIエンジニアの募集です。
開発チームに参加し業務範囲は、AI要件検証、設計開発までが主な業務範囲です。
AIによる自動的な記事作榮やマッチング指標の判定をツール選択と適用の経験があれば歓迎。

・インタビューテキストからのAIにより企業カルチャーがPRできる記事ページ作成
・AWS Bedrockを経由したGPT-5/Gemini/NovaによるAIマッチング
・求職者と企業のマッチングとして、定量的な条件マッチングと、定性的な求職者の働き方-企業文化のマッチングを調整する。
・人材採用マッチングWebサイトの設計・開発(PHP/Laravel)

必須スキル

・ChatGPT等で記事データを自動作成する経験

案件内容

様々なWEBサービス(月間数千万ユーザー利用)を提供している社内において各業務に対してAIを活用した様々な改善を行っています。

商談事前準備業務のAI改革を推進するPython(Dify)エンジニアを募集します。

【主な業務(開発実装80-90%)】
①Difyワークフロー構築(最重点業務)
-Difyプラットフォーム上での実装:商談事前準備の一連のワークフロー構築
-LLMワークフロー設計:情報収集→課題想定→解決策提示の各フェーズの実装
-プロンプトエンジニアリング:営業向け出力品質の最適化
-段階的機能追加:Ver.1→Ver.2→Ver.3の段階的な機能拡充

②データ処理基盤構築(重点業務)
-アクセスデータ処理:月次90MB規模のExcelデータの加工・検索基盤構築
-店舗ID検索の最適化:約6,000件/月の商談に対応できる高速検索実装
-月次更新パイプライン:データ加工・更新の自動化フローの構築
-AIコンテキスト統合:抽出データをDifyのコンテキストに統合

③スクレイピング実装(重点業務)
-Webサイトからの情報収集:食べログ、GoogleBusinessProfile(GBP)、SNS等からの情報抽出
-リアルタイム情報統合:口コミ、評価、店舗情報の自動収集
-データ品質管理:スクレイピングデータの検証・エラーハンドリング

④外部API連携
-SalesforceAPI統合:商談履歴・失注理由の取得・分析
-認証・権限管理:APIアクセス権限の設定・管理

【副次業務(プロジェクト推進10-20%)】
⑤実証実験サポート
-フィードバック収集:営業部門からの改善要望の整理
-精度検証・改善:出力品質の評価と継続的改善
-運用マニュアル整備:システム利用ガイドの作成

【開発環境】
開発プラットフォーム
-Dify:LLMワークフローの構築・管理プラットフォーム(最重要)

データ処理
-Python:データ加工・検索基盤構築(Pandas等)
-Excel処理:90MB規模のデータ加工・検索最適化
-データベース:店舗ID検索の効率化(インデックス設計等)

スクレイピング
-Python:BeautifulSoup、Selenium、Scrapy等
-対象サイト:GoogleBusinessProfile、SNS

AI・機械学習
-ClaudeAPI:Difyから利用
-OpenAIAPI:Difyから利用
-GeminiAPI:Difyから利用

外部システム連携
-SalesforceAPI:商談履歴・失注理由の取得

クラウド・インフラ
-GoogleCloudPlatform:データ処理基盤の構築先(予定)

必須スキル

・LLM知識や経験
-プロンプトエンジニアリング:タスクに応じた最適なプロンプト設計、Few-shot学習の知識、経験

・データ処理スキル
-大容量データ処理:数十MB〜数百MB規模のExcel/CSVデータの効率的な加工経験
-Python(Pandas等):データ加工・検索基盤構築の実務経験(3年以上)
-検索最適化:大量データから高速に特定レコードを抽出する設計・実装経験

・スクレイピングスキル
-Webスクレイピング経験:Python(BeautifulSoup、Selenium等)での実務経験(2年以上)
-データ抽出設計:複数サイトからの情報収集・統合の経験
-エラーハンドリング:サイト構造変更への対応、リトライ処理の実装経験

・API連携スキル
-RESTAPI経験:外部APIとの連携実装経験
-認証処理:OAuth等の認証フロー実装経験

案件内容

【クライアント】
日本最大級の位置情報プラットフォームを展開するベンチャー企業

【業務内容】
レポーティングや要件調整などの要素も強くデータxコンサルティング的な立ち位置として業務に取り組んでいただく想定。

・スマートシティ・まちづくり・リテール・メーカー・エンターテインメント・マスコミ等、広範囲にわたる業界の様々な分野でのデータ分析およびそのコンサルティング
・位置情報をベースにした施設来訪者の属性分析、競合比較等の分析
BIツールを用いたデータの可視化、ダッシュボード化
・位置情報データと購買データや商品データ等を活用した分析手法の検証・実装活用方法の企画(例:商圏のスコアリング、ある特定の行動をとる消費者群のペルソナ自動作成)

【注意点】
特定の案件にアサイン、ではなく、稼働時間分複数の案件で動いていただく想定です。

【姿勢】
案件の性質上、分析者に主体的に動いていただくことが多くなります。
どう価値をクライアントに届けていくかを一緒に考えていく、ということを期待しておりますので、指示待ちや言われた範囲のみの対応に線引きをする方はアンマッチになります

必須スキル
■データ分析の実務経験
■Python, Rなどの汎用言語、SQLによる分析経験
■Excel/Powerpointなどを用いたわかりやすい資料作成経験
■tableauの利用経験
■チームメンバーおよび顧客と対話をしながらレポーティングをした経験
■ビジネス側要求を整理し分析に落とし込むスキル・経験
■統計学の基礎知識(統計検定2級相当以上)
案件内容

農作物の市況見立ての不透明性を解決するAI開発プロジェクト

業務内容・期待役割
機械学習エンジニアとして、AI開発をリードいただく。

AIの要件定義、リサーチ、開発 (既存アセットへのキャッチアップを含む)
検証設計、データセット整備、精度検証
顧客への進捗・成果報告の支援

必須スキル
・Python、PyTorchの実務経験
・AI開発を伴うPoCの実務経験
・機械学習・データサイエンスの知見、先端技術へのキャッチアップ能力
・仮説構築・検証のPDCAを高速に回す能力
・テーブルデータの扱いおよび時系列分析/予測アルゴリズムの開発経験
・時系列予測アルゴリズムの開発経験
・非エンジニアや顧客とのコミュニケーション・ドキュメンテーション能力
案件内容

Googleスプレッドシートに保存された広告データを、BigQueryに取り込み、Looker Studioにて可視化・レポート作成を行う支援業務。BigQuery環境の利用が前提
Fivetranを使用したデータ統合の自動化

必須スキル

・BigQueryを用いたデータ連携・加工経験
・Looker Studioでのダッシュボード作成経験
・スプレッドシートとのデータ連携知識(GAS実務経験)

案件内容

・ECアプリケーション運営企業様において、機械学習をリードしていただくMLエンジニアとしてご参画いただきます。
・要件定義や技術的意思決定の推進や機械学習基盤の設計・構築、
 機械学習を用いたプロダクト設計・開発などをご担当いただきます。

【参画メリット】
・フルリモートのため、ご自身のリラックス出来る環境で作業を行っていただきます。
・モダンな開発環境であり、ご自身のスキルアップにつなげていただきやすい案件でございます。
・マーケットインで新機能を随時リリースする体制なので、ご自身の関わった機能が早いスパンでユーザに使っていただけます。

【技術環境】
・開発言語:Python
・インフラ:GCP
・分析・モニタリング基盤:BigQuery、Tableau、Looker Studio
・その他:Crashlytics、Docker、GitHub、Terraform、Slack、Figma、Notion

必須スキル

・数十万以上のユーザー規模におけるレコメンドシステムの開発・運用をされたご経験
・技術選定、要件定義などの上流工程のご経験
・GCPやAWSのサービスを用いた機械学習のご経験

検索結果541件中1-10件