週3日の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:538

週3日の案件を探す

案件内容

Databricksを新規構築し、Databricks上でPoCとして機械学習のユースケースを実証する。

期待役割:
・基盤のリーディング
・顧客対峙、
・databricksの基盤周りの設計、構築
・databricksの標準機能をフルに活かしてデータサイエンティストの実装支援
(既存の数理モデルの解析は別担当者が実施します。解析後にdatabricksの標準機能を利用してモデルを実装頂きます。)

必須スキル

・クラウド基盤の設計、構築経験があること
・Databricksの構築経験があること
・DatabricksにてAutoML等での機械学習プログラムの実装経験があること
・顧客と仕様についての折衝経験があること
・1人称でタスク遂行できること
・顧客向けにパワーポイントで検証結果報告資料が作成できること

案件内容

Webサービスの開発案件で記事生成AIもしくはマッチングAIエンジニアの募集です。
開発チームに参加し業務範囲は、AI要件検証、設計開発までが主な業務範囲です。
AIによる自動的な記事作榮やマッチング指標の判定をツール選択と適用の経験があれば歓迎。

・インタビューテキストからのAIにより企業カルチャーがPRできる記事ページ作成
・AWS Bedrockを経由したGPT-5/Gemini/NovaによるAIマッチング
・求職者と企業のマッチングとして、定量的な条件マッチングと、定性的な求職者の働き方-企業文化のマッチングを調整する。
・人材採用マッチングWebサイトの設計・開発(PHP/Laravel)

必須スキル

・ChatGPT等で記事データを自動作成する経験

案件内容

様々なWEBサービス(月間数千万ユーザー利用)を提供している社内において各業務に対してAIを活用した様々な改善を行っています。

商談事前準備業務のAI改革を推進するPython(Dify)エンジニアを募集します。

【主な業務(開発実装80-90%)】
①Difyワークフロー構築(最重点業務)
-Difyプラットフォーム上での実装:商談事前準備の一連のワークフロー構築
-LLMワークフロー設計:情報収集→課題想定→解決策提示の各フェーズの実装
-プロンプトエンジニアリング:営業向け出力品質の最適化
-段階的機能追加:Ver.1→Ver.2→Ver.3の段階的な機能拡充

②データ処理基盤構築(重点業務)
-アクセスデータ処理:月次90MB規模のExcelデータの加工・検索基盤構築
-店舗ID検索の最適化:約6,000件/月の商談に対応できる高速検索実装
-月次更新パイプライン:データ加工・更新の自動化フローの構築
-AIコンテキスト統合:抽出データをDifyのコンテキストに統合

③スクレイピング実装(重点業務)
-Webサイトからの情報収集:食べログ、GoogleBusinessProfile(GBP)、SNS等からの情報抽出
-リアルタイム情報統合:口コミ、評価、店舗情報の自動収集
-データ品質管理:スクレイピングデータの検証・エラーハンドリング

④外部API連携
-SalesforceAPI統合:商談履歴・失注理由の取得・分析
-認証・権限管理:APIアクセス権限の設定・管理

【副次業務(プロジェクト推進10-20%)】
⑤実証実験サポート
-フィードバック収集:営業部門からの改善要望の整理
-精度検証・改善:出力品質の評価と継続的改善
-運用マニュアル整備:システム利用ガイドの作成

【開発環境】
開発プラットフォーム
-Dify:LLMワークフローの構築・管理プラットフォーム(最重要)

データ処理
-Python:データ加工・検索基盤構築(Pandas等)
-Excel処理:90MB規模のデータ加工・検索最適化
-データベース:店舗ID検索の効率化(インデックス設計等)

スクレイピング
-Python:BeautifulSoup、Selenium、Scrapy等
-対象サイト:GoogleBusinessProfile、SNS

AI・機械学習
-ClaudeAPI:Difyから利用
-OpenAIAPI:Difyから利用
-GeminiAPI:Difyから利用

外部システム連携
-SalesforceAPI:商談履歴・失注理由の取得

クラウド・インフラ
-GoogleCloudPlatform:データ処理基盤の構築先(予定)

必須スキル

・LLM知識や経験
-プロンプトエンジニアリング:タスクに応じた最適なプロンプト設計、Few-shot学習の知識、経験

・データ処理スキル
-大容量データ処理:数十MB〜数百MB規模のExcel/CSVデータの効率的な加工経験
-Python(Pandas等):データ加工・検索基盤構築の実務経験(3年以上)
-検索最適化:大量データから高速に特定レコードを抽出する設計・実装経験

・スクレイピングスキル
-Webスクレイピング経験:Python(BeautifulSoup、Selenium等)での実務経験(2年以上)
-データ抽出設計:複数サイトからの情報収集・統合の経験
-エラーハンドリング:サイト構造変更への対応、リトライ処理の実装経験

・API連携スキル
-RESTAPI経験:外部APIとの連携実装経験
-認証処理:OAuth等の認証フロー実装経験

案件内容

【クライアント】
日本最大級の位置情報プラットフォームを展開するベンチャー企業

【業務内容】
レポーティングや要件調整などの要素も強くデータxコンサルティング的な立ち位置として業務に取り組んでいただく想定。

・スマートシティ・まちづくり・リテール・メーカー・エンターテインメント・マスコミ等、広範囲にわたる業界の様々な分野でのデータ分析およびそのコンサルティング
・位置情報をベースにした施設来訪者の属性分析、競合比較等の分析
BIツールを用いたデータの可視化、ダッシュボード化
・位置情報データと購買データや商品データ等を活用した分析手法の検証・実装活用方法の企画(例:商圏のスコアリング、ある特定の行動をとる消費者群のペルソナ自動作成)

【注意点】
特定の案件にアサイン、ではなく、稼働時間分複数の案件で動いていただく想定です。

【姿勢】
案件の性質上、分析者に主体的に動いていただくことが多くなります。
どう価値をクライアントに届けていくかを一緒に考えていく、ということを期待しておりますので、指示待ちや言われた範囲のみの対応に線引きをする方はアンマッチになります

必須スキル
■データ分析の実務経験
■Python, Rなどの汎用言語、SQLによる分析経験
■Excel/Powerpointなどを用いたわかりやすい資料作成経験
■tableauの利用経験
■チームメンバーおよび顧客と対話をしながらレポーティングをした経験
■ビジネス側要求を整理し分析に落とし込むスキル・経験
■統計学の基礎知識(統計検定2級相当以上)
案件内容

農作物の市況見立ての不透明性を解決するAI開発プロジェクト

業務内容・期待役割
機械学習エンジニアとして、AI開発をリードいただく。

AIの要件定義、リサーチ、開発 (既存アセットへのキャッチアップを含む)
検証設計、データセット整備、精度検証
顧客への進捗・成果報告の支援

必須スキル
・Python、PyTorchの実務経験
・AI開発を伴うPoCの実務経験
・機械学習・データサイエンスの知見、先端技術へのキャッチアップ能力
・仮説構築・検証のPDCAを高速に回す能力
・テーブルデータの扱いおよび時系列分析/予測アルゴリズムの開発経験
・時系列予測アルゴリズムの開発経験
・非エンジニアや顧客とのコミュニケーション・ドキュメンテーション能力
案件内容

Googleスプレッドシートに保存された広告データを、BigQueryに取り込み、Looker Studioにて可視化・レポート作成を行う支援業務。BigQuery環境の利用が前提
Fivetranを使用したデータ統合の自動化

必須スキル

・BigQueryを用いたデータ連携・加工経験
・Looker Studioでのダッシュボード作成経験
・スプレッドシートとのデータ連携知識(GAS実務経験)

案件内容

・ECアプリケーション運営企業様において、機械学習をリードしていただくMLエンジニアとしてご参画いただきます。
・要件定義や技術的意思決定の推進や機械学習基盤の設計・構築、
 機械学習を用いたプロダクト設計・開発などをご担当いただきます。

【参画メリット】
・フルリモートのため、ご自身のリラックス出来る環境で作業を行っていただきます。
・モダンな開発環境であり、ご自身のスキルアップにつなげていただきやすい案件でございます。
・マーケットインで新機能を随時リリースする体制なので、ご自身の関わった機能が早いスパンでユーザに使っていただけます。

【技術環境】
・開発言語:Python
・インフラ:GCP
・分析・モニタリング基盤:BigQuery、Tableau、Looker Studio
・その他:Crashlytics、Docker、GitHub、Terraform、Slack、Figma、Notion

必須スキル

・数十万以上のユーザー規模におけるレコメンドシステムの開発・運用をされたご経験
・技術選定、要件定義などの上流工程のご経験
・GCPやAWSのサービスを用いた機械学習のご経験

案件内容

【クライアント】
日本最大級の位置情報プラットフォームを展開するベンチャー企業

【業務内容】
レポーティングや要件調整などの要素も強くデータxコンサルティング的な立ち位置として業務に取り組んでいただく想定。

・スマートシティ・まちづくり・リテール・メーカー・エンターテインメント・マスコミ等、広範囲にわたる業界の様々な分野でのデータ分析およびそのコンサルティング
・位置情報をベースにした施設来訪者の属性分析、競合比較等の分析
BIツールを用いたデータの可視化、ダッシュボード化
・位置情報データと購買データや商品データ等を活用した分析手法の検証・実装活用方法の企画(例:商圏のスコアリング、ある特定の行動をとる消費者群のペルソナ自動作成)

必須スキル
■データ分析の実務経験
■Python, Rなどの汎用言語、あるいはSQLによる分析経験
■Excel/Powerpointなどを用いたわかりやすい資料作成経験
■チームメンバーおよび顧客と対話をしながらレポーティングをした経験
■ビジネス側要求を整理し分析に落とし込むスキル・経験
■統計学の基礎知識(統計検定2級相当以上)
■事業会社側でのデータ分析経験が2年程度
案件内容

ポイ活系アプリのUI/UX設計およびデザイン全般を担当。
アプリの新規機能追加に伴う画面設計、プロトタイプ作成、開発チームとの連携を通じたデザイン品質の担保を行う。
PMと連携し、開発タスクの優先順位整理や進行管理にも関与できるポジション。

主な業務内容
・ポイ活アプリのUIデザイン(Figmaを使用予定)
・UX設計(ユーザーフロー、ワイヤーフレーム、プロトタイプ作成)
・アドテク(広告表示・報酬機能)を意識した画面設計
・デザインガイドラインの策定・運用
エンジニアとの連携(デザインレビュー/仕様調整)
・PM支援(タスク整理、進捗確認、品質管理補助)

必須スキル
・スマホアプリ(iOS/Android)のUI/UXデザイン実務経験(3年以上)
・FigmaまたはSketchを用いたデザイン実務経験
・要件定義~デザイン制作まで一貫して対応した経験
・開発チームとの協働経験(GitHubやSlack等を用いたコミュニケーション)
案件内容

・AIアルゴリズムを開発し、顧客接点や業務を高度化するAIテクノロジー企業様にて、フルスタックエンジニアとして参画をしていただきます。
・直近では運用保守業務をメインに携わっていただき、インフラのバージョンアップや改修作業、アラート対応や、システム整備に携わっていただきます。
・長期的に参画できる方を募集されており、4月以降につきましては、TypeScript(Next.js)、Python(FastAPI)を用いた開発業務など、新規プロダクトの立ち上げ(0→1)での開発に携わっていただく可能性もございます。

◆主な開発環境・ツール
・利用言語・フレームワーク:TypeScript(Next.js)、Python(FastAPI)
・クラウド:AWS、Azure
・インフラ:Docker、Terraform、AWS CDK
・コミュニケーション:Slack

必須スキル
・Python(Fast API)を用いたバックエンド開発のご経験が3年以上
・フロントエンド(Next.js)を用いた開発のご経験が1年以上
・AWS環境での開発のご経験

検索結果538件中1-10件