週4日の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:655

週4日の案件を探す

案件内容

・WEBサイトの管理運用をご担当いただきます。

必須スキル
・HTML/CSS/JavaScriptにを用いたフロントエンド開発のご経験
・PHPを用いた開発のご経験
・MySQLおよびSQLを用いたデータベース管理のご経験
案件内容

Webサービスの開発案件で記事生成AIもしくはマッチングAIエンジニアの募集です。
開発チームに参加し業務範囲は、AI要件検証、設計開発までが主な業務範囲です。
AIによる自動的な記事作榮やマッチング指標の判定をツール選択と適用の経験があれば歓迎。

・インタビューテキストからのAIにより企業カルチャーがPRできる記事ページ作成
・AWS Bedrockを経由したGPT-5/Gemini/NovaによるAIマッチング
・求職者と企業のマッチングとして、定量的な条件マッチングと、定性的な求職者の働き方-企業文化のマッチングを調整する。
・人材採用マッチングWebサイトの設計・開発(PHP/Laravel)

必須スキル

・ChatGPT等で記事データを自動作成する経験

案件内容

様々なWEBサービス(月間数千万ユーザー利用)を提供している社内において各業務に対してAIを活用した様々な改善を行っています。

商談事前準備業務のAI改革を推進するPython(Dify)エンジニアを募集します。

【主な業務(開発実装80-90%)】
①Difyワークフロー構築(最重点業務)
-Difyプラットフォーム上での実装:商談事前準備の一連のワークフロー構築
-LLMワークフロー設計:情報収集→課題想定→解決策提示の各フェーズの実装
-プロンプトエンジニアリング:営業向け出力品質の最適化
-段階的機能追加:Ver.1→Ver.2→Ver.3の段階的な機能拡充

②データ処理基盤構築(重点業務)
-アクセスデータ処理:月次90MB規模のExcelデータの加工・検索基盤構築
-店舗ID検索の最適化:約6,000件/月の商談に対応できる高速検索実装
-月次更新パイプライン:データ加工・更新の自動化フローの構築
-AIコンテキスト統合:抽出データをDifyのコンテキストに統合

③スクレイピング実装(重点業務)
-Webサイトからの情報収集:食べログ、GoogleBusinessProfile(GBP)、SNS等からの情報抽出
-リアルタイム情報統合:口コミ、評価、店舗情報の自動収集
-データ品質管理:スクレイピングデータの検証・エラーハンドリング

④外部API連携
-SalesforceAPI統合:商談履歴・失注理由の取得・分析
-認証・権限管理:APIアクセス権限の設定・管理

【副次業務(プロジェクト推進10-20%)】
⑤実証実験サポート
-フィードバック収集:営業部門からの改善要望の整理
-精度検証・改善:出力品質の評価と継続的改善
-運用マニュアル整備:システム利用ガイドの作成

【開発環境】
開発プラットフォーム
-Dify:LLMワークフローの構築・管理プラットフォーム(最重要)

データ処理
-Python:データ加工・検索基盤構築(Pandas等)
-Excel処理:90MB規模のデータ加工・検索最適化
-データベース:店舗ID検索の効率化(インデックス設計等)

スクレイピング
-Python:BeautifulSoup、Selenium、Scrapy等
-対象サイト:GoogleBusinessProfile、SNS

AI・機械学習
-ClaudeAPI:Difyから利用
-OpenAIAPI:Difyから利用
-GeminiAPI:Difyから利用

外部システム連携
-SalesforceAPI:商談履歴・失注理由の取得

クラウド・インフラ
-GoogleCloudPlatform:データ処理基盤の構築先(予定)

必須スキル

・LLM知識や経験
-プロンプトエンジニアリング:タスクに応じた最適なプロンプト設計、Few-shot学習の知識、経験

・データ処理スキル
-大容量データ処理:数十MB〜数百MB規模のExcel/CSVデータの効率的な加工経験
-Python(Pandas等):データ加工・検索基盤構築の実務経験(3年以上)
-検索最適化:大量データから高速に特定レコードを抽出する設計・実装経験

・スクレイピングスキル
-Webスクレイピング経験:Python(BeautifulSoup、Selenium等)での実務経験(2年以上)
-データ抽出設計:複数サイトからの情報収集・統合の経験
-エラーハンドリング:サイト構造変更への対応、リトライ処理の実装経験

・API連携スキル
-RESTAPI経験:外部APIとの連携実装経験
-認証処理:OAuth等の認証フロー実装経験

案件内容

【クライアント】
日本最大級の位置情報プラットフォームを展開するベンチャー企業

【業務内容】
レポーティングや要件調整などの要素も強くデータxコンサルティング的な立ち位置として業務に取り組んでいただく想定。

・スマートシティ・まちづくり・リテール・メーカー・エンターテインメント・マスコミ等、広範囲にわたる業界の様々な分野でのデータ分析およびそのコンサルティング
・位置情報をベースにした施設来訪者の属性分析、競合比較等の分析
BIツールを用いたデータの可視化、ダッシュボード化
・位置情報データと購買データや商品データ等を活用した分析手法の検証・実装活用方法の企画(例:商圏のスコアリング、ある特定の行動をとる消費者群のペルソナ自動作成)

【注意点】
特定の案件にアサイン、ではなく、稼働時間分複数の案件で動いていただく想定です。

【姿勢】
案件の性質上、分析者に主体的に動いていただくことが多くなります。
どう価値をクライアントに届けていくかを一緒に考えていく、ということを期待しておりますので、指示待ちや言われた範囲のみの対応に線引きをする方はアンマッチになります

必須スキル
■データ分析の実務経験
■Python, Rなどの汎用言語、SQLによる分析経験
■Excel/Powerpointなどを用いたわかりやすい資料作成経験
■tableauの利用経験
■チームメンバーおよび顧客と対話をしながらレポーティングをした経験
■ビジネス側要求を整理し分析に落とし込むスキル・経験
■統計学の基礎知識(統計検定2級相当以上)
案件内容

Googleスプレッドシートに保存された広告データを、BigQueryに取り込み、Looker Studioにて可視化・レポート作成を行う支援業務。BigQuery環境の利用が前提
Fivetranを使用したデータ統合の自動化

必須スキル

・BigQueryを用いたデータ連携・加工経験
・Looker Studioでのダッシュボード作成経験
・スプレッドシートとのデータ連携知識(GAS実務経験)

案件内容

・ECアプリケーション運営企業様において、機械学習をリードしていただくMLエンジニアとしてご参画いただきます。
・要件定義や技術的意思決定の推進や機械学習基盤の設計・構築、
 機械学習を用いたプロダクト設計・開発などをご担当いただきます。

【参画メリット】
・フルリモートのため、ご自身のリラックス出来る環境で作業を行っていただきます。
・モダンな開発環境であり、ご自身のスキルアップにつなげていただきやすい案件でございます。
・マーケットインで新機能を随時リリースする体制なので、ご自身の関わった機能が早いスパンでユーザに使っていただけます。

【技術環境】
・開発言語:Python
・インフラ:GCP
・分析・モニタリング基盤:BigQuery、Tableau、Looker Studio
・その他:Crashlytics、Docker、GitHub、Terraform、Slack、Figma、Notion

必須スキル

・数十万以上のユーザー規模におけるレコメンドシステムの開発・運用をされたご経験
・技術選定、要件定義などの上流工程のご経験
・GCPやAWSのサービスを用いた機械学習のご経験

案件内容

長年のシステム利用により発生した「日本語検索の精度不足」を解決するため
現行のレガシー検索システムから最新の検索基盤へ移行・構築を行います。
検索の原理原則を理解し、日本語処理技術を用いてユーザー体験を向上させるプロジェクトです。

プロジェクトを成功に導くため、主に以下の業務を一貫してお任せします。
・新しい全文検索エンジンの環境構築(オンプレ)
・辞書を用いた検索ロジックの設計とチューニング。
・既存Webサービスと新検索システムを連携させるためのAPI開発と改修。
・大規模リニューアルにおける移行計画のサポートと、運用マニュアルの作成。

必須スキル

全文検索エンジンの構築・運用経験
Sphinx、Elasticsearch、Solrなど、いずれかの新規構築または大規模なリプレイス経験。
NLPを用いた検索精度改善の実務経験
バックエンド開発経験
Python、PHPなどを用いたAPI開発経験。
オンプレミス環境でのサーバー構築・運用経験への理解。

案件内容

主にマルチクラウド環境(AWS/GCP)のデータ基盤構築と整備、およびデータ活用のための前処理開発を担当いただきます。

データ基盤構築・統合:
現在AWSとGCPに分散しているデータ基盤を、BigQuery上への統合(一元化)を目指す構築作業が主。
データベース型サイト(5〜10サイト、大規模データ)の分析基盤の設計、保守、セキュリティ対策。

データパイプライン開発:AWSとGoogle Cloudの両方からデータを接続するデータパイプラインの設計・実装。
データソース(アクセスログ、AWS S3上のマスターデータ等)の接続設定。

データ前処理・加工(データマート構築):
データ抽出、グルーピング、定義付けなど、分析用データマートの部分の加工・実装。

運用・保守:
構築後のメンテナンス費用やセキュリティまで考慮した管理体制の提案・構築。
フェーズ: プロジェクトはこれから始まる段階(現時点では知見の少ないメンバーで対応中)。

ELTについて:
Google Cloud内の機能でELTを内製
データ抽出:SQL
変換:SQL or Python
格納:BigQuery

必須スキル
クラウド: AWSとGoogle Cloud (GCP)の両方のデータ領域に精通していること。
DWH/ETL: BigQueryを用いたデータ基盤構築、およびデータパイプラインの設計・実装経験。
データ処理: データの前処理(データマート構築)や加工、抽出パターン、グルーピング定義を理解し、実装できること。
コミュニケーション能力が高く、指示に対して一人称でロジカルに作業を進められるミドル以上の経験。
案件内容

企業向けの課題解決を目的とした新規のBtoBマッチングプラットフォームの開発支援のプロジェクトになります。

【担当範囲】
既存のプロダクトチームにフルスタックエンジニアとして参画し、フロントエンドおよびバックエンド両面から開発を牽引する役割です。

【チーム体制】
pdm:1名
フロントエンド:1名
バックエンド:1名
外部AIチーム:複数名
※本ポジションは、この既存チームの中にフルスタックエンジニアとして参画し、フロント/バック両面から開発を牽引していくイメージになります。

【開発環境】
・実行環境:Azure Container Apps
・フロントエンド:Next.js, React, TypeScript
・バックエンド:Nest.js(TypeScript)
・DB:Azure Cosmos DB
・認証:Azure AD B2C
・メール送信:SendGrid
・AI:Azure OpenAI

必須スキル

・Webアプリケーションのバックエンド開発経験(3年以上目安)
・Node.js(TypeScript)を用いた API 開発経験
・Webフレームワーク(Nest.js / Express / Fastify など)での開発経験
・RDB または NoSQL データベースを用いた設計・運用経験
・Gitを用いたチーム開発経験
・クラウド(Azure/AWS/GCPのいずれか)上でのWebアプリ構築・運用経験
・Linux環境での開発・CLI操作、ログ調査などの基本スキル
・AIサービスの利用経験(Azure OpenAI/OpenAI API/Vertex AI/Bedrock 等)
・RAG構築やLLMを組み込んだアプリケーション開発経験

案件内容

アサイン先案件
・社内規定等のナレッジデータを用いたRAGシステムを構築し、社内規定等に関する質問を回答できるAI ヘルプデスクを開発するプロジェクト

業務内容・期待役割
機械学習エンジニアとして、RAGシステムの開発をしていただく。
 - 社内データを構築し、データベースを構築し、RAGシステムを開発する
 - RAGシステムを活用した社内規定等に関する質問を回答できるチャットボットを開発する
 - RAGシステムにおける要件定義、開発
 - RAGシステムの精度を改善するためにリサーチ、開発
 - 検証設計、データセット整備、精度検証、検証報告
 - 弊社PMへの進捗・課題、課題対応策の報告
 - 内部MTG及び顧客との定例MTGの出席
 - ※タスク状況に余力が生じる場合は、弊社他案件のサポートをして頂く可能性あり

必須スキル
– Pythonのプログラミングスキル
– LLMを用いたソフトウェアの開発
– AI開発を伴うPoCの実務経験
– RAGに関する知見、先端技術へのキャッチアップ能力
– AzureのAI search を用いた開発
– コードおよび検証に関するドキュメンテーション能力

検索結果655件中1-10件