Pythonの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:1629

Pythonの案件を探す

案件内容

様々なWEBサービス(月間数千万ユーザー利用)を提供している社内において各業務に対してAIを活用した様々な改善を行っています。

商談事前準備業務のAI改革を推進するPython(Dify)エンジニアを募集します。

【主な業務(開発実装80-90%)】
①Difyワークフロー構築(最重点業務)
-Difyプラットフォーム上での実装:商談事前準備の一連のワークフロー構築
-LLMワークフロー設計:情報収集→課題想定→解決策提示の各フェーズの実装
-プロンプトエンジニアリング:営業向け出力品質の最適化
-段階的機能追加:Ver.1→Ver.2→Ver.3の段階的な機能拡充

②データ処理基盤構築(重点業務)
-アクセスデータ処理:月次90MB規模のExcelデータの加工・検索基盤構築
-店舗ID検索の最適化:約6,000件/月の商談に対応できる高速検索実装
-月次更新パイプライン:データ加工・更新の自動化フローの構築
-AIコンテキスト統合:抽出データをDifyのコンテキストに統合

③スクレイピング実装(重点業務)
-Webサイトからの情報収集:食べログ、GoogleBusinessProfile(GBP)、SNS等からの情報抽出
-リアルタイム情報統合:口コミ、評価、店舗情報の自動収集
-データ品質管理:スクレイピングデータの検証・エラーハンドリング

④外部API連携
-SalesforceAPI統合:商談履歴・失注理由の取得・分析
-認証・権限管理:APIアクセス権限の設定・管理

【副次業務(プロジェクト推進10-20%)】
⑤実証実験サポート
-フィードバック収集:営業部門からの改善要望の整理
-精度検証・改善:出力品質の評価と継続的改善
-運用マニュアル整備:システム利用ガイドの作成

【開発環境】
開発プラットフォーム
-Dify:LLMワークフローの構築・管理プラットフォーム(最重要)

データ処理
-Python:データ加工・検索基盤構築(Pandas等)
-Excel処理:90MB規模のデータ加工・検索最適化
-データベース:店舗ID検索の効率化(インデックス設計等)

スクレイピング
-Python:BeautifulSoup、Selenium、Scrapy等
-対象サイト:GoogleBusinessProfile、SNS

AI・機械学習
-ClaudeAPI:Difyから利用
-OpenAIAPI:Difyから利用
-GeminiAPI:Difyから利用

外部システム連携
-SalesforceAPI:商談履歴・失注理由の取得

クラウド・インフラ
-GoogleCloudPlatform:データ処理基盤の構築先(予定)

必須スキル

・LLM知識や経験
-プロンプトエンジニアリング:タスクに応じた最適なプロンプト設計、Few-shot学習の知識、経験

・データ処理スキル
-大容量データ処理:数十MB〜数百MB規模のExcel/CSVデータの効率的な加工経験
-Python(Pandas等):データ加工・検索基盤構築の実務経験(3年以上)
-検索最適化:大量データから高速に特定レコードを抽出する設計・実装経験

・スクレイピングスキル
-Webスクレイピング経験:Python(BeautifulSoup、Selenium等)での実務経験(2年以上)
-データ抽出設計:複数サイトからの情報収集・統合の経験
-エラーハンドリング:サイト構造変更への対応、リトライ処理の実装経験

・API連携スキル
-RESTAPI経験:外部APIとの連携実装経験
-認証処理:OAuth等の認証フロー実装経験

案件内容

ベンチャー某社は、製造業の研究開発から量産現場に至る**製造プロセス最適化(プロセスインフォマティクス / PI)を支援しています。

この事業において、製造装置やプロセス改善のためのデータ解析・分析を行うため、自社エンジニアと共同で取り組んでいただけるデータサイエンティストを募集します。

必須スキル
・数学、統計などデータ分析に関するスキル
・Pythonのコーディングスキル
案件内容

グローバル規模で展開する小売・消費財データを活用し、価格戦略・競合分析を支援するデータ活用プロジェクトに参画。
データサイエンティストと連携し、膨大な生データを経営判断に直結する分析データへと昇華させる役割を担う。
大規模データ基盤の設計・構築から、データ品質管理、運用・保守までを技術面の中核として推進する。

必須スキル
・データエンジニアリングまたは技術分析の実務経験(目安:4~6年)
・SQLおよびPythonを用いたデータ処理・自動化の実務経験
・データオーケストレーションツールの利用経験
・Airflow、dbt、Prefect 等
・クラウドプラットフォームの利用経験(GCP尚可)
・Gitを用いたバージョン管理の知識
コンテナ技術に関する基本的な理解・利用経験
・ビジネスレベル以上の英語力(グローバルチームとの連携必須)
案件内容

【クライアント】
日本最大級の位置情報プラットフォームを展開するベンチャー企業

【業務内容】
レポーティングや要件調整などの要素も強くデータxコンサルティング的な立ち位置として業務に取り組んでいただく想定。

・スマートシティ・まちづくり・リテール・メーカー・エンターテインメント・マスコミ等、広範囲にわたる業界の様々な分野でのデータ分析およびそのコンサルティング
・位置情報をベースにした施設来訪者の属性分析、競合比較等の分析
BIツールを用いたデータの可視化、ダッシュボード化
・位置情報データと購買データや商品データ等を活用した分析手法の検証・実装活用方法の企画(例:商圏のスコアリング、ある特定の行動をとる消費者群のペルソナ自動作成)

【注意点】
特定の案件にアサイン、ではなく、稼働時間分複数の案件で動いていただく想定です。

【姿勢】
案件の性質上、分析者に主体的に動いていただくことが多くなります。
どう価値をクライアントに届けていくかを一緒に考えていく、ということを期待しておりますので、指示待ちや言われた範囲のみの対応に線引きをする方はアンマッチになります

必須スキル
■データ分析の実務経験
■Python, Rなどの汎用言語、SQLによる分析経験
■Excel/Powerpointなどを用いたわかりやすい資料作成経験
■tableauの利用経験
■チームメンバーおよび顧客と対話をしながらレポーティングをした経験
■ビジネス側要求を整理し分析に落とし込むスキル・経験
■統計学の基礎知識(統計検定2級相当以上)
案件内容

農作物の市況見立ての不透明性を解決するAI開発プロジェクト

業務内容・期待役割
機械学習エンジニアとして、AI開発をリードいただく。

AIの要件定義、リサーチ、開発 (既存アセットへのキャッチアップを含む)
検証設計、データセット整備、精度検証
顧客への進捗・成果報告の支援

必須スキル
・Python、PyTorchの実務経験
・AI開発を伴うPoCの実務経験
・機械学習・データサイエンスの知見、先端技術へのキャッチアップ能力
・仮説構築・検証のPDCAを高速に回す能力
・テーブルデータの扱いおよび時系列分析/予測アルゴリズムの開発経験
・時系列予測アルゴリズムの開発経験
・非エンジニアや顧客とのコミュニケーション・ドキュメンテーション能力
案件内容

・AIプロダクトのバックエンドシステムの設計・開発・運用
・マイクロサービスアーキテクチャによる分散システム設計
・CI/CDパイプラインの構築・改善
・統合機械学習モデルのプロダクション環境への統合・デプロイ
・多職種チーム (デザイナー、PdM、PjMなど) との協働開発

◆開発環境
言語:Python、TypeScript、React、Next.js、NX
バックエンド:Python
インフラ:GCP (コンテナ / K8s)、Docker
開発ツール:Slack、Confluence、Linear、Google Workspace、GitHub、Notion

◆作業環境
○Mac (Appleシリコン)
○デュアルモニタ対応

必須スキル

・Pythonを用いたアプリケーション開発のご経験(5年以上)
・SaaSプロダクトまたはBtoBプロダクト開発のご経験
・クラウドサービス (AWS/GCP/Azure) およびコンテナ技術 (Docker/Kubernetes) のご経験

案件内容

医療ベンチャー企業にて救急隊向けのアプリを提供しております。
本サービスの技術スタックの見直しを図っており、
新規で基盤構築(AWS)及びバックエンド開発(Python)をお任せできる方を
今回募集させていただいております。

必須スキル
・設計から一貫した作業の経験
・自発的にタスクを巻き取り行動できる方
・AWSでの基盤構築経験
・IaC(cloudformation,Terraform)での作業経験
・Lambda、コンテナ(Docker,ECS,EKS)の作業経験
・Pythonでの開発経験
案件内容

元請けプロパーチームに参画し下記作業を実施。

•クライアントの業務要件・課題を理解し、Snowflakeを駆使したソリューションを提案
•Snowflakeを活用したデータウェアハウスの設計・開発・運用
•会計データを中心としたデータウェアハウスおよびデータモデルの設計、最適化
•ETLパイプラインの構築・保守
•SQLデータベースやERPなど複数ソースからのデータ統合・変換
•データ品質管理、モニタリングシステムの導入
•Snowflakeのパフォーマンスチューニング
•プロジェクト進行におけるデータウェアハウス環境におけるクライアントとのコミュニケーション、課題解決のリード
•グローバルメンバーと協力し、プロジェクト目標の達成に向けてタスクの遂行

※英語に抵抗がない方 英会話堪能だと尚可

必須スキル
・データウェアハウスに関する実務経験:5年以上
・Snowflakeに関する実務経験:3年以上
・Snowflakeを用いたデータウェアハウス設計・開発経験
・SQLおよびPythonの使用経験
・ETLパイプライン構築経験
・クライアント課題のヒアリング・要件定義の経験
・国際的な環境での業務経験、優れたコミュニケーション能力(英語できれば尚可)
案件内容

基盤の運用および改善業務を担当して頂きます。

■具体的な業務内容

  • ユーザーからの依頼および問い合わせ対応
  • テーブル・ビュー追加/改修作業
  • データ閲覧権限管理作業
  • データパイプライン運用/改修作業
  • Google Cloud設定変更作業
  • 技術調査/検証作業
  • その他運用改善に伴うツール開発/改修業務
    ※社内のデータ基盤ユーザーとのコミュニケーションが発生します

■求める人物像
・円滑なコミュニケーションが取れる方
・能動的に仕事に取り組める方

必須スキル
・Pythonもしくはオブジェクト指向、スクリプト言語の経験
・SQLの実用的・高度な知識とリレーショナル データベース、クエリ作成 SQL の操作経験
・Linux、Docker、ネットワークの基礎知識
・IaC(terraform)を利用したインフラリソースの管理経験
・Github,Gitを利用したコード管理・チーム開発経験
・3年以上のデータ分析基盤に関する業務経験
・Google Cloudでのデータ基盤運用経験
案件内容

大規模な生データを取り込み、クリーンアップするための堅牢でスケーラブルなデータパイプラインを構築・維持する、技術的デリバリーの要です。Python/SQL、GCP等のツールを用いてデータ品質を徹底的に保証し、データサイエンティストと連携して高品質なBIダッシュボードを本番環境に移行させます。

【役割/タスク】
・大規模データの取り込み・変換・クリーンアップを行うスケーラブルなパイプラインを構築
・高稼働率のBIダッシュボードを本番環境にデプロイし、技術的基盤を管理
・データ品質保証プロセスを主導し、納品前のデータ出力の厳密性を確保

必須スキル
・データエンジニアリング、データ品質、または技術分析の役割における経験
・データ処理と自動化のためのSQLとPythonの熟練度
・データオーケストレーションツール (例: Airflow、dbt、Prefect) の経験
・高稼働率の顧客向けアプリケーション、ダッシュボード、またはその他のツールをデプロイ・維持した経験

検索結果1629件中1-10件

Python案件のよくある質問

Python案件の単価・報酬相場はどれくらいですか?
Python案件の単価・報酬相場は60万円~170万円/月となります。スキルやご経験によっても変わってきますので、Python案件にご興味があればお気軽に無料サポート登録をご利用ください。
Pyhon案件はどのくらいありますか?
BIGDATA NAVIで掲載しているPython案件は約400件です(2023年1月時点)。
ただし検索条件や検索日によっても異なります。無料サポート登録をご利用いただくと、非公開案件のご紹介もできますので、ぜひご利用ください。
Python案件ではリモートや週2、3日稼働は可能ですか?
Python案件の中には、週2、3日稼働のものや、リモートワーク可能な案件もございます。案件によっては条件が設けられていることもありますので、気になる方は無料サポート登録をご利用のうえ、キャリアアドバイザーへご相談ください。