DB/基盤系の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:963

DB/基盤系の案件を探す

案件内容

toC,toB向けシステムのAIサービス開発の作業をお任せする想定です。

必須スキル

・Pythonを用いた開発経験(3年以上)
・生成系AIを用いたサービス開発経験(サービスは社内・社外向け問わず)
・AWSサーバレスサービスでの開発経験

案件内容

広告系システムの追加開発と保守支援
・広告配信プラットフォーム(Google/Meta等)と連携するシステムの開発および運用改善
・APIを活用した入稿自動化、データ取得、レポーティング機能の開発・保守
・既存構成をベースとした新機能の追加開発、運用効率化に向けた改修

必須スキル
・Pythonを用いたWeb API開発経験(FastAPI,Flask,Djangoなど)
・AWS、GCPなどを用いたシステムの設計・開発経験
・KubernetesやECSなどコンテナ化されたアプリケーションの開発・運用経験
・REST/JSONベースの外部APIとの連携実装経験
・チームでのGit運用(ブランチ、PR運用含む)経験
案件内容

時系列データを対象とした予測モデルおよび因果推論モデルの構築・評価を行う業務。
具体的には、ビジネス課題に応じたアルゴリズム選定から、データ前処理・特徴量設計、モデル構築・評価、結果解釈までを一貫して担当。
また、SHAPなどの説明可能AI(XAI)手法を用いて、モデルの特徴量寄与度を可視化・検証する。
加えて、時系列データにおける構造的因果推論(因果効果の特定や介入シミュレーション)を実施し、意思決定支援に繋げる。

必須スキル
Pythonを用いた機械学習モデルの構築経験
時系列データ分析・予測モデルの実務経験
特徴量エンジニアリング・多重共線性対策の実務経験
機械学習アルゴリズム(線形回帰、ツリーモデル、時系列モデルなど)への理解
構造的因果推論(SCM、DoWhy、causal impact など)の実務経験
案件内容

・2,000万人近いアクティブユーザーを抱える化粧品サイト運営企業において、データエンジニアとしてご稼働いただきます。
・商用稼働サー眉宇のデータパイプライン構築・運用及び、日々の運用業務から発生する課題解決・改善をご担当いただきます。

◆主な開発環境・ツール
・BigQuery
・Docker
・dbt
・Composer
・ GitHub

必須スキル
・BigQuery上でのデータモデル設計・構築のご経験
・dbtを用いたデータパイプラインの設計・実装のご経験
・Composer、BigQueryを用いた分析基盤構築・運用のご経験
案件内容

・社内システム改修に関する実作業業務全般を行っていただきます。
・古いシステムの調査
・検証仕様書の作成
・検証作業の実施
・課題が見つかった場合の改修作業

◆主な開発環境・ツール
・OS: CentOS, Ubuntu, AmazonLinuxなど
・ミドルウェア: Apache, Nginx, MySQLなど
・開発言語: メインはPHP5.6系、 7系、他に例外でJava、mysql
・FW: php(laravel)
・管理ツール:Confluence, Jira, Googleスプレッドシートなど

必須スキル
・PHPでの開発のご経験3年以上
・システム開発のご経験5年以上
・AWSを用いたシステム構築・開発のご経験1年以上
・CI/CDに関する開発のご経験1年以上
案件内容

建設業界のDXを推進するため、AI・データサイエンス技術を駆使して専門的な技術文書から価値あるデータを抽出・構造化するプロダクトを開発しています。

プロダクトのコア技術となるデータ解析、自然言語処理、機械学習モデルの開発をリードし、建設業界が抱える課題解決の最前線で活躍していただける方を募集しています。

主な業務:
・Pythonを用いたPDFドキュメントの解析とデータ抽出ロジックの開発
・自然言語処理(NLP)技術を活用した、専門用語や重要情報の抽出・構造化
・建設ドメインに特化した機械学習モデルの設計、開発、評価、改善
・pandasやnumpyを用いた大規模データのクリーニング、前処理、分析
・抽出したデータを活用するためのAPI設計・開発
・Cloud RunやCloud SQLなど、GCPサービスを活用したデータ分析基盤の構築・運用

必須スキル
・Pythonを用いたデータ分析またはソフトウェア開発の実務経験
・pandas, numpyなどのライブラリを用いたデータ処理・分析の実務経験
・機械学習(ML)または自然言語処理(NLP)に関する基本的な知識と実装経験
・Git/GitHubを利用した開発経験
・専門文書からの情報抽出(IE)や固有表現抽出(NER)に関する知見・開発経験
・TransformersやBERTなどNLPモデルに関する知識・利用経験
案件内容

【クライアント】
日本最大級の位置情報プラットフォームを展開するベンチャー企業

【業務内容】
レポーティングや要件調整などの要素も強くデータxコンサルティング的な立ち位置として業務に取り組んでいただく想定。

・スマートシティ・まちづくり・リテール・メーカー・エンターテインメント・マスコミ等、広範囲にわたる業界の様々な分野でのデータ分析およびそのコンサルティング
・位置情報をベースにした施設来訪者の属性分析、競合比較等の分析
BIツールを用いたデータの可視化、ダッシュボード化
・位置情報データと購買データや商品データ等を活用した分析手法の検証・実装活用方法の企画(例:商圏のスコアリング、ある特定の行動をとる消費者群のペルソナ自動作成)

必須スキル
■データ分析の実務経験
■Python, Rなどの汎用言語、あるいはSQLによる分析経験
■Excel/Powerpointなどを用いたわかりやすい資料作成経験
■チームメンバーおよび顧客と対話をしながらレポーティングをした経験
■ビジネス側要求を整理し分析に落とし込むスキル・経験
■統計学の基礎知識(統計検定2級相当以上)
■事業会社側でのデータ分析経験が2年程度
案件内容

・SaaS展開企業にてSREエンジニアとして参画していただきます。
・PHPまたはGo言語 、 および AWS を用いたWebアプリケーションの、設計、開発、運用に携わっていただきます。
・また、AWS設計/構築や、Iac(Terrafomなど)の構築に携わっていただきます。

◆主な開発環境・ツール
・言語:PHP(Laravel)・Go(Echo)・JavaScript(Vue.js,Nuxt.js, Vuetify)
・DB:PostgreSQL
・インフラ:AWS (ECS,ELB, EC2, RDS, S3, ElastiCache, Redshift),Docker
・その他:Jira,Github,AWS Athena, AWS S3,Redash

必須スキル
・Webアプリケーション開発のご経験が3年以上(言語問わず)
・AWSの設計構築経験が1年以上
・Linuxの利用経験
案件内容

【概要】
様々なWEBサービス(月間数千万ユーザー利用)を提供している社内において各業務に対してAIを活用した様々な改善を行っています。
-ガイドライン遵守監視のAI自動化
-取材・入稿業務の取材AIエージェント
-問い合わせ省人化・応対ログからのナレッジ提案
-議事録ジェネレーター(Google Meet/Slack/Drive 連携、イベント駆動)

各プロジェクトの要件定義から実装・運用移行までを一気通貫で推進していただくエンジニアを募集します。

【主要業務】
AIアプリケーション/LLMエンジニア向け業務
-LLMワークフロー実装:要約/抽出/整形/ガイドラインチェック機能の開発
-検索/RAG基盤最適化:埋め込み・インデクシング・再ランキング・プロンプト最適化
-フロントエンド/バックエンド実装:Streamlit/Next.js/FastAPIを用いた機能実装
-議事録自動生成システム:Google Meet連携、Slackボット、Drive保存機能

【開発・運用環境】
-プロジェクト管理:Confluence, Jira
-ソースコード管理:GitHub Enterprise
-生成AIツール:Cursor, Devin, Gemini Advanced, Dify
-コミュニケーション:Slack、Microsoft Teams
-コラボレーション:Miro
-Officeツール:Google Workspace, Box, Microsoft Office365
-端末:Macbook Pro(ローカル開発ではDockerを活用)
-クラウド:Google Cloud(主にCloud Run)
-コンテナ・オーケストレーション:Docker, Kubernetes (GKE)
-プログラミング言語:Python(FastAPI, Streamlit, PyTorch/TensorFlow), TypeScript(Next.js)
-データ・検索:BigQuery, ベクターDB(Pinecone等)
-AI・機械学習:Claude API, OpenAI API
-監視・ログ:Prometheus, Grafana, Datadog
-CI/CD:GitHub Actions
-メッセージング:Slack Bot API, Google Meet API, Gmail API
-データストレージ:Google Cloud Storage, BigQuery

必須スキル
・ソフトウェア開発やプログラミングの実務経験(3年以上)
・開発ツール(CI/CD、バージョン管理)の使用経験
・ClaudeCode/GPT5-codex/cursor/devin等の活用経験
・DevOpsツールの知識(例:Docker、Kubernetesなど)
・ソフトウェアアーキテクチャの設計経験
・能動的な姿勢と優れたコミュニケーション能力
案件内容

売上・需要予測を中心としたデータ利活用プロジェクトにて、
経営・マーケティング・営業計画など複数部門と連携し、
データドリブンな意思決定を支援していただきます。
主な業務内容は以下の通りです:
売上・顧客・在庫・広告など多変量データの解析
需要予測・キャンペーン効果分析・価格弾力性のモデル化
分析方針・仮説立案、データパイプラインの要件整理
経営層・事業部門への分析結果の報告および施策提言

必須スキル
売上・需要予測、あるいは類似の時系列分析経験(3年以上目安)
Python(pandas, statsmodels, scikit-learn, prophet など)やRによるモデリング経験
回帰分析、変数選択、異常検知、特徴量設計の実務スキル
(大規模な)データを用いた事業課題の仮説構築・示唆抽出・提案までの一貫経験
SQLによるデータ抽出・加工スキル

検索結果963件中31-40件