機械学習の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:567

機械学習の案件を探す

案件内容

【概要】
・金融機関の人事データを活用したタレントマネジメント/人材配置最適化システム開発に向けた長期ロードマップ策定
・マッチングアルゴリズムのPoC 設計・実装
【主な責務】
・プロジェクト計画…金融機関の人材配置最適化に向けた長期ロードマップ策定、WBS・マイルストーン策定
(スケジュール、要員、品質、スコープ、コミュニケーション、コスト管理含む)
・PoC 設計・実装…マッチングアルゴリズム実装・評価(コンテンツベースフィルタリング、分類・クラスタリング、最適化)

必須スキル
・戦略に基づいたロードマップを描くことができること 
・AIデータサイエンス分野のシステム開発プロジェクトでのプロマネ経験、ベンダーコントロール経験
・統計学の知識:統計量理解、回帰・因子・相関分析など
・機械学習の知識:scikit-learnでのモデル実装
・マッチングモデルの実装経験:コンテンツベースフィルタリング、分類、クラスタリング、最適化アルゴリズム
・積極的にコニュニケーションが取れる
・知的好奇心
・プロジェクトのビジョンに共感できる人
案件内容

顧客と情報子会社にて、FY24に仮で,Azure databricksを導入して構造化データ活用の機能検証中
ノウハウ不足ということで、ご提案機会を頂く
Azureとdatabricksの機能比較・評価・導入支援、非構造化データ利活用支援などを予定

役割:databricks導入評価、非構造化データ蓄積・データ分析検証支援

必須スキル

①ビジネススキル
・未知の技術領域でも自ら調査し、進める力
・プロジェクト推進に向けたチャットツール等での顧客とのやり取り
②技術・業務経験
・databricks設計・導入経験
・databricksによるデータパイプライン開発経験
・非構造化データ(特にテキストデータ)の蓄積・データ分析プロジェクトの経験

案件内容

【業務内容】
・複数の行動支援サービスを運営している企業内で、会員データを活用して、ビジネスグロース支援をしていただく想定
・データを活用しての課題抽出、施策起案
・可視化に必要なデータなどの集計〜一元管理の仕組み化など

必須スキル

・データ起点での課題分析/ビジネス施策起案の経験
・toCサービスに携わった経験
・SQL/DDLの知識

案件内容

下記業務を担当いただきます。
①建設データ予測モデル開発
・建設データ解析処理におけるコーディング業務
・要件定義に基づく新機能開発やモデル・システムの改善
②データ分析基盤の整備、および保守
・分析基盤やモデルの開発及び運用
・データ前処理・後処理のパイプラインの構築

【参画メリット】
・フルリモートでの参画のため、リラックスした状態で働くことが可能でございます。
・機械学習や自然言語処理などの技術を活用できるので、自身のスキルアップにつなげることが可能でございます。

必須スキル

・Pythonでの機械学習の回帰・分類モデルの構築のご経験
・クラウド上(AWSなど)でのシステム開発のご経験
・Git、コンテナなどの開発ツールの知識と実用経験

案件内容

・PoC環境の全体アーキテクチャ方針設計
・PoC向けデータモデル設計(論理設計、物理設計)
・PoC環境の構築(顧客提供環境:ベースはAWS)
・PoC環境の試験実施、及び結果報告書の作成
・PoC環境定義書の作成

必須スキル

・AWSでの環境構築スキル(EC2、Lambda、API Gateway、S3/RDS、CI/CD環境、Docker利用、コスト管理)
・データモデル設計
・コンポーネントモデル設計(AWSサービス構成、サービス連携)

案件内容

個人の様々な行動データを基にしたデータプラットフォームを用いて、
各種分析から施策企画・検討までを行います。
・データマート構築(要件定義、設計、実装、テスト)
・データエンジニアリング業務(データの収集、加工、集計)
・バッチ基盤の運用保守
・DMBOKを軸にしたデータマネジメント業務、及び利活用促進
・dbtを用いたデータ変換とモデルの開発
・データ利活用促進のためのメタデータ及びデータカタログ整備
DB:Databricks, BigQuery, Redshift, MySQL, PostgreSQL
クラウド:AWS, GCP, Azure
ツール:Adobe Analytics, Google Analytics, Firebase
バッチ処理:Airflow, dbt, digdag
言語:Python, Shell Script, SQL
CI/CD:CodeCommit, CodeDeploy, CodePipeline, Azure DevOps
データカタログ: OpenMetadata

必須スキル
・要件定義のご経験
・システム開発の経験5年以上(Python、Javaなど)
・データベース(SQL, RDB, NoSQL, DWHなど)関連の業務経験
・データ活用環境(データ分析基盤など)の構築、
 または、データ活用の実務(戦略、分析、施策改善等)の経験
案件内容

当社の既存顧客データベースを元にした、新規ターゲット顧客向けの提案ツールの作成
(新規ターゲット顧客に適した既存顧客の成功事例を抽出し、定量的、定性的に表示させる)
・要件定義(社内業務ヒアリング含む)
・データベース設計・連携(Salesforce、MySQL)
・AIモデル開発・連携(分類モデル/LLM等)
・Webアプリケーション開発(Flask/Django等)
・成果物:プロトタイプコード、仕様書(簡易でOK)

必須スキル
・Pythonでの開発経験
・OpenAI APIまたは類似の生成AI APIの利用経験
・Flask/Django等でのWebアプリケーション開発経験
・AWS/GCP等でのクラウド環境構築・運用経験
・Git管理・基本的なドキュメント力
案件内容

■背景
・募集部署はデータ基盤&AI・BI&運用を一気通貫で担っており、
 現在エンド会社にDWH構築を上流から提案中
⇒既契約のエンド会社より技術要件に落とし込める英語できる方を求められている(5月末ぐらいまでに決定希望)
⇒技術サポートで既契約中(Snowflake環境構築)

■当社クライアント支援範囲(該当部署)
・データ基盤構築、機械学習システム構築/精度向上、時系列データ予測/異常検知、自然言語(テキスト)解析、画像認識
■想定業務
・プロパーの方との連携(Snowflake実装)
・英語でのやり取り(技術要件に落とし込み)
・ドキュメント作成(アーキテクト構成図・設計書・仕様書)
・技術サポート

※基本的にプロパー(Snowflake環境構築出来る方)がいるが、自身が構築・技術サポートしていくのも想定業務

必須スキル

・DWH構築経験(特にSnowflake)
・上流(要件定義・提案)の経験
・データフロー/マート設計
・ビジネス英語(クライアント折衝)

※全て満たしていない場合でも相談可(英語は必須)
※DWH上流経験があれば幅は広がります
※DWHサービス活用は必須

案件内容

秒間25万リクエストを超える動画配信をはじめとした視聴に関するビッグデータの整形・分析・レポーティング等の業務を行なっていただきます。

【業務内容】
蓄積された様々なデータからGCP(Google Cloud Platform)やオープンソースなどのML/DLフレームワーク技術を活用し、各種モデルの検討から分析・開発・評価を行っていただきます。
ご入社後まずは、テレビ局ならではのデータの活用、分析、その結果のレポーティング業務等を行って頂きます。

具体的には・・・
・データテーブル設計
・数理統計や機械学習を用いた分析業務
・Python、SQLを用いた分析フローの実装
・報告書作成からクライアントへの提案、プレゼン
・付随するクライアント対応業務

【開発環境】
■開発言語:Python
■GCP利用サービス:BigQuery、Cloud Storage、Vertex AI、ワークフロー、Looker
■AWS利用サービス:S3、Athena、Redshift、Glue、SageMaker
■その他ソフトウェア:MySQL、Docker、JupyterNotebook
■ソースコード管理:Git (GitHub)
■プロジェクト管理:GitHub
■情報共有ツール:Slack、Teams、GoogleMeet、Zoom

必須スキル
・ビッグデータに関する興味関心
・SQLを使用したDBプログラミングの開発経験
・Pythonでの分析経験
案件内容

秒間25万リクエストを超える動画配信をはじめとした視聴に関するビッグデータの収集・整形・蓄積まで一貫して行なっていただきます。

【業務内容】
ビッグデータ基盤におけるデータの収集、データレイクからデータウェアハウス/データマートまでのワークフローの開発・運用をお任せします。
ご自身のアイディア・工夫をカジュアルに提案しプロダクトに反映していただける環境であり、単純に作るのではなく価値を提供することを重視しております。
データ基盤はGCP(Google Cloud Platform)を主軸とし、サブシステムにはAWS(Amazon Web Services)を部分的に採用した構成。日々進化するクラウドサービスをキャッチアップし最適な構成に随時進化し続けています。
今後もさらに安定してバージョンアップやスケーラビリティ・パフォーマンス改善を重ねるため、その開発の中核を担っていただくデータエンジニアを募集しております。

【開発環境】
■主要開発技術:GCP(Google Cloud Platform)環境でのワークフロー開発
■開発言語:Python, JavaScript, SQL
■クラウドプラットフォーム : Googleクラウド(BigQuery, Dataform, Workflows, CloufdFunctions, CloudRun)
■データ収集 : Fastly
■データウェアハウス : BigQuery
■コミュニケーションツール:Slack
■開発手法:アジャイル(一部ウォーターフォール)
■開発支援ツール・環境:GitHub, GitHub Actions(CI/CD)
■構成管理 : Terraform
■エディタ/IDE:VSCode Vim(*お好みのエディタを使用していただいてOKです。)

必須スキル
・Pythonを利用した開発経験
・SQLを使ったDBプログラミングの開発経験
・パブリッククラウドを利用したサービス開発・運用経験
・Gitなどのソースコード管理ツールの使用経験

検索結果567件中1-10件