単価90万円以上の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:1403

単価90万円以上の案件を探す

案件内容

■概要
・生成AIのアセットや事例の情報収集
・クライアントの生成AI環境を使ったPoCの実装
・打ち合わせ資料の作成、ファシリテーション

■詳細
生成AIユースケースリード伴奏支援
①生成AIユースケースリーダー伴奏支援
 a.ユースケース一覧作成のアドバイス及び必要に応じて不足情報をビジネスオーナーにヒアリング
 b.ユースケース評価基準の策定と評価支援
 c.ユースケース実装に向けた進め方支援
 d.ユースケースPoC実施支援
②現状課題整理
 a.生成AI導入における現状課題ヒアリング、整理
 b.課題解決のための示唆出し

必須スキル
・生成AIの概要や実装方法に関する知識
・Python
・コアコン(コミュニケーション、資料作成)
案件内容

動画配信サービスを展開する企業にて新規サービスの開発、または機能追加開発をご担当頂きます。
 具体的な業務は下記となります。
 ・クライアントとtoC向けのサービス開発を担当
 ・オープン系技術による、フロント/バックエンド、WebAPIの開発。
 ・アーキテクト選定/基本設計/詳細設計/製造/単体テスト。プロジェクトによっては保守・運用までを含む。
 ・スキルとプロジェクトによって基本設計、技術担当としてクライアントMTG同席の可能性あり。

必須スキル
 ・開発PJ内で顧客へ開発見積、提案した経験
 ・PJ規模として30人月以上の大型案件の経験
 ・仕様検討、要件検討などの折衝経験
 ・設計におけるドキュメント成果物の作成経験
 ・システム設計時にアーキテクト検討、提案、選定をした経験
案件内容

通信・放送事業者にて、コンテンツデータサービスを提供するデータ基盤の効率的な運営と他社からの効率的なデータ収集の実現、AIを活用した効率的な連携データ生成をご担当いただきます。

必須スキル
下記いずれかの業務経験をお持ちの方。異業種でのご経験も大歓迎です。
・AI/機械学習業務設計
・データ活用基盤設計/開発管理
・WEBシステム・アプリケーション設計/開発管理
案件内容

【概要】
プロダクトに溜まったデータを活用したデータソリューション事業立ち上げに伴うデータサイエンティスト業務をお願いします。

【業務スコープ】
・ビジネス課題の理解・構造整理
・技術コンセプト策定
・データサイエンス問題の定義と必要な分析/技術開発タスクのマイルストン策定
・データ分析のためのデータマート・データウェアハウス構築・整備
・事業開発のための分析業務(EDA、データ可視化、利益シミュレーション等)
・コアとなるAI技術開発(技術課題特定, 開発, 精度改善)
・プロダクト開発業務(モデリング、モニタリング等)
・上記に付随するドキュメンテーション、報告

【開発環境】
■主な環境
・Python
・Jupyter notebook
・Redash
・Databricks
・データサイエンスライブラリ(Pandas/NumPy等)
■ライブラリ等
・Pandas
・NumPy
・Scikit-Learn
・LightGBM
・Prophet
・PuLP

必須スキル
・Python/Jupyter経験2年以上
・SQLを用いたデータ抽出経験2年以上
・ビジネス構想策定/要件定義/運用定着フェーズにおけるデータサイエンス関連業務に取り組まれた経験
・定式化・統計モデル/機械学習モデルを用いた、ビジネス課題を改善・解決するまでの一連の実務経験
・AWS上での業務経験
案件内容

【概要】
薬剤在庫管理における需要予測モデルの改善や運用、及びPoC後の新規プロダクト開発に向けたβ版開発や機能拡充、ブラッシュアップをお願いします。
最初は時系列予測、多クラス分類を想定しています。

【業務スコープ】
・機械学習アルゴリズム選定、モデルチューニングのためのEDA
・機械学習アルゴリズムの設計・実装
・モデルで利用するデータ・特徴量生成のためのパイプライン開発

【開発環境】
■主な環境
・Python
・TypeScript
・AWS (Glue,Athena,Fargate,SageMaker,Lamdba,CDK)
・Databricks
■ライブラリ等
・Pandas
・NumPy
・Scikit-Learn
・LightGBM
・Prophet
・PuLP

必須スキル
・Python経験2年以上
・業務要件から機械学習モデルを設計〜実装し、運用した経験
・AWS環境での開発経験
・機械学習モデルの構築、チューニング経験
案件内容

・マルチモーダルLLMを活用することで、社内に膨大に存在する図面情報のデータ抽出を実施
・製造業メーカー様におけるCADのような複雑な図面データをみて、処理データの最適化を実施していく
・クライアント内のコンサルと一緒になってAI活用を推進していくマルチモーダルLLMを実用していくこと進めていただくポジション
・8月のPoCから参画想定
・ベストプラクティスに向けて実際のデータを見ながら最適なクレンジング手法、読み取りロジックを検討していく
・機械学習やデータサイエンティストとして分析やデータ加工をするだけではなく、ユーザーが何をしたいのかというシーズの掘り起こしや具体化された課題をどのようにシステマチックにアプローチしていくことに関わることのできる新規プロジェクト

必須スキル
・画像処理のアノテーションが可能
・研究系の画像処理経験
・図面データを生成AIの学習素材とするための最適化が可能
・CADデータの読み取り経験
・RAG/Finetuningいずれかを経験しており採択理由を理解している
案件内容

・オンプレ環境からHeroku上のDBにAWS間通信を用いて連携するバッチの構築・運用作業になります。
・連携方式設計やインフラ設計から非機能要件検討など、上流工程も行います。
・AWSの各種サービスの構築、CloudWatchによる監視設定などを行います。
・そのほか利用が想定されるAWSサービスは、ECS/Fargate/Batch/Step Functions/S3/SQS/EventBridge/PrivateLinkなどです。
環境:
 AWS
 Heroku
 その他(Slack、Backlog、GitHub など)

必須スキル
・AWSで、EC2やサービスの構築経験できる
・Amazon VPCなど、クラウドインフラにおけるネットワーク構築経験、知識がある
・Lambdaやスクリプトのプログラミング開発経験(プログラミング言語は不問)がある
・報告・相談・連絡が自発的に行える
・担当分作業のタスク整理、自身の作業スケジュール案を出すことができる
・未経験作業のキャッチアップ作業に積極的である
案件内容

営業、技術部隊のメンバーと連携をして顧客の要件を把握し最適なソリューションを提案、また受注した案件のプロジェクト管理を行っていただきます。尚、小規模案件の場合は設計から導入作業まで実施いただきます。

必須スキル
・上流工程からPJを推進できる方
・リーダー/サブリーダー経験
・クラウドインフラ環境の設計・構築経験
・以下インフラ領域の基礎知識
(セキュリティ> バックアップとリカバリ > Windowsサーバー管理=ネットワーク設計と管理=仮想化技術 > ストレージ管理 > システム監視)
※全て網羅している必要はございません
案件内容

■背景
・昨年度より社内のBI移行プロジェクトを実施しており、レポート開発が佳境を迎えている
・利用部門ユーザが自ら作成しているレポートが大半を占めていることから、レポートの作成について伴走型で支援を行いたい
・DOMO→PowerBIへの移行(レポート作成)

■内容
既存レポートのPower BI移行開発や、新規レポート構築、非エンジニア向けにレポート作成についての支援を行う。

<技術支援例>
・レポート移行(他ツールからPowerBIへの移行)
・作成済みレポート改善
・レポート構築・ナレッジ共有

■データ群
会社が管理している予算、受注/売上の見込、実績、原価や利益管理、勤怠情報など

データ量:
基本的には昨対を管理するのと、
過去5年分を履歴として持ち、推移を確認するので、300万行~500万行くらいのデータがある

必須スキル
・Power BI経験(レポート製造・テスト)
・BIツールによるレポート作成経験(他ツールからの移行経験)
・PowerBIのレクチャー経験(人に作り方伝えることが出来る。コミュニケーションスキル重視)
案件内容

・大手エンターテインメント企業において、親会社が運営するゲームタイトルのデータを、
データレイクに格納するデータパイプライン構築の業務がメインとなります。

・増員のための募集ですが、チームを技術で引っ張ることのできる中堅レベル、リーダポジションとなれる方をお願いしたいと考えております。

内容や案件はゲームタイトルのスケジュール等に依存するため、
ゲームタイトル以外のデータパイプライン構築や、社内システムの構築をお願いする可能性もございます。
(Webサイト等その他サービス)

※お願いする可能性のある業務スコープ例

・データ分析基盤の開発・運用
データを収集するETL/ELTパイプラインの開発
運用体制構築のためのルール・ドキュメント整備
・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)
・技術調査

GCPを採用しており、GCP系リソースを中心に活用します。(BigQueryなど)
インフラ管理:terraform
パイプライン構築:Airflow(Cloud Composer)、Argo workflow、SaaSであるtrocco等

必須スキル
1. SQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験

検索結果1403件中261-270件