週3日の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:530

週3日の案件を探す

案件内容

◇業務内容:
・研究論文の調査
・新規モデルの実装/検証/最適化
・モデルの学習・最適化
・データ管理
・AIアプリの開発
・GitHub / Paper with Code 等のサイトから研究論文を調査
・新規モデル及び手法の実装を行う
・データ収集次第逐次アップデート

◇具体的な業務内容:
・データ調達
当社のデータチームと連携を取り、データを作成します。
アノテーション要件作成・前処理が含まれます。
・映像解析モデルの開発
論文を調査して、最もビジネス要件に合ったAIモデルを選びます。
テストデータを使って、学習させつつ選定することもあります。
・AIモデルの実装
モデルをビジネス要件に合うように学習し、デプロイします。
デプロイ後に速度や精度を最適化します。
・精度改善
実務運用での課題点を洗い出し、モデルをアップデートします。

◇使用しているツール:
・python (pycuda, cupy, numpy, pandas)
・tensorflow
・pytorch
・TensorRT
・ONNX
・C++ (コード解読)
・AWS (EC2 / S3)
・CVAT
・fiftyone

必須スキル
・AIフレームワークの経験 (Tensorflow, Pytorch など)
・ 深層学習の使用経験(CNN, Transformer)
案件内容

クライアント内で構成されているOSSアプリケーションの仕様を把握し、それぞれの連携を行い、データ基盤そのものを構築いただきます。

技術要素
GoogleCloud
Cloud Composer2(及びAirflow2)
Cloud Dataproc(Apache Spark(scala))
Cloud Build
Cloud Storage
BigQuery
Cloud Monitoring / Cloud Logging
AWS
Kinesis firehose
SQS / SNS
ECS
Lambda
ECR
S3
Cloud Watch
その他
GithubActions
Terraform

必須スキル
・アプリケーション仕様の理解力とシステム設計能力が高い方
・Pythonを利用したデータ分析/開発経験
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux / ネットワークの基礎知識
案件内容

■業務内容
・SalesforceとAWSを利用した、スタートアップ企業支援の施設運営システム。
・Salesforceは個人情報管理の入れ物として利用するためセキュリティ周りに注意した実装が必要。

■クライアント
※CDPを中心とした顧客360PRJは、本案件以外で今後も増加予定
※国内でも初のソリューションスタックをクライアントが国内投入パートナー一番手としてを推進中
※企業のデータ資産価値の向上のため、戦略立案・組織設計、先端技術導入シナリオ策定の課題に対して、戦略基盤支援を行っている
※適材適所でポジションを用意
・C-Suiteを対象に、組織変革からDXを推進する役割など、
 デジタルトランスフォーメーションを実現するために
 必要なコンサルティング~マーケティングまでワンストップで提供している会社
・当社でも複数名支援させて頂いているクライアント

   

技術環境:
Salesforce CDP / Tableau / MA / CRM、
AWS Beanstalk, lambda
GCP bigquery, dataflaw, functions, comporser, etc
コミュニケーションツール:
Slack, Notion, Backlog

必須スキル
・1人称で動けるSEで1名(設計、開発〜テスト)
・設計、開発、テストを自律し、率先して対応いただける方
・Salesforce開発スキル(Apex クラス、Apex トリガ、Apex REST)
・ドキュメント作成スキル(雛形は用意します)
案件内容

製薬企業でPoCを予定しており、ベンダーサイドでプロンプトエンジニアリングをお願いする想定です。

【サービス内容】
LLMへ医療論文、様々な研究データを学習させ、医療リアルワールドデータの信憑性をLLMで担保するサービスとなります。

【体制】
ベンダー PM1名
エンド(製薬企業) 2名

【環境】
・Azure OpenAI Service
・gpt3.5 turbo
・GPT4
・LangChain

必須スキル
・機械学習関連の研究開発経験
・機械学習モデルのサービス実装経験
・プロンプトエンジニアリング経験
・課題解決能力
・コミュニケーション能力
案件内容

概要:
配送拠点での人員管理の目的のため、需要予測モデルを構築する業務になります。まずPoCを行なって精度検証・報告までとなります。

業務:
・モデル設計、構築
・データ加工、学習検証
・精度改善調査
・ドキュメント作成

体制:
2名体制
PM1名
DS1名(当該募集)

必須スキル
・Python・SQL
・LightGBMなどによる予測モデルの構築経験
・モデルに投入する特徴量データ集計のパイプライン構築経験
案件内容

ご依頼のある部署は、(製造業)社内の様々な部署にコンタクトを取り、事業戦略と絡めながら、データ駆動型経営へ
変革する為の企画~事例創出をテーマにデジタル化、データ活用(発電量の予測、需要予測)のテーマ探索、企画化、事例創出を行っています。
その中でコンサルタントや、各担当者とコミュニケーションを取りながら、データ分析、可視化作業を行っていただきます。

必須スキル
・データサイエンティストとしての実務経験
(一人称で担当者と分析設計から議論して手を動かせること)
・Python、BIツール経験
案件内容

デジタルを中心としたBtoCマーケティング(オウンドメディア等による集客、ナーチャリング、WEBサイト企画・制作等)推進において、ブランド/サービスの市場への認知拡大・理解促進、顧客獲得のために、PMの指示の下で、各種コンテンツのクリエイティブ及びデザイン制作を支援する。

必須スキル
・デザインツール(Adobe各種ほか、Figma、Sketchなど)が使えること
・Web/紙媒体のデザイン経験が3年以上ある方 ※ポートフォリオ必要
・マーケティング、UIUXに関する一般的な知見
・各領域チーム・メンバー間での円滑なコミュニケーション
案件内容

データパイプラインの構築エンジニア
主業務:要件に合わせルールに則ったデータモデリングを行い、各基盤のツール群を使ってデータ加工するパイプラインバッチの構築を担当いただきます。

技術要素(★が特に重要)
GoogleCloud
★Cloud Composer2(及びAirflow2)
★Cloud Dataproc(Apache Spark(scala))
Cloud Build
Cloud Storage
BigQuery
Cloud Monitoring / Cloud Logging
AWS
★Kinesis firehose
★SQS / SNS
★ECS
★Lambda
ECR
S3
Cloud Watch
その他
GithubActions
Terraform

必須スキル
・データモデリング力とバッチ設計能力が高い方
・Pythonを利用したデータ分析/開発経験
・高度なSQL(CTE、副問い合わせ、Window関数の利用など)の知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux / ネットワークの基礎知識
案件内容

お客様でPowerPlatformやAzureのシステム開発に関する運用を実施しようとしている。
そのための調査や運用の建てつけを考える支援を実施する。

必須スキル
・Microsoft Azure上でのシステム開発に知見のある方(特にアプリケーション登録やAzureADに対する処理を実行する仕組みについて知見のある方)
・自ら調査し、その調査結果を端的に説明できる能力のある方
・説明資料を自ら作成できる方
案件内容

・クライアントグループ全社のデータパイプライン設計・実装及び実装委託
 (APIやパブリックデータの取得/整備)
・DWH管理業務 (欠損,Issue,申請等の対応)

【業務スコープ】
・Google Cloud Platformをバックエンドとするデータ分析基盤の開発・運用
・データ分析基盤と各事業部が有するデータを活用するための開発・運用
★データ分析基盤にデータを収集するETL/ELTパイプラインの開発・管理
・データ分析基盤でデータを集計するワークフローの開発
・技術調査

必須スキル
・ 複雑なSQLを用いたデータ抽出経験
・ ETL/ELTのデータパイプライン設計/構築
・ワークフローの構築経験(Digdag / Airflow etc.)
・ GCPでの開発経験

検索結果530件中231-240件