週4日の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:650

週4日の案件を探す

案件内容

■CDP/BIアーキテクト

企業のデータ資産価値の向上のため、戦略立案・組織設計、先端技術導入シナリオ策定の課題に対して、コンサルタント(アーキテクチャ設計)として戦略基盤支援。・Tableauの要件定義~詳細設計、構築、レポーティング(メイン業務)・データの細部が見れデータマートをパフォ考慮して設計・マイグレーション支援・同時に、CDP/MAの構築要件定義が走っており、マーケティング統合基盤の全体PRJの一貫です。
具体例:

-DWH環境: salesforce CDP, teradata, Athena のデータブレンドが必要-CDP, S3, Athena, Tableau onlineのデータソース/データマート/ダッシュボードの設計・開発※CDPを中心とした顧客360PRJは、本案件以外で今後も増加予定※国内でも初のソリューションスタック※適材適所でポジションを用意(エンドクライアントは小売業が多い)
【依頼元会社】

デジタルトランスフォーメーションを実現するために必要な、コンサルティングからマーケティングまで、ワンストップで提供している会社の業務です。エンドクライアント別で新規顧客の獲得や見込み顧客の育成なども含めたマーケティング施策をサポートしています。(MA)

※カウンターパートがEC/マーケティング/新規事業の部門と、比較的若い層が多いです。
【クライアントPJT例】

●公共交通機関でのPoC:地方都市における観光促進として、現地での行動、店舗/交通情報などロケーションマーケティングデータの可視化/分析環境構築●国内大手スポーツ小売り量販店における広告最適化:Google関連APIと顧客スコアリングモデルを活用した自動化による広告出稿最適化、ダイナミックプライシングのアルゴリズムの施策企画と実施評価
【クライアンント環境】 ★

◆技術・ソリューション例(本案件以外も含む)・Google Marketing Platform(GA360)、Google Cloud Platform、AWS、Arm Treasure Data・Salesforce Marketing Cloud(MAツール)・Tableau、R、XGBoost、etc
弊社契約実績:弊社から10名以上参画しているクライアント。-稼動のご調整も利き、安定した稼働となっております。-依頼部署は50名以上で構成されており、フリーランス・副業の方は60%程占めております。

必須スキル
・BI開発経験(Tableau(BI)エンジニア)
・クレンジング、AWSやGCP、bigquery、python等のデータエンジニアリング経験
・SQLに十分な経験
・AWS系DB経験 Athena, redshift等
・クラウド系のDWH経験
※全て満たしている必要はございません。
案件内容

・バンダイナムコエンターテインメントのデータパイプライン設計・実装及び実装委託・DWH管理業務 (欠損,Issue,申請等の対応)・技術調査
【業務スコープ】・Google Cloud Platformをバックエンドとするデータ分析基盤の開発・運用・データ分析基盤と各事業部が有するデータを活用するための開発・運用・データ分析基盤にデータを収集するETL/ELTパイプラインの開発・データ分析基盤でデータを集計するワークフローの開発・上記を継続的に利用するための、ソフトウェアのバージョンアップや周辺ツールの開発(運用)・技術調査

必須スキル
1. SQLを用いたデータ抽出経験
2. Go、Java、Pythonなどを利用した開発経験
3. ETL/ELTのデータパイプライン設計/構築
4. ワークフローの構築経験(Digdag / Airflow etc.)
5. 監視ツールの導入・運用経験
6. Infrastructure as CodeおよびCI/CDの経験
7. コンテナ技術(Docker/Kubernetes)を用いた開発経験
8. GCPでの開発経験
9. データマネジメント(DMBOK)に関する理解や実践経験
案件内容

主な業務は、2つあります。・適切なインフラ環境の設計と運用、および自動監視体制の構築と運用・インフラ運用の効率化と属人化の排除のため、IaCの構築を行う
ツールの指定は特にありませんので、Terraform, CloudFormation, bugsnag, datadogなど何らかのツールをご利用いただければと思います。場合によっては、障害発生時の対応をお願いすることもあります。詳細は面談などでお話できればと思いますが、主に以下のような開発を計画しています。
【具体的な業務内容】案件に関わるMTGへの参加サービス規模及びスケーラビリティを考慮した既存インフラ環境の改善bugsnag, datadogなどを用いた自動監視体制の構築、必要監視項目の洗い出しTerraform, CloudFormationなどを用いたインフラ環境のコード化
【開発予定の機能】独自マッチングアルゴリズムの開発業務自動化機能(RPA)開発レコメンドソリューション開発ATSやSaaSサービスとのAPI連携

■使用している開発環境フロントエンド:TypeScript, React, Next.js, React Queryサーバサイド:Go, 独自FWデータベース:MySQL8インフラ:AWSバージョン管理:Git, GitHubコミュニケーション:Slack, Google Meetsプロジェクト管理:JIRAドキュメント:Confluence, Google Driveデザイン:Figma
勤務する時間帯や曜日は自由(但し、平日9:00-18:00の間で週6時間以上程度稼働できることや、同時間帯にmtgができることなど、チームでの業務推進ができる体制であることや、その能力があることが前提となります)

必須スキル
・IaCの実務経験
・AWSの実務経験3年以上
・Webサービス運用経験
・AWSインフラ環境の設計・構築経験
・terraformの実務経験
・受け身ではなく自発的に業務を推し進めていく姿勢
案件内容

ERPからのデータをSQLサーバーにてパフォーマンスチューニングしていただきます。データクレンジング、データベース改善BIロジック改善などを実施していく方向。チーム体制は4名~5名ほどのイメージ

必須スキル
SQLから大規模データ抽出経験
BIツールの知見
案件内容

to C向けサイトの運営をしているクライアント様でユーザの行動ログから予測し優先的に表示をしており、今後は自然言語を活用したレコメンドも検討中。
業務内容機械学習モデルの開発やAPIの開発データ起点で仮設出しや施策立案

必須スキル
Pythonを用いたデータ分析、モデリング
SQL、Pythonデータ抽出、加工
案件内容

業務:プロダクトの分析業務を支える基盤の機能拡充ならびに運用自動化に関わる開発を担当いただきます。・データウェアハウスへのデータ連携を含む、データ基盤で動作するETL処理の開発・データパイプラインを管理・運用・監視する仕組みづくり・取り扱うデータのセキュリティやガバナンス対応・各種運用業務の自動化とドキュメント整備
環境:プログラミング言語: Python, SQLバージョン管理: Git/GitHubデータ分析基盤、環境: AWS, SnowflakeETLツール: trocco, Airbyte, dbt(導入準備中)IaCツール: TerraformBI: Redash, Google Spread Sheet, Looker Studioコミュニケーション: Slack, ClickUp, Notion

リモートワークをベースとしていますが、週1日程度出社日を設けています。週5未満の場合でも、出社日、スクラムイベントのため火曜は勤務日となるようお願いします。

必須スキル
・データ基盤技術の基本的な理解(OS, RDBMSなど)
・データウェアハウスの設計とETL処理の開発経験
・Pythonなどのスクリプト言語を用いた開発経験
案件内容

某ユニコーン企業の分析チームにて、下記業務を依頼する想定で御座います。
【業務スコープ】事業企画部やマーケティング部などの分析組織外の部署からの依頼分析対応①分析要件定義②KPI設計③分析設計④ダッシュボード構築⑤レポーティング⑥モニタリング⑦モニタリング後再分析
100%未満の稼働率の方は、場合に応じて①~③に専念

必須スキル
・①~⑦までの一連の業務経験
・Looker使用のご経験
・中級レベル以上のSQL経験
(Window関数含む分析関数)
案件内容

・高齢者の運動機会を創出し、健康寿命を伸ばすべく、PdM、デザイナーと協業しつつ、オンラインリハビリアプリの新規開発に従事していただきます。・高齢者が使うAndroidアプリ(React Native)と管理者が使うWEBアプリ(React)の開発を行います。・Androidアプリでは高齢者でも使いやすいUI/UXを実現する必要があります。

必須スキル
・React Nativeを用いたAndroidアプリ開発、リリース対応、運用保守経験
・Reactを用いたフロントエンドの開発経験
・PCやタブレット向けの Web アプリケーション開発経験
・HTML / CSS / JavaScript への専門的な知識
案件内容

クライアント社内で運用している需要予測・発注数量最適化ソリューションにおけるデータパイプライン、MLパイプラインの運用、エラー発生、顧客問い合わせ時の初動調査のご担当をいただきます。複数のクライアントの運用を行っており、各パイプラインの運用、さらには、将来的にはその開発まで対応を可能な方を期待しています。

必須スキル
– GCP (BigQuery, GKE, Composer)
– Docker
– Airflow
– python
MLOpsの経験
Pythonを使ったデータ分析の経験
案件内容

大手通信企業が提供するポイントサービスが保有し、1,000万人以上の登録者を抱える公式LINEの登録者拡大、関連サービスへの送客・収益化をミッションとしたLINEの運用業務になります(体制:PM1名, 分析担当2名, 運用者 3名)大手通信会社の保有する数千万の会員IDとLINE IDを突合し、LINEを起点に顧客ARPUを最大化していただく業務を担当していただきます。分析担当者の主な役割としては、月間20件ほどのLINE配信業務にともなう配信結果の集計・分析において、大手通信会社の保有する会員IDと突合した顧客行動分析になります。加えて、サービスを横断した顧客ARPU最大化のため、LINE登録者の各サービス内の行動分析を行い、LINE配信PDCAを実施いただきます。※今回、TONARIWAというツールを用いて社内の会員基盤とLINEを連携させた配信を実施します。LINE上の基本的な行動ログはTONARIWAで取得できる想定なのですが、場合によっては生ログデータをLINEから抽出し、会員基盤のデータと突合いただく業務が発生いたします。

必須スキル
・大規模データ集計・分析業務(web、顧客、購買データ)
・ダッシュボード構築(Google Looker Studio,Tableau)
・公式LINE運用に関わる業務(LINE API活用経験)
・CRM運用経験(Salesforce, HubSpotなど)
・5名以上のプロジェクトチーム参画
 
・GoogleAnalytics(UA,GA4)
・SQL, BigQuery
・Salesforce、Hubspot、MarketoなどのCRMツール
・スプレッドシート(Excel、Googleスプレッドシート)

検索結果650件中451-460件