齋藤担当の案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:106

齋藤担当の案件を探す

案件内容

・Lookerで作成されたダッシュボード・レポートの修正・管理
・新規機能がリリースされた際に、必要な修正を既存レポートに加える
・重要KPIレポートの品質管理
・不要なレポート・古い定義のレポートの棚卸し
・各部門向けKPIダッシュボードの作成

必須スキル
・BIツールの利用経験
※Lookerの利用経験があるとベスト、Tableauなど別ツールでも相談可
案件内容

・生成AIを使った技術調査含むモデル開発兼レポーティングポジションでのPoc遂行
・課題設定に応じたアーキテクチャの検討を行い、必要に応じて論文レベルでの調査も行う
・プロンプトエンジニアリングや実験管理などMLから外れる領域に関しても深い知見を業務に落とし込む
・(オフライン推論またはオンライン推論を提供するMLOps構築のために)Pocコードからプロダクションコードへの書き換え・実装を行う

必須スキル
・Python,SQLの2年以上の実務経験
・Git, Jupyter Notebookの実務利用
・論文レベルでの技術調査
・アルゴリズムの理解(ライブラリの知識含む)
・基本的なMLアルゴリズム、生成AI周辺のアルゴリズム
・プロンプトエンジニアリングに関する深い知見・経験
・機械学習を用いたモデル開発経験
・プロダクションコードの実装経験
案件内容

Google Cloud / AWSを利用した商用稼働サービスのデータパイプラインの開発・保守運用と日々の運用業務から発生する課題の解決・改善

主要技術:BigQuery/Cloud Composer(Airflow)/Python/(一部Spark)

必須スキル
・Pythonを利用したデータ分析等の開発経験、SQLの知識
・AWS、GCPいずれかのクラウドサービスの開発及び運用経験
・Linux/ネットワークの基礎知識
案件内容

データユーザーからの要求をくみとり的確なデータとフローの設計を行い、パイプラインの構築やパイプラインを動かすデータ分析基盤の運用保守を行う。

必須スキル
・クラウドデータ基盤サービスでの開発運用保守経験(特にBigQueryの経験があると良い)
・データ基盤運用の範囲におけるSQL(DDL/DML、CTE、副問い合わせ、information_schemaの利用、など)
・Linux / ネットワークの基礎知識(Linuxサーバの運用保守経験があると良い)

 

以下技術要素参照(*が特に重要)
– ETL/ELTツール
– *Embulk
– trocco
– digdag
– BIツール
– Redashなど
– GoogleCloud
– *BigQuery
– Cloud Storage(updated)
– Data Transfer
– IAM
– Cloud Monitoring / Cloud Logging
– その他
– *Linux
– *Bash
– Git
案件内容

主業務:定義された設計書の意図を理解し、設計書に沿ってデータを加工するパイプラインバッチの開発を行う。

主要な使用技術:BigQuery/dbt/Prefect/great_expectations(一部Airbyteの可能性)
期間:短期間(2024/1〜3月の3ヶ月間)想定
その他希望:週5日フルタイム(フレックス制)、フルリモートOK

必須スキル
・Python、SQLに関する開発経験
・円滑なチーム開発能力
(ジュニアエンジニアレベル〜エンジニアのスキル感)
案件内容

クライアントドメインを使ったRecBoleでのオフライン指標出し&レコメンドデータの抽出を調査、開発、手順化
・MLシステム基盤の移行
・GCP Cloud ComposerからVertex AI Pipelineへの移行
・GCP Bigquery scheduleQueryからVertex AI Pipelineへの移行
・既存本番MLシステムの障害対応(影響調査含む)

必須スキル
・Python,SQLの2年以上の実務経験
・Git, Jupyter Notebookの実務利用
・アルゴリズムの理解(ライブラリの知識含む)
・レコメンデーションアルゴリズムの理解(協調フィルタリング、コンテンツベース、行列分解、深層学習ベース、ハイブリッド)
・基本的なデータ処理技術の理解
例: データの前処理、クレンジング、特徴量エンジニアリングなど
・GCP環境を用いた開発経験(GCP VertexAI, BigQueryは1年以上の実務利用経験)
・機械学習を用いたモデル、レコメンドモデル開発経験(直近2年以上MLエンジニアの経験がある方)
・MLOpsに関する実務経験(MLパイプライン構築、CI/CD、モデルのバージョニング、モニタリングなど)
・仮想環境を用いたチーム開発経験
案件内容

EC・POSなどのデータがそれぞれ別のGCPプロジェクトで管理されている。これらを統合的に管理・活用し、内部監査・外部監査にも耐えられるようなデータ分析基盤を構築していきたい。まずはGCPプロジェクトを1つに統合していく予定。社内に詳しい社員がいないため、GCPの設計・構築の実務を行いながら、GCPに関する相談にも答えていただける有識者を探している。作業内容は以下を想定
・GCPプロジェクトの統合
・NW/セキュリティの設定
・モニタリングやログ取得の設定
・テーブルごとの命名規則作成
・その他GCPに関する相談事項への対応全般

必須スキル
GCPのシステム構築経験/知見
・GCPプロジェクト統合に関する質問に対して、過去の実務経験を踏まえて回答できる
・GCPの設計や設定などの実務を行える
案件内容

クライアントは Azure Open AI を中心とした生成AIの導入サービスを提供している。Azureや生成AIに詳しいエンジニアが不足しており、エンド顧客の教育・案件相談や社内・外部パートナーの育成を依頼できる有識者を募集している。

必須スキル
・Azureでの生成AIの導入経験
・業務に生成AIを導入する為の進め方が分かる(どのようにデータや情報を整理し、どんなプロンプトを書いていくかなど)
・生成AI導入に向けてAzureのコンポーネントをどのように組み合わせて使っていけばよいかわかる(Azure Open AIなど)
・Azureの構築ができる
案件内容

Webサイトトラッキングデータ及び基幹システムデータを蓄積(データマート化)し、TableauにてBI化することにより、各種組織のKPIをモニタリングするためのデータ利活用PJがある。
今後、更に、データを利活用するために、データマネジメント観点で改善点を洗い出し、中長期にデータ蓄積・加工・BI化の流れを持続可能に進化させ、データ利用者のリテラシーを高め、及びデータガバナンスを運営を支援し、仕組み化・ドキュメント整備を戦略的に実施する支援を行う。

必須スキル
・データマネジメント観点での改善活動・戦略立案推進経験
・データ利活用のための仕組み化、ドキュメント整備経験
・データガバナンス(データをどのようにもち、出していくなど)検討・運営経験
・Tableau活用経験
案件内容

某エネルギー事業会社様のデータアナリティクス部署にて、下記案件を始めとする数理最適化プロジェクトにおいて、データサイエンティストとしてアサイン予定になります。
・最適化ロジック構築:ビジネス要件をもとに定式化や最適化アルゴリズムを構築。
構築したロジックの検証や改良も実施。
・プロトタイプ開発:必要であれば、PoC用の簡易システムを実装。
・本番システム開発:主に本番システムのロジック部分を実装。
・ドキュメント作成:定式化資料、クラス図などのドキュメントを適宜作成。

必須スキル
・数理最適化の理解と開発経験
・ドキュメンテーションスキル
・コミュニケーション能力

検索結果106件中41-50件