Databricsksの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:24

Databricsksの案件を探す

案件内容

■アサイン先案件
・金融業界の企業様に対し、AI活用を実現するためのITアーキテクチャ全体の設計・整備の支援を行うプロジェクト。
・データ基盤を中心としながら、アプリケーション、インフラ、セキュリティ、運用などを含む全体アーキテクチャの支援を目的とする。

■業務内容・役割期待
・業務内容
 ・週次の会議を通じて、AIデータ基盤および関連システムに関する技術支援を実施。
 ・現在検討中のデータプラットフォームを起点に、クラウドインフラ(Azure)やアプリケーション構築・運用の設計などを含むITアーキテクチャ全体を対象にレビュー及び助言を行う。
 ・定例・常駐で得た情報を整理し、技術的なレビュー・助言を行うとともに、その内容を反映した週次報告資料を成果物として作成する。
・期待役割
 ・データ基盤を中核としつつ、システム全体のアーキテクチャを俯瞰し技術方針のご助言をいただく。
 ・実装作業ではなく、設計レビューや技術方針の検討が主な役割。
 ・幅広い技術知見を活かし、ITアーキテクチャ全体を俯瞰的に支援いただく。
 ・AIに関する専門知識は必須ではないが、AI・特に非構造データを含むパイプラインを考慮した基盤設計ができること。

必須スキル

・Microsoft Azureにおけるデータ基盤および関連ITアーキテクチャの設計・構築経験
・クラウドアーキテクチャ全般(ネットワーク、セキュリティ、運用設計)の理解
・Databricksの導入・運用・活用経験
・DatabricksにおけるAI活用技術への知見
・データモデリングおよびデータベース設計の知識(RDBMS / NoSQL の理解)
・Python・SQLなどを用いたデータ処理スキル
・クライアント対応におけるコミュニケーション能力
・情報整理・資料作成スキル(週次報告資料など)

案件内容

データ基盤全体のアーキテクチャ設計から、ガバナンス設計(Unity Catalogなど)、dbtやワークフローの設計・運用、GitHubを活用した開発プロセスの整備まで、プロジェクト全体をリードする役割になります。

【想定内容】
・全体アーキ設計:3層(着地/精錬/提供)の責務分離、命名規約、スキーマ進化方針、データ契約の策定
・ガバナンス設計(必須):Unity Catalog 等を用いた権限モデル、監査・データ分類、変更管理プロセスの整備
・dbt:プロジェクト構成(stg/int/mart)、モデル分割、tests とドキュメントの整備、依存グラフ設計
・Databricks:Lakehouse 基盤設計、ジョブ/ノートブックの責務分離、再実行・冪等性設計
・ワークフロー:依存制御・スケジューリング、失敗時の復旧方針、SLA/アラート、可観測性(メトリクス/ログ/リネージ)
・GitHub:ブランチ戦略、PR レビュー基準、CI(dbt build・lint 等)とリリース運用
・移行設計:Snowflake+Xplenty → Databricks+dbt の段階移行(Dual-run、差分検証、カットオーバー、ロールバック)

必須スキル
・Databricks を中核にしたデータ基盤の設計・実装・運用経験
・要件定義~設計~テスト~運用までの一連の推進経験
・dbt によるモデリング/テスト/ドキュメント整備の実務経験
・3層(Bronze/Silver/Gold もしくは Staging/Conformed/Mart) の設計・文書化経験
案件内容

データ基盤のリニューアル実施に伴い、サービスベンダーの情シス要員として
Databricksアーキテクチャーを活用した検討から実装までを対応頂ける方。

必須スキル
•Databricksを活用したデータレイクのアーキテクチャ検討〜実装経験
 ┗AI活用までの経験は不要
•Azure DevOpsの構築経験
•コミュニケーション能力
案件内容

Databricks環境におけるバッチの設計、開発、テストをご担当いただきます。

■開発環境■
Python, SQL, Databricks, Apache Spark, AWS Glue, Amazon EMR, AWS, Azure, GCP

必須スキル

・Python、SQL、ジョブを用いたデータ連携処理の開発経験(5年程度)
・1人称でタスクを遂行可能な方

案件内容

大手金融機関向けに、Databricksを使用した開発を担当していただきます。
データエンジニアリング領域での業務です。

必須スキル

– データ連携処理の試験実施経験(Python/SQL/ジョブ)
– 1人称でタスクを遂行できる能力

案件内容

・既存システムのキャッチアップ
・データ分析基盤の保守開発

必須スキル
・データ分析基盤の構築経験が豊富
・既存システムの仕様把握・キャッチアップ能力が高い方
・以下の技術を利用したシステム構築および開発経験
Azure関連:Azure Data Factory, Azure Data Lake Storage, Azure Databricks
ツール,言語関連:SQL, Python(特にPySpark), Apache Spark
案件内容

小中学生向け学習支援サービスにおけるデータ分析基盤の保守開発をお任せいたします。

【環境】
・Azure

必須スキル
・Azure(Azure DataFactory, AzureData LakeStorage, AzureDatabricks ) でのデータ基盤構築経験(5年以上)
・Python(PySpark)の経験(2年)
・既存システムの仕様を読み取りキャッチアップをスムーズに行える方
・保守経験が豊富な方
案件内容

データ分析基盤の移行に伴うBIツールの作成案件での人員募集です。

現行はTeradataに対して、同社のAccessNavigatorWebを利用してデータ参照を行っていたが、Teradataサポート切れに伴いDatabricksへの移行を行うためデータ参照に使っていた。AccessNavigatorWebと同様の機能を持つBIツールを作成する。

アプリケーションをDatabricks Apps(Python)で構築するか、javaで構築するかを検討中。

必須スキル

・Databricks、Databricks Apps(Python)もしくはjava経験

案件内容

顧客と情報子会社にて、FY24に仮で,Azure databricksを導入して構造化データ活用の機能検証中
ノウハウ不足ということで、ご提案機会を頂く
Azureとdatabricksの機能比較・評価・導入支援、非構造化データ利活用支援などを予定

役割:databricks導入評価、非構造化データ蓄積・データ分析検証支援

必須スキル

①ビジネススキル
・未知の技術領域でも自ら調査し、進める力
・プロジェクト推進に向けたチャットツール等での顧客とのやり取り
②技術・業務経験
・databricks設計・導入経験
・databricksによるデータパイプライン開発経験
・非構造化データ(特にテキストデータ)の蓄積・データ分析プロジェクトの経験

案件内容

FY24にデータ基盤検証環境として Azure databricksを導入済み。
FY25もデータ連携機能、メタデータ・カタログなどの検証・構築を支援予定

役割:databricks 要件定義・設計・構築・テスト、利活用QA対応

必須スキル
①ビジネス面
・顧客報告資料作成(pptx/xlsx/word)
・プロジェクト推進に向けたチャットツール等での顧客とのやり取り
②業務経験面
(開発サイクル)
・要件定義、要件定義書作成
・基本/詳細設計、各種設計書作成
・テスト計画、テスト仕様書作成
(製品・サービス)
・Databricks
・AzureのRDBサービス
(言語)
・Python
・SQL

検索結果24件中1-10件