案件内容 |
【業務概要】 広告クリエイティブの制作プロセスを事前効果予測AIで支援するサービスの新機能開発を担当していただきます。 Mac, GitHub, GCP Slack, Notion, Google Meet, Zoom, Repsona, Tableau Python / TensorFlow / Triton Inference Server / Docker / Embulk / Argo WorkflowVertex AI / GKE / Cloud Run / Dataflow / GCS / CloudSQL / Memorystore / BigQuery / PubSubCloud Build / Cloud Monitoring 機械学習モデルを中心とした新しいサービスの設計・開発を担当していただきます ・膨大な広告データのデータエンジニアリング ・画像・動画・テキストを扱う高度な機械学習モデルの学習基盤構築 ・機械学習モデルのAPIサービス設計開発と運用 ・CI/CD・モニタリング・インフラの調整などの運用 |
---|---|
必須スキル | ・Python を用いたMLサービスバックエンドの開発経験
・SQL を用いた DB 利用やデータ分析経験
・GAE, GKE, BigQuery, Dataflow 等の各種 GCP サービスの技術選定や利用経験
・GitHubでのPull Requestを利用した開発フロー経験
・Webアプリケーション・ソフトウェア・DB設計経験
|
DB/基盤系の案件一覧
過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。
該当件数:812件
DB/基盤系の案件を探す
案件内容 |
レガシーなシステムから収集したデータを、イタリアで構築されたDWHへ適切な形で整理しながら格納していくことが求められています。 ビジネス外国人技術者と英語でディスカッションしながら、DWHの設計や勘定科目の変換ロジックを構築する。 稼働率の範囲は40~100% 日常会話PowerBIツールやExcel、Accessを用いてデータ間の相関関係を検証したり、データの格納を行う。 稼働率の範囲は40%前後
・本年9月末まで予定・現場では英語が飛び交いますので、英語に抵抗がない方がフィットするかと思います |
---|---|
必須スキル | ・DWHの構築経験
・日常会話レベル以上(もしくはビジネスレベル)の英会話力
・PowerBIツール、Excel(マクロを使えるレベル)、Accessのいずれかを使用した、データ間の関係性の検証経験
|
- 〜¥1,000,000 /月
- フロントエンドエンジニア
- 東京都
- IT・情報通信
案件内容 |
スマートシティ内におけるフロントエンドシステム(ソフトウェア)制作とバックエンドも含めたドキュメント作成・管理支援 |
---|---|
必須スキル | – front designの知識経験技術を持っている方
(見た目のユーザーへ与える影響が大きいため)
|
案件内容 |
■仕事内容 ビッグデータを活用した、SaaS型分析アプリケーションの開発・運用を進めていただきます。 また現在の地上波テレビ放送のみならず、今後新たに動画配信サービスでも同様の視聴データ分析サービスを開発・提供しており、そのサービス設計・開発の立ち上げを担っていただきます。 【プロダクト開発】 ・自社サービスのプロダクトの機能開発、運用 ・動画配信サービスを対象とした新プロダクトの企画、設計、開発 ・データサイエンティストが考案した新たな分析手法に応じたプロトタイプの開発 【データ基盤運用】 ・ETLシステムの開発、改善、運用 ・AWS上のインフラ基盤の改善、運用
■開発環境 ・言語:Python、Typescript ・フレームワーク:Django、Flask、pandas、Angular ・データベース:Snowflake、MySQL、PostgreSQL、Redis ・インフラ:AWS (ECS、Lambda、Batch、Redshift、RDS、Route 53、SES、SNS、etc) ・CI/CD:GitHub Actions ・テスト:pytest、Cypress ・開発ツール:JetBrains PyCharm有償版、DataGrip、VSCode、その他有用なものは積極的に使用、購入 ・デザインツール:Figma ・BIツール:Redash、Tableau ・バージョン管理:GitHub ・コミュニケーション:Slack、Zoom、Backlog、Confluence 執行役員: 1名 エンジニア:9名 データサイエンティスト:4名 |
---|---|
必須スキル | ・PythonによるWebアプリケーション(DB設計を含む)の開発経験が豊富な方。
・AWSを利用してサービスを構築した経験がある方(Redshift、ECS、Lambda等の経験があれば尚可)
|
案件内容 |
【業種】 ・大手学習塾企業 ・AWS DMSの構築、マネジメントと保守運用。 ・Tableauでのアウトプット ・DMSと社内環境との接合、運用 ・AWS Glue ・AWS Lambda ・AWS Redshift ・データベースエンジニア ・AWS DMSの構築、マネジメントと保守運用。 ・Tableauでのアウトプット ・DMSと社内環境との接合、運用 ・複数テーブル結合におけるデータベース及びView設計 ・クエリの設計と作成 ・クエリの動作確認におけるテストの実施 ・AWSのデータ取り込みの管理、運用 ・デイリーバッチの理解と管理 ・即日(長期継続前提の案件となります) ・1名 |
---|---|
必須スキル | ・SQL経験 2年以上
・複雑なSQLが作成・解読の実績
(例)テンポラリテーブルの作成のSQL、複数テーブルをJoinしたSQLなど
・AWS(Glue, Lambda, Redshift)経験 3年以上
・Tableau経験 2年以上
|
案件内容 |
日本最大手コミュニケーションプラットフォーム企業が運営している大手デリバリーサイトに関わる開発 基本設計~テスト
開発環境 ・Java(springboot) ・MySQL ・AWS ・Docker ・GitHub Actions ・Git |
---|---|
必須スキル | ・Javaでの開発経験3年以上
・基本設計の経験
・springbootでの開発経験2年以上
・AWS上の開発経験
・コードレビューの経験
・WEBシステム開発経験5年以上
・Gitの使用経験
|
案件内容 |
【背景】 アクセス解析データ/DBデータ/APIデータ等合計600TBのデータ基盤を管理データ基盤を管理・改善する人員が不足しており今回の募集にいたりました。 * 運用改善 * データ基盤関連ツールの導入(ELTツール - dataform, データガバナンス - dataplex/DataCatalogなど) * CDPの構築(店舗向け、ラベル推定/スコア推定など, SFAツールへの連携) * 新規データ連携対応(DB - embulk, API - Cloud Run/Pythonによる実装) * データマート整備(Composerなど) |
---|---|
必須スキル | * データ基盤構築/運用の経験がある
* BigQuery/RedShiftの知識がある
* インフラ(Linux)の知識がある
|
- 〜¥450,000 /月
- データアナリスト
- 神奈川県
- コンサル・シンクタンク
案件内容 |
・ヘルスケアデータ等を活用したデータ分析作業や機械学習プログラム作成 ・特定の案件や作業を長期間実施するのではなく、2~3ヶ月単位の案件を複数実施して頂くことを想定(並行実施あり) ・お客様リーダのもとで、チームで作業ができる体制が望ましい |
---|---|
必須スキル | [OS] Win系・Unix(Linux)
[言語] Python
Python(scikit-learn)の利用経験が必須です。
|
- 〜¥700,000 /月
- データ集計・分析補佐
- 東京都
- サービス
案件内容 |
弊社クライアント(HR系)のデータ事業部にてデータ抽出業務を担当いただきます。 (主に戦略・方針策定のための実態の把握に向けたデータ抽出 クエリの「読み・書き」ができるだけでなく、依頼者側がどのような用件でデータ抽出したいのかを汲み取って使仕様検討・データ抽出ができる方を求めています。 ・基幹データやアクセスログからのデータ抽出 └新規のSQL作成、既存SQLの調査/改修 ・依頼者(事業担当者)との抽出要件の整理、プロジェクトの進行管理 |
---|---|
必須スキル | ・SQL を用いたデータ抽出経験
・Redshift、BigQueryでの大量データのハンドリング経験
・Web システムに関する基本的な理解と業務開発経験
・周囲と適切にコミュニケーションをとりながら抽象的な課題を整理して解決に導く能力・スタンス
|
案件内容 |
【業務内容・稼働イメージ】※ Phase1だけの参画も可。 ・Phase1: 5-6月: 60%稼働 - データマートの整備(Bigquery) - データマートのデータを利用して Tableauでの分析環境整備 ・Phase2: 7月以降: 20%稼働 - 週次レポートの作成・報告 - アドホック分析対応 |
---|---|
必須スキル | ① SQLを用いたデータベース操作、集計の実務経験(主にBigQuery)
- 欲しい数値を取得するために必要となるテーブルを選定し、SQLを実行することが出来る
- 効率や可読性を考慮したSQLを実行する事が出来るとなお良い(分析関数, UDFやクエリスクリプト)
② Tableauの分析環境整備・運用経験
- 1年以上想定
|
検索結果812件中521-530件