| 案件内容 |
【案件概要】 データ基盤内のコンテンツチーム(お客様のコンテンツ指標を整備、可視化、分析を行い、事業判断やコンテンツ判断にデータ活用を推進する)での稼働を想定。 【担当業務】 DB設計からSQL実装、Workflowsの実装を行う。 ・SQL実装 ・テスト設計 ・SQLによるアドホックの調査 ・セキュリティ対応 【環境】 Jira, Confluence,BitBucket, Slack |
|---|---|
| 必須スキル | ・GCP全般の知識
・SQL
・Cloud SQL(PostgreSQL)
・BigQuery
・Python(Django)
・セキュリティ系の知見
・ネットワーク系の知見
|
Tableauの案件一覧
過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。
該当件数:430件
Tableauの案件を探す
| 案件内容 |
■業務内容■ ・課題管理、情報整理 ・AML(アンチ・マネー・ローンダリング)、リスクに関するアドホックな分析 ・SQLを利用した抽出、加工 ・ダッシュボード構築(Tableau) ・ドキュメント作成 ・データ辞書の作成
■環境■ Python、R Azure Snowflake Slack Confluence JIRA MySQL Looker エンドユーザー様がシニアの方が多い環境となります。 ただ分析ができる、というよりも、分析結果をドキュメントに残して課題定義等ができる方がフィットするかと思っております。 分析だけの経験よりも、BIやドキュメントなど、幅広いご経験が見合うかと思っております。 |
|---|---|
| 必須スキル | ・Python
・SQL
・Tableauでのダッシュボード構築経験
・ドキュメント作成経験
|
| 案件内容 |
【業務概要】 広告クリエイティブの制作プロセスを事前効果予測AIで支援するサービスの新機能開発を担当していただきます。 Mac, GitHub, GCP Slack, Notion, Google Meet, Zoom, Repsona, Tableau Python / TensorFlow / Triton Inference Server / Docker / Embulk / Argo WorkflowVertex AI / GKE / Cloud Run / Dataflow / GCS / CloudSQL / Memorystore / BigQuery / PubSubCloud Build / Cloud Monitoring 機械学習モデルを中心とした新しいサービスの設計・開発を担当していただきます ・膨大な広告データのデータエンジニアリング ・画像・動画・テキストを扱う高度な機械学習モデルの学習基盤構築 ・機械学習モデルのAPIサービス設計開発と運用 ・CI/CD・モニタリング・インフラの調整などの運用 |
|---|---|
| 必須スキル | ・Python を用いたMLサービスバックエンドの開発経験
・SQL を用いた DB 利用やデータ分析経験
・GAE, GKE, BigQuery, Dataflow 等の各種 GCP サービスの技術選定や利用経験
・GitHubでのPull Requestを利用した開発フロー経験
・Webアプリケーション・ソフトウェア・DB設計経験
|
| 案件内容 |
グローバルでECサイトを展開して大量商品を扱っている専門商社の商品情報の品質向上や最新化を目的とした、データ抽出・データ加工作業をご支援いただきます。 フォローメンバーをつけて要件定義~テストまでを一通りご担当いただきます。 また関連データをSQL(MySQL、Postgresql等)を使ってデータ抽出・加工業務を担当いただく場合もございます。 |
|---|---|
| 必須スキル | ・Tableau開発経験1年以上
・SQL利用経験1年以上
|
- 〜¥1,200,000 /月
- コンサルタント
- リモート
- 東京都
- 医療・福祉・ヘルスケア
| 案件内容 |
登録者数40万人の電子お薬手帳の調剤データ、購買データといった パーソナルヘルスレコードから ビジネスにつながるインサイトを探し出す事業です。 現状、Python分析レポートですが、Tableauに移行していくため、アドバイザー及びハンズオンサポートをお願いします。 |
|---|---|
| 必須スキル | ・Tableauの導入~運用のリード経験
・統計分析を活用したデータアナリストの経験
・仮説や事実に基づいて論理的な説明や考え方ができる方
・お客様(インターナルも可)に対するデータ分析の提案経験
|
| 案件内容 |
■仕事内容 ビッグデータを活用した、SaaS型分析アプリケーションの開発・運用を進めていただきます。 また現在の地上波テレビ放送のみならず、今後新たに動画配信サービスでも同様の視聴データ分析サービスを開発・提供しており、そのサービス設計・開発の立ち上げを担っていただきます。 【プロダクト開発】 ・自社サービスのプロダクトの機能開発、運用 ・動画配信サービスを対象とした新プロダクトの企画、設計、開発 ・データサイエンティストが考案した新たな分析手法に応じたプロトタイプの開発 【データ基盤運用】 ・ETLシステムの開発、改善、運用 ・AWS上のインフラ基盤の改善、運用
■開発環境 ・言語:Python、Typescript ・フレームワーク:Django、Flask、pandas、Angular ・データベース:Snowflake、MySQL、PostgreSQL、Redis ・インフラ:AWS (ECS、Lambda、Batch、Redshift、RDS、Route 53、SES、SNS、etc) ・CI/CD:GitHub Actions ・テスト:pytest、Cypress ・開発ツール:JetBrains PyCharm有償版、DataGrip、VSCode、その他有用なものは積極的に使用、購入 ・デザインツール:Figma ・BIツール:Redash、Tableau ・バージョン管理:GitHub ・コミュニケーション:Slack、Zoom、Backlog、Confluence 執行役員: 1名 エンジニア:9名 データサイエンティスト:4名 |
|---|---|
| 必須スキル | ・PythonによるWebアプリケーション(DB設計を含む)の開発経験が豊富な方。
・AWSを利用してサービスを構築した経験がある方(Redshift、ECS、Lambda等の経験があれば尚可)
|
| 案件内容 |
【業種】 ・大手学習塾企業 ・AWS DMSの構築、マネジメントと保守運用。 ・Tableauでのアウトプット ・DMSと社内環境との接合、運用 ・AWS Glue ・AWS Lambda ・AWS Redshift ・データベースエンジニア ・AWS DMSの構築、マネジメントと保守運用。 ・Tableauでのアウトプット ・DMSと社内環境との接合、運用 ・複数テーブル結合におけるデータベース及びView設計 ・クエリの設計と作成 ・クエリの動作確認におけるテストの実施 ・AWSのデータ取り込みの管理、運用 ・デイリーバッチの理解と管理 ・即日(長期継続前提の案件となります) ・1名 |
|---|---|
| 必須スキル | ・SQL経験 2年以上
・複雑なSQLが作成・解読の実績
(例)テンポラリテーブルの作成のSQL、複数テーブルをJoinしたSQLなど
・AWS(Glue, Lambda, Redshift)経験 3年以上
・Tableau経験 2年以上
|
| 案件内容 |
【背景】 アクセス解析データ/DBデータ/APIデータ等合計600TBのデータ基盤を管理データ基盤を管理・改善する人員が不足しており今回の募集にいたりました。 * 運用改善 * データ基盤関連ツールの導入(ELTツール - dataform, データガバナンス - dataplex/DataCatalogなど) * CDPの構築(店舗向け、ラベル推定/スコア推定など, SFAツールへの連携) * 新規データ連携対応(DB - embulk, API - Cloud Run/Pythonによる実装) * データマート整備(Composerなど) |
|---|---|
| 必須スキル | * データ基盤構築/運用の経験がある
* BigQuery/RedShiftの知識がある
* インフラ(Linux)の知識がある
|
| 案件内容 |
【業務内容・稼働イメージ】※ Phase1だけの参画も可。 ・Phase1: 5-6月: 60%稼働 - データマートの整備(Bigquery) - データマートのデータを利用して Tableauでの分析環境整備 ・Phase2: 7月以降: 20%稼働 - 週次レポートの作成・報告 - アドホック分析対応 |
|---|---|
| 必須スキル | ① SQLを用いたデータベース操作、集計の実務経験(主にBigQuery)
- 欲しい数値を取得するために必要となるテーブルを選定し、SQLを実行することが出来る
- 効率や可読性を考慮したSQLを実行する事が出来るとなお良い(分析関数, UDFやクエリスクリプト)
② Tableauの分析環境整備・運用経験
- 1年以上想定
|
- 〜¥600,000 /月
- データ集計・分析補佐
- リモート
- 東京都
- 金融
| 案件内容 |
■プロジェクト概要 エンドクライアントのサービスを充実させるため、ビジネス企画からサービスローンチ・グロースをスピーディに実現をする必要がある。 データ分析業務支援 ・開発ロードマップ対応や個別案件の定量効果だしについてO2O領域のサポート ・O2O関連のテーブル構造理解 ・BigQueryを用いたデータ抽出 ・Dataポータル用のデータソース証跡やマニュアルのまとめ |
|---|---|
| 必須スキル | ・Bigquery
・GCP
・ドキュメントに作成(調査結果を纏める)
・主体的にプロジェクトを進められる方
|
検索結果430件中281-290件





