Pythonの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:1052

Pythonの案件を探す

案件内容

■作業概要
以下の2つの作業を実施する
①海外とのシステム間連携にかかる、電文変換機能にかかる対応(AWS、Python)

・現在1ヶ国目のサービス開始し、2ヶ国目のサービス開始に向けた仕様変更実装中。
6月中にほぼ完了するため、接続試験の問い合わせ対応および追加の仕様変更があった場合の実装対応  

②貿易関連システムの更改に係る作業支援(Java、JSP)
・Web系システムのフレームワーク移行にかかる結合試験支援
・貿易関連システムの更改に係る仕様変更対応 

■工 程:詳細設計~結合試験(仕様変更対応)

必須スキル
・PythonによるAP開発経験
・JSPによる製造経験
案件内容

【業務概要】
・自社音声認識モデル生成に関する、研究開発や技術の提案、導入など幅広くご担当いただきます。

【技術環境】
言語:Python
FW:PyTorch, HuggingFace, SpeechBrain, scikit-learn
DB:Cloud Firestore
インフラ:AWS, GCP, Azure等
コミュニケーションツール:Zoom, Slack, Google Workspace

【参画メリット】
・フルリモートですので、ご自身のリラックスできる環境で作業が可能です。
・AI技術を駆使したプロダクトを複数抱えており、AIエンジニアとしてスキルアップできる環境です。
・国内外の各分野のトップクラスのメンバーが集まっており、経営層とも近い距離で勤務いただけます。

必須スキル
・Python/SQL/機械学習のご経験
・音声処理、音声解析に関する研究または実務のご経験
案件内容

【概要】
・広告配信における傾向の分析及び、異常の検知
・WEB広告の種別、サイト内での掲載位置、閲覧ユーザーの情報から成果の確認
・ユーザの行動分析を行い、最も効果が高くなる広告を推測する
・Treasure Data等を経由して連携されるユーザーデータの管理
・データパイプラインの保守運用

【開発環境】
Python、PyTorch、Hive、PySpark、PostgreSQL、Apache Airflow
Google Cloud Dataproc、BigQuery、Cloud Composer
GitHub、Slack

必須スキル
・実務でのデータパイプラインを用いたデータ処理経験
・SQL、Linux、Gitの経験
・Pythonを用いた開発経験
・GCP/AWSなどパブリッククラウド上での開発経験
案件内容

某ベンチャー企業にて、在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
自社サービスSaasの新バージョンをこの春リリースし、 エンタープライズとの契約が急激に増えている中で、 非常に多くの機能改善要望や機能追加要望が出てきています。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、 開発メンバー全員でスプリントを消化していく体制になります。

業務内容
顧客の持つ様々なビッグデータをクラウド環境で統合し、その分析/活用が出来る基盤の構築/運用します。

・新規データ取得のETL及びデータウェアハウスの実装
・データ基盤の運用及び保守開発
・データの可視化
・定例MTG対応
・仕様書等ドキュメント作成(一部)

技術環境
O S    :Linux, Windows
言 語    :Python, SQL
D B    :Redshift, Aurora(PostgreSQL互換)
Cloud   :AWS(ECS, S3, StepFunctions, Lambda, Redshift, Aurora等)
DWH   :BigQuery, TreasureData等
機械学習系:Kedro, MLflow
C I    :CircleCI
監視系  :Sentry
その他  : GitHub, Slack, CircleCI

必須スキル
・何かしらのシステム開発経験3年以上
・Pythonの実装経験1年以上
・Sparkなどの分散処理システムの経験
・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方)
・データ基盤の構築経験
・アプリケーションの設計経験
・AWSなどクラウド環境を利用したシステム開発の経験
案件内容

【仕事内容】
・DWH層テーブルの要件定義・設計・開発・保守

  • 関係者からのヒアリング・データ調査
  • メンテナンス性・汎用性を意識したテーブルの設計
  • SQLおよびPySparkを用いた実装
    ・DWH層テーブルについての問い合わせ対応・不具合調査
    ・DWH層開発環境の設計・開発・保守・運用
    【開発工程】
    基本設計|詳細設計|実装・構築・単体試験|運用・保守

【環境】
言語:SQL,Python
FW:Apache Spark
環境・OS:GCP (Google Cloud Platform),AWS (Amazon Web Services)
ツール:Docker,Terraform,JIRA,Github

必須スキル
・実務でのSQL利用経験(1年以上)
・実務でのDWH・データマートの構築経験(1年以上)
・Git/GitHubの利用経験
・チケット管理 (JIRA, backlog等) での開発経験
・クラウド環境のDWH利用経験
・Pythonでのプログラミング経験
案件内容

SaaS アプリケーションのバックエンド開発をご担当頂きます。
UIから利用するAPIや管理画面の設計・開発を主に担当して頂きます。
また、下記の業務をお願いする場合もございます。
・海外(ベトナム)チームへの作業依頼・コードレビュー
・新製品・機能の仕様策定サポート
・開発プロジェクトの進行管理

   

【主な開発環境・ツール】
・コミュニケーションツール:Slack, Google Workspace
・ソースコード管理ツール:Git + GitHub
・インフラ環境:Google Cloud (Google App Engine ほか)

必須スキル
・Web API設計のご経験
・Pythonを使ったアプリケーション設計・開発経験(3年以上)
・Google Workspace の業務使用経験
案件内容

リードエンジニアとしてデータ分析基盤の設計・構築・運用をおまかせします。

・各種システムからのBigQueryへのデータパイプラインの設計・構築・運用
・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用
・Issue対応
・技術調査

開発環境
言語 : Python,
データベース : BigQuqery, Aurora MySQL 2.0, Aurora PostgreSQL
インフラ : AWS (ESC,EC2, S3, Lambda etc.) , GCP,Dagster,Airflow
バージョン管理 : git/Github
CI : CircleCI, Jenkins
コミュニケーション : Slack, JIRA, ClickUP, Notion

必須スキル
・Pythonでの開発経験
・クラウド(GCP/AWS)での分析基盤のアーキテクト設計、構築・運用経験(2年以上)
・テラバイトクラスのデータパイプライン(ワークフロー)の設計、構築、運用経験(2年以上)
・IaCおよびCI/CDの経験(2年以上)
・リードテック経験
・コミュニケーション能力
案件内容

クライアントの内製開発をご支援いただきます。

クライアントの内製開発チームは技術深耕へのモチベーションも高く、「ギークであること」をモットーに
Azure系のサービスを中心に積極的なキャッチアップと技術検証に取り組まれています。
今回は、SRE推進支援におけるCI/CDの導入や単体テストの拡充等を担うポジションの募集となります。

同内製開発チームは製造IoT系のシステムを開発しています。
システムの特性上、可用性と信頼性の要求が高く、この点の改善を見据え弊社でSRE推進をご支援することになりました。

SRE推進支援として、下記業務をご担当いただきます。
・CI/CDの導入
・単体テストの拡充
・内製開発チームのエンジニアに対する単体テスト技法のトランスファー

製造IoTのディープな知見をキャッチアップすることもでき、貴重な経験が得られる案件となります。

必須スキル
・CI/CDの構築スキル
・単体テスト仕様の検討スキル
・単体テストの実装スキル
案件内容

生保システムの開発(開発、結合テストなど)
※現状ホスト(COBOL)で行われている業績情報システムの夜間バッチ処理をAWS環境にて再構築している。
※現在の工程はITであり、現新比較を行って不具合箇所の原因調査、及び改修・テストがメインとなる。
※8月の本番稼働後は、運用保守、及び残機能の開発を予定している。
※体制11名

   

・利用サービス:Glue(AWSのETLサービス)
・利用データ形式:parquetファイル(AWS内処理)、CSVファイル(外部連携)
・ジョブ制御ツール:Systemwalker
・ファイル転送ツール:HULFT

必須スキル

・Python、SQL(基本レベル)

案件内容

顧客データ基盤におけるBI業務を担当いただきます。
<主な業務内容>
・データ収集
・データ分析
・データ管理
・データ可視化

必須スキル
・Tableau、MATLABなどBIツールを活用した経験のある方
・R、Python、SQLなどでのデータ分析した経験のある方

検索結果1052件中381-390件