numpyの案件一覧

過去に募集したエンジニア、データサイエンティスト、マーケターの案件を中心に掲載しています。
非公開案件を多数保有していますので、ご希望のイメージに近い案件をクリックして無料サポートにお申込みください。
専門コンサルタントがヒアリングを通じて最適な案件をご提案いたします。
単価や稼働日数などの条件面についてもお気軽にご相談ください。

該当件数:19

numpyの案件を探す

案件内容

IoTやAIなどを活用した企業様で、機械学習の開発を行っていただきます。
既存システムがあり、そのシステムにAIを搭載させる形です。
ベースのものは完成していますが、AIの精度を高めていくために増員がかかっております。
既存システムの中で、EVの事業部とカーシェアリングの事業部があり、
まずはEVの方から実装させていき、うまくいけばカーシェアリングの方も実装させていくイメージで開発を行っていきます。

開発環境:
言語:Python 3.9/higher
基本ライブラリ:Numpy / SciPy / Pandas / Matplotlib

必須スキル
・Numpy/SciPy/Pandas/Matplotlibの業務使用経験 3年以上
・scikit-learn/TensorFlow/Kerasなどのディープラーニング・ニューラルネットワークライブラリの業務使用経験 1年以上
・AWS 関連 (特にRDSとS3) と連携する Python の開発経験 (現場ではboto3を使用) 1年以上
案件内容

■業務概要
・社内開発するシステムの要件定義/基本設計、詳細設計、製作、単体試験、結合試験
・外部委託するシステムの要件定義、基本設計以降のベンダーコントロール、受け入れ試験
・保守運用(メンテナンス、障害調査など)

■担当工程:要件定義,基本設計,詳細設計,実装,テスト,運用・保守
■開発手法:ハイブリッド
■企業情報
弊社は、IoTやAIなどを活用し「カーシェア」と「エネルギーマネジメント」を組み合わせた、全く新しいサービスを開発・提供するスタートアップです。

■開発チーム構成
開発組織全体で13名
プロダクトオーナー:1名
PM統括:1名
エネルギーマネジメントシステム:PM1名、SE1名、PG3名、インフラ1名
カーシェアシステム:PM1名(+パートナー企業)
SGW、車載器:PM1名、IoTデバイス開発PM1名(+パートナー企業)
運用監視補助1名
インフラ:1名

■チームの役割
eモビリティをマネジメントするプラットフォームにおける、AIシステム、エネマネシステム、カーシェアシステムの各サービスの内容を適切に把握し、社内・社外をしっかり取りまとめつつ要件定義から運用まで一連の流れをスムーズに遂行していただきます。

 ❐ AIシステム:
 カーシェアリング利用とバッテリーの効率利用の両立を可能にします。
 ビッグデータを活用した充放電制御のための各種パラメータの予測にはAIによる最適化を行う予定。

 ❐ カーシェアリングシステム:
 顧客向けサービスの提供(カーシェアアプリ含む)、車両の管理が可能。

 ❐ エネルギーマネジメントシステム:
 AIを活用した、充電器の管理、再生可能エネルギーのコントロール、効率利用が可能。

■募集背景
既存システム開発の機能拡張や改修のための増員

■開発環境
言語:Python 3.9/higher
基本ライブラリ:Numpy / SciPy / Pandas / Matplotlib

必須スキル
・Numpy / SciPy / Pandas / Matplotlib の業務使用経験 3年以上
・scikit-learn / TensorFlow / Keras などのディープラーニング・ニューラルネットワークライブラリの業務使用経験 1年以上
・AWS 関連 (特に RDS と S3) と連携する Python の開発経験 (当社では boto3 を使用) 1年以上
案件内容

・社内開発するシステムの要件定義/基本設計、詳細設計、製作、単体試験、結合試験
・外部委託するシステムの要件定義、基本設計以降のベンダーコントロール、受け入れ試験
・保守運用(メンテナンス、障害調査など)

必須スキル
・Numpy / SciPy / Pandas / Matplotlib の業務使用経験 3年以上
・scikit-learn / TensorFlow / Keras などのディープラーニング
・ニューラルネットワークライブラリの業務使用経験 1年以上
・AWS 関連 (特に RDS と S3) と連携する Python の開発経験 (当社では boto3 を使用) 1年以上
案件内容

【概要】
自動車データからドライバーの運転行動を分析、現状の使われ方を把握して可視化を行う。

【業務内容】
・分析設計
・SQLを用いたDBからのデータの抽出・加工・集計・クエリの最適化
・Pythonを用いた集計・分析・可視化作業
・Powerpointでの分析レポート作成作業
・クライアントミーティングへの参加・分析レポートの説明
・Teams上でのクライアントとのコミュニケーション
・社内ミーティングへの参加

必須スキル
・Python(pandas, numpy, matplotlib, その他のライブラリ)を用いたデータの
集計・分析・可視化経験(pandas, numpy)
・SQLを用いたデータの抽出・集計・加工経験
案件内容

・Pythonを用いたデータ分析基盤の作成、テスト
・データの提供プラットフォームへのパイプライン構築
・GCP上での機能追加・改善
・本番環境上での安定運用と障害対応

必須スキル
・python 3.x(numpy, pandasなどの集計ライブラリ)
・SQL
・Docker、terraform、Kubernetesなどを利用した開発経験
・DNS, load balancer, firewall(security group), routing table,
networkの知識
・分散処理に関する理解
案件内容

【業務内容】
EdTech企業にてデータアナリスト(データサイエンティスト)として、データによる
新しい価値創造をゴールとするデータ分析やモデル開発を担っていただきます。

以下、チームで取り組んでいる分析テーマの具体例です。
▼受講者の学習意欲の活性化・学習効果の向上
学習行動ログ及びアンケート調査を用いた活性要因分析
統計的因果推論による施策効果検証
定型レポートのワークフロー開発/ダッシュボード構築
▼受講者集客
非会員向けサイトの会員登録フローのファネル分析
▼法人顧客リピート契約促進
管理画面操作ログや受講者学習行動ログを用いたリピート契約要因分析
定型レポートのワークフロー開発/ダッシュボード構築
▼法人顧客集客
法人顧客向けセミナーの統計的因果推論による効果検証
▼マーケティングリサーチ
ビジネスパーソンや育成人事が感じるビジネススキル/デジタルスキルの課題に関する調査/分析
▼送客
他の(同クライアント)学習サービスへの利用促進を目的とした、志望動機の自由記述データの自然言語処理

【開発環境】
インフラ:GCP (データ基盤) / AWS (関連システム)
データパイプライン (ETL):CloudComposer (Airflow)
DWH:BigQuery
その他インフラ管理:Docker、GKE / GAE / CloudRun
可視化ツール:Google Data Portal / Tableau
分析環境:Jupyter Notebook / Google Colab / Google Cloud ML
監視:Cloud Logging / Stackdriver Logging
その他:Git / GitHub / Slack / Notion

必須スキル
[データサイエンス]
統計検定2級レベルの知識
機械学習・統計モデルの構築、およびモデルに基づく分析の経験
デジタルプロダクトのデータ分析経験
アンケート調査設計と調査結果分析への興味関心
[ビジネス]
論理的思考力(定量思考力/要約力/仮説構築能力など)
ドキュメント作成能力 (見栄えではなく、構成の組み立て方やわかりやすさが担保できる)
ビジネスサイドと円滑なコミュニケーションを図りながら分析を進めることができる
[エンジニアリング]
SQLを利用してデータを加工・集計した経験
  ・100~200行のコードを読み書きできる
  ・結合, CTE (WITH句)・サブクエリ, ウィンドウ関数が利用できる
Python・Rなどによる集計やモデル構築・可視化の経験
  ・numpy, pandas などの集計用ライブラリの利用経験
  ・scikit-learn,statsmodels などの機械学習ライブラリの利用経験
  ・matplotlib, seaborn などの可視化ライブラリの利用経験
案件内容

【業種】

大手自動車メーカー
【案件概要】

・車両企画担当部署における電気自動車の車両全体性能に関する分析依頼

・電気自動車の各種センサー・ソフトウェアから収集された走行データを用いて、各機種ごとのドライバーの運転行動を分析し、現状を把握する。
【職種】

データサイエンティスト/アナリスト
【対応内容】

・分析設計

・SQLを用いたDBからのデータの抽出・加工

・Pythonを用いた集計・分析・可視化作業

・Powerpointでの分析レポート作成作業

・クライアントミーティングへの参加・分析レポートの説明

・Teams上でのクライアントとのコミュニケーション

・社内ミーティングへの参加

   

【開発環境】

・PC:Windows (クライアント支給)

・データベース:Amazon Redshift

・クラウドストレージ:Amazon S3

・使用言語:SQL、Python

・クエリ実行環境:SQL workbench

・Python実行環境:JupyterNotebook

・コミュニケーションツール:Slack(グラフ社内)、Teams(クライアント)

必須スキル
・Python(pandas, numpy, matplotlib, その他のライブラリ)を用いたデータの集計・分析・可視化経験(pandas, numpy)
・SQLを用いたデータの抽出・集計・加工経験
案件内容

・機械学習/深層学習の研究/アルゴリズム実装
・大手企業と連携した研究/ソリューション開発、自社プロダクトの開発

必須スキル

・Scipy/Numpy, Scikit-Learn, Pandas, Tensorflow, Keras, Chainer, PyTorchなどのフレームワークを利用した機械学習における実装経験
・機械学習の理論的背景を理解
・機械学習のモデルの理解(線形回帰, アンサンブル学習, 勾配ブースティング, RNN, CNN, GCN, GAN, YOLOなど)
・論文のモデルを実装する能力
・複数のセンサやデバイスを用いたシステムの構築・運用経験
・機械学習を用いたロボット制御システムのインテグレート経験
・高いコミュニケーションスキル(ビジネスレベルの日本語)
※全てを満たしている必要はございません。

案件内容

●電力の需要/発電予測等に関連するデータ分析作業
-基本的には、収集されたデータをもとに作業を進めることになる予定。

必須スキル

・機械学習のデータ前処理を自分で考えて実装することができる
・Pandas/Numpy等を利用した分析ができる(JupyterNotebook/Lab環境等)
・Pythonでscikit-learnを用いて自分で機械学習モデルを構築できる、など。

案件内容

=短期的=

  • ユーザーの行動/心理に関する仮説検証/仮説探索
  • A/Bテストによる施策の効果検証
  • 統計的因果推論による施策の効果検証
  • 自由記述データの自然言語処理
  • 上記に関する開発/マーケティング側とのコミュニケーション
    =長期的=
  • 定型レポートのワークフロー開発/ダッシュボード構築
  • コンテンツやオンラインイベントのレコメンド
  • 検索エンジンのアルゴリズム改良
  • コンテンツの画像情報/音声情報を用いた機械学習
必須スキル

◆データサイエンス
– 統計検定2級レベルの知識
– 機械学習・統計モデルの構築、およびモデルに基づく分析の経験
– マーケティング又は教育領域のデータ分析経験
◆ ビジネス
– 論理的思考力(定量思考力/要約力/仮説構築能力など)
– ドキュメント作成能力 (見栄えではなく、構成の組み立て方やわかりやすさが担保出来る)
– 開発/マーケティング側とコミュニケーションしながら分析を推進できる
◆ エンジニアリング
– SQLを利用してデータを加工・集計した経験
・100~200行のコードを読み書きできること
・結合, CTE (WITH句)・サブクエリ, ウィンドウ関数が利用できること
– Pythonによる集計やモデル構築・可視化の経験
・ numpy, pandas などの集計用ライブラリの利用経験
・ scikit-learn などの機械学習ライブラリの利用経験
・ matplotlib, seaborn などの可視化ライブラリの利用経験
– Git・GitHubの利用経験

検索結果19件中1-10件