掲載日 ・ 2026/04/22
株式会社SUBARU
株式会社SUBARU:〇[SUBARU Lab]MLOpsエンジニア
550万円~
東京都
SUBARU
自動車・自動車部品
データエンジニア
500万~
会社名
株式会社SUBARU
会社概要
【自動車】
自動車ならびにその部品の製造、販売および修理
【航空宇宙】
航空機、宇宙関連機器ならびにその部品の製造、販売および修理
ポジション
〇[SUBARU Lab]MLOpsエンジニア
仕事内容
【当事業部の役割】
「SUBARU Lab」は、SUBARUの車のあらゆる道路での安全性を高めていく事を目的に、
2020年12月に新たに渋谷の地にオープンしました。
SUBARUのコアテクノロジーであるアイサイトのステレオカメラの画像認識に、
AIをはじめとした最先端技術を融合していく事で新たな技術革新を生み出していきます。
新しい技術を世の中に役立てたいといった方、技術を進化させることに喜びを感じられるような方に、チームに加わっていただけることを期待しております。
【事業部のビジョン】
リアルワールドの視点でクルマをつくり「2030年死亡交通事故ゼロ※」を目指し、
新時代でも安心と愉しさで選ばれる存在となることを目指しております。
※SUBARU車乗車中の死亡交通事故およびSUBARU車との衝突による歩行者・自転車等の死亡交通事故ゼロを目指す。
【職務内容】
車載向けエッジモデルおよび机上評価用の大規模モデル開発を支える MLOps 基盤の構築・運用 をお任せいたします。
膨大な量の運転データを効率的に活用するための計算基盤とモデル学習・評価パイプラインの構築、データの質と量でモデル改善に貢献するデータセットのキュレーション、モデル分析を支援するBIツール環境の整備など、ML エンジニア/MLリサーチャーの開発を加速する仕組みづくりを行っていただきます。
【業務遂行いただくうえで必要になる技術例】
・クラウド/オンプレミス上における学習・評価パイプライン(MLOps)の設計・構築および保守・運用
・大規模データ学習の高速化を目的とした計算基盤・分散処理・アルゴリズム最適化の検討と実行
・データセットのキュレーション(バランス設計、データリーク防止、品質管理)およびデータセット生成パイプラインの構築
・データやモデル評価指標を統合的に可視化する BI ツール環境の設計・構築
【使用するツール】
※状況により柔軟に変わります
・開発言語/データ操作言語:Python、SQL
・クラウド:GCP、AWS
・OS:Linux、Windows
・深層学習フレームワーク:TensorFlow(Keras)、PyTorch
・実験管理/設定/可視化:MLflow、Hydra、TensorBoard
・MLプラットフォーム/パイプライン:Vertex AI、SageMaker
・CI/CD:GCP Cloud Build、AWS CodeBuild、AWS CodePipeline
・データETL/分散処理:Dataflow、EMR(Spark/Hadoop)
・データ分析:BigQuery、Amazon Redshift
・BIツール:Looker Studio、Amazon QuickSight
・オーケストレーション:Apache Airflow、Amazon MWAA
・コンテナ:Docker
・その他:GitLab、Confluence、Jira、Teams
【働く環境について】
研究に必要な物は基本的に自由に利用できます。
ハイスペックデスクトップ環境(例:GeForce RTX 4080搭載PC、5Kモニタ)
オンプレミス計算環境(例:NVIDIA H200搭載マルチGPUサーバーなど)
自動運転用の試験車両および、シミュレーション環境、
海外主要学会への発表/聴講、海外サプライヤやメーカとの協議、
世界中の環境での評価など、グローバルに活躍する機会があります。
そのほかにも「SUBARU Lab」はエンジニアの方が集中してアウトプットを高められるよう、エンジニアファーストの環境を目指し続けています。
【当事業部に関する説明動画】
https://www.rs-information.com/subaru-move?utm_source=ats&utm_medium=js
【SUBARU Labが手掛ける研究テーマ】
https://techplay.jp/video/52
【変更の範囲】
会社の定める業務(※)
(※)業務の都合によっては会社外の職務に従事するため出向又は転属を命じることがあります。
求める経験・スキル
【必須要件】
・MLOps 基盤(学習パイプライン、データ処理、CI/CD 等)の設計・構築・運用経験
・深層学習フレームワーク(TensorFlow / PyTorch)の基礎理解
・AWS / GCP 等のクラウド環境構築・運用経験
・Python を用いた開発経験(実務または個人/研究での継続的な開発とプロダクション品質のテスト/コードレビュー経験)
【歓迎要件】
・商品化、実用化したシステムの開発経験
・チームマネジメント経験またはチームの技術リード経験
・Docker / Kubernetes を用いたコンテナ環境構築・運用経験
・Kafka / Spark / Dask などを用いた分散データ基盤の構築・運用経験
・SQL / PySpark 等を用いたデータ処理・ETL・特徴量生成の経験
・Vertex AI による量子化・モデル最適化など、エッジ推論・高速化の実務経験
【求める人物像】
・自ら進んで新しい技術開発に携わることが出来る方
・失敗を恐れず、挑戦することが出来る方
【備考】
ご応募の際、対外的にわかる成果(学会発表、論文執筆、特許出願、KaggleやAtcoderなどの結果、githubやQiitaなどのアカウント)をお持ちであれば、記載をお願いします。