掲載日 ・ 2026/04/22
パーソルクロステクノロジー株式会社
パーソルクロステクノロジー株式会社:DX456【首都圏/DX】G3以上/データエンジニア
600~1200万円
東京都
パーソルクロステクノロジー
SIer・受託開発
データエンジニア
600万~
会社名
パーソルクロステクノロジー株式会社
会社概要
テクノロジーソリューション事業
自動車・航空宇宙関連機器・家電・ロボットなどの設計・開発・実験における請負・派遣サービス
ITシステムやアプリケーションのシステム開発・インフラ設計・運用における派遣・準委任・フリーランスサービス
AIやDXを活用したIoT、モビリティサービスの導入支援
ポジション
DX456【首都圏/DX】G3以上/データエンジニア
仕事内容
【募集背景】
私たちITエンジニアリング本部は、パーソルクロステクノロジー最大の組織です。
1,400名のエンジニアが所属し、350社以上のプロジェクトに参画。
システム開発からインフラ、AI・DXまで幅広い領域をカバーしています。
この技術組織で何より大切にしているのは、「個人の成長こそが、組織全体の成長を生み出す」という考えです。幅広い技術領域と豊富なプロジェクトを活かし、新しい技術に触れながら成長できる環境を整えています。
目指すのは“課題を解決するソリューション組織”への進化、そのためにエンジニアの力が必要です。
一人ひとりが理想のキャリアを実現し、その成長がクライアントの成功へつながる、そんな好循環を一緒に生み出していきませんか。
【業務内容】
■募集背景
デジタル化の進展とデータ量の爆発的増加により企業は膨大なデータを活用し、業務の最適化や新たな価値創出を目指しています。
AIや機械学習の発展により、データ分析の高度化が求められ、専門的な知識を持つデータサイエンティストの需要が急増しており、特にマーケティング、金融、医療など幅広い分野でデータ駆動型の意思決定が不可欠となり、その役割はますます重要視されています。
パーソルテクノロジースタッフでもデータ分析に関するプロジェクトが増えて入るため、データの専門家を目指す方の募集を行っております。
■業務概要
・パーソルグループ企業もしくは提携企業にて顧客や社内の部門に対して、
お客様が保有する様々なデータを活用可能な形に処理し、データ分析のための基盤構築をお任せします。 データサイエンティスト/アナリストが行う仕事の基盤をつくり、お客様が抱える課題を解決まで導く業務となります。
■業務詳細
・データ収集・連携
└外部SaaS/業務システムなど異なるソースからのデータ取り込み
└バッチ開発やストリーミング処理
・データ基盤の設計・構築・運用
└DWH・DB・テーブルの設計(SQL、スキーマ、パーティショニング)
└クラウドインフラの構築(AWS/GCP/Azure)、セキュリティ・ネットワーク設定、コスト最適化
・データ整備・品質管理
└ETL/ELTパイプラインの実装(dbt、Apache Kafka、Apache Spark)
└データモデリング(スタースキーマ・Snowflake)、メタデータ管理、データカタログ整備
・データ品質監視
└検査ルール、データガバナンスの設定
└アラート対応、テスト設計
・提供・可視化支援
└分析用マートの提供、BIツールへの接続最適化・可視化(Looker、Tableau、Power BI)
・運用・信頼性
└パイプラインの監視・障害対応・パフォーマンスチューニング
└Gitによる変更管理
【プロジェクト例】
■Databricksを用いたデータ基盤の設計構築
業務内容
・Databricks上のデータ基盤の設計/構築/検証
・SAPのテーブルをDatabricksに連携
・S3のテーブルをDatabricksに連携
・ストリーミングテーブルの実装、ジョブ作成
技術
Databricks, PySpark, SparkSQL, PowerBI, Git
■dbtを用いたETL、データパイプライン構築
業務内容
・データパイプライン構築、フロー図作成
・Bigqueryからのデータ抽出、データマートの設計・開発
・ワークフローの監視
・バッチ処理開発・運用
・Tableauダッシュボードの設計・構築・運用
技術
GCP(Bigquery,GCS), dbt, Tableau, Git
求める経験・スキル
<必須>
・SQL使用経験(DDL使用経験)
・データレイクもしくはDWH、テーブルの設計経験
<歓迎>
・データを用いた課題解決に向けてのPDCAサイクルを回せる方
・プロジェクトマネジメント経験やリーダー経験
・何等かのシステム開発経験(★採用に確認)
※Java、PHP、Ruby、Pythonなど
・クラウド(AWS、GCP、Azure)の経験
・リアルタイム分析基盤(ストリーミング)構築の経験
・Snowflake/Databricksの利用経験
・データパイプライン構築やバッチ処理の経験(dbt、ETL)
・データアナリストとしての分析実務経験
・Python/R等によるデータ分析・機械学習環境の構築・運用経験(★採用に確認)
・分散処理フレームワークの経験(Spark、Apache Hadoopなど)
・開発プロジェクトの推進、顧客折衝の経験
・企業のビジネス理解、知識
【求める人物像】
・挑戦する意欲を持ち続けられる人
・目的思考で動ける人
・チームで成果を高められる人
・長期的なキャリア形成を考えられる人