top of page

Machine Learning Engineer (m/w/d)

Machine Learning Engineer (m/w/d)

Gehalt: 75.000 – 130.000 € brutto p.a. (je nach Erfahrung und Seniorität)
Standort: Remote (Deutschland) | Start: Q1 2026

 

Über die Rolle

In dieser Position übernimmst du eine zentrale Rolle beim Aufbau produktionsreifer KI-Systeme, die komplexe Datenströme aus Sprache, Text und Bild verarbeiten.

Dein Schwerpunkt liegt darauf, Machine-Learning-Modelle in performante, skalierbare Anwendungen zu überführen, die in anspruchsvollen Echtzeit-Umgebungen eingesetzt werden.

Dabei entwickelst du hochverfügbare Inferenzpipelines, optimierst bestehende Modelle für Latenz und Effizienz und gestaltest die zugrunde liegende MLOps-Infrastruktur aktiv mit.

Du arbeitest eng mit Data Scientists, Software Engineers und DevOps-Teams zusammen, um innovative KI-Lösungen zuverlässig in den produktiven Einsatz zu bringen – vom ersten Deployment bis zum laufenden Monitoring.

 

Deine Aufgaben

  • Entwicklung und Deployment von ML-Modellen in Produktionsumgebungen
  • Aufbau von skalierbaren Inferenzpipelines (z. B. mit Triton Inference Server oder TorchServe)
  • Implementierung von RAG-Pipelines (Retriever-Augmented Generation) mit Vektordatenbanken wie pgvector oder Milvus
  • Entwicklung von Streaming-Analytics-Lösungen für Video- oder Sprachdaten
  • Aufbau und Pflege von MLOps-Prozessen: Monitoring, A/B-Tests, Rollbacks, Model Registry
  • Optimierung von Modellen (Quantisierung, Pruning, Distillation) für maximale Performance
  • Verwaltung und Skalierung von GPU-Infrastrukturen (Kubernetes, Autoscaling)
  • Enge Zusammenarbeit mit Data Scientists, DevOps und Software Engineers

 

Das bringst du mit

  • 3+ Jahre Erfahrung im Machine Learning Engineering oder in vergleichbaren Rollen
  • Sehr gute Python-Kenntnisse sowie Erfahrung mit gängigen Frameworks (PyTorch oder TensorFlow)
  • Nachweisbare Erfahrung im Produktivsetzen von Modellen (NLP, ASR oder Computer Vision)
  • Fundierte Kenntnisse in Containerisierung und Orchestrierung (Docker, Kubernetes)
  • Erfahrung mit GPU-Serving und CUDA-Optimierung
  • Sicher im Aufbau von API-basierten ML-Services und CI/CD-Pipelines
  • Performance-getriebene Denkweise – du misst Erfolg in Latenz, Kosten und Stabilität
  • Strukturierte, teamorientierte Arbeitsweise und ein hohes Qualitätsbewusstsein

 

Nice-to-have

  • Erfahrung mit LLMs und RAG-Systemen
  • Kenntnisse in Video-Analytics (DeepStream) oder Speech Recognition (WhisperX)
  • Umgang mit MLflow oder vergleichbaren MLOps-Tools
  • Erfahrung im öffentlichen Sektor oder mit regulierten Umgebungen
  • Deutschkenntnisse

 

Was dich erwartet

  • Arbeit an Produktions-KI-Systemen mit direktem Impact
  • Zugriff auf aktuelle GPU-Ressourcen
  • Einsatz neuester Technologien im Bereich Serving & Optimization
  • Zusammenarbeit in einem hochqualifizierten Data- & AI-Team
  • Möglichkeit, MLOps-Standards von Grund auf mitzugestalten
  • Remote-first-Arbeitsumgebung mit regelmäßigen Teammeetings in Berlin

 

Haben wir dein Interesse geweckt? Dann melde dich doch gern direkt bei mir:
Constantin Clodius
Mobil: +49 170 3660753
E-Mail: c.clodius@zabelglobal.com

Expertise

Machine Learning Programming

Skills

RAGNLPCI/CDKubernetesDocker

Location

Job Reference
3474
Date Posted
4 November 2025
Industry
Technology - SaaS (Software as a Service)
Employment
Permanent
Working Location
Remote
Level
Senior
Experience
3 years
Compensation
€ 130.000 p.a.
Language
English
Consultant Picture
bottom of page