top of page

Data Engineer (d/w/m)

Data Engineer (d/w/m) 

Vollzeit | Remote (Deutschland) | Gehalt bis 85.000 € p.a.

 

Über unseren Kunden

Unser Kunde ist ein technologisch führendes Unternehmen im Bereich digitaler Entertainment- und Plattformlösungen. Mit einem starken Fokus auf Daten, Skalierbarkeit und Innovation entwickelt das Unternehmen moderne Systeme, die täglich große Datenmengen in Echtzeit verarbeiten.
Dich erwartet ein stabiles, nachhaltig wachsendes Umfeld mit hoher technologischer Ambition, kurzen Entscheidungswegen und echter Hands-on-Mentalität. 

 

Deine Aufgaben

  • Du baust eine moderne Data-Lake-Architektur auf AWS (u. a. S3, Glue, Athena, Iceberg) mit auf und entwickelst sie kontinuierlich weiter.
  • Du designst und implementierst skalierbare ETL-/ELT-Pipelines mit Apache Airflow, dbt und Apache Spark, von Echtzeit-Events bis zur strukturierten Medallion-Architektur.
  • Du konzipierst und implementierst ein umfassendes Event-Tracking- und Analytics-System, um Nutzerverhalten, System-Performance und Business-KPIs in Echtzeit messbar zu machen.
  • Du stellst Datenqualität sicher durch dbt Tests, Great Expectations und Monitoring-Lösungen.
  • Du arbeitest eng mit interdisziplinären Teams (Backend, Frontend, Statistik, Finance etc.) zusammen und lieferst performante Datenanalysen und Reports.
  • Du optimierst Abfragen, Speicherstrategien und Kosten für Analytics-Workloads und automatisierst Datenprozesse mit Infrastructure as Code.

 

Dein Profil

  • Du hast ein abgeschlossenes Studium der Informatik oder eine vergleichbare Qualifikation.
  • Du bringst mindestens 3–4 Jahre Berufserfahrung im Data Engineering oder einem verwandten Bereich mit.
  • Du verfügst über sehr gute Python-Kenntnisse (z. B. pandas, pyarrow, boto3).
  • Du hast fundierte Erfahrung mit Cloud-Plattformen, idealerweise AWS, und modernen Data-Lake-Technologien.
  • Du hast bereits mit Message Queues (z. B. RabbitMQ) und Workflow-Orchestrierung (Airflow oder vergleichbare Tools) gearbeitet.
  • Spaltenorientierte Dateiformate (Parquet) und moderne Table Formats (Iceberg, Delta Lake) sind dir vertraut.
  • Erfahrung mit dbt, Spark sowie BI-Tools wie Tableau oder Metabase ist ein Plus.
  • Du verstehst Datenmodellierung, Partitionierungsstrategien und Performance-Optimierung.
  • Du bist offen für KI-Technologien und übernimmst gerne Verantwortung für deren Weiterentwicklung.
  • Du arbeitest selbstständig, organisiert und qualitätsbewusst, bist kommunikationsstark und hast Lust, Dinge aktiv voranzutreiben.
  • Du sprichst sehr gutes Deutsch (C1) und gutes Englisch.

 

Deine Benefits

  • Ein kollaboratives Arbeitsumfeld mit klar gelebten Unternehmenswerten.
  • Nachhaltiges Wachstum statt kurzfristiger Hypes.
  • Hybrides Arbeitsmodell mit maximaler Flexibilität bei Arbeitszeit und -ort.
  • Modern ausgestattetes Office in zentraler Lage in Berlin als Ort für Austausch und Zusammenarbeit.
  • Strukturiertes, intensives Onboarding für einen starken Start.
  • Kontinuierliche Weiterentwicklung durch interne Learning-&-Development-Angebote.
  • Regelmäßige Entwicklungsdialoge und individuelle Entwicklungsmaßnahmen.
  • Attraktive Gesundheitsbenefits wie betriebliche Krankenversicherung, Mental-Health-Angebote und Bike-Leasing.

 

 

Haben wir Dein Interesse geweckt? Dann melde Dich doch gern direkt bei mir:
Constantin Clodius
Mobil: +49 170 3660753
E-Mail: c.clodius@zabelglobal.com

Expertise

Data ScienceData Analytics

Skills

Azure Data FactoryAzure Data LakeBigQueryAccord.NET

Location

Job Reference
3631
Date Posted
15 January 2026
Industry
Education & Online Learning
Employment
Permanent
Working Location
Hybrid
Level
Senior
Experience
5 years
Compensation
€ 85.000 p.a.
Language
German, English
Consultant Picture
bottom of page