Du unterstützt die Einführung eines dezentralisierten Data Mesh-Ansatzes und arbeitest an der Entwicklung und Bereitstellung von Data Products, die unsere Teams nutzen können.
Du entwickelst und implementierst ETL-Prozesse, um Daten aus verschiedenen Quellen in unsere neue Daten Landschaft zu laden und für Analysen bereitzustellen.
Du sorgst für eine reibungslose Datenaufnahme (Ingestion) aus unterschiedlichen Systemen und sicherst deren Qualität und Integrität.
Du entwickelst skalierbare und effiziente Datenmodelle für unsere verschiedenen Anwendungsfälle und unterstützt dabei die Erstellung und Pflege von Data Marts.
Du arbeitest gerne mit modernen Technologien, um eine hochverfügbare und skalierbare Dateninfrastruktur aufzubauen.
Du stellst sicher, dass unsere Datenpipeline und -prozesse effizient und robust sind, indem du diese kontinuierlich analysierst und verbesserst.
Das erwartet dich bei uns
Ob im Office oder bis zu 100% remote – du hast die Wahl!
Wir Strausse setzen auf langfristige Beziehungen – auch bei unseren Arbeitsverträgen.
Weiterentwicklung ist dir wichtig? Uns auch! Nutze unser Trainingsangebot.
Deine Gesundheit liegt Strauss am Herzen! Deshalb gibt’s Strauss Care – von Physio im Headquarter bis betriebliche Altersvorsorge ist alles dabei.
Wir feiern unsere Gemeinschaft, unter anderem auf unseren legendären Christmas Partys!
Die Kleinen einfach morgens mit zur Arbeit bringen? Im Straussennest in Biebergemünd können sich die Meister von Morgen richtig austoben – und zwar ganztags.
Top-Infrastruktur nahe der A66 und Ladestationen für dein E-Bike/E-Auto.
On top: 30 Tage Urlaub, Urlaubs- und Weihnachtsgeld, Mitarbeiterrabatte
Das bringst du mit
Du besitzt mehrjährige Erfahrung im Bereich Data Engineering, insbesondere in der DWH/ETL-Entwicklung und Data Ingestion.
Du bringst fundierte Kenntnisse in Data Modeling und in der Erstellung von Data Marts mit und hast idealerweise schon erste Erfahrung in der Implementierung von Ansätzen zum Data Sharing im Data Mesh und in der Entwicklung von Data Products sammeln können.
Du bist sicher im Umgang mit SQL und Python zur Automatisierung von Prozessen und der Erstellung komplexer Datenabfragen sowie Stream Processing mit z.B. Kafka Streams.
Du kennst dich bestens aus, wenn es um Softwareentwicklungszyklen und dessen Best Practices (z.B. CI/CD, GitOps, DDD, Testing) geht.
Du punktest du mit deinen sicheren Skills in Snowflake, MS SQL, Kafka, Kubernetes und MongoDB.
Dein analytisches Denkvermögen, deine Kommunikationsstärke sowie die Bereitschaft, in unserem agilen Softwareentwicklungsteam mitzuarbeiten, zeichnen dich aus.
Deine guten Englisch-Skills in Wort und Schrift kannst du miteinbringen.