Data Ingenieur — Cartier
Rollenüberblick
Referenzcode: JR123788 Die Geschichte von Cartier basiert auf Neugier und Leidenschaft. Seit mehr als 170 Jahren haben wir einen mutigen, wegweisenden Geist angenommen, der unsere Teams in allen Métiers von unseren Boutiquen bis zu unseren Werkstätten und Unternehmensbüros weiter inspiriert. Unsere 10.000+ Kollegen von mehr als 105 Nationalitäten sind vereint von einem gemeinsamen unabhängigen Geist und Engagement für Exzellenz, die unser Maisons Erbe kontinuierlich bereichern wollen, indem sie die Grenzen von Kreativität und Innovation vorantreiben. „Gibt uns an, die Macht von #data zu entfesseln, unsere Cloud-Plattformen zu nutzen und in maßstäblichen hochmodernen Initiativen einzusetzen! Sie werden Teil eines jungen, dynamischen und talentierten Teams sein, das an Analytik und künstlicher Intelligenz mit realen, effektvollen Geschäftsanwendungen arbeitet.“ — Thomas M.; Data Officer
- Als Data Engineer sind Sie für den Aufbau und die Aufrechterhaltung der Daten- und BI-Infrastruktur verantwortlich, die unsere Analyse- und ML-Initiativen erfüllt. - Sie werden skalierbare Datenpipelines entwerfen, die Datenqualität sicherstellen, selbstständige analytische Fähigkeiten ermöglichen und BI-Produkte über die gesamte Organisation aufbauen. - Innerhalb des Cartier Data Office bauen Sie geschäftsbereite Datenmodelle, leistungsstarke Infrastruktur und umfangreiche Reporting-Dashboards. - Analytics-Fähigkeiten mit Looker: Sie konfigurieren und pflegen Looker Dashboards und erforscht, übersetzen komplexe Geschäftsfragen in handlungsfähige Einblicke. - Sie trainieren "Betrachter" und "Explorer", um das Beste aus der Plattform zu bekommen. - Datenmodellierung & Transformation: Sie entwickeln und implementieren dbt Modelle und dimensionale Daten-Marts, Anwendung von Software Engineering Best Practices (Versionskontrolle, Test) auf die Analyseschicht. - Pipeline Engineering: Sie bauen und pflegen ETL/ELT-Pipelines mit Airflow/Apache Composer und sorgen für eine nahtlose Datenaufnahme in BigQuery. - Platform Operations: Sie überwachen die Gesundheit der Datenplattform, Probleme bei der Fehlerbehebung von Qualitätsproblemen und implementieren die Datenverwaltung und die Zugriffskontrolle. - Dokumentation: Sie werden Datendefinitionen und Zeilen beibehalten und sicherstellen, dass Looker eine "einzige Quelle der Wahrheit" für die Organisation bleibt.
- Sie haben einen Master-Abschluss in Informatik, Data Engineering oder einen verwandten wissenschaftlichen Bereich und 3-5 Jahre Erfahrung in der Datentechnik oder Analytik Engineering. - Sie haben ein starkes Know-how in Looker (LookML) oder PowerBI und SQL/DBT. - Du weißt, wie man anspruchsvolle Dashboards und die Transformationsschichten baut, die sie treiben. - Sie haben ein tiefes Verständnis von Google Cloud Platform (BigQuery) und sind Experte in SQL und Python. - Sie haben Erfahrung beim Bau von Pipelines mit Airflow/Apache Composer. - Sie arbeiten gerne in einer schnelllebigen Umgebung und liefern schnell neue Features für anspruchsvolle Geschäftskunden mit einem Agile/DevOps-Betriebsmodell.
Wichtige Anforderungen
- Bachelor-Abschluss in Informatik, Ingenieurwesen oder einem verwandten Fachgebiet
- Nachgewiesene Erfahrung als Data Engineer oder in ähnlicher Position
- Gute Kenntnisse in SQL und Programmiersprachen wie Python oder Java
- Erfahrung mit Datenmanagement-Tools wie Hadoop, Spark oder Kafka
- Kenntnisse in relationalen und NoSQL-Datenbanken
- Fähigkeit, in einem Teamumfeld zu arbeiten und mit verschiedenen Stakeholdern zusammenzuarbeiten
- Ausgeprägte Kommunikations- und Problemlösungsfähigkeiten
- Französischkenntnisse sind von Vorteil