Weiterentwicklung und Optimierung der Datenarchitektur mit Ausrichtung auf Effizienz, Skalierbarkeit und Datenqualität
Erstellung und Wartung von Datenpipelines und Verwaltung und Optimierung der Dateninfrastruktur
Einbindung neuer Datenquellen sowie Sicherstellung der Datenqualität durch Validierung und Monitoring
Unterstützung bei der Produktentwicklung von IoT-Plattform, Power-BI-Dashboards und KI-Modellen
Zusammenarbeit mit dem Vertrieb zur Umsetzung kundenspezifischer Anforderungen
Überwachung und Fehlerbehebung zur Sicherstellung hoher Verfügbarkeit und Performance
Das macht dich für uns so besonders:
Studium in Informatik, Wirtschaftsinformatik, Data Science, Ingenieurwissenschaften oder eine vergleichbare Qualifikation
Erfahrung in der Entwicklung von Datenpipelines mit dbt, PySpark, Python und SQL
Erfahrung in Data-Lakehouse-Konzepten und Datenmodellierung
Kenntnisse in Databricks und Anwendung von Azure Data Factory
Kenntnisse in Cloud-Technologien und Kubernetes, idealerweise mit Stackable-Erfahrung
Grundverständnis für industrielle Prozesse und IoT-Daten
sehr gute Deutsch- und Englischkenntnisse
ep ist eine Vision, bei der Menschen, Ideen und Technik zusammenkommen. Unseren Mitarbeitern und Bewerbern bieten wir die besten Karriereaussichten – beide Seiten gleichermaßen im Fokus.
Wir nutzen Cookies, um dir eine bestmögliche Nutzungserfahrung auf unserer Webseite anbieten zu können. Mit den erhobenen statistischen Daten stellen wir dir Inhalte bereit, die zu deinen Interessen passen und optimieren die Webseite für zukünftige Besucher. Durch einen Klick auf "Cookies akzeptieren" stimmst du der Nutzung aller von uns eingesetzten Cookies zu. Um deine Cookie-Einstellungen individuell anzupassen, klicke auf "Cookie-Einstellungen anpassen" und nach der Auswahl der gewünschten Einstellungen auf "Cookies akzeptieren". Weitere Informationen, wie wir deine Daten schützen, findest du in unserer Datenschutzerklärung.