Dateningestion und -verarbeitung großer Datensätze aus heterogenen Quellen, z. B. Dynamics, Dateien, SQL
Konzeption, Betrieb und Optimierung von Datenpipelines in Microsoft Fabric
Performance-Optimierung von Spark-Workloads in Bronze-, Silver- und Gold-Layern
Migration und Integration bestehender Power-BI-Reports in die Fabric-Lakehouse-Architektur
Analyse und Weiterentwicklung bestehender Notebooks wie Azure Databricks und PySpark
Modellierung und Pflege des Lakehouse-Datenmodells
Monitoring, Alerting und Weiterentwicklung der Datenarchitektur
Das macht dich für uns so besonders:
Studium im Bereich Informatik, Statistik, Software Engineering, Wirtschaftsingenieurwesen oder eine vergleichbare Qualifikation
Erfahrung im Umgang mit Microsoft Fabric, SQL, PySpark, Power BI, Azure Data Factory und Azure Data Lake (ADLS Gen2)
Erfahrung im Umgang mit Python und Azure Databricks von Vorteil
zuverlässige, strukturierte und lösungsorientierte Arbeitsweise, sowie proaktiver Wissensaustausch und Eigeninitiative
sehr gute Deutsch- und Englischkenntnisse
ep ist eine Vision, bei der Menschen, Ideen und Technik zusammenkommen. Unseren Mitarbeitern und Bewerbern bieten wir die besten Karriereaussichten – beide Seiten gleichermaßen im Fokus.
Wir nutzen Cookies, um dir eine bestmögliche Nutzungserfahrung auf unserer Webseite anbieten zu können. Mit den erhobenen statistischen Daten stellen wir dir Inhalte bereit, die zu deinen Interessen passen und optimieren die Webseite für zukünftige Besucher. Durch einen Klick auf "Cookies akzeptieren" stimmst du der Nutzung aller von uns eingesetzten Cookies zu. Um deine Cookie-Einstellungen individuell anzupassen, klicke auf "Cookie-Einstellungen anpassen" und nach der Auswahl der gewünschten Einstellungen auf "Cookies akzeptieren". Weitere Informationen, wie wir deine Daten schützen, findest du in unserer Datenschutzerklärung.