Aufgaben
1. Architektur-Design: Pflege der Dateninfrastruktur (Lakehouse/ Data Warehouse OneSource), um strukturierte und unstrukturierte Daten optimal zu speichern, zugänglich zu machen und für Analysen vorzubereiten
2. Datenmodellierung: Entwicklung von Datenmodellen, die sicherstellen, dass Daten effizient strukturiert, integriert und für Berichte, Analysen und Machine Learning bereitgestellt werden
3. Datenintegration: Implementierung von ETL/ELT-Prozessen (Extract, Transform, Load), um Daten aus verschiedenen Quellen zu sammeln und in das zentrale System zu integrieren
4. Performance-Optimierung: Sicherstellen, dass die Datenplattform für Abfragen und Datenverarbeitungsprozesse performant bleibt, indem Indizes, Partitionierung, und geeignete Speicherformate genutzt werden
5. Datenqualität & Governance: Implementierung von Richtlinien zur Datenqualität, Sicherheit und Compliance, sowie Sicherstellen der Einhaltung von Standards und Best Practices
6. Zusammenarbeit mit Stakeholdern: Enge Zusammenarbeit mit Datenanalysten, Data Engineers und Business-Teams, um deren Anforderungen zu verstehen und entsprechende Datenlösungen zu entwickeln
Minimum Anforderungen
1. Erfolgreich abgeschlossenes Hochschulstudium im Bereich (Wirtschafts-)Informatik oder Statistik wünschenswert
2. Mindestens erste Berufserfahrung in einer vergleichbaren Position
3. Gute Englischkenntnisse
Was wir bieten
1. Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen
2. Hohes Maß an Eigenverantwortung