Ihre Aufgaben
1. Aufbau und Management der Datenarchitektur
2. Daten-Pipelines mittels Java, Python und SQL umsetzen und warten
3. Design und Umsetzung von verteilten Datenverarbeitungssystemen (Batch und Stream)
4. Zusammentragen, Aufbereiten und Prüfen von Daten für Data Science, Analytics und Dashboarding
5. Umsetzung von datengetriebenen Use Cases in enger Zusammenarbeit mit Data Science
6. Datenqualität sicherstellen und überwachen
Ihre Perspektiven
7. Umfassende Einschulung entsprechend Ihrer zukünftigen Aufgabe
8. Ständige persönliche und fachliche Weiterentwicklung auf Enterprise Niveau
9. Eine leistungsorientierte Entlohnung plus Prämie
10. Sicherer Arbeitsplatz in einem finanzstarken Privatunternehmen
11. Ein modernes und wertschätzendes Arbeitsumfeld inkl. Möglichkeit für Homeoffice und Arbeitszeitflexibilisierung. Zusätzlich genießen Sie zahlreiche Social Benefits (Mitarbeiter*innenrestaurant / Unterstützung für Mittagessen, Inhouse-Pub / Lounge, gratis Parkplätze, umfangreiches Sportangebot, zahlreiche Mitarbeiter*innen-Events, Sprachkurse…)
Ihr Profil
12. Leidenschaft für Cutting-Edge Technologien, Grüne Wiese zum Experimentieren
13. Fähigkeit sich rasch in komplexe, strategische, technische und fachliche Fragestellungen einzudenken und dafür sinnvolle Architekturlösungen zu konzipieren
14. Verständnis für Software Entwicklung, Testing und Application Monitoring
15. Kenntnisse von relationalen Datenbanken und SQL (vorteilsweise auch NO-SQL)
16. Programmierkenntnisse in Python (vorteilsweise auch Java)
17. Umgang mit Tools wie z.B. GIT, Linux/Bash, JIRA etc.
18. Abschluss in Informatik oder Erfahrung im Bereich der Datenverarbeitung und Software Entwicklung
19. Sehr gute Deutsch und Englisch Kenntnisse (min. C1)
Bonuspunkte
20. Aktives GitHub Profil
21. Erfahrungen mit golang
22. Blog zum Thema Data Engineering, Big Data oder Data Science
Ihre Herausforderungen
23. Parallele Datenverarbeitung bzw. Workflow Management (z.B. Kubeflow)
24. Anbindung an Streaming/event-driven Plattformen (Kafka)
25. ETL Pipelines mittels Kafka Connect bzw. Apache Beam
26. DataOps Pipelines in der Cloud (z.B. mittels PubSub via DataFlow in der Google Cloud Platform)
Das Mindestgehalt für diese Position liegt – abhängig von Qualifikation und Erfahrung – bei € 55.000,-- brutto pro Jahr. Das Jahresgehalt setzt sich zusammen aus 14 Monatsgehältern und einer garantierten Prämie. Nach Absolvierung des Traineeprogrammes bieten wir Ihnen zusätzlich eine leistungsbezogene Erfolgsbeteiligung.
Alle Menschen sind uns herzlich willkommen, unabhängig von beispielsweise: Herkunft, Beeinträchtigung, Geschlecht, Orientierung.
Ihr Arbeitsplatz ist in Wiener Neudorf (am südlichen Stadtrand von Wien). Ein kostenloser Shuttle-Service aus Wien steht Ihnen zur Verfügung bzw. unterstützen wir Sie bei Bedarf auch gerne bei der Wohnungssuche.
Gestalten Sie mit uns die Zukunft der WALTER GROUP und bewerben Sie sich online!