Job Informationen
Aufgaben: Modellierung der Daten im Big Data- und Cloud-Umfeld Cloud-optimierte Speicherung und Verwaltung der Daten im Data Lake sowie Sicherstellung der Skalierung für grosse Datenmengen Erstellen und Optimieren von Daten-Pipelines Sicherstellung von Datenschutz und Datensicherheit mit Data Governance Umsetzung automatisierter Unit- und Integrations- sowie Performancetests Profil: Abgeschlossene höhere Ausbildung (FH/Uni) in Informatik oder Elektrotechnik Mindestens 3 Jahre praktische Erfahrung mit Big Data-Lösungen (z.B. Apache Druid, Presto/Trino) Schnelles Erlernen und Anwenden von gängigen Open-Source Big Data Tools Praktische Erfahrung mit Skalierbarkeit von grossen Datenbanken (z.B. Kubernetes, Apache Spark, Hadoop) Praktische Erfahrung mit der Entwicklung von Daten-Pipelines (z.B. Apache Airflow, Dagster, Apache Kafka) Gute Sprachkenntnisse in Deutsch und Englisch CH oder EU-BürgerIn (hinsichtlich Arbeitsbewilligung Schweiz)
Benötigte Skills
- Apache
- Englisch
- Linux
- Elektronik
- CLOUD
- Bachelor
- Master
Job Details
-
Pensum Voll-/Teilzeit