Ihre Aufgaben:
- Betrieb und Optimierung unserer On-Premise-Data-Lakehouse-Infrastruktur (Terraform, Docker)
- Entwicklung und Automatisierung von Batch- und Streaming-Datenpipelines (polars, Apache Airflow, dbt)
- Design und Entwicklung von Analysen in unseren BI Tools (Apache Superset)
- Mitgestaltung und Umsetzung der Cloud Migrationsstrategie (Azure Data Factory, Azure Databricks)
|
Ihr Profil:
- Erfolgreich abgeschlossenes Studium der (Wirtschafts-) Informatik, Mathematik oder Physik
- Erfahrung in der Entwicklung von Datenbanken, Data Warehouses oder Data Lakes
- Erfahrung im Aufbau und Betrieb skalierbarer Datenarchitekturen
- Fundierte Kenntnisse in SQL und Python
- Erfahrung in der Anwendung von Software Engineering Best Practices wie CI/CD, Testing und Code Sharing (Git) zur Sicherstellung sauberer und robuster Prozesse
- Fließende Deutschkenntnisse in Schrift und Sprache sowie sehr gute Englischkenntnisse
|