Categorie: IT-services
Locatie: Arnhem Gelderland Netherlands
Uren per week: 32–40
Startdatum: zo snel mogelijk
Functieomschrijving
Je versterkt een DevOps-team dat een modern, cloudgebaseerd dataplatform bouwt en beheert op Azure. Met jouw expertise richt je services in zoals Azure Data Factory, Azure Databricks en AKS, en automatiseer je end-to-end data-workflows. Je borgt performance, betrouwbaarheid en security en zorgt dat collega’s in staat zijn hoogwaardige data-oplossingen snel in productie te nemen.
Verantwoordelijkheden
-
Ontwerpen, implementeren en onderhouden van schaalbare data-oplossingen met Azure-services
-
Beheren van containerized applicaties in Azure Kubernetes Service (AKS)
-
Bouwen en onderhouden van CI/CD-pipelines voor deployment en geautomatiseerd testen
-
Ontwikkelen van data-processing en integratie-workflows in Python, Java en SQL
-
Provisionen en beheren van cloud-infrastructuur met Infrastructure as Code (Terraform of Bicep)
-
Ontwikkelen en integreren van RESTful API’s voor data-uitwisseling
-
Automatiseren van event-driven workflows en systeemintegraties
-
Toepassen van logging, monitoring en observability om hoge beschikbaarheid en fouttolerantie te garanderen
-
Schrijven en onderhouden van unit- en integratietests
-
Troubleshooten en oplossen van issues in (pré)productie-omgevingen
-
Actief bijdragen aan kennisdeling, design-discussies en technische reviews
Eisen
-
HBO- of WO-diploma in Computer Science, Engineering of vergelijkbaar
-
Minimaal 7 jaar ervaring met Microsoft Azure (inclusief AKS, Data Factory, Data Lake Storage, Databricks)
-
Diepgaande kennis van Azure Databricks: Delta Lake, notebook orchestration, structured streaming en performance-optimalisatie
-
Ruime ervaring met CI/CD-tools (Azure DevOps, GitHub Actions, Jenkins of vergelijkbaar)
-
Sterke programmeer- en scriptingvaardigheden in Python, Java en SQL
-
Ervaring met Infrastructure as Code (Terraform of Bicep)
-
Bekend met RESTful API-ontwikkeling en integraties
-
Ervaring met event-driven architecturen en geautomatiseerde workflows
-
Inzicht in data-engineeringprincipes (data-modelleren, ETL/ELT-patronen, governance)
-
Kennis van big-data frameworks (Apache Spark, Kafka, Hadoop) is een pré
-
Uitstekende analytische en probleemoplossende vaardigheden
-
Vloeiende beheersing van Engels
Wensen
-
Ervaring met data-lakehouse of data-mesh architecturen
-
Kennis van MLOps en machine learning workloads in Databricks
-
Ervaring met security best practices en compliance-raamwerken
-
Affiniteit met open-source tooling en community-initiatieven
-
Kennis van messaging-oplossingen en serverless eventing
Wil jij bouwen aan het hart van een cloud-gebaseerd dataplatform en impact maken binnen een ambitieus DevOps-team? Solliciteer dan snel!
Source ⇲
IT-idiots® – Vacatures
