• Overal

Categorie: IT-services

Locatie: Arnhem Gelderland Netherlands

Locatie: Arnhem (hybride)
Uren per week: 32–40
Startdatum: zo snel mogelijk

Functieomschrijving

Je versterkt een DevOps-team dat een modern, cloudgebaseerd dataplatform bouwt en beheert op Azure. Met jouw expertise richt je services in zoals Azure Data Factory, Azure Databricks en AKS, en automatiseer je end-to-end data-workflows. Je borgt performance, betrouwbaarheid en security en zorgt dat collega’s in staat zijn hoogwaardige data-oplossingen snel in productie te nemen.


Verantwoordelijkheden

  • Ontwerpen, implementeren en onderhouden van schaalbare data-oplossingen met Azure-services

  • Beheren van containerized applicaties in Azure Kubernetes Service (AKS)

  • Bouwen en onderhouden van CI/CD-pipelines voor deployment en geautomatiseerd testen

  • Ontwikkelen van data-processing en integratie-workflows in Python, Java en SQL

  • Provisionen en beheren van cloud-infrastructuur met Infrastructure as Code (Terraform of Bicep)

  • Ontwikkelen en integreren van RESTful API’s voor data-uitwisseling

  • Automatiseren van event-driven workflows en systeemintegraties

  • Toepassen van logging, monitoring en observability om hoge beschikbaarheid en fouttolerantie te garanderen

  • Schrijven en onderhouden van unit- en integratietests

  • Troubleshooten en oplossen van issues in (pré)productie-omgevingen

  • Actief bijdragen aan kennisdeling, design-discussies en technische reviews


Eisen

  • HBO- of WO-diploma in Computer Science, Engineering of vergelijkbaar

  • Minimaal 7 jaar ervaring met Microsoft Azure (inclusief AKS, Data Factory, Data Lake Storage, Databricks)

  • Diepgaande kennis van Azure Databricks: Delta Lake, notebook orchestration, structured streaming en performance-optimalisatie

  • Ruime ervaring met CI/CD-tools (Azure DevOps, GitHub Actions, Jenkins of vergelijkbaar)

  • Sterke programmeer- en scriptingvaardigheden in Python, Java en SQL

  • Ervaring met Infrastructure as Code (Terraform of Bicep)

  • Bekend met RESTful API-ontwikkeling en integraties

  • Ervaring met event-driven architecturen en geautomatiseerde workflows

  • Inzicht in data-engineeringprincipes (data-modelleren, ETL/ELT-patronen, governance)

  • Kennis van big-data frameworks (Apache Spark, Kafka, Hadoop) is een pré

  • Uitstekende analytische en probleemoplossende vaardigheden

  • Vloeiende beheersing van Engels


Wensen

  • Ervaring met data-lakehouse of data-mesh architecturen

  • Kennis van MLOps en machine learning workloads in Databricks

  • Ervaring met security best practices en compliance-raamwerken

  • Affiniteit met open-source tooling en community-initiatieven

  • Kennis van messaging-oplossingen en serverless eventing

Wil jij bouwen aan het hart van een cloud-gebaseerd dataplatform en impact maken binnen een ambitieus DevOps-team? Solliciteer dan snel!

Gegevens

Source
IT-idiots® – Vacatures


Geverifieerd door MonsterInsights