Gemeente Rotterdam

Data Engineer Azure

Gemeente Rotterdam

De opdracht­omschrijving

Je bent lid van een multidisciplinair scrumteam en werkt Agile/Scrum aan een grootschalig datafundament project, maar ook aan data prep epics voor verschillende analyse use-cases. Verder help je richting te geven aan de competence van Data Engineering binnen de gemeente Rotterdam en werk je mee aan ons (Azure) platform.

Als Data Engineer werk je aan één of meerdere projecten tegelijkertijd. Dit doe je in een scrumteam van met name Data Scientists en Data Engineers. Daarbij stem je af met de relevante stakeholders zoals Product Owners en eindgebruikers om ervoor te zorgen dat onze oplossing in de behoefte voorziet, duurzaam in gebruik en goed beheersbaar is.

De functie Data Engineer is centraal gepositioneerd binnen een jong team: Advanced Analytics, onder de afdeling Onderzoek en Business Intelligence (OBI). Team Advanced Analytics bestaat uit meerdere scrumteams, ieder met een eigen focus (Geo&Beeldherkenning, Operational Research, Tijdreeksen&ML, Textmining & Datafundament). Je gaat werken in één of meerdere teams en sluit daarnaast aan bij de vakgroep Data Engineers.

Jouw profielJe signaleert problemen en adviseert proactief over oplossingen. Je verplaatst je in de rol van de klant en vraagt je altijd af of jouw oplossing aan zijn/haar doelstelling bijdraagt. Je bent daarbij resultaatgericht en flexibel. Je werkt in een team met zowel collega’s als de klant. Je bent communicatief vaardig in zowel woord als geschrift en bent in staat de vraag achter de vraag stellen om zo tot de kern te komen. Je bent analytisch sterk en behoud het overzicht in complexe en dynamische situaties.

De Eisen

  • Je hebt kennis en werkervaring met Agile/Scrum werken met DevOps/DataOps; Je hebt kennis en werkervaring met SQL; Je hebt kennis en werkervaring met Git binnen DevOps; Je hebt kennis en werkervaring met notebooks (Databricks/Synapse/Jupyter); Je hebt minimaal 2 jaar werkervaring met beheren van containers (Docker/OpenShift/Kubernetes) i.c.m. DevOps CI/CD pipelines; Je hebt kennis en werkervaring met het ontsluiten van open data; Je hebt kennis en werkervaring met het opstellen van analyses en visualisaties; Je hebt kennis en werkervaring met het opstellen en ontsluiten van API’s op Azure.
  • U dient het Curriculum Vitae van de kandidaat te uploaden in deze vraag. Het CV dient ter verificatie van het in de inschrijving gestelde. Vormvereisten: - Volledige naam + voorletters kandidaat - Beschikbaar voor x aantal uren vanaf startdatum - Opleiding - Werkervaring - Specifieke kennis - Systeem kennis - Relevante nevenactiviteiten - Gevraagde certificaten + naam instituut + datum behaald - in het Nederlands - maximaal 5 A4 enkelzijdig groot. U bevestigt het Curriculum Vitae van de kandidaat te hebben geüpload. Knock-out Het bovenstaand gestelde betreft een eis (knock-out). Indien de inschrijving niet aantoonbaar voldoet aan deze eis komt de inschrijving niet voor gunning in aanmerking.
  • 2 relevante referenties, die de volgende gegevens bevatten: naam referent, functie, organisatie, e-mailadres en/of telefoonnummer.
  • Je hebt minimaal een afgeronde hbo-opleiding, in de studierichting wiskunde, computer science of computer engineering; Je hebt minimaal 2 jaar werkervaring als data engineer op het Azure platform in de publieke sector; Je hebt minimaal 5 jaar kennis en werkervaring met Python, specifiek met pySpark; Je hebt minimaal 3 jaar kennis en werkervaring met Azure, op de volgende onderwerpen ADLS Gen2, Factory pipelines, Databricks en DevOps CI/CD pipelines; Je hebt minimaal 3 jaar kennis en werkervaring met data modellering in Synapse (Azure SQL DWH); Je hebt 2 jaar werkervaring met het in productie brengen van data en pipelines; Je hebt de volgende trainingen gevolgd: DP-203 PL-900 AZ-900 AI-900

De Wensen

  • Geef aan of de kandidaat in relatie tot deze uitvraag aantoonbaar beschikt over de volgende ervaring: Kennis en werkervaring met Agile/Scrum werken met DevOps/DataOps; Kennis en werkervaring met SQL; Kennis en werkervaring met Git binnen DevOps; Kennis en werkervaring met notebooks (Databricks/Synapse/Jupyter); Minimaal 2 jaar werkervaring met beheren van containers (Docker/OpenShift/Kubernetes) i.c.m. DevOps CI/CD pipelines; Kennis en werkervaring met het ontsluiten van open data; Kennis en werkervaring met het opstellen van analyses en visualisaties; Kennis en werkervaring met het opstellen en ontsluiten van API's op Azure. Indien u verklaart dat de kandidaat over de genoemde ervaring beschikt dient hij aantoonbaar over de genoemde ervaring te beschikken zodat dit leidt tot een redelijk te verwachten professionele uitvoering van de opdracht en/of vervulling van de functie.

Interesse in deze opdracht?

Zo werkt onze dienstverlening

Deze opdracht is gesloten, reageren is helaas niet meer mogelijk

Gesloten

Mis geen kans, word gratis lid

Ontvang direct alle opdrachten en marktontwikkelingen in je mailbox