NLEN
Technical support?
035 369 0304
dba@optimadata.nl
Home > Jobs > Vacatures dummy (NIET VERWIJDEREN)

Vacature Data Engineer - Python "hoodie"

Meerdere functies beschikbaar

Job description

Onze klant is constant bezig met innovatie en data is een belangrijke asset om dit mogelijk te maken. Eén van de pijlers om meer controle te krijgen over de data assets, is het centraal GCP cloud-based data platform, genaamd de Operational Data Hub (ODH). Hier verzamelen en verwerken ze data vanuit vele bronnen om er analyses op te kunnen uitvoeren en data producten te kunnen aanbieden. Dit is een centraal onderdeel van de nieuwe data strategie. De ODH moet de controle en regie op data vergroten om er de juiste waarde uit te kunnen halen. Men is in 2019 van start gegaan met een dedicated team.

De Data Pipelines en connecties naar onze bronnen zijn een essentieel onderdeel en mede daarom zoeken wij een aantal Data Engineers in zowel junior, medior als senior rollen die hiervoor verantwoordelijk zijn.

Je zult onderdeel uitmaken van een relatief nieuw team met naast jou, een aantal data gedreven professionals. Afhankelijk van je niveau, kennis en ervaring ben je de drijvende kracht of meewerkend professional achter het bouwen, beheren en onderhouden van de Google Cloud omgeving en werkt hard aan het verspreiden van een data-gedreven cultuur, vooral gedreven vanuit je eigen expertise.

Over de rol

We zoeken een aantal hands-on kandidaten die de volgende punten gaan oppakken.

Technisch beheer en verder ontwikkelen van het (GCP) Operational Data Hub:

  • Verantwoordelijk voor de maintenance en ontwikkeling (van datgene wat niet is vastgelegd in het Managed Service Contract) van onze ODH infrastructuur, software (GCP componenten), schaalbaarheid, toegang, security, etc.
  • Opzetten, implementeren en orkestreren van “data pipelines” (ingestion, transformatie & scheduling) omwille van het in productie brengen van een set aan data producten (b.v. recommenders, forecast modellen).

Ontwikkelen en coördineren van een data engineering roadmap:

  • Je pakt de lead op het uitwerken en implementeren van een data engineering roadmap, zodat het ODH platform future-proof is en de vele use-cases die er liggen vanuit de Digital Roadmap en de data strategie kunnen worden geïmplementeerd.

Ondersteunend in de deployment van advanced analytics modellen:

  • Zorgdragen voor geautomatiseerde pipelines om een groeiend aantal (advanced) analytics data producten in productie te kunnen aanbieden (b.v. door een API).

Acteer als een domein expert:

  • Op het gebied van data engineering ben jij de expert van onze klant en je zorgt middels trainingen en kennissessies dat de kennis verder verspreid wordt binnen de organisatie.

Requirements

Technische skills:

  • Enige hands-on ervaring met het opzetten, managen en uitbouwen van cloud-based data platformen. Omdat de klant GCP gebruikt, is kennis en ervaring met Google cloud technologie een must.
  • Ervaring in het bouwen en uitrollen van data pipelines (ingestion, transformatie en scheduling). Hiervoor worden “workflow tools” gebruikt als Airflow
  • Sterke programmeer skills in Python is een must.
  • Ervaring in het opzetten van zowel SQL als ook NoSQL databases.
  • Algemene kennis van Git, CSV, Flask, API’s en Json
  • Deployen van automation tools e.g. CI/CD om onze data producten – zoals Machine learning producten – in een productie setting te kunnen aanbieden.

Soft skills:

  • Aandacht voor detail in een complex proces-georiënteerd omgeving.
  • Je weet technisch ingewikkelde concepten te vertalen en te communiceren naar een niet-technisch publiek
  • Je staat open om nieuwe skills, programmeertalen, concepten te leren en op te pakken,.
  • Bereidheid om te tijd te investeren om de organisatie stap voor stap mee te nemen in de wens om meer data-gedreven te werken.
  • Talenkennis: Nederlands in woord en geschrift, minimaal begrijpen en verstaan, voertaal team is NL, standups in het Nederlands, eigen bijdrage mag in het Engels, documentatie is NL.

Pré:

  • Beveiliging van het ODH en de data assets is voor jou een top prioriteit.
  • Affiniteit met Advanced Analytics, Data Science is mooi meegenomen.
  • Ervaring met Spark (en of andere big data processing engines) en/of streaming engines als Kineses is een plus.

Benefits

Uiteraard kent deze rol een goede beloning en dito arbeidsvoorwaarden, afhankelijk van instroomniveau.

Naast goede beloning en arbeidsvoorwaarden investeren wij in jouw ontwikkeling. Zo bieden we op allerlei manieren trainingen en cursussen om te blijven leren waaronder ook een mooi pakket aan e-learning modules.

Het concern kent een young professional programma waar je kennis en ideeën kunt uitwisselen met andere young professionals en op die manier ook een bijdrage kunt leveren op concernniveau.

Tenslotte, fitte medewerkers geeft een fitte organisatie. Zo zijn er verschillende gezondheidsprogramma's, bootcamps en hardloopsessies maar ook een FIT programma om in gesprek te blijven met elkaar en een gezonde samenwerking te stimuleren.

Location

Amersfoort

Publication date

15.01.2020

Contact person

Edco Wallet

Other details
Match criteria
Type of contract
  • Permanent at Client
Hours per week
  • 36 - 40 hours
Workexperience
  • Starter
  • Medior
  • Senior
Database platform
  • NewSQL
  • NoSQL
Expertise
  • Python
  • Bash
  • Ansible
  • CI/CD
  • Json
  • Datalake
  • Google Cloud
  • Agile
Region
  • Utrecht
Leave us a messageWe're available to help you
Consultant

Sorry

There is nobody online. Fill out the form below so we can contact you.

Thanks

Thank you for filling out the information, we will get in touch with you.