RBI-Solutions blog

Interview met Meggie van den Boom: Van Film naar Data Engineering

Meggie maakte een indrukwekkende reis: van verhalen vertellen met film naar structuren bouwen met data. Haar creativiteit uit de filmwereld komt nu perfect tot zijn recht als data engineer bij RBI, waar ze de brug slaat tussen data-analyse en techniek. In ons nieuwste interview deelt Meggie hoe ze de overstap maakte van filmmaker naar data-expert, waarom samenwerken in een dynamisch team haar drijft, en wat haar werk zo uitdagend én boeiend maakt.

Kun je ons iets vertellen over je achtergrond en hoe je bent gekomen waar je nu bent?

“Mijn carrière begon op de kunstacademie, waar ik me specialiseerde in film (fictie). Het was ontzettend leuk te werken met acteurs, sound design en andere elementen van film. Ik ben daar afgestudeerd en het belangrijkste dat ik daar leerde, was hoe je je eigen visie kunt ontwikkelen. In de filmindustrie ligt de nadruk sterk op creativiteit en veel minder op de markt. Na mijn afstuderen ben ik als zzp’er aan de slag gegaan en heb ik verschillende commerciële films gemaakt. Ik kwam op allerlei verschillende plekken en kreeg een kijkje achter de schermen bij verschillende producties. Wat me echter steeds duidelijker werd, was dat de praktische kant van de organisatie me minder trok. Dat paste gewoon niet bij mij.”

Waarom heb je de overstap gemaakt van film naar data?

“Ik heb altijd al interesse gehad in wiskunde en het ontwikkelen van systemen, dus ik voelde me daar sterk toe aangetrokken. Mijn zus werkt al in de data-industrie en zij suggereerde dat het misschien iets voor mij zou zijn. Ze motiveerde me om cursussen te doen. Ik begon met zelfstudie en besloot uiteindelijk om me volledig om te scholen. Om een sterke basis te leggen besloot ik om een half jaar een fulltime bootcamp als data engineer te volgen, met veel focus op data-analyse en data science. Dat was een intensieve periode, maar ik heb het succesvol afgerond.”

Wat gebeurde er daarna?

“Na de bootcamp begon ik bij Maxaro, een bedrijf dat badkamers en tegels verkoopt. Ik startte als webshopbeheerder, maar al snel kwam ik in aanraking met PowerBI en Python, waarmee ik dashboards en rapportages ontwikkelde. Wat ik merkte, was dat ik het samenwerken met andere data engineers en analisten miste. Ik was daar eigenlijk de enige in die rol, waardoor ik weinig kon sparren met collega’s over inhoudelijke keuzes. Dit bracht me ertoe om verder te zoeken naar een rol die beter aansloot bij mijn interesses.”

Hoe ben je uiteindelijk in de consultancy en data engineering terechtgekomen?

“Ik ging aan de slag bij Eiffel, een consultancybedrijf, en dat bleek precies te zijn wat ik zocht. In de coronatijd werkte ik veel op afstand, maar ik kreeg uitdagende opdrachten en trainingen die mijn ontwikkeling stimuleerden. Ik heb veel geleerd van collega’s, bijvoorbeeld door een grote opdracht bij de Rabobank, waar ik werkte aan data-analyse en productoptimalisatie. Hier groeide mijn interesse in de technische kant van data engineering. Ik wilde begrijpen waar data vandaan komt en hoe deze ontsloten kan worden. Uiteindelijk maakte ik de overstap naar Alfa Accountants, waar ik samenwerkte met medioren en senioren in data engineering. Dat was precies de ervaring die ik zocht. Ik wilde werken in een bedrijf waar je elke keer nieuwe uitdagende opdrachten krijgt en waarin je voortdurend kunt groeien.”

En hoe ben je bij RBI terechtgekomen?

“Bij RBI werk ik sinds november 2023 als data engineer. Momenteel ben ik werkzaam bij Alpina, een verzekeringsbedrijf dat een aantal jaar geleden is ontstaan uit een fusie van verschillende bedrijven. Dat maakt het erg complex, want veel systemen zijn nog niet volledig geïntegreerd en de data komt uit verschillende bronnen die niet altijd makkelijk zijn samen te voegen. Mijn rol is om als bruggenbouwer tussen analisten en engineers te fungeren. Ik ontwerp en bouw datamarts voor de data-analisten en besteed veel aandacht aan de kwaliteit en juistheid van de data. Het testen of alles werkt, is een cruciaal onderdeel van mijn werk.”

Wat houdt je werk precies in bij Alpina?

“Ik werk veel met tools zoals DBT (Data Build Tool), SQL en Ninja voor dynamische queries. Databricks is de bron van de data, waar we bewerkingen uitvoeren voordat de data wordt teruggeplaatst. Daarnaast gebruik ik ADF (Azure Data Factory) voor data-integratie. Het is een technische uitdaging, maar ik vind het erg leuk om complexe problemen op te lossen en ervoor te zorgen dat de data betrouwbaar is voor de teams die ermee werken.”

Hoe heb je de technische kennis opgebouwd die je nu gebruikt?

“Mijn kennis is grotendeels zelf opgebouwd. Na de bootcamp had ik een basis, maar bij Maxaro ben ik veel gaan experimenteren en heb ik zelfstudie gedaan met behulp van YouTube tutorials en andere bronnen. Het belangrijkste voor mij is dat ik een goed begrip heb van architectuur en de keuzes die gemaakt worden bij het ontwikkelen van systemen. Veel online cursussen zijn vrij oppervlakkig; de echte uitdagingen ontdek je pas wanneer je er in de praktijk mee aan de slag gaat. Het blijven leren is dus essentieel. Ook voor nieuwe medewerkers stel ik altijd een plan op met theorie en use cases, zodat ze het ook kunnen toepassen in de praktijk.”

Wat is de reden dat je hebt gekozen voor een functie bij RBI?

“RBI sprak me aan vanwege de korte lijntjes en de open cultuur. Het is een klein bedrijf, en dat maakt het heel toegankelijk en dynamisch. Veel collega’s zitten in dezelfde ontwikkelingsfase, waardoor er een fijne balans is tussen werken en persoonlijke groei. De ontwikkelkansen die er zijn, vind ik ook aantrekkelijk. Ik ben hier bijvoorbeeld erg blij met de RBI-Friday, waarbij je al je collega’s ziet en gesprekken kunt voeren over alles, niet alleen werk. Je bouwt echt samen iets op met elkaar.”

Hoe zie jij de veranderingen binnen RBI?

“Er is de laatste tijd veel veranderd met de komst van Melvin en Desirée. Er is meer structuur gekomen, een plan, en wat vastigheid. Het is inspirerend om te zien hoe het bedrijf zich ontwikkelt en om daar deel van uit te maken. Het voelt als een plek waar je niet alleen zelf kunt groeien, maar ook kunt bijdragen aan de groei van het bedrijf.”

Wat zou je willen meegeven aan anderen die in de data-industrie willen starten?

“Mijn belangrijkste tip is dat je in de datawereld altijd goed moet communiceren. Je werkt vaak met verschillende teams: de mensen die de data leveren, de mensen die de data gebruiken, en de mensen die er producten mee bouwen. Afstemmen en overleggen is cruciaal om ervoor te zorgen dat alles goed werkt. Ook voor mezelf is het een fijne combinatie van technische skills en sociale interactie. Je kunt daarnaast ook echt je creativiteit kwijt in het vinden van oplossingen voor complexe vraagstukken. Het is dus een vak waarin zowel je technische skills, sociale vaardigheden en zelf je creativiteit goed tot hun recht kunnen komen.”

Wat zijn je toekomstplannen?

“Ik zou graag verder willen leren en certificaten halen, bijvoorbeeld voor DBT en Databricks. Het is altijd goed om je kennis te blijven verdiepen en te zorgen dat je up-to-date blijft. En verder? Ik ben blij met de richting die ik ben ingeslagen en kijk ernaar uit om me verder te ontwikkelen binnen de data engineering.”

Lees verder over data en de diensten van RBI-Solutions in deze blog's:

Data mesh: principes en praktische implementatie

Data mesh: principes en praktische implementatie

Elk relatief groot bedrijf bestaat uit verschillende afdelingen, elk met zijn eigen vraagstukken. Op datagebied is dat niet anders: marketing wil weten hoe campagnes performen, operations wil de huidige voorraad kunnen inzien, finance bewaakt de cashflow en productontwikkeling volgt klantgedrag.

Datamigratie afgerond… en nu?

Datamigratie afgerond… en nu?

Binnen veel organisaties is een datamigratie een enorme mijlpaal. Maandenlang werk je toe naar dat ene moment waarop alle data succesvol is overgezet naar de nieuwe operationele applicatie. Tijdens dat migratietraject worden allerlei controles ingericht: validatieregels, datakwaliteits­checks en integriteitscontroles die ervoor zorgen dat iedere klant, transactie of productrecord correct wordt overgezet. In de praktijk zien we alleen dat die regels direct na de migratie verdwijnen uit beeld. Terwijl ze juist ook dan van grote waarde zijn.

Meggie over haar werk bij de klant

Meggie over haar werk bij de klant

Meggie van den Boom, data engineer bij RBI Solutions, werkt al anderhalf jaar als data consultant bij een financiële dienstverlener. Ze geeft ons vandaag een kijkje in hoe haar werkzaamheden binnen haar team bij de klant eruit zien.

Metadata: je geheime wapen voor observability & governance

Metadata: je geheime wapen voor observability & governance

Metadata voor observability en governance: verder dan information_schema
Een aantal weken geleden, wijdden we een blog aan het gebruik van metadata voor het slimmer ontwikkelen en onderhouden van dataplatforms. Metadata wordt helaas nog vaak gezien als het saaie bijproduct van data: een paar kolomnamen, datatypes en misschien een timestamp, maar in moderne dataplatformen is dat nog maar het topje van de ijsberg. Metadata kan, mits goed benut, een krachtig fundament vormen voor zowel observability als governance. Het kan helpen bij het opsporen van problemen, het begrijpen van datastromen, het garanderen van compliance en zelfs het optimaliseren van prestaties.

Data migratie test en validatiestrategieën: hoe je zeker weet dat je data klopt na een migratie

Data migratie test en validatiestrategieën: hoe je zeker weet dat je data klopt na een migratie

Data migraties zijn voor veel organisaties een uitdaging: je stapt over van een oud systeem naar een nieuw, je moderniseert je datawarehouse of je integreert een nieuw platform na een fusie. Ondanks dat het technisch ‘slechts’ het verplaatsen van data lijkt, komt er meer bij kijken om een goede datamigratie uit te voeren. Hoe weet je zeker dat de data na migratie nog klopt? Dat er niets verloren is gegaan, of erger nog: dat je geen subtiele fouten hebt geïntroduceerd die maanden later pas boven water komen?
In deze blog staan we stil bij test- en validatiestrategieën bij data migraties. We bespreken waarom het testen van een datamigratie fundamenteel anders is dan het testen van een standaard applicatie, welke technieken je kunt gebruiken om betrouwbaarheid te garanderen, en hoe je omgaat met de praktische uitdagingen die je onderweg tegenkomt.

Waarom AI en automatisering niet werken zonder goede data engineering

Waarom AI en automatisering niet werken zonder goede data engineering

AI is hot. Iedereen wil er iets mee. Van slimme voorspellingen tot volledige automatisering van bedrijfsprocessen; organisaties investeren massaal in artificial intelligence. Maar wie verder kijkt dan de hype, ziet dat veel AI-projecten stranden nog voordat ze echt waarde opleveren. Niet vanwege de modellen of de tooling, maar vanwege iets veel fundamentelers: de onderliggende data en hoe je ermee omgaat. Of specifieker: de data engineering erachter. Want zonder robuuste data-infrastructuur is AI net zo betrouwbaar als een kompas in een magneetveld. 

Data-APK: inzicht en zekerheid voor jouw bedrijfsdata

Data-APK: inzicht en zekerheid voor jouw bedrijfsdata

In een tijd waarin beslissingen steeds meer op data leunen, is het essentieel om zeker te weten dat die data klopt. Net als een auto die regelmatig een APK nodig heeft om veilig te blijven rijden, vraagt ook jouw bedrijfsdata om een periodieke check. Bij RBI Solutions noemen we dat de Data-APK: een slimme, laagdrempelige manier om jouw data in kaart te brengen, problemen te signaleren en waardevolle inzichten te bieden die jouw organisatie helpen sneller en beter beslissingen te nemen.

de transitie met Microsoft Fabric

de transitie met Microsoft Fabric

In veel MKB-organisaties is het verzamelen en rapporteren van data nog steeds een tijdrovende en foutgevoelige klus. Excel-bestanden circuleren overal, gegevens worden handmatig gecorrigeerd in verschillende systemen en rapportages worden met de hand bijgewerkt. Het gevolg is dat managers en analisten vaak worstelen met verouderde inzichten, inconsistente cijfers en een gebrek aan overzicht. Hierdoor duurt het langer voordat er goede beslissingen genomen kunnen worden en het vertrouwen in de data neemt af.

Een bekend probleem is dat data uit verschillende systemen, zoals een boekhoudpakket, CRM of HR-software, niet automatisch met elkaar verbonden zijn. Dit leidt tot dubbel werk, handmatige controles en fouten bij het overzetten van data. Denk bijvoorbeeld aan het handmatig aanpassen van uitzonderingen in BTW-tarieven of het dubbel moeten invoeren van klantgegevens. Deze werkwijze kost veel tijd en brengt risico’s met zich mee.

Metagegevens als motor: hoe gebruik van information_schema je dataplatform slimmer kan maken

Metagegevens als motor: hoe gebruik van information_schema je dataplatform slimmer kan maken

Hopelijk weet iedereen die met databases werkt van het bestaan van standaard metagegevens waarmee er gemakkelijk inzicht verkregen kan worden over de structuur, data en opzet van de database. Ook voor dataplatforms zijn deze objecten enorm waardevol. Toch wordt het potentieel van metagegevens nog vaak onderschat, terwijl vrijwel elke (moderne) relationele database, van PostgreSQL tot Snowflake, een krachtig en vaak onderbenut startpunt biedt in de vorm van information_schema.

In deze blog duiken we dieper in hoe metagegevens via information_schema je dataplatform slimmer, transparanter en beheersbaarder maken. Voor zowel data engineers die pipelines bouwen, als analisten die vertrouwen op stabiele datasets, bieden deze metagegevens enorme voordelen. Van automatisch documenteren tot het voorkomen van incidenten: wie information_schema goed gebruikt, bouwt een robuuster platform.

Van tijd naar trigger: De weg naar een event-driven data architectuur

Van tijd naar trigger: De weg naar een event-driven data architectuur

Sinds het begin van het gebruik van Business Intelligence hebben organisaties vertrouwd op periodieke dataverwerking, de zogenaamde ’batch jobs’ die elke nacht draaien. Sindsdien is de behoefte aan snelheid, flexibiliteit en realtime inzichten enorm toegenomen. Die behoefte zorgt dan ook voor een fundamentele verschuiving in hoe we data-architecturen ontwerpen: weg van batch processen, op weg naar een event-driven benadering.

Maar wat betekent dat eigenlijk: ’event-driven’? En waarom zou je hier als data engineer, analist, data scientist of business gebruiker wakker van moeten liggen? In deze blog duiken we in de wereld van event-driven data-architecturen, hun voordelen, uitdagingen, en de tools die deze transitie mogelijk maken.

DataOps, DevOps en MLOps: Oude wijn in nieuwe zakken of écht anders?

DataOps, DevOps en MLOps: Oude wijn in nieuwe zakken of écht anders?

In een data gedreven organisatie vliegen de samenwerkingstermen je om de oren: DevOps, DataOps, MLOps. Deze drie termen, die inderdaad erg hetzelfde klinken (en door sommige organisaties ingevuld worden door een beheerder in een ontwikkelteam te zetten), verschillen in de praktijk aanzienlijk in toepassing, focus en doel. Voor wie dagelijks werkt met data of systemen die op data drijven, is het essentieel om deze termen niet alleen te kennen, maar ook te begrijpen wat ze betekenen en hoe ze zich tot elkaar verhouden. Daar nemen we jullie in deze blog dan ook in mee.

INTERVIEW MET DATA ENGINEER/BI CONSULTANT Said Saoud

INTERVIEW MET DATA ENGINEER/BI CONSULTANT Said Saoud

Wat begon met een goed gesprek en een flinke dosis enthousiasme, groeide uit tot een veelzijdige carrière in data engineering bij RBI. In dit interview deelt Said Saoud zijn reis bij RBI: hoe hij begon, waar hij aan werkt en waarom hij zich thuis voelt in de wereld van data engineering en BI. Benieuwd naar zijn ervaringen, tools en visie op de toekomst van data? Lees het hele verhaal in deze blogpost.