🔐
Career Hub
Accès restreint · Entrez le mot de passe
🧠
Martin Van Mollekot
Mechanical Engineer · Business Analyst · AI & Data
📍 Waterloo, Belgique  ·  🏢 Akkodis  ·  🎓 UCLouvain, cum laude
Ingénieur mécanique de formation (UCLouvain, cum laude), reconverti vers la data strategy et le business consulting. Deux ans chez Dataroots en tant que Business Analyst sur des projets Azure, Power BI et dbt pour des clients de la fraude à la détection en passant par l'analyse client dans le football belge. Aujourd'hui Business Manager chez Akkodis, où je recrute et je pilote des équipes d'ingénieurs en IA, data, aérospatial et défense. Je parle tech et business — c'est rare, c'est mon avantage.
Power BI Data Analyst Associate dbt Fundamentals Collibra Data Steward SolidWorks Associate Azure · Fabric · Databricks
Compétences
🐍 Programmation
Python C / C++ Java SQL DAX
☁️ Data & Cloud
Azure MS Fabric Databricks dbt Power BI Collibra
🔧 Ingénierie
SolidWorks Fusion 360 Impression 3D IoT / embarqué
💼 Business
Business Analysis RFP / Proposals Project Management Account Development Recrutement
🌍 Langues
🇫🇷 Français (natif) 🇬🇧 Anglais (courant) 🇳🇱 Néerlandais (intermédiaire)
🤝 Soft Skills
Curiosité Problem Solving Proactivité Communication Bridge Tech/Business
Expérience
🚀
Akkodis
Business Manager — AI, Data, Aerospace & Defense
Juin 2025 → Aujourd'hui
  • Recrutement et constitution d'équipes d'ingénieurs pour des projets IA, data, aérospatial et défense
  • Partenariat avec des clients (Pharma, Défense, Transport) pour designer des solutions engineering sur mesure
  • Management de consultants en mission : performance, engagement, développement de carrière
  • Développement de comptes et croissance business en alignant expertise technique et priorités stratégiques
RecrutementAccount ManagementAI/DataAérospatialDéfense
📊
Dataroots
Business Analyst — Data Strategy Business Unit
Sept 2023 → Juin 2025
  • RVA/ONEM : outils de détection de fraude ; pont entre équipes techniques et métier
  • Institut de recherche canadien : dataviz + transformation ; évolution en Project Manager sur Azure
  • Club de football belge (top tier) : modèle dbt + dashboards Power BI pour analyse client
  • Business Dev : contribution à plusieurs RFPs, dont un piloté de A à Z
  • Promotion de l'adoption de nouvelles plateformes de données via des use cases concrets
Power BIdbtAzureData ModelingProject ManagementRFP
🏛
Deloitte
Intern — Risk Advisory (EERM)
Fév 2023 → Mai 2023
  • Outil automatisé d'évaluation de la maturité Cloud Financial Management (FinOps) de clients
  • Génération automatique de livrables avec niveaux de maturité + recommandations
  • Stack : Power BI + UiPath + connaissance AWS, Azure, GCP
Power BIUiPathFinOpsAWS/Azure/GCP
🎓
UCLouvain — École polytechnique de Louvain
Master in Mechanical Engineering, cum laude
2018 → 2023 · Spécialisations : Computer Science & Mécanique
  • Thèse : Création d'un laryngophone connecté pour la rééducation vocale — device design, algorithme IA, application
  • Programme INEO (entrepreneuriat interdisciplinaire) — Louvain School of Management
IA/MLIoTEntrepreneuriatR&D
Préparation aux postes
Tes cibles & comment les attaquer

Q&A d'entretien, fit analysis, ressources et tips CV pour chaque rôle.

🟢
Business Analyst — Odoo / ERP
Ex : Odoo SA, Captivea, Smile, intégrateuers Odoo, entreprises avec Odoo interne
💰 45 000 – 65 000 € brut/an (BE)
Adéquation globale85%
✅ Pourquoi tu fits
  • 2 ans de BA chez Dataroots : analyse de processus métier, liaison tech/business, documentation des besoins
  • Expérience RFP : tu sais pitcher des solutions techniques à des décideurs
  • Python + SQL : tu peux comprendre/customiser des modules Odoo si besoin
  • Expérience multi-secteur (fraude, sport, recherche) = polyvalence client
  • Anglais courant + FR natif + NL intermédiaire = parfait pour Odoo (Louvain-la-Neuve)
  • Pas d'expérience directe sur Odoo — à compenser par la démo rapide (voir ressources)
  • Pas de certif Odoo — passe le Functional exam en ligne (gratuit)
🎙 Questions d'entretien + réponses suggérées
  • Structure BPMN/User Story : "Chez Dataroots, pour le projet RVA, j'organisais des workshops avec les équipes métier pour cartographier leurs processus actuels. Je documentais ensuite en user stories (As a… I want… So that…) et je validais avec le client avant de briefer les devs. Sur Odoo, j'utiliserais la même approche, en mappant les flux sur les modules existants (Sales, Inventory, Accounting…)."
    💡 Montre que tu connais la notion de gap analysis : ce que le client fait aujourd'hui vs ce qu'Odoo fait nativement.
  • Odoo = all-in-one open source, prix/module, communauté immense. "Odoo se distingue par son modèle open source et sa modularité : le client démarre avec CRM + Sales, et ajoute Manufacturing ou Accounting plus tard sans migration complexe. SAP est enterprise mais lourd et cher. Dynamics 365 est plus fort sur le monde Microsoft. Odoo est idéal pour les PME/ETI qui veulent une solution intégrée sans le coût SAP."
    💡 Lis le comparatif Odoo vs SAP sur leur site. Saches citer 3 clients Odoo belges connus (ex: UCB, AB InBev utilisent d'autres ERP, mais des exemples Odoo sont sur leur site).
  • "Je procède en 3 étapes : 1) Comprendre le vrai besoin — souvent le client demande une feature mais le besoin réel est différent. 2) Explorer les alternatives natives — Odoo a 40+ apps, souvent ça existe déjà autrement. 3) Si développement nécessaire : estimer l'effort avec les devs, présenter ROI vs coût au client. J'ai fait ça chez Dataroots quand un client voulait un dashboard custom que Power BI gérait nativement une fois bien configuré."
    💡 Odoo valorise la philosophie "standard first" — ne pas sur-customiser.
  • "Kick-off avec le dirigeant + heads of department → cartographie des processus clés (ventes, achats, RH) → identification des modules prioritaires → plan de déploiement phased (MVP d'abord) → formation des key users → go-live + hypercare. Je m'assure d'avoir un champion interne chez le client dès le départ."
    💡 Connais la méthode Odoo Success Pack. Parle de change management — c'est clé.
  • Utilise ton expérience Dataroots : "Sur le projet RVA/ONEM, la plateforme de données moderne rencontrait une résistance des équipes habituées à l'ancien système. J'ai développé des use cases concrets montrant le gain de temps (ex: rapport mensuel passé de 3h à 15 min). J'ai organisé des sessions de démo avec les utilisateurs finaux, pas seulement avec le management. Résultat : adoption progressive avec des early adopters qui ont convaincu les autres."
  • "Une spec fonctionnelle doit être lue par deux publics : le client (qui valide) et le développeur (qui implémente). Je structure en : contexte + objectif, processus AS-IS vs TO-BE, user stories détaillées, règles de gestion, cas d'erreur, critères d'acceptance. Je valide chaque section avec le client avant de passer à la suivante."
    💡 Odoo a un format de spec technique spécifique — propose de t'y adapter rapidement.
💡 Tips CV pour ce poste
  • Reformuler "Business Analyst | Data Strategy" → "Business Analyst & ERP Process Consultant" sur ta version CV Odoo
  • Mettre en avant le projet RVA/ONEM : process mapping, liaison tech/business — c'est exactement ce qu'un BA Odoo fait
  • Ajouter "Odoo Functional (en cours)" dès que tu as commencé le cours eLearning
  • Mentionner ton expérience multi-secteur : Odoo fait de la finance, logistique, manufacturing — ta diversité est un atout
  • Si tu postes chez Odoo SA directement : ils valorisent les candidats qui ont déjà créé une démo/POC eux-mêmes
🤖
AI / ML Engineer
Ex : Dataroots, BNP Paribas Fortis, UCB, ING, startups AI belges, IDÉES (SBGE)
💰 55 000 – 85 000 € brut/an (BE)
Adéquation globale72%
✅ Pourquoi tu fits / lacunes à combler
  • Thèse sur un laryngophone connecté avec algorithme IA — expérience R&D réelle en ML
  • Python solide + C/C++ (pour embarqué, inférence)
  • Azure ML / Databricks vu en consulting = connaissance de l'infra MLOps
  • dbt + data modeling = pipeline de données propre avant le ML
  • Profil "engineering + AI" rare et valorisé (vs pure data scientists sans sens pratique)
  • Peu de projets ML en production documentés — à compenser avec GitHub public
  • Pas de certif ML formelle (Azure AI-900/AI-102, Google ML cert) — 2-4 semaines de prep
  • LLM/GenAI = hot right now — apprendre LangChain, RAG, fine-tuning est un must
🎙 Questions d'entretien + réponses suggérées
  • Ta thèse est parfaite ici : "Dans ma thèse, j'ai conçu un laryngophone connecté pour la rééducation vocale. Le pipeline complet : collecte de données audio (design électronique du device), preprocessing (filtrage, MFCC features), entraînement d'un modèle de classification sur des patterns vocaux (CNN/LSTM), puis intégration dans une application mobile. J'ai géré chaque étape de manière autonome."
    💡 Prépare 3 métriques concrètes : accuracy du modèle, taille du dataset, latence d'inférence.
  • "Overfitting : le modèle apprend les données d'entraînement par cœur mais ne généralise pas. Solutions : régularisation (L1/L2), dropout, early stopping, plus de données, data augmentation. Underfitting : le modèle est trop simple. Solutions : augmenter la complexité du modèle, réduire la régularisation, ajouter des features pertinentes. Je monitore via les courbes de train/validation loss."
  • "Pipeline standard : 1) Containerisation (Docker) du modèle et de ses dépendances. 2) API REST (FastAPI) pour exposer les prédictions. 3) CI/CD (GitHub Actions) pour tester automatiquement. 4) Monitoring : drift detection, métriques de perf en prod (via MLflow ou Azure ML). 5) Retraining pipeline planifié quand les métriques dégradent."
    💡 Si tu as vu Azure ML Jobs chez Dataroots, c'est exactement ça — parle-en concrètement.
  • "RAG combine un LLM avec une base de connaissances externe (vector store). Le LLM ne répond pas de mémoire, mais récupère d'abord les documents pertinents (via embeddings + cosine similarity) puis génère une réponse contextualisée. On l'utilise quand : le LLM doit connaître des données privées/récentes que le fine-tuning serait trop coûteux à mettre à jour. Exemple : chatbot de support qui répond à partir de la documentation interne."
    💡 Montre que tu connais les tools : LangChain, LlamaIndex, Chroma, FAISS, Azure AI Search.
  • "Chez Dataroots, j'ai travaillé sur des pipelines complets avec dbt pour la transformation de données et Azure Databricks pour le traitement à grande échelle. Pour le ML spécifiquement, la qualité du pipeline de feature engineering est souvent plus importante que le choix du modèle. J'ai l'habitude de séparer feature store, training set et validation set de manière rigoureuse."
  • "Mon parcours me donne un avantage rare : je comprends les enjeux métier ET je sais coder. Ma thèse m'a montré que la partie IA dans un projet réel, c'est 20% du travail — le reste c'est ingénierie, collecte de données, integration. Je veux leverager mon background engineering (rigueur, systémique) pour livrer des systèmes ML robustes, pas juste des notebooks."
💡 Tips CV pour ce poste
  • Mettre ta thèse en 1ère position dans la section Projects avec détails techniques (architecture du modèle, métriques)
  • Créer un repo GitHub avec ton code de thèse (même partiel) — les AI Engineers se jugent sur leur code
  • Reformuler l'expérience Dataroots : "Built ML-ready data pipelines using dbt + Databricks for predictive fraud detection models"
  • Ajouter LangChain, OpenAI API, Hugging Face si tu as le moindre side project
  • Titre candidature : "AI Engineer — Mechanical Engineering Background + Applied ML (Thesis)"
📦
Data Product Manager
Ex : Proximus, BNP Fortis, Smals, Colruyt Group, scale-ups data
💰 60 000 – 80 000 € brut/an (BE)
Adéquation globale90%
✅ Pourquoi tu fits (ton meilleur fit objectif)
  • Tu AS été Data PM chez Dataroots (Canadian Research Institute : "transitioned to Project Manager")
  • Tu maîtrises la stack complète : Azure, Fabric, Databricks, dbt, Power BI — tu peux parler aux data engineers ET aux stakeholders
  • Expérience RFP = roadmap produit, priorisation backlog, communication executive
  • Collibra Data Steward = data governance — très valorisé pour les DPMs
  • Multi-industrie (santé, sports, finance, public) = adaptabilité
  • Background ingénieur = tu n'as pas peur de la dette technique ni du code
🎙 Questions d'entretien + réponses suggérées
  • "J'utilise un framework RICE (Reach × Impact × Confidence / Effort) adapté à la data. Je commence par aligner les stakeholders sur des OKRs communs — si tout le monde veut du 'reporting', je remonte à la question business derrière. Ensuite je score les initiatives et je présente une roadmap trimestrielle avec quick wins clairement identifiés. Sur le projet canadien chez Dataroots, j'ai dû arbitrer entre 3 équipes différentes avec des urgences contradictoires — on a résolu ça avec un comité de gouvernance bi-mensuel."
  • "Un data product de qualité est : Fiable (SLA clair, tests de qualité automatisés), Découvrable (catalogué dans Collibra ou autre, documenté), Réutilisable (pas un one-shot pour un seul stakeholder), et Actif (des utilisateurs réels l'utilisent en production avec des métriques d'adoption). Le pire data product : le dashboard que personne n'ouvre après le go-live."
    💡 Mentionne le Data Mesh si tu connais — concept de "domain ownership" très tendance.
  • "Trois niveaux : 1) Adoption (views uniques/semaine, nb users actifs vs cibles) — Power BI a son usage analytics natif. 2) Impact métier : est-ce que des décisions ont été prises grâce au dashboard ? Je demande un 'decision log' au client. 3) Qualité : taux d'erreur signalées, nombre de tickets de support. Pour le projet football club chez Dataroots, on suivait l'utilisation hebdomadaire et on adaptait les visualisations selon les feedbacks."
  • "La data governance, c'est l'ensemble des règles, rôles et processus qui garantissent que les données sont fiables, sécurisées et utilisées de manière appropriée. Chez Dataroots, j'ai travaillé avec Collibra pour cataloguer les données, définir les data owners et implémenter des data quality rules. Sans gouvernance : les équipes travaillent sur des versions différentes des mêmes KPIs, la confiance dans la data s'effondre."
  • "Je parle leur langage : je lis du SQL, je comprends dbt models, je sais ce qu'est un DAG et la différence entre un fact table et une dim table. Ça change tout. Je m'assure que les user stories ont une acceptance criteria précise et testable. Je participe aux code reviews quand c'est pertinent. Mon background ingénieur me permet de ne pas être le 'PM qui ne comprend pas la complexité technique'."
💡 Tips CV pour ce poste
  • "transitioned to Project Manager" dans ton CV actuel est sous-exploité — détaille : équipe, budget si possible, durée du projet
  • Ajoute une section "Data Products delivered" avec le club de foot (Power BI), RVA (fraud detection platform), Institut canadien (Azure data platform)
  • Certif Collibra Data Steward = différenciateur majeur pour ce rôle — mets-le en premier dans tes certifs
  • Le terme "Data Product Manager" est préférable à "Business Analyst" sur le CV pour ce type de poste
🏗
Solutions Architect / Technical Pre-Sales
Ex : Microsoft, Databricks, Snowflake, Salesforce, AWS, grandes ESN belges
💰 65 000 – 100 000 € brut/an (BE)
Adéquation globale80%
✅ Pourquoi tu fits
  • Ton rôle actuel chez Akkodis EST du pre-sales/solutions : identifier les besoins client, designer des solutions, pitcher
  • RFP chez Dataroots = tu sais faire des propositions techniques convaincantes
  • Stack Azure/Fabric/Databricks = crédibilité technique face aux clients
  • Background mécanique + data = parler à des ingénieurs industriels ET des CIOs
  • 3 langues = marché belge complet
  • Certif Azure Solutions Architect (AZ-305) recommandée — 4-6 semaines de prépa
  • Connaissance AWS/GCP à approfondir pour les rôles multi-cloud
🎙 Questions d'entretien + réponses suggérées
  • "Je commence par comprendre avec quoi exactement on est comparé — souvent la comparaison n'est pas apples-to-apples. Ensuite je recentre sur la valeur : TCO sur 3 ans, coûts cachés de la migration, coût du non-scalable. Je propose si possible un PoC avec ROI mesurable. L'objectif n'est pas de gagner l'argument prix mais de faire valider la valeur — si on peut montrer un ROI de 3x en 18 mois, le prix n'est plus le sujet."
    💡 Chez Akkodis tu fais exactement ça — transfère directement cette expérience.
  • "Pour une PME : Ingestion → Azure Data Factory ou Fivetran pour synchroniser les sources (ERP, CRM, fichiers). Stockage → Azure Data Lake Gen2 (bronze/silver/gold layers). Transformation → dbt (que je connais bien) sur Azure Synapse ou Fabric. Visualisation → Power BI Service avec Row-Level Security. Gouvernance → Fabric Data Catalog ou Collibra selon la maturité. Timeline réaliste : MVP en 8 semaines."
  • "Je commence toujours par une slide 'Before/After' avec un vrai cas d'usage de leur industrie. Pendant la démo, je ne montre jamais le back-end — uniquement l'interface utilisateur finale. Je contextualise chaque feature : 'Aujourd'hui, pour obtenir ce chiffre vous avez besoin de 2h de travail Excel chaque lundi — là, c'est automatique et temps-réel.' Je pose des questions tout au long pour valider que je parle de ce qui les intéresse vraiment."
  • "Le cloud provider (Microsoft/AWS/GCP) prend en charge l'infrastructure physique, le réseau, l'hyperviseur. Le client prend en charge ses données, ses identités, ses applications et selon le modèle (IaaS/PaaS/SaaS) les OS et middlewares. En IaaS (VM) : le client gère l'OS. En PaaS (Azure SQL) : Microsoft gère l'OS et la DB engine, le client gère ses données. En SaaS (Office 365) : Microsoft gère tout, sauf les données et accès utilisateurs."
💡 Tips CV pour ce poste
  • Ton rôle actuel à Akkodis est déjà du pre-sales — reformule : "Design and pitch tailored AI/data engineering solutions to enterprise clients"
  • Crée un portfolio de 2-3 architecture diagrams (même fictifs basés sur tes projets Dataroots) — les SA sont jugés sur leur capacité à visualiser des archi
  • La combinaison BA + ingénieur + business developer est exactement ce que les éditeurs cherchent pour ce rôle
  • Titre recommandé : "Solutions Architect — Azure Data & AI" pour te différencier des généralists
Ressources transversales
Toujours utiles, quel que soit le poste