Het Brusselse dFakto haalde 2 miljoen euro aan kapitaal op bij particuliere investeerders en finance&invest.brussels, de vroegere GIMB, met steun van het investeringsvehikel TheClubDeal (TCD). Het gaat ook een banklening van 1 miljoen euro aan.

DFakto is gespecialiseerd in managementtools waarbij data zo worden georganiseerd dat er conclusies uit kunnen worden getrokken. Het Brugmann-ziekenhuis gebruikt de software om in realtime bedden en zorgpersoneel te visualiseren. Een grote Europese bank beheert er haar strategische plannen mee waarbij het dashboard van dFakto aangeeft welke projecten goed draaien en welke niet.

De platformen van dFakto maken het mogelijk data uit tal van systemen te selecteren, combineren en analyseren. De sectororganisatie Agoria gebruikt de tools om data in verschillende formaten van allerlei toepassingen in rapporten te bundelen die informatie verschaffen over uitgaven, budgetten en hr-criteria.

‘Op die manier komt één versie van de waarheid tot stand en kunnen de juiste beslissingen worden genomen’, zegt marketingdirecteur Hervé Toussaint. Daarbij is het de bedoeling dat ook niet-financiële aspecten worden opgenomen zoals de impact op het milieu, sociale zaken en corporate governance.

Marketing

Met het opgehaalde geld wordt onder meer een verkoop- en marketingteam uitgebouwd. Bij dFakto werken nu een veertigtal personen. ‘Het is de bedoeling dat we veel meer naar de Nederlandstalige kant van het land gaan. Als dat lukt, komt Nederland aan de beurt. Ook in Frankrijk, waar we een vestiging hebben, willen we ons ontwikkelen’, zegt Toussaint.

Partners zoals consultingbedrijven moeten zelf de software kunnen implementeren bij hun klanten. DFakto hoeft dan zelfs niet te weten wie die eindgebruikers zijn. ‘Dat effent het pad naar nieuwe zakenmodellen’, zegt CEO Thibaut De Vylder.

 

Source: https://www.tijd.be/de-tijd-vooruit/tech/brussels-softwarebedrijf-dfakto-trekt-naar-vlaanderen-en-haalt-geld-op/10317563.html

dFakto vient de lever plusieurs millions. À sa tête, Thibaut De Vylder, un ingénieur commercial devenu pionnier de l’utilisation des données en entreprise.

Quel est le rapport entre l’hôpital Brugmann, qui au plus fort de la crise du Covid-19 devait gérer et visualiser en temps réel la situation de ses lits et de son personnel soignant, une grande banque européenne qui gère des plans stratégiques de transformation d’autres acteurs bancaires et le rachat de Fortis par BNP? dFakto, une société technologique belge bien loin du cliché de la start-up, avec à sa tête Thibaut De Vylder.

Le fondateur de dFakto n’est pas fraîchement diplômé d’une école de commerce comme pourrait le faire croire l’activité de son entreprise qui permet de traiter, analyser et interpréter des données. On pourrait même qualifier Thibaut De Vylder de pionnier de l’utilisation des données au sein des entreprises en Belgique. Il a débuté sa carrière professionnelle en 1996 chez DMS Consulting avec comme mission le déploiement informatique de la Générale de Banque. L’énorme projet s’est arrêté avec l’arrivée de Fortis, ce qui a décidé Thibaut De Vylder à lancer son aventure entrepreneuriale en 2000 avec comme premier client… Fortis. Un premier client qui lui restera fidèle jusqu’aujourd’hui et qui lui a permis d’éprouver son modèle de collecte d’informations simplifiée et de production de rapports précis et réguliers, une innovation à l’époque. Le modèle fonctionne et les clients affluent avec l’avantage d’attirer des gros poissons qui doivent gérer beaucoup d’informations, de sources de données et d’employés simultanément.

Ingénieur commercial de formation, Thibaut De Vylder fait évoluer sa technologie. Il fait du croisement de données provenant de plusieurs sources la spécialité de dFakto. Les données sont une mine d’or, mais si elles comportent des erreurs ou sont mal triées, elles sont inutiles, et ça il l’a compris très tôt. « Bien utilisées, elles peuvent par contre être à la base de chaque décision importante. »

Avec les années l’entreprise se mue en partie en société de conseil tout en gardant son côté « solution ». Uniquement connue de ses clients pendant 20 ans, l’entreprise s’ouvre et apprend à communiquer. « Pour faire une analogie automobile, pendant 20 ans on était très doués pour parler du carburateur, pas pour vendre la voiture. » Pour arranger ça, l’entreprise lève aujourd’hui plusieurs millions pour doper ses ventes.

 

Pas prophète en son pays

Si plusieurs grandes entreprises privées belges sont clientes chez dFakto, Thibaut De Vylder a un petit goût de trop peu en matière « gouvernementale » en Belgique. « À l’étranger on aime notre pragmatisme belge et nous avons des clients du secteur public partout dans le monde, mais bizarrement pas en Belgique. » C’est un regret pour l’homme, qui espère pouvoir apporter son expertise pour servir le public grâce aux données. Un indispensable pour une bonne gestion transparente, selon ses dires, lui qui prône auprès de ses employés la transparence et la libération de l’entreprise avec le moins de hiérarchie possible. « Je suis le patron, mais pas forcément le chef. »

 

Source: https://www.lecho.be/entreprises/media-marketing/thibaut-de-vylder-diriger-par-la-donnee/10318079.html

Par Thibaut De Vylder, CEO de dFakto

Nous avons vu les origines et les limites des approches ayant donné naissance au data-vaulting.

Le data-vaulting est une technique, une méthodologie et approche : les 3 ensemble. C’est bien plus qu’un simple outil : il représente un courant dans la modélisation des données de l’organisation, privée ou publique.

Inventé et continuellement mis à jour par Dan Linsted, le data-vaulting connait aujourd’hui un accroissement de son champ d’application. Initialement imaginé pour interconnecter des datawarehouses lourds et indépendants, dFakto a pu démontrer que le potentiel d’application dépasse largement ces grandes applications en l’utilisant depuis plus de 10 ans pour des missions de plus petites envergure pour y combiner des sources hétérogènes.

different data models and architectures

Prenons, pour chaque modèle de datawarehouse (Entreprise DW, Dimensional Design et Data-Vaulting), ue représentation dans lequel les espaces de stockage et/ou traitement des données sont représentés par des barrettes noires, pour construire un datawarehouse alimenté par 3 sources et fournissant les informations à 3 groupes d’utilisateurs:

 

Entreprise Data Warehouse

Dimensional Design

Data Vaulting

2 processus liés: centralisation et restitution Une série de processuss ETL basés sur les mêmes données et interdépendants (ex: mêmes enrichissements dans 2 ETL. Quid quand il faut mettre à jour un enrichissement?) 3 familles de processus indépendants
  • Stockage dans le Data Vault
  • Enrichissement dans le Business Vault
  • Restitution via data-marts
  Mise en route longue

  Mise en route rapide

  Maintenance lourde

  Cohérence à long terme

  Mise en route rapide

  Maintenance légère

  Obligation d’utiliser la même équipe pour les 2 processus   Complexité des ETL

  Resources limitées

  3 processus indépendants
  Les équipes peuvent travailler en parallèle (voire ne pas se connaître!)
  Formations et expertise disponibles sur le marché   Pas besoin de connaissance préliminaire des concepts. Chacun peut programmer un ETL de base!   Compréhension nécessaire des concepts Data Vaulting
  Evolutivité   Evolutivité   Conçu pour évoluer
  Le modèle respecte la 3è forme normale, utilisée en IT   Pas de modèle et donc pas de contraintes   Modèle qui a tendance à ajouter des tables dans lesquelles les données sont stockées et enrichies, ce qui donne une apparence de complexité.

En résumé, le DV prend le meilleur des deux mondes mais nécessite un respect sans failles de règles simples. Il est parfois tentant de prendre la tangente et de ne pas respecter les règles de base. L’expérience d’implémentation de Data Vaulting depuis 10 ans de dFakto nous a appris que dans tous les cas où nous n’avons pas respecté les règles, nous l’avons payé a posteriori et avons dû réaligner l’installation avec les principes de base.

data-faulting

Dans la même logique, certains clients et prospects rencontrés au cours de ces 10 dernières années nous ont montré des implémentations de Data Vault qui … n’en étaient pas. Plus que la théorie, je recommande de travailler – surtout pour les premières implémentations – avec des conseillers qui (1) parleront votre langage business, (2) ont déjà implémenté des data-vault et peuvent vous montrer une implémentation réelle de solution basée sur le Data Vaulting, réellement utilisée par des clients qui pourront témoigner de leur expérience et (3) avec lesquels vous vous sentez à l’aise.

Par Thibaut De Vylder

Le data-vault est une réponse pratique aux limites de deux autres approches importantes dans le monde du datawarehouse.

La première approche est le ‘Entreprise Data Warehouse’ proposé par Bill Inmon, qui croit en la centralisation des données.

La seconde approche est le modèle dimensionnel de Joseph Kendall qui propose de garder les données sourcées telles quelles et de les assembler à l’envi pour adresser toute nouvelle demande.

Si on résume les deux approches qui ont donné naissance au data-vaulting dans un tableau incomplet mais synoptique:

Enterprise Data Warehouse de Bill Inmon

Modèle dimensionnel de Joseph Kendall

Les données sont centralisées Les données sourcées ne sont pas centralisées. Certaines sont assemblées par rapport à un besoin précis, via un ETL*
Il y a un double effort, de centralisation d’abord et de restitution ensuite, qui doit être fait par la même équipe L’effort marginal, lors de l’ajout de sources, est de plus en plus important car les nouveaux assemblages / ETLs doivent rester cohérents avec les précédents pour ne pas créer une double réalité
Le risque est important que les nouveaux besoins (ajout de source, nouveaux rapports) aient un impact sur l’existant Il y a un réel risque d’incohérence lors d’activités de maintenance (d’une règle commune à tous les ETLs par exemple)
Le délai de livraison est long: toutes les données doivent être sourcées avant de produire le moindre output

Not Fast, and complex to go far

Le délai est court pour le premier besoin mais de plus en plus long pour les suivants …

Fast but not far

La centralisation évite la redondance mais devient vite compliquée La distribution donne l’illusion de la rapidité mais devient vite complexe à opérer et à maintenir

*ETL: Extract Transform and Load = outil/procédure de copie de données d’un système source vers un système de destination

Le data-vaulting intègre les aspects positifs des deux approches: voir Blog#2 – Avantages du data-vaulting. Il génère une lourdeur apparente par l’ajout de tables nécessaire au respect de quelques règles simples:

  • La structure des données est définie par des clefs business au travers de Hubs et de Lien entre ces hubs
  • Tous les détails sont stockés dans des Satellites

Cet ajout de table, qui permet par ailleurs de créer un modèle très lisible pour les utilisateurs business, est un inconvénient plus qu’acceptable au vu des avantages offerts par l’approche du data-vaulting.

Rencontre avec Bill Inmon

Le 21 mai 2014, j’ai eu la chance de me rendre à une présentation de “Emergo”, qui était un des premiers à proposer des solutions basées sur le data-vaulting 1.0. J’y suis principalement allé pour deux raisons: nous appliquions la méthodologie du data-vault 1.0 depuis presque 2 ans et on annonçait un participant de choix: Bill Inmon.

Je lui ai posé la question suivante: que faites-vous dans ce type d’événement alors que le data-vaulting pointe les défauts de votre modèle de ’Entreprise Data Warehouse’ (EDW)? Il me répondit par une petite histoire: dans les années 90, il a réussi à modéliser la plus grosse société du monde, Wallmart, dans un EDW, prévoyant que dès lors toutes les autres organisations allaient être plus simples. “But I reached the end of the ocean.”

Il me dit aussi qu’à l’époque deux choses n’existaient pas: Internet et les données qu’il génère. Nous étions dans un monde de ‘small data’. Il me dit encore ne pas être responsable du fait que son approche restait la plus étudiée dans le monde et ses livres les plus vendus…

the father of data warehouse 540x405 - Origine et utilité du 'data-vaulting'

Rencontre de Bill Inmon, ‘the father of data warehouse’
et Thibaut De Vylder le 21 mai 2014 à l’événement Emergo