Het Brusselse dFakto haalde 2 miljoen euro aan kapitaal op bij particuliere investeerders en finance&invest.brussels, de vroegere GIMB, met steun van het investeringsvehikel TheClubDeal (TCD). Het gaat ook een banklening van 1 miljoen euro aan.

DFakto is gespecialiseerd in managementtools waarbij data zo worden georganiseerd dat er conclusies uit kunnen worden getrokken. Het Brugmann-ziekenhuis gebruikt de software om in realtime bedden en zorgpersoneel te visualiseren. Een grote Europese bank beheert er haar strategische plannen mee waarbij het dashboard van dFakto aangeeft welke projecten goed draaien en welke niet.

De platformen van dFakto maken het mogelijk data uit tal van systemen te selecteren, combineren en analyseren. De sectororganisatie Agoria gebruikt de tools om data in verschillende formaten van allerlei toepassingen in rapporten te bundelen die informatie verschaffen over uitgaven, budgetten en hr-criteria.

‘Op die manier komt één versie van de waarheid tot stand en kunnen de juiste beslissingen worden genomen’, zegt marketingdirecteur Hervé Toussaint. Daarbij is het de bedoeling dat ook niet-financiële aspecten worden opgenomen zoals de impact op het milieu, sociale zaken en corporate governance.

Marketing

Met het opgehaalde geld wordt onder meer een verkoop- en marketingteam uitgebouwd. Bij dFakto werken nu een veertigtal personen. ‘Het is de bedoeling dat we veel meer naar de Nederlandstalige kant van het land gaan. Als dat lukt, komt Nederland aan de beurt. Ook in Frankrijk, waar we een vestiging hebben, willen we ons ontwikkelen’, zegt Toussaint.

Partners zoals consultingbedrijven moeten zelf de software kunnen implementeren bij hun klanten. DFakto hoeft dan zelfs niet te weten wie die eindgebruikers zijn. ‘Dat effent het pad naar nieuwe zakenmodellen’, zegt CEO Thibaut De Vylder.

 

Source: https://www.tijd.be/de-tijd-vooruit/tech/brussels-softwarebedrijf-dfakto-trekt-naar-vlaanderen-en-haalt-geld-op/10317563.html

 

dFakto vient de lever plusieurs millions. À sa tête, Thibaut De Vylder, un ingénieur commercial devenu pionnier de l’utilisation des données en entreprise.

Quel est le rapport entre l’hôpital Brugmann, qui au plus fort de la crise du Covid-19 devait gérer et visualiser en temps réel la situation de ses lits et de son personnel soignant, une grande banque européenne qui gère des plans stratégiques de transformation d’autres acteurs bancaires et le rachat de Fortis par BNP? dFakto, une société technologique belge bien loin du cliché de la start-up, avec à sa tête Thibaut De Vylder.

Le fondateur de dFakto n’est pas fraîchement diplômé d’une école de commerce comme pourrait le faire croire l’activité de son entreprise qui permet de traiter, analyser et interpréter des données. On pourrait même qualifier Thibaut De Vylder de pionnier de l’utilisation des données au sein des entreprises en Belgique. Il a débuté sa carrière professionnelle en 1996 chez DMS Consulting avec comme mission le déploiement informatique de la Générale de Banque. L’énorme projet s’est arrêté avec l’arrivée de Fortis, ce qui a décidé Thibaut De Vylder à lancer son aventure entrepreneuriale en 2000 avec comme premier client… Fortis. Un premier client qui lui restera fidèle jusqu’aujourd’hui et qui lui a permis d’éprouver son modèle de collecte d’informations simplifiée et de production de rapports précis et réguliers, une innovation à l’époque. Le modèle fonctionne et les clients affluent avec l’avantage d’attirer des gros poissons qui doivent gérer beaucoup d’informations, de sources de données et d’employés simultanément.

Ingénieur commercial de formation, Thibaut De Vylder fait évoluer sa technologie. Il fait du croisement de données provenant de plusieurs sources la spécialité de dFakto. Les données sont une mine d’or, mais si elles comportent des erreurs ou sont mal triées, elles sont inutiles, et ça il l’a compris très tôt. “Bien utilisées, elles peuvent par contre être à la base de chaque décision importante.”

Avec les années l’entreprise se mue en partie en société de conseil tout en gardant son côté “solution”. Uniquement connue de ses clients pendant 20 ans, l’entreprise s’ouvre et apprend à communiquer. “Pour faire une analogie automobile, pendant 20 ans on était très doués pour parler du carburateur, pas pour vendre la voiture.” Pour arranger ça, l’entreprise lève aujourd’hui plusieurs millions pour doper ses ventes.

 

Pas prophète en son pays

Si plusieurs grandes entreprises privées belges sont clientes chez dFakto, Thibaut De Vylder a un petit goût de trop peu en matière “gouvernementale” en Belgique. “À l’étranger on aime notre pragmatisme belge et nous avons des clients du secteur public partout dans le monde, mais bizarrement pas en Belgique.” C’est un regret pour l’homme, qui espère pouvoir apporter son expertise pour servir le public grâce aux données. Un indispensable pour une bonne gestion transparente, selon ses dires, lui qui prône auprès de ses employés la transparence et la libération de l’entreprise avec le moins de hiérarchie possible. “Je suis le patron, mais pas forcément le chef.”

 

Source: https://www.lecho.be/entreprises/media-marketing/thibaut-de-vylder-diriger-par-la-donnee/10318079.html

By Thibaut De Vylder

We have seen the origins and limitations of the approaches that gave rise to data-vaulting

Data-vaulting is three things in one: a technique, a methodology, and an approach. It is more than just a tool: it represents a trend in the modelling of an organisation’s data, whether that organisation is public or private.

Invented and continually being updated by Dan Linsted, data-vaulting is now expanding in scope. It was initially designed to interconnect large, independent data warehouses, but by using it for more than 10 years for smaller assignments in which it has combined a variety of sources, dFakto has demonstrated that its potential uses go far beyond these large-scale applications.

different data models and architectures

Let’s take, for each data-warehouse model (enterprise data warehouse, dimensional design, and data-vaulting), a representation in which the data storage and/or processing spaces are represented by black bars, in order to build a data warehouse that is fed by three sources and that provides information to three groups of users:

 

Entreprise Data Warehouse

Dimensional Design

Data Vaulting

Two linked processes: centralisation and restitution A series of “extract transform and load” (ETL) processes based on the same data and interdependent (for instance, the same enhancements in two ETL processes). What happens when an enhancement has to be updated? Three families of independent processes:
  • data-vault storage
  • enhancement in the business vault
  • restitution through data marts
  Long start-up time

  Short start-up time

  Heavy maintenance

  Long-term consistency

  Short start-up time

  Light maintenance

  Requirement to use the same team for both processes   Complexity of ETL processes

  Limited resources

  Three independent processes:
  Teams can work in parallel (without even knowing each other)
  Training and expertise available on the market   No prior knowledge of concepts required Anyone can programme a basic ETL.   An understanding of data-vaulting concepts is required
  Scalability   Scalability   Designed to be scalable
  The model respects the third normal form, which is used in IT   There is no model and therefore no constraints   A model that tends to add tables in which data is stored and enriched, thus giving the appearance of complexity.

strict adherence to simple rules. It is sometimes tempting to go off on a tangent and break the ground rules. DFakto’s 10 years of experience in implementing data vaulting has taught us that, in every case where we have not followed the rules, we have paid the price afterwards and have had to realign the installation with the basics.

data-faulting

In the same vein, some of the customers and prospects we’ve met over the last 10 years have shown us one and another implementation of the data vault that was in fact anything but that. Rather than looking at the theory, I recommend, especially for early implementations, working with consultants (1) who will speak your business language, (2) who have already implemented data vaulting and can show you a real implementation of a data-vaulting solution that is actually being used by customers who can attest to their experience, and (3) with whom you feel comfortable.

By Thibaut De Vylder

The data vault is a practical response to the limitations of two other important approaches in the data-warehousing world.

The first approach is the enterprise data warehouse (EDW) proposed by Bill Inmon, who believes in centralising data.

The second is Joseph Kendall‘s dimensional model, which proposes to keep sourced data as it is and assemble it as required to address any new demand.

We can summarise the two approaches that gave rise to data-vaulting in a table that, while not exhaustive, gives a good overview:

Bill Inmon’s enterprise data warehouse

Joseph Kendall’s dimensional model

The data are centralised The sourced data are not centralised. Some are assembled according to a specific need, via an ETL*
There is a twofold effort that must be made by the same team: the first involving centralisation; the second, restitution. The additional effort, which is made when sources are being added, is increasingly important because the new assemblies/ETLs must remain consistent with the previous ones so as not to create two realities.
There is a significant risk that new requirements (for the addition of sources and new reports) will impact the existing requirement. There is a real risk of inconsistency during maintenance activities (such as to maintain a rule common to all ETLs).
The delivery deadline is far off: all data must be sourced before any output is produced.

Not Fast, and complex to go far

The deadline to meet the first requirement is tight, but those for the next ones are farther and farther off.

Fast but not far

→ Centralisation avoids redundancy but it soon becomes complicated → Distribution gives the illusion of speed but it quickly becomes complex to run and maintain

*ETL: Extract Transform and Load = a tool or procedure for copying data from a source system to a destination system

Data-vaulting incorporates the positive aspects of both approaches: see Blog#2, The benefits of data-vaulting. It seems unwieldy because of the addition of tables that are needed in order for some simple rules to be adhered to:

  • The data structure is defined by business keys via hubs and links between these hubs
  • All details are stored in satellites

This additional table, which also creates quite a readable model for business users, is a more than acceptable drawback, given the advantages the data-vaulting approach offers.

Meeting with Bill Inmon

On 21 May 2014, I had the opportunity to go to a presentation by Emergo, which was one of the first to offer solutions based on data-vaulting 1.0. I had two main reasons for going: first, we had been using the data-vault 1.0 methodology for almost 2 years, and second, one participant had just been given top billing: Bill Inmon.

I asked him: What do you do at this type of event when data-vaulting points up the flaws in your EDW model? He replied with a little story: in the 1990s he’d managed to model the world’s largest company, Walmart in an EDW, and had predicted that from then on all other organisations would be simpler. “But I reached the end of the ocean.”

He also told me that at that time two things had not existed: the internet and the data it generates. We were in a world of small data. And he told me he was not responsible for the fact that his approach was still the one that was studied the most in the world and that his books were the ones that sold the most.

the father of data warehouse 540x405 - The origin and purpose of 'data-vaulting'

From a conversation between Bill Inmon, “the father of data warehouse”,
and Thibaut De Vylder at the Emergo event, 21 May 2014.