Microsoft Fabric DWH-connector

Zet je operationele data in Microsoft Fabric en laat Power BI rechtstreeks op OneLake lezen.

Data Panda haalt data uit je CRM, ERP, webshop, boekhouding en productsystemen en zet ze op een vast schema in het Fabric Data Warehouse. Eens ze in OneLake staan, lezen Power BI Direct Lake, Copilot in Fabric en je bestaande Microsoft-omgeving dezelfde cijfers, zonder dat iemand opnieuw een export trekt.

Data Panda Reporting Automation AI Apps
Microsoft Fabric logo
Over Microsoft Fabric DWH

Het T-SQL warehouse binnen Microsoft Fabric, rechtstreeks bovenop OneLake.

Microsoft Fabric is op Build in mei 2023 aangekondigd en in november 2023 algemeen beschikbaar geworden als een unified SaaS-analytics-platform op Azure. De Data Warehouse-ervaring is één van de zeven workloads in Fabric, naast Data Engineering (Spark-notebooks en lakehouses), Data Factory (pipelines en dataflows), Real-Time Intelligence, Data Science, Databases en Power BI. Allemaal schrijven en lezen ze in dezelfde opslag: OneLake, één tenant-brede data lake op Delta Parquet, met shortcuts waarmee een workspace data kan aanspreken die fysiek in een andere workspace staat, zonder kopiëren.

Het Fabric Data Warehouse zelf is een volledig beheerd, serverless T-SQL warehouse dat queries rechtstreeks op Delta-tabellen in OneLake uitvoert. Het spreekt de T-SQL-laag van SQL Server, ondersteunt cross-database queries tussen warehouses en lakehouses in dezelfde workspace, en koppelt native aan Power BI via Direct Lake-modus, waarbij rapporten Delta-bestanden in OneLake bevragen zonder import-stap of DirectQuery-round-trip. De facturatie draait op capacity units (CU) die je koopt als een Fabric-capaciteit (F2 tot F2048 SKU's, of gedeeld met de Power BI Premium P-SKU's), zodat warehouse-compute, Spark, pipelines en Power BI-rendering allemaal uit dezelfde pool putten. Voor Microsoft-georiënteerde bedrijven in BE en NL die al Power BI Premium en Azure SQL op de vloer hebben staan, is Fabric de logische plek om de rest van de zaak te landen, zodat Direct Lake-rapporten geen demo's blijven maar de echte finance- en salesborden worden.

Waar je Microsoft Fabric DWH-data voor dient

Wat je krijgt zodra Microsoft Fabric DWH gekoppeld is.

Power BI op Direct Lake

Rapporten lezen Delta-tabellen in OneLake in plaats van bij elke refresh te importeren of DirectQuery te draaien.

  • Eén semantisch model over finance, sales en operations
  • Direct Lake slaat de import-refresh en de DirectQuery-round-trip over
  • Workspace-rechten houden rauwe en gecureerde zones uit elkaar

Ladingen op een vast ritme

Operationele data landt in het warehouse op een schema dat bij de zaak past, niet bij het luidste dashboard.

  • Bronsystemen één keer per cyclus uitgelezen, niet per rapport
  • Pipelines en warehouse-compute delen dezelfde Fabric-capaciteit
  • Mislukte ladingen komen boven vóór de ochtendrefresh van Power BI

Copilot in Fabric op beheerde data

Copilot en de AI skills werken op gecureerde warehouse-tabellen, niet op rauwe exports.

  • Copilot in Power BI bouwt visuals op het gecureerde semantische model
  • AI skills beantwoorden vragen in natuurlijke taal op warehouse-tabellen
  • OneLake-security en workspace-rollen reizen mee met elke prompt

Apps en shortcuts op OneLake

Interne apps, Azure-diensten en andere workspaces lezen dezelfde OneLake zonder data te kopiëren.

  • OneLake-shortcuts ontsluiten tabellen aan andere workspaces zonder duplicatie
  • Azure Data Factory, Synapse en Databricks lezen dezelfde Delta-bestanden
  • Power Apps en custom apps bevragen warehouse-tabellen via T-SQL
Use cases

Use cases die we met Microsoft Fabric DWH-data leveren.

Een lijst van concrete rapporten, automatisaties en AI-toepassingen die we op Microsoft Fabric DWH-data hebben gebouwd. Kies er een die bij je situatie past.

Eén-waarheid Power BIDirect Lake-rapporten op gecureerde Fabric-warehouse-tabellen in plaats van geïmporteerde PBIX-modellen.
Weg van de OLTPAnalyst-queries weg van de live ERP en op een Fabric-warehouse-kopie.
MaandafsluitingResultatenrekening, balans en kasstroom op warehouse-grootboekdata.
Klant-360 in OneLakeEén klantrecord over CRM, facturatie, support en productgebruik.
Copilot op echte dataCopilot in Power BI en Fabric AI skills op gecureerde tabellen, niet op exports.
Capaciteit in toomCapaciteit op maat van de werklast, zodat warehouse-ladingen Power BI niet afknijpen.
Lakehouse naar warehouseCross-database queries tussen Fabric-lakehouses en het warehouse in één workspace.
Shortcuts in plaats van kopieënOneLake-shortcuts vervangen de dagelijkse ETL naar de workspace van een tweede team.
Mirroring van bron-DB'sMirroring brengt Azure SQL, Snowflake of Cosmos DB in OneLake zonder ETL.
Fabric bovenop Azure SQLLeg Fabric DWH bovenop een bestaande Azure SQL-omgeving zonder die uit te rukken.
Power BI Premium-upgradeGebruik bestaande Power BI Premium-capaciteit als Fabric-capaciteit voor het warehouse.
Echte vragen uit de praktijk

Antwoorden die je eindelijk krijgt.

We hebben al Power BI Premium. Waarom overstappen op Fabric?

Power BI Premium-P-SKU's geven je al een Fabric-capaciteit, dus de overstap is meer een schakelaar dan een nieuwe licentie-aankoop. De winst zit in Direct Lake: rapporten hangen niet meer aan PBIX-import-refreshes en lezen Delta-tabellen in OneLake meteen. Diezelfde capaciteit draagt dan het warehouse, de pipelines en de Spark-workloads, in plaats van dat je een aparte Azure Synapse- of Azure SQL-factuur naast Premium laat lopen.

Wat is het verschil tussen het Fabric-warehouse en een Fabric-lakehouse?

Beide schrijven Delta-tabellen naar OneLake, maar het warehouse is een volledig beheerde T-SQL-laag met cross-database queries, transacties en de SQL Server-semantiek waar finance mee werkt. Het lakehouse is de Spark- en notebook-kant, met het SQL endpoint als een read-only T-SQL-zicht erbovenop. In de meeste BE/NL Fabric-implementaties landen wij rauwe en bronze data in een lakehouse en cureren we de gold-laag in het warehouse, omdat Power BI Direct Lake en downstream T-SQL-apps daar willen lezen.

Waarom knijpt onze Fabric-capaciteit af zodra het warehouse erbij komt?

Capacity units worden gedeeld over alle workloads in Fabric, dus Power BI-rendering, warehouse-compute, Spark en pipelines putten allemaal uit dezelfde F-SKU. Een capaciteit die op Power BI alleen is afgestemd, valt zonder marge zodra een warehouse-lading en een Spark-notebook tegelijk binnenkomen. Per workload schalen, zware ladingen buiten de rapport-uren plannen en de Capacity Metrics-app in het oog houden, houdt de throttling weg van de ochtendstandup.

Waarde voor iedereen in de organisatie

Wat elke functie eruit haalt.

Voor finance leads

De CFO krijgt een Fabric-gevoed afsluitpack dat aansluit op de boekhouding. Omzet, marge en debiteuren dragen één definitie, vanuit hetzelfde warehouse als het salesbord via Direct Lake, dus de maandafsluit is geen drie mensen meer die Power BI-exports reconciliëren.

Voor sales leads

Salesverantwoordelijken zien pipeline, forecast en quota naast gefactureerde omzet en productgebruik op warehouse-data. Direct Lake houdt het Power BI-rapport actueel zonder import-refresh ertussen, en Copilot in Power BI beantwoordt vragen op hetzelfde semantische model.

Voor operations

Operations- en data-leads volgen Fabric capacity unit-gebruik, warehouse-querykost en pipeline-duur in één Capacity Metrics-view. De capaciteitsfactuur wordt voorspelbaar, en de OneLake-indeling groeit niet meer zijwaarts met team-specifieke kopieën van dezelfde Delta-tabellen.

Je bestaande tools

Je data komt in een warehouse terecht. Je BI-tools lezen eruit.

Je houdt de rapporteringstool die je al hebt. Wij koppelen hem aan het warehouse waar je Microsoft Fabric DWH-data staat.

Power BI logo
Power BI Microsoft
Microsoft Fabric logo
Fabric Microsoft
Snowflake logo
Snowflake Data warehouse
Google BigQuery logo
BigQuery Google
Tableau logo
Tableau Visualisatie
Microsoft Excel logo
Excel Spreadsheets & draaitabellen
In drie stappen

Van Microsoft Fabric DWH naar antwoorden in drie stappen.

01

Veilig koppelen

OAuth-authenticatie. Standaard read-only. Wij tekenen een DPA en je admin houdt de sleutels.

02

Landen in je warehouse

Data stroomt naar je warehouse op het schema dat jij kiest. Bijna real-time of 's nachts, aan jou. Jij bent eigenaar.

03

Rapportering, automatisatie, AI

We bouwen het eerste dashboard, de eerste workflow of AI-toepassing samen met jou, en geven de sleutels over. Of we blijven erbij voor doorlopende levering.

Twee manieren om met ons te werken

Kies het traject dat past bij jouw team.

Traject 01

Zelf doen

Wij zetten de basis op. Jouw team bouwt erop verder.

  • Microsoft Fabric DWH-connector geconfigureerd en draaiend
  • Warehouse opgezet in jouw cloud-account
  • Propere toegang voor je Power BI-, Fabric- of Tableau-team
  • Documentatie over wat er in het datamodel zit
  • Sync-monitoring zodat je gewaarschuwd wordt voor rapporten stukgaan

Beste match Teams die al een BI-analist of data engineer in huis hebben en zelf willen bouwen.

Traject 02

Wij doen het voor je

Wij bouwen het geheel, van A tot Z.

  • Alles uit Zelf doen
  • Dashboards gebouwd op de vragen die je team effectief stelt
  • Automatisaties tussen je systemen
  • AI-workflows afgestemd op taken die je team dagelijks draait
  • Custom apps waar een dashboard niet volstaat
  • Doorlopende levering op een tempo dat past bij je team

Beste match Teams zonder BI- of dev-capaciteit in huis. Jij zegt wat je nodig hebt en wij leveren het.

Voor je een gesprek boekt

Veelgestelde vragen.

Wie is eigenaar van de data?

Jij. Ze komt in jouw warehouse terecht, op jouw cloud-account. Wij verkopen ze niet door en aggregeren ze niet. Stop je met ons, dan blijft het warehouse van jou en blijft het draaien.

Hoe vers is de data?

Bijna real-time voor de meeste operationele systemen. Voor zwaardere bronnen plannen we per uur of per nacht. Je kiest op basis van wat de rapporten nodig hebben.

Moet ik al een warehouse hebben?

Nee. Heb je er geen, dan helpen we je er een kiezen en zetten we het op als deel van de eerste levering. Gangbare startpunten zijn Snowflake, Microsoft Fabric of een kleine Postgres-start.

Lezen Power BI-rapporten echt rechtstreeks op OneLake met Direct Lake?

Ja. Direct Lake-modus leest Delta Parquet-bestanden in OneLake rechtstreeks in de Power BI-engine, zonder import-refresh en zonder DirectQuery-hop naar de warehouse-engine. Zolang het semantische model en de Delta-tabellen compatibel blijven, vallen queries automatisch terug op DirectQuery op het warehouse wanneer een feature nog niet ondersteund is. De gecureerde laag die wij in het Fabric-warehouse bouwen, is net wat Direct Lake wil lezen.

Hoe houden we onze Fabric-capaciteitsfactuur voorspelbaar?

Op maat van de werklast, niet van de piek. Power BI-rendering, warehouse-ladingen, Spark-notebooks en pipelines putten allemaal uit dezelfde F-SKU, dus een te ruime capaciteit voor één workload subsidieert stilletjes de rest. De Capacity Metrics-app elke cyclus opvolgen, zware ladingen buiten de rapport-uren plannen en dev-workloads op een kleinere capaciteit zetten houdt de factuur vlak, zonder dat iemand om middernacht naar autoscale moet grijpen.

We zitten al op Azure Synapse. Moeten we naar Fabric migreren?

Dat hangt af van welke Synapse je bedoelt. Synapse Dedicated SQL Pools (het warehouse) mappen netjes op een Fabric-warehouse en Microsoft heeft Fabric als het verdere pad naar voor geschoven. Synapse Spark en serverless SQL pools hebben tegenhangers in Fabric Data Engineering en het lakehouse SQL endpoint. De meeste BE/NL Synapse-klanten die wij zien, migreren workload per workload, beginnen met het warehouse op een gecureerde laag in OneLake, en houden Synapse draaiend tot Power BI op Direct Lake zit.

GDPR-conform
Data blijft in de EU
Jij bent eigenaar van het warehouse

Eerste oplevering live in vier tot zes weken.

We bekijken je Microsoft Fabric DWH-opzet en de systemen eromheen. Samen kiezen we wat we als eerste bouwen.