Open WebUI-connector

Gebruik je Open WebUI-data voor rapportering, automatisatie en AI.

Data Panda brengt je Open WebUI-gebruiksdata samen met de data uit de rest van je bedrijf. Vanop één plek maken we er dashboards, workflows, AI-toepassingen en apps van die je team elke dag gebruikt.

Data Panda Reporting Automation AI Apps
Open WebUI logo
Over Open WebUI

De self-hosted voordeur naar je LLM's.

Open WebUI is een open-source, self-hosted AI-platform dat een team de ChatGPT-ervaring geeft op de eigen infrastructuur. Tim Jaeryang Baek startte het in september 2023 als Ollama WebUI, een vriendelijke frontend voor lokale Ollama-modellen, en hernoemde het begin 2024 naar Open WebUI toen het naast Ollama ook OpenAI-compatibele API's ging ondersteunen. Het project zit in de GitHub Accelerator van 2024 en staat ruim boven de 130k GitHub-sterren. Tot en met v0.6.5 zit de codebase onder BSD-3-Clause; vanaf v0.6.6 (april 2025) draait het onder een eigen Open WebUI License met een branding-retentie-clausule en een CLA, iets om na te kijken voor je het breed commercieel uitrolt.

Het product is een Docker- of Kubernetes-deployed web-app met een Python-backend en een Svelte-frontend. Het spreekt Ollama native en gelijk welk OpenAI-compatibel endpoint via URL, wat betekent dat LM Studio, vLLM, llama.cpp, LiteLLM, Mistral, Groq en OpenRouter allemaal op dezelfde manier inpluggen. RBAC, groepen, SSO/OIDC/LDAP en SCIM 2.0-provisioning dekken de enterprise-kant. De opgeslagen entiteiten waar een warehouse om geeft, zijn users, groups, chats, messages (met input/output-tokenaantallen per bericht), models, prompts, knowledge-collections, files, channels, notes, feedback-ratings en de analytics-tabellen achter het admin-dashboard, ontsloten via /api/v1/analytics/summary, /models, /users, /messages, /daily en /tokens. Die laatste reeks endpoints vereist admin-auth en is wat van Open WebUI niet langer enkel een chatvenster maakt, maar iets dat een finance- en IT-team effectief kan toewijzen.

Waar je Open WebUI-data voor dient

Wat je krijgt zodra Open WebUI gekoppeld is.

AI-adoptie per team en per model

Berichtvolume, tokenspend en modelmix per gebruiker en per groep op één tijdlijn.

  • Actieve gebruikers per week per groep, gekoppeld aan HR- of directory-data
  • Tokenspend per gebruiker gekoppeld aan het team en het project waar ze toe horen
  • Modelmix per groep, zodat een team dat stilletjes alles naar GPT-5 schakelde zichtbaar wordt

Gebruiks- en kostencontrole-automatisatie

Duw gebruikssignalen terug naar de tools waar de beslissingen over Open WebUI effectief vallen.

  • Slack-alert wanneer één gebruiker een dagelijks tokenbudget op een betaald model overschrijdt
  • Groepsrechten worden automatisch aangescherpt wanneer de maandelijkse inferentiekost van een team boven plan loopt
  • HR-uitdiensttreding triggert een sweep die de Open WebUI-account van de vertrekker uitschakelt en de chathistoriek exporteert

AI-toepassingen op AI-frontend-gebruik

Gebruik de Open WebUI-historiek om de volgende ronde van model-routing en knowledge-base-beslissingen te voeden.

  • Routing-scoring die per prompt-klasse Ollama, OpenAI of Anthropic kiest op basis van vroegere kwaliteit en kost
  • Ranking van knowledge-collections op retrieval-hits en daaropvolgende feedback-ratings
  • Clustering van prompt-patronen op chatinhoud, om use cases naar boven te halen waar het team spontaan naar grijpt

Custom apps op je data

Interne tools op Open WebUI-gebruiksdata voor teams die niet in de admin-tab leven.

  • AI-adoptiedashboard per afdeling en per kwartaal voor het leadership-team
  • Tokenkost per gebruiker naast seat-licentie en loonband voor finance
  • Knowledge-base-dashboard dat toont welke collections gelezen, genegeerd of negatief geëvalueerd worden
Use cases

Use cases die we met Open WebUI-data leveren.

Een lijst van concrete rapporten, automatisaties en AI-toepassingen die we op Open WebUI-data hebben gebouwd. Kies er een die bij je situatie past.

Tokenspend per gebruikerInput-, output- en totale tokens per gebruiker per dag, gekoppeld aan het team en het model dat ze gebruikten.
Modelmix per groepAandeel berichten en tokens over Ollama, OpenAI, Anthropic en andere backends per groep, per week.
Trend van actieve gebruikersWekelijks en maandelijks actieve gebruikers per groep, met churn tussen actief en uitgevallen.
Hits op knowledge-collectionsRetrieval-hits per collection gekoppeld aan de chats en gebruikers die ze ophaalden.
Feedback-ratings per modelThumbs-up- en thumbs-down-ratio per model en per prompt-template, met voorbeelden.
Adoptie van custom modellenGebruik van door de admin gebouwde model-presets tegenover standaardmodellen, per groep en per week.
Gebruik van prompt-libraryWelke opgeslagen prompts worden gebruikt, door wie en hoe vaak, tegenover de prompts die niemand aanraakt.
AI-workload per klantChats en tokens getagged op de klant waar de gebruiker aan werkte, gekoppeld aan CRM.
Kostentoewijzing per groepInferentiekost per groep, opgeteld tegenover het teambudget.
Lokale versus hosted modellenAandeel traffic op lokale Ollama-modellen tegenover betaalde hosted modellen, met het kostenverschil.
Echte vragen uit de praktijk

Antwoorden die je eindelijk krijgt.

Wie gebruikt onze self-hosted AI eigenlijk, en op welke modellen?

Bericht- en tokenvolume per gebruiker over de laatste dertig dagen, opgesplitst per groep en per backend-model. Brengt het engineering-team naar boven dat tienduizend Ollama-berichten per week op de lokale box draait, de marketinggroep die stilletjes alles via GPT-5 op de OpenAI-key duwt, en de lange staart van accounts die één keer inlogden en nooit terugkwamen, allemaal in één view in plaats van drie aparte admin-tabs op drie aparte hosts.

Worden onze knowledge-collections effectief geraadpleegd?

Retrieval-hits per knowledge-collection gekoppeld aan de chats die ze triggerden en de feedback-rating die erop volgde. Vangt de zorgvuldig samengestelde beleidscollection die niemand opzoekt, en de half afgewerkte sales-deck-collection waar tien mensen elke dag uit putten met thumbs-down-ratings, zodat de volgende ronde curatiewerk gericht is waar het loont.

Wat kost één gebruiker ons op de onderliggende API-key?

Tokenspend per gebruiker gemapt op de publieke modelprijs, gerangschikt van zwaarste tot lichtste verbruiker. Toont de analist wiens long-context samenvattingsroutine in z'n eentje meer GPT-5 verbruikt dan het hele supportteam op GPT-4o-mini, op tijd om een budget per gebruiker te zetten of die workload naar een goedkopere tier te verschuiven, in plaats van pas aan het einde van het kwartaal over de factuur te discussiëren.

Waarde voor iedereen in de organisatie

Wat elke functie eruit haalt.

Voor finance leads

Open WebUI-inferentiekost gesplitst per groep en per gebruiker, gemapt op de factuur van de modelprovider. De gedeelde OpenAI- of Anthropic-factuur achter de self-hosted frontend stopt één lijn te zijn en wordt spend waarop het team dat ze produceerde aanspreekbaar is.

Voor sales leads

Prompt-patronen en knowledge-collection-hits over teams heen, die naar boven halen welke klantgerichte use cases mensen in hun eigen woorden zoeken. Accountmanagers krijgen taal die van echte interne gebruikers komt, in plaats van te gokken welke AI-features klanten in het volgende gesprek zullen oppikken.

Voor operations

Actieve gebruikers, modelmix en feedback-ratings per groep over negentig dagen. Het gedrag van de AI-uitrol wordt gevolgd als een curve, niet pas opgemerkt de dag dat iemand ziet dat de lokale Ollama-node aan 100% GPU draait en de OpenAI-factuur verdrievoudigde.

Datamodel

Tabellen die we beschikbaar maken.

Dit zijn de 4 tabellen die we vandaag uit Open WebUI naar je warehouse halen. Je bevraagt ze rechtstreeks in SQL, koppelt ze aan de rest van je stack, of bouwt er rapporten op.

  • Files
  • Knowledge Bases
  • Models
  • Notes

Mis je een tabel? We kunnen de sync uitbreiden. Laat ons weten wat je mist en we bouwen het erbij.

Je bestaande tools

Je data komt in een warehouse terecht. Je BI-tools lezen eruit.

Je houdt de rapporteringstool die je al hebt. Wij koppelen hem aan het warehouse waar je Open WebUI-data staat.

Power BI logo
Power BI Microsoft
Microsoft Fabric logo
Fabric Microsoft
Snowflake logo
Snowflake Data warehouse
Google BigQuery logo
BigQuery Google
Tableau logo
Tableau Visualisatie
Microsoft Excel logo
Excel Spreadsheets & draaitabellen
In drie stappen

Van Open WebUI naar antwoorden in drie stappen.

01

Veilig koppelen

OAuth-authenticatie. Standaard read-only. Wij tekenen een DPA en je admin houdt de sleutels.

02

Landen in je warehouse

Data stroomt naar je warehouse op het schema dat jij kiest. Bijna real-time of 's nachts, aan jou. Jij bent eigenaar.

03

Rapportering, automatisatie, AI

We bouwen het eerste dashboard, de eerste workflow of AI-toepassing samen met jou, en geven de sleutels over. Of we blijven erbij voor doorlopende levering.

Twee manieren om met ons te werken

Kies het traject dat past bij jouw team.

Traject 01

Zelf doen

Wij zetten de basis op. Jouw team bouwt erop verder.

  • Open WebUI-connector geconfigureerd en draaiend
  • Warehouse opgezet in jouw cloud-account
  • Propere toegang voor je Power BI-, Fabric- of Tableau-team
  • Documentatie over wat er in het datamodel zit
  • Sync-monitoring zodat je gewaarschuwd wordt voor rapporten stukgaan

Beste match Teams die al een BI-analist of data engineer in huis hebben en zelf willen bouwen.

Traject 02

Wij doen het voor je

Wij bouwen het geheel, van A tot Z.

  • Alles uit Zelf doen
  • Dashboards gebouwd op de vragen die je team effectief stelt
  • Automatisaties tussen je systemen
  • AI-workflows afgestemd op taken die je team dagelijks draait
  • Custom apps waar een dashboard niet volstaat
  • Doorlopende levering op een tempo dat past bij je team

Beste match Teams zonder BI- of dev-capaciteit in huis. Jij zegt wat je nodig hebt en wij leveren het.

Voor je een gesprek boekt

Veelgestelde vragen.

Wie is eigenaar van de data?

Jij. Ze komt in jouw warehouse terecht, op jouw cloud-account. Wij verkopen ze niet door en aggregeren ze niet. Stop je met ons, dan blijft het warehouse van jou en blijft het draaien.

Hoe vers is de data?

Bijna real-time voor de meeste operationele systemen. Voor zwaardere bronnen plannen we per uur of per nacht. Je kiest op basis van wat de rapporten nodig hebben.

Moet ik al een warehouse hebben?

Nee. Heb je er geen, dan helpen we je er een kiezen en zetten we het op als deel van de eerste levering. Gangbare startpunten zijn Snowflake, Microsoft Fabric of een kleine Postgres-start.

Welke Open WebUI-data trekt de connector echt binnen?

De admin-Analytics-endpoints (/api/v1/analytics/summary, /models, /users, /messages, /daily, /tokens) zijn de primaire bron, samen met de chat-, message-, user-, group-, model-, prompt-, knowledge-collection- en feedback-tabellen erachter. Input- en output-tokenaantallen per bericht worden automatisch door Open WebUI opgeslagen als analytics aanstaat en zijn genormaliseerd over Ollama-, OpenAI-compatibele en llama.cpp-backends. Chatinhoud kan je mee binnenhalen als het beleid dat toelaat, maar de meeste opstellingen halen enkel metadata binnen en laten de berichten in Open WebUI staan.

Open WebUI factureert ons niet, dus waar komt de kost vandaan?

Van de onderliggende keys van de modelprovider. Een self-hosted Ollama-deployment wordt gemeten in GPU-uren en elektriciteit, niet in tokens, terwijl traffic die Open WebUI routeert naar OpenAI, Anthropic, OpenRouter of gelijk welk OpenAI-compatibel endpoint op de factuur van die provider verschijnt. De tokenaantallen per bericht in Open WebUI koppelen aan de publieke prijslijst van het gebruikte model levert een kost per gebruiker en per groep die aansluit bij de werkelijke externe factuur.

Is Open WebUI open source genoeg om voor onze klanten te hosten?

Tot en met v0.6.5 zit het project onder BSD-3-Clause en gedraagt het zich als klassieke permissieve open source. Vanaf v0.6.6 (april 2025) draait het onder een eigen Open WebUI License met een anti-endorsement-clausule en een contributor licence agreement, en die licentie is niet OSI-goedgekeurd. Voor intern bedrijfsgebruik is dat zelden een probleem; voor Open WebUI in een product dat je aan klanten verkoopt, leg je de licentie- en brandingvoorwaarden best eerst voor aan juridisch voor je uitrolt.

GDPR-conform
Data blijft in de EU
Jij bent eigenaar van het warehouse

Eerste oplevering live in vier tot zes weken.

We bekijken je Open WebUI-opzet en de systemen eromheen. Samen kiezen we wat we als eerste bouwen.