Over Open WebUI
De self-hosted voordeur naar je LLM's.
Open WebUI is een open-source, self-hosted AI-platform dat een team de ChatGPT-ervaring geeft op de eigen infrastructuur. Tim Jaeryang Baek startte het in september 2023 als Ollama WebUI, een vriendelijke frontend voor lokale Ollama-modellen, en hernoemde het begin 2024 naar Open WebUI toen het naast Ollama ook OpenAI-compatibele API's ging ondersteunen. Het project zit in de GitHub Accelerator van 2024 en staat ruim boven de 130k GitHub-sterren. Tot en met v0.6.5 zit de codebase onder BSD-3-Clause; vanaf v0.6.6 (april 2025) draait het onder een eigen Open WebUI License met een branding-retentie-clausule en een CLA, iets om na te kijken voor je het breed commercieel uitrolt.
Het product is een Docker- of Kubernetes-deployed web-app met een Python-backend en een Svelte-frontend. Het spreekt Ollama native en gelijk welk OpenAI-compatibel endpoint via URL, wat betekent dat LM Studio, vLLM, llama.cpp, LiteLLM, Mistral, Groq en OpenRouter allemaal op dezelfde manier inpluggen. RBAC, groepen, SSO/OIDC/LDAP en SCIM 2.0-provisioning dekken de enterprise-kant. De opgeslagen entiteiten waar een warehouse om geeft, zijn users, groups, chats, messages (met input/output-tokenaantallen per bericht), models, prompts, knowledge-collections, files, channels, notes, feedback-ratings en de analytics-tabellen achter het admin-dashboard, ontsloten via /api/v1/analytics/summary, /models, /users, /messages, /daily en /tokens. Die laatste reeks endpoints vereist admin-auth en is wat van Open WebUI niet langer enkel een chatvenster maakt, maar iets dat een finance- en IT-team effectief kan toewijzen.