Over LiteLLM
Eén gateway voor elk model dat je aanroept.
LiteLLM is een open source LLM-gateway gebouwd door BerriAI, een Y Combinator-bedrijf opgestart in 2023 door Krrish Dholakia en Ishaan Jaff. De repo staat op GitHub onder BerriAI/litellm met 44k+ sterren en meer dan duizend contributors. Stripe, Netflix, Google ADK, Greptile en OpenHands draaien het in productie, naast de lange staart van teams die één endpoint wilden in plaats van tien provider-SDK's.
Het product heeft twee vormen. De Python-SDK laat code litellm.completion() aanroepen met dezelfde call-signatuur ongeacht de provider. De Proxy is een self-hosted server (Docker, Kubernetes of de LiteLLM CLI) die één OpenAI-compatibel REST-endpoint aanbiedt en de call routeert naar OpenAI, Anthropic, Azure OpenAI, Amazon Bedrock, Google Vertex AI, Cohere, Mistral, Hugging Face, Groq of eender welke van de 100+ providers waar hij mee praat. Rond die proxy zitten virtuele API-keys per team of gebruiker, budgetten per key en per team, rate limits, automatische fallback en retry over deployments, response caching en gestructureerde spend logs. De Postgres-tabellen achter de proxy (LiteLLM_VerificationToken, LiteLLM_TeamTable, LiteLLM_UserTable, LiteLLM_SpendLogs, LiteLLM_BudgetTable) bewaren elke request met api_key, user, team_id, end_user, model, model_group, prompt_tokens, completion_tokens, total_tokens, spend, request_tags en metadata erbij, en dat is wat van een stapel provider-facturen iets maakt dat een finance- en ML-team effectief kan bevragen.