Over DeepSeek
Waar je goedkope-tier-AI-factuur echt vandaan komt.
DeepSeek werd op 17 juli 2023 in Hangzhou opgericht door Liang Wenfeng, die ook het hedgefonds High-Flyer oprichtte dat het lab financiert. Het bedrijf bracht DeepSeek-V2 uit in mei 2024 met 236 miljard parameters waarvan 21 miljard actief per token, daarna DeepSeek-V3 in december 2024 met 671 miljard parameters en 37 miljard actief, en DeepSeek-R1 op 20 januari 2025. R1 is het redeneer-gerichte model dat de week na zijn release een grote selloff in Amerikaanse tech-aandelen triggerde, op basis dat een Chinees lab een frontier-class reasoner had getraind voor een gerapporteerde zes miljoen dollar aan compute tegenover het cijfer van honderd miljoen dollar dat aan GPT-4 hing. De modelgewichten worden gepubliceerd onder de MIT License; de trainingsdata niet.
Voor een warehouse is de API wat telt. De line-up op api.deepseek.com is deepseek-chat als algemeen werkpaard en deepseek-reasoner voor de chain-of-thought-tier, beide gerouteerd onder de v4-flash-familie met v4-pro als de hogere variant. De prijs ligt grofweg een orde van grootte onder de vergelijkbare OpenAI- of Anthropic-tier, met cache-hit-input-tokens aangerekend aan een fractie van het cache-miss-tarief, een off-peak-kortingsvenster en een context-caching-feature die telt voor elke workload die dezelfde system prompt hergebruikt. Reasoner-output rekent de chain-of-thought-tokens mee in de factuur, dus één moeilijke vraag op deepseek-reasoner kan meer output-tokens uitgeven dan tien antwoorden in chat-mode samen. De endpoints om binnen te halen zijn de chat-completions-usage-records, de modellijst, de balance- en billing-endpoints en de cache-hit-boekhouding, zodat finance en product de spend kunnen splitsen per API-key, per model, per cache-staat en per peak-venster.