Over Mistral AI
Open-weights AI uit Parijs.
Mistral AI werd in april 2023 in Parijs opgericht door Arthur Mensch (CEO, ex-DeepMind), Guillaume Lample en Timothée Lacroix (beiden ex-Meta FAIR). Het bedrijf bracht binnen enkele maanden zijn eerste open-weights model uit en is die lijn blijven aanhouden: veel van de generalistische modellen verschijnen onder permissieve licenties met weights die je zelf kan downloaden, hosten en fine-tunen. De positionering is Europees en soevereiniteitsbewust, met hybride inzet als volwaardige optie en niet als bijgedachte, en dat is meteen de reden waarom banken, overheden en ziekenhuizen in de EU bij Mistral uitkomen wanneer dataresidentie een harde voorwaarde is.
De huidige line-up bestaat uit vier families. De generalistische tier is Mistral Large 3 (open-weights, multimodaal vlaggenschip), Mistral Medium 3.1 (premier, multimodaal), Mistral Small 4 (hybride instruct/reasoning/coding) en de Ministral 3-reeks op 14B, 8B en 3B voor edge- en lage-latentie-werk. Magistral Medium 1.2 dekt het reasoning-werk. Codestral en Devstral 2 doen code-aanvulling en coding-agents. Mistral Embed en Codestral Embed leveren vectoren voor retrieval. OCR 3 is de motor achter de Document AI-stack, verwerkt tot tweeduizend pagina's per minuut op één node en geeft tekst, tabellen, formules en beelden terug in leesvolgorde. Voxtral Mini Transcribe 2 doet spraak-naar-tekst. De hele stack draait op La Plateforme op api.mistral.ai, op AWS Bedrock, Azure AI Foundry, Google Vertex AI, Snowflake Cortex, IBM watsonx, of volledig zelf gehost in een klant-VPC of on-premise. Le Chat Enterprise zit erbovenop als assistentlaag voor eindgebruikers.