Meta Llama 4 er her: Tre modeller, én åpen strategi
Scout, Maverick og Behemoth. Metas nye modellserie bruker Mixture-of-Experts, har opptil 10 millioner tokens kontekst og er åpent tilgjengelig. Behemoth slår GPT-4.5 på STEM-benchmarks.

Begreper i denne artikkelen
Meta lanserte Llama 4-serien med to ferdige modeller og en tredje under trening. Det er selskapets første modellgenerasjon med Multimodal støtte og Mixture-of-Experts-arkitektur — og den mest ambisiøse open-weight-utgivelsen i AI-historien.
Modellene
Llama 4 Scout har 17 milliarder aktive parametere fordelt på 16 eksperter. Den får plass på én enkelt Nvidia H100-GPU og har et kontekstvindu på 10 millioner tokens — tilsvarende rundt 15 000 sider tekst. Meta hevder den overgår Gemma 3, Gemini 2.0 Flash-Lite og Mistral 3.1 på tvers av standard benchmarks.
Llama 4 Maverick har samme antall aktive parametere men 128 eksperter og totalt 400 milliarder parametere. Den scorer over GPT-4o og Gemini 2.0 Flash, ifølge Metas egne tester. Estimert inferens-kostnad: 0,19–0,49 dollar per million tokens — en brøkdel av sammenlignbare proprietære modeller.
Llama 4 Behemoth, fortsatt under trening, har 288 milliarder aktive parametere og 16 eksperter. Meta hevder den overgår GPT-4.5, Claude Sonnet 3.7 og Gemini 2.0 Pro på flere STEM-benchmarks.
Kontroversene
Lanseringen skjedde på en lørdag — uvanlig for en stor utgivelse. Uavhengige evalueringer viste at modellen oppførte seg merkbart annerledes i LMArena enn på andre plattformer. Det viste seg at Arena-versjonen var en separat, eksperimentell chatvariant — ikke den samme modellen som ble gjort tilgjengelig for nedlasting.
Åpen strategi
Alle modeller er tilgjengelige via llama.com og Hugging Face under Llama 4 Community License. Metas posisjon er uendret: åpenhet driver innovasjon. For utviklere som vil ha frontier-kapable modeller uten API-kostnader, er Llama 4 det sterkeste alternativet på markedet.


