Claude Opus 4.7 is er: wat is hier echt nieuw, en wat niet?
Op 16 april 2026 heeft Anthropic Claude Opus 4.7 uitgebracht. Twee maanden na Opus 4.6, wat inmiddels het vaste ritme is. Bij elke release klinkt hetzelfde refrein: dit is de sprong, dit verandert je werk echt. Dat refrein is meestal overdreven, en het is verstandig om het ook nu met enige reserve te lezen. Tegelijk zitten er in deze update een paar dingen die voor juristen relevant zijn, mits je realistisch blijft over waar je het model wel en niet voor inzet. En dat is, voor verreweg de meeste juristen, nog steeds: niet-vertrouwelijk werk. Denk aan openbare jurisprudentie doornemen, wetteksten uitleggen, een blog of column redigeren, een presentatie opzetten, een geanonimiseerde casus uitpluizen, of sparren over een juridisch probleem in abstracte vorm. Voor dat soort werk is de vraag wel degelijk: wat kan Opus 4.7 beter dan zijn voorganger?
Wat er concreet beter is geworden
Het duidelijkste verschil zit in hoe het model omgaat met twijfel. Eerdere versies, inclusief Opus 4.6, hadden de neiging om bij onvolledige informatie toch een plausibel klinkend antwoord te geven. Dat is precies het gedrag waar juristen voor moeten oppassen: een antwoord dat overtuigend klinkt maar niet klopt. Analyseplatform Hex meldt in de evaluatie van Anthropic dat Opus 4.7 vaker expliciet zegt wanneer informatie ontbreekt, in plaats van het gat op te vullen met een aannemelijke gok. Als je het model vraagt om een bepaalde uitspraak te analyseren en die uitspraak niet goed kent, is de kans groter dat het dat nu ook zegt. Dat is geen revolutie, maar voor betrouwbaarheid in juridisch gebruik is het het belangrijkste verschil van deze release.
Daarnaast volgt het model instructies preciezer. Als je vraagt om een tekst in exact 300 woorden, drie argumenten in volgorde van sterkte, of een analyse volgens een vaste structuur, houdt Opus 4.7 zich daar vaker aan. Dat lijkt een detail, maar wie Claude inzet voor gestructureerd schrijfwerk merkt het direct: minder nabewerking, minder herprompten. De keerzijde is dat prompts die je op Opus 4.6 had ingeregeld soms herijking vragen, omdat het model nu letterlijker leest wat je schrijft.
Een derde verbetering zit in langere, meerstapse taken. Volgens 9to5Mac gebruikt Opus 4.7 een vorm van geheugen die over meerdere sessies heen notities kan vasthouden. Waar je voorheen bij elk nieuw gesprek opnieuw moest uitleggen waar je mee bezig was, kan het model nu voortbouwen op eerdere sessies, mits je die functionaliteit bewust gebruikt. Voor iemand die over weken aan een artikel werkt, een onderzoeksstuk opbouwt of een reeks blogs schrijft rond één thema, scheelt dat herhaling.
Wat Anthropic zelf als nieuw presenteert
Er is een nieuwe redeneerstand toegevoegd, "xhigh", die tussen de bestaande standen high en max zit. In gewoon Nederlands: je kunt nu fijnmaziger kiezen hoe lang het model nadenkt voordat het antwoordt. Voor simpele vragen blijft snel antwoorden het beste, maar bij een complexe juridische redenering waar je grondigheid wilt zonder eindeloos te wachten, heb je nu een tussenstand. Is dit wereldschokkend? Nee. Is het nuttig als je het model serieus gebruikt? Ja.
De beeldverwerking is ook flink uitgebreid. Investing.com meldt dat Opus 4.7 afbeeldingen tot 2.576 pixels op de lange zijde verwerkt, ruim drie keer zoveel als voorheen. Relevant voor wie openbare stukken als PDF of scan aan het model voorlegt, zoals een Kamerbrief, een openbare uitspraak of een publiek toegankelijk rapport. Kleine letters en voetnoten worden daardoor beter leesbaar voor het model.
De kostenkant
Anthropic meldt zelf, eerlijk gezegd nogal ongebruikelijk voor een productlancering, dat de totale rekening kan stijgen. De prijs per token blijft gelijk (5 dollar per miljoen input, 25 dollar per miljoen output), maar dezelfde tekst kan volgens Anthropic nu 1,0 tot 1,35 keer zoveel tokens opleveren door een aangepaste tokenizer. Daarbovenop denkt het model op hogere standen gewoon langer na, wat ook tokens kost. Voor incidenteel gebruik merk je dat niet. Zet je het model structureel in voor een team, dan is het verstandig om je verbruik een maand te monitoren voordat je aannames over kosten overneemt van Opus 4.6.
De Mythos-context: waarom deze release ook anders is gepositioneerd
Wat deze release onderscheidt van eerdere rondes is de openlijke erkenning dat Opus 4.7 niet het krachtigste model is dat Anthropic heeft. Dat is Claude Mythos Preview, een model dat bewust niet breed beschikbaar is vanwege cybersecurity-risico's. In het aankondigingsblog schrijft Anthropic dat tijdens de training van Opus 4.7 actief is geprobeerd bepaalde capaciteiten te verminderen, en dat er safeguards zijn ingebouwd die verzoeken met schadelijke intentie blokkeren.
Dat is volwassen communicatie. Een leverancier die publiekelijk zegt "dit is niet ons beste model, maar het beste dat we verantwoord kunnen uitrollen", wijkt af van de gebruikelijke retoriek. Het past ook bij de gelaagde risicoaanpak die de AI Act gaat vragen van afnemers: niet elk model past bij elke taak, en niet elke taak hoort bij elk model.
En dan het echte punt
Blijft over: waarschijnlijk zit de grootste winst van Opus 4.7 niet in een feature, maar in het feit dat het model minder snel met stellige onzin komt. Voor juridisch werk, waar de kwaliteit van een antwoord afhangt van de bereidheid om te zeggen "dit weet ik niet", is dat de belangrijkste vooruitgang. Of die verbetering in jouw praktijk echt standhoudt, merk je pas als je dezelfde vragen stelt waarbij Opus 4.6 eerder plausibel leek maar fout zat.
De relevantere vraag is misschien niet welk model je gebruikt, maar hoe je omgaat met de frequentie waarmee deze updates binnenkomen. Elke twee maanden een nieuw topmodel is geen ritme waar klassieke inkoopprocessen, audits of opleidingstrajecten op gebouwd zijn. Dat is het werkelijke nieuws van vandaag, en het is niet opgelost met een nieuwe modelversie.