Insight 07 · 10 minuten lezen
We bouwden het voordat Anthropic het uitbracht.
Session logging, context-overdracht, agent thinking — wij hadden het al. Toen bracht Anthropic PreCompact hooks uit.
Op 14 april bracht Anthropic een feature uit die PreCompact hook blocking heet. In gewone taal: je kunt nu een script laten draaien vlak voordat Claude Code je gesprek comprimeert, en dat script kan de compressie tegenhouden. Even pauzeren. Eerst opslaan. Dan pas comprimeren.
De Claude Code community was enthousiast. Eindelijk een manier om context te bewaren voordat die verdwijnt.
Wij deden dit al sinds maart.
Het probleem waar niemand over praat
Als je lang genoeg met een AI praat, raakt het geheugen vol. Het systeem comprimeert dan oudere berichten om ruimte te maken. Dat heet compaction. En als dat gebeurt, sterft de nuance.
De beslissing die je nam in bericht 12? Samengeperst tot één regel. De correctie in bericht 47? Weg. De geleidelijke koerswijziging die over 200 berichten ontstond? Platgeslagen tot een generieke zin die niets van de redenering bewaart.
Voor een vrijblijvend gesprekje maakt het niet uit. Voor echt werk — waar beslissingen op elkaar bouwen en context alles is — is het desastreus.
De meeste mensen merken het niet eens. Ze voelen het alleen: “Waarom vergeet mijn AI steeds dingen? Waarom moet ik mezelf herhalen? Waarom wordt de kwaliteit slechter na een uur?”
Dat is compaction. En tot 14 april was er officieel geen manier om er iets aan te doen.
Wat wij gebouwd hebben
Eind maart begon ik een sessie-management systeem te bouwen voor mijn AI-team. Niet omdat ik wist dat Anthropic iets vergelijkbaars zou uitbrengen — ik bouwde het omdat ik werk verloor.
Elke keer dat een sessie de contextlimiet bereikte, werd alles wat ik besproken had — beslissingen, correcties, strategische richting, klantspecifieke kennis — samengeperst tot een samenvatting die precies de delen wegliet die het meest telden.
Dus bouwde ik drie dingen.
1. Session logging vanaf de eerste seconde
Vanaf het moment dat een sessie start, wordt elk bericht — van mij en van de AI — opgeslagen als platte tekst. Geen samenvatting. Geen bullet points. Het volledige transcript.
En hier wordt het interessant: inclusief de thinking blocks van de AI. Dat zijn de stukken waar de AI hardop nadenkt voordat hij antwoord geeft — waar hij opties afweegt, zijn eigen fouten ontdekt, beslissingen neemt. Normaal gesproken zie je die niet. In mijn systeem worden ze opgeslagen naast al het andere.
Als Anthropic compaction triggert, heb ik de volledige context al veiliggesteld. De compressie kan kapotmaken wat het wil — het origineel is bewaard.
2. Context-overdracht tussen sessies
Aan het eind van elke sessie wordt een handoff-bestand geschreven: wat is er besproken, wat is er beslist, wat is de volgende stap, welke bestanden zijn aangeraakt, welke vragen staan open. De volgende sessie leest dit bestand als eerste, voordat er iets anders gebeurt.
Dat betekent dat sessie 158 weet wat er in sessie 157 is gebeurd. Niet omdat ze hetzelfde geheugen delen — dat doen ze niet. Maar omdat de handoff de beslissingen en richting doorgeeft die ertoe doen.
Over 157 sessies heeft dit een levende kennisbank gecreëerd. Geen statische wiki. Een keten van beslissingen, correcties en inzichten die elke nieuwe sessie erft.
3. Het denken van de AI bewaren
Dit is het deel dat ik nog nergens anders heb gezien.
Als mijn AI door een probleem redeneert, genereert hij thinking blocks — interne monoloog die laat zien hoe hij tot zijn antwoord komt. In standaard Claude Code zijn die vluchtig. Ze bestaan tijdens de beurt en dan zijn ze weg.
In mijn systeem worden ze vastgelegd in het session log. Dat betekent dat ik kan terugkijken en niet alleen kan zien wat de AI zei, maar hoe hij erbij kwam. Waar hij twijfelde. Wat hij overwoog en verwierp. Waar hij aannames maakte.
Debugging wordt zo forensisch onderzoek in plaats van giswerk. Als een agent me een slecht advies geeft, hoef ik niet te raden waarom. Ik lees het thinking block en zie precies waar de redenering ontspoorde.
En toen bracht Anthropic het uit
Op 14 april lanceerde Anthropic PreCompact hook blocking. De hook draait vóór compaction, en als hij exit code 2 teruggeeft, wordt compaction geblokkeerd. De output van de hook wordt aan Claude getoond als bericht.
Dat is oprecht nuttig. Het betekent dat je tegen de AI kunt zeggen: “Sla je werk op voordat ik je comprimeer.” Dat is een echte verbetering ten opzichte van het oude gedrag: stilletjes comprimeren en hopen dat het goed gaat.
Maar hier is wat het wel en niet is:
Wat het is: Een manier om één moment te onderscheppen — het moment vlak voor compressie — en daar iets mee te doen.
Wat het niet is: Een systeem voor continue context-bewaring, kennisoverdracht tussen sessies, of het vastleggen van AI-redenering.
PreCompact hook blocking is één puzzelstukje. Wij hadden al de hele puzzel.
Waarom dit ertoe doet
Ik schrijf dit niet om punten te scoren tegen Anthropic. Ze bouwen ongelooflijk goed gereedschap en ik gebruik het elke dag. Het feit dat ze deze feature uitbrachten bevestigt het probleem — contextverlies bij compaction is echt en echte gebruikers lijden eronder.
Maar ik schrijf dit wél vanwege wat het onthult over waar de waarde zit.
Anthropic bouwt het platform. De modellen, de API, de infrastructuur. Ze zijn daar heel erg goed in. En elke paar weken brengen ze iets uit dat mijn systeem beter maakt — want ik bouw bovenop hun platform.
Maar de contextlaag— de beslissingen over wat je bewaart, hoe je het organiseert, hoe je het overdraagt tussen sessies, hoe je het beschikbaar maakt voor meerdere agents tegelijk — dat is van mij. Dat is wat ik drie maanden lang heb gebouwd. En dat vervangt Anthropic's feature niet.
Hun feature is een hook. Mijn systeem is een architectuur.
Het gat dat overblijft
Zelfs na PreCompact hook blocking doet standaard Claude Code nog steeds niet:
- Volledige sessie-transcripten opslaan vanaf het eerste bericht (niet pas bij compaction)
- AI thinking blocks bewaren als leesbare tekst
- Context overdragen tussen onafhankelijke sessies
- Meerdere agents toegang geven tot dezelfde sessiegeschiedenis
- Een cumulatieve kennisbank opbouwen over 100+ sessies
Dat zijn geen feature requests. Dat zijn architecturale keuzes die ik maakte omdat ik ze nodig had. En elk ervan vertegenwoordigt weken iteratie — aanpakken die niet werkten, edge cases ontdekken, iets bouwen dat daadwerkelijk standhoudt bij dagelijks gebruik.
Dat is het deel dat je niet kunt uitbrengen als feature-update. Features lossen één probleem tegelijk op. Architectuur lost de categorie problemen op.
Wat dit voor jou betekent
Als je iets serieus bouwt met AI — geen chatbot, geen weekendproject, maar een systeem dat betrouwbaar moet werken over weken en maanden — dan moet je nadenken over context-architectuur.
Niet “hoe prompt ik beter?” maar “hoe bewaar ik wat ik geleerd heb?”
Niet “welk model is het beste?” maar “hoe zorg ik dat het model weet wat ik weet?”
De modellen worden steeds beter. De features blijven komen. Maar de context die je opbouwt over maanden en jaren werken met jouw specifieke klanten — die stapelt op. En die stapelt sneller op dan welke modelverbetering dan ook.
Wij bouwden ons context-systeem voordat Anthropic PreCompact blocking uitbracht. En zelfs nu de feature bestaat, lopen we nog steeds voor. Niet omdat we slimmer zijn. Omdat we eerder begonnen, meer itereerden, en problemen oplosten die de platformlaag niet is ontworpen om op te lossen.
Die voorsprong krimpt niet. Die groeit.
Deel van de insights-serie.
Wil je zien hoe dit concreet werkt?
Ik stuur je een voorbeeld-rapport uit een echte case — geanonimiseerd waar nodig. Dan weet je waar ik het over heb.