Skip to content

opencode-dynamic-context-pruning
Plugin für intelligente Token-Optimierung

OpenCode-Plugin, das durch intelligentes Entfernen von redundanten Tool-Aufrufen aus dem Gesprächsverlauf die Token-Nutzung automatisch reduziert. Unterstützt drei Strategien: automatische Deduplizierung, Erkennung von Überschreibvorgängen und Fehlerbereinigung sowie KI-gesteuerte discard/extract-Tools, die dem Modell die autonome Entscheidung über den Zeitpunkt der Kontextbereinigung ermöglichen.

Warum DCP wählen?

In langen Gesprächen viele Token sparen, LLM-Nutzungskosten senken und die Antwortqualität des Modells verbessern.

Automatische Deduplizierung

Erkennt Aufrufe mit demselben Tool-Namen und denselben Parametern, behält automatisch den neuesten bei, ohne manuellen Eingriff.

Erkennung von Überschreibvorgängen

Verfolgt die zeitliche Reihenfolge von Schreib- und Lesevorgängen in Dateien und bereinigt automatisch Schreibvorgänge, die durch nachfolgende Lesevorgänge überschrieben wurden.

Fehlerbereinigungsstrategie

Beschneidet automatisch fehlerhafte Tool-Eingaben, die über eine angegebene Anzahl an Runden hinausgehen, behält jedoch die Fehlermeldungen zur Fehlersuche bei.

KI-gesteuerte Beschneidung

Stellt discard- und extract-Tools zur Verfügung, die der KI die autonome Entscheidung über den Zeitpunkt der Kontextbereinigung ermöglichen und eine Optimierung auf semantischer Ebene realisieren.

Transparent und steuerbar

Ermöglicht die Anzeige der Token-Nutzung und kumulierten Statistiken über den /dcp-Befehl sowie die manuelle Auslösung der Beschneidung.

Zustandspersistenz

Behält Beschneidungszustände und Statistiken sitzungsübergreifend bei und ermöglicht die langfristige Verfolgung der Token-Einsparungseffekte.