Provider-Einrichtung: Claude, OpenAI, Gemini und Multi-Modell-Strategie
Was Sie nach diesem Tutorial können werden
- Konfigurieren Sie mehrere KI-Provider wie Anthropic Claude, OpenAI, Google Gemini und GitHub Copilot
- Verstehen Sie den Multi-Modell-Prioritäts-Degradierungsmechanismus, der das System automatisch das beste verfügbare Modell auswählen lässt
- Weisen Sie die am besten geeigneten Modelle für verschiedene KI-Agenten und Aufgabentypen zu
- Konfigurieren Sie Drittanbieter-Dienste wie Z.ai Coding Plan und OpenCode Zen
- Verwenden Sie den Doctor-Befehl zur Diagnose der Modellauflösungskonfiguration
Ihre aktuelle Herausforderung
Sie haben oh-my-opencode installiert, aber sind sich nicht sicher:
- Wie Sie mehrere KI-Provider hinzufügen (Claude, OpenAI, Gemini usw.)
- Warum ein Agent manchmal nicht das erwartete Modell verwendet
- Wie Sie verschiedene Modelle für verschiedene Aufgaben konfigurieren (z. B. günstige für Recherche, leistungsstarke für Programmierung)
- Wie das System automatisch auf ein Backup-Modell umschaltet, wenn ein Provider nicht verfügbar ist
- Wie die Modellkonfiguration in
opencode.jsonundoh-my-opencode.jsonzusammenarbeitet
Wann diese Technik verwenden
- Erstkonfiguration: Gerade oh-my-opencode installiert und müssen KI-Provider hinzufügen oder anpassen
- Neues Abonnement hinzufügen: Ein neues KI-Service-Abonnement gekauft (z. B. Gemini Pro) und möchten es integrieren
- Kosten optimieren: Möchten, dass bestimmte Agenten günstigere oder schnellere Modelle verwenden
- Fehlerbehebung: Festgestellt, dass ein Agent nicht das erwartete Modell verwendet, und müssen das Problem diagnostizieren
- Multi-Modell-Orchestrierung: Möchten die Vorteile verschiedener Modelle nutzen, um intelligente Entwicklungsworkflows zu erstellen
🎒 Vorbereitung vor dem Start
Voraussetzungsprüfung
Dieses Tutorial setzt voraus, dass Sie:
- ✅ Die Installation und Erstkonfiguration abgeschlossen haben
- ✅ OpenCode installiert haben (Version >= 1.0.150)
- ✅ Grundlegende JSON/JSONC-Konfigurationsdateiformate verstehen
Kernkonzept
oh-my-opencode verwendet ein Multi-Modell-Orchestrierungssystem, das basierend auf Ihren Abonnements und Konfigurationen die am besten geeigneten Modelle für verschiedene KI-Agenten und Aufgabentypen auswählt.
Warum mehrere Modelle benötigt werden?
Verschiedene Modelle haben unterschiedliche Stärken:
- Claude Opus 4.5: Stark in komplexem Reasoning und Architekturdesign (hohe Kosten, aber hohe Qualität)
- GPT-5.2: Stark in Code-Debugging und strategischer Beratung
- Gemini 3 Pro: Stark in Frontend- und UI/UX-Aufgaben (starke visuelle Fähigkeiten)
- GPT-5 Nano: Schnell und kostenlos, geeignet für Code-Suche und einfache Erkundung
- GLM-4.7: Hohe Kosten-Nutzen-Verhältnis, geeignet für Recherche und Dokumentensuche
Die Intelligenz von oh-my-opencode liegt darin: Jede Aufgabe verwendet das am besten geeignete Modell, anstatt alle Aufgaben mit demselben Modell auszuführen.
Konfigurationsdateispeicherort
oh-my-opencode unterstützt zwei Konfigurationsebenen:
| Speicherort | Pfad | Priorität | Anwendungsszenario |
|---|---|---|---|
| Projektkonfiguration | .opencode/oh-my-opencode.json | Niedrig | Projektspezifische Konfiguration (mit Codebasis committet) |
| Benutzerkonfiguration | ~/.config/opencode/oh-my-opencode.json | Hoch | Globale Konfiguration (von allen Projekten gemeinsam genutzt) |
Konfigurationszusammenführungsregel: Benutzerkonfiguration überschreibt Projektkonfiguration.
Empfohlene Konfigurationsdateistruktur:
{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json",
// JSON Schema-Autovervollständigung aktivieren
"agents": {
// Agent-Modell-Overrides
},
"categories": {
// Kategorie-Modell-Overrides
}
}Schema-Autovervollständigung
In Editoren wie VS Code erhalten Sie nach dem Hinzufügen des $schema-Felds vollständige Autovervollständigung und Typprüfung während der Eingabe.
Provider-Konfigurationsmethoden
oh-my-opencode unterstützt 6 Haupt-Provider. Die Konfigurationsmethoden variieren je nach Provider.
Anthropic Claude (Empfohlen)
Anwendungsszenario: Hauptorchestrator Sisyphus und die meisten Kern-Agenten
Konfigurationsschritte:
OpenCode-Authentifizierung ausführen:
bashopencode auth loginProvider auswählen:
Provider: Wählen SieAnthropicLogin method: Wählen SieClaude Pro/Max
OAuth-Flow abschließen:
- Das System öffnet automatisch den Browser
- Melden Sie sich bei Ihrem Claude-Konto an
- Warten Sie auf die Fertigstellung der Authentifizierung
Erfolg verifizieren:
bashopencode models | grep anthropicSie sollten sehen:
anthropic/claude-opus-4-5anthropic/claude-sonnet-4-5anthropic/claude-haiku-4-5
Modellzuordnung (Sisyphus-Standardkonfiguration):
| Agent | Standardmodell | Verwendung |
|---|---|---|
| Sisyphus | anthropic/claude-opus-4-5 | Hauptorchestrator, komplexes Reasoning |
| Prometheus | anthropic/claude-opus-4-5 | Projektplanung |
| Metis | anthropic/claude-sonnet-4-5 | Vorplanungsanalyse |
| Momus | anthropic/claude-opus-4-5 | Planungsüberprüfung |
OpenAI (ChatGPT Plus)
Anwendungsszenario: Oracle-Agent (Architekturüberprüfung, Debugging)
Konfigurationsschritte:
OpenCode-Authentifizierung ausführen:
bashopencode auth loginProvider auswählen:
Provider: Wählen SieOpenAILogin method: Wählen Sie OAuth oder API Key
Authentifizierungsflow abschließen (je nach gewählter Methode)
Erfolg verifizieren:
bashopencode models | grep openai
Modellzuordnung (Oracle-Standardkonfiguration):
| Agent | Standardmodell | Verwendung |
|---|---|---|
| Oracle | openai/gpt-5.2 | Architekturüberprüfung, Debugging |
Manuelles Überschreibungsbeispiel:
{
"agents": {
"oracle": {
"model": "openai/gpt-5.2", // Verwendet GPT für strategisches Reasoning
"temperature": 0.1
}
}
}Google Gemini (Empfohlen)
Anwendungsszenario: Multimodal Looker (Medienanalyse), Frontend UI/UX-Aufgaben
Sehr empfohlen
Für die Gemini-Authentifizierung wird dringend empfohlen, das Plugin opencode-antigravity-auth zu installieren. Es bietet:
- Multi-Account-Lastenausgleich (bis zu 10 Konten)
- Variant-System-Unterstützung (
low/high-Varianten) - Duales Kontingentsystem (Antigravity + Gemini CLI)
Konfigurationsschritte:
Antigravity-Authentifizierungs-Plugin hinzufügen:
Bearbeiten Sie
~/.config/opencode/opencode.json:json{ "plugin": [ "oh-my-opencode", "opencode-antigravity-auth@latest" ] }Gemini-Modelle konfigurieren (wichtig):
Das Antigravity-Plugin verwendet unterschiedliche Modellnamen. Sie müssen die vollständige Modellkonfiguration nach
opencode.jsonkopieren, wobei Sie sorgfältig zusammenführen müssen, um bestehende Einstellungen nicht zu beschädigen.Verfügbare Modelle (Antigravity-Kontingent):
google/antigravity-gemini-3-pro— Varianten:low,highgoogle/antigravity-gemini-3-flash— Varianten:minimal,low,medium,highgoogle/antigravity-claude-sonnet-4-5— keine Variantengoogle/antigravity-claude-sonnet-4-5-thinking— Varianten:low,maxgoogle/antigravity-claude-opus-4-5-thinking— Varianten:low,max
Verfügbare Modelle (Gemini CLI-Kontingent):
google/gemini-2.5-flash,google/gemini-2.5-pro,google/gemini-3-flash-preview,google/gemini-3-pro-preview
Agent-Modell überschreiben (in
oh-my-opencode.json):jsonc{ "agents": { "multimodal-looker": { "model": "google/antigravity-gemini-3-flash" } } }Authentifizierung ausführen:
bashopencode auth loginProvider auswählen:
Provider: Wählen SieGoogleLogin method: Wählen SieOAuth with Google (Antigravity)
Authentifizierungsflow abschließen:
- Das System öffnet automatisch den Browser
- Melden Sie sich bei Google an
- Optional: Fügen Sie weitere Google-Konten für Lastenausgleich hinzu
Modellzuordnung (Standardkonfiguration):
| Agent | Standardmodell | Verwendung |
|---|---|---|
| Multimodal Looker | google/antigravity-gemini-3-flash | PDF-, Bildanalyse |
GitHub Copilot (Backup-Provider)
Anwendungsszenario: Alternative Option, wenn native Provider nicht verfügbar sind
Backup-Provider
GitHub Copilot fungiert als Proxy-Provider, der Anfragen an das/die von Ihnen abonnierte(n) zugrunde liegende(n) Modell(e) weiterleitet.
Konfigurationsschritte:
OpenCode-Authentifizierung ausführen:
bashopencode auth loginProvider auswählen:
Provider: Wählen SieGitHubLogin method: Wählen SieAuthenticate via OAuth
GitHub OAuth-Flow abschließen
Erfolg verifizieren:
bashopencode models | grep github-copilot
Modellzuordnung (wenn GitHub Copilot der bestverfügbare Provider ist):
| Agent | Modell | Verwendung |
|---|---|---|
| Sisyphus | github-copilot/claude-opus-4.5 | Hauptorchestrator |
| Oracle | github-copilot/gpt-5.2 | Architekturüberprüfung |
| Explore | opencode/gpt-5-nano | Schnelle Erkundung |
| Librarian | zai-coding-plan/glm-4.7 (wenn Z.ai verfügbar) | Dokumentensuche |
Z.ai Coding Plan (Optional)
Anwendungsszenario: Librarian-Agent (Multi-Repository-Recherche, Dokumentensuche)
Merkmale:
- Bietet GLM-4.7-Modell
- Hohe Kosten-Nutzen-Verhältnis
- Wenn aktiviert, verwendet der Librarian-Agent immer
zai-coding-plan/glm-4.7, unabhängig von anderen verfügbaren Providern
Konfigurationsschritte:
Verwenden Sie den interaktiven Installer:
bunx oh-my-opencode install
# Wenn gefragt: "Do you have a Z.ai Coding Plan subscription?" → Wählen Sie "Yes"Modellzuordnung (wenn Z.ai der einzige verfügbare Provider ist):
| Agent | Modell | Verwendung |
|---|---|---|
| Sisyphus | zai-coding-plan/glm-4.7 | Hauptorchestrator |
| Oracle | zai-coding-plan/glm-4.7 | Architekturüberprüfung |
| Explore | zai-coding-plan/glm-4.7-flash | Schnelle Erkundung |
| Librarian | zai-coding-plan/glm-4.7 | Dokumentensuche |
OpenCode Zen (Optional)
Anwendungsszenario: Bietet opencode/-präfix-Modelle (Claude Opus 4.5, GPT-5.2, GPT-5 Nano, Big Pickle)
Konfigurationsschritte:
bunx oh-my-opencode install
# Wenn gefragt: "Do you have access to OpenCode Zen (opencode/ models)?" → Wählen Sie "Yes"Modellzuordnung (wenn OpenCode Zen der bestverfügbare Provider ist):
| Agent | Modell | Verwendung |
|---|---|---|
| Sisyphus | opencode/claude-opus-4-5 | Hauptorchestrator |
| Oracle | opencode/gpt-5.2 | Architekturüberprüfung |
| Explore | opencode/gpt-5-nano | Schnelle Erkundung |
| Librarian | opencode/big-pickle | Dokumentensuche |
Modellauflösungssystem (3-Schritt-Priorität)
oh-my-opencode verwendet ein 3-Schritt-Prioritätsmechanismus, um das für jeden Agenten und jede Kategorie verwendete Modell zu bestimmen. Dieser Mechanismus stellt sicher, dass das System immer ein verfügbares Modell findet.
Schritt 1: Benutzerüberschreibung
Wenn der Benutzer ein Modell explizit in oh-my-opencode.json angibt, wird dieses Modell verwendet.
Beispiel:
{
"agents": {
"oracle": {
"model": "openai/gpt-5.2" // Benutzer explizit angegeben
}
}
}In diesem Fall:
- ✅ Verwendet direkt
openai/gpt-5.2 - ❌ Überspringt den Provider-Degradierungsschritt
Schritt 2: Provider-Degradierung
Wenn der Benutzer kein Modell explizit angibt, versucht das System nacheinander die in der Prioritätskette des Agenten definierten Provider, bis ein verfügbares Modell gefunden wird.
Sisyphus' Provider-Prioritätskette:
anthropic → github-copilot → opencode → antigravity → googleAuflösungsprozess:
- Versucht
anthropic/claude-opus-4-5- Verfügbar? → Gibt dieses Modell zurück
- Nicht verfügbar? → Fährt mit nächstem Schritt fort
- Versucht
github-copilot/claude-opus-4-5- Verfügbar? → Gibt dieses Modell zurück
- Nicht verfügbar? → Fährt mit nächstem Schritt fort
- Versucht
opencode/claude-opus-4-5- ...
- Versucht
google/antigravity-claude-opus-4-5-thinking(wenn konfiguriert)- ...
- Gibt das Systemstandardmodell zurück
Provider-Prioritätsketten aller Agenten:
| Agent | Modell (ohne Präfix) | Provider-Prioritätskette |
|---|---|---|
| Sisyphus | claude-opus-4-5 | anthropic → github-copilot → opencode → antigravity → google |
| Oracle | gpt-5.2 | openai → anthropic → google → github-copilot → opencode |
| Librarian | big-pickle | opencode → github-copilot → anthropic |
| Explore | gpt-5-nano | anthropic → opencode |
| Multimodal Looker | gemini-3-flash | google → openai → zai-coding-plan → anthropic → opencode |
| Prometheus | claude-opus-4-5 | anthropic → github-copilot → opencode → antigravity → google |
| Metis | claude-sonnet-4-5 | anthropic → github-copilot → opencode → antigravity → google |
| Momus | claude-opus-4-5 | anthropic → github-copilot → opencode → antigravity → google |
| Atlas | claude-sonnet-4-5 | anthropic → github-copilot → opencode → antigravity → google |
Provider-Prioritätsketten von Kategorien:
| Kategorie | Modell (ohne Präfix) | Provider-Prioritätskette |
|---|---|---|
| ultrabrain | gpt-5.2-codex | openai → anthropic → google → github-copilot → opencode |
| artistry | gemini-3-pro | google → openai → anthropic → github-copilot → opencode |
| quick | claude-haiku-4-5 | anthropic → github-copilot → opencode → antigravity → google |
| writing | gemini-3-flash | google → openai → anthropic → github-copilot → opencode |
Schritt 3: Systemstandard
Wenn alle Provider nicht verfügbar sind, wird das OpenCode-Standardmodell verwendet (aus opencode.json gelesen).
Globale Prioritätsreihenfolge:
Benutzerüberschreibung > Provider-Degradierung > SystemstandardSchritt-für-Schritt: Konfiguration mehrerer Provider
Schritt 1: Planen Sie Ihre Abonnements
Bevor Sie mit der Konfiguration beginnen, organisieren Sie Ihre Abonnements:
- [ ] Anthropic Claude (Pro/Max)
- [ ] OpenAI ChatGPT Plus
- [ ] Google Gemini
- [ ] GitHub Copilot
- [ ] Z.ai Coding Plan
- [ ] OpenCode ZenSchritt 2: Verwenden Sie den interaktiven Installer (empfohlen)
oh-my-opencode bietet einen interaktiven Installer, der die meisten Konfigurationen automatisch durchführt:
bunx oh-my-opencode installDer Installer fragt nach:
Do you have a Claude Pro/Max Subscription?
yes, max20→--claude=max20yes, regular→--claude=yesno→--claude=no
Do you have an OpenAI/ChatGPT Plus Subscription?
yes→--openai=yesno→--openai=no
Will you integrate Gemini models?
yes→--gemini=yesno→--gemini=no
Do you have a GitHub Copilot Subscription?
yes→--copilot=yesno→--copilot=no
Do you have access to OpenCode Zen (opencode/ models)?
yes→--opencode-zen=yesno→--opencode-zen=no
Do you have a Z.ai Coding Plan subscription?
yes→--zai-coding-plan=yesno→--zai-coding-plan=no
Nicht-interaktiver Modus (geeignet für Skriptinstallation):
bunx oh-my-opencode install --no-tui \
--claude=max20 \
--openai=yes \
--gemini=yes \
--copilot=noSchritt 3: Authentifizieren Sie jeden Provider
Nach Abschluss des Installers authentifizieren Sie nacheinander:
# Anthropic authentifizieren
opencode auth login
# Provider: Anthropic
# Login method: Claude Pro/Max
# OAuth-Flow abschließen
# OpenAI authentifizieren
opencode auth login
# Provider: OpenAI
# OAuth-Flow abschließen
# Google Gemini authentifizieren (Antigravity-Plugin zuerst installieren)
opencode auth login
# Provider: Google
# Login method: OAuth with Google (Antigravity)
# OAuth-Flow abschließen
# GitHub Copilot authentifizieren
opencode auth login
# Provider: GitHub
# Login method: Authenticate via OAuth
# GitHub OAuth abschließenSchritt 4: Konfiguration verifizieren
# OpenCode-Version prüfen
opencode --version
# Sollte >= 1.0.150 sein
# Alle verfügbaren Modelle anzeigen
opencode models
# Diagnose ausführen
bunx oh-my-opencode doctor --verboseSie sollten sehen (Doctor-Ausgabebeispiel):
✅ OpenCode version: 1.0.150
✅ Plugin loaded: oh-my-opencode
📊 Model Resolution:
┌─────────────────────────────────────────────────────┐
│ Agent │ Requirement │ Resolved │
├─────────────────────────────────────────────────────┤
│ Sisyphus │ anthropic/claude-opus-4-5 │ anthropic/claude-opus-4-5 │
│ Oracle │ openai/gpt-5.2 │ openai/gpt-5.2 │
│ Librarian │ opencode/big-pickle │ opencode/big-pickle │
│ Explore │ anthropic/gpt-5-nano │ anthropic/gpt-5-nano │
│ Multimodal Looker│ google/gemini-3-flash │ google/gemini-3-flash │
└─────────────────────────────────────────────────────┘
✅ All models resolved successfullySchritt 5: Agent-Modelle anpassen (optional)
Wenn Sie für einen bestimmten Agenten ein anderes Modell angeben möchten:
{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json",
"agents": {
// Oracle verwendet GPT für Architekturüberprüfung
"oracle": {
"model": "openai/gpt-5.2",
"temperature": 0.1
},
// Librarian verwendet günstigeres Modell für Recherche
"librarian": {
"model": "opencode/gpt-5-nano",
"temperature": 0.1
},
// Multimodal Looker verwendet Antigravity Gemini
"multimodal-looker": {
"model": "google/antigravity-gemini-3-flash",
"variant": "high"
}
}
}Schritt 6: Kategorie-Modelle anpassen (optional)
Geben Sie Modelle für verschiedene Aufgabentypen an:
{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json",
"categories": {
// Schnelle Aufgaben verwenden günstiges Modell
"quick": {
"model": "opencode/gpt-5-nano",
"temperature": 0.1
},
// Frontend-Aufgaben verwenden Gemini
"visual-engineering": {
"model": "google/gemini-3-pro",
"temperature": 0.7,
"prompt_append": "Use shadcn/ui components and Tailwind CSS."
},
// Hochintelligente Reasoning-Aufgaben verwenden GPT Codex
"ultrabrain": {
"model": "openai/gpt-5.2-codex",
"temperature": 0.1
}
}
}Kategorie verwenden:
// Verwendung von delegate_task im Dialog
delegate_task(category="visual", prompt="Create a responsive dashboard component")
delegate_task(category="quick", skills=["git-master"], prompt="Commit these changes")Prüfpunkte ✅
- [ ]
opencode --versionzeigt Version >= 1.0.150 an - [ ]
opencode modelslistet Modelle aller konfigurierten Provider auf - [ ]
bunx oh-my-opencode doctor --verbosezeigt, dass alle Agentenmodelle korrekt aufgelöst sind - [ ] In
opencode.jsonist"oh-my-opencode"implugin-Array zu sehen - [ ] Versuchen Sie, einen Agenten (z. B. Sisyphus) zu verwenden, um zu bestätigen, dass das Modell funktioniert
Warnhinweise
❌ Falle 1: Provider-Authentifizierung vergessen
Symptom: Provider konfiguriert, aber Modellauflösung schlägt fehl.
Ursache: Der Installer hat die Modelle konfiguriert, aber die Authentifizierung wurde nicht abgeschlossen.
Lösung:
opencode auth login
# Wählen Sie den entsprechenden Provider und schließen Sie die Authentifizierung ab❌ Falle 2: Falsche Antigravity-Modellnamen
Symptom: Gemini konfiguriert, aber der Agent verwendet es nicht.
Ursache: Das Antigravity-Plugin verwendet unterschiedliche Modellnamen (google/antigravity-gemini-3-pro statt google/gemini-3-pro).
Lösung:
{
"agents": {
"multimodal-looker": {
"model": "google/antigravity-gemini-3-flash" // Korrekt
// model: "google/gemini-3-flash" // ❌ Falsch
}
}
}❌ Falle 3: Falsche Konfigurationsdateispeicherort
Symptom: Konfiguration geändert, aber das System hat sie nicht übernommen.
Ursache: Falscher Konfigurationsdateispeicherort (Benutzerkonfiguration vs. Projektkonfiguration).
Lösung:
# Benutzerkonfiguration (global, hohe Priorität)
~/.config/opencode/oh-my-opencode.json
# Projektkonfiguration (lokal, niedrige Priorität)
.opencode/oh-my-opencode.json
# Überprüfen, welche Datei verwendet wird
bunx oh-my-opencode doctor --verbose❌ Falle 4: Provider-Prioritätskette unterbrochen
Symptom: Ein Agent verwendet immer das falsche Modell.
Ursache: Die Benutzerüberschreibung (Schritt 1) überspringt die Provider-Degradierung (Schritt 2) vollständig.
Lösung: Wenn Sie die automatische Degradierung nutzen möchten, kodieren Sie das Modell nicht hart in oh-my-opencode.json, sondern lassen Sie das System basierend auf der Prioritätskette automatisch auswählen.
Beispiel:
{
"agents": {
"oracle": {
// ❌ Hartkodiert: Verwendet immer GPT, auch wenn Anthropic verfügbar ist
"model": "openai/gpt-5.2"
}
}
}Um die Degradierung zu nutzen, entfernen Sie das model-Feld und lassen Sie das System automatisch auswählen:
{
"agents": {
"oracle": {
// ✅ Automatisch: anthropic → google → github-copilot → opencode
"temperature": 0.1
}
}
}❌ Falle 5: Z.ai belegt immer den Librarian
Symptom: Auch wenn andere Provider konfiguriert sind, verwendet Librarian immer noch GLM-4.7.
Ursache: Wenn Z.ai aktiviert ist, ist der Librarian hartkodiert, um zai-coding-plan/glm-4.7 zu verwenden.
Lösung: Wenn Sie dieses Verhalten nicht benötigen, deaktivieren Sie Z.ai:
bunx oh-my-opencode install --no-tui --zai-coding-plan=noOder manuelles Überschreiben:
{
"agents": {
"librarian": {
"model": "opencode/big-pickle" // Überschreibt die Z.ai-Hartkodierung
}
}
}Lektionszusammenfassung
- oh-my-opencode unterstützt 6 Haupt-Provider: Anthropic, OpenAI, Google, GitHub Copilot, Z.ai, OpenCode Zen
- Verwenden Sie den interaktiven Installer
bunx oh-my-opencode install, um mehrere Provider schnell zu konfigurieren - Das Modellauflösungssystem wählt dynamisch Modelle durch 3 Schritte Priorität (Benutzerüberschreibung → Provider-Degradierung → Systemstandard)
- Jeder Agent und jede Kategorie hat seine eigene Provider-Prioritätskette, um sicherzustellen, dass immer ein verfügbares Modell gefunden wird
- Verwenden Sie den Befehl
doctor --verbose, um die Modellauflösungskonfiguration zu diagnostizieren - Beim Anpassen von Agent- und Kategorie-Modellen müssen Sie vorsichtig sein, den automatischen Degradierungsmechanismus nicht zu unterbrechen
Vorschau auf die nächste Lektion
In der nächsten Lektion lernen wir Multi-Modell-Strategie: Automatische Degradierung und Prioritäten.
Sie werden lernen:
- Den vollständigen Arbeitsablauf des Modellauflösungssystems
- Wie man optimale Modellkombinationen für verschiedene Aufgaben entwirft
- Strategien zur Parallelitätskontrolle in Hintergrundaufgaben
- Wie man Modellauflösungsprobleme diagnostiziert
Anhang: Quellcode-Referenz
Klicken Sie, um die Quellcode-Position anzuzeigen
Aktualisierungszeit: 2026-01-26
| Funktion | Dateipfad | Zeilennummer |
|---|---|---|
| Konfiguration Schema-Definition | src/config/schema.ts | 1-378 |
| Installationsanleitung (Provider-Konfiguration) | docs/guide/installation.md | 1-299 |
| Konfigurationsreferenz (Modellauflösung) | docs/configurations.md | 391-512 |
| Agent-Override-Konfiguration Schema | src/config/schema.ts:AgentOverrideConfigSchema | 98-119 |
| Kategorie-Konfiguration Schema | src/config/schema.ts:CategoryConfigSchema | 154-172 |
| Provider-Prioritätskette-Dokumentation | docs/configurations.md | 445-473 |
Wichtige Konstanten:
- Keine: Provider-Prioritätskette ist in der Konfigurationsdokumentation hartkodiert, nicht als Code-Konstante
Wichtige Funktionen:
- Keine: Die Modellauflösungslogik wird vom OpenCode-Kern verarbeitet, oh-my-opencode bietet Konfiguration und Prioritätsdefinition