From 1749cbc4032e62e91a6eb355bf22de4b51e121da Mon Sep 17 00:00:00 2001 From: "Christoph K." Date: Wed, 4 Mar 2026 20:46:02 +0100 Subject: [PATCH] Calude MD datei added --- CLAUDE.md | 60 +++++++++++++++++++++++++++++++++++++++++++++++++++++++ 1 file changed, 60 insertions(+) create mode 100644 CLAUDE.md diff --git a/CLAUDE.md b/CLAUDE.md new file mode 100644 index 0000000..a48b76d --- /dev/null +++ b/CLAUDE.md @@ -0,0 +1,60 @@ +# goralphy + +## Projekt +Autonomer Go Coding-Agent ähnlich wie Ralphy. +Nutzt lokale LLMs via OpenAI-kompatibler API (Docker AI, Port 12434). +Die lokelen LLM sind klein und laufen auf einem kleinen Rechner mit 16GB RAM, daher ist die Planung und Task-Aufteilung besonders wichtig. + +Das Projekt soll mehrere Agenten unterstüzen die jeweils für eine Aufgabe spezialisert sind. +Folgende Agenten sind geplant: +- Planner-Agent: Zerlegt die PRD.md in atomare Tasks +- Code-Agent: Führt die Tasks aus, schreibt Code, führt Tests aus, dokumentiert +- Test-Agent : Führt die Tests aus, analysiert Fehler, gibt Feedback an Code-Agent +- Reseach-Agent: Recherchiert spezifische Fragen und gibt Inspiration basirend auf Internet-Quellen die konfigurierbar sein sollen (github, google suche, reddit, stackoverflow) + +Jeder Agent soll seine Erkennisse und Fortschritte in einer Session-Datei (.agent-session.md) dokumentieren, damit der Fortschritt nachvollziehbar ist und die Agenten voneinander lernen können. +Des Weiteren soll jeder Agent eine TODO list im Markdown-Format führen, damit die Aufgaben klar strukturiert und priorisiert sind. + +Das Projekt soll eine modulare Architektur haben, damit neue Agenten oder Tools leicht hinzugefügt werden können. + +Das Projekt soll eine markdown basierte Dokumentation haben die die Architektur gut erklärt und die wichtigsten Konzepte beschreibt. + +## Architektur +- `main.go` – Einstiegspunkt, Flag-Parsing, Modell-Auswahl +- `agent/loop.go` – Worker-Loop, Tool Calling, XML-Fallback Parser +- `agent/tools.go` – Tool-Executor (write_file, read_file, list_files, task_complete) +- `agent/logger.go` – Verbose-Logging +- `agent/session.go` – Session-Persistenz in .agent-session.md +- `agent/planner.go` – Planner-Agent (expandiert PRD → atomare Tasks) +- `agent/code.go` – Code-Agent (führt Tasks aus, schreibt Code, dokumentiert) +- `agent/test.go` – Test-Agent (führt Tests aus, analysiert Fehler, gibt Feedback an Code-Agent) +- `agent/research.go` – Research-Agent (recherchiert +- `prd/parser.go` – PRD.md Parser + +## Wichtige Konventionen +- Go Modulname: llm-agent +- LLM Endpoint: http://127.0.0.1:12434/v1 +- Arbeitsverzeichnis: ./output (per --workdir Flag) +- PRD-Datei: PRD.md (per --prd Flag) +- Default Modell: docker.io/ai/qwen3-coder:latest + +## Commands +go build -o llm-agent . +go test ./... +go run main.go --workdir output --prd PRD.md --verbose + +## Vorgehensweise +- Verfeinere die Architektur und die Agenten-Designs, +- Implementiere die Basis-Architektur und den Planner-Agent +- Teste den Planner-Agent +- Implementiere den Code-Agent +- Teste den Code Agent +- Implementiere den Research-Agent +- Teste den Research-Agent + +## Späteree Erweiterungen +Integration einer Vektor-Datenbank für die Speicherung von Agenten-Erkenntnissen und Code-Snippets, um die Wiederverwendbarkeit und das Lernen der Agenten zu verbessern. + +Integration von git um zwischenschritte zu dokumentieren und die Zusammenarbeit zwischen mehreren Agenten zu verbessern und die Steuerung über Pull Requests zu ermöglichen. + +Integration von Discors Chat um die Agenten in Echtzeit zu überwachen und mit ihnen zu interagieren. \ No newline at end of file