Använda Claude AI för att styra upp större mängder Home Assistant-kod utan att slå i taket för konversationens maxlängd

Permalänk
Medlem

Använda Claude AI för att styra upp större mängder Home Assistant-kod utan att slå i taket för konversationens maxlängd

Hej!

Precis som rubriken lyder, så undrar jag om det finns något enkelt sätt att kringgå den begränsningen på konversationslängden som Claude AI tillämpar.

Drömscenariot vore att bifoga alla mina konfigurationsfiler, som till stor del är i behov av att struktureras om på ett bräde för att säkerställa att alla "cross references" dvs. exempelvis namn på script,input_booleans,automations, mm... stämmer överens.
Ber jag exempelvis Claude att strukturera om min kod och bifogar en av filerna åt gången, så går jag miste om den helhetsomformningen som skulle behövas för att få en optimal struktur på all min kod.

Tacksam för svar.

Visa signatur

¤ CPU Intel Core 2 QUAD Q9450 CPU Kylare Zalman CNPS9700LED Ultra Quiet GPU GeForce GTX 280 1024MB Moderkort Asus Rampage Formula iX48 RAM Corsair Dominator 2GB TWIN2X2048-8500C5DF Ljudkort Creative SB X-Fi Xtreme Gamer Fatal1ty PSU Corsair HX Series Modular Power Supply 620W Chassi Cooler Master Stacker STC-T01 HDD WD Raptor 150GB 10000RPM ~ Maxtor 300GB ~ Samsung SpinPoint 500GB ¤

Permalänk
Medlem
Skrivet av SkiZoR:

Hej!

Precis som rubriken lyder, så undrar jag om det finns något enkelt sätt att kringgå den begränsningen på konversationslängden som Claude AI tillämpar.

Drömscenariot vore att bifoga alla mina konfigurationsfiler, som till stor del är i behov av att struktureras om på ett bräde för att säkerställa att alla "cross references" dvs. exempelvis namn på script,input_booleans,automations, mm... stämmer överens.
Ber jag exempelvis Claude att strukturera om min kod och bifogar en av filerna åt gången, så går jag miste om den helhetsomformningen som skulle behövas för att få en optimal struktur på all min kod.

Tacksam för svar.

Nu vet ju inte jag hur stora dina filer är...
Men jag har börjat pyssla lite med NixOS, och jag gör exakt så med config-filerna.
Och Google Gemini har inte protesterat än...
Så, prova en annan AI?

Nästa alternativ. Har du provat att köra en lokal LLM? Du har ju kanske inte behovet av att få snabbt svar, tänker jag.
Och har du bra hårdvara så FÅR du snabbt svar. Ladda hem Ollama och prova. (Angående modell isåfall: Ta en vars b-nummer ligger under mängden minne du har på grafikkortet. Dvs b7 eller mindre om du har 8GB minne på grafikkortet.)

Visa signatur

// men vad vet jag, fråga en expert istället