Beschreibung Ihrer neuen Datei.
Max Chunks Retrievable steuert, wie viele Informationsteile () das LLM in einer Interaktion abrufen kann. Sie können ihn zwischen 1 und 10 anpassen. Wir empfehlen, ihn je nach in der Wissensdatenbank bei etwa 3-4 zu belassen.
Wenn Sie den Schieberegler anpassen, ändern Sie die maximale Anzahl, die das Modell abruft. Wenn Sie ihn auf eine höhere Zahl setzen, kann das Modell mehr Informationen auf einmal abrufen, was für komplexe Anfragen nützlich sein kann. Beachten Sie jedoch, dass einige Modelle ein niedrigeres haben, was bedeutet, dass sie nicht so viele Informationen auf einmal verarbeiten können und Sie möglicherweise einen niedrigeren Wert auf dem Schieberegler einstellen müssen.
Zum Abschnitt Wissen navigieren
Knowledge Ihres Agenten im Dashboard.Einstellungen aufrufen
gear-Symbol in der oberen rechten Ecke der Seite und klicken Sie darauf.Ihren Prompt schreiben
Chat-Verlauf-Variable einfügen
{chat_history} in Ihrem Prompt einfügen. Dies ist entscheidend für das ordnungsgemässe Funktionieren Ihrer Wissensdatenbank.{chat_history} nicht korrekt.Änderungen speichern
Done, um Ihre Änderungen zu speichern.Die Wissensdatenbank testen
Preview KB in der oberen rechten Ecke der Seite.