summary & memory chat — как сохранить память бота правильно
⊹₊˚ʚ немного теории ɞ˚₊⊹
я решила сделать эту небольшую статью, потому что этот вопрос я вижу довольно часто — особенно про то, как работает память и почему боты вдруг «забывают» прошлое. хочется, чтобы всё стало понятнее ♡
когда мы говорим про память модели, есть два важных термина — context size и chat memory.
✧ context size — это как вместимость памяти модели. она показывает, сколько текста (в токенах) модель может «помнить» в одном разговоре. если вы её превысите — старые сообщения начнут постепенно забываться
✧ chat memory — это долгосрочная память, где сохраняется сводка предыдущих событий, чтобы бот не терял контекст даже после перезагрузки. вы можете вставлять туда текстовые summary, чтобы обновлять и поддерживать память в порядке ♡
⊹₊˚ʚ команды ɞ˚₊⊹
я добавила три новые команды для сводки чата — теперь можно делать не просто короткое резюме, а полноценный разбор сюжета и эмоций ໒꒰ྀི。•̀ᴗ-꒱ྀི✧
[OOC: This is *NOT* a role-playing process, we are *SUSPENDING* it. Please generate a *DETAILED SUMMARY* of the entire chat so far. Include key events, emotional changes, and character dynamics rather than just a short recap.]
[OOC: This is *NOT* a role-playing process, we are *SUSPENDING* it. Provide a *COMPREHENSIVE SUMMARY* of the entire chat so far, including major plot points, emotional tone shifts, character motivations and relationship dynamics, and any unresolved tension or foreshadowing elements. Give a thoughtful overview, not a short recap.]
[OOC: This is *NOT* a role-playing process, we are *SUSPENDING* it. Generate a *STRUCTURED SUMMARY* of the entire chat with sections for: 1) chronological overview of events, 2) emotional progression of each character, 3) shifts in tone and atmosphere, and 4) unresolved threads or future implications. Be specific and interpretive.]
если команда не сработала — попробуйте взять её в двойные звёздочки, вот так:
**[OOC: ...]**
⊹₊˚ʚ как использовать ɞ˚₊⊹
смотри, сколько контекста (context size) у твоей модели, и проверяй в chat memory, сколько токенов в скобочках уже накопилось.
→ отправляешь команду прямо в чат
→ модель делает тебе сводку
→ копируешь получившийся текст
→ вставляешь его в память чата. теперь он помнит всё, что нужно, но без перегрузки токенов.