Yan I
@hobo_with_a_hookah
3 posts
llm

LLMs Prompting

Галицинирование - модель придумывает какой-то вывод на основе не существующих вещей. Чтобы это уменьшить, можно попросить модель сначала вспомнить релевантную информацию по теме, а потом только давать ответ, учитывая эту информацию.