
Модель deepseek-r1:latest, развёрнутая локально через Ollama, демонстрирует впечатляющее качество генерации текста. По факту, в повседневных задачах она не уступает таким облачным моделям, как GPT-4o и Gemini 2.5 Pro, особенно в контексте:

Место действия: LM Studio ПК: Ryzen 7 5800X / RTX 4060 8GB / 32GB RAM / SSD 2TB + 2TB Формат: LLM локально без интернета Сравниваем: 🔹 Mistral 7B Instruct v0.2 (~5.2 ГБ) 🔸 DeepSeek R1 Distill + Qwen 32B (~20 ГБ)