ИИ на ПК / AI на локальной машине

🧠 DeepSeek-R1 через Ollama: мощь в терминале, но стоит ли оно того?

Модель deepseek-r1:latest, развёрнутая локально через Ollama, демонстрирует впечатляющее качество генерации текста. По факту, в повседневных задачах она не уступает таким облачным моделям, как GPT-4o и Gemini 2.5 Pro, особенно в контексте:

⚔️ Mistral 7B v0.2 vs DeepSeek R1 Distill Qwen 32B

Место действия: LM Studio ПК: Ryzen 7 5800X / RTX 4060 8GB / 32GB RAM / SSD 2TB + 2TB Формат: LLM локально без интернета Сравниваем: 🔹 Mistral 7B Instruct v0.2 (~5.2 ГБ) 🔸 DeepSeek R1 Distill + Qwen 32B (~20 ГБ)