Это старая версия документа!
AI Models
Блок питания (Спецификации)
| Компонент | Модель / Название | Параметры и Совместимость |
|---|---|---|
| Блок питания | HP 500W Platinum SFF | P/N: L89233-001 / L77487-001 |
| Производитель | Delta Electronics / Lite-On | Модель: DPS-500AB-51 A / PA-5501-2HA |
| Разъемы | Фирменные HP (4+4+7 pin) | В комплекте: 1x или 2x 6+2-pin PCIe для видеокарты |
| Форм-фактор | SFF (Small Form Factor) | Устанавливается внутрь корпуса HP 805D SFF |
| Эффективность | 80 Plus Platinum | Максимальный КПД и низкий нагрев |
Совместимые видеокарты NVIDIA и AI-модели
| Модель GPU (Low Profile) | VRAM | Длина | Рекомендуемые AI-модели (2026) |
|---|---|---|---|
| GeForce RTX 4060 LP | 8 GB | ~182 мм | Llama 3.1/3.2 (8B), Mistral 7B, Flux.1 (Schnell), SDXL |
| GeForce RTX 3050 LP | 8 GB | ~182 мм | Llama 3.1 (8B 4-bit), Qwen 2.5 (7B), SD 1.5, YOLOv11 |
| GeForce GTX 1660 Ti LP | 6 GB | ~182 мм | Mistral 7B (квант.), Phi-3.5 Mini, Stable Diffusion 1.5 |
| GeForce RTX 3050 LP | 6 GB | ~170 мм | Gemma 2 (2B/9B), Llama 3.2 (3B), DeepSeek Coder 7B |
| Семейство AI | Конкретные модели (для 8GB VRAM) | Особенности работы на вашем железе |
|---|---|---|
| Qwen (Alibaba) | Qwen 2.5 / 3 (7B, 14B 4-bit) | Версия 7B работает очень быстро. 14B влезет только с сильным квантованием (GGUF/EXL2). |
| DeepSeek | DeepSeek-V3 (Lite), DeepSeek-Coder-V2 | Идеально для программирования. Рекомендуется использовать модели до 7B-16B параметров. |
| Open Source (OSS) | Llama 3.2 (3B/8B), Mistral NeMo (12B) | Mistral NeMo — это новый стандарт для 8 ГБ карт, дает очень качественные ответы. |
| Мультимодальные | Llama 3.2 Vision (11B), Qwen2-VL | Позволяют "видеть" изображения. Работают на грани VRAM, требуют оптимизации. |
| Локальные агенты | OpenDevin, AutoGPT (на базе Qwen 7B) | Можно запускать полноценных AI-агентов для автоматизации задач на ПК. |
RTX 3080 Ti (12GB VRAM) в LM Studio
| Модель AI | Параметры | Рекомендуемое квантование | Настройки LM Studio (GPU Offload) |
|---|---|---|---|
| DeepSeek-V3 | 671B (MoE) | IQ2_XS / IQ2_M | Не влезет в VRAM. Использовать только через API или GGUF с системной RAM. |
| DeepSeek-Coder-V2 | 16B | Q5_K_M или Q6_K | Full GPU Offload (все слои в VRAM). Скорость: ~25-40 токенов/сек. |
| Qwen 2.5 / 3 | 14B / 32B | 14B: Q8_0; 32B: Q3_K_M | 14B: Full Offload (идеально). 32B: Частичный (20-25 слоев в VRAM). |
| Llama 3.1 / 3.2 | 8B / 70B | 8B: Q8_0 (FP16); 70B: IQ1_S | 8B: Летает. 70B: Только для тестов (очень медленно, через системную RAM). |
| Mistral NeMo | 12B | Q6_K или Q8_0 | Full GPU Offload. Модель создана NVIDIA специально под 12ГБ карты. |
| Gemma 2 | 9B / 27B | 9B: Q8_0; 27B: Q3_K_L | 9B: Максимальное качество. 27B: Частичный оффлоуд (~15-18 слоев). |
| Command R | 35B | IQ3_M | Частичный оффлоуд. Хорошо подходит для RAG (работы с документами). |
Модели для кодинга (Python, JS, C++, SQL и др.)
| Название модели | Параметры | Квантование (12GB VRAM) | Настройка в LM Studio |
|---|---|---|---|
| DeepSeek-Coder-V2-Lite | 16B | Q5_K_M (или Q6) | Full GPU Offload. Лучшая модель для кода на сегодня. |
| Qwen 2.5 Coder | 7B | Q8_0 (FP16) | Full GPU Offload. Самая быстрая, идеальна для простых скриптов. |
| CodeLlama | 13B | Q6_K | Full GPU Offload. Проверенная классика от Meta. |
| Phind-CodeLlama | 34B | IQ3_M | Partial Offload (20-24 слоя). Очень умная, но требует системной RAM. |
| Granite-Code (IBM) | 8B | Q8_0 | Full GPU Offload. Очень легкая и быстрая для интеграции в VS Code. |
12 ГБ VRAM
NSFW/Adult
| Базовая модель | Популярные кастомные модели (Checkpoints) | Особенности для RTX 3080 Ti |
|---|---|---|
| Stable Diffusion XL (SDXL) | Pony Diffusion V6 (и выше), RealVisXL, Juggernaut XL | Самый высокий реализм и понимание сложных поз. 12ГБ VRAM хватает для генерации 1024x1024. |
| Stable Diffusion 1.5 | Realistic Vision, ChilloutMix, Deliberate | Очень быстрая генерация. Огромная база Lora-фильтров для лиц и фетишей. |
| Flux.1 (Schnell/Dev) | RealismLora, Flux-Pony | Модель нового поколения (2025-2026). Лучшая анатомия и кожа, но требует 12ГБ+ (на 3080 Ti идет впритык). |
| Pony Diffusion | Pony Diffusion V6 XL | Самая гибкая модель. Понимает практически любые запросы через систему тегов (как на Danbooru). |
N8N
| Модель AI | Параметры | Прямая ссылка на GGUF | Назначение |
|---|---|---|---|
| DeepSeek R1 (Distill) | 14B | Открыть на HF | Лидер логики и рассуждений (CoT) |
| Qwen 3 | 14B | Открыть на HF | Лучший русский язык и универсальность |
| Gemma 3 (2026) | 12B | Открыть на HF | Креативность и высокая эрудиция |
| DeepSeek Coder V2 | 16B | Открыть на HF | Эталон для написания и аудита кода |
| Mistral NeMo | 12B | Открыть на HF | Стандарт стабильности для 12ГБ VRAM |
| Reflection 1 (L3.1) | 8B | Открыть на HF | Модель с самопроверкой ошибок |
| GLM-5 | 9B | Открыть на HF | Мультимодальность (Vision / OCR) |
| OLMo-3-13B | 13B | Открыть на HF | Полностью открытые данные обучения |
| Ministral 8B | 8B | Открыть на HF | Оптимальна для n8n автоматизации |
| Phi-4 | 14B | Открыть на HF | Научная логика и математика |
| Категория | Инструмент | Ссылка на сайт | Описание |
|---|---|---|---|
| Запуск LLM | LM Studio | LM Studio | Главный GUI для GGUF моделей |
| Запуск LLM | Ollama | Ollama | CLI-движок для фоновой работы и API |
| Автоматизация | n8n | n8n.io | Платформа для создания AI-агентов |
| Кодинг | Cursor | Cursor AI | AI-редактор кода с поддержкой Local API |
| Кодинг | Continue | Continue.dev | Плагин для VS Code под локальные LLM |
| Графика | Forge UI | SD Forge | Самая быстрая генерация картинок (NSFW/Art) |
| Графика | Civitai | Civitai | Библиотека моделей (Checkpoints/LoRA) |
| База моделей | Hugging Face | Hugging Face | Главный архив всех AI моделей мира |
Рекомендация по скачиванию:
Для RTX 3080 Ti в поиске LM Studio всегда ищите модели от автора "bartowski". Его кванты GGUF в 2026 году считаются наиболее оптимизированными по соотношению "занимаемая память / итоговая точность". Для моделей 12B-14B выбирайте версию файла Q4_K_M — она идеально поместится в 12 ГБ видеопамяти вместе с контекстом.
Рекомендация по скачиванию для RTX 4060 (8GB):
В поиске LM Studio всегда ищите модели от авторов "mradermacher" или "bartowski". Их кванты GGUF в 2026 году считаются наиболее оптимизированными по соотношению "занимаемая память / итоговая точность".
- Для моделей 7B-9B выбирайте версию файла Q5_K_M — она идеально поместится в 8 ГБ видеопамяти вместе с контекстом.
- Для моделей 12B-14B выбирайте версию IQ3_M (от mradermacher) — это единственный способ запустить такие модели на 8 ГБ без потери скорости и вылетов.
Специализация моделей
1. Qwen 2.5 / 3 (7B/14B):
- Для чего: Лучшая модель для связи n8n с внешними API (Google Sheets, Telegram, CRM).
- Признак инструментов: Нативная поддержка Tool Use. Модель понимает, когда ей нужно вызвать конкретный узел в n8n для получения данных.
2. Nemotron 3 Nano (4B):
- Для чего: Если вам нужно обрабатывать тысячи входящих сообщений в минуту. Она мгновенно определяет "настроение" клиента или категорию вопроса.
- Признак инструментов: Очень стабильный формат вывода. Редко "галлюцинирует" лишним текстом вне JSON.
3. DeepSeek-Coder-V2 (16B Distill):
- Для чего: Автоматическое написание кода внутри узла "Code" в n8n. Она может сама написать скрипт на JavaScript для преобразования сложных массивов данных.
- Признак инструментов: Специализированные токены для написания кода и работы с данными.
4. SmolLM (Small Language Model):
- Для чего: Самые простые задачи. Например, проверить, содержит ли текст нецензурную лексику или извлечь дату из письма.
- Признак инструментов: Из-за малого размера не поддерживает сложные вызовы инструментов, но идеальна как "умный фильтр".
Agents
$ npm install -g @qwen-code/qwen-code $ qwen --version
$ npm install -g @google/gemini-cli $ gemini
Новости по моделям
Модели
- Alibaba Group объявила о выходе модели искусственного интеллекта Qwen3-Coder — она доступна с открытым исходным кодом и предназначается для написания программного кода.


