Различия
Показаны различия между двумя версиями страницы.
| Предыдущая версия справа и слева Предыдущая версия Следующая версия | Предыдущая версия | ||
| develop:models [2026/01/02 20:14] – 192.168.1.159 | develop:models [2026/01/02 22:33] (текущий) – [Для RTX 4060 (8 ГБ VRAM)] 192.168.1.159 | ||
|---|---|---|---|
| Строка 1: | Строка 1: | ||
| - | ====== AI Models ====== | + | ====== AI Models |
| - | === Блок питания (Спецификации) ====== | + | {{tag>ai llm модели hardware gpu nvidia |
| - | ^ Компонент ^ Модель / Название ^ Параметры и Совместимость ^ | + | ==== Введение |
| - | | Блок питания | HP 500W Platinum SFF | P/N: L89233-001 / L77487-001 | | + | |
| - | | Производитель | Delta Electronics / Lite-On | Модель: | + | |
| - | | Разъемы | Фирменные HP (4+4+7 pin) | В комплекте: | + | |
| - | | Форм-фактор | SFF (Small Form Factor) | Устанавливается внутрь корпуса HP 805D SFF | | + | |
| - | | Эффективность | 80 Plus Platinum | Максимальный КПД и низкий нагрев | | + | |
| - | === Совместимые видеокарты NVIDIA и AI-модели === | + | Данная документация |
| - | ^ Модель GPU (Low Profile) ^ VRAM ^ Длина ^ Рекомендуемые AI-модели (2026) ^ | ||
| - | | GeForce RTX 4060 LP | 8 GB | ~182 мм | Llama 3.1/3.2 (8B), Mistral 7B, Flux.1 (Schnell), SDXL | | ||
| - | | GeForce RTX 3050 LP | 8 GB | ~182 мм | Llama 3.1 (8B 4-bit), Qwen 2.5 (7B), SD 1.5, YOLOv11 | | ||
| - | | GeForce GTX 1660 Ti LP | 6 GB | ~182 мм | Mistral 7B (квант.), | ||
| - | | GeForce RTX 3050 LP | 6 GB | ~170 мм | Gemma 2 (2B/9B), Llama 3.2 (3B), DeepSeek Coder 7B | | ||
| - | ^ Семейство AI ^ Конкретные модели (для 8GB VRAM) ^ Особенности работы на вашем железе ^ | + | ==== Аппаратная |
| - | | Qwen (Alibaba) | Qwen 2.5 / 3 (7B, 14B 4-bit) | Версия 7B работает очень быстро. 14B влезет только с сильным квантованием (GGUF/ | + | |
| - | | DeepSeek | DeepSeek-V3 (Lite), DeepSeek-Coder-V2 | Идеально для | + | |
| - | | Open Source (OSS) | Llama 3.2 (3B/8B), Mistral NeMo (12B) | Mistral NeMo — это | + | |
| - | | Мультимодальные | Llama 3.2 Vision (11B), Qwen2-VL | Позволяют " | + | |
| - | | Локальные агенты | OpenDevin, AutoGPT | + | |
| - | === RTX 3080 Ti (12GB VRAM) в LM Studio | + | ===== Блок питания ===== |
| - | ^ Модель AI ^ Параметры ^ Рекомендуемое квантование ^ Настройки LM Studio (GPU Offload) ^ | + | Спецификация для |
| - | | DeepSeek-V3 | 671B (MoE) | IQ2_XS / IQ2_M | Не влезет в VRAM. Использовать только через API или GGUF с системной RAM. | | + | |
| - | | DeepSeek-Coder-V2 | 16B | Q5_K_M или Q6_K | Full GPU Offload (все слои в VRAM). Скорость: | + | |
| - | | Qwen 2.5 / 3 | 14B / 32B | 14B: Q8_0; 32B: Q3_K_M | 14B: Full Offload (идеально). 32B: Частичный (20-25 слоев в VRAM). | | + | |
| - | | Llama 3.1 / 3.2 | 8B / 70B | 8B: Q8_0 (FP16); 70B: IQ1_S | 8B: Летает. 70B: Только | + | |
| - | | Mistral NeMo | 12B | Q6_K или Q8_0 | Full GPU Offload. Модель создана NVIDIA специально под 12ГБ карты. | | + | |
| - | | Gemma 2 | 9B / 27B | 9B: Q8_0; 27B: Q3_K_L | 9B: Максимальное качество. 27B: Частичный оффлоуд (~15-18 слоев). | | + | |
| - | | Command R | 35B | IQ3_M | Частичный оффлоуд. Хорошо подходит для RAG (работы с документами). | | + | |
| - | === Модели для кодинга (Python, JS, C++, SQL и др.) === | + | ^ Компонент ^ Спецификация ^ Детали ^ |
| + | | **Производитель/ | ||
| + | | **OEM-производитель** | [[https:// | ||
| + | | **Форм-фактор** | SFF (Small Form Factor) | Для установки в корпус HP 805D SFF | | ||
| + | | **Разъемы питания** | Проприетарные HP (4+4+7 pin) | В комплекте: | ||
| + | | **Сертификация** | [[https:// | ||
| - | ^ Название | + | ===== Совместимые низкопрофильные (Low Profile) видеокарты |
| - | | DeepSeek-Coder-V2-Lite | 16B | Q5_K_M (или Q6) | Full GPU Offload. Лучшая модель для кода | + | |
| - | | Qwen 2.5 Coder | 7B | Q8_0 (FP16) | Full GPU Offload. Самая быстрая, | + | |
| - | | CodeLlama | 13B | Q6_K | Full GPU Offload. Проверенная классика от Meta. | | + | |
| - | | Phind-CodeLlama | 34B | IQ3_M | Partial Offload (20-24 слоя). Очень умная, но требует системной RAM. | | + | |
| - | | Granite-Code (IBM) | 8B | Q8_0 | Full GPU Offload. Очень легкая и быстрая для интеграции в VS Code. | | + | |
| - | === 12 ГБ VRAM === | + | Возможности апгрейда для корпуса SFF. |
| - | ^ Модель | + | ^ Модель |
| - | | DeepSeek R1 (Distill) | 14B | Q5_K_M | Абсолютный лидер по логике, математике и качеству рассуждений. | {{: | + | | **NVIDIA GeForce RTX 4060 LP** | 8 GB | ~182 мм | [[https:// |
| - | | Gemma 3 (2026) | + | | **NVIDIA GeForce RTX 3050 LP (8GB)** | 8 GB | ~182 мм | [[https:// |
| - | | Qwen 3 | 14B | Q4_K_M | Самая сбалансированная модель: мощная логика + лучший русский язык. | {{:wiki:yes.png}} Full Function Call | | + | | **NVIDIA GeForce GTX 1660 Ti LP** | 6 GB | ~182 мм | [[https:// |
| - | | DeepSeek Coder V2 | 16B | IQ4_XS | Эталон качества в программировании и работе со сложными данными. | {{:wiki:yes.png}} Coding | + | | **NVIDIA GeForce RTX 3050 LP (6GB)** |
| - | | Reflection 1 (L3.1) | 8B | Q8_0 | Высокое качество за счет | + | |
| - | | GLM-5 | 9B | Q8_0 | Выдающееся качество в мультимодальных задачах | + | |
| - | | OLMo-3-13B-Instr. | 13B | Q6_K | Высокое качество ответов без корпоративной цензуры | + | |
| - | | Mistral NeMo (Llama 3.1) | 12B | Q8_0 | Совместная работа NVIDIA и Mistral; эталон стабильности на 12ГБ. | {{: | + | |
| - | | Ministral 8B | 8B | Q8_0 | Высокая точность следования сложным инструкциям в n8n. | {{:wiki:yes.png}} JSON / API | | + | |
| - | | OLMo-3-Expert (MoE) | 4x7B | IQ3_M | Хорошая эрудиция за счет архитектуры " | + | |
| - | | Qwen 2.5 Coder | 7B | Q8_0 | Очень высокое качество кода для такого | + | |
| - | | DeepSeek-Coder-V2-Lite | 16B | Q4_K_M | Качественный аудит кода и написание сложных функций. | {{:wiki:yes.png}} Coding | + | |
| - | | Llama 3.2 | 8B | Q8_0 | Надежный стандарт; | + | |
| - | | CodeLlama | 13B | Q6_K | Стабильное, | + | |
| - | | StarCoder 2 | 15B | Q5_K_M | Хорошее качество для узкоспециализированных задач разработки. | {{: | + | |
| - | | OLMo-3-7B-Instr. | + | |
| - | | Nemotron 3 Nano | 4B | Q8_0 | Минимально достаточное качество для классификации данных. | {{: | + | |
| - | | SmolLM 2 / 3 | 1.7B | Q8_0 | Низкое качество текста, | + | |
| + | ==== Выбор моделей ИИ под объем VRAM (2026) ==== | ||
| - | === NSFW/ | + | ===== Обзор по семействам моделей для 8 ГБ VRAM ===== |
| - | ^ Базовая модель | + | ^ Семейство AI ^ Конкретные модели (для 8GB VRAM) ^ Особенности |
| - | | Stable Diffusion XL (SDXL) | Pony Diffusion V6 (и выше), RealVisXL, Juggernaut XL | Самый высокий реализм и понимание сложных поз. 12ГБ VRAM хватает для генерации 1024x1024. | | + | | **Qwen |
| - | | Stable Diffusion 1.5 | Realistic Vision, ChilloutMix, Deliberate | + | | **DeepSeek** | [[https:// |
| - | | Flux.1 (Schnell/Dev) | RealismLora, Flux-Pony | + | | **Meta & Open Source** | [[https:// |
| - | | Pony Diffusion | Pony Diffusion V6 XL | Самая гибкая модель. Понимает | + | | **Мультимодальные** | [[https:// |
| + | | **Локальные агенты** | [[https:// | ||
| - | === N8N === | + | ===== Рекомендации по квантованию для разного железа ===== |
| - | ^ Модель AI ^ Роль в n8n ^ Квантование ^ Признак инструментов (Tools/ | + | ^ Объем VRAM ^ Рекомендуемый битность (2026) |
| - | | Qwen 2.5 / 3 (7B) | Универсальный диспетчер | + | | **8 ГБ** |
| - | | DeepSeek-V3-Distill | + | | **12 ГБ** |
| - | | Nemotron 3 Nano (4B) | Текст-процессор (Extraction) | Q8_0 | {{: | + | | **16+ ГБ** |
| - | | Mistral NeMo (12B) | Работа с документами (RAG) | Q6_K | {{: | + | |
| - | | SmolLM 2 / 3 (1.7B) | Микро-агент (Классификация) | Q8_0 | {{: | + | |
| - | | DeepSeek-Coder-V2 (16B) | Написание скриптов для n8n | IQ4_XS | {{: | + | |
| + | ===== Подробные таблицы для конкретных GPU ===== | ||
| + | |||
| + | === Для RTX 3080 Ti (12 ГБ VRAM) === | ||
| + | |||
| + | ^ Модель AI ^ Параметры ^ Оптимальное квантование ^ Скорость/ | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | |||
| + | === Для RTX 4060 (8 ГБ VRAM) === | ||
| + | |||
| + | ^ Модель AI ^ Параметры ^ Оптимальное квантование ^ Комментарий ^ | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | |||
| + | === Intel HD Graphics 530 / i7-6700, 32GB RAM === | ||
| + | |||
| + | ^ Модель ^ Параметры ^ Команда скачивания ^ Назначение ^ | ||
| + | | Qwen 3 | 7B | docker exec -it ollama ollama pull qwen3:7b | Лучший универсал для RU языка и n8n | | ||
| + | | DeepSeek R1 | 14B | docker exec -it ollama ollama pull deepseek-r1: | ||
| + | | Mistral NeMo| 12B | docker exec -it ollama ollama pull mistral-nemo | Анализ длинных документов и суммаризация | | ||
| + | | Llama 3.2 | 3B | docker exec -it ollama ollama pull llama3.2:3b | Мгновенная классификация (самая быстрая) | | ||
| ==== Специализация моделей ==== | ==== Специализация моделей ==== | ||
| + | ===== Модели для программирования (Coding) ===== | ||
| - | 1. | + | ^ Название модели ^ Параметры ^ Квантование (12GB) ^ Квантование (8GB) ^ Особенности ^ |
| - | | + | | **[[https://huggingface.co/ |
| - | * | + | | **[[https:// |
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| - | 2. **Nemotron 3 Nano (4B):** | + | ===== Генерация изображений |
| - | * | + | |
| - | * | + | |
| - | 3. **DeepSeek-Coder-V2 (16B Distill): | + | ^ Базовая модель ^ Популярные чекпоинты ^ Требования VRAM ^ Комментарий для |
| - | * | + | | **[[https:// |
| - | * | + | | **[[https:// |
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| - | 4. **SmolLM (Small Language Model):** | + | ===== Автоматизация (n8n, AI Agents) ===== |
| - | * | + | |
| - | * | + | |
| + | ^ Модель AI ^ Роль ^ Квантование (8-12GB) ^ Критерий ^ | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| - | ===== Agents ===== | ||
| - | <code bash> | + | ==== Глоссарий и справочник по квантованию ==== |
| - | $ npm install -g @qwen-code/ | + | |
| - | $ qwen --version | + | |
| - | </ | + | |
| - | <code bash> | + | ===== Типы квантования GGUF (llama.cpp) ===== |
| - | $ npm install -g @google/ | + | |
| - | $ gemini | + | |
| - | </ | + | |
| + | ^ Тип ^ ~Биты ^ Качество ^ Рекомендация ^ | ||
| + | | **Q8_0** | 8.5 | Практически оригинал | Для моделей ≤9B при избытке VRAM. | | ||
| + | | **Q6_K** | 6.6 | Отличное | " | ||
| + | | **Q5_K_M** | 5.5 | Очень высокое | Оптимальный баланс для 12-14B моделей на 12 ГБ. | | ||
| + | | **Q4_K_M** | 4.8 | Хорошее | Самый популярный выбор. Лучший баланс " | ||
| + | | **Q3_K_M** | 3.9 | Среднее | Для запуска 14B моделей на 8 ГБ VRAM. | | ||
| + | | **Q2_K** | 3.3 | Низкое | Только для ознакомления, | ||
| - | ===== Новости | + | ===== Квантование |
| - | | + | ^ Тип ^ ~Биты ^ Особенности ^ Применение ^ |
| + | | **IQ4_XS** | 4.25 | Качественнее стандартного Q4_K_M | Для 12B-16B моделей, | ||
| + | | **IQ3_M** | 3.30 | Топ для 8GB карт | Запуск 14B моделей (Qwen 3, DeepSeek R1). | | ||
| + | | **IQ3_XS** | 3.00 | Глубокое сжатие | Для 12B моделей с большим контекстом. | | ||
| + | | **IQ2_M** | 2.50 | Агрессивное сжатие | Запуск 16B моделей (DeepSeek Coder V2) на 8 ГБ. | | ||
| - | ===== Модели ===== | + | ===== Расшифровка суффиксов |
| - | * Alibaba Group объявила о выходе модели искусственного интеллекта | + | ^ Суффикс ^ Значение ^ |
| + | | **\_S** (Small) | Максимальное сжатие в группе (экономия памяти). | | ||
| + | | **\_M** (Medium) | Рекомендуемый вариант (баланс точности | ||
| + | | **\_L** (Large) | Минимальное сжатие (лучшее качество, большой файл). | | ||
| - | ===== On-Line Модели ===== | ||
| - | * https:// | + | ==== Инструменты и ПО ==== |
| - | * https:// | + | |
| - | * https:// | + | |
| - | * https:// | + | |
| - | ===== Агрегаторы ===== | + | ===== Локальный запуск LLM ===== |
| - | | + | ^ Категория ^ Инструмент ^ Ссылка ^ Описание ^ |
| + | | **GUI-клиент** | **LM Studio** | [[https://lmstudio.ai/|LM Studio]] | Основной графический интерфейс для GGUF моделей. | | ||
| + | | **CLI-движок и API** | **Ollama** | [[https:// | ||
| + | | **Продвинутый GUI** | **Faraday.dev** | [[https:// | ||
| + | | **Веб-интерфейс** | **Oobabooga** | [[https:// | ||
| - | ==== Специализированные ==== | + | ===== Разработка и автоматизация ===== |
| + | |||
| + | ^ Категория ^ Инструмент ^ Ссылка ^ Описание ^ | ||
| + | | **Автоматизация рабочих процессов** | **n8n** | [[https:// | ||
| + | | **AI-редактор кода** | **Cursor** | [[https:// | ||
| + | | **Плагин для VS Code** | **Continue.dev** | [[https:// | ||
| + | | **Терминальный агент** | **OpenDevin** | [[https:// | ||
| + | |||
| + | ===== Генерация изображений ===== | ||
| + | |||
| + | ^ Категория ^ Инструмент ^ Ссылка ^ Описание ^ | ||
| + | | **Веб-интерфейс для SD** | **Forge UI** (A1111 Fork) | [[https:// | ||
| + | | **Платформа для моделей** | **Civitai** | [[https:// | ||
| + | | **Альтернативный интерфейс** | **ComfyUI** | [[https:// | ||
| + | |||
| + | ===== Ресурсы с моделями ===== | ||
| + | |||
| + | ^ Ресурс ^ Ссылка ^ Описание ^ | ||
| + | | **Hugging Face** | [[https:// | ||
| + | | **TheBloke** (автор GGUF) | [[https:// | ||
| + | | **bartowski** (автор GGUF) | [[https:// | ||
| + | | **mradermacher** (автор IQ) | [[https:// | ||
| + | |||
| + | |||
| + | ==== Прямые ссылки на ключевые модели (GGUF) ==== | ||
| + | |||
| + | Скачивайте файлы `.gguf` для использования в LM Studio или Ollama. | ||
| + | |||
| + | ^ Модель AI ^ Параметры ^ Автор квантования (HF) ^ Рекомендуемый файл ^ Прямая ссылка ^ | ||
| + | | **DeepSeek R1 (Distill)** | 14B | **mradermacher** | `IQ3_M.gguf` (8GB) | [[https:// | ||
| + | | **DeepSeek R1 (Distill)** | 14B | **bartowski** | `Q5_K_M.gguf` (12GB) | [[https:// | ||
| + | | **Qwen 3** | 14B | **mradermacher** | `IQ3_M.gguf` (8GB) | [[https:// | ||
| + | | **Qwen 3** | 14B | **bartowski** | `Q4_K_M.gguf` (12GB) | [[https:// | ||
| + | | **Gemma 3** (2026) | 12B | **bartowski** | `Q6_K.gguf` (12GB) | [[https:// | ||
| + | | **DeepSeek Coder V2** | 16B | **mradermacher** | `IQ2_M.gguf` (8GB) | [[https:// | ||
| + | | **DeepSeek Coder V2** | 16B | **mradermacher** | `IQ4_XS.gguf` (12GB) | [[https:// | ||
| + | | **Mistral NeMo** | 12B | **TheBloke** | `Q3_K_M.gguf` (8GB) | [[https:// | ||
| + | | **Mistral NeMo** | 12B | **TheBloke** | `Q6_K.gguf` (12GB) | [[https:// | ||
| + | | **GLM-5** | 9B | **TheBloke** | `Q8_0.gguf` (12GB) | [[https:// | ||
| + | |||
| + | **Рекомендация по загрузке: | ||
| + | Для **RTX 3080 Ti (12 ГБ)** ищите модели от автора **`bartowski`** — его кванты считаются эталоном по балансу память/ | ||
| + | Для **RTX 4060 (8 ГБ)** ищите модели от **`mradermacher`** (специализируется на IQ-квантах для 8 ГБ) или **`bartowski`**. Для моделей 12B-14B берите версию **`IQ3_M`**. | ||
| + | |||
| + | |||
| + | ==== Онлайн-сервисы и агрегаторы ==== | ||
| + | |||
| + | ===== Бесплатные онлайн-чаты ===== | ||
| + | * **DeepSeek Chat:** [[https:// | ||
| + | * **Qwen Chat (Alibaba): | ||
| + | * **Yandex GPT (Alice):** [[https:// | ||
| + | * **Gemini Chat:** [[https:// | ||
| + | |||
| + | ===== Агрегаторы и сравнение моделей ===== | ||
| + | * **OpenRouter: | ||
| + | * **Chat Arena (LMSYS):** [[https:// | ||
| + | |||
| + | ===== Специализированные сервисы ===== | ||
| + | * **Распознавание речи:** [[https:// | ||
| + | * **Перевод и транскрипция: | ||
| + | |||
| + | |||
| + | ==== Новости и обновления ==== | ||
| + | |||
| + | Для отслеживания новостей в мире открытых моделей: | ||
| + | * **Хабр (по тегу): | ||
| + | * **r/ | ||
| + | * **Hugging Face Blog:** [[https:// | ||
| + | * **AI News Aggregator: | ||
| + | |||
| + | ===== Командные строки для установки агентов ===== | ||
| + | |||
| + | <code bash> | ||
| + | # Установка Qwen Code Agent | ||
| + | $ npm install -g @qwen-code/ | ||
| + | $ qwen --version | ||
| + | </ | ||
| + | |||
| + | <code bash> | ||
| + | # Установка Gemini CLI | ||
| + | $ npm install -g @google/ | ||
| + | $ gemini | ||
| + | </ | ||
| + | |||
| + | <code bash> | ||
| + | # Установка Ollama | ||
| + | $ curl -fsSL https:// | ||
| + | $ ollama run llama3.2 | ||
| + | </ | ||
| - | * https:// | ||