Различия
Показаны различия между двумя версиями страницы.
| Предыдущая версия справа и слева Предыдущая версия Следующая версия | Предыдущая версия | ||
| develop:models [2026/01/02 21:17] – 192.168.1.159 | develop:models [2026/01/02 22:33] (текущий) – [Для RTX 4060 (8 ГБ VRAM)] 192.168.1.159 | ||
|---|---|---|---|
| Строка 1: | Строка 1: | ||
| - | ====== AI Models ====== | + | ====== AI Models |
| - | === Блок питания (Спецификации) ====== | + | {{tag>ai llm модели hardware gpu nvidia |
| - | ^ Компонент ^ Модель / Название ^ Параметры и Совместимость ^ | + | ==== Введение |
| - | | Блок питания | HP 500W Platinum SFF | P/N: L89233-001 / L77487-001 | | + | |
| - | | Производитель | Delta Electronics / Lite-On | Модель: | + | |
| - | | Разъемы | Фирменные HP (4+4+7 pin) | В комплекте: | + | |
| - | | Форм-фактор | SFF (Small Form Factor) | Устанавливается внутрь корпуса HP 805D SFF | | + | |
| - | | Эффективность | 80 Plus Platinum | Максимальный КПД и низкий нагрев | | + | |
| - | === Совместимые видеокарты NVIDIA и AI-модели === | + | Данная документация |
| - | ^ Модель GPU (Low Profile) ^ VRAM ^ Длина ^ Рекомендуемые AI-модели (2026) ^ | ||
| - | | GeForce RTX 4060 LP | 8 GB | ~182 мм | Llama 3.1/3.2 (8B), Mistral 7B, Flux.1 (Schnell), SDXL | | ||
| - | | GeForce RTX 3050 LP | 8 GB | ~182 мм | Llama 3.1 (8B 4-bit), Qwen 2.5 (7B), SD 1.5, YOLOv11 | | ||
| - | | GeForce GTX 1660 Ti LP | 6 GB | ~182 мм | Mistral 7B (квант.), | ||
| - | | GeForce RTX 3050 LP | 6 GB | ~170 мм | Gemma 2 (2B/9B), Llama 3.2 (3B), DeepSeek Coder 7B | | ||
| - | ^ Семейство AI ^ Конкретные модели (для 8GB VRAM) ^ Особенности работы на вашем железе ^ | + | ==== Аппаратная |
| - | | Qwen (Alibaba) | Qwen 2.5 / 3 (7B, 14B 4-bit) | Версия 7B работает очень быстро. 14B влезет только с сильным квантованием (GGUF/ | + | |
| - | | DeepSeek | DeepSeek-V3 (Lite), DeepSeek-Coder-V2 | Идеально для | + | |
| - | | Open Source (OSS) | Llama 3.2 (3B/8B), Mistral NeMo (12B) | Mistral NeMo — это | + | |
| - | | Мультимодальные | Llama 3.2 Vision (11B), Qwen2-VL | Позволяют " | + | |
| - | | Локальные агенты | OpenDevin, AutoGPT | + | |
| - | === RTX 3080 Ti (12GB VRAM) в LM Studio | + | ===== Блок питания ===== |
| - | ^ Модель AI ^ Параметры ^ Рекомендуемое квантование ^ Настройки LM Studio (GPU Offload) ^ | + | Спецификация для |
| - | | DeepSeek-V3 | 671B (MoE) | IQ2_XS / IQ2_M | Не влезет в VRAM. Использовать только через API или GGUF с системной RAM. | | + | |
| - | | DeepSeek-Coder-V2 | 16B | Q5_K_M или Q6_K | Full GPU Offload (все слои в VRAM). Скорость: | + | |
| - | | Qwen 2.5 / 3 | 14B / 32B | 14B: Q8_0; 32B: Q3_K_M | 14B: Full Offload (идеально). 32B: Частичный (20-25 слоев в VRAM). | | + | |
| - | | Llama 3.1 / 3.2 | 8B / 70B | 8B: Q8_0 (FP16); 70B: IQ1_S | 8B: Летает. 70B: Только | + | |
| - | | Mistral NeMo | 12B | Q6_K или Q8_0 | Full GPU Offload. Модель создана NVIDIA специально под 12ГБ карты. | | + | |
| - | | Gemma 2 | 9B / 27B | 9B: Q8_0; 27B: Q3_K_L | 9B: Максимальное качество. 27B: Частичный оффлоуд (~15-18 слоев). | | + | |
| - | | Command R | 35B | IQ3_M | Частичный оффлоуд. Хорошо подходит для RAG (работы с документами). | | + | |
| - | === Модели для кодинга (Python, JS, C++, SQL и др.) === | + | ^ Компонент ^ Спецификация ^ Детали ^ |
| + | | **Производитель/ | ||
| + | | **OEM-производитель** | [[https:// | ||
| + | | **Форм-фактор** | SFF (Small Form Factor) | Для установки в корпус HP 805D SFF | | ||
| + | | **Разъемы питания** | Проприетарные HP (4+4+7 pin) | В комплекте: | ||
| + | | **Сертификация** | [[https:// | ||
| - | ^ Название | + | ===== Совместимые низкопрофильные (Low Profile) видеокарты |
| - | | DeepSeek-Coder-V2-Lite | 16B | Q5_K_M (или Q6) | Full GPU Offload. Лучшая модель для кода | + | |
| - | | Qwen 2.5 Coder | 7B | Q8_0 (FP16) | Full GPU Offload. Самая быстрая, | + | |
| - | | CodeLlama | 13B | Q6_K | Full GPU Offload. Проверенная классика от Meta. | | + | |
| - | | Phind-CodeLlama | 34B | IQ3_M | Partial Offload (20-24 слоя). Очень умная, но требует системной RAM. | | + | |
| - | | Granite-Code (IBM) | 8B | Q8_0 | Full GPU Offload. Очень легкая и быстрая для интеграции в VS Code. | | + | |
| - | === Nvidia Models === | + | Возможности апгрейда для корпуса SFF. |
| - | ^ Модель | + | ^ Модель |
| - | | **RTX 4060** | 8 ГБ | Модели до 14B в сжатом виде | + | | **NVIDIA GeForce |
| - | | **RTX 3080 Ti** | 12 ГБ | Модели до 20B в сжатом виде (Q4_K_M | + | | **NVIDIA GeForce |
| - | | **RTX 5080** | 16 ГБ | Модели до 30B (Full Precision/FP16) или 34B (Q4_K_M). | | + | | **NVIDIA GeForce GTX 1660 Ti LP** | 6 GB | ~182 мм | [[https:// |
| - | | **RTX 4090** | 24 ГБ | Модели до 70B (квантованные GGUF Q2_K / Q3_K_L). | | + | | **NVIDIA GeForce |
| - | | ** RTX 5090** | 32 ГБ | Модели до 70B (Full Precision/FP16) или тяжелые 4-bit кванты. | + | |
| - | | **RTX 4090 Ti** | 48 ГБ | Модели 100B+ (например, DeepSeek-V3 или Llama 3 405B IQ2). | | + | |
| - | ==== Квантование ==== | ||
| - | === Стандартные K-Quants | + | ==== Выбор моделей ИИ под объем VRAM (2026) ==== |
| - | ^ Тип ^ Биты ^ Качество ^ Рекомендация для 2026 года ^ | + | ===== Обзор |
| - | | Q8_0 | 8.5 | Максимальное | Использовать для | + | |
| - | | Q6_K | 6.6 | Отличное | " | + | |
| - | | Q5_K_M | 5.5 | Высокое | Оптимальный выбор для RTX 3080 Ti (12GB) для | + | |
| - | | Q4_K_M | 4.8 | Хорошее | Самый популярный вариант. | + | |
| - | | Q3_K_M | 3.9 | Среднее | Использовать только если модель 14B не влезает в 8GB. | | + | |
| - | | Q2_K | 3.3 | Низкое | Модель начинает путаться в фактах и " | + | |
| - | === I-Matrix Quants | + | ^ Семейство AI ^ Конкретные модели (для 8GB VRAM) ^ Особенности работы ^ |
| + | | **Qwen (Alibaba)** | [[https:// | ||
| + | | **DeepSeek** | [[https:// | ||
| + | | **Meta & Open Source** | [[https:// | ||
| + | | **Мультимодальные** | [[https:// | ||
| + | | **Локальные агенты** | [[https:// | ||
| - | ^ Тип ^ Биты ^ Особенности ^ Применение | + | ===== Рекомендации по квантованию для разного железа ===== |
| - | | IQ4_XS | 4.25 | Точнее чем стандартный Q4_K_M | Для моделей 9B-12B (Mistral NeMo). | | + | |
| - | | IQ3_M | 3.30 | Топ для 8GB карт | Позволяет запустить DeepSeek R1 14B без тормозов. | | + | |
| - | | IQ3_XS | 3.00 | Глубокое сжатие | Для запуска Gemma 3 12B с запасом под контекст. | | + | |
| - | | IQ2_M | 2.50 | Работа на грани | Позволяет запустить DeepSeek Coder V2 (16B). | | + | |
| - | | IQ2_XXS | 2.10 | Минимальный вес | Только | + | |
| - | === Расшифровка индексов (Суффиксы) === | + | ^ Объем VRAM ^ Рекомендуемый битность (2026) ^ Пример модели ^ Тип квантования (GGUF) ^ Комментарий ^ |
| + | | **8 ГБ** (RTX 4060) | 3-6 бит | Qwen 3 14B, Mistral NeMo 12B | **IQ3_M**, **Q4_K_M** | Баланс | ||
| + | | **12 ГБ** (RTX 3080 Ti) | 4-8 бит | DeepSeek Coder 16B, Qwen 3 14B | **Q4_K_M**, **Q5_K_M**, **Q6_K** | Лучшее качество. 14B модели | ||
| + | | **16+ ГБ** | ||
| - | ^ Индекс ^ Значение ^ Описание ^ | + | ===== Подробные таблицы для конкретных GPU ===== |
| - | | _S | Small | Самое сильное сжатие в этой группе (экономия памяти). | | + | |
| - | | _M | Medium | Рекомендуемый вариант (баланс точности и веса). | | + | |
| - | | _L | Large | Минимальное сжатие (лучшее | + | |
| - | ==== С привязкой к GPU ==== | + | === Для RTX 3080 Ti (12 ГБ VRAM) === |
| + | ^ Модель AI ^ Параметры ^ Оптимальное квантование ^ Скорость/ | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| - | === RTX 3080 TI 12 ГБ VRAM === | + | === Для |
| - | ^ Модель AI ^ Параметры ^ Квантование ^ Назначение ^ Признак инструментов | + | ^ Модель AI ^ Параметры ^ Оптимальное квантование ^ Комментарий ^ |
| - | | DeepSeek R1 (Distill) | 14B | Q5_K_M | + | | **[[https:// |
| - | | Gemma 3 (2026) | + | | **[[https:// |
| - | | Qwen 3 | 14B | Q4_K_M | Самая сбалансированная модель: мощная логика + лучший русский язык. | {{:wiki:yes.png}} Full Function Call | | + | | **[[https:// |
| - | | DeepSeek Coder V2 | 16B | IQ4_XS | + | | **[[https:// |
| - | | Reflection 1 (L3.1) | 8B | Q8_0 | Высокое качество за счет механизма исправления собственных ошибок. | {{: | + | | **[[https:// |
| - | | GLM-5 | 9B | Q8_0 | Выдающееся качество в мультимодальных задачах (текст + зрение). | {{: | + | | **[[https:// |
| - | | OLMo-3-13B-Instr. | 13B | Q6_K | Высокое качество ответов без корпоративной цензуры (Open Research). | {{:wiki:yes.png}} Research | + | | **[[https:// |
| - | | Mistral NeMo (Llama 3.1) | 12B | Q8_0 | Совместная работа | + | | **[[https:// |
| - | | Ministral 8B | 8B | Q8_0 | Высокая точность | + | |
| - | | OLMo-3-Expert | + | |
| - | | Qwen 2.5 Coder | 7B | Q8_0 | Очень высокое качество кода для | + | |
| - | | DeepSeek-Coder-V2-Lite | 16B | Q4_K_M | Качественный аудит кода и написание сложных функций. | {{:wiki:yes.png}} Coding | + | |
| - | | Llama 3.2 | 8B | Q8_0 | Надежный | + | |
| - | | CodeLlama | 13B | Q6_K | Стабильное, | + | |
| - | | StarCoder 2 | 15B | Q5_K_M | Хорошее качество для узкоспециализированных задач разработки. | {{: | + | |
| - | | OLMo-3-7B-Instr. | 7B | Q8_0 | Базовое качество для быстрых ответов и простых запросов. | {{: | + | |
| - | | Nemotron 3 Nano | 4B | Q8_0 | Минимально | + | |
| - | | SmolLM 2 / 3 | 1.7B | Q8_0 | Низкое качество текста, | + | |
| - | === RTX 4060 8 ГБ VRAM === | + | === Intel HD Graphics 530 / i7-6700, 32GB RAM === |
| - | ^ Модель | + | ^ Модель ^ Параметры ^ Команда скачивания ^ Назначение ^ |
| - | | DeepSeek R1 (Distill) | + | | Qwen 3 | 7B | docker exec -it ollama ollama pull qwen3:7b | Лучший универсал для |
| - | | Gemma 3 (2026) | 12B | IQ3_M | Лучшая модель от Google для творческого письма и сложных гуманитарных задач. | {{: | + | | DeepSeek |
| - | | Qwen 3 | 14B | IQ3_M | Самая | + | | Mistral NeMo| 12B | docker exec -it ollama ollama pull mistral-nemo |
| - | | DeepSeek | + | | Llama 3.2 | 3B | docker exec -it ollama ollama pull llama3.2: |
| - | | Reflection 1 (L3.1) | 8B | Q5_K_M | Высокое качество за счет механизма исправления | + | ==== Специализация моделей ==== |
| - | | GLM-5 | 9B | Q5_K_M | Выдающееся качество в мультимодальных задачах (текст + зрение). | {{: | + | |
| - | | OLMo-3-13B-Instr. | 13B | IQ3_M | Высокое качество ответов без корпоративной цензуры (Open Research). | {{: | + | |
| - | | Mistral NeMo (L3.1) | + | |
| - | | Ministral 8B | 8B | Q5_K_M | Высокая точность следования сложным инструкциям в n8n. | {{: | + | |
| - | | OLMo-3-Expert (MoE) | 4x7B | IQ2_XXS | Хорошая эрудиция | + | |
| - | | Qwen 2.5 Coder | 7B | Q6_K | Очень высокое качество кода для такого малого размера. | {{: | + | |
| - | | DeepSeek-Coder-V2-Lite | 16B | IQ2_M | Качественный аудит | + | |
| - | | Llama 3.2 | 8B | Q6_K | Надежный стандарт; | + | |
| - | | CodeLlama | 13B | Q3_K_S | Стабильное, | + | |
| - | | StarCoder 2 | 15B | IQ2_M | Хорошее качество для узкоспециализированных задач разработки. | {{: | + | |
| - | | OLMo-3-7B-Instr. | 7B | Q8_0 | Базовое качество для быстрых ответов и простых запросов. | {{: | + | |
| - | | Nemotron 3 Nano | 4B | Q8_0 | Минимально достаточное качество для классификации данных. | {{: | + | |
| - | | SmolLM 2 / 3 | 1.7B | Q8_0 | Низкое качество текста, | + | |
| - | ==== Специализация ==== | + | ===== Модели для программирования (Coding) ===== |
| + | ^ Название модели ^ Параметры ^ Квантование (12GB) ^ Квантование (8GB) ^ Особенности ^ | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| + | | **[[https:// | ||
| - | === NSFW/Adult === | + | ===== Генерация изображений (NSFW/Art) ===== |
| - | ^ Базовая модель ^ Популярные кастомные | + | ^ Базовая модель ^ Популярные чекпоинты ^ Требования VRAM ^ Комментарий для |
| - | | Stable Diffusion XL (SDXL) | Pony Diffusion V6 (и выше), RealVisXL, Juggernaut XL | Самый высокий реализм и понимание сложных поз. 12ГБ VRAM хватает для генерации 1024x1024. | | + | | **[[https:// |
| - | | Stable Diffusion 1.5 | Realistic Vision, ChilloutMix, Deliberate | + | | **[[https:// |
| - | | Flux.1 (Schnell/ | + | | **[[https:// |
| - | | Pony Diffusion | Pony Diffusion V6 XL | Самая гибкая | + | | **[[https:// |
| - | === N8N === | + | ===== Автоматизация (n8n, AI Agents) ===== |
| - | ^ Модель AI ^ Роль | + | ^ Модель AI ^ Роль ^ Квантование |
| - | | Qwen 2.5 / 3 (7B) | Универсальный диспетчер | Q8_0 | {{: | + | | **[[https:// |
| - | | DeepSeek-V3-Distill (14B) | Сложная логика | + | | **[[https:// |
| - | | Nemotron 3 Nano (4B) | Текст-процессор (Extraction) | + | | **[[https:// |
| - | | Mistral NeMo (12B) | Работа с документами (RAG) | Q6_K | {{: | + | | **[[https:// |
| - | | SmolLM 2 / 3 (1.7B) | Микро-агент | + | | **[[https:// |
| - | | DeepSeek-Coder-V2 (16B) | Написание скриптов для n8n | IQ4_XS | {{: | + | |
| - | ^ Модель AI ^ Параметры ^ Прямая ссылка на GGUF ^ Назначение ^ | ||
| - | | DeepSeek R1 (Distill) | 14B | [[huggingface.co|Открыть на HF]] | Лидер логики и рассуждений (CoT) | | ||
| - | | Qwen 3 | 14B | [[huggingface.co|Открыть на HF]] | Лучший русский язык и универсальность | | ||
| - | | Gemma 3 (2026) | 12B | [[huggingface.co|Открыть на HF]] | Креативность и высокая эрудиция | | ||
| - | | DeepSeek Coder V2 | 16B | [[huggingface.co|Открыть на HF]] | Эталон для написания и аудита кода | | ||
| - | | Mistral NeMo | 12B | [[huggingface.co|Открыть на HF]] | Стандарт стабильности для 12ГБ VRAM | | ||
| - | | Reflection 1 (L3.1) | 8B | [[huggingface.co|Открыть на HF]] | Модель с самопроверкой ошибок | | ||
| - | | GLM-5 | 9B | [[huggingface.co|Открыть на HF]] | Мультимодальность (Vision / OCR) | | ||
| - | | OLMo-3-13B | 13B | [[huggingface.co|Открыть на HF]] | Полностью открытые данные обучения | | ||
| - | | Ministral 8B | 8B | [[huggingface.co|Открыть на HF]] | Оптимальна для n8n автоматизации | | ||
| - | | Phi-4 | 14B | [[huggingface.co|Открыть на HF]] | Научная логика и математика | | ||
| - | ^ Категория ^ Инструмент ^ Ссылка на сайт ^ Описание ^ | + | ==== Глоссарий и справочник по квантованию ==== |
| - | | Запуск LLM | LM Studio | [[lmstudio.ai|LM Studio]] | Главный GUI для GGUF моделей | | + | |
| - | | Запуск LLM | Ollama | [[ollama.com|Ollama]] | CLI-движок для фоновой | + | |
| - | | Автоматизация | n8n | [[n8n.io|n8n.io]] | Платформа для создания AI-агентов | | + | |
| - | | Кодинг | Cursor | [[cursor.com|Cursor AI]] | AI-редактор кода с поддержкой Local API | | + | |
| - | | Кодинг | Continue | [[www.continue.dev|Continue.dev]] | Плагин для VS Code под локальные LLM | | + | |
| - | | Графика | Forge UI | [[github.com|SD Forge]] | Самая быстрая генерация картинок (NSFW/Art) | | + | |
| - | | Графика | Civitai | [[civitai.com|Civitai]] | Библиотека моделей (Checkpoints/ | + | |
| - | | База моделей | Hugging Face| [[huggingface.co|Hugging Face]] | Главный архив всех AI моделей мира | | + | |
| - | ^ Модель AI ^ Квантование ^ Инструменты ^ Признак инструментов ^ | + | ===== Типы квантования GGUF (llama.cpp) ===== |
| - | | DeepSeek R1 | Q5_K_M | LM Studio / Ollama | {{: | + | |
| - | | Qwen 3 | Q4_K_M | n8n / Ollama | {{: | + | |
| - | | Gemma 3 | Q6_K | LM Studio | {{: | + | |
| - | | DeepSeek Coder | IQ4_XS | Cursor / VS Code | {{: | + | |
| - | | GLM-5 | Q8_0 | Local WebUI | {{: | + | |
| - | | Ministral 8B | Q8_0 | n8n | {{:wiki:yes.png}} JSON / API | | + | |
| - | **Рекомендация | + | ^ Тип ^ ~Биты ^ Качество ^ Рекомендация |
| - | + | | **Q8_0** | 8.5 | Практически оригинал | Для | |
| - | Для | + | | **Q6_K** | 6.6 | Отличное | " |
| + | | **Q5_K_M** | 5.5 | Очень высокое | Оптимальный баланс для 12-14B | ||
| + | | **Q4_K_M** | 4.8 | Хорошее | Самый популярный выбор. Лучший баланс "размер/качество" | ||
| + | | **Q3_K_M** | 3.9 | Среднее | Для | ||
| + | | **Q2_K** | 3.3 | Низкое | Только для ознакомления, возможны " | ||
| - | **Рекомендация по скачиванию для RTX 4060 (8GB):** | + | ===== Квантование с Imatrix |
| - | В поиске LM Studio всегда | + | ^ Тип ^ ~Биты ^ Особенности ^ Применение ^ |
| + | | **IQ4_XS** | 4.25 | Качественнее стандартного Q4_K_M | Для 12B-16B | ||
| + | | **IQ3_M** | 3.30 | Топ для 8GB карт | Запуск 14B моделей (Qwen 3, DeepSeek R1). | | ||
| + | | **IQ3_XS** | 3.00 | Глубокое сжатие | Для 12B моделей с большим контекстом. | | ||
| + | | **IQ2_M** | 2.50 | Агрессивное сжатие | Запуск 16B моделей (DeepSeek Coder V2) на 8 ГБ. | | ||
| - | * Для моделей **7B-9B** выбирайте версию файла **Q5_K_M** — она идеально поместится | + | ===== Расшифровка суффиксов |
| - | * Для моделей **12B-14B** выбирайте версию **IQ3_M** (от mradermacher) — это единственный способ запустить такие модели на 8 ГБ без потери | + | |
| - | ==== Специализация моделей | + | ^ Суффикс ^ Значение ^ |
| + | | **\_S** (Small) | Максимальное сжатие в группе (экономия памяти). | | ||
| + | | **\_M** (Medium) | Рекомендуемый вариант (баланс точности и размера). | | ||
| + | | **\_L** (Large) | Минимальное сжатие (лучшее качество, | ||
| - | 1. **Qwen 2.5 / 3 (7B/ | + | ==== Инструменты и ПО ==== |
| - | * | + | |
| - | * | + | |
| - | 2. **Nemotron 3 Nano (4B):** | + | ===== Локальный |
| - | * | + | |
| - | * | + | |
| - | 3. **DeepSeek-Coder-V2 (16B Distill): | + | ^ Категория ^ Инструмент ^ Ссылка ^ Описание |
| - | * | + | | **GUI-клиент** | **LM Studio** | [[https:// |
| - | | + | | **CLI-движок и API** | **Ollama** | [[https:// |
| + | | **Продвинутый GUI** | **Faraday.dev** | [[https:// | ||
| + | | **Веб-интерфейс** | **Oobabooga** | [[https:// | ||
| - | 4. **SmolLM (Small Language Model):** | + | ===== Разработка и автоматизация ===== |
| - | * | + | |
| - | * | + | |
| + | ^ Категория ^ Инструмент ^ Ссылка ^ Описание ^ | ||
| + | | **Автоматизация рабочих процессов** | **n8n** | [[https:// | ||
| + | | **AI-редактор кода** | **Cursor** | [[https:// | ||
| + | | **Плагин для VS Code** | **Continue.dev** | [[https:// | ||
| + | | **Терминальный агент** | **OpenDevin** | [[https:// | ||
| - | ===== Agents | + | ===== Генерация изображений |
| - | <code bash> | + | ^ Категория ^ Инструмент ^ Ссылка ^ Описание ^ |
| - | $ npm install | + | | **Веб-интерфейс для SD** | **Forge UI** (A1111 Fork) | [[https:// |
| - | $ qwen --version | + | | **Платформа для моделей** | **Civitai** | [[https:// |
| - | </code> | + | | **Альтернативный интерфейс** | **ComfyUI** | [[https:// |
| - | <code bash> | + | ===== Ресурсы с моделями ===== |
| - | $ npm install -g @google/ | + | |
| - | $ gemini | + | |
| - | </ | + | |
| + | ^ Ресурс ^ Ссылка ^ Описание ^ | ||
| + | | **Hugging Face** | [[https:// | ||
| + | | **TheBloke** (автор GGUF) | [[https:// | ||
| + | | **bartowski** (автор GGUF) | [[https:// | ||
| + | | **mradermacher** (автор IQ) | [[https:// | ||
| - | ===== Новости по моделям ===== | ||
| - | * https:// | + | ==== Прямые ссылки на ключевые модели (GGUF) ==== |
| - | ===== Модели | + | Скачивайте файлы `.gguf` для использования в LM Studio или Ollama. |
| - | * Alibaba Group объявила о выходе модели искусственного интеллекта **Qwen3-Coder** — она доступна с открытым исходным | + | ^ Модель AI ^ Параметры ^ Автор квантования (HF) ^ Рекомендуемый файл ^ Прямая |
| + | | **DeepSeek R1 (Distill)** | 14B | **mradermacher** | `IQ3_M.gguf` (8GB) | [[https:// | ||
| + | | **DeepSeek R1 (Distill)** | 14B | **bartowski** | `Q5_K_M.gguf` (12GB) | [[https:// | ||
| + | | **Qwen 3** | 14B | **mradermacher** | `IQ3_M.gguf` (8GB) | [[https:// | ||
| + | | **Qwen 3** | 14B | **bartowski** | `Q4_K_M.gguf` (12GB) | [[https:// | ||
| + | | **Gemma 3** (2026) | 12B | **bartowski** | `Q6_K.gguf` (12GB) | [[https:// | ||
| + | | **DeepSeek Coder V2** | 16B | **mradermacher** | `IQ2_M.gguf` (8GB) | [[https:// | ||
| + | | **DeepSeek Coder V2** | 16B | **mradermacher** | `IQ4_XS.gguf` (12GB) | [[https:// | ||
| + | | **Mistral NeMo** | 12B | **TheBloke** | `Q3_K_M.gguf` (8GB) | [[https:// | ||
| + | | **Mistral NeMo** | 12B | **TheBloke** | `Q6_K.gguf` (12GB) | [[https:// | ||
| + | | **GLM-5** | 9B | **TheBloke** | `Q8_0.gguf` (12GB) | [[https:// | ||
| - | ===== On-Line Модели | + | **Рекомендация по загрузке: |
| + | Для **RTX 3080 Ti (12 ГБ)** ищите модели от автора **`bartowski`** — его кванты считаются эталоном по балансу память/ | ||
| + | Для **RTX 4060 (8 ГБ)** ищите модели | ||
| - | * https:// | ||
| - | * https:// | ||
| - | * https:// | ||
| - | * https:// | ||
| - | ===== Агрегаторы | + | ==== Онлайн-сервисы и агрегаторы ==== |
| - | | + | ===== Бесплатные онлайн-чаты ===== |
| + | | ||
| + | * **Qwen Chat (Alibaba): | ||
| + | * **Yandex GPT (Alice):** [[https:// | ||
| + | * **Gemini Chat:** [[https:// | ||
| - | ==== Специализированные ==== | + | ===== Агрегаторы и сравнение моделей ===== |
| + | * **OpenRouter: | ||
| + | * **Chat Arena (LMSYS):** [[https:// | ||
| + | |||
| + | ===== Специализированные | ||
| + | * **Распознавание речи:** [[https:// | ||
| + | * **Перевод и транскрипция: | ||
| + | |||
| + | |||
| + | ==== Новости и обновления ==== | ||
| + | |||
| + | Для отслеживания новостей в мире открытых моделей: | ||
| + | * **Хабр (по тегу): | ||
| + | * **r/ | ||
| + | * **Hugging Face Blog:** [[https:// | ||
| + | * **AI News Aggregator: | ||
| + | |||
| + | ===== Командные строки для установки агентов ===== | ||
| + | |||
| + | <code bash> | ||
| + | # Установка Qwen Code Agent | ||
| + | $ npm install -g @qwen-code/ | ||
| + | $ qwen --version | ||
| + | </ | ||
| + | |||
| + | <code bash> | ||
| + | # Установка Gemini CLI | ||
| + | $ npm install -g @google/ | ||
| + | $ gemini | ||
| + | </ | ||
| + | |||
| + | <code bash> | ||
| + | # Установка Ollama | ||
| + | $ curl -fsSL https:// | ||
| + | $ ollama run llama3.2 | ||
| + | </ | ||
| - | * https:// | ||