Показать страницуИстория страницыСсылки сюдаCopy this pageExport to MarkdownODT преобразованиеНаверх Вы загрузили старую версию документа! Сохранив её, вы создадите новую текущую версию с этим содержимым. Медиафайлы====== AI Models ====== === Блок питания (Спецификации) ====== ^ Компонент ^ Модель / Название ^ Параметры и Совместимость ^ | Блок питания | HP 500W Platinum SFF | P/N: L89233-001 / L77487-001 | | Производитель | Delta Electronics / Lite-On | Модель: DPS-500AB-51 A / PA-5501-2HA | | Разъемы | Фирменные HP (4+4+7 pin) | В комплекте: 1x или 2x 6+2-pin PCIe для видеокарты | | Форм-фактор | SFF (Small Form Factor) | Устанавливается внутрь корпуса HP 805D SFF | | Эффективность | 80 Plus Platinum | Максимальный КПД и низкий нагрев | === Совместимые видеокарты NVIDIA и AI-модели === ^ Модель GPU (Low Profile) ^ VRAM ^ Длина ^ Рекомендуемые AI-модели (2026) ^ | GeForce RTX 4060 LP | 8 GB | ~182 мм | Llama 3.1/3.2 (8B), Mistral 7B, Flux.1 (Schnell), SDXL | | GeForce RTX 3050 LP | 8 GB | ~182 мм | Llama 3.1 (8B 4-bit), Qwen 2.5 (7B), SD 1.5, YOLOv11 | | GeForce GTX 1660 Ti LP | 6 GB | ~182 мм | Mistral 7B (квант.), Phi-3.5 Mini, Stable Diffusion 1.5 | | GeForce RTX 3050 LP | 6 GB | ~170 мм | Gemma 2 (2B/9B), Llama 3.2 (3B), DeepSeek Coder 7B | ^ Семейство AI ^ Конкретные модели (для 8GB VRAM) ^ Особенности работы на вашем железе ^ | Qwen (Alibaba) | Qwen 2.5 / 3 (7B, 14B 4-bit) | Версия 7B работает очень быстро. 14B влезет только с сильным квантованием (GGUF/EXL2). | | DeepSeek | DeepSeek-V3 (Lite), DeepSeek-Coder-V2 | Идеально для программирования. Рекомендуется использовать модели до 7B-16B параметров. | | Open Source (OSS) | Llama 3.2 (3B/8B), Mistral NeMo (12B) | Mistral NeMo — это новый стандарт для 8 ГБ карт, дает очень качественные ответы. | | Мультимодальные | Llama 3.2 Vision (11B), Qwen2-VL | Позволяют "видеть" изображения. Работают на грани VRAM, требуют оптимизации. | | Локальные агенты | OpenDevin, AutoGPT (на базе Qwen 7B) | Можно запускать полноценных AI-агентов для автоматизации задач на ПК. | === RTX 3080 Ti (12GB VRAM) в LM Studio === ^ Модель AI ^ Параметры ^ Рекомендуемое квантование ^ Настройки LM Studio (GPU Offload) ^ | DeepSeek-V3 | 671B (MoE) | IQ2_XS / IQ2_M | Не влезет в VRAM. Использовать только через API или GGUF с системной RAM. | | DeepSeek-Coder-V2 | 16B | Q5_K_M или Q6_K | Full GPU Offload (все слои в VRAM). Скорость: ~25-40 токенов/сек. | | Qwen 2.5 / 3 | 14B / 32B | 14B: Q8_0; 32B: Q3_K_M | 14B: Full Offload (идеально). 32B: Частичный (20-25 слоев в VRAM). | | Llama 3.1 / 3.2 | 8B / 70B | 8B: Q8_0 (FP16); 70B: IQ1_S | 8B: Летает. 70B: Только для тестов (очень медленно, через системную RAM). | | Mistral NeMo | 12B | Q6_K или Q8_0 | Full GPU Offload. Модель создана NVIDIA специально под 12ГБ карты. | | Gemma 2 | 9B / 27B | 9B: Q8_0; 27B: Q3_K_L | 9B: Максимальное качество. 27B: Частичный оффлоуд (~15-18 слоев). | | Command R | 35B | IQ3_M | Частичный оффлоуд. Хорошо подходит для RAG (работы с документами). | === Модели для кодинга (Python, JS, C++, SQL и др.) === ^ Название модели ^ Параметры ^ Квантование (12GB VRAM) ^ Настройка в LM Studio ^ | DeepSeek-Coder-V2-Lite | 16B | Q5_K_M (или Q6) | Full GPU Offload. Лучшая модель для кода на сегодня. | | Qwen 2.5 Coder | 7B | Q8_0 (FP16) | Full GPU Offload. Самая быстрая, идеальна для простых скриптов. | | CodeLlama | 13B | Q6_K | Full GPU Offload. Проверенная классика от Meta. | | Phind-CodeLlama | 34B | IQ3_M | Partial Offload (20-24 слоя). Очень умная, но требует системной RAM. | | Granite-Code (IBM) | 8B | Q8_0 | Full GPU Offload. Очень легкая и быстрая для интеграции в VS Code. | === 12 ГБ VRAM === ^ Модель для кодинга ^ Параметры ^ Квантование (для 12GB) ^ Скорость / Настройка ^ | DeepSeek-Coder-V2-Lite | 16B | Q4_K_M (или IQ4_XS) | Full GPU Offload. Самая мощная модель для кода, влезающая в 12ГБ. | | Qwen 2.5 Coder | 7B | Q8_0 (Макс. качество) | Full GPU Offload. Невероятная скорость, идеальна для автодополнения. | | StarCoder 2 | 15B | Q5_K_M | Full GPU Offload. Оптимизирована для работы с большим контекстом. | | CodeLlama | 13B | Q6_K | Full GPU Offload. Проверенная временем модель от Meta. | ^ Модель AI ^ Параметры ^ Квантование (12GB) ^ Основное назначение ^ Инструменты (Tools) ^ | DeepSeek R1 (Distill) | 14B | Q5_K_M | Сложные логические рассуждения, математика | Мышление (Chain of Thought), Logic | | Qwen 3 | 7B / 14B | 7B: Q8_0 / 14B: Q4_K_M | Универсальный помощник, лучший русский язык | Web Search, Data Analysis | | Ministral 8B | 8B | Q8_0 | Компактная модель для edge-устройств, быстрая | Навигация, простые чаты | | Llama 3.1 / 3.2 | 8B | Q8_0 (FP16) | Отраслевой стандарт, база для всех задач | RAG, Function Calling, Python | | Nemotron 3 Nano | 4B | Q8_0 | Быстрая классификация, извлечение данных | Summary, Tagging, Fast API | | GLM-4 / 5 | 9B | Q8_0 | Сильная логика, мультимодальность | Image Vision, OCR | | Gemma 3 (2026) | 12B | Q6_K | Творческое письмо, логика от Google | Creative Writing, Logic | | DeepSeek Coder V2 | 16B | IQ4_XS | Написание и аудит сложного кода | Coding, Debugging, SQL | | SmolLM 2 / 3 | 1.7B | Q8_0 | Сверхбыстрые задачи, локальная автоматизация | JSON Extraction, Tiny Agents | | Reflection 1 (L3.1) | 8B | Q8_0 | Модель с самопроверкой ошибок | Self-Correction, Reasoning | === NSFW/Adult === ^ Базовая модель ^ Популярные кастомные модели (Checkpoints) ^ Особенности для RTX 3080 Ti ^ | Stable Diffusion XL (SDXL) | Pony Diffusion V6 (и выше), RealVisXL, Juggernaut XL | Самый высокий реализм и понимание сложных поз. 12ГБ VRAM хватает для генерации 1024x1024. | | Stable Diffusion 1.5 | Realistic Vision, ChilloutMix, Deliberate | Очень быстрая генерация. Огромная база Lora-фильтров для лиц и фетишей. | | Flux.1 (Schnell/Dev) | RealismLora, Flux-Pony | Модель нового поколения (2025-2026). Лучшая анатомия и кожа, но требует 12ГБ+ (на 3080 Ti идет впритык). | | Pony Diffusion | Pony Diffusion V6 XL | Самая гибкая модель. Понимает практически любые запросы через систему тегов (как на Danbooru). | === N8N === ^ Модель AI ^ Роль в n8n ^ Квантование ^ Признак инструментов (Tools/JSON) ^ | Qwen 2.5 / 3 (7B) | Универсальный диспетчер | Q8_0 | {{:wiki:yes.png}} Full Function Calling. Идеален для JSON. | | DeepSeek-V3-Distill (14B) | Сложная логика и фильтрация | Q4_K_M | {{:wiki:yes.png}} Высокая точность ветвления условий (if/else). | | Nemotron 3 Nano (4B) | Текст-процессор (Extraction) | Q8_0 | {{:wiki:partial.png}} Сверхбыстрое извлечение данных в JSON. | | Mistral NeMo (12B) | Работа с документами (RAG) | Q6_K | {{:wiki:yes.png}} Отлично держит контекст длинных писем. | | SmolLM 2 / 3 (1.7B) | Микро-агент (Классификация) | Q8_0 | {{:wiki:no.png}} Только JSON. Скорость > 150 токенов/сек. | | DeepSeek-Coder-V2 (16B) | Написание скриптов для n8n | IQ4_XS | {{:wiki:yes.png}} Создание узлов Function/Code (JS/Python). | ===== Agents ===== <code bash> $ npm install -g @qwen-code/qwen-code $ qwen --version </code> <code bash> $ npm install -g @google/gemini-cli $ gemini </code> ===== Новости по моделям ===== * https://habr.com/en/search/?q=[%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8+%D0%B8%D0%B8]&target_type=posts&order=date ===== Модели ===== * Alibaba Group объявила о выходе модели искусственного интеллекта **Qwen3-Coder** — она доступна с открытым исходным кодом и предназначается для написания программного кода. ===== On-Line Модели ===== * https://chat.deepseek.com/ * https://alice.yandex.ru/ * https://deepai.org/chat * https://chat.qwen.ai/ ===== Агрегаторы ===== * https://openrouter.ai/chat ==== Специализированные ==== * https://speech2text.ru/СохранитьПросмотрРазличияОтменить Сводка изменений Примечание: редактируя эту страницу, вы соглашаетесь на использование своего вклада на условиях следующей лицензии: CC0 1.0 Universal