Нейросеть Qwen — сравнение с DeepSeek и другими чат-ботами. И нужно ли их сравнивать?
У китайской нейросети Qwen вышло мобильное приложение, заработал видеочат, а теперь появилась и новая версия — Qwen 3. Говорят, она лучше DeepSeek и других нейросетей на рынке. Так ли это? И что вообще может Qwen? Разбираем с экспертами.
Qwen — это бесплатная нейросеть китайской технологической компании Alibaba. В январе корпорация выпустила модель Qwen 2.5 Max и заявила, что она «мощнее DeepSeek». А в апреле представила Qwen 3 и снова заявила, что модель превзошла DeepSeek — последнюю версию R1. А еще, по словам разработчиков, нейросеть оказалась совершеннее GPT-o1 от OpenAI и Gemini от Google.
Разберем обе версии нейросети и их возможности:
Что такое Qwen? Основные характеристики
Qwen — это большая языковая модель (LLM) от Alibaba. В общем, такой же инструмент, как ChatGPT, DeepSeek, Gemini, YandexGPT и другие. Нам важно знать, что нейросеть Qwen:
-
Бесплатна.
-
Доступна на русском.
-
С открытым исходным кодом.
То есть чтобы использовать нейросеть, нужно лишь перейти по ссылке. Звучит идеально на фоне того, что для использования популярных нейросетей без костылей зачастую не обойтись.

А благодаря открытому исходному коду вы можете адаптировать и доработать нейросеть под свои нужды.
Чем отличаются модели Qwen 2.5 и 3
До последнего времени самой мощной моделью в семействе считалась Qwen 2.5 Max. Но 29 апреля вышла Qwen 3 и заняла место лидера. Разберем основные характеристики моделей.
Характеристика |
Qwen 2.5 Max |
Qwen 3 |
Что это значит |
Количество параметров |
Не разглашается, но предыдущая версия Max содержала около 100 млрд |
До 235 млрд |
Чем больше параметров, тем выше производительность и шире возможности |
Обучающий набор данных |
20 трлн токенов |
36 трлн токенов |
Чем больше набор данных, тем больше база знаний и тем лучше логические способности модели |
Поддержка иностранных языков |
39 языков и диалектов |
119 языков и диалектов |
Чем больше языков поддерживается, тем лучше генерация на них |
Что важно: все версии Qwen 3 являются гибридными, то есть могут одновременно рассуждать и быстро отвечать на простые запросы. Новая версия будет полезна, если вы:
работаете с большими объемами текстов, изображений или видео;
ищете открытое и доступное решение для создания интеллектуальных ассистентов, корпоративных чат-ботов или анализа данных.
Qwen 3 — хорошая альтернатива американским версиям от OpenAI и xAI, но не всем. Это не революция в стиле GPT-4, но это очень умный, продуманный и прагматичный продукт. И именно за такими моделями, скорее всего, будущее в реальных бизнес-приложениях на отечественном рынке.
Чем Qwen отличается от других нейросетей: Qwen vs ChatGPT vs DeepSeek vs отечественные нейросети
Начнем с вопроса: Qwen или ChatGPT? И на берегу определимся, что он некорректный. ChatGPT — это мастодонт, который доступен в России лишь частично, а для полного доступа нужны костыли и, по-хорошему, платная подписка. Он хорош, но не для всех. Так зачем сравнивать?
Главный конкурент Qwen в России — это, конечно, DeepSeek. Обе нейросети китайские, бесплатные, доступные на русском языке, да еще и с открытым исходным кодом. Но есть и отличия, которые вызывают вопрос: Qwen или DeepSeek? Разобрали в таблице.
Qwen |
DeepSeek |
|
Широкий фукнционал |
🟢Генерация фото и видео помимо основных функций чат-бота |
🔴 Доступны только текстовые генерации |
Поддержка разных форматов общения |
🟢 Голосовой и видеочат |
🔴 Только текстовый чат |
Работа с файлами разного формата и размера |
🟢🔴 Документы, изображения, видео, аудио. Ограничения зависят от формата контента |
🔴 Только документы или изображения, не более 50–100 МБ каждое |
Широкий функционал работы с загружаемым контентом |
🔴 Только извлечение текста |
🔴 Только извлечение текста |
Поддержка браузера Яндекса |
🔴 Веб-версия конфликтует с браузером Яндекса — ответы генерируются медленнее, частично информация теряется |
🟢 Веб-версия работает стабильно |
Мобильная версия |
🔴 Для Android. При попытке скачивания версии для iOS возникает ошибка |
🟢 И для Android, и для iOS |
Сравнить Qwen можно и с отечественными нейросетями. Например, YandexGPT и GigaChat.
Qwen 2.5 Max обучена на колоссальном объеме данных (упоминается более 20 трлн токенов на этапе предобучения) и может работать с очень большим контекстом. Модель обрабатывает до 1 млн токенов контекста, то есть способна воспринимать данные, эквивалентные сотням страниц текста. Для сравнения, контекст YandexGPT-5-Pro — примерно 32 000 токенов (анализ порядка 50 страниц текста), контекст GigaChat 2.0 Max увеличен до уровня анализа 200-страничной книги — это тоже много, но Qwen 2.5 Max превосходит всех по этому показателю.
Иными словами, Qwen может проанализировать большой документ, таблицу или даже книгу целиком, извлекая факты и отвечая на вопросы по ним. С базовыми задачами, которые есть у 90% населения нашей страны, нейросеть справляется на ура.
В общем, функционал Qwen шире, чем DeepSeek. А производительность выше, чем у отечественных нейросетей. Другой вопрос — в качестве генераций.
Как использовать Qwen: примеры
Как и другие чат-боты, Qwen может генерировать текст, изображения и видео, искать информацию в интернете, анализировать данные и прочее.
Qwen 2.5 Max можно смело назвать универсальной и доступной мультифункциональной нейросетью для большинства задач. Она показывает высокие результаты практически везде (текст, код, знания), хотя и не устанавливает безоговорочно новых рекордов в каждой отдельной категории.
Причем Qwen 3, по данным разработчиков, превосходит o1 от OpenAI, Gemini от Google и R1 от DeepSeek в написании кода, генерации текста и решении сложных математических задач. Мы протестировали нейросеть и собрали кейсы экспертов. Разберем примеры использования Qwen в сравнении с другими нейросетями:
Нейросеть Qwen для генерации текста
Мы попросили Qwen и DeepSeek написать новость для нашего сайта. А что, вдруг ИИ наконец освободит нас от рутины?
Результат: в генерации текстов нейросети стоят друг друга. У обеих случились галлюцинации (Qwen соврала об анонсировании открытого доступа к нейросети, DeepSeek перепутала год и пообещала обновление функционала).
Что еще важно: на первый взгляд кажется, что Qwen пишет более простым и понятным языком.
Знали ли вы, что YandexGPT-5 разрабатывался на основе Qwen 2.5? Именно потому, что китайская нейросеть показала лучшие результаты генерации на русском, чем прежние модели Яндекса. И хоть сейчас неоспоримым лидером в генерации грамотного стилистически корректного русского языка остается GigaChat Max, разрыв между ним и Qwen невелик. У российских моделей есть преимущество в нюансах языка, скорее всего, благодаря дообучению на пользовательских диалогах и локальных данных.
В то же время у Qwen 2.5 Max нет предвзятости к одной языковой культуре — нейросеть двуязычна (китайский/английский) и мультилингвальна, поэтому способна переключаться между языками. Для пользователя в большинстве случаев это означает высокое качество генерации на русском языке.
Qwen для генерации изображений
Здесь сравнивать будем не с DeepSeek — нейросеть не умеет генерировать изображения. Сравним с ChatGPT. Дали нейросетям один промпт:
Промпт. Сгенерируй изображение, где рыжий кот стоит над сметаной и хочет ее съесть. Реализм, фотография, фокусное расстояние до объекта, как я его вижу — 22 mm.
Результат: изображение ChatGPT больше соответствует промпту, но мы уже говорили, что эта нейросеть доступна не всем. А на безрыбье в таком случае и результат Qwen неплох.
Что еще важно: Qwen быстрее генерирует изображения — в среднем за пять секунд, тогда как у ChatGPT уходит на работу от нескольких минут.
В Qwen всегда была возможность одновременной генерации картинок и текстов — преимущество перед российскими нейросетями и DeepSeek. Подобная опция есть у моделей OpenAI, только заплатить за доступ придется минимум $20 с иностранной карты или через посредников.
Еще важно, что в версии Qwen 2.5 Max качество картинок ничем не уступает нейросетям Flux или DALL-E. Поэтому, например, в своих постах в соцсетях мы часто используем Qwen для имиджевых изображений, подогревающих интерес к текстам. Да, иногда не обойтись без дополнительного уточнения на генерацию человека европейской или славянской внешности. Но, думаю, ни для кого не составит труда попросить нейросеть сгенерировать необходимый тип человека.
Еще нужно понимать, что в специфических задачах (например, при генерации изображений с русским текстом или с деталями российской действительности) отечественные модели могут дать более точный результат.
Qwen для генерации видео
Тут у Qwen конкурентов нет — пока ни один популярный универсальный чат-бот не может генерировать видео. Поэтому сравнивать будем работы Qwen и Шедеврума. Дали нейросетям один промпт.
Промпт. Сгенерируй видео, на котором сначала рыжий кот стоит над сметаной, затем облизывается и ест ее. Реализм, фотография, фокусное расстояние до объекта, как я его вижу — 22 mm.
Честно говоря, оба варианта получились дикими. В варианте Шедеврума схлопнулись несколько котов, а в ролике Qwen кот съел, а потом выплюнул сметану — жизненно, но не то, что мы просили 🥲 Если всё же хотите это посмотреть, не стоит:
Посмотреть результат генерации видео Qwen 3
Посмотреть результат генерации видео в Шедевруме
Qwen в программировании
Здесь обойдемся без сравнений. Узнали у экспертов, как они использовали Qwen для написания кода.
Результат: высокое качество генерации.
Нюансы: нейросеть запрашивает уточнения, нужно корректировать результаты.
Qwen 2.5-Coder-32B показывает высокое качество в генерации и рефакторинге кода на Python, JavaScript и других языках. Например, по приведенному ниже запросу генерируется вполне оптимальный код.
Нам понравились точное следование стандартам PEP-8, поддержка мультиязычного программирования (например, генерация кода на TypeScript и ReactJS), интеграция с инструментами вроде Gradio для создания AI-ассистентов.
Qwen 2.5 Max обучалась на солидной выборке кода и оптимизаций по кодогенерации. Единственный важный минус — логические галлюцинации, которые сложно проверить: модель, как и другие генеративные нейросети, не создает код самостоятельно, поэтому запрашивает уточнения и корректировку результатов человеком. Всегда требуется прогнать и протестировать сгенерированное решение.
Как обучить Qwen на своих данных
Всё зависит от ваших целей. Рекомендации по обучению нейросети дал CEO онлайн-университета Zerocoder Кирилл Пшинник.
Если у вас есть специализированный датасет
Например, тексты по медицинской тематике или данные из внутренней базы знаний компании. В этом случае стоит дообучить модель на этих данных (fine-tune).
Поскольку вес модели Qwen 2.5 Max полностью не открыт, можно воспользоваться доступными открытыми версиями поменьше — например, Qwen 2.5 14B — и провести дообучение на своих данных с помощью фреймворков вроде HuggingFace Transformers. Такой подход позволит модели говорить на вашем языке — использовать отраслевую терминологию, учитывать факты именно из вашей области.
Важно подходить к дообучению ответственно: подготовить чистый и релевантный датасет, не слишком перегружать модель узкими данными (чтобы не «забылись» общие навыки), провести тестирование качества ответов до и после. Альтернативный подход без полноценного fine-tuning — few-shot обучение: вы можете показывать модели в подсказке примеры того, как отвечать на специфические запросы, а она будет подстраиваться под формат. Это менее затратно и не требует модификации весов.
Если вы планируете применять модель для чувствительной информации
Например, использовать документы с персональными данными клиентов. В этом случае необходимо применить локальное развертывание.
Вы можете:
Поднять экземпляр упрощенного варианта модели с открытой лицензией (из семейства Qwen 2.5 Omni, VL и пр.) на своих серверах.
Ограничить доступ извне.
Прогонять через него закрытые данные.
Тогда ничто не утечет во внешний интернет.
Если используется облачный вариант, заключите соглашение о конфиденциальности с провайдером (Alibaba Cloud) и отключите логирование запросов, чтобы ваши данные не сохранялись.
Если работаете с GDPR-содержимым или иной регламентированной информацией, обязательно анонимизируйте или шифруйте чувствительные части перед передачей в модель.
Если вы хотите извлечь максимум пользы
В этом случае стоит встроить Qwen 2.5 Max в ваши приложения.
Alibaba Cloud предоставляет API для Qwen — вы можете посылать запросы программно и получать ответы. Например, можно настроить внутреннего чат-бота для сотрудников, который на базе Qwen отвечает на вопросы из корпоративной базы знаний.
При этом хорошо комбинировать модель с традиционными методами: реализуйте подход Retrieval-Augmented Generation (RAG), когда перед ответом модель ищет нужные сведения в вашей базе. Проще говоря, связывайте Qwen с вашими данными: пусть сначала алгоритм найдет в вашем хранилище релевантный документ, передаст его текст модели, а та уже сформулирует ответ. Так ответы будут точными и будут опираться на актуальные факты из ваших данных. Инструменты вроде векторных баз данных (Milvus, Pinecone и пр.) помогут организовать такой поиск и питание контекстом.
Если вы планируете промышленное использование нейросети
В этом случае важно вводить механизмы контроля качества и содержимого ответов.
Нейросеть может генерировать лишнее или нежелательное, если ее неправильно попросить. Поэтому рекомендую:
Настраивать системные промпты — давать модели некие скрытые инструкции о тоне, стиле, запрещенных темах (например, «Не предоставляй финансовых советов, а говори обратиться к специалисту»).
Ставить фильтры на вывод. Например, прокидывать ответ модели через модуль модерации (это может быть встроенный фильтр от Alibaba или сторонний скрипт), который отсеет откровенно неуместный контент. Это важно, если вы внедряете модель в пользовательский сервис.
Собирать фидбэк от пользователей и примеры неудачных ответов, чтобы улучшать подсказки или дообучать модель на таких случаях.
Регулярное обучение на пользовательских запросах (с их согласия) поможет сделать Qwen более точной именно для ваших сценариев.
Если планируется большой поток запросов к модели
Нужно продумать инфраструктуру. Облачный вариант Qwen 2.5 Max масштабируется автоматически на стороне Alibaba — важно убедиться, что выбран подходящий тариф и квоты не закончатся в разгар работы.
При локальном развертывании:
либо обеспечьте достаточную вычислительную мощность (GPU памяти);
либо используйте технологии сжатия модели (квантование параметров до 4/8 бит), чтобы ускорить отклик.
Также можно реализовать кеширование результатов: если одни и те же запросы повторяются, сохраняйте ответы, чтобы лишний раз не тратить ресурсы модели. И отслеживайте время ответа — для интерактивных приложений иногда стоит ограничить максимальную длину генерируемого текста или сложность запроса, чтобы укладываться в приемлемые тайминги. Например, лучше не создавать одну задачу с запросом «Проанализируй весь этот 100-страничный документ», а разбивать ее на части (суммарно так даже точнее выйдет).
На этом всё! А вы уже тестировали Qwen? Что скажете?
Последние комментарии