Китайская компания DeepSeek AI выпустила 20 августа 2025 года обновление своей флагманской open-source модели — DeepSeek V3.1. Новый релиз вызвал ажиотаж в сообществе разработчиков благодаря своим впечатляющим характеристикам и производительности. Модель представляет собой "гибридную" архитектуру Mixture-of-Experts (MoE) с общим числом параметров 685 миллиардов и расширенным контекстным окном до 128 тысяч токенов. Это позволяет ей обрабатывать и анализировать огромные объемы информации, например, целые кодовые базы или пакеты документации за один раз. Согласно опубликованным бенчмаркам, DeepSeek V3.1 демонстрирует выдающиеся результаты в задачах, связанных с программированием и логическим мышлением, превосходя многие ведущие проприетарные и открытые модели, включая Claude 3.5 Sonnet. Доступность модели под свободной лицензией на таких площадках, как Hugging Face, ускоряет ее распространение и укрепляет позиции DeepSeek как одного из ключевых игроков в мире open-source ИИ.
DeepSeek выпускает V3.1 — open-source модель с контекстным окном 128k, превосходящую аналоги в программировании
