Модель демонстрирует колоссальное контекстное окно в 1 миллион токенов, что позволяет загружать в промпт целые книги или базы исходного кода. Но главный макросигнал кроется в архитектуре: алгоритмы нативно адаптированы под китайские нейронные процессоры Huawei Ascend. Это фундаментальный сдвиг. До сих пор разработка топовых LLM была намертво привязана к экосистеме NVIDIA CUDA. Оптимизация флагманских моделей под отечественное железо доказывает, что технологическое разделение мира на два изолированных ИИ-лагеря идет полным ходом.
Источник: DeepSeek / Reuters
AI ModelsDeepSeekHuawei AscendHardwareGeopolitics