Akamai Cloud Inference
Интеграции
- NVIDIA Blackwell
- VAST Data
- Akamai Identity Cloud
- Kubernetes / Linode
- PyTorch / TensorFlow
Детали цены
- Маркетинговые бенчмарки заявляют о снижении затрат на рабочие нагрузки инференса до 86% по сравнению с AWS.
- Стандартное выставление счетов основано на потреблении ресурсов (циклы GPU/CPU) и передаче данных.
Возможности
- Инфраструктура NVIDIA Blackwell (RTX 6000)
- Интеграционный слой VAST Data
- Поддержка мультимодельного инференса
- Оптимизация агентных и физических рабочих нагрузок ИИ
- Периферийное посредничество конфиденциальности
- Обработка видео на ASIC VPU
- Унифицированный управляемый уровень персистентности
Видео обзоры
Описание
Анализ архитектуры Akamai Cloud Inference
Архитектура Akamai Inference Cloud представляет собой стратегическое развёртывание специализированных вычислительных ресурсов — в частности, графических процессоров NVIDIA Blackwell (RTX 6000) и ASIC VPU — на базе глобальной магистральной сети первого уровня 📑. Эта инфраструктура разработана для устранения узких мест производительности, характерных для централизованных гипермасштабных моделей, путём обработки данных на периметре сети, что снижает требования к обратной передаче данных и минимизирует физическое расстояние до конечного пользователя.
Базовая инфраструктура и уровень данных
Возможности платформы по работе с большими объёмами данных обеспечиваются стратегическим партнёрством с VAST Data, предоставляющим унифицированный уровень хранения, оптимизированный для высококонкурентных рабочих нагрузок ИИ 📑. Эта интеграция позволяет осуществлять доступ к данным в реальном времени во время инференса, поддерживая сложные механизмы retrieval-augmented generation (RAG) и динамическое внедрение контекста на границе сети.
- Вычислительная фабрика: Использует комбинацию ресурсов CPU, GPU и ASIC для соответствия специфическим требованиям рабочих нагрузок 📑.
- Производительность на границе: Сообщается о снижении задержки до 2,5 раз по сравнению с традиционными централизованными облаками за счёт устранения многоэтапной маршрутизации к основным центрам обработки данных 📑.
- Абстракция хранения: Управляемый уровень персистентности, интегрированный с VAST, обеспечивает необходимую пропускную способность для крупномасштабных весов моделей и журналов инференса с высокой нагрузкой 📑.
⠠⠉⠗⠑⠁⠞⠑⠙⠀⠃⠽⠀⠠⠁⠊⠞⠕⠉⠕⠗⠑⠲⠉⠕⠍
Конфиденциальность и безопасность архитектуры
Безопасность обеспечивается распределённым посредническим слоем, изолирующим среды выполнения от глобального сетевого ядра 🧠. Это позволяет локально обрабатывать конфиденциальные данные, такие как биометрические или частные видеопотоки, без передачи исходной информации по каналам дальней связи.
- Изоляция данных: Реализация эфемерных контейнеров или изолированных сред процессов обеспечивает соблюдение требований к резидентности данных на уровне периферийных узлов 🧠.
- Контроль доступа: Применяются многоуровневые протоколы доступа для управления внутренними представлениями моделей и посредническими процессами 🌑.
Рекомендации по оценке
Техническим командам следует уделить приоритетное внимание следующим шагам валидации:
- Географическая плотность: Сопоставить доступность регионов с поддержкой "Blackwell" с горячими точками пользователей, так как эти высокопроизводительные узлы развёрнуты в меньшем количестве локаций по сравнению со стандартными точками присутствия CDN 📑.
- Задержка холодного старта: Провести бенчмаркинг времени инициализации эфемерных контейнеров инференса (Wasm vs. Linux Containers) для проверки отзывчивости менее чем за секунду 🧠.
- Анализ затрат: Провести аудит заявления о "86% экономии", запустив параллельный пилот для рабочих нагрузок с высокой пропускной способностью, так как экономия сильно зависит от сокращения исходящего трафика по сравнению с затратами на вычисления 📑.
История обновлений
Akamai Inference Cloud набирает популярность с кейсами, такими как анализ видео в реальном времени (Monks) и AI-примерочные для мобильного шопинга. Платформа позволяет создавать пользовательские примерочные с локальной обработкой фото/видео, демонстрируя потенциал граничного AI для персонализированных приложений в реальном времени. Akamai сообщает о росте спроса после дебюта на конференции NVIDIA GTC.
Запуск Akamai Inference Cloud в партнёрстве с NVIDIA, переосмысливающий развёртывание AI с ядра дата-центров до границы сети. Использует инфраструктуру NVIDIA Blackwell для масштабируемого, безопасного и низколатентного вывода моделей по всему миру. Поддерживает агентские и физические AI-нагрузки, обеспечивая принятие решений в реальном времени и персонализированные взаимодействия. Ранние кейсы: анализ видео в реальном времени (Monks для мультикамерных потоков) и AI-примерочные для мобильного шопинга.
Официальный запуск Akamai Cloud Inference — платформы для создания и выполнения AI-приложений и ресурсоёмких нагрузок на границе сети. Обеспечивает в 3 раза лучшую пропускную способность и до 2.5 раз меньшую задержку по сравнению с традиционными гиперскейлерами. Экономия до 86% на нагрузках вывода моделей. Поддерживает предиктивные модели и LLM, предлагая гибкие вычислительные опции (CPU, GPU, ASIC VPU) и интеграцию с VAST Data для доступа к данным в реальном времени.
Улучшенные методы сжатия моделей для снижения использования полосы пропускания. Улучшенная наблюдаемость с подробными показателями производительности. Поддержка моделей WebAssembly.
Представлено многомодельное заключение. Поддержка генеративных моделей ИИ (текст в изображение). Расширенная поддержка платформ граничных вычислений.
Добавлена поддержка моделей TensorFlow Lite. Улучшены возможности версионирования и отката моделей. Улучшенный API для управления моделями.
Добавлена поддержка моделей видеоаналитики. Снижена задержка на 15% благодаря оптимизированному кэшированию на границе сети. Интеграция с Akamai Identity Cloud.
Представлена динамическая масштабируемость. Поддержка пользовательских контейнеров моделей. Улучшенные функции безопасности с расширенным шифрованием данных.
Добавлена поддержка моделей PyTorch. Улучшены возможности мониторинга и ведения журналов.
Выпуск в общую доступность. Расширенное географическое покрытие. Улучшенные инструменты развертывания моделей.
Первый релиз Beta. Поддержка моделей классификации изображений и обнаружения объектов. Ограниченная географическая доступность.
Плюсы и минусы инструмента
Плюсы
- Низкая задержка
- Масштабируемость
- Глобальная сеть
- Простая интеграция
- Улучшенный UX
Минусы
- Зависимость от поставщика
- Высокая стоимость