AWS представляет новые инструменты для создания кастомных моделей ИИ
Расширение возможностей Amazon Bedrock и SageMaker
Сразу после анонса Nova Forge, сервиса для обучения кастомных моделей Nova AI, компания AWS объявила о новых инструментах для корпоративных клиентов для создания передовых моделей.
На конференции AWS re:Invent AWS представила новые возможности в Amazon Bedrock и Amazon SageMaker AI. Эти функции призваны облегчить процесс создания и настройки кастомных больших языковых моделей (LLM) для разработчиков.
Настройка моделей без серверов
Cloud-провайдер вводит возможность настройки моделей без серверов в SageMaker. Это позволяет разработчикам начать работу над моделью, не задумываясь о вычислительных ресурсах или инфраструктуре, как пояснил Анкур Мехротра, генеральный менеджер платформ AI в AWS, в интервью TechCrunch.
Для доступа к этим возможностям разработчики могут выбрать либо самостоятельный путь через интерфейс "укажи и щелкни", либо воспользоваться агентом, который позволит использовать SageMaker на естественном языке. Функция с агентом запускается в предварительном просмотре.
«Если вы клиент из сферы здравоохранения и хотите, чтобы модель лучше понимала определенную медицинскую терминологию, вы можете просто указать SageMaker AI, и он, использовав размеченные данные, настроит модель», — отметил Мехротра.
Поддержка различных моделей
Эта возможность доступна для настройки как собственных моделей AWS Nova, так и некоторых моделей с открытым исходным кодом, таких как DeepSeek и Meta’s Llama.
AWS также запускает "Reinforcement Fine-Tuning" в Bedrock, которое позволяет разработчикам выбирать либо функцию вознаграждения, либо предустановленный рабочий процесс, и Bedrock выполнит процесс настройки модели автоматически.
Новый этап для кастомных решений
Передовые LLM и кастомизация моделей стали ключевыми направлениями для AWS на этой конференции. Компания представила Nova Forge — сервис, который будет разрабатывать кастомные модели Nova для своих корпоративных клиентов за $100,000 в год, о чем сообщалось в выступлении генерального директора AWS Мэтта Гармана.
Мехротра добавил: «Многие наши клиенты задают вопрос: "Если моему конкуренту доступна та же модель, как я могу отличиться? Как создать уникальные решения, оптимизирующие мой бренд и мой кейс?" Решение этой проблемы — в возможности создания кастомных моделей.»
AWS пока не удалось завоевать существенную базу пользователей для своих моделей ИИ. Недавний опрос компании Menlo Ventures показал, что предприятия отдают предпочтение Anthropic, OpenAI и Gemini. Однако возможность настройки и тонкой настройки LLM’ов может дать AWS конкурентное преимущество.
Следите за всем освещением ежегодного мероприятия TechCrunch для промышленной технологии здесь и ознакомьтесь со всеми объявлениями, которые вы могли пропустить.