Meta представляет Llama 4: Два новых AI-моделя и еще два на подходе
Meta AI теперь доступен в WhatsApp, Messenger и Instagram вместе с Llama 4
Компания Meta запустила Llama 4 Scout и Llama 4 Maverick — две новые модели искусственного интеллекта, ставшие доступными в рамках мультимодальной платформы Llama 4.
Maverick считается основным инструментом среди предложенных моделей и демонстрирует отличные способности в понимании изображений и текста для использования в качестве общего помощника и в чатах, как сообщается в блоге компании. Модель Scout, в свою очередь, предназначена для решения таких задач, как суммаризация нескольких документов, анализ пользовательской активности для персонализированных задач и обработка обширных баз кода.
Также была анонсирована модель Llama 4 Behemoth, которая по заявлению компании, является одной из самых умных среди мировых языковых моделей. Генеральный директор компании Марк Цукерберг сообщил, что вскоре следует ожидать выхода четвертой модели — Llama 4 Reasoning. Эта модель будет презентована уже в следующем месяце.
Обе модели, Maverick и Scout, уже доступны для загрузки на официальном сайте Llama и платформе Hugging Face. Они интегрированы в Meta AI для использования в WhatsApp, Messenger и личных сообщениях в Instagram.
Scout обладает 17 миллиардами активных параметров и 16 экспертами. По словам Цукерберга, эта модель «очень быстрая, изначально мультимодальная и имеет ведущую в отрасли, практически бесконечную контекстную длину в 10 миллионов токенов. Она спроектирована таким образом, чтобы работать на едином GPU».
С другой стороны, Maverick также имеет 17 миллиардов активных параметров, но с 128 экспертами. Компания утверждает, что эта модель превосходит конкурентов, таких как GPT-4o и Gemini 2.0, по показателям кодирования, рассуждения, мультиязычности, обработки длинных контекстов и изображений.
Будущая модель Behemoth, которая еще находится в стадии обучения, уже называется «самой производительной базовой моделью в мире». Об этом говорится в заявлениях компании, которая отмечает, что она будет укомплектована 288 миллиардами активных параметров. Хотя модель пока недоступна, в ближайшем будущем можно ожидать больше информации о ней и модели Reasoning, особенно с учетом приближающейся конференции LlamaCon.