MiniMax, ИИ-компания, базирующаяся в Шанхае, выпустила логическую модель с открытым исходным кодом, которая бросает вызов китайскому конкуренту DeepSeek и американским Anthropic, OpenAI и Google с точки зрения производительности и стоимости.
MiniMax-M1 был выпущен в понедельник под лицензией Apache software и, таким образом, на самом деле является открытым исходным кодом, в отличие от семейства Llama от Meta, предлагаемого по лицензии сообщества, которая не является открытым исходным кодом, и DeepSeek, который только частично находится под лицензией с открытым исходным кодом.
«В целом, производительностьвозможности M1, ориентированные на сценарии с открытым исходным кодом, являются лучшими среди моделей с открытым исходным кодом, превосходя отечественные модели с закрытым исходным кодом и приближаясь к ведущим зарубежным моделям, предлагая при этом лучшую в отрасли экономическую эффективность», — хвастается MiniMax в своем блоге.
Согласно блогу таким образом, M1 конкурирует с OpenAI o3, Gemini 2.5 Pro, Claude 4 Opus, DeepSeek R1, DeepSeek R1-0528 и Qwen3-235B в различных тестах (AIME 2024, LiveCodeBench, SWE-bench Verified, Tau-bench и MRCR), уступая одним моделям и опережая другие в разной степени. Как всегда, отнеситесь к результатам тестирования, предоставленным поставщиком, со всей серьезностью, но исходный код доступен на GitHub, если вы хотите подтвердить его эффективность самостоятельно.Но MiniMax ясно дает понять, что пытается вытеснить DeepSeek как ведущего разработчика в отрасли, отметив, что его контекстное окно (объем ввода, который оно может обрабатывать) составляет один миллион токенов, что составляет конкуренцию Google Gemini 2.5 Pro и в восемь раз превышает емкость DeepSeek R1.
1/5-й день #MiniMaxWeek: Мы запускаем MiniMax-M1, нашу последнюю версию LLM, которая устанавливает новые стандарты в области долгосрочного анализа.- Самое длинное в мире контекстное окно: ввод 1 млн токенов, вывод 80 тыс. токенов — Использование самых современных средств среди моделей с открытым исходным кодом — RL с непревзойденной эффективностью:… pic.twitter.com/bGfDlZA54n
— Минимакс (официально) (@MiniMax__AI) 16 июня 2025 г.
С точки зрения производительности, модель может обрабатывать 80 000 токенов, что лучше, чем у DeepSeek с 64 000 токенов, но уступает o3 от OpenAI, который может выдавать 100 000 токенов в ответ на запрос.
Поддерживается Alibaba Group, Tencent и IDG. Компания Capital, MiniMax, утверждает, что ее механизм молниеносного внимания, способ вычисления матриц внимания, который повышает эффективность как обучения, так и логического вывода, дает ее модели M1 преимущество при вычислении входных данных с длинным контекстом и при попытке рассуждать.»Например, при выполнении deep reasoning с использованием 80 000 токенов требуется всего около 30 процентов вычислительной мощности DeepSeek R1″, — утверждает компания. «Эта функция дает нам существенное преимущество в эффективности вычислений как при обучении, так и при выводе».
Этот более эффективный метод вычислений в сочетании с улучшенным алгоритмом обучения с подкреплением под названием CISPO (подробно описан в техническом отчете M1 [PDF]) приводит к снижению вычислительных затрат.»На протяжении всего этапа обучения с подкреплением в течение трех недель использовались только 512 [Nvidia] H800, а стоимость аренды составила всего 537 400 долларов», — утверждает MiniMax. «Это на порядок меньше, чем предполагалось изначально». ®