@lobehub/chat 1.106.2 → 1.106.4

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (37) hide show
  1. package/CHANGELOG.md +67 -0
  2. package/apps/desktop/src/preload/routeInterceptor.ts +28 -0
  3. package/changelog/v1.json +24 -0
  4. package/locales/ar/models.json +164 -5
  5. package/locales/bg-BG/models.json +164 -5
  6. package/locales/de-DE/models.json +164 -5
  7. package/locales/en-US/models.json +164 -5
  8. package/locales/es-ES/models.json +164 -5
  9. package/locales/fa-IR/models.json +164 -5
  10. package/locales/fr-FR/models.json +164 -5
  11. package/locales/it-IT/models.json +164 -5
  12. package/locales/ja-JP/models.json +164 -5
  13. package/locales/ko-KR/models.json +164 -5
  14. package/locales/nl-NL/models.json +164 -5
  15. package/locales/pl-PL/models.json +164 -5
  16. package/locales/pt-BR/models.json +164 -5
  17. package/locales/ru-RU/models.json +164 -5
  18. package/locales/tr-TR/models.json +164 -5
  19. package/locales/vi-VN/models.json +164 -5
  20. package/locales/zh-CN/models.json +164 -5
  21. package/locales/zh-TW/models.json +164 -5
  22. package/package.json +1 -1
  23. package/src/config/aiModels/google.ts +0 -48
  24. package/src/config/aiModels/groq.ts +4 -0
  25. package/src/config/aiModels/hunyuan.ts +22 -0
  26. package/src/config/aiModels/moonshot.ts +0 -36
  27. package/src/config/aiModels/qwen.ts +110 -11
  28. package/src/config/aiModels/siliconcloud.ts +101 -0
  29. package/src/config/aiModels/stepfun.ts +0 -53
  30. package/src/config/aiModels/volcengine.ts +21 -0
  31. package/src/config/aiModels/zhipu.ts +132 -11
  32. package/src/config/modelProviders/moonshot.ts +1 -0
  33. package/src/libs/model-runtime/moonshot/index.ts +10 -1
  34. package/src/libs/model-runtime/utils/modelParse.ts +2 -2
  35. package/src/libs/model-runtime/zhipu/index.ts +57 -1
  36. package/src/server/services/mcp/index.test.ts +161 -0
  37. package/src/server/services/mcp/index.ts +4 -1
@@ -32,6 +32,9 @@
32
32
  "4.0Ultra": {
33
33
  "description": "Spark4.0 Ultra — это самая мощная версия в серии больших моделей Xinghuo, которая, обновив сетевые поисковые связи, улучшает понимание и обобщение текстового контента. Это всестороннее решение для повышения производительности в офисе и точного реагирования на запросы, являющееся ведущим интеллектуальным продуктом в отрасли."
34
34
  },
35
+ "AnimeSharp": {
36
+ "description": "AnimeSharp (также известный как \"4x‑AnimeSharp\") — это открытая модель сверхразрешения, разработанная Kim2091 на основе архитектуры ESRGAN, ориентированная на увеличение и улучшение изображений в аниме-стиле. В феврале 2022 года модель была переименована из \"4x-TextSharpV1\"; изначально она также применялась для текстовых изображений, но была значительно оптимизирована для аниме-контента."
37
+ },
35
38
  "Baichuan2-Turbo": {
36
39
  "description": "Использует технологии улучшенного поиска для полной связи между большой моделью и отраслевыми знаниями, а также знаниями из сети. Поддерживает загрузку различных документов, таких как PDF и Word, а также ввод URL, обеспечивая своевременное и полное получение информации с точными и профессиональными результатами."
37
40
  },
@@ -89,6 +92,9 @@
89
92
  "Doubao-pro-4k": {
90
93
  "description": "Основная модель с наилучшей производительностью, подходящая для решения сложных задач. Отлично справляется с вопросами-ответами, резюмированием, творческим написанием, классификацией текста, ролевыми играми и другими сценариями. Поддерживает вывод и дообучение с контекстным окном в 4k."
91
94
  },
95
+ "DreamO": {
96
+ "description": "DreamO — это открытая модель генерации изображений, разработанная совместно ByteDance и Пекинским университетом, предназначенная для поддержки многозадачной генерации изображений в единой архитектуре. Она использует эффективный метод комбинированного моделирования, позволяющий создавать высоко согласованные и кастомизированные изображения на основе заданных пользователем условий, таких как идентичность, объект, стиль и фон."
97
+ },
92
98
  "ERNIE-3.5-128K": {
93
99
  "description": "Флагманская крупномасштабная языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными возможностями, способная удовлетворить большинство требований к диалоговым ответам, генерации контента и сценариям использования плагинов; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах."
94
100
  },
@@ -122,15 +128,39 @@
122
128
  "ERNIE-Speed-Pro-128K": {
123
129
  "description": "Новая высокопроизводительная языковая модель, разработанная Baidu в 2024 году, обладающая выдающимися универсальными возможностями, превосходящая ERNIE Speed, подходит для использования в качестве базовой модели для тонкой настройки, лучше справляясь с задачами в специфических сценариях, при этом обладая отличной производительностью вывода."
124
130
  },
131
+ "FLUX.1-Kontext-dev": {
132
+ "description": "FLUX.1-Kontext-dev — мультимодальная модель генерации и редактирования изображений, разработанная Black Forest Labs на основе архитектуры Rectified Flow Transformer с масштабом 12 миллиардов параметров. Модель специализируется на генерации, реконструкции, улучшении и редактировании изображений с учётом заданного контекста. Она сочетает преимущества контролируемой генерации диффузионных моделей и контекстного моделирования Transformer, обеспечивая высококачественный вывод и широкое применение в задачах восстановления, дополнения и реконструкции визуальных сцен."
133
+ },
134
+ "FLUX.1-dev": {
135
+ "description": "FLUX.1-dev — это открытая мультимодальная языковая модель (Multimodal Language Model, MLLM), разработанная Black Forest Labs и оптимизированная для задач, связанных с изображениями и текстом. Она объединяет возможности понимания и генерации изображений и текста, построена на основе передовой большой языковой модели (например, Mistral-7B) и использует тщательно разработанный визуальный кодировщик и многоступенчатую инструкционную донастройку для совместной обработки изображений и текста, а также сложного вывода."
136
+ },
125
137
  "Gryphe/MythoMax-L2-13b": {
126
138
  "description": "MythoMax-L2 (13B) — это инновационная модель, подходящая для многообластных приложений и сложных задач."
127
139
  },
140
+ "HelloMeme": {
141
+ "description": "HelloMeme — это AI-инструмент, который автоматически создаёт мемы, анимированные изображения или короткие видео на основе предоставленных вами картинок или действий. Для работы не требуется навыков рисования или программирования — достаточно подготовить референсное изображение, и инструмент поможет создать привлекательный, забавный и стилистически единый контент."
142
+ },
143
+ "HiDream-I1-Full": {
144
+ "description": "HiDream-E1-Full — это открытая мультимодальная модель редактирования изображений, выпущенная HiDream.ai, основанная на передовой архитектуре Diffusion Transformer и обладающая мощными возможностями понимания языка (встроенный LLaMA 3.1-8B-Instruct). Модель поддерживает генерацию изображений, перенос стиля, локальное редактирование и перерисовку контента по естественным языковым инструкциям, демонстрируя выдающиеся способности в понимании и выполнении текстово-графических задач."
145
+ },
146
+ "HunyuanDiT-v1.2-Diffusers-Distilled": {
147
+ "description": "hunyuandit-v1.2-distilled — это облегчённая модель генерации изображений из текста, оптимизированная с помощью дистилляции для быстрой генерации высококачественных изображений, особенно подходящая для условий с ограниченными ресурсами и задач реального времени."
148
+ },
149
+ "InstantCharacter": {
150
+ "description": "InstantCharacter — персонализированная модель генерации персонажей без необходимости дообучения, выпущенная командой Tencent AI в 2025 году. Модель обеспечивает высокую точность и согласованность персонажей в различных сценах, позволяя создавать модели персонажей на основе одной референсной фотографии и гибко переносить их в разные стили, позы и фоны."
151
+ },
128
152
  "InternVL2-8B": {
129
153
  "description": "InternVL2-8B — это мощная визуально-языковая модель, поддерживающая многомодальную обработку изображений и текста, способная точно распознавать содержимое изображений и генерировать соответствующие описания или ответы."
130
154
  },
131
155
  "InternVL2.5-26B": {
132
156
  "description": "InternVL2.5-26B — это мощная визуально-языковая модель, поддерживающая многомодальную обработку изображений и текста, способная точно распознавать содержимое изображений и генерировать соответствующие описания или ответы."
133
157
  },
158
+ "Kolors": {
159
+ "description": "Kolors — модель генерации изображений из текста, разработанная командой Kolors компании Kuaishou. Обученная на миллиардах параметров, она демонстрирует значительные преимущества в визуальном качестве, понимании китайской семантики и рендеринге текста."
160
+ },
161
+ "Kwai-Kolors/Kolors": {
162
+ "description": "Kolors — масштабная модель генерации изображений из текста на основе латентного диффузионного процесса, разработанная командой Kolors компании Kuaishou. Обученная на миллиардах пар текст-изображение, модель демонстрирует выдающиеся результаты в визуальном качестве, точности сложной семантики и рендеринге китайских и английских символов. Она поддерживает ввод на китайском и английском языках и особенно хорошо справляется с пониманием и генерацией специфического китайского контента."
163
+ },
134
164
  "Llama-3.2-11B-Vision-Instruct": {
135
165
  "description": "Отличные способности к визуальному выводу на изображениях высокого разрешения, подходящие для приложений визуального понимания."
136
166
  },
@@ -164,9 +194,15 @@
164
194
  "MiniMaxAI/MiniMax-M1-80k": {
165
195
  "description": "MiniMax-M1 — это масштабная модель вывода с гибридным вниманием и открытыми весами, содержащая 456 миллиардов параметров, при этом каждый токен активирует около 45,9 миллиарда параметров. Модель изначально поддерживает сверхдлинный контекст до 1 миллиона токенов и благодаря механизму молниеносного внимания экономит 75% вычислительных операций с плавающей точкой в задачах генерации на 100 тысяч токенов по сравнению с DeepSeek R1. Кроме того, MiniMax-M1 использует архитектуру MoE (смешанные эксперты), сочетая алгоритм CISPO и эффективное обучение с подкреплением с гибридным вниманием, достигая ведущих в отрасли показателей при выводе на длинных входах и в реальных сценариях программной инженерии."
166
196
  },
197
+ "Moonshot-Kimi-K2-Instruct": {
198
+ "description": "Общая численность параметров — 1 триллион, активируемых параметров — 32 миллиарда. Среди немыслящих моделей достигает передовых результатов в области актуальных знаний, математики и программирования, особенно эффективна для универсальных агентских задач. Модель тщательно оптимизирована для агентских задач, способна не только отвечать на вопросы, но и предпринимать действия. Идеально подходит для импровизационного, универсального общения и агентских сценариев, являясь моделью рефлекторного уровня без необходимости длительного обдумывания."
199
+ },
167
200
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
168
201
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) — это высокоточная модель команд, подходящая для сложных вычислений."
169
202
  },
203
+ "OmniConsistency": {
204
+ "description": "OmniConsistency повышает согласованность стиля и обобщающую способность в задачах преобразования изображений (Image-to-Image) за счёт внедрения масштабных Diffusion Transformers (DiTs) и парных стилизованных данных, предотвращая деградацию стиля."
205
+ },
170
206
  "Phi-3-medium-128k-instruct": {
171
207
  "description": "Та же модель Phi-3-medium, но с большим размером контекста для RAG или нескольких подсказок."
172
208
  },
@@ -218,6 +254,9 @@
218
254
  "Pro/deepseek-ai/DeepSeek-V3": {
219
255
  "description": "DeepSeek-V3 — это языковая модель с 6710 миллиардами параметров, использующая архитектуру смешанных экспертов (MoE) и многофункциональное внимание (MLA), в сочетании с стратегией балансировки нагрузки без вспомогательных потерь, оптимизирующая эффективность вывода и обучения. После предобучения на 14.8 триллионах высококачественных токенов и последующей контролируемой донастройки и обучения с подкреплением, DeepSeek-V3 превосходит другие открытые модели и приближается к ведущим закрытым моделям."
220
256
  },
257
+ "Pro/moonshotai/Kimi-K2-Instruct": {
258
+ "description": "Kimi K2 — базовая модель на архитектуре MoE с выдающимися возможностями в кодировании и агентских задачах, общим числом параметров 1 триллион и 32 миллиардами активируемых параметров. В тестах на универсальное знание, программирование, математику и агентские задачи производительность модели K2 превосходит другие ведущие открытые модели."
259
+ },
221
260
  "QwQ-32B-Preview": {
222
261
  "description": "QwQ-32B-Preview — это инновационная модель обработки естественного языка, способная эффективно обрабатывать сложные задачи генерации диалогов и понимания контекста."
223
262
  },
@@ -278,6 +317,12 @@
278
317
  "Qwen/Qwen3-235B-A22B": {
279
318
  "description": "Qwen3 — это новая генерация модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли по нескольким ключевым направлениям, включая рассуждение, общие задачи, агентские функции и многоязычность, а также поддерживающей переключение режимов размышления."
280
319
  },
320
+ "Qwen/Qwen3-235B-A22B-Instruct-2507": {
321
+ "description": "Qwen3-235B-A22B-Instruct-2507 — флагманская модель серии Qwen3 с архитектурой смешанных экспертов (MoE), разработанная командой Alibaba Cloud Tongyi Qianwen. Модель содержит 235 миллиардов параметров, из которых при каждом выводе активируется 22 миллиарда. Это обновлённая версия Qwen3-235B-A22B в неразмышляющем режиме, с улучшениями в следовании инструкциям, логическом выводе, понимании текста, математике, науке, программировании и использовании инструментов. Модель расширяет покрытие многоязычных знаний и лучше согласуется с пользовательскими предпочтениями в субъективных и открытых задачах, обеспечивая более полезный и качественный текст."
322
+ },
323
+ "Qwen/Qwen3-235B-A22B-Thinking-2507": {
324
+ "description": "Qwen3-235B-A22B-Thinking-2507 — крупная языковая модель серии Qwen3, разработанная командой Alibaba Tongyi Qianwen, ориентированная на сложные задачи рассуждения. Модель построена на архитектуре смешанных экспертов (MoE) с общим числом параметров 235 миллиардов и активацией около 22 миллиардов параметров на токен, что обеспечивает высокую производительность при эффективном использовании ресурсов. Как специализированная \"мыслящая\" модель, она демонстрирует выдающиеся результаты в логическом выводе, математике, науке, программировании и академических тестах, достигая топовых показателей среди открытых моделей. Модель также улучшает универсальные способности, такие как следование инструкциям, использование инструментов и генерация текста, и нативно поддерживает контекст длиной до 256K токенов, что делает её идеальной для глубокого анализа и обработки длинных документов."
325
+ },
281
326
  "Qwen/Qwen3-30B-A3B": {
282
327
  "description": "Qwen3 — это новая генерация модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли по нескольким ключевым направлениям, включая рассуждение, общие задачи, агентские функции и многоязычность, а также поддерживающей переключение режимов размышления."
283
328
  },
@@ -944,6 +989,9 @@
944
989
  "doubao-seed-1.6-thinking": {
945
990
  "description": "Модель Doubao-Seed-1.6-thinking значительно улучшена в плане мышления, по сравнению с Doubao-1.5-thinking-pro дополнительно повышены базовые способности в программировании, математике и логическом рассуждении, поддерживается визуальное понимание. Поддерживает контекстное окно 256k и максимальную длину вывода до 16k токенов."
946
991
  },
992
+ "doubao-seedream-3-0-t2i-250415": {
993
+ "description": "Модель генерации изображений Doubao разработана командой Seed компании ByteDance, поддерживает ввод текста и изображений, обеспечивая высококонтролируемый и качественный опыт генерации изображений на основе текстовых подсказок."
994
+ },
947
995
  "doubao-vision-lite-32k": {
948
996
  "description": "Модель Doubao-vision — мультимодальная крупная модель от Doubao, обладающая мощными возможностями понимания и вывода по изображениям, а также точным пониманием инструкций. Модель демонстрирует высокую производительность в задачах извлечения информации из изображений и текстов, а также в задачах вывода на основе изображений, что позволяет применять её в более сложных и широких визуальных вопросах."
949
997
  },
@@ -995,6 +1043,9 @@
995
1043
  "ernie-char-fiction-8k": {
996
1044
  "description": "Специализированная большая языковая модель, разработанная Baidu, подходящая для применения в игровых NPC, диалогах службы поддержки, ролевых играх и других сценариях, с более ярким и последовательным стилем персонажей, более высокой способностью следовать инструкциям и лучшей производительностью вывода."
997
1045
  },
1046
+ "ernie-irag-edit": {
1047
+ "description": "Собственная модель редактирования изображений ERNIE iRAG от Baidu поддерживает операции удаления объектов (erase), перерисовки (repaint) и вариаций (variation) на основе изображений."
1048
+ },
998
1049
  "ernie-lite-8k": {
999
1050
  "description": "ERNIE Lite — это легковесная большая языковая модель, разработанная Baidu, которая сочетает в себе отличные результаты модели и производительность вывода, подходит для использования на AI-ускорителях с низкой вычислительной мощностью."
1000
1051
  },
@@ -1022,12 +1073,27 @@
1022
1073
  "ernie-x1-turbo-32k": {
1023
1074
  "description": "Модель имеет лучшие результаты и производительность по сравнению с ERNIE-X1-32K."
1024
1075
  },
1076
+ "flux-1-schnell": {
1077
+ "description": "Модель генерации изображений из текста с 12 миллиардами параметров, разработанная Black Forest Labs, использующая технологию латентного контрольно-диффузионного дистиллята. Способна генерировать высококачественные изображения за 1–4 шага. Производительность сопоставима с закрытыми аналогами. Распространяется под лицензией Apache-2.0, подходит для личного, научного и коммерческого использования."
1078
+ },
1079
+ "flux-dev": {
1080
+ "description": "FLUX.1 [dev] — открытая модель с весами и оптимизациями для некоммерческого использования. Обеспечивает качество изображений и следование инструкциям, близкие к профессиональной версии FLUX, при более высокой эффективности работы и лучшем использовании ресурсов по сравнению с моделями того же размера."
1081
+ },
1025
1082
  "flux-kontext/dev": {
1026
1083
  "description": "Модель редактирования изображений Frontier."
1027
1084
  },
1085
+ "flux-merged": {
1086
+ "description": "Модель FLUX.1-merged объединяет глубокие особенности, исследованные в фазе разработки \"DEV\", и преимущества высокой скорости исполнения, представленные в \"Schnell\". Это позволяет расширить границы производительности модели и увеличить её применимость."
1087
+ },
1028
1088
  "flux-pro/kontext": {
1029
1089
  "description": "FLUX.1 Kontext [pro] способен обрабатывать текст и эталонные изображения в качестве входных данных, обеспечивая бесшовное целенаправленное локальное редактирование и сложные преобразования всей сцены."
1030
1090
  },
1091
+ "flux-schnell": {
1092
+ "description": "FLUX.1 [schnell] — самая передовая открытая модель с малым числом шагов генерации, превосходящая конкурентов и даже такие мощные не дистиллированные модели, как Midjourney v6.0 и DALL·E 3 (HD). Модель специально донастроена для сохранения всего разнообразия выходных данных, достигнутого на этапе предобучения. По сравнению с современными топовыми моделями на рынке, FLUX.1 [schnell] значительно улучшает визуальное качество, следование инструкциям, изменение размеров и пропорций, обработку шрифтов и разнообразие выходных данных, обеспечивая пользователям более богатый и разнообразный творческий опыт генерации изображений."
1093
+ },
1094
+ "flux.1-schnell": {
1095
+ "description": "Исправленный потоковый трансформер с 12 миллиардами параметров, способный генерировать изображения на основе текстовых описаний."
1096
+ },
1031
1097
  "flux/schnell": {
1032
1098
  "description": "FLUX.1 [schnell] — это потоковая трансформерная модель с 12 миллиардами параметров, способная генерировать высококачественные изображения из текста за 1–4 шага, подходит для личного и коммерческого использования."
1033
1099
  },
@@ -1109,9 +1175,6 @@
1109
1175
  "gemini-2.5-flash-preview-04-17": {
1110
1176
  "description": "Gemini 2.5 Flash Preview — это наиболее выгодная модель от Google, предлагающая широкий спектр возможностей."
1111
1177
  },
1112
- "gemini-2.5-flash-preview-04-17-thinking": {
1113
- "description": "Gemini 2.5 Flash Preview — самая экономичная модель Google с полным набором функций."
1114
- },
1115
1178
  "gemini-2.5-flash-preview-05-20": {
1116
1179
  "description": "Gemini 2.5 Flash Preview — самая экономичная модель Google с полным набором функций."
1117
1180
  },
@@ -1190,6 +1253,21 @@
1190
1253
  "glm-4.1v-thinking-flashx": {
1191
1254
  "description": "Серия моделей GLM-4.1V-Thinking является самой производительной визуальной моделью уровня 10B VLM на сегодняшний день, объединяя передовые SOTA возможности в задачах визуально-языкового понимания, включая понимание видео, вопросы по изображениям, решение предметных задач, распознавание текста OCR, интерпретацию документов и графиков, GUI-агентов, фронтенд веб-кодинг, Grounding и другие. Во многих задачах её возможности превосходят Qwen2.5-VL-72B с параметрами в 8 раз больше. Благодаря передовым методам обучения с подкреплением модель овладела рассуждениями через цепочку мышления, что значительно повышает точность и полноту ответов, превосходя традиционные модели без thinking с точки зрения конечных результатов и интерпретируемости."
1192
1255
  },
1256
+ "glm-4.5": {
1257
+ "description": "Последняя флагманская модель Zhizhu, поддерживающая режимы размышления, достигающая уровня SOTA среди открытых моделей по совокупным способностям, с длиной контекста до 128K токенов."
1258
+ },
1259
+ "glm-4.5-air": {
1260
+ "description": "Лёгкая версия GLM-4.5, сочетающая производительность и экономичность, с возможностью гибкого переключения между смешанными режимами размышления."
1261
+ },
1262
+ "glm-4.5-airx": {
1263
+ "description": "Ускоренная версия GLM-4.5-Air с более быстрой реакцией, созданная для масштабных задач с высокими требованиями к скорости."
1264
+ },
1265
+ "glm-4.5-flash": {
1266
+ "description": "Бесплатная версия GLM-4.5, демонстрирующая отличные результаты в задачах вывода, программирования и работы с агентами."
1267
+ },
1268
+ "glm-4.5-x": {
1269
+ "description": "Ускоренная версия GLM-4.5 с высокой производительностью и скоростью генерации до 100 токенов в секунду."
1270
+ },
1193
1271
  "glm-4v": {
1194
1272
  "description": "GLM-4V предлагает мощные способности понимания и вывода изображений, поддерживает множество визуальных задач."
1195
1273
  },
@@ -1209,7 +1287,7 @@
1209
1287
  "description": "Супербыстрый вывод: обладает сверхбыстрой скоростью вывода и мощными результатами вывода."
1210
1288
  },
1211
1289
  "glm-z1-flash": {
1212
- "description": "Серия GLM-Z1 обладает мощными способностями к сложному выводу, демонстрируя отличные результаты в логическом выводе, математике и программировании. Максимальная длина контекста составляет 32K."
1290
+ "description": "Серия GLM-Z1 обладает мощными возможностями сложного рассуждения, демонстрируя выдающиеся результаты в логике, математике и программировании."
1213
1291
  },
1214
1292
  "glm-z1-flashx": {
1215
1293
  "description": "Высокая скорость и низкая цена: улучшенная версия Flash с сверхбыстрой скоростью вывода и повышенной поддержкой параллельных запросов."
@@ -1385,6 +1463,9 @@
1385
1463
  "grok-2-1212": {
1386
1464
  "description": "Модель улучшена в точности, соблюдении инструкций и многоязычных возможностях."
1387
1465
  },
1466
+ "grok-2-image-1212": {
1467
+ "description": "Наша новейшая модель генерации изображений способна создавать живые и реалистичные изображения на основе текстовых подсказок. Она отлично подходит для маркетинга, социальных сетей и развлекательных приложений."
1468
+ },
1388
1469
  "grok-2-vision-1212": {
1389
1470
  "description": "Модель улучшена в точности, соблюдении инструкций и многоязычных возможностях."
1390
1471
  },
@@ -1454,6 +1535,9 @@
1454
1535
  "hunyuan-t1-20250529": {
1455
1536
  "description": "Оптимизация создания текстов и написания сочинений, улучшение навыков программирования, математики и логического мышления, повышение способности следовать инструкциям."
1456
1537
  },
1538
+ "hunyuan-t1-20250711": {
1539
+ "description": "Значительное улучшение способностей в сложной математике, логике и программировании, оптимизация стабильности вывода модели и повышение возможностей работы с длинными текстами."
1540
+ },
1457
1541
  "hunyuan-t1-latest": {
1458
1542
  "description": "Первый в отрасли сверхмасштабный гибридный трансформер-Mamba для вывода, расширяющий возможности вывода, обладающий высокой скоростью декодирования и лучше соответствующий человеческим предпочтениям."
1459
1543
  },
@@ -1502,6 +1586,12 @@
1502
1586
  "hunyuan-vision": {
1503
1587
  "description": "Последняя многомодальная модель Hunyuan, поддерживающая ввод изображений и текста для генерации текстового контента."
1504
1588
  },
1589
+ "image-01": {
1590
+ "description": "Новая модель генерации изображений с детальной прорисовкой, поддерживающая генерацию из текста и преобразование изображений."
1591
+ },
1592
+ "image-01-live": {
1593
+ "description": "Модель генерации изображений с детальной прорисовкой, поддерживающая генерацию из текста и настройку стиля изображения."
1594
+ },
1505
1595
  "imagen-4.0-generate-preview-06-06": {
1506
1596
  "description": "Серия моделей Imagen 4-го поколения для преобразования текста в изображение"
1507
1597
  },
@@ -1526,6 +1616,9 @@
1526
1616
  "internvl3-latest": {
1527
1617
  "description": "Мы выпустили нашу последнюю многомодальную большую модель, обладающую более сильными способностями к пониманию текстов и изображений, а также к пониманию длинных последовательностей изображений, производительность которой сопоставима с ведущими закрытыми моделями. По умолчанию указывает на нашу последнюю выпущенную серию моделей InternVL, в настоящее время указывает на internvl3-78b."
1528
1618
  },
1619
+ "irag-1.0": {
1620
+ "description": "Собственная технология Baidu iRAG (image based RAG) — это метод генерации изображений с усилением поиска, который объединяет миллиардные ресурсы изображений Baidu Search с мощными базовыми моделями, позволяя создавать сверхреалистичные изображения, значительно превосходящие традиционные системы генерации изображений. Модель отличается отсутствием артефактов AI, высокой реалистичностью и мгновенной доступностью при низких затратах."
1621
+ },
1529
1622
  "jamba-large": {
1530
1623
  "description": "Наша самая мощная и передовая модель, разработанная для решения сложных задач корпоративного уровня, обладающая выдающейся производительностью."
1531
1624
  },
@@ -1535,6 +1628,9 @@
1535
1628
  "jina-deepsearch-v1": {
1536
1629
  "description": "Глубокий поиск сочетает в себе сетевой поиск, чтение и рассуждение, позволяя проводить всесторонние исследования. Вы можете рассматривать его как агента, который принимает ваши исследовательские задачи — он проводит обширный поиск и проходит через множество итераций, прежде чем предоставить ответ. Этот процесс включает в себя постоянные исследования, рассуждения и решение проблем с разных точек зрения. Это принципиально отличается от стандартных больших моделей, которые генерируют ответы непосредственно из предобученных данных, и от традиционных систем RAG, полагающихся на одноразовый поверхностный поиск."
1537
1630
  },
1631
+ "kimi-k2": {
1632
+ "description": "Kimi-K2 — базовая модель на архитектуре MoE с выдающимися возможностями в кодировании и агентских задачах, выпущенная Moonshot AI, с общим числом параметров 1 триллион и 32 миллиардами активируемых параметров. В тестах на универсальное знание, программирование, математику и агентские задачи производительность модели K2 превосходит другие ведущие открытые модели."
1633
+ },
1538
1634
  "kimi-k2-0711-preview": {
1539
1635
  "description": "kimi-k2 — базовая модель с архитектурой MoE, обладающая мощными возможностями кода и агента, с общим числом параметров 1 триллион и 32 миллиарда активных параметров. В тестах производительности по основным категориям, таким как универсальное знание, программирование, математика и агенты, модель K2 превосходит другие ведущие открытые модели."
1540
1636
  },
@@ -1928,6 +2024,9 @@
1928
2024
  "moonshotai/Kimi-Dev-72B": {
1929
2025
  "description": "Kimi-Dev-72B — это крупная модель с открытым исходным кодом, оптимизированная с помощью масштабного обучения с подкреплением, способная выдавать надежные патчи, готовые к непосредственному внедрению. Эта модель достигла нового рекордного результата 60,4 % на SWE-bench Verified, обновив рекорды открытых моделей в автоматизированных задачах программной инженерии, таких как исправление ошибок и код-ревью."
1930
2026
  },
2027
+ "moonshotai/Kimi-K2-Instruct": {
2028
+ "description": "Kimi K2 — базовая модель на архитектуре MoE с выдающимися возможностями в кодировании и агентских задачах, с общим числом параметров 1 триллион и 32 миллиардами активируемых параметров. В тестах на универсальное знание, программирование, математику и агентские задачи производительность модели K2 превосходит другие ведущие открытые модели."
2029
+ },
1931
2030
  "moonshotai/kimi-k2-instruct": {
1932
2031
  "description": "kimi-k2 — базовая модель на архитектуре MoE с мощными возможностями кода и агента, общий объем параметров 1 триллион, активные параметры 32 миллиарда. В тестах производительности по основным категориям, таким как общие знания, программирование, математика и агенты, модель K2 превосходит другие популярные открытые модели."
1933
2032
  },
@@ -2264,6 +2363,12 @@
2264
2363
  "qwen3-235b-a22b": {
2265
2364
  "description": "Qwen3 — это новое поколение модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли в области вывода, универсальности, агентов и многоязычности, а также поддерживающей переключение режимов размышления."
2266
2365
  },
2366
+ "qwen3-235b-a22b-instruct-2507": {
2367
+ "description": "Открытая модель на базе Qwen3 в неразмышляющем режиме, с небольшими улучшениями в творческих способностях и безопасности по сравнению с предыдущей версией (Tongyi Qianwen 3-235B-A22B)."
2368
+ },
2369
+ "qwen3-235b-a22b-thinking-2507": {
2370
+ "description": "Открытая модель на базе Qwen3 в режиме размышления, с существенными улучшениями в логических способностях, универсальности, расширении знаний и творчестве по сравнению с предыдущей версией (Tongyi Qianwen 3-235B-A22B), предназначенная для сложных задач с интенсивным рассуждением."
2371
+ },
2267
2372
  "qwen3-30b-a3b": {
2268
2373
  "description": "Qwen3 — это новое поколение модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли в области вывода, универсальности, агентов и многоязычности, а также поддерживающей переключение режимов размышления."
2269
2374
  },
@@ -2276,6 +2381,12 @@
2276
2381
  "qwen3-8b": {
2277
2382
  "description": "Qwen3 — это новое поколение модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли в области вывода, универсальности, агентов и многоязычности, а также поддерживающей переключение режимов размышления."
2278
2383
  },
2384
+ "qwen3-coder-480b-a35b-instruct": {
2385
+ "description": "Открытая версия модели кода Tongyi Qianwen. Последняя модель qwen3-coder-480b-a35b-instruct основана на Qwen3 и обладает мощными возможностями Coding Agent, хорошо справляется с вызовом инструментов и взаимодействием с окружением, обеспечивая автономное программирование с выдающимися кодовыми и универсальными способностями."
2386
+ },
2387
+ "qwen3-coder-plus": {
2388
+ "description": "Модель кода Tongyi Qianwen. Последняя серия моделей Qwen3-Coder-Plus основана на Qwen3 и обладает мощными возможностями Coding Agent, хорошо справляется с вызовом инструментов и взаимодействием с окружением, обеспечивая автономное программирование с выдающимися кодовыми и универсальными способностями."
2389
+ },
2279
2390
  "qwq": {
2280
2391
  "description": "QwQ — это экспериментальная исследовательская модель, сосредоточенная на повышении возможностей вывода ИИ."
2281
2392
  },
@@ -2318,6 +2429,24 @@
2318
2429
  "sonar-reasoning-pro": {
2319
2430
  "description": "Новый API продукт, поддерживаемый моделью вывода DeepSeek."
2320
2431
  },
2432
+ "stable-diffusion-3-medium": {
2433
+ "description": "Последняя крупная модель генерации изображений из текста от Stability AI. Эта версия сохраняет преимущества предыдущих поколений и значительно улучшает качество изображений, понимание текста и разнообразие стилей, позволяя точнее интерпретировать сложные естественные языковые подсказки и создавать более точные и разнообразные изображения."
2434
+ },
2435
+ "stable-diffusion-3.5-large": {
2436
+ "description": "stable-diffusion-3.5-large — это модель генерации изображений из текста с 800 миллионами параметров на основе мультимодального диффузионного трансформера (MMDiT), обладающая выдающимся качеством изображений и соответствием подсказкам. Поддерживает генерацию изображений с разрешением до 1 миллиона пикселей и эффективно работает на обычном потребительском оборудовании."
2437
+ },
2438
+ "stable-diffusion-3.5-large-turbo": {
2439
+ "description": "stable-diffusion-3.5-large-turbo — модель, основанная на stable-diffusion-3.5-large с применением технологии адверсариального диффузионного дистиллята (ADD), обеспечивающая более высокую скорость генерации."
2440
+ },
2441
+ "stable-diffusion-v1.5": {
2442
+ "description": "stable-diffusion-v1.5 инициализирована весами контрольной точки stable-diffusion-v1.2 и дообучена на \"laion-aesthetics v2 5+\" с разрешением 512x512 в течение 595 тысяч шагов, с уменьшением текстовой кондиционированности на 10% для улучшения безклассификаторного направленного сэмплинга."
2443
+ },
2444
+ "stable-diffusion-xl": {
2445
+ "description": "stable-diffusion-xl значительно улучшена по сравнению с версией v1.5 и сопоставима по качеству с текущими передовыми открытыми моделями генерации изображений, такими как midjourney. Основные улучшения включают: увеличенный в 3 раза unet-бэкбон, добавление модуля уточнения для улучшения качества изображений и более эффективные методы обучения."
2446
+ },
2447
+ "stable-diffusion-xl-base-1.0": {
2448
+ "description": "Крупная модель генерации изображений из текста, разработанная и открытая Stability AI, обладающая передовыми возможностями творческой генерации изображений. Отличается превосходным пониманием инструкций и поддержкой обратных подсказок для точного создания контента."
2449
+ },
2321
2450
  "step-1-128k": {
2322
2451
  "description": "Балансирует производительность и стоимость, подходит для общих сценариев."
2323
2452
  },
@@ -2348,6 +2477,12 @@
2348
2477
  "step-1v-8k": {
2349
2478
  "description": "Небольшая визуальная модель, подходящая для базовых задач с текстом и изображениями."
2350
2479
  },
2480
+ "step-1x-edit": {
2481
+ "description": "Модель, ориентированная на задачи редактирования изображений, способная изменять и улучшать изображения на основе предоставленных пользователем изображений и текстовых описаний. Поддерживает различные форматы ввода, включая текстовые описания и примеры изображений. Модель понимает намерения пользователя и генерирует соответствующие результаты редактирования."
2482
+ },
2483
+ "step-1x-medium": {
2484
+ "description": "Модель с мощными возможностями генерации изображений, поддерживающая ввод в виде текстовых описаний. Обладает нативной поддержкой китайского языка, что позволяет лучше понимать и обрабатывать китайские текстовые описания, точнее улавливать семантику и преобразовывать её в визуальные характеристики для более точной генерации изображений. Модель способна создавать изображения высокого разрешения и качества, а также обладает некоторыми возможностями переноса стиля."
2485
+ },
2351
2486
  "step-2-16k": {
2352
2487
  "description": "Поддерживает масштабные взаимодействия контекста, подходит для сложных диалоговых сценариев."
2353
2488
  },
@@ -2357,6 +2492,9 @@
2357
2492
  "step-2-mini": {
2358
2493
  "description": "Супербыстрая большая модель на основе новой самодельной архитектуры внимания MFA, достигающая аналогичных результатов, как step1, при очень низких затратах, одновременно обеспечивая более высокую пропускную способность и более быстрое время отклика. Способна обрабатывать общие задачи и обладает особыми навыками в кодировании."
2359
2494
  },
2495
+ "step-2x-large": {
2496
+ "description": "Новая модель Step Star следующего поколения, ориентированная на генерацию изображений. Модель способна создавать высококачественные изображения на основе текстовых описаний пользователя. Новая версия обеспечивает более реалистичную текстуру изображений и улучшенные возможности генерации текста на китайском и английском языках."
2497
+ },
2360
2498
  "step-r1-v-mini": {
2361
2499
  "description": "Эта модель является мощной моделью вывода с сильными способностями к пониманию изображений, способной обрабатывать информацию из изображений и текста, выводя текст после глубокого размышления. Эта модель демонстрирует выдающиеся результаты в области визуального вывода, а также обладает первоклассными способностями в математике, коде и текстовом выводе. Длина контекста составляет 100k."
2362
2500
  },
@@ -2432,8 +2570,23 @@
2432
2570
  "v0-1.5-md": {
2433
2571
  "description": "Модель v0-1.5-md подходит для повседневных задач и генерации пользовательского интерфейса (UI)"
2434
2572
  },
2573
+ "wan2.2-t2i-flash": {
2574
+ "description": "Экспресс-версия Wanxiang 2.2 — самая новая модель на данный момент. Полное обновление в креативности, стабильности и реалистичности, высокая скорость генерации и отличное соотношение цена-качество."
2575
+ },
2576
+ "wan2.2-t2i-plus": {
2577
+ "description": "Профессиональная версия Wanxiang 2.2 — самая новая модель на данный момент. Полное обновление в креативности, стабильности и реалистичности, с более детальной проработкой изображений."
2578
+ },
2579
+ "wanx-v1": {
2580
+ "description": "Базовая модель генерации изображений из текста. Соответствует универсальной модели версии 1.0 на официальном сайте Tongyi Wanxiang."
2581
+ },
2582
+ "wanx2.0-t2i-turbo": {
2583
+ "description": "Специализирована на реалистичных портретах, средняя скорость и низкая стоимость. Соответствует экспресс-модели версии 2.0 на официальном сайте Tongyi Wanxiang."
2584
+ },
2585
+ "wanx2.1-t2i-plus": {
2586
+ "description": "Полностью обновлённая версия с более детальной проработкой изображений, немного более медленная скорость. Соответствует профессиональной модели версии 2.1 на официальном сайте Tongyi Wanxiang."
2587
+ },
2435
2588
  "wanx2.1-t2i-turbo": {
2436
- "description": "Модель генерации изображений от Alibaba Cloud Tongyi"
2589
+ "description": "Полностью обновлённая версия с высокой скоростью генерации, всесторонним качеством и отличным соотношением цена-качество. Соответствует экспресс-модели версии 2.1 на официальном сайте Tongyi Wanxiang."
2437
2590
  },
2438
2591
  "whisper-1": {
2439
2592
  "description": "Универсальная модель распознавания речи, поддерживающая многоязычное распознавание речи, перевод речи и идентификацию языка."
@@ -2485,5 +2638,11 @@
2485
2638
  },
2486
2639
  "yi-vision-v2": {
2487
2640
  "description": "Модель для сложных визуальных задач, обеспечивающая высокопроизводительное понимание и анализ на основе нескольких изображений."
2641
+ },
2642
+ "zai-org/GLM-4.5": {
2643
+ "description": "GLM-4.5 — базовая модель, специально созданная для приложений с агентами, использующая архитектуру смешанных экспертов (Mixture-of-Experts). Модель глубоко оптимизирована для вызова инструментов, веб-браузинга, программной инженерии и фронтенд-разработки, поддерживает бесшовную интеграцию с кодовыми агентами, такими как Claude Code и Roo Code. GLM-4.5 использует смешанный режим вывода, адаптируясь к сложным рассуждениям и повседневным задачам."
2644
+ },
2645
+ "zai-org/GLM-4.5-Air": {
2646
+ "description": "GLM-4.5-Air — базовая модель, специально созданная для приложений с агентами, использующая архитектуру смешанных экспертов (Mixture-of-Experts). Модель глубоко оптимизирована для вызова инструментов, веб-браузинга, программной инженерии и фронтенд-разработки, поддерживает бесшовную интеграцию с кодовыми агентами, такими как Claude Code и Roo Code. GLM-4.5 использует смешанный режим вывода, адаптируясь к сложным рассуждениям и повседневным задачам."
2488
2647
  }
2489
2648
  }