@lobehub/chat 1.129.1 → 1.129.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/models.json +248 -23
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/models.json +248 -23
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/models.json +248 -23
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/models.json +248 -23
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/models.json +248 -23
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/models.json +248 -23
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/models.json +248 -23
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/models.json +248 -23
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/models.json +248 -23
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/models.json +248 -23
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/models.json +248 -23
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/models.json +248 -23
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/models.json +248 -23
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/models.json +248 -23
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/models.json +248 -23
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/models.json +248 -23
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/models.json +248 -23
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/models.json +248 -23
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +1 -1
- package/packages/database/migrations/0031_add_agent_index.sql +6 -6
- package/packages/database/src/core/migrations.json +3 -3
- package/packages/model-runtime/src/core/RouterRuntime/baseRuntimeMap.ts +2 -0
- package/packages/model-runtime/src/providers/newapi/index.ts +17 -2
- package/packages/model-runtime/src/providers/qwen/createImage.test.ts +110 -0
- package/packages/model-runtime/src/providers/qwen/createImage.ts +100 -3
|
@@ -602,6 +602,33 @@
|
|
|
602
602
|
"ai21-labs/AI21-Jamba-1.5-Mini": {
|
|
603
603
|
"description": "Многоязычная модель с 52 млрд параметров (12 млрд активных), предоставляющая окно контекста длиной 256K, вызовы функций, структурированный вывод и генерацию на основе фактов."
|
|
604
604
|
},
|
|
605
|
+
"alibaba/qwen-3-14b": {
|
|
606
|
+
"description": "Qwen3 — это новейшее поколение крупномасштабных языковых моделей серии Qwen, предлагающее полный набор плотных и смешанных экспертных (MoE) моделей. Благодаря обширному обучению Qwen3 демонстрирует прорывные достижения в области вывода, следования инструкциям, агентных возможностей и поддержки нескольких языков."
|
|
607
|
+
},
|
|
608
|
+
"alibaba/qwen-3-235b": {
|
|
609
|
+
"description": "Qwen3 — это новейшее поколение крупномасштабных языковых моделей серии Qwen, предлагающее полный набор плотных и смешанных экспертных (MoE) моделей. Благодаря обширному обучению Qwen3 демонстрирует прорывные достижения в области вывода, следования инструкциям, агентных возможностей и поддержки нескольких языков."
|
|
610
|
+
},
|
|
611
|
+
"alibaba/qwen-3-30b": {
|
|
612
|
+
"description": "Qwen3 — это новейшее поколение крупномасштабных языковых моделей серии Qwen, предлагающее полный набор плотных и смешанных экспертных (MoE) моделей. Благодаря обширному обучению Qwen3 демонстрирует прорывные достижения в области вывода, следования инструкциям, агентных возможностей и поддержки нескольких языков."
|
|
613
|
+
},
|
|
614
|
+
"alibaba/qwen-3-32b": {
|
|
615
|
+
"description": "Qwen3 — это новейшее поколение крупномасштабных языковых моделей серии Qwen, предлагающее полный набор плотных и смешанных экспертных (MoE) моделей. Благодаря обширному обучению Qwen3 демонстрирует прорывные достижения в области вывода, следования инструкциям, агентных возможностей и поддержки нескольких языков."
|
|
616
|
+
},
|
|
617
|
+
"alibaba/qwen3-coder": {
|
|
618
|
+
"description": "Qwen3-Coder-480B-A35B-Instruct — самый агентно-ориентированный кодовый модель серии Qwen, демонстрирующий выдающиеся результаты в агентном кодировании, использовании браузера агентом и других базовых задачах кодирования, сопоставимые с Claude Sonnet."
|
|
619
|
+
},
|
|
620
|
+
"amazon/nova-lite": {
|
|
621
|
+
"description": "Очень недорогая мультимодальная модель с чрезвычайно высокой скоростью обработки изображений, видео и текстовых данных."
|
|
622
|
+
},
|
|
623
|
+
"amazon/nova-micro": {
|
|
624
|
+
"description": "Только текстовая модель, обеспечивающая минимальную задержку отклика при очень низкой стоимости."
|
|
625
|
+
},
|
|
626
|
+
"amazon/nova-pro": {
|
|
627
|
+
"description": "Высокопроизводительная мультимодальная модель с оптимальным сочетанием точности, скорости и стоимости, подходящая для широкого спектра задач."
|
|
628
|
+
},
|
|
629
|
+
"amazon/titan-embed-text-v2": {
|
|
630
|
+
"description": "Amazon Titan Text Embeddings V2 — легкая и эффективная многоязычная модель встраивания с поддержкой размерностей 1024, 512 и 256."
|
|
631
|
+
},
|
|
605
632
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
|
606
633
|
"description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
|
|
607
634
|
},
|
|
@@ -627,25 +654,28 @@
|
|
|
627
654
|
"description": "Обновленная версия Claude 2, обладающая двойным контекстным окном и улучшениями в надежности, уровне галлюцинаций и точности на основе доказательств в длинных документах и контексте RAG."
|
|
628
655
|
},
|
|
629
656
|
"anthropic/claude-3-haiku": {
|
|
630
|
-
"description": "Claude 3 Haiku —
|
|
657
|
+
"description": "Claude 3 Haiku — самая быстрая модель Anthropic на сегодняшний день, разработанная для корпоративных нагрузок с обычно длинными подсказками. Haiku быстро анализирует большие объемы документов, таких как квартальные отчеты, контракты или судебные дела, при этом стоимость вдвое ниже, чем у других моделей с аналогичным уровнем производительности."
|
|
631
658
|
},
|
|
632
659
|
"anthropic/claude-3-opus": {
|
|
633
|
-
"description": "Claude 3 Opus —
|
|
660
|
+
"description": "Claude 3 Opus — самая интеллектуальная модель Anthropic с лидирующей на рынке производительностью в сложных задачах. Она демонстрирует выдающуюся плавность и человекоподобное понимание при работе с открытыми подсказками и новыми сценариями."
|
|
634
661
|
},
|
|
635
662
|
"anthropic/claude-3.5-haiku": {
|
|
636
|
-
"description": "Claude 3.5 Haiku —
|
|
663
|
+
"description": "Claude 3.5 Haiku — следующее поколение нашей самой быстрой модели. При скорости, сопоставимой с Claude 3 Haiku, она улучшена по всем навыкам и превосходит нашего предыдущего крупнейшего Claude 3 Opus во многих интеллектуальных тестах."
|
|
637
664
|
},
|
|
638
665
|
"anthropic/claude-3.5-sonnet": {
|
|
639
|
-
"description": "Claude 3.5 Sonnet
|
|
666
|
+
"description": "Claude 3.5 Sonnet достигает идеального баланса между интеллектом и скоростью, особенно для корпоративных нагрузок. По сравнению с аналогами, он обеспечивает мощную производительность при меньших затратах и разработан для высокой надежности в масштабных развертываниях ИИ."
|
|
640
667
|
},
|
|
641
668
|
"anthropic/claude-3.7-sonnet": {
|
|
642
|
-
"description": "Claude 3.7 Sonnet —
|
|
669
|
+
"description": "Claude 3.7 Sonnet — первая гибридная модель вывода и самая интеллектуальная модель Anthropic на сегодняшний день. Она обеспечивает передовые возможности в кодировании, генерации контента, анализе данных и планировании, построена на базе программных и вычислительных способностей предшественника Claude 3.5 Sonnet."
|
|
643
670
|
},
|
|
644
671
|
"anthropic/claude-opus-4": {
|
|
645
|
-
"description": "Claude Opus 4 —
|
|
672
|
+
"description": "Claude Opus 4 — самая мощная модель Anthropic и лучший в мире кодовый модель, лидирующий в SWE-bench (72,5%) и Terminal-bench (43,2%). Обеспечивает устойчивую производительность для длительных задач, требующих сосредоточенности и тысяч шагов, способна работать непрерывно в течение нескольких часов, значительно расширяя возможности ИИ-агентов."
|
|
673
|
+
},
|
|
674
|
+
"anthropic/claude-opus-4.1": {
|
|
675
|
+
"description": "Claude Opus 4.1 — готовая к использованию альтернатива Opus 4, обеспечивающая выдающуюся производительность и точность для реальных задач кодирования и агентных операций. Opus 4.1 повышает передовые показатели кодирования до 74,5% в SWE-bench Verified и с большей тщательностью и вниманием к деталям решает сложные многошаговые задачи."
|
|
646
676
|
},
|
|
647
677
|
"anthropic/claude-sonnet-4": {
|
|
648
|
-
"description": "Claude Sonnet 4
|
|
678
|
+
"description": "Claude Sonnet 4 значительно улучшен по сравнению с Sonnet 3.7, демонстрируя выдающиеся результаты в кодировании с передовым показателем 72,7% в SWE-bench. Модель сбалансирована по производительности и эффективности, подходит для внутренних и внешних сценариев и обеспечивает большую управляемость благодаря расширенным возможностям контроля."
|
|
649
679
|
},
|
|
650
680
|
"ascend-tribe/pangu-pro-moe": {
|
|
651
681
|
"description": "Pangu-Pro-MoE 72B-A16B — это разреженная большая языковая модель с 72 миллиардами параметров и 16 миллиардами активных параметров, основанная на архитектуре группового смешанного эксперта (MoGE). В фазе выбора экспертов эксперты группируются, и токен активирует равное количество экспертов в каждой группе, что обеспечивает баланс нагрузки между экспертами и значительно повышает эффективность развертывания модели на платформе Ascend."
|
|
@@ -797,6 +827,18 @@
|
|
|
797
827
|
"cohere/Cohere-command-r-plus": {
|
|
798
828
|
"description": "Command R+ — передовая оптимизированная модель для RAG, предназначенная для корпоративных рабочих нагрузок."
|
|
799
829
|
},
|
|
830
|
+
"cohere/command-a": {
|
|
831
|
+
"description": "Command A — самая производительная модель Cohere на сегодняшний день, отлично справляющаяся с использованием инструментов, агентными задачами, генерацией с поддержкой поиска (RAG) и многоязычными сценариями. Контекстная длина Command A составляет 256K, модель работает на двух GPU и обеспечивает на 150% большую пропускную способность по сравнению с Command R+ 08-2024."
|
|
832
|
+
},
|
|
833
|
+
"cohere/command-r": {
|
|
834
|
+
"description": "Command R — крупномасштабная языковая модель, оптимизированная для диалогового взаимодействия и задач с длинным контекстом. Она относится к категории \"масштабируемых\" моделей, обеспечивая баланс между высокой производительностью и точностью, позволяя компаниям перейти от прототипов к промышленному использованию."
|
|
835
|
+
},
|
|
836
|
+
"cohere/command-r-plus": {
|
|
837
|
+
"description": "Command R+ — последняя крупномасштабная языковая модель Cohere, оптимизированная для диалогового взаимодействия и задач с длинным контекстом. Цель — выдающаяся производительность, позволяющая компаниям перейти от прототипов к промышленному использованию."
|
|
838
|
+
},
|
|
839
|
+
"cohere/embed-v4.0": {
|
|
840
|
+
"description": "Модель, позволяющая классифицировать текст, изображения или смешанный контент либо преобразовывать их в векторные представления (эмбеддинги)."
|
|
841
|
+
},
|
|
800
842
|
"command": {
|
|
801
843
|
"description": "Диалоговая модель, следуя инструкциям, которая демонстрирует высокое качество и надежность в языковых задачах, а также имеет более длинную длину контекста по сравнению с нашей базовой генеративной моделью."
|
|
802
844
|
},
|
|
@@ -975,7 +1017,7 @@
|
|
|
975
1017
|
"description": "DeepSeek-V3.1 — крупная гибридная модель рассуждений с поддержкой длинного контекста до 128K и эффективным переключением режимов, демонстрирующая выдающуюся производительность и скорость при вызове инструментов, генерации кода и выполнении сложных задач рассуждений."
|
|
976
1018
|
},
|
|
977
1019
|
"deepseek/deepseek-r1": {
|
|
978
|
-
"description": "DeepSeek-R1 значительно улучшила
|
|
1020
|
+
"description": "Модель DeepSeek R1 получила небольшое обновление до версии DeepSeek-R1-0528. В последнем обновлении DeepSeek R1 значительно улучшила глубину и качество вывода за счет увеличения вычислительных ресурсов и внедрения алгоритмических оптимизаций после обучения. Модель демонстрирует отличные результаты в математике, программировании и общей логике, приближаясь по производительности к лидерам, таким как O3 и Gemini 2.5 Pro."
|
|
979
1021
|
},
|
|
980
1022
|
"deepseek/deepseek-r1-0528": {
|
|
981
1023
|
"description": "DeepSeek-R1 значительно улучшил способность модели к рассуждению при минимальном количестве размеченных данных. Перед выводом окончательного ответа модель сначала генерирует цепочку рассуждений для повышения точности ответа."
|
|
@@ -984,7 +1026,7 @@
|
|
|
984
1026
|
"description": "DeepSeek-R1 значительно улучшил способность модели к рассуждению при минимальном количестве размеченных данных. Перед выводом окончательного ответа модель сначала генерирует цепочку рассуждений для повышения точности ответа."
|
|
985
1027
|
},
|
|
986
1028
|
"deepseek/deepseek-r1-distill-llama-70b": {
|
|
987
|
-
"description": "DeepSeek
|
|
1029
|
+
"description": "DeepSeek-R1-Distill-Llama-70B — дистиллированная и более эффективная версия модели Llama 70B. Она сохраняет высокую производительность в задачах генерации текста при сниженных вычислительных затратах для удобства развертывания и исследований. Обслуживается на аппаратуре Groq с использованием их специализированных языковых процессорных блоков (LPU) для быстрой и эффективной работы."
|
|
988
1030
|
},
|
|
989
1031
|
"deepseek/deepseek-r1-distill-llama-8b": {
|
|
990
1032
|
"description": "DeepSeek R1 Distill Llama 8B — это дистиллированная большая языковая модель на основе Llama-3.1-8B-Instruct, обученная с использованием выходных данных DeepSeek R1."
|
|
@@ -1002,7 +1044,10 @@
|
|
|
1002
1044
|
"description": "DeepSeek-R1 значительно улучшила способности модели к рассуждению при наличии лишь очень ограниченных размеченных данных. Перед тем как предоставить окончательный ответ, модель сначала выводит цепочку размышлений, чтобы повысить точность окончательного ответа."
|
|
1003
1045
|
},
|
|
1004
1046
|
"deepseek/deepseek-v3": {
|
|
1005
|
-
"description": "
|
|
1047
|
+
"description": "Быстрая универсальная крупномасштабная языковая модель с улучшенными возможностями вывода."
|
|
1048
|
+
},
|
|
1049
|
+
"deepseek/deepseek-v3.1-base": {
|
|
1050
|
+
"description": "DeepSeek V3.1 Base — улучшенная версия модели DeepSeek V3."
|
|
1006
1051
|
},
|
|
1007
1052
|
"deepseek/deepseek-v3/community": {
|
|
1008
1053
|
"description": "DeepSeek-V3 достиг значительного прорыва в скорости вывода по сравнению с предыдущими моделями. Она занимает первое место среди открытых моделей и может соперничать с самыми современными закрытыми моделями в мире. DeepSeek-V3 использует архитектуры многоголового потенциального внимания (MLA) и DeepSeekMoE, которые были полностью проверены в DeepSeek-V2. Кроме того, DeepSeek-V3 внедрила вспомогательную безубыточную стратегию для балансировки нагрузки и установила цели обучения для многомаркерного прогнозирования для достижения более высокой производительности."
|
|
@@ -1430,18 +1475,27 @@
|
|
|
1430
1475
|
"glm-zero-preview": {
|
|
1431
1476
|
"description": "GLM-Zero-Preview обладает мощными способностями к сложному выводу, демонстрируя отличные результаты в области логического вывода, математики и программирования."
|
|
1432
1477
|
},
|
|
1478
|
+
"google/gemini-2.0-flash": {
|
|
1479
|
+
"description": "Gemini 2.0 Flash предлагает функции следующего поколения и улучшенные возможности, включая выдающуюся скорость, встроенное использование инструментов, мультимодальную генерацию и контекстное окно на 1 миллион токенов."
|
|
1480
|
+
},
|
|
1433
1481
|
"google/gemini-2.0-flash-001": {
|
|
1434
1482
|
"description": "Gemini 2.0 Flash предлагает функции следующего поколения и улучшения, включая выдающуюся скорость, использование встроенных инструментов, многомодальную генерацию и контекстное окно на 1M токенов."
|
|
1435
1483
|
},
|
|
1436
1484
|
"google/gemini-2.0-flash-exp:free": {
|
|
1437
1485
|
"description": "Gemini 2.0 Flash Experimental — это последняя экспериментальная мультимодальная AI модель от Google, которая демонстрирует определенное улучшение качества по сравнению с историческими версиями, особенно в области мировых знаний, кода и длинного контекста."
|
|
1438
1486
|
},
|
|
1487
|
+
"google/gemini-2.0-flash-lite": {
|
|
1488
|
+
"description": "Gemini 2.0 Flash Lite предлагает функции следующего поколения и улучшенные возможности, включая выдающуюся скорость, встроенное использование инструментов, мультимодальную генерацию и контекстное окно на 1 миллион токенов."
|
|
1489
|
+
},
|
|
1439
1490
|
"google/gemini-2.5-flash": {
|
|
1440
|
-
"description": "Gemini 2.5 Flash —
|
|
1491
|
+
"description": "Gemini 2.5 Flash — модель для размышлений с выдающимися всесторонними возможностями. Она сбалансирована по цене и производительности, поддерживает мультимодальность и контекстное окно на 1 миллион токенов."
|
|
1441
1492
|
},
|
|
1442
1493
|
"google/gemini-2.5-flash-image-preview": {
|
|
1443
1494
|
"description": "Экспериментальная модель Gemini 2.5 Flash, поддерживающая генерацию изображений."
|
|
1444
1495
|
},
|
|
1496
|
+
"google/gemini-2.5-flash-lite": {
|
|
1497
|
+
"description": "Gemini 2.5 Flash-Lite — сбалансированная модель с низкой задержкой, с настраиваемым бюджетом размышлений и подключением инструментов (например, Google Search и выполнение кода). Поддерживает мультимодальный ввод и контекстное окно на 1 миллион токенов."
|
|
1498
|
+
},
|
|
1445
1499
|
"google/gemini-2.5-flash-preview": {
|
|
1446
1500
|
"description": "Gemini 2.5 Flash — это самая современная основная модель от Google, разработанная для сложного рассуждения, кодирования, математических и научных задач. Она включает встроенную способность \"думать\", что позволяет ей давать ответы с более высокой точностью и детализированной обработкой контекста.\n\nОбратите внимание: эта модель имеет два варианта: с \"думанием\" и без. Цены на вывод значительно различаются в зависимости от того, активирована ли способность думать. Если вы выберете стандартный вариант (без суффикса \":thinking\"), модель явно избегает генерации токенов для размышлений.\n\nЧтобы воспользоваться способностью думать и получать токены для размышлений, вы должны выбрать вариант \":thinking\", что приведет к более высокой цене на вывод размышлений.\n\nКроме того, Gemini 2.5 Flash можно настроить с помощью параметра \"максимальное количество токенов для рассуждения\", как указано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1447
1501
|
},
|
|
@@ -1449,11 +1503,14 @@
|
|
|
1449
1503
|
"description": "Gemini 2.5 Flash — это самая современная основная модель от Google, разработанная для сложного рассуждения, кодирования, математических и научных задач. Она включает встроенную способность \"думать\", что позволяет ей давать ответы с более высокой точностью и детализированной обработкой контекста.\n\nОбратите внимание: эта модель имеет два варианта: с \"думанием\" и без. Цены на вывод значительно различаются в зависимости от того, активирована ли способность думать. Если вы выберете стандартный вариант (без суффикса \":thinking\"), модель явно избегает генерации токенов для размышлений.\n\nЧтобы воспользоваться способностью думать и получать токены для размышлений, вы должны выбрать вариант \":thinking\", что приведет к более высокой цене на вывод размышлений.\n\nКроме того, Gemini 2.5 Flash можно настроить с помощью параметра \"максимальное количество токенов для рассуждения\", как указано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1450
1504
|
},
|
|
1451
1505
|
"google/gemini-2.5-pro": {
|
|
1452
|
-
"description": "Gemini 2.5 Pro —
|
|
1506
|
+
"description": "Gemini 2.5 Pro — наш самый продвинутый модель Gemini для вывода, способная решать сложные задачи. Имеет контекстное окно на 2 миллиона токенов и поддерживает мультимодальный ввод, включая текст, изображения, аудио, видео и PDF-документы."
|
|
1453
1507
|
},
|
|
1454
1508
|
"google/gemini-2.5-pro-preview": {
|
|
1455
1509
|
"description": "Gemini 2.5 Pro Preview — это самая передовая модель мышления от Google, способная рассуждать над сложными задачами в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы с использованием длинного контекста."
|
|
1456
1510
|
},
|
|
1511
|
+
"google/gemini-embedding-001": {
|
|
1512
|
+
"description": "Передовая модель встраивания с отличной производительностью в задачах на английском, многоязычных и кодовых задачах."
|
|
1513
|
+
},
|
|
1457
1514
|
"google/gemini-flash-1.5": {
|
|
1458
1515
|
"description": "Gemini 1.5 Flash предлагает оптимизированные возможности многомодальной обработки, подходящие для различных сложных задач."
|
|
1459
1516
|
},
|
|
@@ -1490,6 +1547,12 @@
|
|
|
1490
1547
|
"google/gemma-3-27b-it": {
|
|
1491
1548
|
"description": "Gemma 3 27B — это открытая языковая модель от Google, которая установила новые стандарты в области эффективности и производительности."
|
|
1492
1549
|
},
|
|
1550
|
+
"google/text-embedding-005": {
|
|
1551
|
+
"description": "Оптимизированная для кода и английского языка модель текстового встраивания с фокусом на английский."
|
|
1552
|
+
},
|
|
1553
|
+
"google/text-multilingual-embedding-002": {
|
|
1554
|
+
"description": "Многоязычная модель текстового встраивания, оптимизированная для межъязыковых задач, поддерживающая множество языков."
|
|
1555
|
+
},
|
|
1493
1556
|
"gpt-3.5-turbo": {
|
|
1494
1557
|
"description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125."
|
|
1495
1558
|
},
|
|
@@ -1781,6 +1844,9 @@
|
|
|
1781
1844
|
"imagen-4.0-ultra-generate-preview-06-06": {
|
|
1782
1845
|
"description": "Ультра-версия серии моделей Imagen 4-го поколения для преобразования текста в изображение"
|
|
1783
1846
|
},
|
|
1847
|
+
"inception/mercury-coder-small": {
|
|
1848
|
+
"description": "Mercury Coder Small — идеальный выбор для задач генерации, отладки и рефакторинга кода с минимальной задержкой."
|
|
1849
|
+
},
|
|
1784
1850
|
"inclusionAI/Ling-mini-2.0": {
|
|
1785
1851
|
"description": "Ling-mini-2.0 — это компактная высокопроизводительная большая языковая модель на базе архитектуры MoE. Она содержит 16 миллиардов параметров, при этом для каждого токена активируется всего 1,4 миллиарда (не включая эмбеддинги — 789 миллионов), что обеспечивает чрезвычайно высокую скорость генерации. Благодаря эффективному дизайну MoE и масштабным высококачественным обучающим данным, несмотря на всего 1,4 миллиарда активных параметров, Ling-mini-2.0 демонстрирует в задачах нижнего уровня производительность, сопоставимую с плотными LLM размером до 10 миллиардов параметров и более крупными MoE-моделями."
|
|
1786
1852
|
},
|
|
@@ -2057,30 +2123,63 @@
|
|
|
2057
2123
|
"meta/Meta-Llama-3.1-8B-Instruct": {
|
|
2058
2124
|
"description": "Текстовая модель Llama 3.1 с донастройкой по инструкциям, оптимизированная для многоязычных диалогов, демонстрирующая высокие результаты на популярных отраслевых бенчмарках среди доступных открытых и закрытых чат-моделей."
|
|
2059
2125
|
},
|
|
2126
|
+
"meta/llama-3-70b": {
|
|
2127
|
+
"description": "Открытая модель с 70 миллиардами параметров, тщательно настроенная Meta для следования инструкциям. Обслуживается на аппаратуре Groq с использованием их специализированных языковых процессорных блоков (LPU) для быстрой и эффективной работы."
|
|
2128
|
+
},
|
|
2129
|
+
"meta/llama-3-8b": {
|
|
2130
|
+
"description": "Открытая модель с 8 миллиардами параметров, тщательно настроенная Meta для следования инструкциям. Обслуживается на аппаратуре Groq с использованием их специализированных языковых процессорных блоков (LPU) для быстрой и эффективной работы."
|
|
2131
|
+
},
|
|
2060
2132
|
"meta/llama-3.1-405b-instruct": {
|
|
2061
2133
|
"description": "Современная LLM, поддерживающая генерацию синтетических данных, дистилляцию знаний и рассуждения, подходит для чат-ботов, программирования и специализированных задач."
|
|
2062
2134
|
},
|
|
2135
|
+
"meta/llama-3.1-70b": {
|
|
2136
|
+
"description": "Обновленная версия Meta Llama 3 70B Instruct с расширенной длиной контекста 128K, многоязычностью и улучшенными возможностями вывода."
|
|
2137
|
+
},
|
|
2063
2138
|
"meta/llama-3.1-70b-instruct": {
|
|
2064
2139
|
"description": "Обеспечивает сложные диалоги, обладая выдающимся пониманием контекста, способностями к рассуждению и генерации текста."
|
|
2065
2140
|
},
|
|
2141
|
+
"meta/llama-3.1-8b": {
|
|
2142
|
+
"description": "Llama 3.1 8B поддерживает окно контекста 128K, что делает её идеальной для интерфейсов реального времени и анализа данных, при этом обеспечивая значительную экономию по сравнению с более крупными моделями. Обслуживается на аппаратуре Groq с использованием их специализированных языковых процессорных блоков (LPU) для быстрой и эффективной работы."
|
|
2143
|
+
},
|
|
2066
2144
|
"meta/llama-3.1-8b-instruct": {
|
|
2067
2145
|
"description": "Современная передовая модель, обладающая пониманием языка, выдающимися способностями к рассуждению и генерации текста."
|
|
2068
2146
|
},
|
|
2147
|
+
"meta/llama-3.2-11b": {
|
|
2148
|
+
"description": "Модель генерации с выводом изображений, настроенная по инструкциям (текст + изображение на входе / текст на выходе), оптимизированная для визуального распознавания, вывода изображений, генерации заголовков и ответов на общие вопросы об изображениях."
|
|
2149
|
+
},
|
|
2069
2150
|
"meta/llama-3.2-11b-vision-instruct": {
|
|
2070
2151
|
"description": "Современная визуально-языковая модель, специализирующаяся на высококачественном рассуждении на основе изображений."
|
|
2071
2152
|
},
|
|
2153
|
+
"meta/llama-3.2-1b": {
|
|
2154
|
+
"description": "Только текстовая модель, поддерживающая локальные сценарии, такие как многоязычный поиск знаний, суммирование и перефразирование."
|
|
2155
|
+
},
|
|
2072
2156
|
"meta/llama-3.2-1b-instruct": {
|
|
2073
2157
|
"description": "Современная передовая компактная языковая модель, обладающая пониманием языка, выдающимися способностями к рассуждению и генерации текста."
|
|
2074
2158
|
},
|
|
2159
|
+
"meta/llama-3.2-3b": {
|
|
2160
|
+
"description": "Только текстовая модель, тщательно настроенная для поддержки локальных сценариев, таких как многоязычный поиск знаний, суммирование и перефразирование."
|
|
2161
|
+
},
|
|
2075
2162
|
"meta/llama-3.2-3b-instruct": {
|
|
2076
2163
|
"description": "Современная передовая компактная языковая модель, обладающая пониманием языка, выдающимися способностями к рассуждению и генерации текста."
|
|
2077
2164
|
},
|
|
2165
|
+
"meta/llama-3.2-90b": {
|
|
2166
|
+
"description": "Модель генерации с выводом изображений, настроенная по инструкциям (текст + изображение на входе / текст на выходе), оптимизированная для визуального распознавания, вывода изображений, генерации заголовков и ответов на общие вопросы об изображениях."
|
|
2167
|
+
},
|
|
2078
2168
|
"meta/llama-3.2-90b-vision-instruct": {
|
|
2079
2169
|
"description": "Современная визуально-языковая модель, специализирующаяся на высококачественном рассуждении на основе изображений."
|
|
2080
2170
|
},
|
|
2171
|
+
"meta/llama-3.3-70b": {
|
|
2172
|
+
"description": "Идеальное сочетание производительности и эффективности. Модель поддерживает высокопроизводительный диалоговый ИИ, разработана для создания контента, корпоративных приложений и исследований, обеспечивая передовые возможности понимания языка, включая суммирование текста, классификацию, анализ настроений и генерацию кода."
|
|
2173
|
+
},
|
|
2081
2174
|
"meta/llama-3.3-70b-instruct": {
|
|
2082
2175
|
"description": "Современная LLM, специализирующаяся на рассуждениях, математике, здравом смысле и вызовах функций."
|
|
2083
2176
|
},
|
|
2177
|
+
"meta/llama-4-maverick": {
|
|
2178
|
+
"description": "Набор моделей Llama 4 — это нативные мультимодальные ИИ-модели, поддерживающие текст и мультимодальные взаимодействия. Эти модели используют архитектуру смешанных экспертов для обеспечения лидирующей в отрасли производительности в понимании текста и изображений. Llama 4 Maverick — модель с 17 миллиардами параметров и 128 экспертами. Обслуживается DeepInfra."
|
|
2179
|
+
},
|
|
2180
|
+
"meta/llama-4-scout": {
|
|
2181
|
+
"description": "Набор моделей Llama 4 — это нативные мультимодальные ИИ-модели, поддерживающие текст и мультимодальные взаимодействия. Эти модели используют архитектуру смешанных экспертов для обеспечения лидирующей в отрасли производительности в понимании текста и изображений. Llama 4 Scout — модель с 17 миллиардами параметров и 16 экспертами. Обслуживается DeepInfra."
|
|
2182
|
+
},
|
|
2084
2183
|
"microsoft/Phi-3-medium-128k-instruct": {
|
|
2085
2184
|
"description": "Та же модель Phi-3-medium, но с увеличенным размером контекста, подходящая для RAG или небольшого количества подсказок."
|
|
2086
2185
|
},
|
|
@@ -2156,6 +2255,48 @@
|
|
|
2156
2255
|
"mistral-small-latest": {
|
|
2157
2256
|
"description": "Mistral Small — это экономически эффективный, быстрый и надежный вариант для таких случаев, как перевод, резюме и анализ настроений."
|
|
2158
2257
|
},
|
|
2258
|
+
"mistral/codestral": {
|
|
2259
|
+
"description": "Mistral Codestral 25.01 — передовая модель кодирования, оптимизированная для низкой задержки и высокочастотных сценариев. Поддерживает более 80 языков программирования, отлично справляется с задачами заполнения пропусков (FIM), исправления кода и генерации тестов."
|
|
2260
|
+
},
|
|
2261
|
+
"mistral/codestral-embed": {
|
|
2262
|
+
"description": "Модель кодовых эмбеддингов, которую можно встроить в базы данных и репозитории кода для поддержки помощников по программированию."
|
|
2263
|
+
},
|
|
2264
|
+
"mistral/devstral-small": {
|
|
2265
|
+
"description": "Devstral — агентная крупномасштабная языковая модель для задач программной инженерии, отличный выбор для агентных решений в области разработки ПО."
|
|
2266
|
+
},
|
|
2267
|
+
"mistral/magistral-medium": {
|
|
2268
|
+
"description": "Сложное мышление, поддерживаемое глубоким пониманием, с прозрачным рассуждением, которое вы можете проследить и проверить. Модель сохраняет высокую точность рассуждений на многих языках, даже при смене языка в середине задачи."
|
|
2269
|
+
},
|
|
2270
|
+
"mistral/magistral-small": {
|
|
2271
|
+
"description": "Сложное мышление, поддерживаемое глубоким пониманием, с прозрачным рассуждением, которое вы можете проследить и проверить. Модель сохраняет высокую точность рассуждений на многих языках, даже при смене языка в середине задачи."
|
|
2272
|
+
},
|
|
2273
|
+
"mistral/ministral-3b": {
|
|
2274
|
+
"description": "Компактная и эффективная модель для задач на устройствах, таких как интеллектуальные помощники и локальный анализ, обеспечивающая низкую задержку."
|
|
2275
|
+
},
|
|
2276
|
+
"mistral/ministral-8b": {
|
|
2277
|
+
"description": "Более мощная модель с более быстрой и энергоэффективной работой, идеальна для сложных рабочих процессов и требовательных приложений на периферии."
|
|
2278
|
+
},
|
|
2279
|
+
"mistral/mistral-embed": {
|
|
2280
|
+
"description": "Универсальная модель текстовых эмбеддингов для семантического поиска, определения сходства, кластеризации и рабочих процессов RAG."
|
|
2281
|
+
},
|
|
2282
|
+
"mistral/mistral-large": {
|
|
2283
|
+
"description": "Mistral Large — идеальный выбор для сложных задач, требующих большой вычислительной мощности или высокой специализации, таких как синтез текста, генерация кода, RAG или агентные задачи."
|
|
2284
|
+
},
|
|
2285
|
+
"mistral/mistral-saba-24b": {
|
|
2286
|
+
"description": "Mistral Saba 24B — открытая модель с 24 миллиардами параметров, разработанная Mistral.ai. Saba — специализированная модель, обученная для выдающихся результатов на арабском, персидском, урду, иврите и индийских языках. Обслуживается на аппаратуре Groq с использованием их специализированных языковых процессорных блоков (LPU) для быстрой и эффективной работы."
|
|
2287
|
+
},
|
|
2288
|
+
"mistral/mistral-small": {
|
|
2289
|
+
"description": "Mistral Small — идеальный выбор для простых задач, которые можно выполнять пакетно, таких как классификация, поддержка клиентов или генерация текста. Обеспечивает отличную производительность по доступной цене."
|
|
2290
|
+
},
|
|
2291
|
+
"mistral/mixtral-8x22b-instruct": {
|
|
2292
|
+
"description": "8x22b Instruct — модель с 8 экспертами по 22 миллиарда параметров, открытая модель с архитектурой смешанных экспертов, обслуживаемая Mistral."
|
|
2293
|
+
},
|
|
2294
|
+
"mistral/pixtral-12b": {
|
|
2295
|
+
"description": "Модель с 12 миллиардами параметров, обладающая способностями к пониманию изображений и текста."
|
|
2296
|
+
},
|
|
2297
|
+
"mistral/pixtral-large": {
|
|
2298
|
+
"description": "Pixtral Large — вторая модель в нашей мультимодальной семье, демонстрирующая передовые возможности понимания изображений. В частности, модель способна понимать документы, диаграммы и естественные изображения, сохраняя при этом лидирующие возможности понимания текста, присущие Mistral Large 2."
|
|
2299
|
+
},
|
|
2159
2300
|
"mistralai/Mistral-7B-Instruct-v0.1": {
|
|
2160
2301
|
"description": "Mistral (7B) Instruct известен своей высокой производительностью и подходит для множества языковых задач."
|
|
2161
2302
|
},
|
|
@@ -2222,12 +2363,21 @@
|
|
|
2222
2363
|
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2223
2364
|
"description": "Kimi K2-Instruct-0905 — это последняя и самая мощная версия Kimi K2. Это передовая языковая модель с архитектурой смешанных экспертов (MoE), обладающая общим числом параметров в 1 триллион и 32 миллиардами активных параметров. Основные характеристики модели включают: улучшенный интеллект кодирующих агентов, демонстрирующий значительный прирост производительности на открытых бенчмарках и в реальных задачах кодирования агентов; усовершенствованный опыт фронтенд-кодирования, с улучшениями как в эстетике, так и в практичности фронтенд-программирования."
|
|
2224
2365
|
},
|
|
2366
|
+
"moonshotai/kimi-k2": {
|
|
2367
|
+
"description": "Kimi K2 — крупномасштабная смешанная экспертная (MoE) языковая модель с триллионом параметров и 32 миллиардами активных параметров на проход. Оптимизирована для агентных возможностей, включая продвинутое использование инструментов, рассуждения и синтез кода."
|
|
2368
|
+
},
|
|
2225
2369
|
"moonshotai/kimi-k2-0905": {
|
|
2226
2370
|
"description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
|
|
2227
2371
|
},
|
|
2228
2372
|
"moonshotai/kimi-k2-instruct-0905": {
|
|
2229
2373
|
"description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
|
|
2230
2374
|
},
|
|
2375
|
+
"morph/morph-v3-fast": {
|
|
2376
|
+
"description": "Morph предлагает специализированную ИИ-модель, которая быстро применяет изменения к вашему существующему коду, рекомендованные передовыми моделями, такими как Claude или GPT-4o — скорость более 4500 токенов в секунду. Является завершающим этапом в рабочем процессе ИИ-кодирования. Поддерживает 16k входных и 16k выходных токенов."
|
|
2377
|
+
},
|
|
2378
|
+
"morph/morph-v3-large": {
|
|
2379
|
+
"description": "Morph предлагает специализированную ИИ-модель, которая применяет изменения к вашему существующему коду, рекомендованные передовыми моделями, такими как Claude или GPT-4o — скорость более 2500 токенов в секунду. Является завершающим этапом в рабочем процессе ИИ-кодирования. Поддерживает 16k входных и 16k выходных токенов."
|
|
2380
|
+
},
|
|
2231
2381
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
|
2232
2382
|
"description": "Hermes 2 Pro Llama 3 8B — это обновленная версия Nous Hermes 2, содержащая последние внутренние разработанные наборы данных."
|
|
2233
2383
|
},
|
|
@@ -2294,29 +2444,47 @@
|
|
|
2294
2444
|
"open-mixtral-8x7b": {
|
|
2295
2445
|
"description": "Mixtral 8x7B — это разреженная экспертная модель, использующая несколько параметров для повышения скорости вывода, подходит для обработки многоязычных и кодовых задач."
|
|
2296
2446
|
},
|
|
2447
|
+
"openai/gpt-3.5-turbo": {
|
|
2448
|
+
"description": "Самая производительная и экономичная модель серии GPT-3.5 от OpenAI, оптимизированная для чат-целей, но также хорошо работающая в традиционных задачах завершения."
|
|
2449
|
+
},
|
|
2450
|
+
"openai/gpt-3.5-turbo-instruct": {
|
|
2451
|
+
"description": "Модель с возможностями, аналогичными моделям эпохи GPT-3. Совместима с традиционными конечными точками завершения, а не с чат-завершениями."
|
|
2452
|
+
},
|
|
2453
|
+
"openai/gpt-4-turbo": {
|
|
2454
|
+
"description": "gpt-4-turbo от OpenAI обладает обширными универсальными знаниями и экспертными областями, позволяя следовать сложным инструкциям на естественном языке и точно решать сложные задачи. Дата отсечения знаний — апрель 2023 года, окно контекста — 128 000 токенов."
|
|
2455
|
+
},
|
|
2297
2456
|
"openai/gpt-4.1": {
|
|
2298
|
-
"description": "GPT
|
|
2457
|
+
"description": "GPT 4.1 — флагманская модель OpenAI для сложных задач. Отлично подходит для междисциплинарного решения проблем."
|
|
2299
2458
|
},
|
|
2300
2459
|
"openai/gpt-4.1-mini": {
|
|
2301
|
-
"description": "GPT
|
|
2460
|
+
"description": "GPT 4.1 mini сбалансирована по интеллекту, скорости и стоимости, что делает её привлекательной моделью для многих сценариев."
|
|
2302
2461
|
},
|
|
2303
2462
|
"openai/gpt-4.1-nano": {
|
|
2304
|
-
"description": "GPT-4.1 nano —
|
|
2463
|
+
"description": "GPT-4.1 nano — самая быстрая и экономичная модель GPT 4.1."
|
|
2305
2464
|
},
|
|
2306
2465
|
"openai/gpt-4o": {
|
|
2307
|
-
"description": "
|
|
2466
|
+
"description": "GPT-4o от OpenAI обладает обширными универсальными знаниями и экспертными областями, способен следовать сложным инструкциям на естественном языке и точно решать сложные задачи. Обеспечивает производительность, сопоставимую с GPT-4 Turbo, при более высокой скорости и меньшей стоимости API."
|
|
2308
2467
|
},
|
|
2309
2468
|
"openai/gpt-4o-mini": {
|
|
2310
|
-
"description": "GPT-4o mini
|
|
2469
|
+
"description": "GPT-4o mini от OpenAI — их самая передовая и экономичная компактная модель. Мультимодальная (принимает текст или изображения на вход и выдает текст), умнее, чем gpt-3.5-turbo, при такой же скорости."
|
|
2470
|
+
},
|
|
2471
|
+
"openai/gpt-5": {
|
|
2472
|
+
"description": "GPT-5 — флагманская языковая модель OpenAI, демонстрирующая выдающиеся способности в сложных рассуждениях, обширных знаниях о реальном мире, задачах с интенсивным кодированием и многошаговых агентных задачах."
|
|
2473
|
+
},
|
|
2474
|
+
"openai/gpt-5-mini": {
|
|
2475
|
+
"description": "GPT-5 mini — оптимизированная по стоимости модель с отличной производительностью в задачах рассуждений и диалогов. Обеспечивает лучший баланс скорости, стоимости и возможностей."
|
|
2476
|
+
},
|
|
2477
|
+
"openai/gpt-5-nano": {
|
|
2478
|
+
"description": "GPT-5 nano — высокопроизводительная модель, отлично справляющаяся с простыми инструкциями и задачами классификации."
|
|
2311
2479
|
},
|
|
2312
2480
|
"openai/gpt-oss-120b": {
|
|
2313
|
-
"description": "
|
|
2481
|
+
"description": "Чрезвычайно мощная универсальная крупномасштабная языковая модель с сильными и управляемыми возможностями рассуждения."
|
|
2314
2482
|
},
|
|
2315
2483
|
"openai/gpt-oss-20b": {
|
|
2316
|
-
"description": "
|
|
2484
|
+
"description": "Компактная модель с открытыми весами, оптимизированная для низкой задержки и ресурсов ограниченных сред, включая локальное и периферийное развертывание."
|
|
2317
2485
|
},
|
|
2318
2486
|
"openai/o1": {
|
|
2319
|
-
"description": "o1
|
|
2487
|
+
"description": "o1 от OpenAI — флагманская модель вывода, разработанная для сложных задач, требующих глубокого анализа. Обеспечивает мощные возможности рассуждения и повышенную точность для многошаговых задач."
|
|
2320
2488
|
},
|
|
2321
2489
|
"openai/o1-mini": {
|
|
2322
2490
|
"description": "o1-mini — это быстрое и экономичное модель вывода, разработанная для программирования, математики и научных приложений. Модель имеет контекст 128K и срок знания до октября 2023 года."
|
|
@@ -2325,23 +2493,44 @@
|
|
|
2325
2493
|
"description": "o1 — это новая модель вывода от OpenAI, подходящая для сложных задач, требующих обширных общих знаний. Модель имеет контекст 128K и срок знания до октября 2023 года."
|
|
2326
2494
|
},
|
|
2327
2495
|
"openai/o3": {
|
|
2328
|
-
"description": "o3 —
|
|
2496
|
+
"description": "o3 от OpenAI — самая мощная модель вывода, устанавливающая новые стандарты в кодировании, математике, науке и визуальном восприятии. Отлично справляется со сложными запросами, требующими многогранного анализа, особенно в обработке изображений, диаграмм и графиков."
|
|
2329
2497
|
},
|
|
2330
2498
|
"openai/o3-mini": {
|
|
2331
|
-
"description": "o3-mini
|
|
2499
|
+
"description": "o3-mini — последняя компактная модель вывода OpenAI, обеспечивающая высокий интеллект при тех же затратах и задержках, что и o1-mini."
|
|
2332
2500
|
},
|
|
2333
2501
|
"openai/o3-mini-high": {
|
|
2334
2502
|
"description": "o3-mini high — версия с высоким уровнем вывода, которая обеспечивает высокий интеллект при тех же целях по стоимости и задержке, что и o1-mini."
|
|
2335
2503
|
},
|
|
2336
2504
|
"openai/o4-mini": {
|
|
2337
|
-
"description": "o4-mini
|
|
2505
|
+
"description": "o4-mini от OpenAI обеспечивает быстрый и экономичный вывод с выдающейся производительностью для своего размера, особенно в математике (лучшие результаты в тесте AIME), кодировании и визуальных задачах."
|
|
2338
2506
|
},
|
|
2339
2507
|
"openai/o4-mini-high": {
|
|
2340
2508
|
"description": "o4-mini версия с высоким уровнем вывода, оптимизированная для быстрого и эффективного вывода, демонстрирующая высокую эффективность и производительность в задачах кодирования и визуализации."
|
|
2341
2509
|
},
|
|
2510
|
+
"openai/text-embedding-3-large": {
|
|
2511
|
+
"description": "Самая производительная модель встраивания OpenAI для задач на английском и других языках."
|
|
2512
|
+
},
|
|
2513
|
+
"openai/text-embedding-3-small": {
|
|
2514
|
+
"description": "Улучшенная и более производительная версия модели встраивания ada от OpenAI."
|
|
2515
|
+
},
|
|
2516
|
+
"openai/text-embedding-ada-002": {
|
|
2517
|
+
"description": "Традиционная модель текстового встраивания OpenAI."
|
|
2518
|
+
},
|
|
2342
2519
|
"openrouter/auto": {
|
|
2343
2520
|
"description": "В зависимости от длины контекста, темы и сложности ваш запрос будет отправлен в Llama 3 70B Instruct, Claude 3.5 Sonnet (саморегулирующийся) или GPT-4o."
|
|
2344
2521
|
},
|
|
2522
|
+
"perplexity/sonar": {
|
|
2523
|
+
"description": "Легковесный продукт Perplexity с возможностью поиска, быстрее и дешевле, чем Sonar Pro."
|
|
2524
|
+
},
|
|
2525
|
+
"perplexity/sonar-pro": {
|
|
2526
|
+
"description": "Флагманский продукт Perplexity с возможностью поиска, поддерживающий расширенные запросы и последующие действия."
|
|
2527
|
+
},
|
|
2528
|
+
"perplexity/sonar-reasoning": {
|
|
2529
|
+
"description": "Модель, ориентированная на рассуждения, выводящая цепочки мыслей (CoT) в ответах и предоставляющая подробные объяснения с поисковой поддержкой."
|
|
2530
|
+
},
|
|
2531
|
+
"perplexity/sonar-reasoning-pro": {
|
|
2532
|
+
"description": "Продвинутая модель, ориентированная на рассуждения, выводящая цепочки мыслей (CoT) в ответах, с улучшенными возможностями поиска и несколькими поисковыми запросами на каждый запрос для комплексных объяснений."
|
|
2533
|
+
},
|
|
2345
2534
|
"phi3": {
|
|
2346
2535
|
"description": "Phi-3 — это легковесная открытая модель, выпущенная Microsoft, подходящая для эффективной интеграции и масштабного вывода знаний."
|
|
2347
2536
|
},
|
|
@@ -2804,6 +2993,12 @@
|
|
|
2804
2993
|
"v0-1.5-md": {
|
|
2805
2994
|
"description": "Модель v0-1.5-md подходит для повседневных задач и генерации пользовательского интерфейса (UI)"
|
|
2806
2995
|
},
|
|
2996
|
+
"vercel/v0-1.0-md": {
|
|
2997
|
+
"description": "Доступ к модели v0 для генерации, исправления и оптимизации современных веб-приложений с рассуждениями, специфичными для фреймворков, и актуальными знаниями."
|
|
2998
|
+
},
|
|
2999
|
+
"vercel/v0-1.5-md": {
|
|
3000
|
+
"description": "Доступ к модели v0 для генерации, исправления и оптимизации современных веб-приложений с рассуждениями, специфичными для фреймворков, и актуальными знаниями."
|
|
3001
|
+
},
|
|
2807
3002
|
"wan2.2-t2i-flash": {
|
|
2808
3003
|
"description": "Экспресс-версия Wanxiang 2.2 — самая новая модель на данный момент. Полное обновление в креативности, стабильности и реалистичности, высокая скорость генерации и отличное соотношение цена-качество."
|
|
2809
3004
|
},
|
|
@@ -2834,6 +3029,27 @@
|
|
|
2834
3029
|
"x1": {
|
|
2835
3030
|
"description": "Модель Spark X1 будет дополнительно обновлена, и на основе уже существующих лидерских позиций в математических задачах, достигнет сопоставимых результатов в общих задачах, таких как рассуждение, генерация текста и понимание языка, с OpenAI o1 и DeepSeek R1."
|
|
2836
3031
|
},
|
|
3032
|
+
"xai/grok-2": {
|
|
3033
|
+
"description": "Grok 2 — передовая языковая модель с выдающимися возможностями рассуждения. Обладает продвинутыми навыками в чатах, кодировании и рассуждениях, превосходя Claude 3.5 Sonnet и GPT-4-Turbo в рейтинге LMSYS."
|
|
3034
|
+
},
|
|
3035
|
+
"xai/grok-2-vision": {
|
|
3036
|
+
"description": "Визуальная модель Grok 2 демонстрирует выдающиеся результаты в задачах, основанных на визуальной информации, обеспечивая передовые показатели в визуальной математике (MathVista) и вопросах по документам (DocVQA). Способна обрабатывать разнообразную визуальную информацию, включая документы, диаграммы, графики, скриншоты и фотографии."
|
|
3037
|
+
},
|
|
3038
|
+
"xai/grok-3": {
|
|
3039
|
+
"description": "Флагманская модель xAI, отлично подходящая для корпоративных сценариев, таких как извлечение данных, кодирование и суммирование текста. Обладает глубокими знаниями в финансах, здравоохранении, юриспруденции и науке."
|
|
3040
|
+
},
|
|
3041
|
+
"xai/grok-3-fast": {
|
|
3042
|
+
"description": "Флагманская модель xAI для корпоративных задач, таких как извлечение данных, кодирование и суммирование текста. Быстрая версия модели работает на более производительной инфраструктуре, обеспечивая значительно более быстрое время отклика. Увеличение скорости достигается за счет более высокой стоимости на каждый выходной токен."
|
|
3043
|
+
},
|
|
3044
|
+
"xai/grok-3-mini": {
|
|
3045
|
+
"description": "Легковесная модель xAI, размышляющая перед ответом. Отлично подходит для простых или логических задач без необходимости глубоких знаний в предметной области. Исходные цепочки мыслей доступны."
|
|
3046
|
+
},
|
|
3047
|
+
"xai/grok-3-mini-fast": {
|
|
3048
|
+
"description": "Легковесная модель xAI, размышляющая перед ответом. Отлично подходит для простых или логических задач без необходимости глубоких знаний в предметной области. Исходные цепочки мыслей доступны. Быстрая версия модели работает на более производительной инфраструктуре, обеспечивая значительно более быстрое время отклика. Увеличение скорости достигается за счет более высокой стоимости на каждый выходной токен."
|
|
3049
|
+
},
|
|
3050
|
+
"xai/grok-4": {
|
|
3051
|
+
"description": "Новейшая и лучшая флагманская модель xAI, обеспечивающая непревзойденную производительность в естественном языке, математике и рассуждениях — идеальный универсал."
|
|
3052
|
+
},
|
|
2837
3053
|
"yi-1.5-34b-chat": {
|
|
2838
3054
|
"description": "Yi-1.5 — это обновленная версия Yi. Она использует 500B токенов высококачественного корпуса данных для продолжения предварительной тренировки на основе Yi и微调在3M个多样化的微调样本上。"
|
|
2839
3055
|
},
|
|
@@ -2881,5 +3097,14 @@
|
|
|
2881
3097
|
},
|
|
2882
3098
|
"zai-org/GLM-4.5V": {
|
|
2883
3099
|
"description": "GLM-4.5V — это новое поколение визуально-языковой модели (VLM), выпущенной Zhipu AI (智谱 AI). Модель построена на флагманской текстовой модели GLM-4.5-Air с общим числом параметров 106B и 12B активных параметров, использует архитектуру смешанных экспертов (MoE) и призвана обеспечивать выдающуюся производительность при более низкой стоимости вывода. Технически GLM-4.5V продолжает линию GLM-4.1V-Thinking и вводит такие новшества, как трёхмерная вращательная позиционная кодировка (3D-RoPE), значительно усиливающие восприятие и выводы о трёхмерных пространственных отношениях. Благодаря оптимизациям на этапах предобучения, контролируемой донастройки и обучения с подкреплением модель способна обрабатывать различные визуальные данные — изображения, видео и длинные документы — и в 41 открытом мультимодальном бенчмарке достигла уровня лучших в своём классе открытых моделей. Кроме того, в модели добавлен переключатель «режим размышления», позволяющий пользователю гибко выбирать между быстрой отдачей и глубокой аналитикой, балансируя эффективность и качество."
|
|
3100
|
+
},
|
|
3101
|
+
"zai/glm-4.5": {
|
|
3102
|
+
"description": "Серия моделей GLM-4.5 — базовые модели, специально разработанные для агентов. Флагман GLM-4.5 включает 355 миллиардов параметров (32 миллиарда активных), объединяя возможности вывода, кодирования и агентирования для решения сложных прикладных задач. Как гибридная система вывода, она предлагает двойной режим работы."
|
|
3103
|
+
},
|
|
3104
|
+
"zai/glm-4.5-air": {
|
|
3105
|
+
"description": "GLM-4.5 и GLM-4.5-Air — наши новейшие флагманские модели, специально разработанные как базовые модели для агентных приложений. Обе используют архитектуру смешанных экспертов (MoE). GLM-4.5 имеет 355 миллиардов параметров с 32 миллиардами активных на проход, а GLM-4.5-Air — более упрощённую конструкцию с 106 миллиардами параметров и 12 миллиардами активных."
|
|
3106
|
+
},
|
|
3107
|
+
"zai/glm-4.5v": {
|
|
3108
|
+
"description": "GLM-4.5V построена на базе GLM-4.5-Air, наследуя проверенные технологии GLM-4.1V-Thinking и обеспечивая эффективное масштабирование благодаря мощной архитектуре MoE с 106 миллиардами параметров."
|
|
2884
3109
|
}
|
|
2885
3110
|
}
|
|
@@ -161,6 +161,9 @@
|
|
|
161
161
|
"v0": {
|
|
162
162
|
"description": "v0 — это помощник для парного программирования, который позволяет вам описывать идеи на естественном языке, а он генерирует код и пользовательский интерфейс (UI) для вашего проекта"
|
|
163
163
|
},
|
|
164
|
+
"vercelaigateway": {
|
|
165
|
+
"description": "Vercel AI Gateway предоставляет единый API для доступа к более чем 100 моделям, позволяя использовать модели от OpenAI, Anthropic, Google и других поставщиков через одну конечную точку. Поддерживает настройку бюджета, мониторинг использования, балансировку нагрузки запросов и отказоустойчивость."
|
|
166
|
+
},
|
|
164
167
|
"vertexai": {
|
|
165
168
|
"description": "Серия Gemini от Google — это самые современные и универсальные AI-модели, разработанные Google DeepMind, специально созданные для мультимодальности, поддерживающие бесшовное понимание и обработку текста, кода, изображений, аудио и видео. Подходят для различных сред, от дата-центров до мобильных устройств, значительно повышая эффективность и универсальность применения AI-моделей."
|
|
166
169
|
},
|