@lobehub/chat 1.84.22 → 1.84.24
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/docker-compose/local/docker-compose.yml +2 -2
- package/docs/self-hosting/server-database/dokploy.mdx +2 -2
- package/docs/self-hosting/server-database/dokploy.zh-CN.mdx +98 -98
- package/locales/ar/hotkey.json +4 -0
- package/locales/ar/models.json +55 -13
- package/locales/ar/providers.json +0 -3
- package/locales/bg-BG/hotkey.json +4 -0
- package/locales/bg-BG/models.json +55 -13
- package/locales/bg-BG/providers.json +0 -3
- package/locales/de-DE/hotkey.json +4 -0
- package/locales/de-DE/models.json +55 -13
- package/locales/de-DE/providers.json +0 -3
- package/locales/en-US/hotkey.json +4 -0
- package/locales/en-US/models.json +55 -13
- package/locales/en-US/providers.json +0 -3
- package/locales/es-ES/hotkey.json +4 -0
- package/locales/es-ES/models.json +55 -13
- package/locales/es-ES/providers.json +0 -3
- package/locales/fa-IR/hotkey.json +4 -0
- package/locales/fa-IR/models.json +55 -13
- package/locales/fa-IR/providers.json +0 -3
- package/locales/fr-FR/hotkey.json +4 -0
- package/locales/fr-FR/models.json +55 -13
- package/locales/fr-FR/providers.json +0 -3
- package/locales/it-IT/hotkey.json +4 -0
- package/locales/it-IT/models.json +55 -13
- package/locales/it-IT/providers.json +0 -3
- package/locales/ja-JP/hotkey.json +4 -0
- package/locales/ja-JP/models.json +55 -13
- package/locales/ja-JP/providers.json +0 -3
- package/locales/ko-KR/hotkey.json +4 -0
- package/locales/ko-KR/models.json +55 -13
- package/locales/ko-KR/providers.json +0 -3
- package/locales/nl-NL/hotkey.json +4 -0
- package/locales/nl-NL/models.json +55 -13
- package/locales/nl-NL/providers.json +0 -3
- package/locales/pl-PL/hotkey.json +4 -0
- package/locales/pl-PL/models.json +55 -13
- package/locales/pl-PL/providers.json +0 -3
- package/locales/pt-BR/hotkey.json +4 -0
- package/locales/pt-BR/models.json +55 -13
- package/locales/pt-BR/providers.json +0 -3
- package/locales/ru-RU/hotkey.json +4 -0
- package/locales/ru-RU/models.json +55 -13
- package/locales/ru-RU/providers.json +0 -3
- package/locales/tr-TR/hotkey.json +4 -0
- package/locales/tr-TR/models.json +55 -13
- package/locales/tr-TR/providers.json +0 -3
- package/locales/vi-VN/hotkey.json +4 -0
- package/locales/vi-VN/models.json +55 -13
- package/locales/vi-VN/providers.json +0 -3
- package/locales/zh-CN/hotkey.json +4 -0
- package/locales/zh-CN/models.json +55 -13
- package/locales/zh-CN/providers.json +0 -3
- package/locales/zh-TW/hotkey.json +4 -0
- package/locales/zh-TW/models.json +55 -13
- package/locales/zh-TW/providers.json +0 -3
- package/package.json +1 -1
- package/src/config/aiModels/google.ts +37 -13
- package/src/config/aiModels/mistral.ts +22 -47
- package/src/config/aiModels/vertexai.ts +47 -74
- package/src/config/modelProviders/vertexai.ts +1 -1
- package/src/const/hotkeys.ts +7 -0
- package/src/const/url.ts +1 -1
- package/src/features/HotkeyHelperPanel/index.tsx +21 -17
- package/src/features/User/UserPanel/useMenu.tsx +2 -1
- package/src/locales/default/hotkey.ts +4 -0
- package/src/services/__tests__/_url.test.ts +23 -0
- package/src/types/hotkey.ts +1 -0
@@ -71,6 +71,9 @@
|
|
71
71
|
"DeepSeek-V3": {
|
72
72
|
"description": "DeepSeek-V3 — это модель MoE, разработанная компанией DeepSeek. Результаты DeepSeek-V3 в нескольких оценках превосходят другие открытые модели, такие как Qwen2.5-72B и Llama-3.1-405B, и по производительности не уступают мировым ведущим закрытым моделям GPT-4o и Claude-3.5-Sonnet."
|
73
73
|
},
|
74
|
+
"Doubao-1.5-thinking-pro-m": {
|
75
|
+
"description": "Doubao-1.5 — это новая модель глубокого размышления (версия m с встроенной многомодальной способностью глубокого рассуждения), которая демонстрирует выдающиеся результаты в профессиональных областях, таких как математика, программирование, научное рассуждение, а также в общих задачах, таких как креативное письмо, достигая или приближаясь к уровню первой группы в нескольких авторитетных бенчмарках, таких как AIME 2024, Codeforces, GPQA. Поддерживает контекстное окно 128k и вывод 16k."
|
76
|
+
},
|
74
77
|
"Doubao-1.5-vision-pro": {
|
75
78
|
"description": "Doubao-1.5-vision-pro — это новая усовершенствованная мультимодальная модель, поддерживающая распознавание изображений с любым разрешением и экстремальным соотношением сторон, улучшая способности к визуальному выводу, распознаванию документов, пониманию детальной информации и соблюдению инструкций."
|
76
79
|
},
|
@@ -293,6 +296,21 @@
|
|
293
296
|
"Qwen/Qwen2.5-VL-72B-Instruct": {
|
294
297
|
"description": "Qwen2.5-VL — это визуально-языковая модель из серии Qwen2.5. Модель демонстрирует значительные улучшения в различных аспектах: обладает более сильными способностями к визуальному пониманию, может распознавать обычные объекты, анализировать текст, диаграммы и макеты; как визуальный агент способна рассуждать и динамически направлять использование инструментов; поддерживает понимание длинных видео продолжительностью более 1 часа с возможностью выделения ключевых событий; может точно локализовать объекты на изображении, генерируя ограничивающие рамки или точки; поддерживает генерацию структурированного вывода, что особенно полезно для сканированных данных, таких как счета-фактуры и таблицы."
|
295
298
|
},
|
299
|
+
"Qwen/Qwen3-14B": {
|
300
|
+
"description": "Qwen3 — это новая генерация модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли по нескольким ключевым направлениям, включая рассуждение, общие задачи, агентские функции и многоязычность, а также поддерживающей переключение режимов размышления."
|
301
|
+
},
|
302
|
+
"Qwen/Qwen3-235B-A22B": {
|
303
|
+
"description": "Qwen3 — это новая генерация модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли по нескольким ключевым направлениям, включая рассуждение, общие задачи, агентские функции и многоязычность, а также поддерживающей переключение режимов размышления."
|
304
|
+
},
|
305
|
+
"Qwen/Qwen3-30B-A3B": {
|
306
|
+
"description": "Qwen3 — это новая генерация модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли по нескольким ключевым направлениям, включая рассуждение, общие задачи, агентские функции и многоязычность, а также поддерживающей переключение режимов размышления."
|
307
|
+
},
|
308
|
+
"Qwen/Qwen3-32B": {
|
309
|
+
"description": "Qwen3 — это новая генерация модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли по нескольким ключевым направлениям, включая рассуждение, общие задачи, агентские функции и многоязычность, а также поддерживающей переключение режимов размышления."
|
310
|
+
},
|
311
|
+
"Qwen/Qwen3-8B": {
|
312
|
+
"description": "Qwen3 — это новая генерация модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли по нескольким ключевым направлениям, включая рассуждение, общие задачи, агентские функции и многоязычность, а также поддерживающей переключение режимов размышления."
|
313
|
+
},
|
296
314
|
"Qwen2-72B-Instruct": {
|
297
315
|
"description": "Qwen2 — это последняя серия моделей Qwen, поддерживающая контекст до 128k. По сравнению с текущими лучшими открытыми моделями, Qwen2-72B значительно превосходит ведущие модели по многим аспектам, включая понимание естественного языка, знания, код, математику и многоязычность."
|
298
316
|
},
|
@@ -398,9 +416,6 @@
|
|
398
416
|
"THUDM/glm-4-9b-chat": {
|
399
417
|
"description": "GLM-4 9B — это открытая версия, обеспечивающая оптимизированный диалоговый опыт для приложений."
|
400
418
|
},
|
401
|
-
"TeleAI/TeleChat2": {
|
402
|
-
"description": "Модель TeleChat2 была разработана China Telecom с нуля и представляет собой генеративную семантическую модель, поддерживающую функции вопросов и ответов, генерации кода, генерации длинных текстов и т.д., предоставляя пользователям услуги консультаций в диалоговом формате, способную взаимодействовать с пользователями, отвечать на вопросы, помогать в творчестве и эффективно помогать пользователям получать информацию, знания и вдохновение. Модель показывает отличные результаты в решении проблем с галлюцинациями, генерацией длинных текстов и логическим пониманием."
|
403
|
-
},
|
404
419
|
"Vendor-A/Qwen/Qwen2.5-72B-Instruct": {
|
405
420
|
"description": "Qwen2.5-72B-Instruct — это одна из последних языковых моделей, выпущенных Alibaba Cloud. Эта 72B модель значительно улучшила способности в области кодирования и математики. Модель также поддерживает множество языков, охватывающих более 29 языков, включая китайский и английский. Она значительно улучшила выполнение инструкций, понимание структурированных данных и генерацию структурированных выходных данных (особенно JSON)."
|
406
421
|
},
|
@@ -800,6 +815,12 @@
|
|
800
815
|
"deepseek/deepseek-chat": {
|
801
816
|
"description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше соответствует человеческим предпочтениям. Кроме того, DeepSeek-V2.5 значительно улучшила свои результаты в задачах написания, следования инструкциям и других областях."
|
802
817
|
},
|
818
|
+
"deepseek/deepseek-chat-v3-0324": {
|
819
|
+
"description": "DeepSeek V3 — это экспертная смешанная модель с 685B параметрами, являющаяся последней итерацией флагманской серии чат-моделей команды DeepSeek.\n\nОна унаследовала модель [DeepSeek V3](/deepseek/deepseek-chat-v3) и демонстрирует отличные результаты в различных задачах."
|
820
|
+
},
|
821
|
+
"deepseek/deepseek-chat-v3-0324:free": {
|
822
|
+
"description": "DeepSeek V3 — это экспертная смешанная модель с 685B параметрами, являющаяся последней итерацией флагманской серии чат-моделей команды DeepSeek.\n\nОна унаследовала модель [DeepSeek V3](/deepseek/deepseek-chat-v3) и демонстрирует отличные результаты в различных задачах."
|
823
|
+
},
|
803
824
|
"deepseek/deepseek-r1": {
|
804
825
|
"description": "DeepSeek-R1 значительно улучшила способности модели к рассуждению при наличии лишь очень ограниченных размеченных данных. Перед тем как предоставить окончательный ответ, модель сначала выводит цепочку размышлений, чтобы повысить точность окончательного ответа."
|
805
826
|
},
|
@@ -851,9 +872,6 @@
|
|
851
872
|
"doubao-1.5-thinking-pro": {
|
852
873
|
"description": "Doubao-1.5 — это новая модель глубокого мышления, которая демонстрирует выдающиеся результаты в таких профессиональных областях, как математика, программирование, научное мышление, а также в универсальных задачах креативного письма. Она достигает или приближается к уровню первой группы в отрасли на нескольких авторитетных бенчмарках, таких как AIME 2024, Codeforces, GPQA. Поддерживает контекстное окно 128k и вывод 16k."
|
853
874
|
},
|
854
|
-
"doubao-1.5-thinking-pro-vision": {
|
855
|
-
"description": "Doubao-1.5 — это новая модель глубокого мышления, которая демонстрирует выдающиеся результаты в таких профессиональных областях, как математика, программирование, научное мышление, а также в универсальных задачах креативного письма. Она достигает или приближается к уровню первой группы в отрасли на нескольких авторитетных бенчмарках, таких как AIME 2024, Codeforces, GPQA. Поддерживает контекстное окно 128k и вывод 16k."
|
856
|
-
},
|
857
875
|
"doubao-1.5-vision-lite": {
|
858
876
|
"description": "Doubao-1.5-vision-lite — это новая усовершенствованная мультимодальная модель, поддерживающая распознавание изображений с любым разрешением и экстремальным соотношением сторон, улучшая способности к визуальному выводу, распознаванию документов, пониманию детальной информации и соблюдению инструкций. Поддерживает контекстное окно 128k, максимальная длина вывода составляет 16k токенов."
|
859
877
|
},
|
@@ -995,9 +1013,6 @@
|
|
995
1013
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
996
1014
|
"description": "Gemini 2.0 Flash Exp — это последняя экспериментальная многомодальная AI модель от Google, обладающая следующими поколениями характеристик, выдающейся скоростью, нативным вызовом инструментов и многомодальной генерацией."
|
997
1015
|
},
|
998
|
-
"gemini-2.0-pro-exp-02-05": {
|
999
|
-
"description": "Gemini 2.0 Pro Experimental — это последняя экспериментальная многомодальная AI модель от Google, которая демонстрирует определенное улучшение качества по сравнению с предыдущими версиями, особенно в области мировых знаний, кода и длинного контекста."
|
1000
|
-
},
|
1001
1016
|
"gemini-2.5-flash-preview-04-17": {
|
1002
1017
|
"description": "Gemini 2.5 Flash Preview — это наиболее выгодная модель от Google, предлагающая широкий спектр возможностей."
|
1003
1018
|
},
|
@@ -1007,6 +1022,9 @@
|
|
1007
1022
|
"gemini-2.5-pro-preview-03-25": {
|
1008
1023
|
"description": "Gemini 2.5 Pro Preview — это самая современная модель мышления от Google, способная рассуждать о сложных задачах в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы с использованием длинного контекста."
|
1009
1024
|
},
|
1025
|
+
"gemini-2.5-pro-preview-05-06": {
|
1026
|
+
"description": "Gemini 2.5 Pro Preview — это самая современная модель мышления от Google, способная рассуждать о сложных задачах в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы с помощью длинного контекста."
|
1027
|
+
},
|
1010
1028
|
"gemma-7b-it": {
|
1011
1029
|
"description": "Gemma 7B подходит для обработки задач среднего и малого масштаба, обеспечивая экономическую эффективность."
|
1012
1030
|
},
|
@@ -1091,8 +1109,17 @@
|
|
1091
1109
|
"google/gemini-2.0-flash-001": {
|
1092
1110
|
"description": "Gemini 2.0 Flash предлагает функции следующего поколения и улучшения, включая выдающуюся скорость, использование встроенных инструментов, многомодальную генерацию и контекстное окно на 1M токенов."
|
1093
1111
|
},
|
1094
|
-
"google/gemini-2.0-
|
1095
|
-
"description": "Gemini 2.0
|
1112
|
+
"google/gemini-2.0-flash-exp:free": {
|
1113
|
+
"description": "Gemini 2.0 Flash Experimental — это последняя экспериментальная мультимодальная AI модель от Google, которая демонстрирует определенное улучшение качества по сравнению с историческими версиями, особенно в области мировых знаний, кода и длинного контекста."
|
1114
|
+
},
|
1115
|
+
"google/gemini-2.5-flash-preview": {
|
1116
|
+
"description": "Gemini 2.5 Flash — это самая современная основная модель от Google, разработанная для сложного рассуждения, кодирования, математических и научных задач. Она включает встроенную способность \"думать\", что позволяет ей давать ответы с более высокой точностью и детализированной обработкой контекста.\n\nОбратите внимание: эта модель имеет два варианта: с \"думанием\" и без. Цены на вывод значительно различаются в зависимости от того, активирована ли способность думать. Если вы выберете стандартный вариант (без суффикса \":thinking\"), модель явно избегает генерации токенов для размышлений.\n\nЧтобы воспользоваться способностью думать и получать токены для размышлений, вы должны выбрать вариант \":thinking\", что приведет к более высокой цене на вывод размышлений.\n\nКроме того, Gemini 2.5 Flash можно настроить с помощью параметра \"максимальное количество токенов для рассуждения\", как указано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1117
|
+
},
|
1118
|
+
"google/gemini-2.5-flash-preview:thinking": {
|
1119
|
+
"description": "Gemini 2.5 Flash — это самая современная основная модель от Google, разработанная для сложного рассуждения, кодирования, математических и научных задач. Она включает встроенную способность \"думать\", что позволяет ей давать ответы с более высокой точностью и детализированной обработкой контекста.\n\nОбратите внимание: эта модель имеет два варианта: с \"думанием\" и без. Цены на вывод значительно различаются в зависимости от того, активирована ли способность думать. Если вы выберете стандартный вариант (без суффикса \":thinking\"), модель явно избегает генерации токенов для размышлений.\n\nЧтобы воспользоваться способностью думать и получать токены для размышлений, вы должны выбрать вариант \":thinking\", что приведет к более высокой цене на вывод размышлений.\n\nКроме того, Gemini 2.5 Flash можно настроить с помощью параметра \"максимальное количество токенов для рассуждения\", как указано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1120
|
+
},
|
1121
|
+
"google/gemini-2.5-pro-preview-03-25": {
|
1122
|
+
"description": "Gemini 2.5 Pro — это самая современная AI модель от Google, разработанная для сложного рассуждения, кодирования, математических и научных задач. Она обладает способностью \"думать\", что позволяет ей давать более точные и детализированные ответы. Gemini 2.5 Pro показала выдающиеся результаты в нескольких бенчмарках, включая первое место в рейтинге LMArena, что отражает превосходное соответствие человеческим предпочтениям и способность решать сложные задачи."
|
1096
1123
|
},
|
1097
1124
|
"google/gemini-flash-1.5": {
|
1098
1125
|
"description": "Gemini 1.5 Flash предлагает оптимизированные возможности многомодальной обработки, подходящие для различных сложных задач."
|
@@ -1592,6 +1619,9 @@
|
|
1592
1619
|
"mistral-large-latest": {
|
1593
1620
|
"description": "Mistral Large — это флагманская большая модель, хорошо подходящая для многоязычных задач, сложного вывода и генерации кода, идеальный выбор для высококлассных приложений."
|
1594
1621
|
},
|
1622
|
+
"mistral-medium-latest": {
|
1623
|
+
"description": "Mistral Medium 3 предлагает передовые характеристики с восьмикратными затратами и значительно упрощает развертывание в корпоративной среде."
|
1624
|
+
},
|
1595
1625
|
"mistral-nemo": {
|
1596
1626
|
"description": "Mistral Nemo, разработанный в сотрудничестве между Mistral AI и NVIDIA, является высокоэффективной 12B моделью."
|
1597
1627
|
},
|
@@ -1763,8 +1793,8 @@
|
|
1763
1793
|
"qvq-72b-preview": {
|
1764
1794
|
"description": "Модель QVQ, разработанная командой Qwen, является экспериментальной исследовательской моделью, сосредоточенной на повышении визуальных способностей рассуждения, особенно в области математического рассуждения."
|
1765
1795
|
},
|
1766
|
-
"qvq-max": {
|
1767
|
-
"description": "Модель визуального
|
1796
|
+
"qvq-max-latest": {
|
1797
|
+
"description": "Модель визуального рассуждения QVQ, поддерживающая визуальный ввод и вывод цепочки размышлений, демонстрирует более высокие способности в математике, программировании, визуальном анализе, творчестве и общих задачах."
|
1768
1798
|
},
|
1769
1799
|
"qwen-coder-plus-latest": {
|
1770
1800
|
"description": "Модель кода Tongyi Qianwen."
|
@@ -2075,12 +2105,24 @@
|
|
2075
2105
|
"text-embedding-3-small": {
|
2076
2106
|
"description": "Эффективная и экономичная новая генерация модели Embedding, подходящая для поиска знаний, приложений RAG и других сценариев."
|
2077
2107
|
},
|
2108
|
+
"thudm/glm-4-32b": {
|
2109
|
+
"description": "GLM-4-32B-0414 — это двуязычная (китайский и английский) языковая модель с открытыми весами на 32B, оптимизированная для генерации кода, вызовов функций и агентских задач. Она была предварительно обучена на 15T высококачественных данных и данных повторного рассуждения, а также дополнительно улучшена с помощью согласования человеческих предпочтений, отказного отбора и обучения с подкреплением. Эта модель демонстрирует отличные результаты в сложном рассуждении, генерации артефактов и задачах структурированного вывода, достигая производительности, сопоставимой с GPT-4o и DeepSeek-V3-0324 в нескольких бенчмарках."
|
2110
|
+
},
|
2111
|
+
"thudm/glm-4-32b:free": {
|
2112
|
+
"description": "GLM-4-32B-0414 — это двуязычная (китайский и английский) языковая модель с открытыми весами на 32B, оптимизированная для генерации кода, вызовов функций и агентских задач. Она была предварительно обучена на 15T высококачественных данных и данных повторного рассуждения, а также дополнительно улучшена с помощью согласования человеческих предпочтений, отказного отбора и обучения с подкреплением. Эта модель демонстрирует отличные результаты в сложном рассуждении, генерации артефактов и задачах структурированного вывода, достигая производительности, сопоставимой с GPT-4o и DeepSeek-V3-0324 в нескольких бенчмарках."
|
2113
|
+
},
|
2078
2114
|
"thudm/glm-4-9b-chat": {
|
2079
2115
|
"description": "Открытая версия последнего поколения предобученной модели GLM-4, выпущенной Zhizhu AI."
|
2080
2116
|
},
|
2081
2117
|
"thudm/glm-4-9b:free": {
|
2082
2118
|
"description": "GLM-4-9B-0414 — это языковая модель с 9B параметрами из серии GLM-4, разработанная THUDM. GLM-4-9B-0414 использует те же стратегии усиленного обучения и выравнивания, что и ее более крупная модель с 32B, обеспечивая высокую производительность относительно своего размера, что делает ее подходящей для развертываний с ограниченными ресурсами, которые все еще требуют мощных возможностей понимания и генерации языка."
|
2083
2119
|
},
|
2120
|
+
"thudm/glm-z1-32b": {
|
2121
|
+
"description": "GLM-Z1-32B-0414 — это улучшенная версия GLM-4-32B, созданная для глубокого математического, логического и кодового решения задач. Она использует расширенное обучение с подкреплением (специфичное для задач и основанное на общих парных предпочтениях) для повышения производительности в сложных многошаговых задачах. По сравнению с базовой моделью GLM-4-32B, Z1 значительно улучшила способности в структурированном рассуждении и формальных областях.\n\nЭта модель поддерживает принудительное выполнение шагов \"думать\" через инженерное проектирование подсказок и обеспечивает улучшенную согласованность для длинных форматов вывода. Она оптимизирована для рабочих процессов агентов и поддерживает длинный контекст (через YaRN), вызовы инструментов JSON и конфигурацию тонкой выборки для стабильного рассуждения. Идеально подходит для случаев, требующих вдумчивого, многошагового рассуждения или формального вывода."
|
2122
|
+
},
|
2123
|
+
"thudm/glm-z1-32b:free": {
|
2124
|
+
"description": "GLM-Z1-32B-0414 — это улучшенная версия GLM-4-32B, созданная для глубокого математического, логического и кодового решения задач. Она использует расширенное обучение с подкреплением (специфичное для задач и основанное на общих парных предпочтениях) для повышения производительности в сложных многошаговых задачах. По сравнению с базовой моделью GLM-4-32B, Z1 значительно улучшила способности в структурированном рассуждении и формальных областях.\n\nЭта модель поддерживает принудительное выполнение шагов \"думать\" через инженерное проектирование подсказок и обеспечивает улучшенную согласованность для длинных форматов вывода. Она оптимизирована для рабочих процессов агентов и поддерживает длинный контекст (через YaRN), вызовы инструментов JSON и конфигурацию тонкой выборки для стабильного рассуждения. Идеально подходит для случаев, требующих вдумчивого, многошагового рассуждения или формального вывода."
|
2125
|
+
},
|
2084
2126
|
"thudm/glm-z1-9b:free": {
|
2085
2127
|
"description": "GLM-Z1-9B-0414 — это языковая модель с 9B параметрами из серии GLM-4, разработанная THUDM. Она использует технологии, первоначально примененные в более крупной модели GLM-Z1, включая расширенное усиленное обучение, выравнивание парных рангов и обучение для задач, требующих интенсивного вывода, таких как математика, кодирование и логика. Несмотря на меньший размер, она демонстрирует высокую производительность в общих задачах вывода и превосходит многие открытые модели по уровню своих весов."
|
2086
2128
|
},
|
@@ -29,9 +29,6 @@
|
|
29
29
|
"deepseek": {
|
30
30
|
"description": "DeepSeek — это компания, сосредоточенная на исследованиях и применении технологий искусственного интеллекта, ее последняя модель DeepSeek-V2.5 объединяет возможности общего диалога и обработки кода, достигнув значительных улучшений в области согласования с человеческими предпочтениями, написания текстов и выполнения инструкций."
|
31
31
|
},
|
32
|
-
"doubao": {
|
33
|
-
"description": "Модель большого размера, разработанная ByteDance. Проверенная на более чем 50 внутренних бизнес-сценариях, с ежедневным использованием триллионов токенов, она продолжает совершенствоваться, предлагая множество модальных возможностей и создавая богатый бизнес-опыт для компаний с помощью качественных моделей."
|
34
|
-
},
|
35
32
|
"fireworksai": {
|
36
33
|
"description": "Fireworks AI — это ведущий поставщик высококлассных языковых моделей, сосредоточенный на вызовах функций и мультимодальной обработке. Их последняя модель Firefunction V2 основана на Llama-3 и оптимизирована для вызовов функций, диалогов и выполнения инструкций. Модель визуального языка FireLLaVA-13B поддерживает смешанный ввод изображений и текста. Другие заметные модели включают серию Llama и серию Mixtral, предлагая эффективную поддержку многоязычных инструкций и генерации."
|
37
34
|
},
|
@@ -35,6 +35,10 @@
|
|
35
35
|
"desc": "Mevcut sayfanın ana arama kutusunu aç",
|
36
36
|
"title": "Ara"
|
37
37
|
},
|
38
|
+
"showApp": {
|
39
|
+
"desc": "Uygulamanın ana penceresini hızlıca aç",
|
40
|
+
"title": "Ana Pencereyi Göster"
|
41
|
+
},
|
38
42
|
"switchAgent": {
|
39
43
|
"desc": "Yan panelde sabitlenmiş asistanı değiştirmek için Ctrl tuşuna basılı tutarak 0~9 sayısına basın",
|
40
44
|
"title": "Asistanı hızlıca değiştir"
|
@@ -71,6 +71,9 @@
|
|
71
71
|
"DeepSeek-V3": {
|
72
72
|
"description": "DeepSeek-V3, Derin Arayış şirketi tarafından geliştirilen bir MoE modelidir. DeepSeek-V3, birçok değerlendirmede Qwen2.5-72B ve Llama-3.1-405B gibi diğer açık kaynak modelleri geride bırakmış ve performans açısından dünya çapında en iyi kapalı kaynak model olan GPT-4o ve Claude-3.5-Sonnet ile eşit seviyededir."
|
73
73
|
},
|
74
|
+
"Doubao-1.5-thinking-pro-m": {
|
75
|
+
"description": "Doubao-1.5, yeni derin düşünme modeli (m versiyonu yerel çok modlu derin akıl yürütme yeteneği ile birlikte gelir) ve matematik, programlama, bilimsel akıl yürütme gibi uzmanlık alanlarında ve yaratıcı yazım gibi genel görevlerde mükemmel performans sergilemektedir. AIME 2024, Codeforces, GPQA gibi birçok otoriter benchmarkta endüstri birinciliğine ulaşmakta veya yaklaşmaktadır. 128k bağlam penceresi ve 16k çıktı destekler."
|
76
|
+
},
|
74
77
|
"Doubao-1.5-vision-pro": {
|
75
78
|
"description": "Doubao-1.5-vision-pro, yeni güncellenmiş çok modlu büyük modeldir, herhangi bir çözünürlük ve aşırı en-boy oranı görüntü tanıma desteği sunar, görsel çıkarım, belge tanıma, detay bilgisi anlama ve talimat takibi yeteneklerini artırır."
|
76
79
|
},
|
@@ -293,6 +296,21 @@
|
|
293
296
|
"Qwen/Qwen2.5-VL-72B-Instruct": {
|
294
297
|
"description": "Qwen2.5-VL, Qwen2.5 serisindeki görsel-dil modelidir. Bu model birçok alanda önemli gelişmeler sunmaktadır: Gelişmiş görsel anlama yeteneğiyle yaygın nesneleri tanıyabilir, metinleri, grafikleri ve düzenleri analiz edebilir; görsel bir ajan olarak akıl yürütebilir ve araç kullanımını dinamik olarak yönlendirebilir; 1 saati aşan uzun videoları anlayabilir ve önemli olayları yakalayabilir; görüntülerdeki nesneleri sınırlayıcı kutular veya noktalar oluşturarak hassas bir şekilde konumlandırabilir; yapılandırılmış çıktılar üretebilir, özellikle fatura, tablo gibi taranmış veriler için uygundur."
|
295
298
|
},
|
299
|
+
"Qwen/Qwen3-14B": {
|
300
|
+
"description": "Qwen3, akıl yürütme, genel, Ajan ve çok dilli gibi birçok temel yetenekte önemli ölçüde geliştirilmiş yeni nesil Tongyi Qianwen büyük modelidir ve düşünme modu geçişini destekler."
|
301
|
+
},
|
302
|
+
"Qwen/Qwen3-235B-A22B": {
|
303
|
+
"description": "Qwen3, akıl yürütme, genel, Ajan ve çok dilli gibi birçok temel yetenekte önemli ölçüde geliştirilmiş yeni nesil Tongyi Qianwen büyük modelidir ve düşünme modu geçişini destekler."
|
304
|
+
},
|
305
|
+
"Qwen/Qwen3-30B-A3B": {
|
306
|
+
"description": "Qwen3, akıl yürütme, genel, Ajan ve çok dilli gibi birçok temel yetenekte önemli ölçüde geliştirilmiş yeni nesil Tongyi Qianwen büyük modelidir ve düşünme modu geçişini destekler."
|
307
|
+
},
|
308
|
+
"Qwen/Qwen3-32B": {
|
309
|
+
"description": "Qwen3, akıl yürütme, genel, Ajan ve çok dilli gibi birçok temel yetenekte önemli ölçüde geliştirilmiş yeni nesil Tongyi Qianwen büyük modelidir ve düşünme modu geçişini destekler."
|
310
|
+
},
|
311
|
+
"Qwen/Qwen3-8B": {
|
312
|
+
"description": "Qwen3, akıl yürütme, genel, Ajan ve çok dilli gibi birçok temel yetenekte önemli ölçüde geliştirilmiş yeni nesil Tongyi Qianwen büyük modelidir ve düşünme modu geçişini destekler."
|
313
|
+
},
|
296
314
|
"Qwen2-72B-Instruct": {
|
297
315
|
"description": "Qwen2, Qwen modelinin en yeni serisidir ve 128k bağlamı destekler. Mevcut en iyi açık kaynak modellerle karşılaştırıldığında, Qwen2-72B doğal dil anlama, bilgi, kod, matematik ve çok dilli yetenekler açısından mevcut lider modelleri önemli ölçüde aşmaktadır."
|
298
316
|
},
|
@@ -398,9 +416,6 @@
|
|
398
416
|
"THUDM/glm-4-9b-chat": {
|
399
417
|
"description": "GLM-4 9B açık kaynak versiyonu, diyalog uygulamaları için optimize edilmiş bir diyalog deneyimi sunar."
|
400
418
|
},
|
401
|
-
"TeleAI/TeleChat2": {
|
402
|
-
"description": "TeleChat2 büyük modeli, Çin Telekom tarafından sıfırdan geliştirilen jeneratif bir anlam büyük modelidir. Ansiklopedik soru yanıtlama, kod üretimi, uzun metin üretimi gibi işlevleri desteklemekte ve kullanıcılara diyalog danışmanlık hizmeti sunmaktadır. Kullanıcılarla diyalog etme, soruları yanıtlama, yaratımda yardımcı olma gibi yeteneklere sahiptir ve kullanıcıların bilgi, bilgi ve ilham edinmelerine etkin ve kolay bir şekilde yardımcı olmaktadır. Model, yanıltma sorunları, uzun metin üretimi, mantıksal anlama gibi alanlarda oldukça iyi performans sergilemektedir."
|
403
|
-
},
|
404
419
|
"Vendor-A/Qwen/Qwen2.5-72B-Instruct": {
|
405
420
|
"description": "Qwen2.5-72B-Instruct, Alibaba Cloud tarafından yayınlanan en son büyük dil modeli serilerinden biridir. Bu 72B modeli, kodlama ve matematik gibi alanlarda önemli ölçüde geliştirilmiş yeteneklere sahiptir. Model ayrıca, Çince, İngilizce gibi 29'dan fazla dili kapsayan çok dilli destek sunmaktadır. Model, talimat takibi, yapılandırılmış verileri anlama ve yapılandırılmış çıktı (özellikle JSON) üretme konularında önemli iyileştirmeler göstermektedir."
|
406
421
|
},
|
@@ -800,6 +815,12 @@
|
|
800
815
|
"deepseek/deepseek-chat": {
|
801
816
|
"description": "Genel ve kod yeteneklerini birleştiren yeni açık kaynak model, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleriyle daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazma görevleri, talimat takibi gibi birçok alanda da büyük iyileştirmeler sağlamıştır."
|
802
817
|
},
|
818
|
+
"deepseek/deepseek-chat-v3-0324": {
|
819
|
+
"description": "DeepSeek V3, 685B parametreye sahip bir uzman karışık modeldir ve DeepSeek ekibinin amiral gemisi sohbet modeli serisinin en son iterasyonudur.\n\nÇeşitli görevlerde mükemmel performans sergileyen [DeepSeek V3](/deepseek/deepseek-chat-v3) modelini devralmıştır."
|
820
|
+
},
|
821
|
+
"deepseek/deepseek-chat-v3-0324:free": {
|
822
|
+
"description": "DeepSeek V3, 685B parametreye sahip bir uzman karışık modeldir ve DeepSeek ekibinin amiral gemisi sohbet modeli serisinin en son iterasyonudur.\n\nÇeşitli görevlerde mükemmel performans sergileyen [DeepSeek V3](/deepseek/deepseek-chat-v3) modelini devralmıştır."
|
823
|
+
},
|
803
824
|
"deepseek/deepseek-r1": {
|
804
825
|
"description": "DeepSeek-R1, yalnızca çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai yanıtın doğruluğunu artırır."
|
805
826
|
},
|
@@ -851,9 +872,6 @@
|
|
851
872
|
"doubao-1.5-thinking-pro": {
|
852
873
|
"description": "Doubao-1.5, tamamen yeni bir derin düşünme modeli, matematik, programlama, bilimsel akıl yürütme gibi uzmanlık alanlarında ve yaratıcı yazım gibi genel görevlerde olağanüstü performans sergilemektedir. AIME 2024, Codeforces, GPQA gibi birçok saygın ölçekte sektörün en üst seviyelerine ulaşmakta veya bunlara yakın bir performans göstermektedir. 128k bağlam penceresi ve 16k çıktı desteği sunmaktadır."
|
853
874
|
},
|
854
|
-
"doubao-1.5-thinking-pro-vision": {
|
855
|
-
"description": "Doubao-1.5, tamamen yeni bir derin düşünme modeli, matematik, programlama, bilimsel akıl yürütme gibi uzmanlık alanlarında ve yaratıcı yazım gibi genel görevlerde olağanüstü performans sergilemektedir. AIME 2024, Codeforces, GPQA gibi birçok saygın ölçekte sektörün en üst seviyelerine ulaşmakta veya bunlara yakın bir performans göstermektedir. 128k bağlam penceresi ve 16k çıktı desteği sunmaktadır."
|
856
|
-
},
|
857
875
|
"doubao-1.5-vision-lite": {
|
858
876
|
"description": "Doubao-1.5-vision-lite, yeni güncellenmiş çok modlu büyük modeldir, herhangi bir çözünürlük ve aşırı en-boy oranı görüntü tanıma desteği sunar, görsel çıkarım, belge tanıma, detay bilgisi anlama ve talimat takibi yeteneklerini artırır. 128k bağlam penceresi destekler, çıktı uzunluğu maksimum 16k token destekler."
|
859
877
|
},
|
@@ -995,9 +1013,6 @@
|
|
995
1013
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
996
1014
|
"description": "Gemini 2.0 Flash Exp, Google'ın en son deneysel çok modlu AI modelidir, bir sonraki nesil özelliklere, olağanüstü hıza, yerel araç çağrısına ve çok modlu üretime sahiptir."
|
997
1015
|
},
|
998
|
-
"gemini-2.0-pro-exp-02-05": {
|
999
|
-
"description": "Gemini 2.0 Pro Deneysel, Google'ın en son deneysel çok modlu AI modelidir ve önceki sürümlere göre belirli bir kalite artışı sağlamaktadır, özellikle dünya bilgisi, kod ve uzun bağlam için."
|
1000
|
-
},
|
1001
1016
|
"gemini-2.5-flash-preview-04-17": {
|
1002
1017
|
"description": "Gemini 2.5 Flash Önizleme, Google'ın en iyi fiyat-performans oranına sahip modelidir ve kapsamlı özellikler sunar."
|
1003
1018
|
},
|
@@ -1007,6 +1022,9 @@
|
|
1007
1022
|
"gemini-2.5-pro-preview-03-25": {
|
1008
1023
|
"description": "Gemini 2.5 Pro Önizleme, Google'ın en gelişmiş düşünce modeli olup, kod, matematik ve STEM alanlarındaki karmaşık sorunları akıl yürütme yeteneğine sahiptir. Uzun bağlamları analiz ederek büyük veri setleri, kod havuzları ve belgeler üzerinde çalışabilir."
|
1009
1024
|
},
|
1025
|
+
"gemini-2.5-pro-preview-05-06": {
|
1026
|
+
"description": "Gemini 2.5 Pro Önizleme, Google'ın en gelişmiş düşünce modelidir ve kod, matematik ve STEM alanlarındaki karmaşık sorunları akıl yürütme yeteneğine sahiptir. Uzun bağlamları analiz ederek büyük veri setleri, kod havuzları ve belgeler üzerinde çalışabilir."
|
1027
|
+
},
|
1010
1028
|
"gemma-7b-it": {
|
1011
1029
|
"description": "Gemma 7B, orta ölçekli görev işleme için uygundur ve maliyet etkinliği sunar."
|
1012
1030
|
},
|
@@ -1091,8 +1109,17 @@
|
|
1091
1109
|
"google/gemini-2.0-flash-001": {
|
1092
1110
|
"description": "Gemini 2.0 Flash, mükemmel hız, yerel araç kullanımı, çok modlu üretim ve 1M token bağlam penceresi dahil olmak üzere bir sonraki nesil özellikler ve iyileştirmeler sunar."
|
1093
1111
|
},
|
1094
|
-
"google/gemini-2.0-
|
1095
|
-
"description": "Gemini 2.0
|
1112
|
+
"google/gemini-2.0-flash-exp:free": {
|
1113
|
+
"description": "Gemini 2.0 Flash Deneysel, Google'ın en yeni deneysel çok modlu AI modelidir ve önceki sürümlere göre belirli bir kalite artışı sağlamaktadır, özellikle dünya bilgisi, kod ve uzun bağlam için."
|
1114
|
+
},
|
1115
|
+
"google/gemini-2.5-flash-preview": {
|
1116
|
+
"description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modelidir ve ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilen yerleşik 'düşünme' yeteneğine sahiptir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (':thinking' eki olmadan) seçerseniz, model açıkça düşünme tokenleri üretmekten kaçınacaktır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenleri almak için, ':thinking' varyantını seçmelisiniz; bu, daha yüksek düşünme çıktı fiyatlandırması ile sonuçlanacaktır.\n\nAyrıca, Gemini 2.5 Flash, belgede belirtildiği gibi 'akıl yürütme maksimum token sayısı' parametresi ile yapılandırılabilir (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1117
|
+
},
|
1118
|
+
"google/gemini-2.5-flash-preview:thinking": {
|
1119
|
+
"description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modelidir ve ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilen yerleşik 'düşünme' yeteneğine sahiptir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (':thinking' eki olmadan) seçerseniz, model açıkça düşünme tokenleri üretmekten kaçınacaktır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenleri almak için, ':thinking' varyantını seçmelisiniz; bu, daha yüksek düşünme çıktı fiyatlandırması ile sonuçlanacaktır.\n\nAyrıca, Gemini 2.5 Flash, belgede belirtildiği gibi 'akıl yürütme maksimum token sayısı' parametresi ile yapılandırılabilir (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1120
|
+
},
|
1121
|
+
"google/gemini-2.5-pro-preview-03-25": {
|
1122
|
+
"description": "Gemini 2.5 Pro, Google'ın en gelişmiş AI modelidir ve ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. 'Düşünme' yeteneği ile daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar üretebilir. Gemini 2.5 Pro, LMArena sıralamasında birinci olarak, mükemmel insan tercihleri uyumu ve karmaşık sorun çözme yeteneğini yansıtan birçok benchmark testinde en yüksek performansı göstermiştir."
|
1096
1123
|
},
|
1097
1124
|
"google/gemini-flash-1.5": {
|
1098
1125
|
"description": "Gemini 1.5 Flash, optimize edilmiş çok modlu işleme yetenekleri sunar ve çeşitli karmaşık görev senaryolarına uygundur."
|
@@ -1592,6 +1619,9 @@
|
|
1592
1619
|
"mistral-large-latest": {
|
1593
1620
|
"description": "Mistral Large, çok dilli görevler, karmaşık akıl yürütme ve kod üretimi için ideal bir seçimdir ve yüksek uç uygulamalar için tasarlanmıştır."
|
1594
1621
|
},
|
1622
|
+
"mistral-medium-latest": {
|
1623
|
+
"description": "Mistral Medium 3, 8 kat daha düşük maliyetle en ileri düzey performansı sunar ve kurumsal dağıtımları temelden basitleştirir."
|
1624
|
+
},
|
1595
1625
|
"mistral-nemo": {
|
1596
1626
|
"description": "Mistral Nemo, Mistral AI ve NVIDIA işbirliği ile sunulan, yüksek verimli 12B modelidir."
|
1597
1627
|
},
|
@@ -1763,8 +1793,8 @@
|
|
1763
1793
|
"qvq-72b-preview": {
|
1764
1794
|
"description": "QVQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir; görsel akıl yürütme yeteneğini artırmaya odaklanır, özellikle matematik akıl yürütme alanında."
|
1765
1795
|
},
|
1766
|
-
"qvq-max": {
|
1767
|
-
"description": "
|
1796
|
+
"qvq-max-latest": {
|
1797
|
+
"description": "Tongyi Qianwen QVQ görsel akıl yürütme modeli, görsel girdi ve düşünme zinciri çıktısını destekler ve matematik, programlama, görsel analiz, yaratım ve genel görevlerde daha güçlü yetenekler sergilemektedir."
|
1768
1798
|
},
|
1769
1799
|
"qwen-coder-plus-latest": {
|
1770
1800
|
"description": "Tongyi Qianwen kod modeli."
|
@@ -2075,12 +2105,24 @@
|
|
2075
2105
|
"text-embedding-3-small": {
|
2076
2106
|
"description": "Verimli ve ekonomik yeni nesil Embedding modeli, bilgi arama, RAG uygulamaları gibi senaryolar için uygundur."
|
2077
2107
|
},
|
2108
|
+
"thudm/glm-4-32b": {
|
2109
|
+
"description": "GLM-4-32B-0414, kod üretimi, fonksiyon çağrıları ve ajan tabanlı görevler için optimize edilmiş 32B iki dilli (Çince ve İngilizce) açık ağırlık dil modelidir. 15T yüksek kaliteli ve yeniden akıl yürütme verisi üzerinde önceden eğitilmiştir ve insan tercihleri uyumu, reddetme örnekleme ve pekiştirmeli öğrenme ile daha da geliştirilmiştir. Bu model, karmaşık akıl yürütme, nesne üretimi ve yapılandırılmış çıktı görevlerinde mükemmel performans sergilemekte ve birçok benchmark testinde GPT-4o ve DeepSeek-V3-0324 ile karşılaştırılabilir performans göstermektedir."
|
2110
|
+
},
|
2111
|
+
"thudm/glm-4-32b:free": {
|
2112
|
+
"description": "GLM-4-32B-0414, kod üretimi, fonksiyon çağrıları ve ajan tabanlı görevler için optimize edilmiş 32B iki dilli (Çince ve İngilizce) açık ağırlık dil modelidir. 15T yüksek kaliteli ve yeniden akıl yürütme verisi üzerinde önceden eğitilmiştir ve insan tercihleri uyumu, reddetme örnekleme ve pekiştirmeli öğrenme ile daha da geliştirilmiştir. Bu model, karmaşık akıl yürütme, nesne üretimi ve yapılandırılmış çıktı görevlerinde mükemmel performans sergilemekte ve birçok benchmark testinde GPT-4o ve DeepSeek-V3-0324 ile karşılaştırılabilir performans göstermektedir."
|
2113
|
+
},
|
2078
2114
|
"thudm/glm-4-9b-chat": {
|
2079
2115
|
"description": "Zhi Pu AI tarafından yayınlanan GLM-4 serisinin en son nesil ön eğitim modelinin açık kaynak versiyonudur."
|
2080
2116
|
},
|
2081
2117
|
"thudm/glm-4-9b:free": {
|
2082
2118
|
"description": "GLM-4-9B-0414, THUDM tarafından geliştirilen GLM-4 serisinin 9 milyar parametreli dil modelidir. GLM-4-9B-0414, daha büyük 32B karşılık gelen model ile aynı güçlendirilmiş öğrenme ve hizalama stratejilerini kullanarak eğitilmiştir ve ölçeğine göre yüksek performans sergileyerek hala güçlü dil anlama ve üretim yeteneklerine ihtiyaç duyan kaynak sınırlı dağıtımlar için uygundur."
|
2083
2119
|
},
|
2120
|
+
"thudm/glm-z1-32b": {
|
2121
|
+
"description": "GLM-Z1-32B-0414, GLM-4-32B'nin geliştirilmiş akıl yürütme varyantıdır ve derin matematik, mantık ve kod odaklı sorun çözme için tasarlanmıştır. Karmaşık çok adımlı görevlerin performansını artırmak için genişletilmiş pekiştirmeli öğrenme (görev spesifik ve genel çift tercih tabanlı) uygular. Temel GLM-4-32B modeline kıyasla, Z1 yapılandırılmış akıl yürütme ve formel alanlardaki yetenekleri önemli ölçüde artırmıştır.\n\nBu model, ipucu mühendisliği ile 'düşünme' adımlarını zorunlu kılmayı destekler ve uzun format çıktılar için geliştirilmiş tutarlılık sağlar. Ajan iş akışları için optimize edilmiştir ve uzun bağlamı (YaRN aracılığıyla), JSON araç çağrılarını ve kararlı akıl yürütme için ince ayar örnekleme yapılandırmalarını destekler. Derin düşünme, çok adımlı akıl yürütme veya formel çıkarım gerektiren kullanım durumları için idealdir."
|
2122
|
+
},
|
2123
|
+
"thudm/glm-z1-32b:free": {
|
2124
|
+
"description": "GLM-Z1-32B-0414, GLM-4-32B'nin geliştirilmiş akıl yürütme varyantıdır ve derin matematik, mantık ve kod odaklı sorun çözme için tasarlanmıştır. Karmaşık çok adımlı görevlerin performansını artırmak için genişletilmiş pekiştirmeli öğrenme (görev spesifik ve genel çift tercih tabanlı) uygular. Temel GLM-4-32B modeline kıyasla, Z1 yapılandırılmış akıl yürütme ve formel alanlardaki yetenekleri önemli ölçüde artırmıştır.\n\nBu model, ipucu mühendisliği ile 'düşünme' adımlarını zorunlu kılmayı destekler ve uzun format çıktılar için geliştirilmiş tutarlılık sağlar. Ajan iş akışları için optimize edilmiştir ve uzun bağlamı (YaRN aracılığıyla), JSON araç çağrılarını ve kararlı akıl yürütme için ince ayar örnekleme yapılandırmalarını destekler. Derin düşünme, çok adımlı akıl yürütme veya formel çıkarım gerektiren kullanım durumları için idealdir."
|
2125
|
+
},
|
2084
2126
|
"thudm/glm-z1-9b:free": {
|
2085
2127
|
"description": "GLM-Z1-9B-0414, THUDM tarafından geliştirilen GLM-4 serisinin 9B parametreli dil modelidir. Daha büyük GLM-Z1 modeline uygulanan teknikleri içermekte olup, güçlendirilmiş öğrenme, çift sıralama hizalaması ve matematik, kodlama ve mantık gibi akıl yürütme yoğun görevler için eğitim almıştır. Daha küçük olmasına rağmen, genel akıl yürütme görevlerinde güçlü performans sergilemekte ve ağırlık seviyesinde birçok açık kaynak modelinden daha üstündür."
|
2086
2128
|
},
|
@@ -29,9 +29,6 @@
|
|
29
29
|
"deepseek": {
|
30
30
|
"description": "DeepSeek, yapay zeka teknolojisi araştırma ve uygulamalarına odaklanan bir şirkettir. En son modeli DeepSeek-V2.5, genel diyalog ve kod işleme yeteneklerini birleştirerek, insan tercihleriyle uyum, yazma görevleri ve talimat takibi gibi alanlarda önemli iyileştirmeler sağlamaktadır."
|
31
31
|
},
|
32
|
-
"doubao": {
|
33
|
-
"description": "ByteDance tarafından geliştirilen kendi büyük modeli. ByteDance içindeki 50'den fazla iş senaryosunda uygulama doğrulaması ile, günlük trilyon seviyesinde token kullanımı ile sürekli olarak geliştirilmekte, çeşitli modalite yetenekleri sunmakta ve kaliteli model performansı ile işletmelere zengin iş deneyimleri yaratmaktadır."
|
34
|
-
},
|
35
32
|
"fireworksai": {
|
36
33
|
"description": "Fireworks AI, işlev çağrısı ve çok modlu işleme üzerine odaklanan önde gelen bir gelişmiş dil modeli hizmet sağlayıcısıdır. En son modeli Firefunction V2, Llama-3 tabanlıdır ve işlev çağrısı, diyalog ve talimat takibi için optimize edilmiştir. Görsel dil modeli FireLLaVA-13B, görüntü ve metin karışık girişi desteklemektedir. Diğer dikkat çekici modeller arasında Llama serisi ve Mixtral serisi bulunmaktadır ve etkili çok dilli talimat takibi ve üretim desteği sunmaktadır."
|
37
34
|
},
|
@@ -35,6 +35,10 @@
|
|
35
35
|
"desc": "Kích hoạt hộp tìm kiếm chính của trang hiện tại",
|
36
36
|
"title": "Tìm kiếm"
|
37
37
|
},
|
38
|
+
"showApp": {
|
39
|
+
"desc": "Mở nhanh cửa sổ chính của ứng dụng",
|
40
|
+
"title": "Hiển thị cửa sổ chính"
|
41
|
+
},
|
38
42
|
"switchAgent": {
|
39
43
|
"desc": "Chuyển đổi giữa các trợ lý cố định ở thanh bên bằng cách giữ phím Ctrl và nhấn số 0~9",
|
40
44
|
"title": "Chuyển đổi nhanh trợ lý"
|
@@ -71,6 +71,9 @@
|
|
71
71
|
"DeepSeek-V3": {
|
72
72
|
"description": "DeepSeek-V3 là một mô hình MoE do công ty DeepSeek tự phát triển. Nhiều kết quả đánh giá của DeepSeek-V3 đã vượt qua các mô hình mã nguồn mở khác như Qwen2.5-72B và Llama-3.1-405B, và về hiệu suất không thua kém các mô hình đóng nguồn hàng đầu thế giới như GPT-4o và Claude-3.5-Sonnet."
|
73
73
|
},
|
74
|
+
"Doubao-1.5-thinking-pro-m": {
|
75
|
+
"description": "Doubao-1.5 là mô hình suy nghĩ sâu mới (phiên bản m đi kèm khả năng suy luận đa phương thức nguyên bản), thể hiện xuất sắc trong các lĩnh vực chuyên môn như toán học, lập trình, suy luận khoa học và các nhiệm vụ chung như viết sáng tạo, đạt hoặc gần đạt trình độ hàng đầu trong nhiều bài kiểm tra chuẩn uy tín như AIME 2024, Codeforces, GPQA. Hỗ trợ cửa sổ ngữ cảnh 128k, đầu ra 16k."
|
76
|
+
},
|
74
77
|
"Doubao-1.5-vision-pro": {
|
75
78
|
"description": "Doubao-1.5-vision-pro là mô hình đa phương tiện lớn được nâng cấp mới, hỗ trợ nhận diện hình ảnh với bất kỳ độ phân giải nào và tỷ lệ dài rộng cực đoan, tăng cường khả năng suy luận hình ảnh, nhận diện tài liệu, hiểu thông tin chi tiết và tuân thủ hướng dẫn."
|
76
79
|
},
|
@@ -293,6 +296,21 @@
|
|
293
296
|
"Qwen/Qwen2.5-VL-72B-Instruct": {
|
294
297
|
"description": "Qwen2.5-VL là mô hình ngôn ngữ thị giác trong loạt Qwen2.5. Mô hình này có những cải tiến đáng kể: có khả năng hiểu thị giác mạnh hơn, có thể nhận diện các vật thể thông thường, phân tích văn bản, biểu đồ và bố cục; hoạt động như một đại lý thị giác có thể suy luận và hướng dẫn sử dụng công cụ một cách động; hỗ trợ hiểu các video dài hơn 1 giờ và bắt các sự kiện quan trọng; có thể định vị chính xác các vật thể trong hình ảnh thông qua việc tạo khung giới hạn hoặc điểm; hỗ trợ tạo ra đầu ra có cấu trúc, đặc biệt phù hợp với dữ liệu quét như hóa đơn, bảng biểu."
|
295
298
|
},
|
299
|
+
"Qwen/Qwen3-14B": {
|
300
|
+
"description": "Qwen3 là một mô hình lớn thế hệ mới của Tongyi Qianwen với khả năng nâng cao đáng kể, đạt được trình độ hàng đầu trong nhiều khả năng cốt lõi như suy luận, tổng quát, đại lý và đa ngôn ngữ, đồng thời hỗ trợ chuyển đổi chế độ suy nghĩ."
|
301
|
+
},
|
302
|
+
"Qwen/Qwen3-235B-A22B": {
|
303
|
+
"description": "Qwen3 là một mô hình lớn thế hệ mới của Tongyi Qianwen với khả năng nâng cao đáng kể, đạt được trình độ hàng đầu trong nhiều khả năng cốt lõi như suy luận, tổng quát, đại lý và đa ngôn ngữ, đồng thời hỗ trợ chuyển đổi chế độ suy nghĩ."
|
304
|
+
},
|
305
|
+
"Qwen/Qwen3-30B-A3B": {
|
306
|
+
"description": "Qwen3 là một mô hình lớn thế hệ mới của Tongyi Qianwen với khả năng nâng cao đáng kể, đạt được trình độ hàng đầu trong nhiều khả năng cốt lõi như suy luận, tổng quát, đại lý và đa ngôn ngữ, đồng thời hỗ trợ chuyển đổi chế độ suy nghĩ."
|
307
|
+
},
|
308
|
+
"Qwen/Qwen3-32B": {
|
309
|
+
"description": "Qwen3 là một mô hình lớn thế hệ mới của Tongyi Qianwen với khả năng nâng cao đáng kể, đạt được trình độ hàng đầu trong nhiều khả năng cốt lõi như suy luận, tổng quát, đại lý và đa ngôn ngữ, đồng thời hỗ trợ chuyển đổi chế độ suy nghĩ."
|
310
|
+
},
|
311
|
+
"Qwen/Qwen3-8B": {
|
312
|
+
"description": "Qwen3 là một mô hình lớn thế hệ mới của Tongyi Qianwen với khả năng nâng cao đáng kể, đạt được trình độ hàng đầu trong nhiều khả năng cốt lõi như suy luận, tổng quát, đại lý và đa ngôn ngữ, đồng thời hỗ trợ chuyển đổi chế độ suy nghĩ."
|
313
|
+
},
|
296
314
|
"Qwen2-72B-Instruct": {
|
297
315
|
"description": "Qwen2 là dòng mô hình mới nhất của Qwen, hỗ trợ ngữ cảnh 128k, so với các mô hình mã nguồn mở tốt nhất hiện tại, Qwen2-72B vượt trội hơn hẳn trong nhiều khả năng như hiểu ngôn ngữ tự nhiên, kiến thức, mã, toán học và đa ngôn ngữ."
|
298
316
|
},
|
@@ -398,9 +416,6 @@
|
|
398
416
|
"THUDM/glm-4-9b-chat": {
|
399
417
|
"description": "GLM-4 9B là phiên bản mã nguồn mở, cung cấp trải nghiệm đối thoại tối ưu cho các ứng dụng hội thoại."
|
400
418
|
},
|
401
|
-
"TeleAI/TeleChat2": {
|
402
|
-
"description": "Mô hình lớn TeleChat2 được phát triển độc lập từ 0 đến 1 bởi China Telecom, là một mô hình ngữ nghĩa sinh sinh, hỗ trợ các chức năng như hỏi đáp bách khoa, tạo mã, sinh văn bản dài, cung cấp dịch vụ tư vấn đối thoại cho người dùng, có khả năng tương tác đối thoại với người dùng, trả lời câu hỏi, hỗ trợ sáng tạo, giúp người dùng nhanh chóng và hiệu quả trong việc thu thập thông tin, kiến thức và cảm hứng. Mô hình thể hiện xuất sắc trong các vấn đề ảo giác, sinh văn bản dài và hiểu logic."
|
403
|
-
},
|
404
419
|
"Vendor-A/Qwen/Qwen2.5-72B-Instruct": {
|
405
420
|
"description": "Qwen2.5-72B-Instruct là một trong những mô hình ngôn ngữ lớn mới nhất do Alibaba Cloud phát hành. Mô hình 72B này có khả năng cải thiện đáng kể trong các lĩnh vực mã hóa và toán học. Mô hình cũng cung cấp hỗ trợ đa ngôn ngữ, bao gồm hơn 29 ngôn ngữ, bao gồm tiếng Trung, tiếng Anh, v.v. Mô hình đã có sự cải thiện đáng kể trong việc tuân theo chỉ dẫn, hiểu dữ liệu có cấu trúc và tạo ra đầu ra có cấu trúc (đặc biệt là JSON)."
|
406
421
|
},
|
@@ -800,6 +815,12 @@
|
|
800
815
|
"deepseek/deepseek-chat": {
|
801
816
|
"description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều lĩnh vực như nhiệm vụ viết, theo dõi chỉ dẫn."
|
802
817
|
},
|
818
|
+
"deepseek/deepseek-chat-v3-0324": {
|
819
|
+
"description": "DeepSeek V3 là một mô hình hỗn hợp chuyên gia với 685B tham số, là phiên bản mới nhất trong dòng mô hình trò chuyện flagship của đội ngũ DeepSeek.\n\nNó kế thừa mô hình [DeepSeek V3](/deepseek/deepseek-chat-v3) và thể hiện xuất sắc trong nhiều nhiệm vụ."
|
820
|
+
},
|
821
|
+
"deepseek/deepseek-chat-v3-0324:free": {
|
822
|
+
"description": "DeepSeek V3 là một mô hình hỗn hợp chuyên gia với 685B tham số, là phiên bản mới nhất trong dòng mô hình trò chuyện flagship của đội ngũ DeepSeek.\n\nNó kế thừa mô hình [DeepSeek V3](/deepseek/deepseek-chat-v3) và thể hiện xuất sắc trong nhiều nhiệm vụ."
|
823
|
+
},
|
803
824
|
"deepseek/deepseek-r1": {
|
804
825
|
"description": "DeepSeek-R1 đã nâng cao khả năng suy luận của mô hình một cách đáng kể với rất ít dữ liệu được gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối cùng."
|
805
826
|
},
|
@@ -851,9 +872,6 @@
|
|
851
872
|
"doubao-1.5-thinking-pro": {
|
852
873
|
"description": "Mô hình tư duy sâu mới Doubao-1.5, nổi bật trong các lĩnh vực chuyên môn như toán học, lập trình, suy luận khoa học và các nhiệm vụ viết sáng tạo, đạt hoặc gần đạt trình độ hàng đầu trong ngành trên nhiều tiêu chuẩn uy tín như AIME 2024, Codeforces, GPQA. Hỗ trợ cửa sổ ngữ cảnh 128k, đầu ra 16k."
|
853
874
|
},
|
854
|
-
"doubao-1.5-thinking-pro-vision": {
|
855
|
-
"description": "Mô hình tư duy sâu mới Doubao-1.5, nổi bật trong các lĩnh vực chuyên môn như toán học, lập trình, suy luận khoa học và các nhiệm vụ viết sáng tạo, đạt hoặc gần đạt trình độ hàng đầu trong ngành trên nhiều tiêu chuẩn uy tín như AIME 2024, Codeforces, GPQA. Hỗ trợ cửa sổ ngữ cảnh 128k, đầu ra 16k."
|
856
|
-
},
|
857
875
|
"doubao-1.5-vision-lite": {
|
858
876
|
"description": "Doubao-1.5-vision-lite là mô hình đa phương tiện lớn được nâng cấp mới, hỗ trợ nhận diện hình ảnh với bất kỳ độ phân giải nào và tỷ lệ dài rộng cực đoan, tăng cường khả năng suy luận hình ảnh, nhận diện tài liệu, hiểu thông tin chi tiết và tuân thủ hướng dẫn. Hỗ trợ cửa sổ ngữ cảnh 128k, độ dài đầu ra tối đa 16k tokens."
|
859
877
|
},
|
@@ -995,9 +1013,6 @@
|
|
995
1013
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
996
1014
|
"description": "Gemini 2.0 Flash Exp là mô hình AI đa phương thức thử nghiệm mới nhất của Google, sở hữu các tính năng thế hệ tiếp theo, tốc độ vượt trội, gọi công cụ bản địa và sinh ra đa phương thức."
|
997
1015
|
},
|
998
|
-
"gemini-2.0-pro-exp-02-05": {
|
999
|
-
"description": "Gemini 2.0 Pro Experimental là mô hình AI đa phương tiện thử nghiệm mới nhất của Google, có sự cải thiện chất lượng nhất định so với các phiên bản trước, đặc biệt là về kiến thức thế giới, mã và ngữ cảnh dài."
|
1000
|
-
},
|
1001
1016
|
"gemini-2.5-flash-preview-04-17": {
|
1002
1017
|
"description": "Gemini 2.5 Flash Preview là mô hình có giá trị tốt nhất của Google, cung cấp đầy đủ các tính năng."
|
1003
1018
|
},
|
@@ -1007,6 +1022,9 @@
|
|
1007
1022
|
"gemini-2.5-pro-preview-03-25": {
|
1008
1023
|
"description": "Gemini 2.5 Pro Preview là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận về mã, toán học và các vấn đề phức tạp trong lĩnh vực STEM, cũng như phân tích các tập dữ liệu lớn, kho mã và tài liệu bằng cách sử dụng ngữ cảnh dài."
|
1009
1024
|
},
|
1025
|
+
"gemini-2.5-pro-preview-05-06": {
|
1026
|
+
"description": "Gemini 2.5 Pro Preview là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận về mã, toán học và các vấn đề phức tạp trong lĩnh vực STEM, cũng như phân tích các tập dữ liệu lớn, kho mã và tài liệu bằng cách sử dụng ngữ cảnh dài."
|
1027
|
+
},
|
1010
1028
|
"gemma-7b-it": {
|
1011
1029
|
"description": "Gemma 7B phù hợp cho việc xử lý các nhiệm vụ quy mô vừa và nhỏ, đồng thời mang lại hiệu quả chi phí."
|
1012
1030
|
},
|
@@ -1091,8 +1109,17 @@
|
|
1091
1109
|
"google/gemini-2.0-flash-001": {
|
1092
1110
|
"description": "Gemini 2.0 Flash cung cấp các tính năng và cải tiến thế hệ tiếp theo, bao gồm tốc độ vượt trội, sử dụng công cụ bản địa, tạo đa phương tiện và cửa sổ ngữ cảnh 1M token."
|
1093
1111
|
},
|
1094
|
-
"google/gemini-2.0-
|
1095
|
-
"description": "Gemini 2.0
|
1112
|
+
"google/gemini-2.0-flash-exp:free": {
|
1113
|
+
"description": "Gemini 2.0 Flash Experimental là mô hình AI đa phương tiện thử nghiệm mới nhất của Google, có sự cải thiện về chất lượng so với các phiên bản trước, đặc biệt là đối với kiến thức thế giới, mã và ngữ cảnh dài."
|
1114
|
+
},
|
1115
|
+
"google/gemini-2.5-flash-preview": {
|
1116
|
+
"description": "Gemini 2.5 Flash là mô hình chủ lực tiên tiến nhất của Google, được thiết kế cho suy luận nâng cao, lập trình, toán học và các nhiệm vụ khoa học. Nó bao gồm khả năng 'suy nghĩ' tích hợp, cho phép nó cung cấp phản hồi với độ chính xác cao hơn và xử lý ngữ cảnh chi tiết hơn.\n\nLưu ý: Mô hình này có hai biến thể: suy nghĩ và không suy nghĩ. Giá đầu ra có sự khác biệt đáng kể tùy thuộc vào việc khả năng suy nghĩ có được kích hoạt hay không. Nếu bạn chọn biến thể tiêu chuẩn (không có hậu tố ':thinking'), mô hình sẽ rõ ràng tránh việc tạo ra các token suy nghĩ.\n\nĐể tận dụng khả năng suy nghĩ và nhận các token suy nghĩ, bạn phải chọn biến thể ':thinking', điều này sẽ tạo ra giá đầu ra suy nghĩ cao hơn.\n\nNgoài ra, Gemini 2.5 Flash có thể được cấu hình thông qua tham số 'số token tối đa cho suy luận', như đã mô tả trong tài liệu (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1117
|
+
},
|
1118
|
+
"google/gemini-2.5-flash-preview:thinking": {
|
1119
|
+
"description": "Gemini 2.5 Flash là mô hình chủ lực tiên tiến nhất của Google, được thiết kế cho suy luận nâng cao, lập trình, toán học và các nhiệm vụ khoa học. Nó bao gồm khả năng 'suy nghĩ' tích hợp, cho phép nó cung cấp phản hồi với độ chính xác cao hơn và xử lý ngữ cảnh chi tiết hơn.\n\nLưu ý: Mô hình này có hai biến thể: suy nghĩ và không suy nghĩ. Giá đầu ra có sự khác biệt đáng kể tùy thuộc vào việc khả năng suy nghĩ có được kích hoạt hay không. Nếu bạn chọn biến thể tiêu chuẩn (không có hậu tố ':thinking'), mô hình sẽ rõ ràng tránh việc tạo ra các token suy nghĩ.\n\nĐể tận dụng khả năng suy nghĩ và nhận các token suy nghĩ, bạn phải chọn biến thể ':thinking', điều này sẽ tạo ra giá đầu ra suy nghĩ cao hơn.\n\nNgoài ra, Gemini 2.5 Flash có thể được cấu hình thông qua tham số 'số token tối đa cho suy luận', như đã mô tả trong tài liệu (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1120
|
+
},
|
1121
|
+
"google/gemini-2.5-pro-preview-03-25": {
|
1122
|
+
"description": "Gemini 2.5 Pro là mô hình AI tiên tiến nhất của Google, được thiết kế cho suy luận nâng cao, lập trình, toán học và các nhiệm vụ khoa học. Nó có khả năng 'suy nghĩ', cho phép nó suy luận với độ chính xác cao hơn và xử lý ngữ cảnh chi tiết hơn. Gemini 2.5 Pro đạt hiệu suất hàng đầu trong nhiều bài kiểm tra chuẩn, bao gồm vị trí số một trong bảng xếp hạng LMArena, phản ánh sự phù hợp xuất sắc với sở thích của con người và khả năng giải quyết vấn đề phức tạp."
|
1096
1123
|
},
|
1097
1124
|
"google/gemini-flash-1.5": {
|
1098
1125
|
"description": "Gemini 1.5 Flash cung cấp khả năng xử lý đa phương thức được tối ưu hóa, phù hợp cho nhiều tình huống nhiệm vụ phức tạp."
|
@@ -1592,6 +1619,9 @@
|
|
1592
1619
|
"mistral-large-latest": {
|
1593
1620
|
"description": "Mistral Large là mô hình lớn hàng đầu, chuyên về các nhiệm vụ đa ngôn ngữ, suy luận phức tạp và sinh mã, là lựa chọn lý tưởng cho các ứng dụng cao cấp."
|
1594
1621
|
},
|
1622
|
+
"mistral-medium-latest": {
|
1623
|
+
"description": "Mistral Medium 3 cung cấp hiệu suất tiên tiến với chi phí gấp 8 lần và đơn giản hóa việc triển khai doanh nghiệp."
|
1624
|
+
},
|
1595
1625
|
"mistral-nemo": {
|
1596
1626
|
"description": "Mistral Nemo được phát triển hợp tác giữa Mistral AI và NVIDIA, là mô hình 12B hiệu suất cao."
|
1597
1627
|
},
|
@@ -1763,8 +1793,8 @@
|
|
1763
1793
|
"qvq-72b-preview": {
|
1764
1794
|
"description": "Mô hình QVQ là mô hình nghiên cứu thử nghiệm do đội ngũ Qwen phát triển, tập trung vào việc nâng cao khả năng suy luận hình ảnh, đặc biệt trong lĩnh vực suy luận toán học."
|
1765
1795
|
},
|
1766
|
-
"qvq-max": {
|
1767
|
-
"description": "Mô hình suy luận thị giác QVQ của Tongyi Qianwen hỗ trợ đầu vào thị giác và đầu ra chuỗi
|
1796
|
+
"qvq-max-latest": {
|
1797
|
+
"description": "Mô hình suy luận thị giác QVQ của Tongyi Qianwen, hỗ trợ đầu vào thị giác và đầu ra chuỗi suy nghĩ, thể hiện khả năng mạnh mẽ trong toán học, lập trình, phân tích thị giác, sáng tạo và các nhiệm vụ chung."
|
1768
1798
|
},
|
1769
1799
|
"qwen-coder-plus-latest": {
|
1770
1800
|
"description": "Mô hình mã Qwen."
|
@@ -2075,12 +2105,24 @@
|
|
2075
2105
|
"text-embedding-3-small": {
|
2076
2106
|
"description": "Mô hình Embedding thế hệ mới hiệu quả và tiết kiệm, phù hợp cho tìm kiếm kiến thức, ứng dụng RAG và các tình huống khác."
|
2077
2107
|
},
|
2108
|
+
"thudm/glm-4-32b": {
|
2109
|
+
"description": "GLM-4-32B-0414 là một mô hình ngôn ngữ mở với trọng số 32B song ngữ (Trung-Anh), được tối ưu hóa cho việc tạo mã, gọi hàm và các nhiệm vụ theo kiểu đại lý. Nó đã được huấn luyện trước trên 15T dữ liệu chất lượng cao và dữ liệu suy luận lại, và được hoàn thiện thêm bằng cách sử dụng sự phù hợp với sở thích của con người, lấy mẫu từ chối và học tăng cường. Mô hình này thể hiện xuất sắc trong suy luận phức tạp, tạo ra sản phẩm và các nhiệm vụ đầu ra có cấu trúc, đạt được hiệu suất tương đương với GPT-4o và DeepSeek-V3-0324 trong nhiều bài kiểm tra chuẩn."
|
2110
|
+
},
|
2111
|
+
"thudm/glm-4-32b:free": {
|
2112
|
+
"description": "GLM-4-32B-0414 là một mô hình ngôn ngữ mở với trọng số 32B song ngữ (Trung-Anh), được tối ưu hóa cho việc tạo mã, gọi hàm và các nhiệm vụ theo kiểu đại lý. Nó đã được huấn luyện trước trên 15T dữ liệu chất lượng cao và dữ liệu suy luận lại, và được hoàn thiện thêm bằng cách sử dụng sự phù hợp với sở thích của con người, lấy mẫu từ chối và học tăng cường. Mô hình này thể hiện xuất sắc trong suy luận phức tạp, tạo ra sản phẩm và các nhiệm vụ đầu ra có cấu trúc, đạt được hiệu suất tương đương với GPT-4o và DeepSeek-V3-0324 trong nhiều bài kiểm tra chuẩn."
|
2113
|
+
},
|
2078
2114
|
"thudm/glm-4-9b-chat": {
|
2079
2115
|
"description": "Phiên bản mã nguồn mở của thế hệ mô hình tiền huấn luyện GLM-4 mới nhất được phát hành bởi Zhiyu AI."
|
2080
2116
|
},
|
2081
2117
|
"thudm/glm-4-9b:free": {
|
2082
2118
|
"description": "GLM-4-9B-0414 là mô hình ngôn ngữ 9 tỷ tham số trong dòng GLM-4 được phát triển bởi THUDM. GLM-4-9B-0414 sử dụng cùng một chiến lược học tăng cường và căn chỉnh như mô hình tương ứng lớn hơn 32B, đạt được hiệu suất cao so với quy mô của nó, khiến nó phù hợp cho các triển khai hạn chế tài nguyên nhưng vẫn cần khả năng hiểu và tạo ngôn ngữ mạnh mẽ."
|
2083
2119
|
},
|
2120
|
+
"thudm/glm-z1-32b": {
|
2121
|
+
"description": "GLM-Z1-32B-0414 là biến thể suy luận nâng cao của GLM-4-32B, được xây dựng cho việc giải quyết các vấn đề sâu về toán học, logic và lập trình. Nó áp dụng học tăng cường mở rộng (cụ thể cho nhiệm vụ và dựa trên sở thích cặp chung) để cải thiện hiệu suất cho các nhiệm vụ phức tạp nhiều bước. So với mô hình GLM-4-32B cơ bản, Z1 đã nâng cao đáng kể khả năng suy luận có cấu trúc và trong các lĩnh vực chính thức.\n\nMô hình này hỗ trợ thực hiện các bước 'suy nghĩ' thông qua kỹ thuật nhắc nhở và cung cấp tính liên kết cải thiện cho đầu ra định dạng dài. Nó được tối ưu hóa cho quy trình làm việc của đại lý và hỗ trợ ngữ cảnh dài (thông qua YaRN), gọi công cụ JSON và cấu hình lấy mẫu chi tiết cho suy luận ổn định. Rất phù hợp cho các trường hợp cần suy nghĩ sâu sắc, suy luận nhiều bước hoặc suy diễn chính thức."
|
2122
|
+
},
|
2123
|
+
"thudm/glm-z1-32b:free": {
|
2124
|
+
"description": "GLM-Z1-32B-0414 là biến thể suy luận nâng cao của GLM-4-32B, được xây dựng cho việc giải quyết các vấn đề sâu về toán học, logic và lập trình. Nó áp dụng học tăng cường mở rộng (cụ thể cho nhiệm vụ và dựa trên sở thích cặp chung) để cải thiện hiệu suất cho các nhiệm vụ phức tạp nhiều bước. So với mô hình GLM-4-32B cơ bản, Z1 đã nâng cao đáng kể khả năng suy luận có cấu trúc và trong các lĩnh vực chính thức.\n\nMô hình này hỗ trợ thực hiện các bước 'suy nghĩ' thông qua kỹ thuật nhắc nhở và cung cấp tính liên kết cải thiện cho đầu ra định dạng dài. Nó được tối ưu hóa cho quy trình làm việc của đại lý và hỗ trợ ngữ cảnh dài (thông qua YaRN), gọi công cụ JSON và cấu hình lấy mẫu chi tiết cho suy luận ổn định. Rất phù hợp cho các trường hợp cần suy nghĩ sâu sắc, suy luận nhiều bước hoặc suy diễn chính thức."
|
2125
|
+
},
|
2084
2126
|
"thudm/glm-z1-9b:free": {
|
2085
2127
|
"description": "GLM-Z1-9B-0414 là mô hình ngôn ngữ 9B trong dòng GLM-4 được phát triển bởi THUDM. Nó áp dụng các kỹ thuật ban đầu được sử dụng cho mô hình GLM-Z1 lớn hơn, bao gồm học tăng cường mở rộng, căn chỉnh xếp hạng cặp và đào tạo cho các nhiệm vụ yêu cầu suy luận dày đặc như toán học, mã và logic. Mặc dù quy mô nhỏ hơn, nhưng nó thể hiện hiệu suất mạnh mẽ trong các nhiệm vụ suy luận tổng quát và vượt trội hơn nhiều mô hình mã nguồn mở ở cấp độ trọng số của nó."
|
2086
2128
|
},
|
@@ -29,9 +29,6 @@
|
|
29
29
|
"deepseek": {
|
30
30
|
"description": "DeepSeek là một công ty tập trung vào nghiên cứu và ứng dụng công nghệ trí tuệ nhân tạo, mô hình mới nhất của họ, DeepSeek-V2.5, kết hợp khả năng đối thoại chung và xử lý mã, đồng thời đạt được sự cải thiện đáng kể trong việc căn chỉnh sở thích của con người, nhiệm vụ viết và tuân theo chỉ dẫn."
|
31
31
|
},
|
32
|
-
"doubao": {
|
33
|
-
"description": "Mô hình lớn tự phát triển do ByteDance phát triển. Được xác thực qua hơn 50 tình huống kinh doanh nội bộ của ByteDance, với việc sử dụng hàng nghìn tỷ token mỗi ngày để liên tục cải tiến, cung cấp nhiều khả năng đa phương thức, tạo ra trải nghiệm kinh doanh phong phú cho doanh nghiệp với hiệu quả mô hình chất lượng cao."
|
34
|
-
},
|
35
32
|
"fireworksai": {
|
36
33
|
"description": "Fireworks AI là nhà cung cấp dịch vụ mô hình ngôn ngữ cao cấp hàng đầu, tập trung vào gọi chức năng và xử lý đa phương thức. Mô hình mới nhất của họ, Firefunction V2, dựa trên Llama-3, được tối ưu hóa cho gọi chức năng, đối thoại và tuân theo chỉ dẫn. Mô hình ngôn ngữ hình ảnh FireLLaVA-13B hỗ trợ đầu vào hỗn hợp hình ảnh và văn bản. Các mô hình đáng chú ý khác bao gồm dòng Llama và dòng Mixtral, cung cấp hỗ trợ cho việc tuân theo và tạo ra chỉ dẫn đa ngôn ngữ hiệu quả."
|
37
34
|
},
|