@lobehub/chat 1.92.2 → 1.93.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (94) hide show
  1. package/CHANGELOG.md +58 -0
  2. package/README.md +8 -8
  3. package/README.zh-CN.md +8 -8
  4. package/changelog/v1.json +21 -0
  5. package/docs/development/database-schema.dbml +51 -1
  6. package/locales/ar/modelProvider.json +4 -0
  7. package/locales/ar/models.json +64 -34
  8. package/locales/ar/providers.json +3 -0
  9. package/locales/bg-BG/modelProvider.json +4 -0
  10. package/locales/bg-BG/models.json +64 -34
  11. package/locales/bg-BG/providers.json +3 -0
  12. package/locales/de-DE/modelProvider.json +4 -0
  13. package/locales/de-DE/models.json +64 -34
  14. package/locales/de-DE/providers.json +3 -0
  15. package/locales/en-US/modelProvider.json +4 -0
  16. package/locales/en-US/models.json +64 -34
  17. package/locales/en-US/providers.json +3 -0
  18. package/locales/es-ES/modelProvider.json +4 -0
  19. package/locales/es-ES/models.json +64 -34
  20. package/locales/es-ES/providers.json +3 -0
  21. package/locales/fa-IR/modelProvider.json +4 -0
  22. package/locales/fa-IR/models.json +64 -34
  23. package/locales/fa-IR/providers.json +3 -0
  24. package/locales/fr-FR/modelProvider.json +4 -0
  25. package/locales/fr-FR/models.json +64 -34
  26. package/locales/fr-FR/providers.json +3 -0
  27. package/locales/it-IT/modelProvider.json +4 -0
  28. package/locales/it-IT/models.json +64 -34
  29. package/locales/it-IT/providers.json +3 -0
  30. package/locales/ja-JP/modelProvider.json +4 -0
  31. package/locales/ja-JP/models.json +64 -34
  32. package/locales/ja-JP/providers.json +3 -0
  33. package/locales/ko-KR/modelProvider.json +4 -0
  34. package/locales/ko-KR/models.json +64 -34
  35. package/locales/ko-KR/providers.json +3 -0
  36. package/locales/nl-NL/modelProvider.json +4 -0
  37. package/locales/nl-NL/models.json +64 -34
  38. package/locales/nl-NL/providers.json +3 -0
  39. package/locales/pl-PL/modelProvider.json +4 -0
  40. package/locales/pl-PL/models.json +64 -34
  41. package/locales/pl-PL/providers.json +3 -0
  42. package/locales/pt-BR/modelProvider.json +4 -0
  43. package/locales/pt-BR/models.json +64 -34
  44. package/locales/pt-BR/providers.json +3 -0
  45. package/locales/ru-RU/modelProvider.json +4 -0
  46. package/locales/ru-RU/models.json +63 -33
  47. package/locales/ru-RU/providers.json +3 -0
  48. package/locales/tr-TR/modelProvider.json +4 -0
  49. package/locales/tr-TR/models.json +64 -34
  50. package/locales/tr-TR/providers.json +3 -0
  51. package/locales/vi-VN/modelProvider.json +4 -0
  52. package/locales/vi-VN/models.json +64 -34
  53. package/locales/vi-VN/providers.json +3 -0
  54. package/locales/zh-CN/modelProvider.json +4 -0
  55. package/locales/zh-CN/models.json +59 -29
  56. package/locales/zh-CN/providers.json +3 -0
  57. package/locales/zh-TW/modelProvider.json +4 -0
  58. package/locales/zh-TW/models.json +64 -34
  59. package/locales/zh-TW/providers.json +3 -0
  60. package/package.json +2 -2
  61. package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +16 -0
  62. package/src/config/aiModels/openrouter.ts +44 -0
  63. package/src/config/modelProviders/openai.ts +3 -1
  64. package/src/database/client/migrations.json +25 -0
  65. package/src/database/migrations/0025_add_provider_config.sql +1 -0
  66. package/src/database/migrations/meta/0025_snapshot.json +5703 -0
  67. package/src/database/migrations/meta/_journal.json +7 -0
  68. package/src/database/models/__tests__/aiProvider.test.ts +2 -0
  69. package/src/database/models/aiProvider.ts +5 -2
  70. package/src/database/repositories/tableViewer/index.test.ts +1 -1
  71. package/src/database/schemas/_helpers.ts +5 -1
  72. package/src/database/schemas/aiInfra.ts +5 -1
  73. package/src/libs/model-runtime/openai/index.ts +21 -2
  74. package/src/libs/model-runtime/openrouter/index.ts +55 -43
  75. package/src/libs/model-runtime/types/chat.ts +6 -9
  76. package/src/libs/model-runtime/utils/openaiCompatibleFactory/index.ts +79 -5
  77. package/src/libs/model-runtime/utils/openaiHelpers.test.ts +145 -1
  78. package/src/libs/model-runtime/utils/openaiHelpers.ts +59 -0
  79. package/src/libs/model-runtime/utils/streams/openai/__snapshots__/responsesStream.test.ts.snap +193 -0
  80. package/src/libs/model-runtime/utils/streams/openai/index.ts +2 -0
  81. package/src/libs/model-runtime/utils/streams/{openai.test.ts → openai/openai.test.ts} +1 -1
  82. package/src/libs/model-runtime/utils/streams/{openai.ts → openai/openai.ts} +5 -5
  83. package/src/libs/model-runtime/utils/streams/openai/responsesStream.test.ts +826 -0
  84. package/src/libs/model-runtime/utils/streams/openai/responsesStream.ts +166 -0
  85. package/src/libs/model-runtime/utils/streams/protocol.ts +4 -1
  86. package/src/libs/model-runtime/utils/streams/utils.ts +20 -0
  87. package/src/libs/model-runtime/utils/usageConverter.ts +59 -0
  88. package/src/locales/default/modelProvider.ts +4 -0
  89. package/src/services/__tests__/chat.test.ts +27 -0
  90. package/src/services/chat.ts +8 -2
  91. package/src/services/file/ClientS3/index.test.ts +8 -8
  92. package/src/services/file/ClientS3/index.ts +2 -1
  93. package/src/store/aiInfra/slices/aiProvider/selectors.ts +11 -0
  94. package/src/types/aiProvider.ts +13 -1
@@ -230,6 +230,9 @@
230
230
  "Pro/deepseek-ai/DeepSeek-R1": {
231
231
  "description": "DeepSeek-R1 — это модель вывода, управляемая обучением с подкреплением (RL), которая решает проблемы повторяемости и читаемости в модели. Перед RL DeepSeek-R1 вводит данные холодного старта, что дополнительно оптимизирует производительность вывода. Она показывает сопоставимые результаты с OpenAI-o1 в математических, кодовых и задачах вывода и улучшает общую эффективность благодаря тщательно продуманным методам обучения."
232
232
  },
233
+ "Pro/deepseek-ai/DeepSeek-R1-0120": {
234
+ "description": "DeepSeek-R1 — модель рассуждений, управляемая обучением с подкреплением (RL), решающая проблемы повторяемости и читаемости в моделях. Перед RL DeepSeek-R1 использовал данные холодного старта для дальнейшей оптимизации производительности рассуждений. Модель показывает сопоставимые с OpenAI-o1 результаты в математике, программировании и задачах рассуждения, а также улучшает общую эффективность благодаря тщательно разработанным методам обучения."
235
+ },
233
236
  "Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
234
237
  "description": "DeepSeek-R1-Distill-Qwen-1.5B — это модель, полученная методом дистилляции знаний на основе Qwen2.5-Math-1.5B. Модель была дообучена на 800 тысячах тщательно отобранных образцов, сгенерированных DeepSeek-R1, и демонстрирует хорошую производительность в различных тестах. Будучи компактной моделью, она достигает точности 83,9% на MATH-500, уровня прохождения 28,9% на AIME 2024 и оценки 954 на CodeForces, что свидетельствует о её способностях к логическому выводу, превосходящих ожидания для её размера."
235
238
  },
@@ -422,8 +425,8 @@
422
425
  "THUDM/glm-4-9b-chat": {
423
426
  "description": "GLM-4 9B — это открытая версия, обеспечивающая оптимизированный диалоговый опыт для приложений."
424
427
  },
425
- "Vendor-A/Qwen/Qwen2.5-72B-Instruct": {
426
- "description": "Qwen2.5-72B-Instructэто одна из последних языковых моделей, выпущенных Alibaba Cloud. Эта 72B модель значительно улучшила способности в области кодирования и математики. Модель также поддерживает множество языков, охватывающих более 29 языков, включая китайский и английский. Она значительно улучшила выполнение инструкций, понимание структурированных данных и генерацию структурированных выходных данных (особенно JSON)."
428
+ "Tongyi-Zhiwen/QwenLong-L1-32B": {
429
+ "description": "QwenLong-L1-32Bпервая крупномасштабная модель рассуждений с длинным контекстом (LRM), обученная с использованием обучения с подкреплением, оптимизированная для задач рассуждений с длинным текстом. Модель реализует стабильный переход от короткого к длинному контексту через прогрессивное расширение контекста в рамках обучения с подкреплением. В семи бенчмарках по вопросам с длинным контекстом QwenLong-L1-32B превзошла флагманские модели OpenAI-o3-mini и Qwen3-235B-A22B, демонстрируя производительность, сопоставимую с Claude-3.7-Sonnet-Thinking. Особенно хорошо справляется со сложными задачами математического, логического и многошагового рассуждения."
427
430
  },
428
431
  "Yi-34B-Chat": {
429
432
  "description": "Yi-1.5-34B, сохраняя выдающиеся универсальные языковые способности оригинальной серии моделей, значительно улучшила математическую логику и способности к кодированию благодаря инкрементальному обучению на 500 миллиардов высококачественных токенов."
@@ -734,6 +737,12 @@
734
737
  "deepseek-ai/DeepSeek-R1": {
735
738
  "description": "DeepSeek-R1 — это модель вывода, управляемая методом обучения с подкреплением (RL), которая решает проблемы повторяемости и читаемости модели. Перед применением RL DeepSeek-R1 вводит данные холодного старта, что дополнительно оптимизирует производительность вывода. Она показывает сопоставимые результаты с OpenAI-o1 в математических, кодовых и задачах вывода, а также улучшает общую эффективность благодаря тщательно разработанным методам обучения."
736
739
  },
740
+ "deepseek-ai/DeepSeek-R1-0528": {
741
+ "description": "DeepSeek R1 значительно улучшил глубину рассуждений и выводов, используя увеличенные вычислительные ресурсы и алгоритмические оптимизации в процессе дообучения. Модель демонстрирует отличные результаты в различных бенчмарках, включая математику, программирование и общую логику. Общая производительность теперь близка к ведущим моделям, таким как O3 и Gemini 2.5 Pro."
742
+ },
743
+ "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B": {
744
+ "description": "DeepSeek-R1-0528-Qwen3-8B — модель, полученная путем дистилляции цепочек рассуждений из DeepSeek-R1-0528 в Qwen3 8B Base. Эта модель достигла передовых результатов (SOTA) среди открытых моделей, превзойдя Qwen3 8B на 10% в тесте AIME 2024 и достигнув уровня производительности Qwen3-235B-thinking. Модель демонстрирует отличные результаты в математическом рассуждении, программировании и общей логике, имеет архитектуру, аналогичную Qwen3-8B, но использует токенизатор DeepSeek-R1-0528."
745
+ },
737
746
  "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
738
747
  "description": "Модель DeepSeek-R1, дистиллированная с помощью усиленного обучения и данных холодного старта, оптимизирует производительность вывода, обновляя стандарт многозадачности в открытых моделях."
739
748
  },
@@ -836,9 +845,6 @@
836
845
  "deepseek-v3-0324": {
837
846
  "description": "DeepSeek-V3-0324 — это модель MoE с 671 миллиардами параметров, обладающая выдающимися способностями в программировании и технических навыках, понимании контекста и обработке длинных текстов."
838
847
  },
839
- "deepseek/deepseek-chat": {
840
- "description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше соответствует человеческим предпочтениям. Кроме того, DeepSeek-V2.5 значительно улучшила свои результаты в задачах написания, следования инструкциям и других областях."
841
- },
842
848
  "deepseek/deepseek-chat-v3-0324": {
843
849
  "description": "DeepSeek V3 — это экспертная смешанная модель с 685B параметрами, являющаяся последней итерацией флагманской серии чат-моделей команды DeepSeek.\n\nОна унаследовала модель [DeepSeek V3](/deepseek/deepseek-chat-v3) и демонстрирует отличные результаты в различных задачах."
844
850
  },
@@ -848,6 +854,12 @@
848
854
  "deepseek/deepseek-r1": {
849
855
  "description": "DeepSeek-R1 значительно улучшила способности модели к рассуждению при наличии лишь очень ограниченных размеченных данных. Перед тем как предоставить окончательный ответ, модель сначала выводит цепочку размышлений, чтобы повысить точность окончательного ответа."
850
856
  },
857
+ "deepseek/deepseek-r1-0528": {
858
+ "description": "DeepSeek-R1 значительно улучшил способность модели к рассуждению при минимальном количестве размеченных данных. Перед выводом окончательного ответа модель сначала генерирует цепочку рассуждений для повышения точности ответа."
859
+ },
860
+ "deepseek/deepseek-r1-0528:free": {
861
+ "description": "DeepSeek-R1 значительно улучшил способность модели к рассуждению при минимальном количестве размеченных данных. Перед выводом окончательного ответа модель сначала генерирует цепочку рассуждений для повышения точности ответа."
862
+ },
851
863
  "deepseek/deepseek-r1-distill-llama-70b": {
852
864
  "description": "DeepSeek R1 Distill Llama 70B — это крупная языковая модель на основе Llama3.3 70B, которая использует доработку, полученную от DeepSeek R1, для достижения конкурентоспособной производительности, сопоставимой с крупными передовыми моделями."
853
865
  },
@@ -1262,6 +1274,9 @@
1262
1274
  "gpt-4o-mini-realtime-preview": {
1263
1275
  "description": "Реальная версия GPT-4o-mini, поддерживающая аудио и текстовый ввод и вывод в реальном времени."
1264
1276
  },
1277
+ "gpt-4o-mini-search-preview": {
1278
+ "description": "GPT-4o mini — предварительная версия модели для поиска, специально обученная для понимания и выполнения запросов веб-поиска, использующая Chat Completions API. Помимо платы за токены, за каждый вызов инструмента веб-поиска взимается отдельная плата."
1279
+ },
1265
1280
  "gpt-4o-mini-tts": {
1266
1281
  "description": "GPT-4o mini TTS — это модель преобразования текста в речь, основанная на GPT-4o mini, обеспечивающая высокое качество синтеза речи при низкой стоимости."
1267
1282
  },
@@ -1274,6 +1289,9 @@
1274
1289
  "gpt-4o-realtime-preview-2024-12-17": {
1275
1290
  "description": "Реальная версия GPT-4o, поддерживающая аудио и текстовый ввод и вывод в реальном времени."
1276
1291
  },
1292
+ "gpt-4o-search-preview": {
1293
+ "description": "GPT-4o — предварительная версия модели для поиска, специально обученная для понимания и выполнения запросов веб-поиска, использующая Chat Completions API. Помимо платы за токены, за каждый вызов инструмента веб-поиска взимается отдельная плата."
1294
+ },
1277
1295
  "grok-2-1212": {
1278
1296
  "description": "Модель улучшена в точности, соблюдении инструкций и многоязычных возможностях."
1279
1297
  },
@@ -1307,6 +1325,9 @@
1307
1325
  "hunyuan-large-longcontext": {
1308
1326
  "description": "Специализируется на обработке длинных текстовых задач, таких как резюме документов и вопросы и ответы по документам, а также обладает способностью обрабатывать общие задачи генерации текста. Отлично справляется с анализом и генерацией длинных текстов, эффективно справляясь с требованиями к обработке сложного и детального длинного контента."
1309
1327
  },
1328
+ "hunyuan-large-vision": {
1329
+ "description": "Эта модель предназначена для задач понимания изображений и текста, основана на смешанной модели Hunyuan Large, поддерживает ввод нескольких изображений с произвольным разрешением и текстом, генерирует текстовый контент, сосредоточена на задачах понимания изображений и текста, с заметным улучшением многоязычных возможностей."
1330
+ },
1310
1331
  "hunyuan-lite": {
1311
1332
  "description": "Обновленная версия с MOE-структурой, контекстное окно составляет 256k, она опережает множество открытых моделей в оценках по NLP, коду, математике и другим областям."
1312
1333
  },
@@ -1331,18 +1352,15 @@
1331
1352
  "hunyuan-t1-20250321": {
1332
1353
  "description": "Полноценная модель, обладающая как гуманитарными, так и естественнонаучными способностями, с высокой способностью к захвату длинной текстовой информации. Поддерживает рассуждения и ответы на научные вопросы различной сложности, включая математику, логические задачи, науки и код."
1333
1354
  },
1355
+ "hunyuan-t1-20250403": {
1356
+ "description": "Повышение возможностей генерации кода на уровне проекта; улучшение качества текстового творчества; улучшение многоходового понимания тем, соблюдения инструкций toB и понимания слов; оптимизация проблем с выводом смешанных упрощённых и традиционных иероглифов, а также смешанных китайско-английских текстов."
1357
+ },
1334
1358
  "hunyuan-t1-latest": {
1335
1359
  "description": "Первый в отрасли сверхмасштабный гибридный трансформер-Mamba для вывода, расширяющий возможности вывода, обладающий высокой скоростью декодирования и лучше соответствующий человеческим предпочтениям."
1336
1360
  },
1337
1361
  "hunyuan-t1-vision": {
1338
1362
  "description": "Глубокая мультимодальная модель понимания Hunyuan с нативной цепочкой размышлений для мультимодальных данных, отлично справляется с различными задачами рассуждения на изображениях, значительно превосходя модели быстрого мышления в решении научных задач."
1339
1363
  },
1340
- "hunyuan-translation": {
1341
- "description": "Поддерживает взаимный перевод на 15 языков, включая китайский, английский, японский, французский, португальский, испанский, турецкий, русский, арабский, корейский, итальянский, немецкий, вьетнамский, малайский и индонезийский, с автоматической оценкой на основе набора тестов для многофункционального перевода COMET, в целом превосходя модели аналогичного масштаба на рынке по способности к взаимному переводу среди более чем десяти распространенных языков."
1342
- },
1343
- "hunyuan-translation-lite": {
1344
- "description": "Модель перевода Хуньюань поддерживает перевод в формате естественного языкового диалога; поддерживает взаимный перевод на 15 языков, включая китайский, английский, японский, французский, португальский, испанский, турецкий, русский, арабский, корейский, итальянский, немецкий, вьетнамский, малайский и индонезийский."
1345
- },
1346
1364
  "hunyuan-turbo": {
1347
1365
  "description": "Предварительная версия нового поколения языковой модели Hunyuan, использующая совершенно новую структуру смешанной экспертной модели (MoE), которая обеспечивает более быструю эффективность вывода и более сильные результаты по сравнению с hunyuan-pro."
1348
1366
  },
@@ -1355,8 +1373,11 @@
1355
1373
  "hunyuan-turbo-vision": {
1356
1374
  "description": "Флагманская модель нового поколения Hunyuan в области визуального языка, использующая совершенно новую структуру смешанной экспертной модели (MoE), с полным улучшением способностей в области базового распознавания, создания контента, вопросов и ответов на знания, анализа и вывода по сравнению с предыдущей моделью."
1357
1375
  },
1358
- "hunyuan-turbos-20250226": {
1359
- "description": "hunyuan-TurboS pv2.1.2 фиксированная версия, в которой обновлены токены предобученной базы; улучшены аналитические способности в математике/логике/кодировании; улучшен общий опыт на китайском и английском языках, включая текстовое творчество, понимание текста, вопросы и ответы, беседы и т.д."
1376
+ "hunyuan-turbos-20250313": {
1377
+ "description": "Унификация стиля решения математических задач, усиление многоходовых математических вопросов и ответов. Оптимизация стиля ответов в текстовом творчестве, устранение искусственного оттенка, добавление выразительности."
1378
+ },
1379
+ "hunyuan-turbos-20250416": {
1380
+ "description": "Обновление предобученной базы, усиление способности базы к пониманию и соблюдению инструкций; улучшение математических, программных, логических и научных навыков на этапе согласования; повышение качества творческого письма, понимания текста, точности перевода и знаний в гуманитарных областях; усиление возможностей агентов в различных сферах, с особым акцентом на понимание многоходовых диалогов."
1360
1381
  },
1361
1382
  "hunyuan-turbos-latest": {
1362
1383
  "description": "hunyuan-TurboS — это последняя версия флагманской модели Hunyuan, обладающая более сильными аналитическими способностями и улучшенным качеством работы."
@@ -1364,8 +1385,8 @@
1364
1385
  "hunyuan-turbos-longtext-128k-20250325": {
1365
1386
  "description": "Специализируется на обработке длинных текстов, таких как резюме документов и вопросы по документам, а также обладает способностью обрабатывать общие задачи генерации текста. Она демонстрирует выдающиеся результаты в анализе и генерации длинных текстов, эффективно справляясь с требованиями к сложной и детализированной обработке длинных текстов."
1366
1387
  },
1367
- "hunyuan-turbos-vision": {
1368
- "description": "Эта модель подходит для сцен понимания изображений и текста, является новым поколением флагманской модели визуального языка на основе последних turbos Hunyuan, сосредоточена на задачах понимания изображений и текста, включая распознавание объектов на изображениях, вопросы и ответы на основе знаний, создание текстов и решение задач по фотографиям, с полным улучшением по сравнению с предыдущим поколением моделей."
1388
+ "hunyuan-turbos-role-plus": {
1389
+ "description": "Последняя версия модели ролевых игр Hunyuan, официально дообученная модель, основанная на Hunyuan и дополненная данными для ролевых сценариев, обеспечивающая лучшие базовые результаты в ролевых играх."
1369
1390
  },
1370
1391
  "hunyuan-vision": {
1371
1392
  "description": "Последняя многомодальная модель Hunyuan, поддерживающая ввод изображений и текста для генерации текстового контента."
@@ -1886,10 +1907,13 @@
1886
1907
  "qvq-72b-preview": {
1887
1908
  "description": "Модель QVQ, разработанная командой Qwen, является экспериментальной исследовательской моделью, сосредоточенной на повышении визуальных способностей рассуждения, особенно в области математического рассуждения."
1888
1909
  },
1889
- "qvq-max-latest": {
1890
- "description": "Модель визуального рассуждения QVQ, поддерживающая визуальный ввод и вывод цепочки размышлений, демонстрирует более высокие способности в математике, программировании, визуальном анализе, творчестве и общих задачах."
1910
+ "qvq-max": {
1911
+ "description": "Модель визуального рассуждения Tongyi Qianwen QVQ, поддерживающая визуальный ввод и вывод цепочек рассуждений, демонстрирует усиленные возможности в математике, программировании, визуальном анализе, творчестве и общих задачах."
1912
+ },
1913
+ "qwen-coder-plus": {
1914
+ "description": "Модель кода Tongyi Qianwen."
1891
1915
  },
1892
- "qwen-coder-plus-latest": {
1916
+ "qwen-coder-turbo": {
1893
1917
  "description": "Модель кода Tongyi Qianwen."
1894
1918
  },
1895
1919
  "qwen-coder-turbo-latest": {
@@ -1898,41 +1922,44 @@
1898
1922
  "qwen-long": {
1899
1923
  "description": "Qwen — это сверхмасштабная языковая модель, поддерживающая длинный контекст текста и диалоговые функции на основе длинных документов и нескольких документов."
1900
1924
  },
1925
+ "qwen-math-plus": {
1926
+ "description": "Модель Tongyi Qianwen, специально предназначенная для решения математических задач."
1927
+ },
1901
1928
  "qwen-math-plus-latest": {
1902
1929
  "description": "Математическая модель Tongyi Qwen, специально разработанная для решения математических задач."
1903
1930
  },
1931
+ "qwen-math-turbo": {
1932
+ "description": "Модель Tongyi Qianwen, специально предназначенная для решения математических задач."
1933
+ },
1904
1934
  "qwen-math-turbo-latest": {
1905
1935
  "description": "Математическая модель Tongyi Qwen, специально разработанная для решения математических задач."
1906
1936
  },
1907
1937
  "qwen-max": {
1908
1938
  "description": "Qwen-Max — это языковая модель масштаба триллиона, поддерживающая входные данные на различных языках, включая китайский и английский. В настоящее время это API, которое стоит за продуктовой версией Qwen 2.5."
1909
1939
  },
1910
- "qwen-max-latest": {
1911
- "description": "Модель языка Tongyi Qwen с уровнем масштабирования в триллионы, поддерживающая ввод на различных языках, включая китайский и английский, является API моделью, лежащей в основе продукта Tongyi Qwen 2.5."
1912
- },
1913
- "qwen-omni-turbo-latest": {
1914
- "description": "Модели серии Qwen-Omni поддерживают ввод данных в различных модальностях, включая видео, аудио, изображения и текст, и могут выводить аудио и текст."
1940
+ "qwen-omni-turbo": {
1941
+ "description": "Серия моделей Qwen-Omni поддерживает ввод данных различных модальностей, включая видео, аудио, изображения и текст, а также вывод аудио и текста."
1915
1942
  },
1916
1943
  "qwen-plus": {
1917
1944
  "description": "Улучшенная версия Qwen-Turbo, поддерживающая входные данные на разных языках, включая китайский и английский."
1918
1945
  },
1919
- "qwen-plus-latest": {
1920
- "description": "Улучшенная версия модели языка Tongyi Qwen, поддерживающая ввод на различных языках, включая китайский и английский."
1921
- },
1922
1946
  "qwen-turbo": {
1923
1947
  "description": "Qwen-Turbo — это крупная языковая модель, поддерживающая входные данные на разных языках, включая китайский и английский."
1924
1948
  },
1925
- "qwen-turbo-latest": {
1926
- "description": "Модель языка Tongyi Qwen, поддерживающая ввод на различных языках, включая китайский и английский."
1927
- },
1928
1949
  "qwen-vl-chat-v1": {
1929
1950
  "description": "Qwen VL поддерживает гибкие способы взаимодействия, включая многократные изображения, многократные вопросы и ответы, а также творческие способности."
1930
1951
  },
1952
+ "qwen-vl-max": {
1953
+ "description": "Сверхмасштабная визуально-языковая модель Tongyi Qianwen. По сравнению с усиленной версией дополнительно улучшены способности визуального рассуждения и соблюдения инструкций, обеспечивается более высокий уровень визуального восприятия и когнитивных функций."
1954
+ },
1931
1955
  "qwen-vl-max-latest": {
1932
1956
  "description": "Супер масштабная визуально-языковая модель Tongyi Qianwen. По сравнению с улучшенной версией, еще больше повышает способности визуального вывода и соблюдения инструкций, обеспечивая более высокий уровень визуального восприятия и когнитивных способностей."
1933
1957
  },
1934
- "qwen-vl-ocr-latest": {
1935
- "description": "OCR Qwen — это специализированная модель для извлечения текста, сосредоточенная на способности извлекать текст из изображений различных типов, таких как документы, таблицы, тесты и рукописный текст. Она может распознавать множество языков, включая: китайский, английский, французский, японский, корейский, немецкий, русский, итальянский, вьетнамский и арабский."
1958
+ "qwen-vl-ocr": {
1959
+ "description": "Специализированная модель OCR Tongyi Qianwen, ориентированная на извлечение текста из документов, таблиц, тестов, рукописного текста и других типов изображений. Поддерживает распознавание множества языков, включая китайский, английский, французский, японский, корейский, немецкий, русский, итальянский, вьетнамский и арабский."
1960
+ },
1961
+ "qwen-vl-plus": {
1962
+ "description": "Усиленная версия масштабной визуально-языковой модели Tongyi Qianwen. Значительно улучшена способность распознавания деталей и текста, поддерживается разрешение свыше миллиона пикселей и изображения с произвольным соотношением сторон."
1936
1963
  },
1937
1964
  "qwen-vl-plus-latest": {
1938
1965
  "description": "Улучшенная версия масштабной визуально-языковой модели Tongyi Qianwen. Значительно повышает способность распознавания деталей и текста, поддерживает разрешение более миллиона пикселей и изображения с произвольным соотношением сторон."
@@ -2021,6 +2048,9 @@
2021
2048
  "qwen2.5-coder-1.5b-instruct": {
2022
2049
  "description": "Открытая версия модели кода Qwen."
2023
2050
  },
2051
+ "qwen2.5-coder-14b-instruct": {
2052
+ "description": "Открытая версия модели кода Tongyi Qianwen."
2053
+ },
2024
2054
  "qwen2.5-coder-32b-instruct": {
2025
2055
  "description": "Открытая версия модели кода Tongyi Qianwen."
2026
2056
  },
@@ -2111,8 +2141,8 @@
2111
2141
  "qwq-32b-preview": {
2112
2142
  "description": "Модель QwQ — это экспериментальная исследовательская модель, разработанная командой Qwen, сосредоточенная на улучшении возможностей вывода ИИ."
2113
2143
  },
2114
- "qwq-plus-latest": {
2115
- "description": "Модель вывода QwQ, обученная на модели Qwen2.5, значительно улучшила свои способности вывода благодаря обучению с подкреплением. Основные показатели модели, такие как математический код и другие ключевые метрики (AIME 24/25, LiveCodeBench), а также некоторые общие показатели (IFEval, LiveBench и др.) достигли уровня DeepSeek-R1 в полной мере."
2144
+ "qwq-plus": {
2145
+ "description": "Модель рассуждений QwQ, обученная на базе Qwen2.5, значительно улучшила способности к рассуждению с помощью обучения с подкреплением. Ключевые показатели модели по математике и коду (AIME 24/25, LiveCodeBench), а также некоторые общие показатели (IFEval, LiveBench и др.) достигли уровня полной версии DeepSeek-R1."
2116
2146
  },
2117
2147
  "qwq_32b": {
2118
2148
  "description": "Модель вывода среднего размера из серии Qwen. В отличие от традиционных моделей, оптимизированных для инструкций, QwQ, обладая способностями к размышлению и выводу, может значительно повысить производительность в задачах, особенно при решении сложных задач."
@@ -71,6 +71,9 @@
71
71
  "mistral": {
72
72
  "description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели, широко применяемые в сложном выводе, многоязычных задачах, генерации кода и других областях. Через интерфейсы вызова функций пользователи могут интегрировать пользовательские функции для реализации конкретных приложений."
73
73
  },
74
+ "modelscope": {
75
+ "description": "ModelScope — это платформа моделей как услуги, запущенная Alibaba Cloud, предоставляющая широкий спектр AI-моделей и сервисов вывода."
76
+ },
74
77
  "moonshot": {
75
78
  "description": "Moonshot — это открытая платформа, запущенная Beijing Dark Side Technology Co., Ltd., предлагающая различные модели обработки естественного языка, охватывающие широкий спектр областей применения, включая, но не ограничиваясь, создание контента, академические исследования, интеллектуальные рекомендации, медицинскую диагностику и т. д., поддерживающая обработку длинных текстов и сложные задачи генерации."
76
79
  },
@@ -208,6 +208,10 @@
208
208
  "title": "İstemci İstek Modunu Kullan"
209
209
  },
210
210
  "helpDoc": "Yapılandırma Kılavuzu",
211
+ "responsesApi": {
212
+ "desc": "OpenAI'nin yeni nesil istek formatı standardını kullanarak düşünce zinciri gibi gelişmiş özelliklerin kilidini açın",
213
+ "title": "Responses API Standardını Kullan"
214
+ },
211
215
  "waitingForMore": "Daha fazla model <1>planlanıyor</1>, lütfen bekleyin"
212
216
  },
213
217
  "createNew": {
@@ -230,6 +230,9 @@
230
230
  "Pro/deepseek-ai/DeepSeek-R1": {
231
231
  "description": "DeepSeek-R1, modeldeki tekrarlılık ve okunabilirlik sorunlarını çözen bir güçlendirilmiş öğrenme (RL) destekli çıkarım modelidir. RL'den önce, DeepSeek-R1 soğuk başlangıç verileri tanıtarak çıkarım performansını daha da optimize etmiştir. Matematik, kod ve çıkarım görevlerinde OpenAI-o1 ile benzer performans göstermektedir ve özenle tasarlanmış eğitim yöntemleri ile genel etkisini artırmıştır."
232
232
  },
233
+ "Pro/deepseek-ai/DeepSeek-R1-0120": {
234
+ "description": "DeepSeek-R1, pekiştirmeli öğrenme (RL) destekli bir akıl yürütme modelidir ve modeldeki tekrar ve okunabilirlik sorunlarını çözer. RL öncesinde soğuk başlangıç verisi kullanarak akıl yürütme performansını daha da optimize etmiştir. Matematik, kodlama ve akıl yürütme görevlerinde OpenAI-o1 ile benzer performans gösterir ve özenle tasarlanmış eğitim yöntemleriyle genel performansı artırır."
235
+ },
233
236
  "Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
234
237
  "description": "DeepSeek-R1-Distill-Qwen-1.5B, Qwen2.5-Math-1.5B temel alınarak bilgi damıtma yöntemiyle geliştirilmiş bir modeldir. Bu model, DeepSeek-R1 tarafından oluşturulan 800 bin seçkin örnekle ince ayar yapılmış olup, çeşitli kıyaslama testlerinde etkileyici performans sergilemektedir. Hafif bir model olmasına rağmen, MATH-500'de %83.9 doğruluk, AIME 2024'te %28.9 geçme oranı ve CodeForces'ta 954 puan elde ederek, parametre boyutunun ötesinde bir akıl yürütme yeteneği göstermiştir."
235
238
  },
@@ -422,8 +425,8 @@
422
425
  "THUDM/glm-4-9b-chat": {
423
426
  "description": "GLM-4 9B açık kaynak versiyonu, diyalog uygulamaları için optimize edilmiş bir diyalog deneyimi sunar."
424
427
  },
425
- "Vendor-A/Qwen/Qwen2.5-72B-Instruct": {
426
- "description": "Qwen2.5-72B-Instruct, Alibaba Cloud tarafından yayınlanan en son büyük dil modeli serilerinden biridir. Bu 72B modeli, kodlama ve matematik gibi alanlarda önemli ölçüde geliştirilmiş yeteneklere sahiptir. Model ayrıca, Çince, İngilizce gibi 29'dan fazla dili kapsayan çok dilli destek sunmaktadır. Model, talimat takibi, yapılandırılmış verileri anlama ve yapılandırılmış çıktı (özellikle JSON) üretme konularında önemli iyileştirmeler göstermektedir."
428
+ "Tongyi-Zhiwen/QwenLong-L1-32B": {
429
+ "description": "QwenLong-L1-32B, uzun bağlamlı büyük ölçekli akıl yürütme modeli (LRM) olup, pekiştirmeli öğrenme ile eğitilen ilk modeldir ve uzun metin akıl yürütme görevlerine optimize edilmiştir. Model, kademeli bağlam genişletme pekiştirmeli öğrenme çerçevesiyle kısa bağlamdan uzun bağlama stabil geçiş sağlar. Yedi uzun bağlamlı belge soru-cevap kıyaslama testinde, QwenLong-L1-32B OpenAI-o3-mini ve Qwen3-235B-A22B gibi amiral gemisi modelleri geride bırakmış ve Claude-3.7-Sonnet-Thinking ile karşılaştırılabilir performans göstermiştir. Model özellikle matematiksel akıl yürütme, mantıksal akıl yürütme ve çok adımlı akıl yürütme gibi karmaşık görevlerde uzmandır."
427
430
  },
428
431
  "Yi-34B-Chat": {
429
432
  "description": "Yi-1.5-34B, orijinal model serisinin mükemmel genel dil yeteneklerini korurken, 500 milyar yüksek kaliteli token ile artımlı eğitim sayesinde matematiksel mantık ve kodlama yeteneklerini büyük ölçüde artırmıştır."
@@ -734,6 +737,12 @@
734
737
  "deepseek-ai/DeepSeek-R1": {
735
738
  "description": "DeepSeek-R1, tekrarlayan öğrenme (RL) destekli bir çıkarım modelidir ve modeldeki tekrarlama ve okunabilirlik sorunlarını çözmektedir. RL'den önce, DeepSeek-R1 soğuk başlangıç verilerini tanıtarak çıkarım performansını daha da optimize etmiştir. Matematik, kod ve çıkarım görevlerinde OpenAI-o1 ile benzer bir performans sergilemekte ve özenle tasarlanmış eğitim yöntemleri ile genel etkisini artırmaktadır."
736
739
  },
740
+ "deepseek-ai/DeepSeek-R1-0528": {
741
+ "description": "DeepSeek R1, artırılmış hesaplama kaynakları ve son eğitim sürecinde algoritma optimizasyon mekanizmalarının entegrasyonu sayesinde çıkarım ve akıl yürütme derinliğini önemli ölçüde artırmıştır. Model, matematik, programlama ve genel mantık alanlarında çeşitli kıyaslama testlerinde üstün performans göstermektedir. Genel performansı, O3 ve Gemini 2.5 Pro gibi lider modellerle yakındır."
742
+ },
743
+ "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B": {
744
+ "description": "DeepSeek-R1-0528-Qwen3-8B, DeepSeek-R1-0528 modelinden düşünce zinciri distilasyonu yoluyla Qwen3 8B Base modeline elde edilen bir modeldir. Açık kaynak modeller arasında en ileri (SOTA) performansa sahiptir, AIME 2024 testinde Qwen3 8B'yi %10 aşmış ve Qwen3-235B-thinking performans seviyesine ulaşmıştır. Model matematiksel akıl yürütme, programlama ve genel mantık gibi çeşitli kıyaslama testlerinde üstün performans gösterir; mimarisi Qwen3-8B ile aynıdır ancak DeepSeek-R1-0528'in tokenizer konfigürasyonunu paylaşır."
745
+ },
737
746
  "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
738
747
  "description": "DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
739
748
  },
@@ -836,9 +845,6 @@
836
845
  "deepseek-v3-0324": {
837
846
  "description": "DeepSeek-V3-0324, 671B parametreye sahip bir MoE modelidir ve programlama ile teknik yetenekler, bağlam anlama ve uzun metin işleme gibi alanlarda belirgin avantajlar sunar."
838
847
  },
839
- "deepseek/deepseek-chat": {
840
- "description": "Genel ve kod yeteneklerini birleştiren yeni açık kaynak model, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleriyle daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazma görevleri, talimat takibi gibi birçok alanda da büyük iyileştirmeler sağlamıştır."
841
- },
842
848
  "deepseek/deepseek-chat-v3-0324": {
843
849
  "description": "DeepSeek V3, 685B parametreye sahip bir uzman karışık modeldir ve DeepSeek ekibinin amiral gemisi sohbet modeli serisinin en son iterasyonudur.\n\nÇeşitli görevlerde mükemmel performans sergileyen [DeepSeek V3](/deepseek/deepseek-chat-v3) modelini devralmıştır."
844
850
  },
@@ -848,6 +854,12 @@
848
854
  "deepseek/deepseek-r1": {
849
855
  "description": "DeepSeek-R1, yalnızca çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai yanıtın doğruluğunu artırır."
850
856
  },
857
+ "deepseek/deepseek-r1-0528": {
858
+ "description": "DeepSeek-R1, çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Nihai yanıtı vermeden önce, model doğruluğu artırmak için bir düşünce zinciri çıktısı üretir."
859
+ },
860
+ "deepseek/deepseek-r1-0528:free": {
861
+ "description": "DeepSeek-R1, çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Nihai yanıtı vermeden önce, model doğruluğu artırmak için bir düşünce zinciri çıktısı üretir."
862
+ },
851
863
  "deepseek/deepseek-r1-distill-llama-70b": {
852
864
  "description": "DeepSeek R1 Distill Llama 70B, Llama3.3 70B tabanlı büyük bir dil modelidir ve DeepSeek R1'in çıktısını kullanarak ince ayar yaparak büyük öncü modellerle rekabet edebilecek bir performans elde etmiştir."
853
865
  },
@@ -1262,6 +1274,9 @@
1262
1274
  "gpt-4o-mini-realtime-preview": {
1263
1275
  "description": "GPT-4o-mini gerçek zamanlı versiyonu, ses ve metin için gerçek zamanlı giriş ve çıkış desteği sunar."
1264
1276
  },
1277
+ "gpt-4o-mini-search-preview": {
1278
+ "description": "GPT-4o mini arama önizleme sürümü, web arama sorgularını anlama ve yürütme için özel olarak eğitilmiş bir modeldir ve Chat Completions API kullanır. Jeton ücretlerinin yanı sıra, web arama sorguları her araç çağrısı başına ücretlendirilir."
1279
+ },
1265
1280
  "gpt-4o-mini-tts": {
1266
1281
  "description": "GPT-4o mini TTS, GPT-4o mini'ye dayalı bir metin-ses modeldir ve yüksek kaliteli ses üretimi, düşük maliyetli oluşturma sunar."
1267
1282
  },
@@ -1274,6 +1289,9 @@
1274
1289
  "gpt-4o-realtime-preview-2024-12-17": {
1275
1290
  "description": "GPT-4o gerçek zamanlı versiyonu, ses ve metin için gerçek zamanlı giriş ve çıkış desteği sunar."
1276
1291
  },
1292
+ "gpt-4o-search-preview": {
1293
+ "description": "GPT-4o arama önizleme sürümü, web arama sorgularını anlama ve yürütme için özel olarak eğitilmiş bir modeldir ve Chat Completions API kullanır. Jeton ücretlerinin yanı sıra, web arama sorguları her araç çağrısı başına ücretlendirilir."
1294
+ },
1277
1295
  "grok-2-1212": {
1278
1296
  "description": "Bu model, doğruluk, talimat takibi ve çok dilli yetenekler açısından geliştirilmiştir."
1279
1297
  },
@@ -1307,6 +1325,9 @@
1307
1325
  "hunyuan-large-longcontext": {
1308
1326
  "description": "Uzun metin görevlerini, örneğin belge özeti ve belge sorgulama gibi, işleme konusunda uzmandır; aynı zamanda genel metin oluşturma görevlerini de yerine getirme yeteneğine sahiptir. Uzun metinlerin analizi ve oluşturulmasında mükemmel bir performans sergiler, karmaşık ve ayrıntılı uzun metin içerik işleme ihtiyaçlarına etkili bir şekilde yanıt verebilir."
1309
1327
  },
1328
+ "hunyuan-large-vision": {
1329
+ "description": "Bu model, görsel ve metin anlama senaryoları için uygundur. Hunyuan Large tabanlı görsel-dil büyük modelidir, herhangi bir çözünürlükte çoklu resim ve metin girişini destekler, metin üretir, görsel-metinsel anlama görevlerine odaklanır ve çok dilli görsel-metinsel anlama yeteneğinde belirgin gelişme sağlar."
1330
+ },
1310
1331
  "hunyuan-lite": {
1311
1332
  "description": "MOE yapısına yükseltilmiş, bağlam penceresi 256k, NLP, kod, matematik, endüstri gibi birçok değerlendirme setinde birçok açık kaynak modelden önde."
1312
1333
  },
@@ -1331,18 +1352,15 @@
1331
1352
  "hunyuan-t1-20250321": {
1332
1353
  "description": "Modelin hem fen hem de sosyal bilimler alanındaki yeteneklerini kapsamlı bir şekilde inşa eder, uzun metin bilgilerini yakalama yeteneği yüksektir. Her türlü zorluktaki matematik/ mantık çıkarımı/ bilim/ kod gibi bilimsel sorunları çözme yeteneğini destekler."
1333
1354
  },
1355
+ "hunyuan-t1-20250403": {
1356
+ "description": "Proje düzeyinde kod üretme yeteneğini artırır; metin oluşturma ve yazma kalitesini yükseltir; metin anlama, çok turlu konu takibi, toB komut uyumu ve kelime-anlama yeteneklerini geliştirir; karmaşık geleneksel ve basitleştirilmiş Çince ile İngilizce karışık çıktı sorunlarını optimize eder."
1357
+ },
1334
1358
  "hunyuan-t1-latest": {
1335
1359
  "description": "Sektördeki ilk ultra büyük ölçekli Hybrid-Transformer-Mamba çıkarım modeli, çıkarım yeteneklerini genişletir, yüksek çözümleme hızı sunar ve insan tercihleri ile daha iyi hizalanır."
1336
1360
  },
1337
1361
  "hunyuan-t1-vision": {
1338
1362
  "description": "Hunyuan çok modlu anlayış derin düşünme modeli, çok modlu doğal uzun düşünce zincirini destekler, çeşitli görsel çıkarım senaryolarında uzmandır ve fen bilimleri problemlerinde hızlı düşünme modellerine kıyasla kapsamlı iyileşme sağlar."
1339
1363
  },
1340
- "hunyuan-translation": {
1341
- "description": "Çince ve İngilizce, Japonca, Fransızca, Portekizce, İspanyolca, Türkçe, Rusça, Arapça, Korece, İtalyanca, Almanca, Vietnamca, Malayca, Endonezyaca dahil olmak üzere 15 dil arasında çeviri desteği sunar. Çoklu senaryo çeviri değerlendirme setine dayalı otomatik değerlendirme COMET puanı ile, ondan fazla yaygın dildeki çeviri yetenekleri, pazarın aynı ölçekli modellerine göre genel olarak daha üstündür."
1342
- },
1343
- "hunyuan-translation-lite": {
1344
- "description": "Hunyuan çeviri modeli, doğal dil diyalog tarzı çeviriyi destekler; Çince ve İngilizce, Japonca, Fransızca, Portekizce, İspanyolca, Türkçe, Rusça, Arapça, Korece, İtalyanca, Almanca, Vietnamca, Malayca, Endonezyaca dahil olmak üzere 15 dil arasında çeviri desteği sunar."
1345
- },
1346
1364
  "hunyuan-turbo": {
1347
1365
  "description": "Hunyuan'ın yeni nesil büyük dil modelinin önizleme sürümü, tamamen yeni bir karma uzman modeli (MoE) yapısı kullanır ve hunyuan-pro'ya kıyasla daha hızlı çıkarım verimliliği ve daha güçlü performans sunar."
1348
1366
  },
@@ -1355,8 +1373,11 @@
1355
1373
  "hunyuan-turbo-vision": {
1356
1374
  "description": "Hunyuan'ın yeni nesil görsel dil amiral modeli, tamamen yeni bir karışık uzman modeli (MoE) yapısını benimser; metin ve görüntü anlama ile ilgili temel tanıma, içerik oluşturma, bilgi sorgulama, analiz ve akıl yürütme gibi yeteneklerde bir önceki nesil modele göre kapsamlı bir iyileştirme sağlar."
1357
1375
  },
1358
- "hunyuan-turbos-20250226": {
1359
- "description": "hunyuan-TurboS pv2.1.2 sabit versiyonu, ön eğitim tabanlı token sayısını yükseltmiştir; matematik/lojik/kod gibi düşünme yeteneklerini geliştirmiştir; Çince ve İngilizce genel deneyim kalitesini artırmıştır, metin oluşturma, metin anlama, bilgi sorgulama, sohbet gibi alanlarda."
1376
+ "hunyuan-turbos-20250313": {
1377
+ "description": "Matematik problem çözme adımlarının stilini birleştirir, matematikte çok turlu soru-cevapları güçlendirir. Metin oluşturma, yanıt stilini optimize eder, yapay zeka izlerini kaldırır, edebi ifadeyi artırır."
1378
+ },
1379
+ "hunyuan-turbos-20250416": {
1380
+ "description": "Ön eğitim tabanı yükseltmesi, tabanın komut anlama ve uyum yeteneklerini güçlendirir; hizalama aşamasında matematik, kodlama, mantık ve bilimsel alanlardaki yetenekleri artırır; yaratıcı yazım kalitesi, metin anlama, çeviri doğruluğu ve bilgi tabanlı soru-cevap gibi beşeri bilimler yeteneklerini geliştirir; çeşitli alanlardaki ajan yeteneklerini güçlendirir, özellikle çok turlu diyalog anlama yeteneğine odaklanır."
1360
1381
  },
1361
1382
  "hunyuan-turbos-latest": {
1362
1383
  "description": "hunyuan-TurboS, daha güçlü düşünme yeteneği ve daha iyi deneyim sunan en son sürümüdür."
@@ -1364,8 +1385,8 @@
1364
1385
  "hunyuan-turbos-longtext-128k-20250325": {
1365
1386
  "description": "Uzun metin görevlerini, örneğin belge özetleme ve belge yanıtları gibi, işleme konusunda uzmandır ve genel metin oluşturma görevlerini de yerine getirebilir. Uzun metinlerin analizi ve oluşturulmasında mükemmel performans gösterir, karmaşık ve ayrıntılı uzun metin içerik işleme ihtiyaçlarını etkili bir şekilde karşılar."
1366
1387
  },
1367
- "hunyuan-turbos-vision": {
1368
- "description": "Bu model, görsel ve metin anlama senaryoları için uygundur, en son Hunyuan turbosuna dayanan yeni nesil görsel dil amiral modeli olup, görsel ve metin anlama ile ilgili görevlerde, resim tabanlı varlık tanıma, bilgi yanıtı, metin yazımı, fotoğrafla problem çözme gibi alanlarda, önceki nesil modellere göre kapsamlı bir iyileşme sunar."
1388
+ "hunyuan-turbos-role-plus": {
1389
+ "description": "Hunyuan'ın en son rol yapma modeli, Hunyuan tarafından resmi olarak ince ayar ve eğitimle geliştirilmiş, rol yapma senaryoları veri setiyle artırılmıştır ve rol yapma senaryolarında daha iyi temel performans sunar."
1369
1390
  },
1370
1391
  "hunyuan-vision": {
1371
1392
  "description": "Hunyuan'ın en son çok modlu modeli, resim + metin girişi ile metin içeriği oluşturmayı destekler."
@@ -1886,11 +1907,14 @@
1886
1907
  "qvq-72b-preview": {
1887
1908
  "description": "QVQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir; görsel akıl yürütme yeteneğini artırmaya odaklanır, özellikle matematik akıl yürütme alanında."
1888
1909
  },
1889
- "qvq-max-latest": {
1890
- "description": "Tongyi Qianwen QVQ görsel akıl yürütme modeli, görsel girdi ve düşünme zinciri çıktısını destekler ve matematik, programlama, görsel analiz, yaratım ve genel görevlerde daha güçlü yetenekler sergilemektedir."
1910
+ "qvq-max": {
1911
+ "description": "Tongyi Qianwen QVQ görsel akıl yürütme modeli, görsel giriş ve düşünce zinciri çıktısını destekler; matematik, programlama, görsel analiz, yaratım ve genel görevlerde daha güçlü performans sergiler."
1891
1912
  },
1892
- "qwen-coder-plus-latest": {
1893
- "description": "Tongyi Qianwen kod modeli."
1913
+ "qwen-coder-plus": {
1914
+ "description": "Tongyi Qianwen kodlama modeli."
1915
+ },
1916
+ "qwen-coder-turbo": {
1917
+ "description": "Tongyi Qianwen kodlama modeli."
1894
1918
  },
1895
1919
  "qwen-coder-turbo-latest": {
1896
1920
  "description": "Tongyi Qianwen kodlama modeli."
@@ -1898,41 +1922,44 @@
1898
1922
  "qwen-long": {
1899
1923
  "description": "Tongyi Qianwen, uzun metin bağlamını destekleyen ve uzun belgeler, çoklu belgeler gibi çeşitli senaryolar için diyalog işlevselliği sunan büyük ölçekli bir dil modelidir."
1900
1924
  },
1925
+ "qwen-math-plus": {
1926
+ "description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış dil modelidir."
1927
+ },
1901
1928
  "qwen-math-plus-latest": {
1902
1929
  "description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış bir dil modelidir."
1903
1930
  },
1931
+ "qwen-math-turbo": {
1932
+ "description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış dil modelidir."
1933
+ },
1904
1934
  "qwen-math-turbo-latest": {
1905
1935
  "description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış bir dil modelidir."
1906
1936
  },
1907
1937
  "qwen-max": {
1908
1938
  "description": "Tongyi Qianwen, 100 milyar seviyesinde büyük ölçekli bir dil modelidir ve Çince, İngilizce gibi farklı dil girişlerini destekler; şu anda Tongyi Qianwen 2.5 ürün sürümünün arkasındaki API modelidir."
1909
1939
  },
1910
- "qwen-max-latest": {
1911
- "description": "Tongyi Qianwen, 100 milyar seviyesinde büyük bir dil modeli, Çince, İngilizce ve diğer dillerde girişleri destekler, şu anda Tongyi Qianwen 2.5 ürün versiyonunun arkasındaki API modelidir."
1912
- },
1913
- "qwen-omni-turbo-latest": {
1914
- "description": "Qwen-Omni serisi modeller, video, ses, resim ve metin gibi çeşitli modlarda veri girişi destekler ve ses ile metin çıktısı verir."
1940
+ "qwen-omni-turbo": {
1941
+ "description": "Qwen-Omni serisi modeller, video, ses, resim ve metin dahil çoklu modalite girişlerini destekler ve ses ile metin çıktısı sağlar."
1915
1942
  },
1916
1943
  "qwen-plus": {
1917
1944
  "description": "Tongyi Qianwen, Çince, İngilizce gibi farklı dil girişlerini destekleyen geliştirilmiş büyük ölçekli bir dil modelidir."
1918
1945
  },
1919
- "qwen-plus-latest": {
1920
- "description": "Tongyi Qianwen'in geliştirilmiş versiyonu, çok dilli girişleri destekler."
1921
- },
1922
1946
  "qwen-turbo": {
1923
1947
  "description": "Tongyi Qianwen, Çince, İngilizce gibi farklı dil girişlerini destekleyen büyük ölçekli bir dil modelidir."
1924
1948
  },
1925
- "qwen-turbo-latest": {
1926
- "description": "Tongyi Qianwen, çok dilli bir dil modeli, Çince, İngilizce ve diğer dillerde girişleri destekler."
1927
- },
1928
1949
  "qwen-vl-chat-v1": {
1929
1950
  "description": "Tongyi Qianwen VL, çoklu görüntü, çok turlu soru-cevap, yaratım gibi esnek etkileşim yöntemlerini destekleyen bir modeldir."
1930
1951
  },
1952
+ "qwen-vl-max": {
1953
+ "description": "Tongyi Qianwen ultra büyük ölçekli görsel-dil modeli. Geliştirilmiş versiyona kıyasla görsel akıl yürütme ve komut uyum yeteneklerini daha da artırır, daha yüksek görsel algı ve bilişsel seviyeler sunar."
1954
+ },
1931
1955
  "qwen-vl-max-latest": {
1932
1956
  "description": "Tongyi Qianwen ultra büyük ölçekli görsel dil modeli. Geliştirilmiş versiyona kıyasla, görsel akıl yürütme yeteneğini ve talimatlara uyum yeteneğini bir kez daha artırır, daha yüksek görsel algı ve bilişsel seviyeler sunar."
1933
1957
  },
1934
- "qwen-vl-ocr-latest": {
1935
- "description": "Tongyi Qianwen OCR, belge, tablo, sınav soruları, el yazısı gibi çeşitli görüntü türlerinden metin çıkarma yeteneğine odaklanan özel bir modeldir. Birçok yazıyı tanıyabilir, şu anda desteklenen diller: Çince, İngilizce, Fransızca, Japonca, Korece, Almanca, Rusça, İtalyanca, Vietnamca, Arapça."
1958
+ "qwen-vl-ocr": {
1959
+ "description": "Tongyi Qianwen OCR, belge, tablo, sınav soruları ve el yazısı gibi görüntülerden metin çıkarma konusunda uzmanlaşmış özel modeldir. Çoklu dil tanıma yeteneğine sahiptir; desteklenen diller arasında Çince, İngilizce, Fransızca, Japonca, Korece, Almanca, Rusça, İtalyanca, Vietnamca ve Arapça bulunmaktadır."
1960
+ },
1961
+ "qwen-vl-plus": {
1962
+ "description": "Tongyi Qianwen büyük ölçekli görsel-dil modeli geliştirilmiş versiyonu. Detay tanıma ve metin tanıma yeteneklerini büyük ölçüde artırır, milyonlarca piksel çözünürlük ve herhangi bir en-boy oranındaki görüntüleri destekler."
1936
1963
  },
1937
1964
  "qwen-vl-plus-latest": {
1938
1965
  "description": "Tongyi Qianwen büyük ölçekli görsel dil modelinin geliştirilmiş versiyonu. Detay tanıma ve metin tanıma yeteneklerini büyük ölçüde artırır, bir milyondan fazla piksel çözünürlüğü ve herhangi bir en-boy oranındaki görüntüleri destekler."
@@ -2021,6 +2048,9 @@
2021
2048
  "qwen2.5-coder-1.5b-instruct": {
2022
2049
  "description": "Tongyi Qianwen kodlama modelinin açık kaynak sürümüdür."
2023
2050
  },
2051
+ "qwen2.5-coder-14b-instruct": {
2052
+ "description": "Tongyi Qianwen kodlama modeli açık kaynak sürümü."
2053
+ },
2024
2054
  "qwen2.5-coder-32b-instruct": {
2025
2055
  "description": "Tongyi Qianwen kod modeli açık kaynak versiyonu."
2026
2056
  },
@@ -2111,8 +2141,8 @@
2111
2141
  "qwq-32b-preview": {
2112
2142
  "description": "QwQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir ve AI akıl yürütme yeteneklerini artırmaya odaklanmaktadır."
2113
2143
  },
2114
- "qwq-plus-latest": {
2115
- "description": "Qwen2.5 modeli üzerine eğitilmiş QwQ çıkarım modeli, pekiştirmeli öğrenme ile modelin çıkarım yeteneğini önemli ölçüde artırmıştır. Modelin matematiksel kodları ve diğer temel göstergeleri (AIME 24/25, LiveCodeBench) ile bazı genel göstergeleri (IFEval, LiveBench vb.) DeepSeek-R1 tam sürüm seviyesine ulaşmıştır."
2144
+ "qwq-plus": {
2145
+ "description": "Qwen2.5 modeli temel alınarak eğitilmiş QwQ akıl yürütme modeli, pekiştirmeli öğrenme ile modelin akıl yürütme yeteneğini büyük ölçüde artırmıştır. Model, matematik ve kodlama gibi temel göstergelerde (AIME 24/25, LiveCodeBench) ve bazı genel göstergelerde (IFEval, LiveBench vb.) DeepSeek-R1 tam sürüm seviyesine ulaşmıştır."
2116
2146
  },
2117
2147
  "qwq_32b": {
2118
2148
  "description": "Qwen serisinin orta ölçekli çıkarım modelidir. Geleneksel talimat ayarlama modellerine kıyasla, düşünme ve çıkarım yeteneğine sahip QwQ, özellikle zorlu görevleri çözme konusunda, alt görevlerde performansı önemli ölçüde artırabilir."
@@ -71,6 +71,9 @@
71
71
  "mistral": {
72
72
  "description": "Mistral, karmaşık akıl yürütme, çok dilli görevler, kod üretimi gibi alanlarda geniş bir uygulama yelpazesine sahip gelişmiş genel, profesyonel ve araştırma modelleri sunmaktadır. Fonksiyon çağrısı arayüzü aracılığıyla kullanıcılar, özel işlevleri entegre ederek belirli uygulamalar gerçekleştirebilirler."
73
73
  },
74
+ "modelscope": {
75
+ "description": "ModelScope, Alibaba Cloud tarafından sunulan bir model hizmet platformudur ve zengin AI modelleri ile çıkarım hizmetleri sağlar."
76
+ },
74
77
  "moonshot": {
75
78
  "description": "Moonshot, Beijing Yuezhi Anmian Technology Co., Ltd. tarafından sunulan açık kaynaklı bir platformdur. İçerik oluşturma, akademik araştırma, akıllı öneri, tıbbi teşhis gibi geniş bir uygulama alanına sahip çeşitli doğal dil işleme modelleri sunmaktadır. Uzun metin işleme ve karmaşık üretim görevlerini desteklemektedir."
76
79
  },
@@ -208,6 +208,10 @@
208
208
  "title": "Sử dụng chế độ yêu cầu từ khách hàng"
209
209
  },
210
210
  "helpDoc": "Hướng dẫn cấu hình",
211
+ "responsesApi": {
212
+ "desc": "Sử dụng định dạng yêu cầu thế hệ mới của OpenAI, mở khóa các tính năng nâng cao như chuỗi suy nghĩ",
213
+ "title": "Sử dụng chuẩn Responses API"
214
+ },
211
215
  "waitingForMore": "Nhiều mô hình hơn đang <1>được lên kế hoạch</1>, xin hãy chờ đợi"
212
216
  },
213
217
  "createNew": {