@lobehub/chat 1.92.3 → 1.93.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (90) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/README.md +8 -8
  3. package/README.zh-CN.md +8 -8
  4. package/changelog/v1.json +9 -0
  5. package/docs/development/database-schema.dbml +51 -1
  6. package/locales/ar/modelProvider.json +4 -0
  7. package/locales/ar/models.json +64 -34
  8. package/locales/ar/providers.json +3 -0
  9. package/locales/bg-BG/modelProvider.json +4 -0
  10. package/locales/bg-BG/models.json +64 -34
  11. package/locales/bg-BG/providers.json +3 -0
  12. package/locales/de-DE/modelProvider.json +4 -0
  13. package/locales/de-DE/models.json +64 -34
  14. package/locales/de-DE/providers.json +3 -0
  15. package/locales/en-US/modelProvider.json +4 -0
  16. package/locales/en-US/models.json +64 -34
  17. package/locales/en-US/providers.json +3 -0
  18. package/locales/es-ES/modelProvider.json +4 -0
  19. package/locales/es-ES/models.json +64 -34
  20. package/locales/es-ES/providers.json +3 -0
  21. package/locales/fa-IR/modelProvider.json +4 -0
  22. package/locales/fa-IR/models.json +64 -34
  23. package/locales/fa-IR/providers.json +3 -0
  24. package/locales/fr-FR/modelProvider.json +4 -0
  25. package/locales/fr-FR/models.json +64 -34
  26. package/locales/fr-FR/providers.json +3 -0
  27. package/locales/it-IT/modelProvider.json +4 -0
  28. package/locales/it-IT/models.json +64 -34
  29. package/locales/it-IT/providers.json +3 -0
  30. package/locales/ja-JP/modelProvider.json +4 -0
  31. package/locales/ja-JP/models.json +64 -34
  32. package/locales/ja-JP/providers.json +3 -0
  33. package/locales/ko-KR/modelProvider.json +4 -0
  34. package/locales/ko-KR/models.json +64 -34
  35. package/locales/ko-KR/providers.json +3 -0
  36. package/locales/nl-NL/modelProvider.json +4 -0
  37. package/locales/nl-NL/models.json +64 -34
  38. package/locales/nl-NL/providers.json +3 -0
  39. package/locales/pl-PL/modelProvider.json +4 -0
  40. package/locales/pl-PL/models.json +64 -34
  41. package/locales/pl-PL/providers.json +3 -0
  42. package/locales/pt-BR/modelProvider.json +4 -0
  43. package/locales/pt-BR/models.json +64 -34
  44. package/locales/pt-BR/providers.json +3 -0
  45. package/locales/ru-RU/modelProvider.json +4 -0
  46. package/locales/ru-RU/models.json +63 -33
  47. package/locales/ru-RU/providers.json +3 -0
  48. package/locales/tr-TR/modelProvider.json +4 -0
  49. package/locales/tr-TR/models.json +64 -34
  50. package/locales/tr-TR/providers.json +3 -0
  51. package/locales/vi-VN/modelProvider.json +4 -0
  52. package/locales/vi-VN/models.json +64 -34
  53. package/locales/vi-VN/providers.json +3 -0
  54. package/locales/zh-CN/modelProvider.json +4 -0
  55. package/locales/zh-CN/models.json +59 -29
  56. package/locales/zh-CN/providers.json +3 -0
  57. package/locales/zh-TW/modelProvider.json +4 -0
  58. package/locales/zh-TW/models.json +64 -34
  59. package/locales/zh-TW/providers.json +3 -0
  60. package/package.json +1 -1
  61. package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +16 -0
  62. package/src/config/modelProviders/openai.ts +3 -1
  63. package/src/database/client/migrations.json +25 -0
  64. package/src/database/migrations/0025_add_provider_config.sql +1 -0
  65. package/src/database/migrations/meta/0025_snapshot.json +5703 -0
  66. package/src/database/migrations/meta/_journal.json +7 -0
  67. package/src/database/models/__tests__/aiProvider.test.ts +2 -0
  68. package/src/database/models/aiProvider.ts +5 -2
  69. package/src/database/repositories/tableViewer/index.test.ts +1 -1
  70. package/src/database/schemas/_helpers.ts +5 -1
  71. package/src/database/schemas/aiInfra.ts +5 -1
  72. package/src/libs/model-runtime/openai/index.ts +21 -2
  73. package/src/libs/model-runtime/types/chat.ts +6 -9
  74. package/src/libs/model-runtime/utils/openaiCompatibleFactory/index.ts +79 -5
  75. package/src/libs/model-runtime/utils/openaiHelpers.test.ts +145 -1
  76. package/src/libs/model-runtime/utils/openaiHelpers.ts +59 -0
  77. package/src/libs/model-runtime/utils/streams/openai/__snapshots__/responsesStream.test.ts.snap +193 -0
  78. package/src/libs/model-runtime/utils/streams/openai/index.ts +2 -0
  79. package/src/libs/model-runtime/utils/streams/{openai.test.ts → openai/openai.test.ts} +1 -1
  80. package/src/libs/model-runtime/utils/streams/{openai.ts → openai/openai.ts} +5 -5
  81. package/src/libs/model-runtime/utils/streams/openai/responsesStream.test.ts +826 -0
  82. package/src/libs/model-runtime/utils/streams/openai/responsesStream.ts +166 -0
  83. package/src/libs/model-runtime/utils/streams/protocol.ts +4 -1
  84. package/src/libs/model-runtime/utils/streams/utils.ts +20 -0
  85. package/src/libs/model-runtime/utils/usageConverter.ts +59 -0
  86. package/src/locales/default/modelProvider.ts +4 -0
  87. package/src/services/__tests__/chat.test.ts +27 -0
  88. package/src/services/chat.ts +8 -2
  89. package/src/store/aiInfra/slices/aiProvider/selectors.ts +11 -0
  90. package/src/types/aiProvider.ts +13 -1
@@ -230,6 +230,9 @@
230
230
  "Pro/deepseek-ai/DeepSeek-R1": {
231
231
  "description": "DeepSeek-R1 is a reinforcement learning (RL) driven inference model that addresses issues of repetitiveness and readability in models. Prior to RL, DeepSeek-R1 introduced cold start data to further optimize inference performance. It performs comparably to OpenAI-o1 in mathematical, coding, and reasoning tasks, and enhances overall effectiveness through carefully designed training methods."
232
232
  },
233
+ "Pro/deepseek-ai/DeepSeek-R1-0120": {
234
+ "description": "DeepSeek-R1 is a reinforcement learning (RL) driven reasoning model that addresses issues of repetition and readability. Before RL, it introduced cold-start data to further optimize reasoning performance. It performs comparably to OpenAI-o1 in mathematics, coding, and reasoning tasks and improves overall effectiveness through carefully designed training methods."
235
+ },
233
236
  "Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
234
237
  "description": "DeepSeek-R1-Distill-Qwen-1.5B is a model derived from Qwen2.5-Math-1.5B through knowledge distillation. Fine-tuned with 800,000 carefully selected samples generated by DeepSeek-R1, this model demonstrates commendable performance across multiple benchmarks. As a lightweight model, it achieves an accuracy of 83.9% on MATH-500, a pass rate of 28.9% on AIME 2024, and a score of 954 on CodeForces, showcasing reasoning capabilities that exceed its parameter scale."
235
238
  },
@@ -422,8 +425,8 @@
422
425
  "THUDM/glm-4-9b-chat": {
423
426
  "description": "GLM-4 9B is an open-source version that provides an optimized conversational experience for chat applications."
424
427
  },
425
- "Vendor-A/Qwen/Qwen2.5-72B-Instruct": {
426
- "description": "Qwen2.5-72B-Instruct is one of the latest large language models released by Alibaba Cloud. This 72B model shows significant improvements in coding and mathematics. It also provides multilingual support, covering over 29 languages, including Chinese and English. The model has made notable advancements in instruction following, understanding structured data, and generating structured outputs, especially JSON."
428
+ "Tongyi-Zhiwen/QwenLong-L1-32B": {
429
+ "description": "QwenLong-L1-32B is the first large reasoning model (LRM) trained with reinforcement learning for long-context tasks, optimized specifically for long-text reasoning. It achieves stable transfer from short to long contexts through a progressive context expansion reinforcement learning framework. In seven long-context document QA benchmarks, QwenLong-L1-32B outperforms flagship models like OpenAI-o3-mini and Qwen3-235B-A22B, with performance comparable to Claude-3.7-Sonnet-Thinking. The model excels in complex tasks such as mathematical reasoning, logical reasoning, and multi-hop reasoning."
427
430
  },
428
431
  "Yi-34B-Chat": {
429
432
  "description": "Yi-1.5-34B significantly enhances mathematical logic and coding abilities by incrementally training on 500 billion high-quality tokens while maintaining the excellent general language capabilities of the original series."
@@ -734,6 +737,12 @@
734
737
  "deepseek-ai/DeepSeek-R1": {
735
738
  "description": "DeepSeek-R1 is a reinforcement learning (RL) driven inference model that addresses issues of repetitiveness and readability within the model. Prior to RL, DeepSeek-R1 introduced cold start data to further optimize inference performance. It performs comparably to OpenAI-o1 in mathematical, coding, and reasoning tasks, and enhances overall effectiveness through meticulously designed training methods."
736
739
  },
740
+ "deepseek-ai/DeepSeek-R1-0528": {
741
+ "description": "DeepSeek R1 significantly enhances its reasoning and inference depth by leveraging increased computational resources and introducing algorithmic optimizations during post-training. The model performs excellently across various benchmarks, including mathematics, programming, and general logic. Its overall performance now approaches leading models such as O3 and Gemini 2.5 Pro."
742
+ },
743
+ "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B": {
744
+ "description": "DeepSeek-R1-0528-Qwen3-8B is a model distilled from DeepSeek-R1-0528's chain of thought into Qwen3 8B Base. It achieves state-of-the-art (SOTA) performance among open-source models, surpassing Qwen3 8B by 10% in the AIME 2024 test and reaching the performance level of Qwen3-235B-thinking. The model excels in mathematics reasoning, programming, and general logic benchmarks. It shares the same architecture as Qwen3-8B but uses the tokenizer configuration from DeepSeek-R1-0528."
745
+ },
737
746
  "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
738
747
  "description": "The DeepSeek-R1 distillation model optimizes inference performance through reinforcement learning and cold-start data, refreshing the benchmark for open-source models across multiple tasks."
739
748
  },
@@ -836,9 +845,6 @@
836
845
  "deepseek-v3-0324": {
837
846
  "description": "DeepSeek-V3-0324 is a 671B parameter MoE model, excelling in programming and technical capabilities, contextual understanding, and long text processing."
838
847
  },
839
- "deepseek/deepseek-chat": {
840
- "description": "A new open-source model that integrates general and coding capabilities, retaining the general conversational abilities of the original Chat model and the powerful code handling capabilities of the Coder model, while better aligning with human preferences. Additionally, DeepSeek-V2.5 has achieved significant improvements in writing tasks, instruction following, and more."
841
- },
842
848
  "deepseek/deepseek-chat-v3-0324": {
843
849
  "description": "DeepSeek V3 is a 685B parameter expert mixture model, the latest iteration in the DeepSeek team's flagship chat model series.\n\nIt inherits from the [DeepSeek V3](/deepseek/deepseek-chat-v3) model and performs excellently across various tasks."
844
850
  },
@@ -848,6 +854,12 @@
848
854
  "deepseek/deepseek-r1": {
849
855
  "description": "DeepSeek-R1 significantly enhances model reasoning capabilities with minimal labeled data. Before outputting the final answer, the model first provides a chain of thought to improve the accuracy of the final response."
850
856
  },
857
+ "deepseek/deepseek-r1-0528": {
858
+ "description": "DeepSeek-R1 greatly improves model reasoning capabilities with minimal labeled data. Before outputting the final answer, the model first generates a chain of thought to enhance answer accuracy."
859
+ },
860
+ "deepseek/deepseek-r1-0528:free": {
861
+ "description": "DeepSeek-R1 greatly improves model reasoning capabilities with minimal labeled data. Before outputting the final answer, the model first generates a chain of thought to enhance answer accuracy."
862
+ },
851
863
  "deepseek/deepseek-r1-distill-llama-70b": {
852
864
  "description": "DeepSeek R1 Distill Llama 70B is a large language model based on Llama3.3 70B, which achieves competitive performance comparable to large cutting-edge models by utilizing fine-tuning from DeepSeek R1 outputs."
853
865
  },
@@ -1262,6 +1274,9 @@
1262
1274
  "gpt-4o-mini-realtime-preview": {
1263
1275
  "description": "GPT-4o-mini real-time version, supporting real-time audio and text input and output."
1264
1276
  },
1277
+ "gpt-4o-mini-search-preview": {
1278
+ "description": "GPT-4o mini Search Preview is a model specifically trained to understand and execute web search queries, using the Chat Completions API. In addition to token fees, web search queries incur charges per tool invocation."
1279
+ },
1265
1280
  "gpt-4o-mini-tts": {
1266
1281
  "description": "GPT-4o mini TTS is a text-to-speech model based on GPT-4o mini, providing high-quality speech generation at a lower cost."
1267
1282
  },
@@ -1274,6 +1289,9 @@
1274
1289
  "gpt-4o-realtime-preview-2024-12-17": {
1275
1290
  "description": "GPT-4o real-time version, supporting real-time audio and text input and output."
1276
1291
  },
1292
+ "gpt-4o-search-preview": {
1293
+ "description": "GPT-4o Search Preview is a model specifically trained to understand and execute web search queries, using the Chat Completions API. In addition to token fees, web search queries incur charges per tool invocation."
1294
+ },
1277
1295
  "grok-2-1212": {
1278
1296
  "description": "This model has improved in accuracy, instruction adherence, and multilingual capabilities."
1279
1297
  },
@@ -1307,6 +1325,9 @@
1307
1325
  "hunyuan-large-longcontext": {
1308
1326
  "description": "Specializes in handling long text tasks such as document summarization and question answering, while also capable of general text generation tasks. It excels in analyzing and generating long texts, effectively addressing complex and detailed long-form content processing needs."
1309
1327
  },
1328
+ "hunyuan-large-vision": {
1329
+ "description": "This model is designed for image-text understanding scenarios. It is a vision-language large model based on Hunyuan Large training, supporting multi-image plus text input at any resolution to generate textual content. It focuses on image-text understanding tasks and shows significant improvements in multilingual image-text comprehension."
1330
+ },
1310
1331
  "hunyuan-lite": {
1311
1332
  "description": "Upgraded to a MOE structure with a context window of 256k, leading many open-source models in various NLP, coding, mathematics, and industry benchmarks."
1312
1333
  },
@@ -1331,18 +1352,15 @@
1331
1352
  "hunyuan-t1-20250321": {
1332
1353
  "description": "Comprehensively builds model capabilities in both arts and sciences, with strong long-text information capture ability. Supports reasoning and answering various scientific questions, including mathematics, logic, science, and code, of varying difficulty."
1333
1354
  },
1355
+ "hunyuan-t1-20250403": {
1356
+ "description": "Enhance project-level code generation capabilities; improve the quality of text generation and writing; enhance multi-turn topic understanding, ToB instruction compliance, and word comprehension; optimize issues with mixed traditional and simplified Chinese as well as mixed Chinese and English output."
1357
+ },
1334
1358
  "hunyuan-t1-latest": {
1335
1359
  "description": "The industry's first ultra-large-scale Hybrid-Transformer-Mamba inference model, enhancing reasoning capabilities with exceptional decoding speed, further aligning with human preferences."
1336
1360
  },
1337
1361
  "hunyuan-t1-vision": {
1338
1362
  "description": "Hunyuan is a multimodal deep thinking model supporting native multimodal chain-of-thought reasoning, excelling in various image reasoning scenarios and significantly outperforming fast-thinking models on science problems."
1339
1363
  },
1340
- "hunyuan-translation": {
1341
- "description": "Supports translation between Chinese and 15 other languages including English, Japanese, French, Portuguese, Spanish, Turkish, Russian, Arabic, Korean, Italian, German, Vietnamese, Malay, and Indonesian. It is based on a multi-scenario translation evaluation set with automated COMET scoring, demonstrating overall superior translation capabilities compared to similarly scaled models in the market."
1342
- },
1343
- "hunyuan-translation-lite": {
1344
- "description": "The Hunyuan translation model supports natural language conversational translation; it supports translation between Chinese and 15 other languages including English, Japanese, French, Portuguese, Spanish, Turkish, Russian, Arabic, Korean, Italian, German, Vietnamese, Malay, and Indonesian."
1345
- },
1346
1364
  "hunyuan-turbo": {
1347
1365
  "description": "The preview version of the next-generation Hunyuan large language model, featuring a brand-new mixed expert model (MoE) structure, which offers faster inference efficiency and stronger performance compared to Hunyuan Pro."
1348
1366
  },
@@ -1355,8 +1373,11 @@
1355
1373
  "hunyuan-turbo-vision": {
1356
1374
  "description": "The next-generation flagship visual language model from Hunyuan, utilizing a new mixed expert model (MoE) structure, with comprehensive improvements in basic recognition, content creation, knowledge Q&A, and analytical reasoning capabilities compared to the previous generation model."
1357
1375
  },
1358
- "hunyuan-turbos-20250226": {
1359
- "description": "hunyuan-TurboS pv2.1.2 fixed version with upgraded training tokens; enhanced reasoning capabilities in mathematics, logic, and coding; improved performance in both Chinese and English across text creation, comprehension, knowledge Q&A, and casual conversation."
1376
+ "hunyuan-turbos-20250313": {
1377
+ "description": "Standardize the style of mathematical problem-solving steps and strengthen multi-turn math Q&A. Optimize text creation by refining response style, removing AI-like tone, and adding literary flair."
1378
+ },
1379
+ "hunyuan-turbos-20250416": {
1380
+ "description": "Upgrade the pre-training foundation to strengthen instruction understanding and compliance; enhance STEM abilities in mathematics, coding, logic, and science during alignment; improve humanities capabilities such as creative writing quality, text comprehension, translation accuracy, and knowledge Q&A; boost agent capabilities across various domains, with a focus on multi-turn dialogue understanding."
1360
1381
  },
1361
1382
  "hunyuan-turbos-latest": {
1362
1383
  "description": "The latest version of hunyuan-TurboS, the flagship model of Hunyuan, features enhanced reasoning capabilities and improved user experience."
@@ -1364,8 +1385,8 @@
1364
1385
  "hunyuan-turbos-longtext-128k-20250325": {
1365
1386
  "description": "Specializes in handling long text tasks such as document summarization and question answering, while also capable of general text generation tasks. It excels in analyzing and generating long texts, effectively addressing complex and detailed long-form content processing needs."
1366
1387
  },
1367
- "hunyuan-turbos-vision": {
1368
- "description": "This model is suitable for image-text understanding scenarios and is based on the latest turbos from Hunyuan, focusing on tasks related to image-text understanding, including image-based entity recognition, knowledge Q&A, copywriting, and problem-solving from photos, with comprehensive improvements over the previous generation."
1388
+ "hunyuan-turbos-role-plus": {
1389
+ "description": "The latest Hunyuan role-playing model, officially fine-tuned and trained by Hunyuan. It is further trained on role-playing scenario datasets based on the Hunyuan model, delivering better foundational performance in role-playing contexts."
1369
1390
  },
1370
1391
  "hunyuan-vision": {
1371
1392
  "description": "The latest multimodal model from Hunyuan, supporting image + text input to generate textual content."
@@ -1886,11 +1907,14 @@
1886
1907
  "qvq-72b-preview": {
1887
1908
  "description": "The QVQ model is an experimental research model developed by the Qwen team, focusing on enhancing visual reasoning capabilities, particularly in the field of mathematical reasoning."
1888
1909
  },
1889
- "qvq-max-latest": {
1890
- "description": "The QVQ visual reasoning model supports visual input and thinking chain output, demonstrating stronger capabilities in mathematics, programming, visual analysis, creative writing, and general tasks."
1910
+ "qvq-max": {
1911
+ "description": "Tongyi Qianwen QVQ visual reasoning model supports visual input and chain-of-thought output, demonstrating stronger capabilities in mathematics, programming, visual analysis, creation, and general tasks."
1912
+ },
1913
+ "qwen-coder-plus": {
1914
+ "description": "Tongyi Qianwen coding model."
1891
1915
  },
1892
- "qwen-coder-plus-latest": {
1893
- "description": "Tongyi Qianwen code model."
1916
+ "qwen-coder-turbo": {
1917
+ "description": "Tongyi Qianwen coding model."
1894
1918
  },
1895
1919
  "qwen-coder-turbo-latest": {
1896
1920
  "description": "The Tongyi Qianwen Coder model."
@@ -1898,41 +1922,44 @@
1898
1922
  "qwen-long": {
1899
1923
  "description": "Qwen is a large-scale language model that supports long text contexts and dialogue capabilities based on long documents and multiple documents."
1900
1924
  },
1925
+ "qwen-math-plus": {
1926
+ "description": "Tongyi Qianwen math model specialized for solving mathematical problems."
1927
+ },
1901
1928
  "qwen-math-plus-latest": {
1902
1929
  "description": "The Tongyi Qianwen Math model is specifically designed for solving mathematical problems."
1903
1930
  },
1931
+ "qwen-math-turbo": {
1932
+ "description": "Tongyi Qianwen math model specialized for solving mathematical problems."
1933
+ },
1904
1934
  "qwen-math-turbo-latest": {
1905
1935
  "description": "The Tongyi Qianwen Math model is specifically designed for solving mathematical problems."
1906
1936
  },
1907
1937
  "qwen-max": {
1908
1938
  "description": "Qwen Max is a trillion-level large-scale language model that supports input in various languages including Chinese and English, and is the API model behind the current Qwen 2.5 product version."
1909
1939
  },
1910
- "qwen-max-latest": {
1911
- "description": "Tongyi Qianwen Max is a large-scale language model with hundreds of billions of parameters, supporting input in various languages, including Chinese and English. It is the API model behind the current Tongyi Qianwen 2.5 product version."
1912
- },
1913
- "qwen-omni-turbo-latest": {
1914
- "description": "The Qwen-Omni series of models supports input of various modalities, including video, audio, images, and text, and outputs both audio and text."
1940
+ "qwen-omni-turbo": {
1941
+ "description": "Qwen-Omni series models support multi-modal inputs including video, audio, images, and text, and output audio and text."
1915
1942
  },
1916
1943
  "qwen-plus": {
1917
1944
  "description": "Qwen Plus is an enhanced large-scale language model supporting input in various languages including Chinese and English."
1918
1945
  },
1919
- "qwen-plus-latest": {
1920
- "description": "Tongyi Qianwen Plus is an enhanced version of the large-scale language model, supporting input in various languages, including Chinese and English."
1921
- },
1922
1946
  "qwen-turbo": {
1923
1947
  "description": "Qwen Turbo is a large-scale language model supporting input in various languages including Chinese and English."
1924
1948
  },
1925
- "qwen-turbo-latest": {
1926
- "description": "Tongyi Qianwen is a large-scale language model that supports input in various languages, including Chinese and English."
1927
- },
1928
1949
  "qwen-vl-chat-v1": {
1929
1950
  "description": "Qwen VL supports flexible interaction methods, including multi-image, multi-turn Q&A, and creative capabilities."
1930
1951
  },
1952
+ "qwen-vl-max": {
1953
+ "description": "Tongyi Qianwen ultra-large-scale vision-language model. Compared to the enhanced version, it further improves visual reasoning and instruction compliance, providing higher levels of visual perception and cognition."
1954
+ },
1931
1955
  "qwen-vl-max-latest": {
1932
1956
  "description": "Tongyi Qianwen's ultra-large-scale visual language model. Compared to the enhanced version, it further improves visual reasoning and instruction-following abilities, providing a higher level of visual perception and cognition."
1933
1957
  },
1934
- "qwen-vl-ocr-latest": {
1935
- "description": "The Tongyi Qianwen OCR is a proprietary model for text extraction, focusing on the ability to extract text from images of documents, tables, exam papers, and handwritten text. It can recognize multiple languages, currently supporting: Chinese, English, French, Japanese, Korean, German, Russian, Italian, Vietnamese, and Arabic."
1958
+ "qwen-vl-ocr": {
1959
+ "description": "Tongyi Qianwen OCR is a dedicated text extraction model focusing on documents, tables, exam questions, handwritten text, and other image types. It can recognize multiple languages currently supported: Chinese, English, French, Japanese, Korean, German, Russian, Italian, Vietnamese, and Arabic."
1960
+ },
1961
+ "qwen-vl-plus": {
1962
+ "description": "Enhanced version of Tongyi Qianwen large-scale vision-language model. Greatly improves detail recognition and text recognition capabilities, supporting images with resolutions over one million pixels and arbitrary aspect ratios."
1936
1963
  },
1937
1964
  "qwen-vl-plus-latest": {
1938
1965
  "description": "Tongyi Qianwen's large-scale visual language model enhanced version. Significantly improves detail recognition and text recognition capabilities, supporting ultra-high pixel resolution and images of any aspect ratio."
@@ -2021,6 +2048,9 @@
2021
2048
  "qwen2.5-coder-1.5b-instruct": {
2022
2049
  "description": "Open-source version of the Qwen coding model."
2023
2050
  },
2051
+ "qwen2.5-coder-14b-instruct": {
2052
+ "description": "Open-source version of Tongyi Qianwen coding model."
2053
+ },
2024
2054
  "qwen2.5-coder-32b-instruct": {
2025
2055
  "description": "Open-source version of the Tongyi Qianwen code model."
2026
2056
  },
@@ -2111,8 +2141,8 @@
2111
2141
  "qwq-32b-preview": {
2112
2142
  "description": "The QwQ model is an experimental research model developed by the Qwen team, focusing on enhancing AI reasoning capabilities."
2113
2143
  },
2114
- "qwq-plus-latest": {
2115
- "description": "The QwQ inference model is trained based on the Qwen2.5 model, significantly enhancing its reasoning capabilities through reinforcement learning. The core metrics of the model, including mathematical code (AIME 24/25, LiveCodeBench) and some general metrics (IFEval, LiveBench, etc.), reach the level of the full version of DeepSeek-R1."
2144
+ "qwq-plus": {
2145
+ "description": "QwQ reasoning model trained based on Qwen2.5, significantly enhancing reasoning ability through reinforcement learning. Core metrics in mathematics and coding (AIME 24/25, LiveCodeBench) and some general benchmarks (IFEval, LiveBench, etc.) reach the full-power level of DeepSeek-R1."
2116
2146
  },
2117
2147
  "qwq_32b": {
2118
2148
  "description": "A medium-sized reasoning model in the Qwen series. Compared to traditional instruction-tuned models, QwQ, with its thinking and reasoning capabilities, significantly enhances performance in downstream tasks, especially in solving challenging problems."
@@ -71,6 +71,9 @@
71
71
  "mistral": {
72
72
  "description": "Mistral provides advanced general, specialized, and research models widely used in complex reasoning, multilingual tasks, and code generation. Through functional calling interfaces, users can integrate custom functionalities for specific applications."
73
73
  },
74
+ "modelscope": {
75
+ "description": "ModelScope is a model-as-a-service platform launched by Alibaba Cloud, offering a wide range of AI models and inference services."
76
+ },
74
77
  "moonshot": {
75
78
  "description": "Moonshot is an open-source platform launched by Beijing Dark Side Technology Co., Ltd., providing various natural language processing models with a wide range of applications, including but not limited to content creation, academic research, intelligent recommendations, and medical diagnosis, supporting long text processing and complex generation tasks."
76
79
  },
@@ -208,6 +208,10 @@
208
208
  "title": "Usar modo de solicitud del cliente"
209
209
  },
210
210
  "helpDoc": "Guía de configuración",
211
+ "responsesApi": {
212
+ "desc": "Utiliza el nuevo formato de solicitud de OpenAI para desbloquear características avanzadas como cadenas de pensamiento",
213
+ "title": "Uso de la especificación Responses API"
214
+ },
211
215
  "waitingForMore": "Más modelos están en <1>planificación de integración</1>, por favor, espera"
212
216
  },
213
217
  "createNew": {
@@ -230,6 +230,9 @@
230
230
  "Pro/deepseek-ai/DeepSeek-R1": {
231
231
  "description": "DeepSeek-R1 es un modelo de inferencia impulsado por aprendizaje por refuerzo (RL) que aborda problemas de repetitividad y legibilidad en el modelo. Antes del RL, DeepSeek-R1 introdujo datos de arranque en frío, optimizando aún más el rendimiento de inferencia. Se desempeña de manera comparable a OpenAI-o1 en tareas matemáticas, de código e inferencia, y mejora el rendimiento general a través de métodos de entrenamiento cuidadosamente diseñados."
232
232
  },
233
+ "Pro/deepseek-ai/DeepSeek-R1-0120": {
234
+ "description": "DeepSeek-R1 es un modelo de razonamiento impulsado por aprendizaje reforzado (RL) que aborda problemas de repetición y legibilidad en modelos. Antes del RL, DeepSeek-R1 introdujo datos de arranque en frío para optimizar aún más el rendimiento del razonamiento. Su desempeño en matemáticas, código y tareas de razonamiento es comparable a OpenAI-o1, y mejora el rendimiento general mediante métodos de entrenamiento cuidadosamente diseñados."
235
+ },
233
236
  "Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
234
237
  "description": "DeepSeek-R1-Distill-Qwen-1.5B es un modelo obtenido mediante destilación de conocimiento basado en Qwen2.5-Math-1.5B. Este modelo fue ajustado utilizando 800,000 muestras seleccionadas generadas por DeepSeek-R1, demostrando un rendimiento notable en múltiples benchmarks. Como modelo ligero, alcanzó una precisión del 83.9% en MATH-500, una tasa de aprobación del 28.9% en AIME 2024 y una puntuación de 954 en CodeForces, mostrando capacidades de razonamiento que superan su escala de parámetros."
235
238
  },
@@ -422,8 +425,8 @@
422
425
  "THUDM/glm-4-9b-chat": {
423
426
  "description": "GLM-4 9B es una versión de código abierto, que proporciona una experiencia de conversación optimizada para aplicaciones de diálogo."
424
427
  },
425
- "Vendor-A/Qwen/Qwen2.5-72B-Instruct": {
426
- "description": "Qwen2.5-72B-Instruct es uno de los últimos modelos de lenguaje a gran escala lanzados por Alibaba Cloud. Este modelo de 72B ha mejorado significativamente en áreas como codificación y matemáticas. También ofrece soporte multilingüe, abarcando más de 29 idiomas, incluidos chino e inglés. El modelo ha mostrado mejoras significativas en el seguimiento de instrucciones, comprensión de datos estructurados y generación de salidas estructuradas (especialmente JSON)."
428
+ "Tongyi-Zhiwen/QwenLong-L1-32B": {
429
+ "description": "QwenLong-L1-32B es el primer modelo de razonamiento a gran escala con contexto largo entrenado mediante aprendizaje reforzado (LRM), optimizado para tareas de razonamiento con textos extensos. Utiliza un marco de aprendizaje reforzado con expansión progresiva de contexto, logrando una transición estable de contexto corto a largo. En siete pruebas de referencia de preguntas y respuestas con documentos de contexto largo, QwenLong-L1-32B supera a modelos insignia como OpenAI-o3-mini y Qwen3-235B-A22B, con un rendimiento comparable a Claude-3.7-Sonnet-Thinking. Destaca en razonamiento matemático, lógico y de múltiples saltos."
427
430
  },
428
431
  "Yi-34B-Chat": {
429
432
  "description": "Yi-1.5-34B, manteniendo la excelente capacidad de lenguaje general de la serie original, ha mejorado significativamente la lógica matemática y la capacidad de codificación mediante un entrenamiento incremental de 500 mil millones de tokens de alta calidad."
@@ -734,6 +737,12 @@
734
737
  "deepseek-ai/DeepSeek-R1": {
735
738
  "description": "DeepSeek-R1 es un modelo de inferencia impulsado por aprendizaje reforzado (RL) que aborda los problemas de repetitividad y legibilidad en el modelo. Antes de RL, DeepSeek-R1 introdujo datos de arranque en frío, optimizando aún más el rendimiento de la inferencia. Su desempeño en tareas matemáticas, de código e inferencia es comparable al de OpenAI-o1, y ha mejorado su efectividad general a través de métodos de entrenamiento cuidadosamente diseñados."
736
739
  },
740
+ "deepseek-ai/DeepSeek-R1-0528": {
741
+ "description": "DeepSeek R1 mejora significativamente la profundidad de razonamiento e inferencia mediante el uso de recursos computacionales aumentados y la introducción de mecanismos de optimización algorítmica en el postentrenamiento. Este modelo destaca en diversas evaluaciones de referencia, incluyendo matemáticas, programación y lógica general. Su rendimiento global se acerca a modelos líderes como O3 y Gemini 2.5 Pro."
742
+ },
743
+ "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B": {
744
+ "description": "DeepSeek-R1-0528-Qwen3-8B es un modelo obtenido mediante destilación de cadenas de pensamiento del modelo DeepSeek-R1-0528 al Qwen3 8B Base. Este modelo alcanza el estado del arte (SOTA) entre modelos de código abierto, superando a Qwen3 8B en un 10% en la prueba AIME 2024 y alcanzando el nivel de rendimiento de Qwen3-235B-thinking. Sobresale en razonamiento matemático, programación y lógica general, compartiendo arquitectura con Qwen3-8B pero utilizando la configuración de tokenizador de DeepSeek-R1-0528."
745
+ },
737
746
  "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
738
747
  "description": "El modelo de destilación DeepSeek-R1 optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto."
739
748
  },
@@ -836,9 +845,6 @@
836
845
  "deepseek-v3-0324": {
837
846
  "description": "DeepSeek-V3-0324 es un modelo MoE de 671B parámetros, destacándose en habilidades de programación y técnicas, comprensión del contexto y procesamiento de textos largos."
838
847
  },
839
- "deepseek/deepseek-chat": {
840
- "description": "Un nuevo modelo de código abierto que fusiona capacidades generales y de codificación, no solo conserva la capacidad de diálogo general del modelo Chat original y la potente capacidad de procesamiento de código del modelo Coder, sino que también se alinea mejor con las preferencias humanas. Además, DeepSeek-V2.5 ha logrado mejoras significativas en tareas de escritura, seguimiento de instrucciones y más."
841
- },
842
848
  "deepseek/deepseek-chat-v3-0324": {
843
849
  "description": "DeepSeek V3 es un modelo experto de mezcla de 685B parámetros, la última iteración de la serie de modelos de chat insignia del equipo de DeepSeek.\n\nHereda el modelo [DeepSeek V3](/deepseek/deepseek-chat-v3) y se desempeña excepcionalmente en diversas tareas."
844
850
  },
@@ -848,6 +854,12 @@
848
854
  "deepseek/deepseek-r1": {
849
855
  "description": "DeepSeek-R1 mejora significativamente la capacidad de razonamiento del modelo con muy pocos datos etiquetados. Antes de proporcionar la respuesta final, el modelo genera una cadena de pensamiento para mejorar la precisión de la respuesta final."
850
856
  },
857
+ "deepseek/deepseek-r1-0528": {
858
+ "description": "DeepSeek-R1 mejora enormemente la capacidad de razonamiento del modelo con muy pocos datos etiquetados. Antes de generar la respuesta final, el modelo produce una cadena de pensamiento para aumentar la precisión de la respuesta."
859
+ },
860
+ "deepseek/deepseek-r1-0528:free": {
861
+ "description": "DeepSeek-R1 mejora enormemente la capacidad de razonamiento del modelo con muy pocos datos etiquetados. Antes de generar la respuesta final, el modelo produce una cadena de pensamiento para aumentar la precisión de la respuesta."
862
+ },
851
863
  "deepseek/deepseek-r1-distill-llama-70b": {
852
864
  "description": "DeepSeek R1 Distill Llama 70B es un modelo de lenguaje de gran tamaño basado en Llama3.3 70B, que utiliza el ajuste fino de la salida de DeepSeek R1 para lograr un rendimiento competitivo comparable a los modelos de vanguardia de gran tamaño."
853
865
  },
@@ -1262,6 +1274,9 @@
1262
1274
  "gpt-4o-mini-realtime-preview": {
1263
1275
  "description": "Versión en tiempo real de GPT-4o-mini, que admite entrada y salida de audio y texto en tiempo real."
1264
1276
  },
1277
+ "gpt-4o-mini-search-preview": {
1278
+ "description": "GPT-4o mini versión preliminar de búsqueda es un modelo entrenado específicamente para comprender y ejecutar consultas de búsqueda web, utilizando la API de Chat Completions. Además de los costos por tokens, las consultas de búsqueda web incurren en cargos por cada llamada a la herramienta."
1279
+ },
1265
1280
  "gpt-4o-mini-tts": {
1266
1281
  "description": "GPT-4o mini TTS es un modelo de texto a voz basado en GPT-4o mini, que ofrece generación de voz de alta calidad a un costo más bajo."
1267
1282
  },
@@ -1274,6 +1289,9 @@
1274
1289
  "gpt-4o-realtime-preview-2024-12-17": {
1275
1290
  "description": "Versión en tiempo real de GPT-4o, que admite entrada y salida de audio y texto en tiempo real."
1276
1291
  },
1292
+ "gpt-4o-search-preview": {
1293
+ "description": "GPT-4o versión preliminar de búsqueda es un modelo entrenado específicamente para comprender y ejecutar consultas de búsqueda web, utilizando la API de Chat Completions. Además de los costos por tokens, las consultas de búsqueda web incurren en cargos por cada llamada a la herramienta."
1294
+ },
1277
1295
  "grok-2-1212": {
1278
1296
  "description": "Este modelo ha mejorado en precisión, cumplimiento de instrucciones y capacidades multilingües."
1279
1297
  },
@@ -1307,6 +1325,9 @@
1307
1325
  "hunyuan-large-longcontext": {
1308
1326
  "description": "Especializado en tareas de texto largo como resúmenes de documentos y preguntas y respuestas de documentos, también tiene la capacidad de manejar tareas generales de generación de texto. Destaca en el análisis y generación de textos largos, pudiendo abordar eficazmente las necesidades de procesamiento de contenido largo y complejo."
1309
1327
  },
1328
+ "hunyuan-large-vision": {
1329
+ "description": "Este modelo es adecuado para escenarios de comprensión de imágenes y texto, basado en el modelo visual-lingüístico Hunyuan Large. Soporta entrada de múltiples imágenes de cualquier resolución junto con texto, generando contenido textual, con un enfoque en tareas relacionadas con la comprensión de imágenes y texto, mostrando mejoras significativas en capacidades multilingües."
1330
+ },
1310
1331
  "hunyuan-lite": {
1311
1332
  "description": "Actualizado a una estructura MOE, con una ventana de contexto de 256k, lidera en múltiples conjuntos de evaluación en NLP, código, matemáticas, industria y más, superando a muchos modelos de código abierto."
1312
1333
  },
@@ -1331,18 +1352,15 @@
1331
1352
  "hunyuan-t1-20250321": {
1332
1353
  "description": "Construye de manera integral las capacidades de modelos en ciencias exactas y humanidades, con una fuerte capacidad para capturar información de textos largos. Soporta la inferencia y respuesta a problemas científicos de diversas dificultades, incluyendo matemáticas, lógica, ciencias y código."
1333
1354
  },
1355
+ "hunyuan-t1-20250403": {
1356
+ "description": "Mejora la capacidad de generación de código a nivel de proyecto; mejora la calidad de la escritura generada en texto; mejora la comprensión de temas en texto, el seguimiento de instrucciones tob en múltiples rondas y la comprensión de palabras; optimiza problemas de salida con mezcla de caracteres tradicionales y simplificados, así como mezcla de chino e inglés."
1357
+ },
1334
1358
  "hunyuan-t1-latest": {
1335
1359
  "description": "El primer modelo de inferencia híbrido de gran escala Hybrid-Transformer-Mamba de la industria, que amplía la capacidad de inferencia, ofrece una velocidad de decodificación excepcional y alinea aún más con las preferencias humanas."
1336
1360
  },
1337
1361
  "hunyuan-t1-vision": {
1338
1362
  "description": "Modelo de pensamiento profundo multimodal Hunyuan, que soporta cadenas de pensamiento nativas multimodales, sobresale en diversos escenarios de razonamiento con imágenes y mejora significativamente en problemas científicos en comparación con modelos de pensamiento rápido."
1339
1363
  },
1340
- "hunyuan-translation": {
1341
- "description": "Soporta la traducción entre 15 idiomas, incluyendo chino, inglés, japonés, francés, portugués, español, turco, ruso, árabe, coreano, italiano, alemán, vietnamita, malayo e indonesio, con evaluación automatizada basada en el conjunto de evaluación de traducción en múltiples escenarios y puntuación COMET, superando en general a modelos de tamaño similar en la capacidad de traducción entre idiomas comunes."
1342
- },
1343
- "hunyuan-translation-lite": {
1344
- "description": "El modelo de traducción Hunyuan admite traducción en un formato de diálogo natural; soporta la traducción entre chino, inglés, japonés, francés, portugués, español, turco, ruso, árabe, coreano, italiano, alemán, vietnamita, malayo e indonesio."
1345
- },
1346
1364
  "hunyuan-turbo": {
1347
1365
  "description": "Versión preliminar de la nueva generación del modelo de lenguaje de Hunyuan, que utiliza una nueva estructura de modelo de expertos mixtos (MoE), con una eficiencia de inferencia más rápida y un rendimiento más fuerte en comparación con Hunyuan-Pro."
1348
1366
  },
@@ -1355,8 +1373,11 @@
1355
1373
  "hunyuan-turbo-vision": {
1356
1374
  "description": "El nuevo modelo insignia de lenguaje visual de Hunyuan de nueva generación, que utiliza una nueva estructura de modelo de expertos mixtos (MoE), mejorando de manera integral las capacidades de reconocimiento básico, creación de contenido, preguntas y respuestas de conocimiento, y análisis y razonamiento en comparación con la generación anterior de modelos."
1357
1375
  },
1358
- "hunyuan-turbos-20250226": {
1359
- "description": "hunyuan-TurboS pv2.1.2 es una versión fija con un aumento en el número de tokens de entrenamiento; mejora en las capacidades de pensamiento en matemáticas/lógica/código; mejora en la experiencia general en chino e inglés, incluyendo creación de textos, comprensión de textos, preguntas y respuestas de conocimiento, y charlas informales."
1376
+ "hunyuan-turbos-20250313": {
1377
+ "description": "Unificación del estilo de pasos para resolver problemas matemáticos, fortaleciendo las preguntas y respuestas multilínea en matemáticas. Optimización del estilo de respuesta en creación de texto, eliminando el tono artificial de IA y aumentando la elegancia literaria."
1378
+ },
1379
+ "hunyuan-turbos-20250416": {
1380
+ "description": "Actualización de la base de preentrenamiento para fortalecer la comprensión y el seguimiento de instrucciones; mejora en matemáticas, programación, lógica y ciencias durante la fase de alineación; mejora en calidad de escritura creativa, comprensión de texto, precisión en traducción y preguntas de conocimiento en humanidades; refuerzo de capacidades de agentes en diversos campos, con especial énfasis en la comprensión de diálogos multilínea."
1360
1381
  },
1361
1382
  "hunyuan-turbos-latest": {
1362
1383
  "description": "hunyuan-TurboS es la última versión del modelo insignia Hunyuan, con una mayor capacidad de pensamiento y una mejor experiencia."
@@ -1364,8 +1385,8 @@
1364
1385
  "hunyuan-turbos-longtext-128k-20250325": {
1365
1386
  "description": "Especializado en tareas de texto largo como resúmenes de documentos y preguntas sobre documentos, también tiene la capacidad de manejar tareas generales de generación de texto. Destaca en el análisis y generación de textos largos, capaz de abordar eficazmente las necesidades complejas y detalladas de procesamiento de contenido extenso."
1366
1387
  },
1367
- "hunyuan-turbos-vision": {
1368
- "description": "Este modelo es adecuado para escenarios de comprensión de texto e imagen, es un nuevo modelo de lenguaje visual de última generación basado en los turbos de Hunyuan, enfocado en tareas relacionadas con la comprensión de texto e imagen, incluyendo reconocimiento de entidades basado en imágenes, preguntas y respuestas de conocimiento, creación de contenido, resolución de problemas a partir de fotos, etc., con mejoras generales en comparación con la generación anterior."
1388
+ "hunyuan-turbos-role-plus": {
1389
+ "description": "Modelo de rol más reciente de Hunyuan, afinado oficialmente por Hunyuan, entrenado adicionalmente con conjuntos de datos de escenarios de juego de roles, ofreciendo mejores resultados básicos en dichos escenarios."
1369
1390
  },
1370
1391
  "hunyuan-vision": {
1371
1392
  "description": "El último modelo multimodal de Hunyuan, que admite la entrada de imágenes y texto para generar contenido textual."
@@ -1886,11 +1907,14 @@
1886
1907
  "qvq-72b-preview": {
1887
1908
  "description": "El modelo QVQ es un modelo de investigación experimental desarrollado por el equipo de Qwen, enfocado en mejorar la capacidad de razonamiento visual, especialmente en el ámbito del razonamiento matemático."
1888
1909
  },
1889
- "qvq-max-latest": {
1890
- "description": "El modelo de razonamiento visual QVQ de Tongyi Qianwen admite entradas visuales y salidas de cadena de pensamiento, mostrando capacidades más fuertes en matemáticas, programación, análisis visual, creación y tareas generales."
1910
+ "qvq-max": {
1911
+ "description": "Modelo de razonamiento visual QVQ de Tongyi Qianwen, que soporta entrada visual y salida de cadena de pensamiento, mostrando capacidades superiores en matemáticas, programación, análisis visual, creación y tareas generales."
1912
+ },
1913
+ "qwen-coder-plus": {
1914
+ "description": "Modelo de código Tongyi Qianwen."
1891
1915
  },
1892
- "qwen-coder-plus-latest": {
1893
- "description": "Modelo de código Qwen de Tongyi."
1916
+ "qwen-coder-turbo": {
1917
+ "description": "Modelo de código Tongyi Qianwen."
1894
1918
  },
1895
1919
  "qwen-coder-turbo-latest": {
1896
1920
  "description": "El modelo de código Tongyi Qwen."
@@ -1898,41 +1922,44 @@
1898
1922
  "qwen-long": {
1899
1923
  "description": "Qwen es un modelo de lenguaje a gran escala que admite contextos de texto largos y funciones de conversación basadas en documentos largos y múltiples."
1900
1924
  },
1925
+ "qwen-math-plus": {
1926
+ "description": "Modelo matemático Tongyi Qianwen especializado en resolución de problemas matemáticos."
1927
+ },
1901
1928
  "qwen-math-plus-latest": {
1902
1929
  "description": "El modelo de matemáticas Tongyi Qwen está diseñado específicamente para resolver problemas matemáticos."
1903
1930
  },
1931
+ "qwen-math-turbo": {
1932
+ "description": "Modelo matemático Tongyi Qianwen especializado en resolución de problemas matemáticos."
1933
+ },
1904
1934
  "qwen-math-turbo-latest": {
1905
1935
  "description": "El modelo de matemáticas Tongyi Qwen está diseñado específicamente para resolver problemas matemáticos."
1906
1936
  },
1907
1937
  "qwen-max": {
1908
1938
  "description": "El modelo de lenguaje a gran escala Qwen Max, de billones de parámetros, admite entradas en diferentes idiomas como chino e inglés, y actualmente es el modelo API detrás de la versión del producto Qwen 2.5."
1909
1939
  },
1910
- "qwen-max-latest": {
1911
- "description": "El modelo de lenguaje a gran escala Tongyi Qwen de nivel de cientos de miles de millones, que admite entradas en diferentes idiomas como chino e inglés, es el modelo API detrás de la versión del producto Tongyi Qwen 2.5."
1912
- },
1913
- "qwen-omni-turbo-latest": {
1914
- "description": "La serie de modelos Qwen-Omni admite la entrada de datos en múltiples modalidades, incluyendo video, audio, imágenes y texto, y produce audio y texto como salida."
1940
+ "qwen-omni-turbo": {
1941
+ "description": "La serie Qwen-Omni soporta entrada de múltiples modalidades, incluyendo video, audio, imágenes y texto, y produce salida en audio y texto."
1915
1942
  },
1916
1943
  "qwen-plus": {
1917
1944
  "description": "La versión mejorada del modelo de lenguaje a gran escala Qwen admite entradas en diferentes idiomas como chino e inglés."
1918
1945
  },
1919
- "qwen-plus-latest": {
1920
- "description": "La versión mejorada del modelo de lenguaje a gran escala Tongyi Qwen, que admite entradas en diferentes idiomas como chino e inglés."
1921
- },
1922
1946
  "qwen-turbo": {
1923
1947
  "description": "El modelo de lenguaje a gran escala Qwen-Turbo admite entradas en diferentes idiomas como chino e inglés."
1924
1948
  },
1925
- "qwen-turbo-latest": {
1926
- "description": "El modelo de lenguaje a gran escala Tongyi Qwen, que admite entradas en diferentes idiomas como chino e inglés."
1927
- },
1928
1949
  "qwen-vl-chat-v1": {
1929
1950
  "description": "Qwen VL admite formas de interacción flexibles, incluyendo múltiples imágenes, preguntas y respuestas en múltiples rondas, y capacidades creativas."
1930
1951
  },
1952
+ "qwen-vl-max": {
1953
+ "description": "Modelo visual-lingüístico a gran escala Tongyi Qianwen de máxima capacidad. En comparación con la versión mejorada, incrementa aún más la capacidad de razonamiento visual y el seguimiento de instrucciones, ofreciendo un nivel superior de percepción y cognición visual."
1954
+ },
1931
1955
  "qwen-vl-max-latest": {
1932
1956
  "description": "Modelo de lenguaje visual a ultra gran escala Tongyi Qianwen. En comparación con la versión mejorada, mejora aún más la capacidad de razonamiento visual y de seguimiento de instrucciones, ofreciendo un nivel más alto de percepción y cognición visual."
1933
1957
  },
1934
- "qwen-vl-ocr-latest": {
1935
- "description": "Qwen OCR es un modelo especializado en extracción de texto, enfocado en la capacidad de extraer texto de imágenes de documentos, tablas, exámenes, escritura a mano, entre otros. Puede reconocer múltiples idiomas, actualmente soporta: chino, inglés, francés, japonés, coreano, alemán, ruso, italiano, vietnamita y árabe."
1958
+ "qwen-vl-ocr": {
1959
+ "description": "Tongyi Qianwen OCR es un modelo especializado en extracción de texto, enfocado en documentos, tablas, exámenes y escritura manuscrita. Puede reconocer múltiples idiomas, incluyendo chino, inglés, francés, japonés, coreano, alemán, ruso, italiano, vietnamita y árabe."
1960
+ },
1961
+ "qwen-vl-plus": {
1962
+ "description": "Versión mejorada del modelo visual-lingüístico a gran escala Tongyi Qianwen. Mejora considerablemente la capacidad de reconocimiento de detalles y texto, soportando imágenes con resolución superior a un millón de píxeles y proporciones de aspecto arbitrarias."
1936
1963
  },
1937
1964
  "qwen-vl-plus-latest": {
1938
1965
  "description": "Versión mejorada del modelo de lenguaje visual a gran escala Tongyi Qianwen. Mejora significativamente la capacidad de reconocimiento de detalles y de texto, soportando imágenes con resolución de más de un millón de píxeles y proporciones de ancho y alto arbitrarias."
@@ -2021,6 +2048,9 @@
2021
2048
  "qwen2.5-coder-1.5b-instruct": {
2022
2049
  "description": "La versión de código abierto del modelo Qwen para codificación."
2023
2050
  },
2051
+ "qwen2.5-coder-14b-instruct": {
2052
+ "description": "Versión de código de código abierto del modelo Tongyi Qianwen."
2053
+ },
2024
2054
  "qwen2.5-coder-32b-instruct": {
2025
2055
  "description": "Versión de código abierto del modelo de código Qwen de Tongyi."
2026
2056
  },
@@ -2111,8 +2141,8 @@
2111
2141
  "qwq-32b-preview": {
2112
2142
  "description": "El modelo QwQ es un modelo de investigación experimental desarrollado por el equipo de Qwen, enfocado en mejorar la capacidad de razonamiento de la IA."
2113
2143
  },
2114
- "qwq-plus-latest": {
2115
- "description": "El modelo de inferencia QwQ, entrenado con el modelo Qwen2.5, ha mejorado significativamente su capacidad de inferencia a través del aprendizaje por refuerzo. Los indicadores clave del modelo, como el código matemático y otros indicadores centrales (AIME 24/25, LiveCodeBench), así como algunos indicadores generales (IFEval, LiveBench, etc.), han alcanzado el nivel del modelo DeepSeek-R1 en su versión completa."
2144
+ "qwq-plus": {
2145
+ "description": "Modelo de razonamiento QwQ basado en el modelo Qwen2.5, que mejora significativamente la capacidad de razonamiento mediante aprendizaje reforzado. Los indicadores clave en matemáticas y código (AIME 24/25, LiveCodeBench) y algunos indicadores generales (IFEval, LiveBench, etc.) alcanzan el nivel completo de DeepSeek-R1."
2116
2146
  },
2117
2147
  "qwq_32b": {
2118
2148
  "description": "Modelo de inferencia de tamaño mediano de la serie Qwen. En comparación con los modelos tradicionales de ajuste por instrucciones, QwQ, que posee capacidades de pensamiento y razonamiento, puede mejorar significativamente el rendimiento en tareas de resolución de problemas, especialmente en tareas difíciles."
@@ -71,6 +71,9 @@
71
71
  "mistral": {
72
72
  "description": "Mistral ofrece modelos avanzados generales, especializados y de investigación, ampliamente utilizados en razonamiento complejo, tareas multilingües, generación de código, etc. A través de interfaces de llamada de funciones, los usuarios pueden integrar funciones personalizadas para aplicaciones específicas."
73
73
  },
74
+ "modelscope": {
75
+ "description": "ModelScope es una plataforma de modelo como servicio lanzada por Alibaba Cloud, que ofrece una amplia variedad de modelos de IA y servicios de inferencia."
76
+ },
74
77
  "moonshot": {
75
78
  "description": "Moonshot es una plataforma de código abierto lanzada por Beijing Dark Side Technology Co., que ofrece una variedad de modelos de procesamiento del lenguaje natural, con aplicaciones en campos amplios, incluyendo pero no limitado a creación de contenido, investigación académica, recomendaciones inteligentes y diagnóstico médico, apoyando el procesamiento de textos largos y tareas de generación complejas."
76
79
  },
@@ -208,6 +208,10 @@
208
208
  "title": "استفاده از مدل درخواست کلاینت"
209
209
  },
210
210
  "helpDoc": "راهنمای پیکربندی",
211
+ "responsesApi": {
212
+ "desc": "استفاده از قالب درخواست نسل جدید OpenAI برای باز کردن ویژگی‌های پیشرفته مانند زنجیره تفکر",
213
+ "title": "استفاده از استاندارد Responses API"
214
+ },
211
215
  "waitingForMore": "مدل‌های بیشتری در حال <1>برنامه‌ریزی برای اتصال</1> هستند، لطفاً منتظر بمانید"
212
216
  },
213
217
  "createNew": {