@lobehub/chat 1.51.8 → 1.51.10

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (63) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/common.json +1 -1
  4. package/locales/ar/modelProvider.json +0 -20
  5. package/locales/ar/models.json +108 -3
  6. package/locales/bg-BG/common.json +1 -1
  7. package/locales/bg-BG/modelProvider.json +0 -20
  8. package/locales/bg-BG/models.json +108 -3
  9. package/locales/de-DE/common.json +1 -1
  10. package/locales/de-DE/modelProvider.json +0 -20
  11. package/locales/de-DE/models.json +108 -3
  12. package/locales/en-US/common.json +1 -1
  13. package/locales/en-US/modelProvider.json +0 -20
  14. package/locales/en-US/models.json +108 -3
  15. package/locales/es-ES/common.json +1 -1
  16. package/locales/es-ES/modelProvider.json +0 -20
  17. package/locales/es-ES/models.json +108 -3
  18. package/locales/fa-IR/common.json +1 -1
  19. package/locales/fa-IR/modelProvider.json +0 -20
  20. package/locales/fa-IR/models.json +108 -3
  21. package/locales/fr-FR/common.json +1 -1
  22. package/locales/fr-FR/modelProvider.json +0 -20
  23. package/locales/fr-FR/models.json +108 -3
  24. package/locales/it-IT/common.json +1 -1
  25. package/locales/it-IT/modelProvider.json +0 -20
  26. package/locales/it-IT/models.json +108 -3
  27. package/locales/ja-JP/common.json +1 -1
  28. package/locales/ja-JP/modelProvider.json +0 -20
  29. package/locales/ja-JP/models.json +108 -3
  30. package/locales/ko-KR/common.json +1 -1
  31. package/locales/ko-KR/modelProvider.json +0 -20
  32. package/locales/ko-KR/models.json +108 -3
  33. package/locales/nl-NL/common.json +1 -1
  34. package/locales/nl-NL/modelProvider.json +0 -20
  35. package/locales/nl-NL/models.json +108 -3
  36. package/locales/pl-PL/common.json +1 -1
  37. package/locales/pl-PL/modelProvider.json +0 -20
  38. package/locales/pl-PL/models.json +108 -3
  39. package/locales/pt-BR/common.json +1 -1
  40. package/locales/pt-BR/modelProvider.json +0 -20
  41. package/locales/pt-BR/models.json +108 -3
  42. package/locales/ru-RU/common.json +1 -1
  43. package/locales/ru-RU/modelProvider.json +0 -20
  44. package/locales/ru-RU/models.json +108 -3
  45. package/locales/tr-TR/common.json +1 -1
  46. package/locales/tr-TR/modelProvider.json +0 -20
  47. package/locales/tr-TR/models.json +108 -3
  48. package/locales/vi-VN/common.json +1 -1
  49. package/locales/vi-VN/modelProvider.json +0 -20
  50. package/locales/vi-VN/models.json +108 -3
  51. package/locales/zh-CN/common.json +1 -1
  52. package/locales/zh-CN/modelProvider.json +0 -20
  53. package/locales/zh-CN/models.json +113 -8
  54. package/locales/zh-TW/common.json +1 -1
  55. package/locales/zh-TW/modelProvider.json +0 -20
  56. package/locales/zh-TW/models.json +108 -3
  57. package/package.json +1 -1
  58. package/src/app/[variants]/(main)/chat/_layout/Desktop/SessionPanel.tsx +2 -1
  59. package/src/app/[variants]/(main)/chat/_layout/Mobile.tsx +2 -1
  60. package/src/app/[variants]/(main)/chat/layout.ts +0 -2
  61. package/src/app/[variants]/(main)/settings/provider/(detail)/[id]/page.tsx +30 -28
  62. package/src/features/User/PlanTag.tsx +2 -2
  63. package/src/locales/default/common.ts +1 -1
@@ -23,6 +23,9 @@
23
23
  "360gpt2-pro": {
24
24
  "description": "360GPT2 Pro is an advanced natural language processing model launched by 360, featuring exceptional text generation and understanding capabilities, particularly excelling in generation and creative tasks, capable of handling complex language transformations and role-playing tasks."
25
25
  },
26
+ "360zhinao2-o1": {
27
+ "description": "360zhinao2-o1 uses tree search to build a chain of thought and introduces a reflection mechanism, utilizing reinforcement learning for training, enabling the model to possess self-reflection and error-correction capabilities."
28
+ },
26
29
  "4.0Ultra": {
27
30
  "description": "Spark4.0 Ultra is the most powerful version in the Spark large model series, enhancing text content understanding and summarization capabilities while upgrading online search links. It is a comprehensive solution for improving office productivity and accurately responding to demands, leading the industry as an intelligent product."
28
31
  },
@@ -44,6 +47,18 @@
44
47
  "Baichuan4-Turbo": {
45
48
  "description": "The leading model in the country, surpassing mainstream foreign models in Chinese tasks such as knowledge encyclopedias, long texts, and creative generation. It also possesses industry-leading multimodal capabilities, excelling in multiple authoritative evaluation benchmarks."
46
49
  },
50
+ "DeepSeek-R1-Distill-Qwen-1.5B": {
51
+ "description": "The DeepSeek-R1 distillation model based on Qwen2.5-Math-1.5B optimizes inference performance through reinforcement learning and cold-start data, refreshing the benchmark for open-source models across multiple tasks."
52
+ },
53
+ "DeepSeek-R1-Distill-Qwen-14B": {
54
+ "description": "The DeepSeek-R1 distillation model based on Qwen2.5-14B optimizes inference performance through reinforcement learning and cold-start data, refreshing the benchmark for open-source models across multiple tasks."
55
+ },
56
+ "DeepSeek-R1-Distill-Qwen-32B": {
57
+ "description": "The DeepSeek-R1 series optimizes inference performance through reinforcement learning and cold-start data, refreshing the benchmark for open-source models across multiple tasks, surpassing the level of OpenAI-o1-mini."
58
+ },
59
+ "DeepSeek-R1-Distill-Qwen-7B": {
60
+ "description": "The DeepSeek-R1 distillation model based on Qwen2.5-Math-7B optimizes inference performance through reinforcement learning and cold-start data, refreshing the benchmark for open-source models across multiple tasks."
61
+ },
47
62
  "Doubao-lite-128k": {
48
63
  "description": "Doubao-lite provides extreme response speed and better cost-effectiveness, offering flexible options for various customer scenarios. It supports inference and fine-tuning with a 128k context window."
49
64
  },
@@ -77,9 +92,6 @@
77
92
  "ERNIE-4.0-8K-Preview": {
78
93
  "description": "Baidu's self-developed flagship ultra-large-scale language model, which has achieved a comprehensive upgrade in model capabilities compared to ERNIE 3.5, widely applicable to complex task scenarios across various fields; supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information."
79
94
  },
80
- "ERNIE-4.0-Turbo-128K": {
81
- "description": "Baidu's self-developed flagship ultra-large-scale language model, demonstrating excellent overall performance, widely applicable to complex task scenarios across various fields; supports automatic integration with Baidu search plugins to ensure timely Q&A information. Compared to ERNIE 4.0, it performs even better."
82
- },
83
95
  "ERNIE-4.0-Turbo-8K-Latest": {
84
96
  "description": "Baidu's self-developed flagship ultra-large-scale language model, demonstrating excellent overall performance, suitable for complex task scenarios across various fields; supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information. It offers better performance compared to ERNIE 4.0."
85
97
  },
@@ -176,6 +188,9 @@
176
188
  "Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
177
189
  "description": "Meta Llama 3.1 is a family of multilingual large language models developed by Meta, including pre-trained and instruction-tuned variants with parameter sizes of 8B, 70B, and 405B. This 8B instruction-tuned model is optimized for multilingual dialogue scenarios and performs excellently in multiple industry benchmark tests. The model is trained using over 150 trillion tokens of public data and employs techniques such as supervised fine-tuning and human feedback reinforcement learning to enhance the model's usefulness and safety. Llama 3.1 supports text generation and code generation, with a knowledge cutoff date of December 2023."
178
190
  },
191
+ "QwQ-32B-Preview": {
192
+ "description": "QwQ-32B-Preview is an innovative natural language processing model capable of efficiently handling complex dialogue generation and context understanding tasks."
193
+ },
179
194
  "Qwen/QVQ-72B-Preview": {
180
195
  "description": "QVQ-72B-Preview is a research-oriented model developed by the Qwen team, focusing on visual reasoning capabilities, with unique advantages in understanding complex scenes and solving visually related mathematical problems."
181
196
  },
@@ -527,6 +542,24 @@
527
542
  "deepseek-ai/DeepSeek-R1": {
528
543
  "description": "DeepSeek-R1 is a reinforcement learning (RL) driven inference model that addresses issues of repetitiveness and readability within the model. Prior to RL, DeepSeek-R1 introduced cold start data to further optimize inference performance. It performs comparably to OpenAI-o1 in mathematical, coding, and reasoning tasks, and enhances overall effectiveness through meticulously designed training methods."
529
544
  },
545
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
546
+ "description": "The DeepSeek-R1 distillation model optimizes inference performance through reinforcement learning and cold-start data, refreshing the benchmark for open-source models across multiple tasks."
547
+ },
548
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
549
+ "description": "DeepSeek-R1-Distill-Llama-8B is a distillation model developed based on Llama-3.1-8B. This model is fine-tuned using samples generated by DeepSeek-R1, demonstrating excellent reasoning capabilities. It has performed well in multiple benchmark tests, achieving an 89.1% accuracy rate on MATH-500, a 50.4% pass rate on AIME 2024, and a score of 1205 on CodeForces, showcasing strong mathematical and programming abilities as an 8B scale model."
550
+ },
551
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
552
+ "description": "The DeepSeek-R1 distillation model optimizes inference performance through reinforcement learning and cold-start data, refreshing the benchmark for open-source models across multiple tasks."
553
+ },
554
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
555
+ "description": "The DeepSeek-R1 distillation model optimizes inference performance through reinforcement learning and cold-start data, refreshing the benchmark for open-source models across multiple tasks."
556
+ },
557
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
558
+ "description": "DeepSeek-R1-Distill-Qwen-32B is a model obtained through knowledge distillation based on Qwen2.5-32B. This model is fine-tuned using 800,000 selected samples generated by DeepSeek-R1, demonstrating exceptional performance in mathematics, programming, and reasoning across multiple domains. It has achieved excellent results in various benchmark tests, including a 94.3% accuracy rate on MATH-500, showcasing strong mathematical reasoning capabilities."
559
+ },
560
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
561
+ "description": "DeepSeek-R1-Distill-Qwen-7B is a model obtained through knowledge distillation based on Qwen2.5-Math-7B. This model is fine-tuned using 800,000 selected samples generated by DeepSeek-R1, demonstrating excellent reasoning capabilities. It has performed outstandingly in multiple benchmark tests, achieving a 92.8% accuracy rate on MATH-500, a 55.5% pass rate on AIME 2024, and a score of 1189 on CodeForces, showcasing strong mathematical and programming abilities as a 7B scale model."
562
+ },
530
563
  "deepseek-ai/DeepSeek-V2.5": {
531
564
  "description": "DeepSeek V2.5 combines the excellent features of previous versions, enhancing general and coding capabilities."
532
565
  },
@@ -554,6 +587,9 @@
554
587
  "deepseek-r1": {
555
588
  "description": "DeepSeek-R1 is a reinforcement learning (RL) driven inference model that addresses issues of repetitiveness and readability within the model. Prior to RL, DeepSeek-R1 introduced cold start data to further optimize inference performance. It performs comparably to OpenAI-o1 in mathematical, coding, and reasoning tasks, and enhances overall effectiveness through meticulously designed training methods."
556
589
  },
590
+ "deepseek-r1-distill-llama-70b": {
591
+ "description": "DeepSeek R1—the larger and smarter model in the DeepSeek suite—has been distilled into the Llama 70B architecture. Based on benchmark tests and human evaluations, this model is smarter than the original Llama 70B, especially excelling in tasks requiring mathematical and factual accuracy."
592
+ },
557
593
  "deepseek-reasoner": {
558
594
  "description": "The reasoning model launched by DeepSeek. Before outputting the final answer, the model first provides a chain of thought to enhance the accuracy of the final response."
559
595
  },
@@ -563,12 +599,63 @@
563
599
  "deepseek-v2:236b": {
564
600
  "description": "DeepSeek V2 236B is the design code model of DeepSeek, providing powerful code generation capabilities."
565
601
  },
602
+ "deepseek-v3": {
603
+ "description": "DeepSeek-V3 is a MoE model developed by Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd., achieving outstanding results in multiple evaluations and ranking first among open-source models on mainstream leaderboards. Compared to the V2.5 model, V3 has achieved a threefold increase in generation speed, providing users with a faster and smoother experience."
604
+ },
566
605
  "deepseek/deepseek-chat": {
567
606
  "description": "A new open-source model that integrates general and coding capabilities, retaining the general conversational abilities of the original Chat model and the powerful code handling capabilities of the Coder model, while better aligning with human preferences. Additionally, DeepSeek-V2.5 has achieved significant improvements in writing tasks, instruction following, and more."
568
607
  },
569
608
  "emohaa": {
570
609
  "description": "Emohaa is a psychological model with professional counseling capabilities, helping users understand emotional issues."
571
610
  },
611
+ "ernie-3.5-128k": {
612
+ "description": "Baidu's flagship large-scale language model, covering a vast amount of Chinese and English corpus, possesses strong general capabilities to meet the requirements of most dialogue Q&A, creative generation, and plugin application scenarios; it supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information."
613
+ },
614
+ "ernie-3.5-8k": {
615
+ "description": "Baidu's flagship large-scale language model, covering a vast amount of Chinese and English corpus, possesses strong general capabilities to meet the requirements of most dialogue Q&A, creative generation, and plugin application scenarios; it supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information."
616
+ },
617
+ "ernie-3.5-8k-preview": {
618
+ "description": "Baidu's flagship large-scale language model, covering a vast amount of Chinese and English corpus, possesses strong general capabilities to meet the requirements of most dialogue Q&A, creative generation, and plugin application scenarios; it supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information."
619
+ },
620
+ "ernie-4.0-8k-latest": {
621
+ "description": "Baidu's flagship ultra-large-scale language model, which has achieved a comprehensive upgrade in model capabilities compared to ERNIE 3.5, widely applicable to complex task scenarios across various fields; it supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information."
622
+ },
623
+ "ernie-4.0-8k-preview": {
624
+ "description": "Baidu's flagship ultra-large-scale language model, which has achieved a comprehensive upgrade in model capabilities compared to ERNIE 3.5, widely applicable to complex task scenarios across various fields; it supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information."
625
+ },
626
+ "ernie-4.0-turbo-128k": {
627
+ "description": "Baidu's flagship ultra-large-scale language model, demonstrating outstanding overall performance, widely applicable to complex task scenarios across various fields; it supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information. It performs better than ERNIE 4.0 in terms of performance."
628
+ },
629
+ "ernie-4.0-turbo-8k-latest": {
630
+ "description": "Baidu's flagship ultra-large-scale language model, demonstrating outstanding overall performance, widely applicable to complex task scenarios across various fields; it supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information. It performs better than ERNIE 4.0 in terms of performance."
631
+ },
632
+ "ernie-4.0-turbo-8k-preview": {
633
+ "description": "Baidu's flagship ultra-large-scale language model, demonstrating outstanding overall performance, widely applicable to complex task scenarios across various fields; it supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information. It performs better than ERNIE 4.0 in terms of performance."
634
+ },
635
+ "ernie-char-8k": {
636
+ "description": "Baidu's vertical scene large language model, suitable for applications such as game NPCs, customer service dialogues, and role-playing conversations, with a more distinct and consistent character style, stronger instruction-following capabilities, and superior inference performance."
637
+ },
638
+ "ernie-char-fiction-8k": {
639
+ "description": "Baidu's vertical scene large language model, suitable for applications such as game NPCs, customer service dialogues, and role-playing conversations, with a more distinct and consistent character style, stronger instruction-following capabilities, and superior inference performance."
640
+ },
641
+ "ernie-lite-8k": {
642
+ "description": "ERNIE Lite is Baidu's lightweight large language model, balancing excellent model performance with inference efficiency, suitable for low-power AI acceleration card inference."
643
+ },
644
+ "ernie-lite-pro-128k": {
645
+ "description": "Baidu's lightweight large language model, balancing excellent model performance with inference efficiency, offering better performance than ERNIE Lite, suitable for low-power AI acceleration card inference."
646
+ },
647
+ "ernie-novel-8k": {
648
+ "description": "Baidu's general-purpose large language model, which has a significant advantage in novel continuation capabilities and can also be used in short plays, movies, and other scenarios."
649
+ },
650
+ "ernie-speed-128k": {
651
+ "description": "Baidu's latest self-developed high-performance large language model released in 2024, with excellent general capabilities, suitable as a base model for fine-tuning to better address specific scenario issues while also demonstrating excellent inference performance."
652
+ },
653
+ "ernie-speed-pro-128k": {
654
+ "description": "Baidu's latest self-developed high-performance large language model released in 2024, with excellent general capabilities, offering better performance than ERNIE Speed, suitable as a base model for fine-tuning to better address specific scenario issues while also demonstrating excellent inference performance."
655
+ },
656
+ "ernie-tiny-8k": {
657
+ "description": "ERNIE Tiny is Baidu's ultra-high-performance large language model, with the lowest deployment and fine-tuning costs among the Wenxin series models."
658
+ },
572
659
  "gemini-1.0-pro-001": {
573
660
  "description": "Gemini 1.0 Pro 001 (Tuning) offers stable and tunable performance, making it an ideal choice for complex task solutions."
574
661
  },
@@ -872,6 +959,9 @@
872
959
  "internlm2.5-latest": {
873
960
  "description": "Our latest model series, featuring exceptional reasoning performance, supporting a context length of 1M, and enhanced instruction following and tool invocation capabilities."
874
961
  },
962
+ "internlm3-latest": {
963
+ "description": "Our latest model series boasts exceptional inference performance, leading the pack among open-source models of similar scale. It defaults to our most recently released InternLM3 series models."
964
+ },
875
965
  "learnlm-1.5-pro-experimental": {
876
966
  "description": "LearnLM is an experimental, task-specific language model trained to align with learning science principles, capable of following systematic instructions in teaching and learning scenarios, acting as an expert tutor, among other roles."
877
967
  },
@@ -986,6 +1076,9 @@
986
1076
  "meta-llama/Llama-3.3-70B-Instruct": {
987
1077
  "description": "Llama 3.3 is the most advanced multilingual open-source large language model in the Llama series, offering performance comparable to 405B models at a very low cost. Based on the Transformer architecture, it enhances usability and safety through supervised fine-tuning (SFT) and reinforcement learning from human feedback (RLHF). Its instruction-tuned version is optimized for multilingual dialogue and outperforms many open-source and closed chat models on multiple industry benchmarks. Knowledge cutoff date is December 2023."
988
1078
  },
1079
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo": {
1080
+ "description": "Meta Llama 3.3 is a multilingual large language model (LLM) that is a pre-trained and instruction-tuned generative model within the 70B (text input/text output) framework. The instruction-tuned pure text model is optimized for multilingual dialogue use cases and outperforms many available open-source and closed chat models on common industry benchmarks."
1081
+ },
989
1082
  "meta-llama/Llama-Vision-Free": {
990
1083
  "description": "LLaMA 3.2 is designed for tasks involving both visual and textual data. It excels in tasks like image description and visual question answering, bridging the gap between language generation and visual reasoning."
991
1084
  },
@@ -1256,6 +1349,9 @@
1256
1349
  "qwen-vl-max-latest": {
1257
1350
  "description": "Tongyi Qianwen's ultra-large-scale visual language model. Compared to the enhanced version, it further improves visual reasoning and instruction-following abilities, providing a higher level of visual perception and cognition."
1258
1351
  },
1352
+ "qwen-vl-ocr-latest": {
1353
+ "description": "The Tongyi Qianwen OCR is a proprietary model for text extraction, focusing on the ability to extract text from images of documents, tables, exam papers, and handwritten text. It can recognize multiple languages, currently supporting: Chinese, English, French, Japanese, Korean, German, Russian, Italian, Vietnamese, and Arabic."
1354
+ },
1259
1355
  "qwen-vl-plus-latest": {
1260
1356
  "description": "Tongyi Qianwen's large-scale visual language model enhanced version. Significantly improves detail recognition and text recognition capabilities, supporting ultra-high pixel resolution and images of any aspect ratio."
1261
1357
  },
@@ -1274,6 +1370,9 @@
1274
1370
  "qwen2.5-14b-instruct": {
1275
1371
  "description": "The 14B model of Tongyi Qianwen 2.5 is open-sourced."
1276
1372
  },
1373
+ "qwen2.5-14b-instruct-1m": {
1374
+ "description": "The Tongyi Qianwen 2.5 model is open-sourced at a scale of 72B."
1375
+ },
1277
1376
  "qwen2.5-32b-instruct": {
1278
1377
  "description": "The 32B model of Tongyi Qianwen 2.5 is open-sourced."
1279
1378
  },
@@ -1301,6 +1400,12 @@
1301
1400
  "qwen2.5-math-7b-instruct": {
1302
1401
  "description": "The Qwen-Math model possesses strong capabilities for solving mathematical problems."
1303
1402
  },
1403
+ "qwen2.5-vl-72b-instruct": {
1404
+ "description": "This version enhances instruction following, mathematics, problem-solving, and coding capabilities, improving the ability to recognize various formats and accurately locate visual elements. It supports understanding long video files (up to 10 minutes) and pinpointing events in seconds, comprehending the sequence and speed of time, and based on parsing and locating capabilities, it supports controlling OS or Mobile agents. It has strong key information extraction and JSON output capabilities, and this version is the most powerful in the series at 72B."
1405
+ },
1406
+ "qwen2.5-vl-7b-instruct": {
1407
+ "description": "This version enhances instruction following, mathematics, problem-solving, and coding capabilities, improving the ability to recognize various formats and accurately locate visual elements. It supports understanding long video files (up to 10 minutes) and pinpointing events in seconds, comprehending the sequence and speed of time, and based on parsing and locating capabilities, it supports controlling OS or Mobile agents. It has strong key information extraction and JSON output capabilities, and this version is the most powerful in the series at 72B."
1408
+ },
1304
1409
  "qwen2.5:0.5b": {
1305
1410
  "description": "Qwen2.5 is Alibaba's next-generation large-scale language model, supporting diverse application needs with outstanding performance."
1306
1411
  },
@@ -286,6 +286,7 @@
286
286
  "anonymousNickName": "Usuario Anónimo",
287
287
  "billing": "Gestión de facturación",
288
288
  "cloud": "Prueba {{name}}",
289
+ "community": "Versión comunitaria",
289
290
  "data": "Almacenamiento de datos",
290
291
  "defaultNickname": "Usuario de la comunidad",
291
292
  "discord": "Soporte de la comunidad",
@@ -295,7 +296,6 @@
295
296
  "help": "Centro de ayuda",
296
297
  "moveGuide": "El botón de configuración se ha movido aquí",
297
298
  "plans": "Planes de suscripción",
298
- "preview": "Vista previa",
299
299
  "profile": "Gestión de cuenta",
300
300
  "setting": "Configuración de la aplicación",
301
301
  "usages": "Estadísticas de uso"
@@ -294,26 +294,6 @@
294
294
  "tooltip": "Actualizar configuración básica del proveedor",
295
295
  "updateSuccess": "Actualización exitosa"
296
296
  },
297
- "wenxin": {
298
- "accessKey": {
299
- "desc": "Introduce la Access Key de la plataforma Qianfan de Baidu",
300
- "placeholder": "Access Key de Qianfan",
301
- "title": "Access Key"
302
- },
303
- "checker": {
304
- "desc": "Verifica si la AccessKey / SecretAccess está correctamente ingresada"
305
- },
306
- "secretKey": {
307
- "desc": "Introduce la Secret Key de la plataforma Qianfan de Baidu",
308
- "placeholder": "Secret Key de Qianfan",
309
- "title": "Secret Key"
310
- },
311
- "unlock": {
312
- "customRegion": "Región de servicio personalizada",
313
- "description": "Introduce tu AccessKey / SecretKey para comenzar la sesión. La aplicación no registrará tu configuración de autenticación",
314
- "title": "Usar información de autenticación personalizada de Wenxin Yiyan"
315
- }
316
- },
317
297
  "zeroone": {
318
298
  "title": "01.AI Cero Uno Todo"
319
299
  },
@@ -23,6 +23,9 @@
23
23
  "360gpt2-pro": {
24
24
  "description": "360GPT2 Pro es un modelo avanzado de procesamiento de lenguaje natural lanzado por la empresa 360, con una excelente capacidad de generación y comprensión de textos, destacándose especialmente en la generación y creación de contenido, capaz de manejar tareas complejas de conversión de lenguaje y representación de roles."
25
25
  },
26
+ "360zhinao2-o1": {
27
+ "description": "360zhinao2-o1 utiliza búsqueda en árbol para construir cadenas de pensamiento e introduce un mecanismo de reflexión, entrenando el modelo con aprendizaje por refuerzo, lo que le confiere la capacidad de auto-reflexión y corrección de errores."
28
+ },
26
29
  "4.0Ultra": {
27
30
  "description": "Spark4.0 Ultra es la versión más poderosa de la serie de modelos grandes de Xinghuo, mejorando la comprensión y capacidad de resumen de contenido textual al actualizar la conexión de búsqueda en línea. Es una solución integral para mejorar la productividad en la oficina y responder con precisión a las necesidades, siendo un producto inteligente líder en la industria."
28
31
  },
@@ -44,6 +47,18 @@
44
47
  "Baichuan4-Turbo": {
45
48
  "description": "El modelo más potente del país, superando a los modelos principales extranjeros en tareas en chino como enciclopedias, textos largos y creación generativa. También cuenta con capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de referencia."
46
49
  },
50
+ "DeepSeek-R1-Distill-Qwen-1.5B": {
51
+ "description": "El modelo de destilación DeepSeek-R1 basado en Qwen2.5-Math-1.5B optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto."
52
+ },
53
+ "DeepSeek-R1-Distill-Qwen-14B": {
54
+ "description": "El modelo de destilación DeepSeek-R1 basado en Qwen2.5-14B optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto."
55
+ },
56
+ "DeepSeek-R1-Distill-Qwen-32B": {
57
+ "description": "La serie DeepSeek-R1 optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto, superando el nivel de OpenAI-o1-mini."
58
+ },
59
+ "DeepSeek-R1-Distill-Qwen-7B": {
60
+ "description": "El modelo de destilación DeepSeek-R1 basado en Qwen2.5-Math-7B optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto."
61
+ },
47
62
  "Doubao-lite-128k": {
48
63
  "description": "Doubao-lite presenta una velocidad de respuesta extrema y una mejor relación calidad-precio, ofreciendo opciones más flexibles para diferentes escenarios de clientes. Admite inferencia y ajuste fino con ventanas de contexto de 128k."
49
64
  },
@@ -77,9 +92,6 @@
77
92
  "ERNIE-4.0-8K-Preview": {
78
93
  "description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, que ha logrado una actualización completa de las capacidades del modelo en comparación con ERNIE 3.5, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas."
79
94
  },
80
- "ERNIE-4.0-Turbo-128K": {
81
- "description": "Modelo de lenguaje de gran escala de última generación desarrollado por Baidu, con un rendimiento sobresaliente en una variedad de escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas. En comparación con ERNIE 4.0, ofrece un rendimiento superior."
82
- },
83
95
  "ERNIE-4.0-Turbo-8K-Latest": {
84
96
  "description": "Modelo de lenguaje a gran escala desarrollado por Baidu, con un rendimiento general excepcional, ampliamente aplicable a escenas complejas en diversos campos; soporta la conexión automática al complemento de búsqueda de Baidu, garantizando la actualidad de la información de las preguntas y respuestas. En comparación con ERNIE 4.0, tiene un rendimiento superior."
85
97
  },
@@ -176,6 +188,9 @@
176
188
  "Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
177
189
  "description": "Meta Llama 3.1 es parte de la familia de modelos de lenguaje a gran escala multilingües desarrollados por Meta, que incluye variantes preentrenadas y de ajuste fino por instrucciones con tamaños de parámetros de 8B, 70B y 405B. Este modelo de 8B ha sido optimizado para escenarios de diálogo multilingüe y ha destacado en múltiples pruebas de referencia de la industria. El entrenamiento del modelo utilizó más de 150 billones de tokens de datos públicos y empleó técnicas como ajuste fino supervisado y aprendizaje por refuerzo con retroalimentación humana para mejorar la utilidad y seguridad del modelo. Llama 3.1 admite generación de texto y generación de código, con una fecha límite de conocimiento hasta diciembre de 2023."
178
190
  },
191
+ "QwQ-32B-Preview": {
192
+ "description": "QwQ-32B-Preview es un modelo de procesamiento de lenguaje natural innovador, capaz de manejar de manera eficiente tareas complejas de generación de diálogos y comprensión del contexto."
193
+ },
179
194
  "Qwen/QVQ-72B-Preview": {
180
195
  "description": "QVQ-72B-Preview es un modelo de investigación desarrollado por el equipo de Qwen, enfocado en la capacidad de razonamiento visual, que tiene ventajas únicas en la comprensión de escenas complejas y en la resolución de problemas matemáticos relacionados con la visión."
181
196
  },
@@ -527,6 +542,24 @@
527
542
  "deepseek-ai/DeepSeek-R1": {
528
543
  "description": "DeepSeek-R1 es un modelo de inferencia impulsado por aprendizaje reforzado (RL) que aborda los problemas de repetitividad y legibilidad en el modelo. Antes de RL, DeepSeek-R1 introdujo datos de arranque en frío, optimizando aún más el rendimiento de la inferencia. Su desempeño en tareas matemáticas, de código e inferencia es comparable al de OpenAI-o1, y ha mejorado su efectividad general a través de métodos de entrenamiento cuidadosamente diseñados."
529
544
  },
545
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
546
+ "description": "El modelo de destilación DeepSeek-R1 optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto."
547
+ },
548
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
549
+ "description": "DeepSeek-R1-Distill-Llama-8B es un modelo de destilación desarrollado a partir de Llama-3.1-8B. Este modelo se ajustó utilizando muestras generadas por DeepSeek-R1, mostrando una excelente capacidad de inferencia. Ha tenido un buen desempeño en múltiples pruebas de referencia, alcanzando una precisión del 89.1% en MATH-500, una tasa de aprobación del 50.4% en AIME 2024, y una puntuación de 1205 en CodeForces, demostrando una fuerte capacidad matemática y de programación como modelo de 8B."
550
+ },
551
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
552
+ "description": "El modelo de destilación DeepSeek-R1 optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto."
553
+ },
554
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
555
+ "description": "El modelo de destilación DeepSeek-R1 optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto."
556
+ },
557
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
558
+ "description": "DeepSeek-R1-Distill-Qwen-32B es un modelo obtenido mediante destilación de conocimiento basado en Qwen2.5-32B. Este modelo se ajustó utilizando 800,000 muestras seleccionadas generadas por DeepSeek-R1, mostrando un rendimiento excepcional en múltiples campos como matemáticas, programación e inferencia. Ha obtenido excelentes resultados en varias pruebas de referencia, alcanzando una precisión del 94.3% en MATH-500, demostrando una fuerte capacidad de razonamiento matemático."
559
+ },
560
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
561
+ "description": "DeepSeek-R1-Distill-Qwen-7B es un modelo obtenido mediante destilación de conocimiento basado en Qwen2.5-Math-7B. Este modelo se ajustó utilizando 800,000 muestras seleccionadas generadas por DeepSeek-R1, mostrando un rendimiento excepcional en múltiples campos como matemáticas, programación e inferencia. Ha obtenido excelentes resultados en varias pruebas de referencia, alcanzando una precisión del 92.8% en MATH-500, una tasa de aprobación del 55.5% en AIME 2024, y una puntuación de 1189 en CodeForces, demostrando una fuerte capacidad matemática y de programación como modelo de 7B."
562
+ },
530
563
  "deepseek-ai/DeepSeek-V2.5": {
531
564
  "description": "DeepSeek V2.5 combina las excelentes características de versiones anteriores, mejorando la capacidad general y de codificación."
532
565
  },
@@ -554,6 +587,9 @@
554
587
  "deepseek-r1": {
555
588
  "description": "DeepSeek-R1 es un modelo de inferencia impulsado por aprendizaje reforzado (RL) que aborda los problemas de repetitividad y legibilidad en el modelo. Antes de RL, DeepSeek-R1 introdujo datos de arranque en frío, optimizando aún más el rendimiento de la inferencia. Su desempeño en tareas matemáticas, de código e inferencia es comparable al de OpenAI-o1, y ha mejorado su efectividad general a través de métodos de entrenamiento cuidadosamente diseñados."
556
589
  },
590
+ "deepseek-r1-distill-llama-70b": {
591
+ "description": "DeepSeek R1, el modelo más grande e inteligente del conjunto DeepSeek, ha sido destilado en la arquitectura Llama 70B. Basado en pruebas de referencia y evaluaciones humanas, este modelo es más inteligente que el Llama 70B original, destacándose especialmente en tareas que requieren precisión matemática y factual."
592
+ },
557
593
  "deepseek-reasoner": {
558
594
  "description": "Modelo de inferencia lanzado por DeepSeek. Antes de proporcionar la respuesta final, el modelo genera primero una cadena de pensamiento para mejorar la precisión de la respuesta final."
559
595
  },
@@ -563,12 +599,63 @@
563
599
  "deepseek-v2:236b": {
564
600
  "description": "DeepSeek V2 236B es el modelo de código de diseño de DeepSeek, que ofrece una potente capacidad de generación de código."
565
601
  },
602
+ "deepseek-v3": {
603
+ "description": "DeepSeek-V3 es un modelo MoE desarrollado por Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd., que ha destacado en múltiples evaluaciones, ocupando el primer lugar en la lista de modelos de código abierto. En comparación con el modelo V2.5, la velocidad de generación se ha incrementado tres veces, brindando a los usuarios una experiencia de uso más rápida y fluida."
604
+ },
566
605
  "deepseek/deepseek-chat": {
567
606
  "description": "Un nuevo modelo de código abierto que fusiona capacidades generales y de codificación, no solo conserva la capacidad de diálogo general del modelo Chat original y la potente capacidad de procesamiento de código del modelo Coder, sino que también se alinea mejor con las preferencias humanas. Además, DeepSeek-V2.5 ha logrado mejoras significativas en tareas de escritura, seguimiento de instrucciones y más."
568
607
  },
569
608
  "emohaa": {
570
609
  "description": "Emohaa es un modelo psicológico con capacidades de consulta profesional, ayudando a los usuarios a comprender problemas emocionales."
571
610
  },
611
+ "ernie-3.5-128k": {
612
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, cubre una vasta cantidad de corpus en chino e inglés, con potentes capacidades generales que satisfacen la mayoría de los requisitos de preguntas y respuestas en diálogos, generación creativa y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas."
613
+ },
614
+ "ernie-3.5-8k": {
615
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, cubre una vasta cantidad de corpus en chino e inglés, con potentes capacidades generales que satisfacen la mayoría de los requisitos de preguntas y respuestas en diálogos, generación creativa y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas."
616
+ },
617
+ "ernie-3.5-8k-preview": {
618
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, cubre una vasta cantidad de corpus en chino e inglés, con potentes capacidades generales que satisfacen la mayoría de los requisitos de preguntas y respuestas en diálogos, generación creativa y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas."
619
+ },
620
+ "ernie-4.0-8k-latest": {
621
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, ha logrado una actualización completa de capacidades en comparación con ERNIE 3.5, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas."
622
+ },
623
+ "ernie-4.0-8k-preview": {
624
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, ha logrado una actualización completa de capacidades en comparación con ERNIE 3.5, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas."
625
+ },
626
+ "ernie-4.0-turbo-128k": {
627
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, muestra un rendimiento excepcional en general, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas. En comparación con ERNIE 4.0, presenta un rendimiento superior."
628
+ },
629
+ "ernie-4.0-turbo-8k-latest": {
630
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, muestra un rendimiento excepcional en general, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas. En comparación con ERNIE 4.0, presenta un rendimiento superior."
631
+ },
632
+ "ernie-4.0-turbo-8k-preview": {
633
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, muestra un rendimiento excepcional en general, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas. En comparación con ERNIE 4.0, presenta un rendimiento superior."
634
+ },
635
+ "ernie-char-8k": {
636
+ "description": "Modelo de lenguaje grande de escenario vertical desarrollado internamente por Baidu, adecuado para aplicaciones como NPC de juegos, diálogos de servicio al cliente y juegos de rol de diálogos, con un estilo de personaje más distintivo y consistente, y una mayor capacidad de seguimiento de instrucciones y rendimiento de inferencia."
637
+ },
638
+ "ernie-char-fiction-8k": {
639
+ "description": "Modelo de lenguaje grande de escenario vertical desarrollado internamente por Baidu, adecuado para aplicaciones como NPC de juegos, diálogos de servicio al cliente y juegos de rol de diálogos, con un estilo de personaje más distintivo y consistente, y una mayor capacidad de seguimiento de instrucciones y rendimiento de inferencia."
640
+ },
641
+ "ernie-lite-8k": {
642
+ "description": "ERNIE Lite es un modelo de lenguaje grande ligero desarrollado internamente por Baidu, que combina un excelente rendimiento del modelo con una buena capacidad de inferencia, adecuado para su uso en tarjetas de aceleración de IA de bajo consumo."
643
+ },
644
+ "ernie-lite-pro-128k": {
645
+ "description": "Modelo de lenguaje grande ligero desarrollado internamente por Baidu, que combina un excelente rendimiento del modelo con una buena capacidad de inferencia, con un rendimiento superior al de ERNIE Lite, adecuado para su uso en tarjetas de aceleración de IA de bajo consumo."
646
+ },
647
+ "ernie-novel-8k": {
648
+ "description": "Modelo de lenguaje grande general desarrollado internamente por Baidu, con ventajas notables en la capacidad de continuar novelas, también aplicable en escenarios de cortometrajes y películas."
649
+ },
650
+ "ernie-speed-128k": {
651
+ "description": "El modelo de lenguaje grande de alto rendimiento desarrollado internamente por Baidu, lanzado en 2024, tiene capacidades generales excepcionales, adecuado como modelo base para ajustes finos, manejando mejor problemas específicos de escenarios, y con un excelente rendimiento de inferencia."
652
+ },
653
+ "ernie-speed-pro-128k": {
654
+ "description": "El modelo de lenguaje grande de alto rendimiento desarrollado internamente por Baidu, lanzado en 2024, tiene capacidades generales excepcionales, con un rendimiento superior al de ERNIE Speed, adecuado como modelo base para ajustes finos, manejando mejor problemas específicos de escenarios, y con un excelente rendimiento de inferencia."
655
+ },
656
+ "ernie-tiny-8k": {
657
+ "description": "ERNIE Tiny es un modelo de lenguaje grande de alto rendimiento desarrollado internamente por Baidu, con los costos de implementación y ajuste más bajos entre los modelos de la serie Wenxin."
658
+ },
572
659
  "gemini-1.0-pro-001": {
573
660
  "description": "Gemini 1.0 Pro 001 (Ajuste) ofrece un rendimiento estable y ajustable, siendo una opción ideal para soluciones de tareas complejas."
574
661
  },
@@ -872,6 +959,9 @@
872
959
  "internlm2.5-latest": {
873
960
  "description": "Nuestra última serie de modelos, con un rendimiento de inferencia excepcional, que admite una longitud de contexto de 1M y una mayor capacidad de seguimiento de instrucciones y llamadas a herramientas."
874
961
  },
962
+ "internlm3-latest": {
963
+ "description": "Nuestra última serie de modelos, con un rendimiento de inferencia excepcional, lidera el mercado de modelos de código abierto de tamaño similar. Apunta por defecto a nuestra serie de modelos InternLM3 más reciente."
964
+ },
875
965
  "learnlm-1.5-pro-experimental": {
876
966
  "description": "LearnLM es un modelo de lenguaje experimental y específico para tareas, entrenado para cumplir con los principios de la ciencia del aprendizaje, capaz de seguir instrucciones sistemáticas en escenarios de enseñanza y aprendizaje, actuando como un tutor experto, entre otros."
877
967
  },
@@ -986,6 +1076,9 @@
986
1076
  "meta-llama/Llama-3.3-70B-Instruct": {
987
1077
  "description": "Llama 3.3 es el modelo de lenguaje de código abierto multilingüe más avanzado de la serie Llama, que ofrece un rendimiento comparable al modelo de 405B a un costo muy bajo. Basado en la estructura Transformer, y mejorado en utilidad y seguridad a través de ajuste fino supervisado (SFT) y aprendizaje por refuerzo con retroalimentación humana (RLHF). Su versión ajustada por instrucciones está optimizada para diálogos multilingües, superando a muchos modelos de chat de código abierto y cerrado en múltiples benchmarks de la industria. La fecha de corte de conocimiento es diciembre de 2023."
988
1078
  },
1079
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo": {
1080
+ "description": "El modelo de lenguaje grande multilingüe Meta Llama 3.3 (LLM) es un modelo generativo preentrenado y ajustado por instrucciones de 70B (entrada de texto/salida de texto). El modelo de texto puro ajustado por instrucciones de Llama 3.3 está optimizado para casos de uso de diálogo multilingüe y supera a muchos modelos de chat de código abierto y cerrados en benchmarks de la industria."
1081
+ },
989
1082
  "meta-llama/Llama-Vision-Free": {
990
1083
  "description": "LLaMA 3.2 está diseñado para manejar tareas que combinan datos visuales y textuales. Se destaca en tareas como descripción de imágenes y preguntas visuales, cruzando la brecha entre la generación de lenguaje y el razonamiento visual."
991
1084
  },
@@ -1256,6 +1349,9 @@
1256
1349
  "qwen-vl-max-latest": {
1257
1350
  "description": "Modelo de lenguaje visual a ultra gran escala Tongyi Qianwen. En comparación con la versión mejorada, mejora aún más la capacidad de razonamiento visual y de seguimiento de instrucciones, ofreciendo un nivel más alto de percepción y cognición visual."
1258
1351
  },
1352
+ "qwen-vl-ocr-latest": {
1353
+ "description": "Qwen OCR es un modelo especializado en extracción de texto, enfocado en la capacidad de extraer texto de imágenes de documentos, tablas, exámenes, escritura a mano, entre otros. Puede reconocer múltiples idiomas, actualmente soporta: chino, inglés, francés, japonés, coreano, alemán, ruso, italiano, vietnamita y árabe."
1354
+ },
1259
1355
  "qwen-vl-plus-latest": {
1260
1356
  "description": "Versión mejorada del modelo de lenguaje visual a gran escala Tongyi Qianwen. Mejora significativamente la capacidad de reconocimiento de detalles y de texto, soportando imágenes con resolución de más de un millón de píxeles y proporciones de ancho y alto arbitrarias."
1261
1357
  },
@@ -1274,6 +1370,9 @@
1274
1370
  "qwen2.5-14b-instruct": {
1275
1371
  "description": "El modelo de 14B de Tongyi Qwen 2.5, de código abierto."
1276
1372
  },
1373
+ "qwen2.5-14b-instruct-1m": {
1374
+ "description": "El modelo de 72B de Qwen2.5 es de código abierto."
1375
+ },
1277
1376
  "qwen2.5-32b-instruct": {
1278
1377
  "description": "El modelo de 32B de Tongyi Qwen 2.5, de código abierto."
1279
1378
  },
@@ -1301,6 +1400,12 @@
1301
1400
  "qwen2.5-math-7b-instruct": {
1302
1401
  "description": "El modelo Qwen-Math tiene una poderosa capacidad para resolver problemas matemáticos."
1303
1402
  },
1403
+ "qwen2.5-vl-72b-instruct": {
1404
+ "description": "Mejora general en seguimiento de instrucciones, matemáticas, resolución de problemas y código, con capacidades de reconocimiento de objetos mejoradas, soporta formatos diversos para localizar elementos visuales con precisión, y puede entender archivos de video largos (hasta 10 minutos) y localizar eventos en segundos, comprendiendo la secuencia y velocidad del tiempo, soportando el control de agentes en OS o móviles, con fuerte capacidad de extracción de información clave y salida en formato Json. Esta versión es la de 72B, la más potente de la serie."
1405
+ },
1406
+ "qwen2.5-vl-7b-instruct": {
1407
+ "description": "Mejora general en seguimiento de instrucciones, matemáticas, resolución de problemas y código, con capacidades de reconocimiento de objetos mejoradas, soporta formatos diversos para localizar elementos visuales con precisión, y puede entender archivos de video largos (hasta 10 minutos) y localizar eventos en segundos, comprendiendo la secuencia y velocidad del tiempo, soportando el control de agentes en OS o móviles, con fuerte capacidad de extracción de información clave y salida en formato Json. Esta versión es la de 72B, la más potente de la serie."
1408
+ },
1304
1409
  "qwen2.5:0.5b": {
1305
1410
  "description": "Qwen2.5 es la nueva generación de modelos de lenguaje a gran escala de Alibaba, que ofrece un rendimiento excepcional para satisfacer diversas necesidades de aplicación."
1306
1411
  },
@@ -286,6 +286,7 @@
286
286
  "anonymousNickName": "کاربر ناشناس",
287
287
  "billing": "مدیریت صورتحساب",
288
288
  "cloud": "تجربه {{name}}",
289
+ "community": "نسخه جامعه",
289
290
  "data": "ذخیره‌سازی داده",
290
291
  "defaultNickname": "کاربر نسخه جامعه",
291
292
  "discord": "پشتیبانی جامعه",
@@ -295,7 +296,6 @@
295
296
  "help": "مرکز راهنما",
296
297
  "moveGuide": "دکمه تنظیمات به اینجا منتقل شد",
297
298
  "plans": "طرح‌های اشتراک",
298
- "preview": "نسخه پیش‌نمایش",
299
299
  "profile": "مدیریت حساب",
300
300
  "setting": "تنظیمات برنامه",
301
301
  "usages": "آمار استفاده"
@@ -294,26 +294,6 @@
294
294
  "tooltip": "به‌روزرسانی پیکربندی پایه ارائه‌دهنده",
295
295
  "updateSuccess": "به‌روزرسانی با موفقیت انجام شد"
296
296
  },
297
- "wenxin": {
298
- "accessKey": {
299
- "desc": "کلید دسترسی Qianfan پلتفرم بایدو را وارد کنید",
300
- "placeholder": "کلید دسترسی Qianfan",
301
- "title": "کلید دسترسی"
302
- },
303
- "checker": {
304
- "desc": "تست کنید که آیا AccessKey / SecretAccess به درستی وارد شده است"
305
- },
306
- "secretKey": {
307
- "desc": "کلید مخفی Qianfan پلتفرم بایدو را وارد کنید",
308
- "placeholder": "کلید مخفی Qianfan",
309
- "title": "کلید مخفی"
310
- },
311
- "unlock": {
312
- "customRegion": "منطقه خدمات سفارشی",
313
- "description": "کلید دسترسی / کلید مخفی خود را وارد کنید تا مکالمه را شروع کنید. برنامه تنظیمات احراز هویت شما را ذخیره نخواهد کرد",
314
- "title": "استفاده از اطلاعات احراز هویت سفارشی Wenxin Yiyan"
315
- }
316
- },
317
297
  "zeroone": {
318
298
  "title": "01.AI صفر و یک همه چیز"
319
299
  },