@lobehub/chat 1.62.11 → 1.63.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +66 -0
- package/changelog/v1.json +24 -0
- package/locales/ar/chat.json +26 -0
- package/locales/ar/models.json +21 -0
- package/locales/bg-BG/chat.json +26 -0
- package/locales/bg-BG/models.json +21 -0
- package/locales/de-DE/chat.json +26 -0
- package/locales/de-DE/models.json +21 -0
- package/locales/en-US/chat.json +26 -0
- package/locales/en-US/models.json +21 -0
- package/locales/es-ES/chat.json +26 -0
- package/locales/es-ES/models.json +21 -0
- package/locales/fa-IR/chat.json +26 -0
- package/locales/fa-IR/models.json +21 -0
- package/locales/fr-FR/chat.json +26 -0
- package/locales/fr-FR/models.json +21 -0
- package/locales/it-IT/chat.json +26 -0
- package/locales/it-IT/models.json +21 -0
- package/locales/ja-JP/chat.json +26 -0
- package/locales/ja-JP/models.json +21 -0
- package/locales/ko-KR/chat.json +26 -0
- package/locales/ko-KR/models.json +21 -0
- package/locales/nl-NL/chat.json +26 -0
- package/locales/nl-NL/models.json +21 -0
- package/locales/pl-PL/chat.json +26 -0
- package/locales/pl-PL/models.json +21 -0
- package/locales/pt-BR/chat.json +26 -0
- package/locales/pt-BR/models.json +21 -0
- package/locales/ru-RU/chat.json +26 -0
- package/locales/ru-RU/models.json +21 -0
- package/locales/tr-TR/chat.json +26 -0
- package/locales/tr-TR/models.json +21 -0
- package/locales/vi-VN/chat.json +26 -0
- package/locales/vi-VN/models.json +21 -0
- package/locales/zh-CN/chat.json +27 -1
- package/locales/zh-CN/models.json +25 -4
- package/locales/zh-TW/chat.json +26 -0
- package/locales/zh-TW/models.json +21 -0
- package/package.json +2 -2
- package/src/app/(backend)/webapi/chat/groq/route.test.ts +29 -0
- package/src/app/(backend)/webapi/chat/groq/route.ts +21 -0
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/index.tsx +1 -0
- package/src/config/aiModels/google.ts +8 -0
- package/src/config/aiModels/groq.ts +111 -95
- package/src/config/aiModels/hunyuan.ts +36 -4
- package/src/config/aiModels/internlm.ts +4 -5
- package/src/config/aiModels/jina.ts +3 -0
- package/src/config/aiModels/mistral.ts +35 -21
- package/src/config/aiModels/novita.ts +293 -32
- package/src/config/aiModels/perplexity.ts +14 -2
- package/src/config/aiModels/qwen.ts +91 -37
- package/src/config/aiModels/sensenova.ts +70 -17
- package/src/config/aiModels/siliconcloud.ts +5 -3
- package/src/config/aiModels/stepfun.ts +19 -0
- package/src/config/aiModels/taichu.ts +4 -2
- package/src/config/aiModels/upstage.ts +24 -11
- package/src/config/modelProviders/openrouter.ts +1 -0
- package/src/config/modelProviders/qwen.ts +2 -1
- package/src/const/settings/agent.ts +1 -0
- package/src/database/repositories/aiInfra/index.test.ts +2 -5
- package/src/database/repositories/aiInfra/index.ts +6 -2
- package/src/database/schemas/message.ts +2 -1
- package/src/database/server/models/aiModel.ts +1 -1
- package/src/database/server/models/aiProvider.ts +6 -1
- package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +38 -0
- package/src/features/ChatInput/ActionBar/Model/ExtendControls.tsx +40 -0
- package/src/features/ChatInput/ActionBar/Model/index.tsx +132 -0
- package/src/features/ChatInput/ActionBar/Params/index.tsx +2 -2
- package/src/features/ChatInput/ActionBar/Search/ExaIcon.tsx +15 -0
- package/src/features/ChatInput/ActionBar/Search/ModelBuiltinSearch.tsx +68 -0
- package/src/features/ChatInput/ActionBar/Search/SwitchPanel.tsx +167 -0
- package/src/features/ChatInput/ActionBar/Search/index.tsx +74 -0
- package/src/features/ChatInput/ActionBar/config.ts +4 -2
- package/src/features/Conversation/Error/index.tsx +1 -6
- package/src/features/Conversation/Messages/Assistant/SearchGrounding.tsx +153 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Inspector/Debug.tsx +9 -6
- package/src/features/Conversation/Messages/Assistant/Tool/Inspector/PluginResultJSON.tsx +14 -9
- package/src/features/Conversation/Messages/Assistant/Tool/Inspector/Settings.tsx +1 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Inspector/index.tsx +2 -1
- package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +4 -2
- package/src/features/Conversation/Messages/Assistant/Tool/Render/ErrorResponse.tsx +36 -0
- package/src/features/Conversation/{Error → Messages/Assistant/Tool/Render}/PluginSettings.tsx +1 -1
- package/src/features/Conversation/Messages/Assistant/Tool/Render/index.tsx +7 -1
- package/src/features/Conversation/Messages/Assistant/index.tsx +7 -1
- package/src/features/ModelSelect/index.tsx +1 -1
- package/src/features/ModelSwitchPanel/index.tsx +2 -3
- package/src/hooks/useEnabledChatModels.ts +1 -1
- package/src/libs/agent-runtime/google/index.test.ts +142 -36
- package/src/libs/agent-runtime/google/index.ts +26 -51
- package/src/libs/agent-runtime/novita/__snapshots__/index.test.ts.snap +3 -3
- package/src/libs/agent-runtime/openrouter/__snapshots__/index.test.ts.snap +3 -3
- package/src/libs/agent-runtime/openrouter/index.ts +20 -20
- package/src/libs/agent-runtime/perplexity/index.test.ts +2 -2
- package/src/libs/agent-runtime/qwen/index.ts +38 -55
- package/src/libs/agent-runtime/types/chat.ts +6 -2
- package/src/libs/agent-runtime/utils/streams/google-ai.ts +29 -4
- package/src/libs/agent-runtime/utils/streams/openai.ts +1 -1
- package/src/libs/agent-runtime/utils/streams/protocol.ts +1 -1
- package/src/locales/default/chat.ts +28 -0
- package/src/services/chat.ts +10 -0
- package/src/services/session/_deprecated.ts +2 -1
- package/src/store/agent/slices/chat/__snapshots__/selectors.test.ts.snap +1 -0
- package/src/store/agent/slices/chat/selectors.ts +6 -0
- package/src/store/aiInfra/slices/aiModel/selectors.ts +36 -0
- package/src/store/aiInfra/slices/aiProvider/initialState.ts +2 -2
- package/src/store/aiInfra/slices/aiProvider/selectors.ts +14 -0
- package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +15 -5
- package/src/store/chat/slices/message/action.ts +1 -1
- package/src/store/user/slices/modelList/selectors/modelProvider.ts +1 -1
- package/src/store/user/slices/settings/selectors/__snapshots__/settings.test.ts.snap +1 -0
- package/src/types/agent/index.ts +4 -0
- package/src/types/aiModel.ts +35 -8
- package/src/types/aiProvider.ts +7 -10
- package/src/types/message/base.ts +2 -5
- package/src/types/message/chat.ts +5 -3
- package/src/types/openai/chat.ts +5 -0
- package/src/types/search.ts +29 -0
- package/src/utils/fetch/fetchSSE.ts +11 -11
- package/src/features/ChatInput/ActionBar/ModelSwitch.tsx +0 -20
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,72 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.63.1](https://github.com/lobehub/lobe-chat/compare/v1.63.0...v1.63.1)
|
6
|
+
|
7
|
+
<sup>Released on **2025-02-23**</sup>
|
8
|
+
|
9
|
+
#### 🐛 Bug Fixes
|
10
|
+
|
11
|
+
- **misc**: Fix groq location request.
|
12
|
+
|
13
|
+
#### 💄 Styles
|
14
|
+
|
15
|
+
- **misc**: Improve plugin calling style.
|
16
|
+
|
17
|
+
<br/>
|
18
|
+
|
19
|
+
<details>
|
20
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
21
|
+
|
22
|
+
#### What's fixed
|
23
|
+
|
24
|
+
- **misc**: Fix groq location request, closes [#6449](https://github.com/lobehub/lobe-chat/issues/6449) ([8c8af6b](https://github.com/lobehub/lobe-chat/commit/8c8af6b))
|
25
|
+
|
26
|
+
#### Styles
|
27
|
+
|
28
|
+
- **misc**: Improve plugin calling style, closes [#6446](https://github.com/lobehub/lobe-chat/issues/6446) ([406cd46](https://github.com/lobehub/lobe-chat/commit/406cd46))
|
29
|
+
|
30
|
+
</details>
|
31
|
+
|
32
|
+
<div align="right">
|
33
|
+
|
34
|
+
[](#readme-top)
|
35
|
+
|
36
|
+
</div>
|
37
|
+
|
38
|
+
## [Version 1.63.0](https://github.com/lobehub/lobe-chat/compare/v1.62.11...v1.63.0)
|
39
|
+
|
40
|
+
<sup>Released on **2025-02-23**</sup>
|
41
|
+
|
42
|
+
#### ✨ Features
|
43
|
+
|
44
|
+
- **misc**: Support model-level search for Google/Qwen.
|
45
|
+
|
46
|
+
#### 💄 Styles
|
47
|
+
|
48
|
+
- **misc**: Update many models info.
|
49
|
+
|
50
|
+
<br/>
|
51
|
+
|
52
|
+
<details>
|
53
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
54
|
+
|
55
|
+
#### What's improved
|
56
|
+
|
57
|
+
- **misc**: Support model-level search for Google/Qwen, closes [#6420](https://github.com/lobehub/lobe-chat/issues/6420) ([f1b97cd](https://github.com/lobehub/lobe-chat/commit/f1b97cd))
|
58
|
+
|
59
|
+
#### Styles
|
60
|
+
|
61
|
+
- **misc**: Update many models info, closes [#6205](https://github.com/lobehub/lobe-chat/issues/6205) ([c477588](https://github.com/lobehub/lobe-chat/commit/c477588))
|
62
|
+
|
63
|
+
</details>
|
64
|
+
|
65
|
+
<div align="right">
|
66
|
+
|
67
|
+
[](#readme-top)
|
68
|
+
|
69
|
+
</div>
|
70
|
+
|
5
71
|
### [Version 1.62.11](https://github.com/lobehub/lobe-chat/compare/v1.62.10...v1.62.11)
|
6
72
|
|
7
73
|
<sup>Released on **2025-02-23**</sup>
|
package/changelog/v1.json
CHANGED
@@ -1,4 +1,28 @@
|
|
1
1
|
[
|
2
|
+
{
|
3
|
+
"children": {
|
4
|
+
"fixes": [
|
5
|
+
"Fix groq location request."
|
6
|
+
],
|
7
|
+
"improvements": [
|
8
|
+
"Improve plugin calling style."
|
9
|
+
]
|
10
|
+
},
|
11
|
+
"date": "2025-02-23",
|
12
|
+
"version": "1.63.1"
|
13
|
+
},
|
14
|
+
{
|
15
|
+
"children": {
|
16
|
+
"features": [
|
17
|
+
"Support model-level search for Google/Qwen."
|
18
|
+
],
|
19
|
+
"improvements": [
|
20
|
+
"Update many models info."
|
21
|
+
]
|
22
|
+
},
|
23
|
+
"date": "2025-02-23",
|
24
|
+
"version": "1.63.0"
|
25
|
+
},
|
2
26
|
{
|
3
27
|
"children": {
|
4
28
|
"fixes": [
|
package/locales/ar/chat.json
CHANGED
@@ -31,6 +31,9 @@
|
|
31
31
|
},
|
32
32
|
"duplicateTitle": "{{title}} نسخة",
|
33
33
|
"emptyAgent": "لا يوجد مساعد",
|
34
|
+
"extendControls": {
|
35
|
+
"title": "وظائف توسيع النموذج"
|
36
|
+
},
|
34
37
|
"historyRange": "نطاق التاريخ",
|
35
38
|
"historySummary": "ملخص الرسائل التاريخية",
|
36
39
|
"inbox": {
|
@@ -84,6 +87,29 @@
|
|
84
87
|
},
|
85
88
|
"regenerate": "إعادة الإنشاء",
|
86
89
|
"roleAndArchive": "الدور والأرشيف",
|
90
|
+
"search": {
|
91
|
+
"grounding": {
|
92
|
+
"searchQueries": "كلمات البحث",
|
93
|
+
"title": "تم العثور على {{count}} نتيجة"
|
94
|
+
},
|
95
|
+
"mode": {
|
96
|
+
"auto": {
|
97
|
+
"desc": "تحديد ما إذا كان من الضروري البحث بناءً على محتوى المحادثة",
|
98
|
+
"title": "الاتصال الذكي"
|
99
|
+
},
|
100
|
+
"disable": "النموذج الحالي لا يدعم استدعاء الوظائف، لذا لا يمكن استخدام وظيفة الاتصال الذكي",
|
101
|
+
"off": {
|
102
|
+
"desc": "استخدام المعرفة الأساسية للنموذج فقط، دون إجراء بحث عبر الإنترنت",
|
103
|
+
"title": "إيقاف الاتصال"
|
104
|
+
},
|
105
|
+
"on": {
|
106
|
+
"desc": "الاستمرار في البحث عبر الإنترنت للحصول على أحدث المعلومات",
|
107
|
+
"title": "الاتصال دائمًا"
|
108
|
+
},
|
109
|
+
"useModelBuiltin": "استخدام محرك البحث المدمج في النموذج"
|
110
|
+
},
|
111
|
+
"title": "بحث عبر الإنترنت"
|
112
|
+
},
|
87
113
|
"searchAgentPlaceholder": "مساعد البحث...",
|
88
114
|
"sendPlaceholder": "أدخل محتوى الدردشة...",
|
89
115
|
"sessionGroup": {
|
package/locales/ar/models.json
CHANGED
@@ -65,6 +65,9 @@
|
|
65
65
|
"DeepSeek-R1-Distill-Qwen-7B": {
|
66
66
|
"description": "نموذج التقطير DeepSeek-R1 المستند إلى Qwen2.5-Math-7B، تم تحسين أداء الاستدلال من خلال التعلم المعزز وبيانات البداية الباردة، ويعيد نموذج المصدر فتح معايير المهام المتعددة."
|
67
67
|
},
|
68
|
+
"Doubao-1.5-vision-pro-32k": {
|
69
|
+
"description": "دو باو 1.5 فيجن برو هو نموذج كبير متعدد الوسائط تم تحديثه حديثًا، يدعم التعرف على الصور بدقة أي دقة ونسب عرض إلى ارتفاع متطرفة، مما يعزز القدرة على الاستدلال البصري، والتعرف على الوثائق، وفهم المعلومات التفصيلية، والامتثال للتعليمات."
|
70
|
+
},
|
68
71
|
"Doubao-lite-128k": {
|
69
72
|
"description": "دو باو-لايت يوفر سرعة استجابة فائقة وقيمة جيدة للكلفة، ويقدم خيارات أكثر مرونة للعملاء في سيناريوهات مختلفة. يدعم الاستدلال والتنقيح بسعة سياق 128k."
|
70
73
|
},
|
@@ -77,12 +80,21 @@
|
|
77
80
|
"Doubao-pro-128k": {
|
78
81
|
"description": "النموذج الرئيسي الأفضل أداءً، مناسب لمعالجة المهام المعقدة، يقدم أداءً جيدًا في السيناريوهات مثل الاستجابة المرجعية، والتلخيص، والإبداع، وتصنيف النصوص، وألعاب الأدوار. يدعم الاستدلال والتنقيح بسعة سياق 128k."
|
79
82
|
},
|
83
|
+
"Doubao-pro-256k": {
|
84
|
+
"description": "أفضل نموذج رئيسي من حيث الأداء، مناسب لمعالجة المهام المعقدة، حيث يظهر أداءً جيدًا في سيناريوهات مثل الأسئلة والأجوبة المرجعية، والتلخيص، والإبداع، وتصنيف النصوص، وأدوار الشخصيات. يدعم استدلال نافذة السياق 256k والتعديل الدقيق."
|
85
|
+
},
|
80
86
|
"Doubao-pro-32k": {
|
81
87
|
"description": "النموذج الرئيسي الأفضل أداءً، مناسب لمعالجة المهام المعقدة، يقدم أداءً جيدًا في السيناريوهات مثل الاستجابة المرجعية، والتلخيص، والإبداع، وتصنيف النصوص، وألعاب الأدوار. يدعم الاستدلال والتنقيح بسعة سياق 32k."
|
82
88
|
},
|
83
89
|
"Doubao-pro-4k": {
|
84
90
|
"description": "النموذج الرئيسي الأفضل أداءً، مناسب لمعالجة المهام المعقدة، يقدم أداءً جيدًا في السيناريوهات مثل الاستجابة المرجعية، والتلخيص، والإبداع، وتصنيف النصوص، وألعاب الأدوار. يدعم الاستدلال والتنقيح بسعة سياق 4k."
|
85
91
|
},
|
92
|
+
"Doubao-vision-lite-32k": {
|
93
|
+
"description": "نموذج دو باو فيجن هو نموذج كبير متعدد الوسائط تم إطلاقه من قبل دو باو، يتمتع بقدرة قوية على فهم الصور والاستدلال، بالإضافة إلى القدرة الدقيقة على فهم التعليمات. أظهر النموذج أداءً قويًا في استخراج معلومات النصوص من الصور، ومهام الاستدلال المعتمدة على الصور، مما يجعله مناسبًا لمهام الأسئلة والأجوبة البصرية الأكثر تعقيدًا وعمومية."
|
94
|
+
},
|
95
|
+
"Doubao-vision-pro-32k": {
|
96
|
+
"description": "نموذج دو باو فيجن هو نموذج كبير متعدد الوسائط تم إطلاقه من قبل دو باو، يتمتع بقدرة قوية على فهم الصور والاستدلال، بالإضافة إلى القدرة الدقيقة على فهم التعليمات. أظهر النموذج أداءً قويًا في استخراج معلومات النصوص من الصور، ومهام الاستدلال المعتمدة على الصور، مما يجعله مناسبًا لمهام الأسئلة والأجوبة البصرية الأكثر تعقيدًا وعمومية."
|
97
|
+
},
|
86
98
|
"ERNIE-3.5-128K": {
|
87
99
|
"description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يغطي كمية هائلة من البيانات باللغة الصينية والإنجليزية، ويتميز بقدرات عامة قوية، يمكنه تلبية معظم متطلبات الحوار، والإجابة على الأسئلة، وإنشاء المحتوى، وتطبيقات الإضافات؛ يدعم الاتصال التلقائي بإضافات بحث بايدو، مما يضمن تحديث معلومات الإجابة."
|
88
100
|
},
|
@@ -665,6 +677,15 @@
|
|
665
677
|
"deepseek/deepseek-r1:free": {
|
666
678
|
"description": "DeepSeek-R1 يعزز بشكل كبير من قدرة النموذج على الاستدلال في ظل وجود بيانات محدودة جدًا. قبل تقديم الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
|
667
679
|
},
|
680
|
+
"doubao-1.5-lite-32k": {
|
681
|
+
"description": "دو باو 1.5 لايت هو نموذج الجيل الجديد الخفيف، مع سرعة استجابة قصوى، حيث يصل الأداء والوقت المستغرق إلى مستوى عالمي."
|
682
|
+
},
|
683
|
+
"doubao-1.5-pro-256k": {
|
684
|
+
"description": "دو باو 1.5 برو 256k هو النسخة المحدثة من دو باو 1.5 برو، حيث تم تحسين الأداء العام بنسبة 10%. يدعم استدلال نافذة السياق 256k، وطول الإخراج يصل إلى 12k توكن. أداء أعلى، نافذة أكبر، قيمة عالية، مناسب لمجموعة واسعة من سيناريوهات الاستخدام."
|
685
|
+
},
|
686
|
+
"doubao-1.5-pro-32k": {
|
687
|
+
"description": "دو باو 1.5 برو هو نموذج الجيل الجديد الرائد، مع ترقية شاملة في الأداء، حيث يظهر تفوقًا في المعرفة، والبرمجة، والاستدلال، وغيرها."
|
688
|
+
},
|
668
689
|
"emohaa": {
|
669
690
|
"description": "Emohaa هو نموذج نفسي، يتمتع بقدرات استشارية متخصصة، يساعد المستخدمين في فهم القضايا العاطفية."
|
670
691
|
},
|
package/locales/bg-BG/chat.json
CHANGED
@@ -31,6 +31,9 @@
|
|
31
31
|
},
|
32
32
|
"duplicateTitle": "{{title}} Копие",
|
33
33
|
"emptyAgent": "Няма наличен асистент",
|
34
|
+
"extendControls": {
|
35
|
+
"title": "Разширени функции на модела"
|
36
|
+
},
|
34
37
|
"historyRange": "Диапазон на историята",
|
35
38
|
"historySummary": "Исторически обобщение на съобщения",
|
36
39
|
"inbox": {
|
@@ -84,6 +87,29 @@
|
|
84
87
|
},
|
85
88
|
"regenerate": "Прегенерирай",
|
86
89
|
"roleAndArchive": "Роля и архив",
|
90
|
+
"search": {
|
91
|
+
"grounding": {
|
92
|
+
"searchQueries": "Търсене на ключови думи",
|
93
|
+
"title": "Намерени са {{count}} резултата"
|
94
|
+
},
|
95
|
+
"mode": {
|
96
|
+
"auto": {
|
97
|
+
"desc": "Интелигентно определяне на необходимостта от търсене въз основа на съдържанието на разговора",
|
98
|
+
"title": "Интелигентно свързване"
|
99
|
+
},
|
100
|
+
"disable": "Текущият модел не поддържа извикване на функции, затова не може да се използва интелигентно свързване",
|
101
|
+
"off": {
|
102
|
+
"desc": "Използва само основните знания на модела, без интернет търсене",
|
103
|
+
"title": "Изключване на свързването"
|
104
|
+
},
|
105
|
+
"on": {
|
106
|
+
"desc": "Постоянно извършва интернет търсене за получаване на най-новата информация",
|
107
|
+
"title": "Винаги свързано"
|
108
|
+
},
|
109
|
+
"useModelBuiltin": "Използване на вградената търсачка на модела"
|
110
|
+
},
|
111
|
+
"title": "Търсене в интернет"
|
112
|
+
},
|
87
113
|
"searchAgentPlaceholder": "Търсач на помощ...",
|
88
114
|
"sendPlaceholder": "Напиши съобщението си тук...",
|
89
115
|
"sessionGroup": {
|
@@ -65,6 +65,9 @@
|
|
65
65
|
"DeepSeek-R1-Distill-Qwen-7B": {
|
66
66
|
"description": "DeepSeek-R1 дестилиран модел, базиран на Qwen2.5-Math-7B, оптимизира производителността на разсъжденията чрез подсилено учене и данни за студен старт, отворен модел, който обновява многозадачния стандарт."
|
67
67
|
},
|
68
|
+
"Doubao-1.5-vision-pro-32k": {
|
69
|
+
"description": "Doubao-1.5-vision-pro е ново обновен мултимодален голям модел, който поддържа разпознаване на изображения с произволна резолюция и екстремни съотношения на страните, подобрявайки способностите за визуално разсъждение, разпознаване на документи, разбиране на детайлна информация и следване на инструкции."
|
70
|
+
},
|
68
71
|
"Doubao-lite-128k": {
|
69
72
|
"description": "Doubao-lite предлага изключителна скорост на отговор и по-добра цена, предоставяйки на клиентите гъвкави опции за различни сценарии. Поддържа извеждане и фин настройка на контекстов прозорец от 128k."
|
70
73
|
},
|
@@ -77,12 +80,21 @@
|
|
77
80
|
"Doubao-pro-128k": {
|
78
81
|
"description": "Най-добрият модел за основни задачи, подходящ за работа с комплексни задачи, с много добри резултати в справочния отговор, обобщение, творчество, текстова класификация и ролеви игри. Поддържа извеждане и фин настройка на контекстов прозорец от 128k."
|
79
82
|
},
|
83
|
+
"Doubao-pro-256k": {
|
84
|
+
"description": "Най-добрият основен модел, подходящ за обработка на сложни задачи, с отлични резултати в сценарии като отговори на въпроси, резюмиране, творчество, текстова класификация и ролеви игри. Поддържа разсъждения и фина настройка с контекстен прозорец от 256k."
|
85
|
+
},
|
80
86
|
"Doubao-pro-32k": {
|
81
87
|
"description": "Най-добрият модел за основни задачи, подходящ за работа с комплексни задачи, с много добри резултати в справочния отговор, обобщение, творчество, текстова класификация и ролеви игри. Поддържа извеждане и фин настройка на контекстов прозорец от 32k."
|
82
88
|
},
|
83
89
|
"Doubao-pro-4k": {
|
84
90
|
"description": "Най-добрият модел за основни задачи, подходящ за работа с комплексни задачи, с много добри резултати в справочния отговор, обобщение, творчество, текстова класификация и ролеви игри. Поддържа извеждане и фин настройка на контекстов прозорец от 4k."
|
85
91
|
},
|
92
|
+
"Doubao-vision-lite-32k": {
|
93
|
+
"description": "Doubao-vision моделът е мултимодален голям модел, представен от Doubao, който притежава мощни способности за разбиране и разсъждение на изображения, както и прецизно разбиране на инструкции. Моделът показва силни резултати в извличането на текстова информация от изображения и в задачи за разсъждение, базирани на изображения, и може да се прилага в по-сложни и по-широки визуални въпроси."
|
94
|
+
},
|
95
|
+
"Doubao-vision-pro-32k": {
|
96
|
+
"description": "Doubao-vision моделът е мултимодален голям модел, представен от Doubao, който притежава мощни способности за разбиране и разсъждение на изображения, както и прецизно разбиране на инструкции. Моделът показва силни резултати в извличането на текстова информация от изображения и в задачи за разсъждение, базирани на изображения, и може да се прилага в по-сложни и по-широки визуални въпроси."
|
97
|
+
},
|
86
98
|
"ERNIE-3.5-128K": {
|
87
99
|
"description": "Флагманският модел на Baidu, разработен самостоятелно, е мащабен езиков модел, който обхваща огромно количество китайски и английски текстове. Той притежава мощни общи способности и може да отговори на почти всички изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения с плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговорите."
|
88
100
|
},
|
@@ -665,6 +677,15 @@
|
|
665
677
|
"deepseek/deepseek-r1:free": {
|
666
678
|
"description": "DeepSeek-R1 значително подобри способността на модела за разсъждение при наличието на много малко маркирани данни. Преди да предостави окончателния отговор, моделът първо ще изведе част от съдържанието на веригата на мислене, за да повиши точността на окончателния отговор."
|
667
679
|
},
|
680
|
+
"doubao-1.5-lite-32k": {
|
681
|
+
"description": "Doubao-1.5-lite е ново поколение лек модел, с изключителна скорост на отговор, който постига световно ниво както по отношение на ефективността, така и на времето за реакция."
|
682
|
+
},
|
683
|
+
"doubao-1.5-pro-256k": {
|
684
|
+
"description": "Doubao-1.5-pro-256k е напълно обновен вариант на Doubao-1.5-Pro, с общо подобрение на ефективността с 10%. Поддържа разсъждения с контекстен прозорец от 256k, а дължината на изхода поддържа максимум 12k токена. По-висока производителност, по-голям прозорец и изключителна цена-качество, подходящ за по-широк спектър от приложения."
|
685
|
+
},
|
686
|
+
"doubao-1.5-pro-32k": {
|
687
|
+
"description": "Doubao-1.5-pro е ново поколение основен модел, с напълно обновени характеристики, който показва отлични резултати в области като знания, код, разсъждения и др."
|
688
|
+
},
|
668
689
|
"emohaa": {
|
669
690
|
"description": "Emohaa е психологически модел с професионални консултантски способности, помагащ на потребителите да разберат емоционалните проблеми."
|
670
691
|
},
|
package/locales/de-DE/chat.json
CHANGED
@@ -31,6 +31,9 @@
|
|
31
31
|
},
|
32
32
|
"duplicateTitle": "{{title}} Kopie",
|
33
33
|
"emptyAgent": "Kein Assistent verfügbar",
|
34
|
+
"extendControls": {
|
35
|
+
"title": "Modell Erweiterungsfunktionen"
|
36
|
+
},
|
34
37
|
"historyRange": "Verlaufsbereich",
|
35
38
|
"historySummary": "Zusammenfassung historischer Nachrichten",
|
36
39
|
"inbox": {
|
@@ -84,6 +87,29 @@
|
|
84
87
|
},
|
85
88
|
"regenerate": "Neu generieren",
|
86
89
|
"roleAndArchive": "Rolle und Archiv",
|
90
|
+
"search": {
|
91
|
+
"grounding": {
|
92
|
+
"searchQueries": "Suchbegriffe",
|
93
|
+
"title": "Es wurden {{count}} Ergebnisse gefunden"
|
94
|
+
},
|
95
|
+
"mode": {
|
96
|
+
"auto": {
|
97
|
+
"desc": "Intelligente Beurteilung, ob eine Suche basierend auf dem Gesprächsinhalt erforderlich ist",
|
98
|
+
"title": "Intelligente Vernetzung"
|
99
|
+
},
|
100
|
+
"disable": "Das aktuelle Modell unterstützt keine Funktionsaufrufe, daher kann die intelligente Vernetzungsfunktion nicht verwendet werden",
|
101
|
+
"off": {
|
102
|
+
"desc": "Verwendet nur das Grundwissen des Modells, ohne Netzsuche",
|
103
|
+
"title": "Vernetzung deaktivieren"
|
104
|
+
},
|
105
|
+
"on": {
|
106
|
+
"desc": "Führt kontinuierlich Netzsuchen durch, um die neuesten Informationen zu erhalten",
|
107
|
+
"title": "Immer vernetzt"
|
108
|
+
},
|
109
|
+
"useModelBuiltin": "Verwenden Sie die integrierte Suchmaschine des Modells"
|
110
|
+
},
|
111
|
+
"title": "Netzwerksuche"
|
112
|
+
},
|
87
113
|
"searchAgentPlaceholder": "Suchassistent...",
|
88
114
|
"sendPlaceholder": "Chat-Nachricht eingeben...",
|
89
115
|
"sessionGroup": {
|
@@ -65,6 +65,9 @@
|
|
65
65
|
"DeepSeek-R1-Distill-Qwen-7B": {
|
66
66
|
"description": "Das DeepSeek-R1-Distill-Modell basiert auf Qwen2.5-Math-7B und optimiert die Inferenzleistung durch verstärkendes Lernen und Kaltstartdaten. Das Open-Source-Modell setzt neue Maßstäbe für Multitasking."
|
67
67
|
},
|
68
|
+
"Doubao-1.5-vision-pro-32k": {
|
69
|
+
"description": "Doubao-1.5-vision-pro ist das neueste Upgrade des multimodalen Großmodells, das die Erkennung von Bildern mit beliebiger Auflösung und extremen Seitenverhältnissen unterstützt und die Fähigkeiten zur visuellen Schlussfolgerung, Dokumentenerkennung, Detailverständnis und Befehlsbefolgung verbessert."
|
70
|
+
},
|
68
71
|
"Doubao-lite-128k": {
|
69
72
|
"description": "Doubao-lite bietet eine extrem hohe Reaktionsgeschwindigkeit und ein hervorragendes Preis-Leistungs-Verhältnis und bietet den Kunden flexiblere Optionen für verschiedene Szenarien. Es unterstützt Schlussfolgerungen und Feinabstimmungen mit einem 128k-Kontextfenster."
|
70
73
|
},
|
@@ -77,12 +80,21 @@
|
|
77
80
|
"Doubao-pro-128k": {
|
78
81
|
"description": "Das leistungsstärkste Hauptmodell, das sich zur Verarbeitung komplexer Aufgaben eignet und in Szenarien wie Referenzfragen, Zusammenfassungen, Kreativität, Textklassifizierung und Rollenspiel sehr gute Ergebnisse erzielt. Es unterstützt Schlussfolgerungen und Feinabstimmungen mit einem 128k-Kontextfenster."
|
79
82
|
},
|
83
|
+
"Doubao-pro-256k": {
|
84
|
+
"description": "Das leistungsstärkste Hauptmodell, das sich gut für komplexe Aufgaben eignet und in Szenarien wie Referenzfragen, Zusammenfassungen, kreatives Schreiben, Textklassifizierung und Rollenspiel hervorragende Ergebnisse erzielt. Es unterstützt Schlussfolgerungen und Feinabstimmungen mit einem Kontextfenster von 256k."
|
85
|
+
},
|
80
86
|
"Doubao-pro-32k": {
|
81
87
|
"description": "Das leistungsstärkste Hauptmodell, das sich zur Verarbeitung komplexer Aufgaben eignet und in Szenarien wie Referenzfragen, Zusammenfassungen, Kreativität, Textklassifizierung und Rollenspiel sehr gute Ergebnisse erzielt. Es unterstützt Schlussfolgerungen und Feinabstimmungen mit einem 32k-Kontextfenster."
|
82
88
|
},
|
83
89
|
"Doubao-pro-4k": {
|
84
90
|
"description": "Das leistungsstärkste Hauptmodell, das sich zur Verarbeitung komplexer Aufgaben eignet und in Szenarien wie Referenzfragen, Zusammenfassungen, Kreativität, Textklassifizierung und Rollenspiel sehr gute Ergebnisse erzielt. Es unterstützt Schlussfolgerungen und Feinabstimmungen mit einem 4k-Kontextfenster."
|
85
91
|
},
|
92
|
+
"Doubao-vision-lite-32k": {
|
93
|
+
"description": "Das Doubao-vision-Modell ist ein multimodales Großmodell, das von Doubao eingeführt wurde und über starke Fähigkeiten zur Bildverständnis und Schlussfolgerung sowie präzise Befehlsverständnisfähigkeiten verfügt. Das Modell zeigt starke Leistungen bei der Extraktion von Bildtextinformationen und bildbasierten Schlussfolgerungsaufgaben und kann in komplexeren und breiteren visuellen Frage-Antwort-Aufgaben eingesetzt werden."
|
94
|
+
},
|
95
|
+
"Doubao-vision-pro-32k": {
|
96
|
+
"description": "Das Doubao-vision-Modell ist ein multimodales Großmodell, das von Doubao eingeführt wurde und über starke Fähigkeiten zur Bildverständnis und Schlussfolgerung sowie präzise Befehlsverständnisfähigkeiten verfügt. Das Modell zeigt starke Leistungen bei der Extraktion von Bildtextinformationen und bildbasierten Schlussfolgerungsaufgaben und kann in komplexeren und breiteren visuellen Frage-Antwort-Aufgaben eingesetzt werden."
|
97
|
+
},
|
86
98
|
"ERNIE-3.5-128K": {
|
87
99
|
"description": "Das von Baidu entwickelte Flaggschiff-Modell für großangelegte Sprachverarbeitung, das eine riesige Menge an chinesischen und englischen Texten abdeckt. Es verfügt über starke allgemeine Fähigkeiten und kann die meisten Anforderungen an Dialogfragen, kreative Generierung und Anwendungsfälle von Plugins erfüllen. Es unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten."
|
88
100
|
},
|
@@ -665,6 +677,15 @@
|
|
665
677
|
"deepseek/deepseek-r1:free": {
|
666
678
|
"description": "DeepSeek-R1 hat die Schlussfolgerungsfähigkeiten des Modells erheblich verbessert, selbst bei nur wenigen gekennzeichneten Daten. Bevor das Modell die endgültige Antwort ausgibt, gibt es zunächst eine Denkprozesskette aus, um die Genauigkeit der endgültigen Antwort zu erhöhen."
|
667
679
|
},
|
680
|
+
"doubao-1.5-lite-32k": {
|
681
|
+
"description": "Doubao-1.5-lite ist das neueste leichte Modell der nächsten Generation, das eine extrem schnelle Reaktionszeit bietet und sowohl in der Leistung als auch in der Latenz weltweit erstklassig ist."
|
682
|
+
},
|
683
|
+
"doubao-1.5-pro-256k": {
|
684
|
+
"description": "Doubao-1.5-pro-256k ist die umfassend verbesserte Version von Doubao-1.5-Pro, die die Gesamtleistung um 10 % steigert. Es unterstützt Schlussfolgerungen mit einem Kontextfenster von 256k und eine maximale Ausgabelänge von 12k Tokens. Höhere Leistung, größeres Fenster und ein hervorragendes Preis-Leistungs-Verhältnis machen es für eine breitere Palette von Anwendungsszenarien geeignet."
|
685
|
+
},
|
686
|
+
"doubao-1.5-pro-32k": {
|
687
|
+
"description": "Doubao-1.5-pro ist das neueste Hauptmodell der nächsten Generation, dessen Leistung umfassend verbessert wurde und das in den Bereichen Wissen, Code, Schlussfolgerungen usw. herausragende Leistungen zeigt."
|
688
|
+
},
|
668
689
|
"emohaa": {
|
669
690
|
"description": "Emohaa ist ein psychologisches Modell mit professionellen Beratungsfähigkeiten, das den Nutzern hilft, emotionale Probleme zu verstehen."
|
670
691
|
},
|
package/locales/en-US/chat.json
CHANGED
@@ -31,6 +31,9 @@
|
|
31
31
|
},
|
32
32
|
"duplicateTitle": "{{title}} Copy",
|
33
33
|
"emptyAgent": "No assistant available",
|
34
|
+
"extendControls": {
|
35
|
+
"title": "Model Extension Features"
|
36
|
+
},
|
34
37
|
"historyRange": "History Range",
|
35
38
|
"historySummary": "Historical Message Summary",
|
36
39
|
"inbox": {
|
@@ -84,6 +87,29 @@
|
|
84
87
|
},
|
85
88
|
"regenerate": "Regenerate",
|
86
89
|
"roleAndArchive": "Role and Archive",
|
90
|
+
"search": {
|
91
|
+
"grounding": {
|
92
|
+
"searchQueries": "Search Keywords",
|
93
|
+
"title": "Found {{count}} results"
|
94
|
+
},
|
95
|
+
"mode": {
|
96
|
+
"auto": {
|
97
|
+
"desc": "Intelligently determine whether a search is needed based on the conversation content",
|
98
|
+
"title": "Smart Online Search"
|
99
|
+
},
|
100
|
+
"disable": "The current model does not support function calls, so the smart online search feature is unavailable",
|
101
|
+
"off": {
|
102
|
+
"desc": "Use only the model's basic knowledge without performing a web search",
|
103
|
+
"title": "Disable Online Search"
|
104
|
+
},
|
105
|
+
"on": {
|
106
|
+
"desc": "Continuously perform web searches to obtain the latest information",
|
107
|
+
"title": "Always Online"
|
108
|
+
},
|
109
|
+
"useModelBuiltin": "Use the model's built-in search engine"
|
110
|
+
},
|
111
|
+
"title": "Online Search"
|
112
|
+
},
|
87
113
|
"searchAgentPlaceholder": "Search assistants...",
|
88
114
|
"sendPlaceholder": "Type your message here...",
|
89
115
|
"sessionGroup": {
|
@@ -65,6 +65,9 @@
|
|
65
65
|
"DeepSeek-R1-Distill-Qwen-7B": {
|
66
66
|
"description": "The DeepSeek-R1 distillation model based on Qwen2.5-Math-7B optimizes inference performance through reinforcement learning and cold-start data, refreshing the benchmark for open-source models across multiple tasks."
|
67
67
|
},
|
68
|
+
"Doubao-1.5-vision-pro-32k": {
|
69
|
+
"description": "Doubao-1.5-vision-pro is a newly upgraded multimodal large model that supports image recognition at any resolution and extreme aspect ratios, enhancing visual reasoning, document recognition, detail understanding, and instruction-following capabilities."
|
70
|
+
},
|
68
71
|
"Doubao-lite-128k": {
|
69
72
|
"description": "Doubao-lite provides extreme response speed and better cost-effectiveness, offering flexible options for various customer scenarios. It supports inference and fine-tuning with a 128k context window."
|
70
73
|
},
|
@@ -77,12 +80,21 @@
|
|
77
80
|
"Doubao-pro-128k": {
|
78
81
|
"description": "The best-performing primary model designed to handle complex tasks, achieving strong performance in scenarios such as reference Q&A, summarization, creative writing, text classification, and role-playing. It supports inference and fine-tuning with a 128k context window."
|
79
82
|
},
|
83
|
+
"Doubao-pro-256k": {
|
84
|
+
"description": "The best-performing flagship model, suitable for handling complex tasks, with excellent results in reference Q&A, summarization, creative writing, text classification, role-playing, and more. It supports reasoning and fine-tuning with a 256k context window."
|
85
|
+
},
|
80
86
|
"Doubao-pro-32k": {
|
81
87
|
"description": "The best-performing primary model suited for complex tasks, showing great results in reference Q&A, summarization, creative writing, text classification, and role-playing. It supports inference and fine-tuning with a 32k context window."
|
82
88
|
},
|
83
89
|
"Doubao-pro-4k": {
|
84
90
|
"description": "The best-performing primary model suitable for handling complex tasks, demonstrating excellent performance in scenarios such as reference Q&A, summarization, creative writing, text classification, and role-playing. It supports inference and fine-tuning with a 4k context window."
|
85
91
|
},
|
92
|
+
"Doubao-vision-lite-32k": {
|
93
|
+
"description": "The Doubao-vision model is a multimodal large model launched by Doubao, featuring powerful image understanding and reasoning capabilities, as well as precise instruction comprehension. The model has demonstrated strong performance in image-text information extraction and image-based reasoning tasks, making it applicable to more complex and broader visual question-answering tasks."
|
94
|
+
},
|
95
|
+
"Doubao-vision-pro-32k": {
|
96
|
+
"description": "The Doubao-vision model is a multimodal large model launched by Doubao, featuring powerful image understanding and reasoning capabilities, as well as precise instruction comprehension. The model has demonstrated strong performance in image-text information extraction and image-based reasoning tasks, making it applicable to more complex and broader visual question-answering tasks."
|
97
|
+
},
|
86
98
|
"ERNIE-3.5-128K": {
|
87
99
|
"description": "Baidu's self-developed flagship large-scale language model, covering a vast amount of Chinese and English corpus. It possesses strong general capabilities, meeting the requirements for most dialogue Q&A, creative generation, and plugin application scenarios; it supports automatic integration with Baidu's search plugin to ensure the timeliness of Q&A information."
|
88
100
|
},
|
@@ -665,6 +677,15 @@
|
|
665
677
|
"deepseek/deepseek-r1:free": {
|
666
678
|
"description": "DeepSeek-R1 significantly enhances model reasoning capabilities with minimal labeled data. Before outputting the final answer, the model first provides a chain of thought to improve the accuracy of the final response."
|
667
679
|
},
|
680
|
+
"doubao-1.5-lite-32k": {
|
681
|
+
"description": "Doubao-1.5-lite is a new generation lightweight model, offering extreme response speed with performance and latency at a world-class level."
|
682
|
+
},
|
683
|
+
"doubao-1.5-pro-256k": {
|
684
|
+
"description": "Doubao-1.5-pro-256k is an upgraded version of Doubao-1.5-Pro, significantly enhancing overall performance by 10%. It supports reasoning with a 256k context window and an output length of up to 12k tokens. With higher performance, a larger window, and exceptional cost-effectiveness, it is suitable for a wider range of applications."
|
685
|
+
},
|
686
|
+
"doubao-1.5-pro-32k": {
|
687
|
+
"description": "Doubao-1.5-pro is a new generation flagship model with comprehensive performance upgrades, excelling in knowledge, coding, reasoning, and more."
|
688
|
+
},
|
668
689
|
"emohaa": {
|
669
690
|
"description": "Emohaa is a psychological model with professional counseling capabilities, helping users understand emotional issues."
|
670
691
|
},
|
package/locales/es-ES/chat.json
CHANGED
@@ -31,6 +31,9 @@
|
|
31
31
|
},
|
32
32
|
"duplicateTitle": "{{title}} Copia",
|
33
33
|
"emptyAgent": "No hay asistente disponible",
|
34
|
+
"extendControls": {
|
35
|
+
"title": "Funciones de extensión del modelo"
|
36
|
+
},
|
34
37
|
"historyRange": "Rango de historial",
|
35
38
|
"historySummary": "Resumen de mensajes históricos",
|
36
39
|
"inbox": {
|
@@ -84,6 +87,29 @@
|
|
84
87
|
},
|
85
88
|
"regenerate": "Regenerar",
|
86
89
|
"roleAndArchive": "Rol y archivo",
|
90
|
+
"search": {
|
91
|
+
"grounding": {
|
92
|
+
"searchQueries": "Palabras clave de búsqueda",
|
93
|
+
"title": "Se han encontrado {{count}} resultados"
|
94
|
+
},
|
95
|
+
"mode": {
|
96
|
+
"auto": {
|
97
|
+
"desc": "Determina inteligentemente si se necesita buscar según el contenido de la conversación",
|
98
|
+
"title": "Conexión inteligente"
|
99
|
+
},
|
100
|
+
"disable": "El modelo actual no admite llamadas a funciones, por lo que no se puede utilizar la función de conexión inteligente",
|
101
|
+
"off": {
|
102
|
+
"desc": "Utiliza solo el conocimiento básico del modelo, sin realizar búsquedas en línea",
|
103
|
+
"title": "Desactivar conexión"
|
104
|
+
},
|
105
|
+
"on": {
|
106
|
+
"desc": "Realiza búsquedas en línea continuamente para obtener la información más reciente",
|
107
|
+
"title": "Siempre conectado"
|
108
|
+
},
|
109
|
+
"useModelBuiltin": "Utilizar el motor de búsqueda integrado del modelo"
|
110
|
+
},
|
111
|
+
"title": "Búsqueda en línea"
|
112
|
+
},
|
87
113
|
"searchAgentPlaceholder": "Asistente de búsqueda...",
|
88
114
|
"sendPlaceholder": "Escribe tu mensaje...",
|
89
115
|
"sessionGroup": {
|
@@ -65,6 +65,9 @@
|
|
65
65
|
"DeepSeek-R1-Distill-Qwen-7B": {
|
66
66
|
"description": "El modelo de destilación DeepSeek-R1 basado en Qwen2.5-Math-7B optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto."
|
67
67
|
},
|
68
|
+
"Doubao-1.5-vision-pro-32k": {
|
69
|
+
"description": "Doubao-1.5-vision-pro es un modelo multimodal de gran tamaño, actualizado, que soporta el reconocimiento de imágenes de cualquier resolución y proporciones extremas, mejorando la capacidad de razonamiento visual, reconocimiento de documentos, comprensión de información detallada y cumplimiento de instrucciones."
|
70
|
+
},
|
68
71
|
"Doubao-lite-128k": {
|
69
72
|
"description": "Doubao-lite presenta una velocidad de respuesta extrema y una mejor relación calidad-precio, ofreciendo opciones más flexibles para diferentes escenarios de clientes. Admite inferencia y ajuste fino con ventanas de contexto de 128k."
|
70
73
|
},
|
@@ -77,12 +80,21 @@
|
|
77
80
|
"Doubao-pro-128k": {
|
78
81
|
"description": "El modelo principal más eficaz, adecuado para manejar tareas complejas, con un excelente rendimiento en escenarios como preguntas y respuestas de referencia, resúmenes, creación de contenido, clasificación de textos y juegos de roles. Admite inferencia y ajuste fino con ventanas de contexto de 128k."
|
79
82
|
},
|
83
|
+
"Doubao-pro-256k": {
|
84
|
+
"description": "El modelo principal con el mejor rendimiento, adecuado para manejar tareas complejas, mostrando buenos resultados en escenarios como preguntas y respuestas de referencia, resúmenes, creación, clasificación de textos y juegos de roles. Soporta razonamiento y ajuste fino con una ventana de contexto de 256k."
|
85
|
+
},
|
80
86
|
"Doubao-pro-32k": {
|
81
87
|
"description": "El modelo principal más eficaz, adecuado para manejar tareas complejas, con un excelente rendimiento en escenarios como preguntas y respuestas de referencia, resúmenes, creación de contenido, clasificación de textos y juegos de roles. Admite inferencia y ajuste fino con ventanas de contexto de 32k."
|
82
88
|
},
|
83
89
|
"Doubao-pro-4k": {
|
84
90
|
"description": "El modelo principal más eficaz, adecuado para manejar tareas complejas, con un excelente rendimiento en escenarios como preguntas y respuestas de referencia, resúmenes, creación de contenido, clasificación de textos y juegos de roles. Admite inferencia y ajuste fino con ventanas de contexto de 4k."
|
85
91
|
},
|
92
|
+
"Doubao-vision-lite-32k": {
|
93
|
+
"description": "El modelo Doubao-vision es un modelo multimodal lanzado por Doubao, que cuenta con potentes capacidades de comprensión e inferencia de imágenes, así como una precisa capacidad de comprensión de instrucciones. El modelo ha demostrado un rendimiento excepcional en la extracción de información textual de imágenes y en tareas de razonamiento basadas en imágenes, siendo aplicable a tareas de preguntas y respuestas visuales más complejas y amplias."
|
94
|
+
},
|
95
|
+
"Doubao-vision-pro-32k": {
|
96
|
+
"description": "El modelo Doubao-vision es un modelo multimodal lanzado por Doubao, que cuenta con potentes capacidades de comprensión e inferencia de imágenes, así como una precisa capacidad de comprensión de instrucciones. El modelo ha demostrado un rendimiento excepcional en la extracción de información textual de imágenes y en tareas de razonamiento basadas en imágenes, siendo aplicable a tareas de preguntas y respuestas visuales más complejas y amplias."
|
97
|
+
},
|
86
98
|
"ERNIE-3.5-128K": {
|
87
99
|
"description": "Modelo de lenguaje a gran escala de primera línea desarrollado por Baidu, que abarca una vasta cantidad de corpus en chino y en inglés, con potentes capacidades generales que pueden satisfacer la mayoría de los requisitos de preguntas y respuestas en diálogos, generación de contenido y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas."
|
88
100
|
},
|
@@ -665,6 +677,15 @@
|
|
665
677
|
"deepseek/deepseek-r1:free": {
|
666
678
|
"description": "DeepSeek-R1 mejora significativamente la capacidad de razonamiento del modelo con muy pocos datos etiquetados. Antes de proporcionar la respuesta final, el modelo genera una cadena de pensamiento para mejorar la precisión de la respuesta final."
|
667
679
|
},
|
680
|
+
"doubao-1.5-lite-32k": {
|
681
|
+
"description": "Doubao-1.5-lite es un modelo ligero de nueva generación, con una velocidad de respuesta extrema, alcanzando niveles de rendimiento y latencia de clase mundial."
|
682
|
+
},
|
683
|
+
"doubao-1.5-pro-256k": {
|
684
|
+
"description": "Doubao-1.5-pro-256k es una versión mejorada de Doubao-1.5-Pro, con un aumento del 10% en el rendimiento general. Soporta razonamiento con una ventana de contexto de 256k y una longitud de salida de hasta 12k tokens. Mayor rendimiento, ventana más grande y una excelente relación calidad-precio, adecuado para una amplia gama de escenarios de aplicación."
|
685
|
+
},
|
686
|
+
"doubao-1.5-pro-32k": {
|
687
|
+
"description": "Doubao-1.5-pro es un modelo de nueva generación, con un rendimiento completamente mejorado, destacando en conocimientos, código, razonamiento, entre otros."
|
688
|
+
},
|
668
689
|
"emohaa": {
|
669
690
|
"description": "Emohaa es un modelo psicológico con capacidades de consulta profesional, ayudando a los usuarios a comprender problemas emocionales."
|
670
691
|
},
|
package/locales/fa-IR/chat.json
CHANGED
@@ -31,6 +31,9 @@
|
|
31
31
|
},
|
32
32
|
"duplicateTitle": "نسخهای از {{title}}",
|
33
33
|
"emptyAgent": "دستیار موجود نیست",
|
34
|
+
"extendControls": {
|
35
|
+
"title": "ویژگیهای گسترش مدل"
|
36
|
+
},
|
34
37
|
"historyRange": "محدوده تاریخی",
|
35
38
|
"historySummary": "خلاصه پیامهای تاریخی",
|
36
39
|
"inbox": {
|
@@ -84,6 +87,29 @@
|
|
84
87
|
},
|
85
88
|
"regenerate": "بازتولید",
|
86
89
|
"roleAndArchive": "نقشها و بایگانی",
|
90
|
+
"search": {
|
91
|
+
"grounding": {
|
92
|
+
"searchQueries": "کلمات کلیدی جستجو",
|
93
|
+
"title": "تعداد {{count}} نتیجه پیدا شد"
|
94
|
+
},
|
95
|
+
"mode": {
|
96
|
+
"auto": {
|
97
|
+
"desc": "به طور هوشمندانه بر اساس محتوای گفتگو تشخیص میدهد که آیا نیاز به جستجو است",
|
98
|
+
"title": "اتصال هوشمند"
|
99
|
+
},
|
100
|
+
"disable": "مدل فعلی از فراخوانی توابع پشتیبانی نمیکند، بنابراین نمیتوان از ویژگی اتصال هوشمند استفاده کرد",
|
101
|
+
"off": {
|
102
|
+
"desc": "فقط از دانش پایه مدل استفاده میکند و جستجوی اینترنتی انجام نمیدهد",
|
103
|
+
"title": "قطع اتصال"
|
104
|
+
},
|
105
|
+
"on": {
|
106
|
+
"desc": "به طور مداوم جستجوی اینترنتی انجام میدهد و اطلاعات جدید را به دست میآورد",
|
107
|
+
"title": "همیشه متصل"
|
108
|
+
},
|
109
|
+
"useModelBuiltin": "استفاده از موتور جستجوی داخلی مدل"
|
110
|
+
},
|
111
|
+
"title": "جستجوی متصل"
|
112
|
+
},
|
87
113
|
"searchAgentPlaceholder": "جستجوی دستیار...",
|
88
114
|
"sendPlaceholder": "نوشتن پیام...",
|
89
115
|
"sessionGroup": {
|