@lobehub/chat 1.88.20 → 1.88.22
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.i18nrc.js +1 -1
- package/CHANGELOG.md +51 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +3 -0
- package/locales/ar/models.json +92 -17
- package/locales/ar/setting.json +0 -12
- package/locales/bg-BG/chat.json +3 -0
- package/locales/bg-BG/models.json +92 -17
- package/locales/bg-BG/setting.json +0 -12
- package/locales/de-DE/chat.json +3 -0
- package/locales/de-DE/models.json +92 -17
- package/locales/de-DE/setting.json +0 -12
- package/locales/en-US/chat.json +3 -0
- package/locales/en-US/models.json +92 -17
- package/locales/en-US/setting.json +0 -12
- package/locales/es-ES/chat.json +3 -0
- package/locales/es-ES/models.json +92 -17
- package/locales/es-ES/setting.json +0 -12
- package/locales/fa-IR/chat.json +3 -0
- package/locales/fa-IR/models.json +92 -17
- package/locales/fa-IR/setting.json +0 -12
- package/locales/fr-FR/chat.json +3 -0
- package/locales/fr-FR/models.json +92 -17
- package/locales/fr-FR/setting.json +0 -12
- package/locales/it-IT/chat.json +3 -0
- package/locales/it-IT/models.json +92 -17
- package/locales/it-IT/setting.json +0 -12
- package/locales/ja-JP/chat.json +3 -0
- package/locales/ja-JP/models.json +92 -17
- package/locales/ja-JP/setting.json +0 -12
- package/locales/ko-KR/chat.json +3 -0
- package/locales/ko-KR/models.json +92 -17
- package/locales/ko-KR/setting.json +0 -12
- package/locales/nl-NL/chat.json +3 -0
- package/locales/nl-NL/models.json +92 -17
- package/locales/nl-NL/setting.json +0 -12
- package/locales/pl-PL/chat.json +3 -0
- package/locales/pl-PL/models.json +92 -17
- package/locales/pl-PL/setting.json +0 -12
- package/locales/pt-BR/chat.json +3 -0
- package/locales/pt-BR/models.json +92 -17
- package/locales/pt-BR/setting.json +0 -12
- package/locales/ru-RU/chat.json +3 -0
- package/locales/ru-RU/models.json +92 -17
- package/locales/ru-RU/setting.json +0 -12
- package/locales/tr-TR/chat.json +3 -0
- package/locales/tr-TR/models.json +92 -17
- package/locales/tr-TR/setting.json +0 -12
- package/locales/vi-VN/chat.json +3 -0
- package/locales/vi-VN/models.json +92 -17
- package/locales/vi-VN/setting.json +0 -12
- package/locales/zh-CN/chat.json +3 -0
- package/locales/zh-CN/models.json +89 -14
- package/locales/zh-CN/setting.json +0 -12
- package/locales/zh-TW/chat.json +3 -0
- package/locales/zh-TW/models.json +92 -17
- package/locales/zh-TW/setting.json +0 -12
- package/package.json +1 -1
- package/src/config/aiModels/deepseek.ts +5 -3
- package/src/config/aiModels/groq.ts +16 -29
- package/src/config/aiModels/hunyuan.ts +104 -82
- package/src/config/aiModels/novita.ts +27 -121
- package/src/config/aiModels/openai.ts +19 -2
- package/src/config/aiModels/openrouter.ts +59 -47
- package/src/config/aiModels/siliconcloud.ts +73 -39
- package/src/config/aiModels/volcengine.ts +3 -3
- package/src/config/aiModels/xai.ts +2 -0
- package/src/config/modelProviders/zeroone.ts +3 -0
- package/src/features/AgentSetting/AgentModal/index.tsx +1 -26
- package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +12 -0
- package/src/features/ChatInput/ActionBar/Model/ReasoningEffortSlider.tsx +57 -0
- package/src/libs/model-runtime/novita/__snapshots__/index.test.ts.snap +1 -1
- package/src/locales/default/chat.ts +3 -0
- package/src/locales/default/setting.ts +0 -12
- package/src/services/chat.ts +5 -1
- package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +0 -5
- package/src/types/agent/chatConfig.ts +1 -0
- package/src/types/aiModel.ts +5 -1
package/.i18nrc.js
CHANGED
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,57 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.88.22](https://github.com/lobehub/lobe-chat/compare/v1.88.21...v1.88.22)
|
6
|
+
|
7
|
+
<sup>Released on **2025-05-31**</sup>
|
8
|
+
|
9
|
+
#### 💄 Styles
|
10
|
+
|
11
|
+
- **misc**: Support 01.ai proxy url.
|
12
|
+
|
13
|
+
<br/>
|
14
|
+
|
15
|
+
<details>
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
17
|
+
|
18
|
+
#### Styles
|
19
|
+
|
20
|
+
- **misc**: Support 01.ai proxy url, closes [#8025](https://github.com/lobehub/lobe-chat/issues/8025) ([e0442b8](https://github.com/lobehub/lobe-chat/commit/e0442b8))
|
21
|
+
|
22
|
+
</details>
|
23
|
+
|
24
|
+
<div align="right">
|
25
|
+
|
26
|
+
[](#readme-top)
|
27
|
+
|
28
|
+
</div>
|
29
|
+
|
30
|
+
### [Version 1.88.21](https://github.com/lobehub/lobe-chat/compare/v1.88.20...v1.88.21)
|
31
|
+
|
32
|
+
<sup>Released on **2025-05-31**</sup>
|
33
|
+
|
34
|
+
#### 💄 Styles
|
35
|
+
|
36
|
+
- **misc**: Enhanced reasoning_effort Slider Component, Update Hunyuan models & deepseek-r1-0528.
|
37
|
+
|
38
|
+
<br/>
|
39
|
+
|
40
|
+
<details>
|
41
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
42
|
+
|
43
|
+
#### Styles
|
44
|
+
|
45
|
+
- **misc**: Enhanced reasoning_effort Slider Component, closes [#7998](https://github.com/lobehub/lobe-chat/issues/7998) ([750b26a](https://github.com/lobehub/lobe-chat/commit/750b26a))
|
46
|
+
- **misc**: Update Hunyuan models & deepseek-r1-0528, closes [#7993](https://github.com/lobehub/lobe-chat/issues/7993) ([2eb198c](https://github.com/lobehub/lobe-chat/commit/2eb198c))
|
47
|
+
|
48
|
+
</details>
|
49
|
+
|
50
|
+
<div align="right">
|
51
|
+
|
52
|
+
[](#readme-top)
|
53
|
+
|
54
|
+
</div>
|
55
|
+
|
5
56
|
### [Version 1.88.20](https://github.com/lobehub/lobe-chat/compare/v1.88.19...v1.88.20)
|
6
57
|
|
7
58
|
<sup>Released on **2025-05-31**</sup>
|
package/changelog/v1.json
CHANGED
@@ -1,4 +1,22 @@
|
|
1
1
|
[
|
2
|
+
{
|
3
|
+
"children": {
|
4
|
+
"improvements": [
|
5
|
+
"Support 01.ai proxy url."
|
6
|
+
]
|
7
|
+
},
|
8
|
+
"date": "2025-05-31",
|
9
|
+
"version": "1.88.22"
|
10
|
+
},
|
11
|
+
{
|
12
|
+
"children": {
|
13
|
+
"improvements": [
|
14
|
+
"Enhanced reasoning_effort Slider Component, Update Hunyuan models & deepseek-r1-0528."
|
15
|
+
]
|
16
|
+
},
|
17
|
+
"date": "2025-05-31",
|
18
|
+
"version": "1.88.21"
|
19
|
+
},
|
2
20
|
{
|
3
21
|
"children": {
|
4
22
|
"fixes": [
|
package/locales/ar/chat.json
CHANGED
package/locales/ar/models.json
CHANGED
@@ -341,9 +341,6 @@
|
|
341
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
342
342
|
"description": "Qwen2.5-Coder-32B-Instruct هو نموذج لغوي كبير مصمم خصيصًا لتوليد الشيفرات، وفهم الشيفرات، ومشاهد التطوير الفعالة، مع استخدام حجم 32B من المعلمات الرائدة في الصناعة، مما يلبي احتياجات البرمجة المتنوعة."
|
343
343
|
},
|
344
|
-
"SenseCat-5-1202": {
|
345
|
-
"description": "هو الإصدار الأحدث المبني على V5.5، وقد شهد تحسينات ملحوظة في القدرات الأساسية باللغة الصينية والإنجليزية، والدردشة، والمعرفة العلمية، والمعرفة الأدبية، والكتابة، والمنطق الرياضي، والتحكم في عدد الكلمات."
|
346
|
-
},
|
347
344
|
"SenseChat": {
|
348
345
|
"description": "نموذج الإصدار الأساسي (V4)، بطول سياق 4K، يمتلك قدرات قوية وعامة."
|
349
346
|
},
|
@@ -356,6 +353,9 @@
|
|
356
353
|
"SenseChat-5": {
|
357
354
|
"description": "أحدث إصدار من النموذج (V5.5)، بطول سياق 128K، مع تحسينات ملحوظة في القدرة على الاستدلال الرياضي، المحادثات باللغة الإنجليزية، اتباع التعليمات وفهم النصوص الطويلة، مما يجعله في مستوى GPT-4o."
|
358
355
|
},
|
356
|
+
"SenseChat-5-1202": {
|
357
|
+
"description": "الإصدار الأحدث المبني على V5.5، يظهر تحسينات ملحوظة في القدرات الأساسية باللغتين الصينية والإنجليزية، الدردشة، المعرفة العلمية، المعرفة الأدبية، الكتابة، المنطق الرياضي، والتحكم في عدد الكلمات."
|
358
|
+
},
|
359
359
|
"SenseChat-5-Cantonese": {
|
360
360
|
"description": "بطول سياق 32K، يتفوق في فهم المحادثات باللغة الكانتونية مقارنة بـ GPT-4، ويضاهي GPT-4 Turbo في مجالات المعرفة، الاستدلال، الرياضيات وكتابة الأكواد."
|
361
361
|
},
|
@@ -515,6 +515,12 @@
|
|
515
515
|
"ai21-jamba-1.5-mini": {
|
516
516
|
"description": "نموذج متعدد اللغات بحجم 52B (12B نشط)، يقدم نافذة سياق طويلة بحجم 256K، واستدعاء وظائف، وإخراج منظم، وتوليد مستند."
|
517
517
|
},
|
518
|
+
"ai21-labs/AI21-Jamba-1.5-Large": {
|
519
|
+
"description": "نموذج متعدد اللغات يحتوي على 398 مليار معلمة (94 مليار نشطة)، يوفر نافذة سياق طويلة تصل إلى 256 ألف كلمة، استدعاء دوال، إخراج منظم وتوليد قائم على الحقائق."
|
520
|
+
},
|
521
|
+
"ai21-labs/AI21-Jamba-1.5-Mini": {
|
522
|
+
"description": "نموذج متعدد اللغات يحتوي على 52 مليار معلمة (12 مليار نشطة)، يوفر نافذة سياق طويلة تصل إلى 256 ألف كلمة، استدعاء دوال، إخراج منظم وتوليد قائم على الحقائق."
|
523
|
+
},
|
518
524
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
519
525
|
"description": "Claude 3.5 Sonnet يرفع المعايير في الصناعة، حيث يتفوق على نماذج المنافسين وClaude 3 Opus، ويظهر أداءً ممتازًا في تقييمات واسعة، مع سرعة وتكلفة تتناسب مع نماذجنا المتوسطة."
|
520
526
|
},
|
@@ -668,6 +674,12 @@
|
|
668
674
|
"cohere-command-r-plus": {
|
669
675
|
"description": "نموذج RAG محسّن من الطراز الأول مصمم للتعامل مع أحمال العمل على مستوى المؤسسات."
|
670
676
|
},
|
677
|
+
"cohere/Cohere-command-r": {
|
678
|
+
"description": "Command R هو نموذج توليدي قابل للتوسع، مصمم للاستخدام مع RAG والأدوات، لتمكين الشركات من تحقيق ذكاء اصطناعي بمستوى الإنتاج."
|
679
|
+
},
|
680
|
+
"cohere/Cohere-command-r-plus": {
|
681
|
+
"description": "Command R+ هو نموذج متقدم محسّن لـ RAG، مصمم للتعامل مع أعباء العمل على مستوى المؤسسات."
|
682
|
+
},
|
671
683
|
"command": {
|
672
684
|
"description": "نموذج حواري يتبع التعليمات، يظهر جودة عالية وموثوقية أكبر في المهام اللغوية، ويتميز بطول سياق أطول مقارنة بنموذجنا الأساسي للتوليد."
|
673
685
|
},
|
@@ -1028,6 +1040,12 @@
|
|
1028
1040
|
"gemini-2.5-flash-preview-04-17": {
|
1029
1041
|
"description": "معاينة فلاش جمنّي 2.5 هي النموذج الأكثر كفاءة من جوجل، حيث تقدم مجموعة شاملة من الميزات."
|
1030
1042
|
},
|
1043
|
+
"gemini-2.5-flash-preview-04-17-thinking": {
|
1044
|
+
"description": "Gemini 2.5 Flash Preview هو نموذج Google الأكثر فعالية من حيث التكلفة، يقدم وظائف شاملة."
|
1045
|
+
},
|
1046
|
+
"gemini-2.5-flash-preview-05-20": {
|
1047
|
+
"description": "Gemini 2.5 Flash Preview هو نموذج Google الأكثر فعالية من حيث التكلفة، يقدم وظائف شاملة."
|
1048
|
+
},
|
1031
1049
|
"gemini-2.5-pro-exp-03-25": {
|
1032
1050
|
"description": "نموذج Gemini 2.5 Pro التجريبي هو الأكثر تقدمًا من Google، قادر على استنتاج المشكلات المعقدة في البرمجة والرياضيات وعلوم STEM، بالإضافة إلى تحليل مجموعات البيانات الكبيرة ومكتبات الشيفرات والمستندات باستخدام سياقات طويلة."
|
1033
1051
|
},
|
@@ -1262,23 +1280,17 @@
|
|
1262
1280
|
"grok-2-vision-1212": {
|
1263
1281
|
"description": "لقد تم تحسين هذا النموذج في الدقة، والامتثال للتعليمات، والقدرة على التعامل مع لغات متعددة."
|
1264
1282
|
},
|
1265
|
-
"grok-3
|
1266
|
-
"description": "نموذج رائد،
|
1283
|
+
"grok-3": {
|
1284
|
+
"description": "نموذج رائد، بارع في استخراج البيانات، البرمجة، وتلخيص النصوص لتطبيقات المؤسسات، يمتلك معرفة عميقة في مجالات المالية، الطب، القانون، والعلوم."
|
1267
1285
|
},
|
1268
|
-
"grok-3-fast
|
1269
|
-
"description": "نموذج رائد،
|
1286
|
+
"grok-3-fast": {
|
1287
|
+
"description": "نموذج رائد، بارع في استخراج البيانات، البرمجة، وتلخيص النصوص لتطبيقات المؤسسات، يمتلك معرفة عميقة في مجالات المالية، الطب، القانون، والعلوم."
|
1270
1288
|
},
|
1271
|
-
"grok-3-mini
|
1272
|
-
"description": "نموذج خفيف الوزن، يفكر قبل
|
1289
|
+
"grok-3-mini": {
|
1290
|
+
"description": "نموذج خفيف الوزن، يفكر قبل المحادثة. سريع وذكي، مناسب للمهام المنطقية التي لا تتطلب معرفة متخصصة عميقة، ويستطيع تتبع مسار التفكير الأصلي."
|
1273
1291
|
},
|
1274
|
-
"grok-3-mini-fast
|
1275
|
-
"description": "نموذج خفيف الوزن، يفكر قبل
|
1276
|
-
},
|
1277
|
-
"grok-beta": {
|
1278
|
-
"description": "يمتلك أداءً يعادل Grok 2، ولكنه يتمتع بكفاءة وسرعة ووظائف أعلى."
|
1279
|
-
},
|
1280
|
-
"grok-vision-beta": {
|
1281
|
-
"description": "أحدث نموذج لفهم الصور، يمكنه معالجة مجموعة متنوعة من المعلومات البصرية، بما في ذلك الوثائق، الرسوم البيانية، لقطات الشاشة، والصور."
|
1292
|
+
"grok-3-mini-fast": {
|
1293
|
+
"description": "نموذج خفيف الوزن، يفكر قبل المحادثة. سريع وذكي، مناسب للمهام المنطقية التي لا تتطلب معرفة متخصصة عميقة، ويستطيع تتبع مسار التفكير الأصلي."
|
1282
1294
|
},
|
1283
1295
|
"gryphe/mythomax-l2-13b": {
|
1284
1296
|
"description": "MythoMax l2 13B هو نموذج لغوي يجمع بين الإبداع والذكاء من خلال دمج عدة نماذج رائدة."
|
@@ -1322,6 +1334,9 @@
|
|
1322
1334
|
"hunyuan-t1-latest": {
|
1323
1335
|
"description": "أول نموذج استدلال هجين ضخم في الصناعة، يوسع قدرات الاستدلال، بسرعة فك تشفير فائقة، ويعزز التوافق مع تفضيلات البشر."
|
1324
1336
|
},
|
1337
|
+
"hunyuan-t1-vision": {
|
1338
|
+
"description": "نموذج تفكير عميق متعدد الوسائط من Hunyuan، يدعم سلاسل التفكير الأصلية متعددة الوسائط، بارع في معالجة مختلف سيناريوهات الاستدلال على الصور، ويحقق تحسينًا شاملاً مقارنة بنموذج التفكير السريع في مسائل العلوم."
|
1339
|
+
},
|
1325
1340
|
"hunyuan-translation": {
|
1326
1341
|
"description": "يدعم الترجمة بين 15 لغة بما في ذلك الصينية والإنجليزية واليابانية والفرنسية والبرتغالية والإسبانية والتركية والروسية والعربية والكورية والإيطالية والألمانية والفيتنامية والماليزية والإندونيسية، ويعتمد على مجموعة تقييم الترجمة متعددة السيناريوهات لتقييم تلقائي باستخدام درجة COMET، حيث يتفوق بشكل عام على نماذج السوق المماثلة في القدرة على الترجمة بين اللغات الشائعة."
|
1327
1342
|
},
|
@@ -1586,6 +1601,30 @@
|
|
1586
1601
|
"meta.llama3-8b-instruct-v1:0": {
|
1587
1602
|
"description": "Meta Llama 3 هو نموذج لغوي كبير مفتوح (LLM) موجه للمطورين والباحثين والشركات، يهدف إلى مساعدتهم في بناء وتجربة وتوسيع أفكارهم في الذكاء الاصطناعي بشكل مسؤول. كجزء من نظام الابتكار المجتمعي العالمي، فهو مثالي للأجهزة ذات القدرة الحاسوبية والموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع."
|
1588
1603
|
},
|
1604
|
+
"meta/Llama-3.2-11B-Vision-Instruct": {
|
1605
|
+
"description": "يتميز بقدرات استدلال على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري."
|
1606
|
+
},
|
1607
|
+
"meta/Llama-3.2-90B-Vision-Instruct": {
|
1608
|
+
"description": "قدرات استدلال متقدمة على الصور لتطبيقات الوكلاء في الفهم البصري."
|
1609
|
+
},
|
1610
|
+
"meta/Llama-3.3-70B-Instruct": {
|
1611
|
+
"description": "Llama 3.3 هو أحدث نموذج لغوي كبير متعدد اللغات مفتوح المصدر من سلسلة Llama، يقدم أداءً مماثلاً لنموذج 405 مليار معلمات بتكلفة منخفضة جدًا. يعتمد على بنية Transformer، وتم تحسينه من خلال التعديل الدقيق الخاضع للإشراف (SFT) والتعلم المعزز من خلال تغذية راجعة بشرية (RLHF) لتعزيز الفائدة والأمان. النسخة المعدلة للتعليمات مخصصة للحوار متعدد اللغات، وتتفوق على العديد من نماذج الدردشة المفتوحة والمغلقة في معايير الصناعة المتعددة. تاريخ المعرفة حتى ديسمبر 2023."
|
1612
|
+
},
|
1613
|
+
"meta/Meta-Llama-3-70B-Instruct": {
|
1614
|
+
"description": "نموذج قوي يحتوي على 70 مليار معلمة، يتميز بأداء ممتاز في الاستدلال، البرمجة، وتطبيقات اللغة المتنوعة."
|
1615
|
+
},
|
1616
|
+
"meta/Meta-Llama-3-8B-Instruct": {
|
1617
|
+
"description": "نموذج متعدد الاستخدامات يحتوي على 8 مليارات معلمة، محسن لمهام الحوار وتوليد النصوص."
|
1618
|
+
},
|
1619
|
+
"meta/Meta-Llama-3.1-405B-Instruct": {
|
1620
|
+
"description": "نموذج نصي معدل للتعليمات من Llama 3.1، محسن لحالات استخدام الحوار متعدد اللغات، ويحقق أداءً ممتازًا في العديد من معايير الصناعة مقارنة بالعديد من نماذج الدردشة المفتوحة والمغلقة."
|
1621
|
+
},
|
1622
|
+
"meta/Meta-Llama-3.1-70B-Instruct": {
|
1623
|
+
"description": "نموذج نصي معدل للتعليمات من Llama 3.1، محسن لحالات استخدام الحوار متعدد اللغات، ويحقق أداءً ممتازًا في العديد من معايير الصناعة مقارنة بالعديد من نماذج الدردشة المفتوحة والمغلقة."
|
1624
|
+
},
|
1625
|
+
"meta/Meta-Llama-3.1-8B-Instruct": {
|
1626
|
+
"description": "نموذج نصي معدل للتعليمات من Llama 3.1، محسن لحالات استخدام الحوار متعدد اللغات، ويحقق أداءً ممتازًا في العديد من معايير الصناعة مقارنة بالعديد من نماذج الدردشة المفتوحة والمغلقة."
|
1627
|
+
},
|
1589
1628
|
"meta/llama-3.1-405b-instruct": {
|
1590
1629
|
"description": "نموذج لغوي متقدم، يدعم توليد البيانات الاصطناعية، وتقطير المعرفة، والاستدلال، مناسب للدردشة، والبرمجة، والمهام الخاصة."
|
1591
1630
|
},
|
@@ -1610,6 +1649,30 @@
|
|
1610
1649
|
"meta/llama-3.3-70b-instruct": {
|
1611
1650
|
"description": "نموذج لغوي متقدم، بارع في الاستدلال، والرياضيات، والمعرفة العامة، واستدعاء الدوال."
|
1612
1651
|
},
|
1652
|
+
"microsoft/Phi-3-medium-128k-instruct": {
|
1653
|
+
"description": "نفس نموذج Phi-3-medium ولكن مع حجم سياق أكبر، مناسب لـ RAG أو القليل من التلميحات."
|
1654
|
+
},
|
1655
|
+
"microsoft/Phi-3-medium-4k-instruct": {
|
1656
|
+
"description": "نموذج يحتوي على 14 مليار معلمة، جودة أفضل من Phi-3-mini، يركز على بيانات عالية الجودة وكثيفة الاستدلال."
|
1657
|
+
},
|
1658
|
+
"microsoft/Phi-3-mini-128k-instruct": {
|
1659
|
+
"description": "نفس نموذج Phi-3-mini ولكن مع حجم سياق أكبر، مناسب لـ RAG أو القليل من التلميحات."
|
1660
|
+
},
|
1661
|
+
"microsoft/Phi-3-mini-4k-instruct": {
|
1662
|
+
"description": "أصغر عضو في عائلة Phi-3، محسن للجودة وزمن الاستجابة المنخفض."
|
1663
|
+
},
|
1664
|
+
"microsoft/Phi-3-small-128k-instruct": {
|
1665
|
+
"description": "نفس نموذج Phi-3-small ولكن مع حجم سياق أكبر، مناسب لـ RAG أو القليل من التلميحات."
|
1666
|
+
},
|
1667
|
+
"microsoft/Phi-3-small-8k-instruct": {
|
1668
|
+
"description": "نموذج يحتوي على 7 مليارات معلمة، جودة أفضل من Phi-3-mini، يركز على بيانات عالية الجودة وكثيفة الاستدلال."
|
1669
|
+
},
|
1670
|
+
"microsoft/Phi-3.5-mini-instruct": {
|
1671
|
+
"description": "نسخة محدثة من نموذج Phi-3-mini."
|
1672
|
+
},
|
1673
|
+
"microsoft/Phi-3.5-vision-instruct": {
|
1674
|
+
"description": "نسخة محدثة من نموذج Phi-3-vision."
|
1675
|
+
},
|
1613
1676
|
"microsoft/WizardLM-2-8x22B": {
|
1614
1677
|
"description": "WizardLM 2 هو نموذج لغوي تقدمه Microsoft AI، يتميز بأداء ممتاز في المحادثات المعقدة، واللغات المتعددة، والاستدلال، ومساعدات الذكاء."
|
1615
1678
|
},
|
@@ -1628,6 +1691,15 @@
|
|
1628
1691
|
"mistral": {
|
1629
1692
|
"description": "Mistral هو نموذج 7B أطلقته Mistral AI، مناسب لاحتياجات معالجة اللغة المتغيرة."
|
1630
1693
|
},
|
1694
|
+
"mistral-ai/Mistral-Large-2411": {
|
1695
|
+
"description": "النموذج الرائد من Mistral، مناسب للمهام المعقدة التي تتطلب قدرات استدلال واسعة النطاق أو تخصص عالي (توليد نصوص مركبة، توليد أكواد، RAG أو وكلاء)."
|
1696
|
+
},
|
1697
|
+
"mistral-ai/Mistral-Nemo": {
|
1698
|
+
"description": "Mistral Nemo هو نموذج لغوي متقدم (LLM) يتمتع بأحدث قدرات الاستدلال والمعرفة العالمية والبرمجة ضمن فئته الحجمية."
|
1699
|
+
},
|
1700
|
+
"mistral-ai/mistral-small-2503": {
|
1701
|
+
"description": "Mistral Small مناسب لأي مهمة لغوية تتطلب كفاءة عالية وزمن استجابة منخفض."
|
1702
|
+
},
|
1631
1703
|
"mistral-large": {
|
1632
1704
|
"description": "Mixtral Large هو النموذج الرائد من Mistral، يجمع بين قدرات توليد الشيفرة، والرياضيات، والاستدلال، ويدعم نافذة سياق تصل إلى 128k."
|
1633
1705
|
},
|
@@ -1769,6 +1841,9 @@
|
|
1769
1841
|
"openai/gpt-4o-mini": {
|
1770
1842
|
"description": "GPT-4o mini هو أحدث نموذج من OpenAI تم إطلاقه بعد GPT-4 Omni، ويدعم إدخال النصوص والصور وإخراج النصوص. كأحد نماذجهم المتقدمة الصغيرة، فهو أرخص بكثير من النماذج الرائدة الأخرى في الآونة الأخيرة، وأرخص بأكثر من 60% من GPT-3.5 Turbo. يحتفظ بذكاء متقدم مع قيمة ممتازة. حصل GPT-4o mini على 82% في اختبار MMLU، وهو حاليًا يتفوق على GPT-4 في تفضيلات الدردشة."
|
1771
1843
|
},
|
1844
|
+
"openai/o1": {
|
1845
|
+
"description": "o1 هو نموذج الاستدلال الجديد من OpenAI، يدعم إدخال الصور والنصوص ويخرج نصًا، مناسب للمهام المعقدة التي تتطلب معرفة عامة واسعة. يتميز هذا النموذج بسياق يصل إلى 200 ألف كلمة وتاريخ معرفة حتى أكتوبر 2023."
|
1846
|
+
},
|
1772
1847
|
"openai/o1-mini": {
|
1773
1848
|
"description": "o1-mini هو نموذج استدلال سريع وفعال من حيث التكلفة مصمم لتطبيقات البرمجة والرياضيات والعلوم. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023."
|
1774
1849
|
},
|
package/locales/ar/setting.json
CHANGED
@@ -259,9 +259,6 @@
|
|
259
259
|
"enableMaxTokens": {
|
260
260
|
"title": "تمكين الحد الأقصى للردود"
|
261
261
|
},
|
262
|
-
"enableReasoningEffort": {
|
263
|
-
"title": "تفعيل ضبط قوة الاستدلال"
|
264
|
-
},
|
265
262
|
"frequencyPenalty": {
|
266
263
|
"desc": "كلما زادت القيمة، كانت المفردات أكثر تنوعًا؛ وكلما انخفضت القيمة، كانت المفردات أكثر بساطة ووضوحًا",
|
267
264
|
"title": "تنوع المفردات"
|
@@ -281,15 +278,6 @@
|
|
281
278
|
"desc": "كلما زادت القيمة، زادت الميل إلى استخدام تعبيرات مختلفة، مما يتجنب تكرار المفاهيم؛ وكلما انخفضت القيمة، زادت الميل إلى استخدام المفاهيم أو السرد المتكرر، مما يجعل التعبير أكثر اتساقًا",
|
282
279
|
"title": "تنوع التعبير"
|
283
280
|
},
|
284
|
-
"reasoningEffort": {
|
285
|
-
"desc": "كلما زادت القيمة، زادت قدرة الاستدلال، ولكن قد يؤدي ذلك إلى زيادة وقت الاستجابة واستهلاك التوكنات",
|
286
|
-
"options": {
|
287
|
-
"high": "عالي",
|
288
|
-
"low": "منخفض",
|
289
|
-
"medium": "متوسط"
|
290
|
-
},
|
291
|
-
"title": "قوة الاستدلال"
|
292
|
-
},
|
293
281
|
"submit": "تحديث إعدادات النموذج",
|
294
282
|
"temperature": {
|
295
283
|
"desc": "كلما زادت القيمة، كانت الإجابات أكثر إبداعًا وخيالًا؛ وكلما انخفضت القيمة، كانت الإجابات أكثر دقة",
|
package/locales/bg-BG/chat.json
CHANGED
@@ -341,9 +341,6 @@
|
|
341
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
342
342
|
"description": "Qwen2.5-Coder-32B-Instruct е голям езиков модел, проектиран специално за генериране на код, разбиране на код и ефективни сценарии за разработка, с водеща в индустрията параметрична стойност от 32B, способен да отговори на разнообразни програмни нужди."
|
343
343
|
},
|
344
|
-
"SenseCat-5-1202": {
|
345
|
-
"description": "Това е най-новата версия, базирана на V5.5, която показва значителни подобрения в основните способности на китайски и английски, чат, научни знания, хуманитарни знания, писане, математическа логика, контрол на броя на думите и други."
|
346
|
-
},
|
347
344
|
"SenseChat": {
|
348
345
|
"description": "Основна версия на модела (V4), с контекстна дължина 4K, с мощни общи способности."
|
349
346
|
},
|
@@ -356,6 +353,9 @@
|
|
356
353
|
"SenseChat-5": {
|
357
354
|
"description": "Най-новата версия на модела (V5.5), с контекстна дължина 128K, значително подобрена способност в области като математическо разсъждение, английски разговори, следване на инструкции и разбиране на дълги текстове, сравнима с GPT-4o."
|
358
355
|
},
|
356
|
+
"SenseChat-5-1202": {
|
357
|
+
"description": "Базирана на версия V5.5, последната версия показва значително подобрение в основните умения на китайски и английски, чат, научни знания, хуманитарни знания, писане, математическа логика и контрол на броя думи."
|
358
|
+
},
|
359
359
|
"SenseChat-5-Cantonese": {
|
360
360
|
"description": "С контекстна дължина 32K, надминава GPT-4 в разбирането на разговори на кантонски, сравним с GPT-4 Turbo в множество области като знания, разсъждение, математика и писане на код."
|
361
361
|
},
|
@@ -515,6 +515,12 @@
|
|
515
515
|
"ai21-jamba-1.5-mini": {
|
516
516
|
"description": "Многоезичен модел с 52B параметри (12B активни), предлагащ контекстен прозорец с дължина 256K, извикване на функции, структурирани изходи и генериране на основа."
|
517
517
|
},
|
518
|
+
"ai21-labs/AI21-Jamba-1.5-Large": {
|
519
|
+
"description": "Многоезичен модел с 398 милиарда параметри (94 милиарда активни), предлагащ прозорец за дълъг контекст от 256K, извикване на функции, структурирани изходи и генериране, базирано на факти."
|
520
|
+
},
|
521
|
+
"ai21-labs/AI21-Jamba-1.5-Mini": {
|
522
|
+
"description": "Многоезичен модел с 52 милиарда параметри (12 милиарда активни), предлагащ прозорец за дълъг контекст от 256K, извикване на функции, структурирани изходи и генериране, базирано на факти."
|
523
|
+
},
|
518
524
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
519
525
|
"description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надвишаваща конкурентните модели и Claude 3 Opus, с отлични резултати в широки оценки, като същевременно предлага скорост и разходи на нашите модели от средно ниво."
|
520
526
|
},
|
@@ -668,6 +674,12 @@
|
|
668
674
|
"cohere-command-r-plus": {
|
669
675
|
"description": "Command R+ е модел, оптимизиран за RAG, проектиран да се справя с натоварвания на ниво предприятие."
|
670
676
|
},
|
677
|
+
"cohere/Cohere-command-r": {
|
678
|
+
"description": "Command R е мащабируем генеративен модел, предназначен за RAG и използване на инструменти, който позволява на предприятията да внедрят AI на производствено ниво."
|
679
|
+
},
|
680
|
+
"cohere/Cohere-command-r-plus": {
|
681
|
+
"description": "Command R+ е усъвършенстван оптимизиран модел за RAG, предназначен да се справя с натоварвания на корпоративно ниво."
|
682
|
+
},
|
671
683
|
"command": {
|
672
684
|
"description": "Диалогов модел, следващ инструкции, който показва високо качество и надеждност в езиковите задачи, с по-дълга контекстна дължина в сравнение с нашия основен генеративен модел."
|
673
685
|
},
|
@@ -1028,6 +1040,12 @@
|
|
1028
1040
|
"gemini-2.5-flash-preview-04-17": {
|
1029
1041
|
"description": "Gemini 2.5 Flash Preview е моделът с най-добро съотношение цена-качество на Google, предлагащ пълна функционалност."
|
1030
1042
|
},
|
1043
|
+
"gemini-2.5-flash-preview-04-17-thinking": {
|
1044
|
+
"description": "Gemini 2.5 Flash Preview е най-ефективният модел на Google, предлагащ пълна функционалност."
|
1045
|
+
},
|
1046
|
+
"gemini-2.5-flash-preview-05-20": {
|
1047
|
+
"description": "Gemini 2.5 Flash Preview е най-ефективният модел на Google, предлагащ пълна функционалност."
|
1048
|
+
},
|
1031
1049
|
"gemini-2.5-pro-exp-03-25": {
|
1032
1050
|
"description": "Gemini 2.5 Pro Experimental е най-напредналият модел на мислене на Google, способен да разсъждава по сложни проблеми в код, математика и STEM области, както и да анализира големи набори от данни, кодови библиотеки и документи, използвайки дълъг контекст."
|
1033
1051
|
},
|
@@ -1262,23 +1280,17 @@
|
|
1262
1280
|
"grok-2-vision-1212": {
|
1263
1281
|
"description": "Този модел е подобрен по отношение на точност, спазване на инструкции и многоезични способности."
|
1264
1282
|
},
|
1265
|
-
"grok-3
|
1266
|
-
"description": "Флагмански модел,
|
1267
|
-
},
|
1268
|
-
"grok-3-fast-beta": {
|
1269
|
-
"description": "Флагмански модел, специализиран в извличането на данни, програмирането и обобщаването на текстове за корпоративни приложения, с дълбоки познания в области като финанси, здравеопазване, право и наука."
|
1283
|
+
"grok-3": {
|
1284
|
+
"description": "Флагмански модел, експертен в извличане на данни, програмиране и обобщаване на текст за корпоративни приложения, с дълбоки знания в областите финанси, медицина, право и наука."
|
1270
1285
|
},
|
1271
|
-
"grok-3-
|
1272
|
-
"description": "
|
1286
|
+
"grok-3-fast": {
|
1287
|
+
"description": "Флагмански модел, експертен в извличане на данни, програмиране и обобщаване на текст за корпоративни приложения, с дълбоки знания в областите финанси, медицина, право и наука."
|
1273
1288
|
},
|
1274
|
-
"grok-3-mini
|
1275
|
-
"description": "Лек модел, който
|
1289
|
+
"grok-3-mini": {
|
1290
|
+
"description": "Лек модел, който мисли преди разговор. Работи бързо и интелигентно, подходящ за логически задачи без нужда от дълбоки специализирани знания и позволява проследяване на оригиналния мисловен процес."
|
1276
1291
|
},
|
1277
|
-
"grok-
|
1278
|
-
"description": "
|
1279
|
-
},
|
1280
|
-
"grok-vision-beta": {
|
1281
|
-
"description": "Най-новият модел за разбиране на изображения, способен да обработва разнообразна визуална информация, включително документи, графики, екранни снимки и снимки."
|
1292
|
+
"grok-3-mini-fast": {
|
1293
|
+
"description": "Лек модел, който мисли преди разговор. Работи бързо и интелигентно, подходящ за логически задачи без нужда от дълбоки специализирани знания и позволява проследяване на оригиналния мисловен процес."
|
1282
1294
|
},
|
1283
1295
|
"gryphe/mythomax-l2-13b": {
|
1284
1296
|
"description": "MythoMax l2 13B е езиков модел, който комбинира креативност и интелигентност, обединявайки множество водещи модели."
|
@@ -1322,6 +1334,9 @@
|
|
1322
1334
|
"hunyuan-t1-latest": {
|
1323
1335
|
"description": "Първият в индустрията свръхголям хибриден трансформаторен модел за инференция, който разширява инференционните способности, предлага изключителна скорост на декодиране и допълнително съгласува човешките предпочитания."
|
1324
1336
|
},
|
1337
|
+
"hunyuan-t1-vision": {
|
1338
|
+
"description": "Модел за дълбоко мултимодално разбиране Hunyuan, поддържащ естествени мултимодални вериги на мислене, експертен в различни сценарии за разсъждение върху изображения, с цялостно подобрение спрямо бързите мисловни модели при научни задачи."
|
1339
|
+
},
|
1325
1340
|
"hunyuan-translation": {
|
1326
1341
|
"description": "Поддържа автоматичен превод между 15 езика, включително китайски, английски, японски, френски, португалски, испански, турски, руски, арабски, корейски, италиански, немски, виетнамски, малайски и индонезийски, базиран на автоматизирана оценка COMET, с цялостна преводна способност, която е по-добра от моделите на пазара с подобен мащаб."
|
1327
1342
|
},
|
@@ -1586,6 +1601,30 @@
|
|
1586
1601
|
"meta.llama3-8b-instruct-v1:0": {
|
1587
1602
|
"description": "Meta Llama 3 е отворен голям езиков модел (LLM), насочен към разработчици, изследователи и предприятия, предназначен да им помогне да изградят, експериментират и отговорно разширят своите идеи за генеративен ИИ. Като част от основната система на глобалната общност за иновации, той е особено подходящ за устройства с ограничени изчислителни ресурси и по-бързо време за обучение."
|
1588
1603
|
},
|
1604
|
+
"meta/Llama-3.2-11B-Vision-Instruct": {
|
1605
|
+
"description": "Отлични способности за разсъждение върху изображения с висока резолюция, подходящи за приложения за визуално разбиране."
|
1606
|
+
},
|
1607
|
+
"meta/Llama-3.2-90B-Vision-Instruct": {
|
1608
|
+
"description": "Разширени способности за разсъждение върху изображения, подходящи за визуални агенти за разбиране."
|
1609
|
+
},
|
1610
|
+
"meta/Llama-3.3-70B-Instruct": {
|
1611
|
+
"description": "Llama 3.3 е най-напредналият многоезичен отворен езиков модел от серията Llama, предлагащ производителност, сравнима с 405B модел, при изключително ниски разходи. Базиран на архитектура Transformer и подобрен чрез надзорно фино настройване (SFT) и обучение с човешка обратна връзка (RLHF) за повишаване на полезността и безопасността. Версията с инструкции е оптимизирана за многоезични диалози и превъзхожда множество отворени и затворени чат модели в различни индустриални бенчмаркове. Дата на знание: декември 2023 г."
|
1612
|
+
},
|
1613
|
+
"meta/Meta-Llama-3-70B-Instruct": {
|
1614
|
+
"description": "Мощен модел с 70 милиарда параметри, отличаващ се в разсъждение, кодиране и широк спектър от езикови приложения."
|
1615
|
+
},
|
1616
|
+
"meta/Meta-Llama-3-8B-Instruct": {
|
1617
|
+
"description": "Многофункционален модел с 8 милиарда параметри, оптимизиран за задачи с диалог и генериране на текст."
|
1618
|
+
},
|
1619
|
+
"meta/Meta-Llama-3.1-405B-Instruct": {
|
1620
|
+
"description": "Текстов модел Llama 3.1 с фино настройване за инструкции, оптимизиран за многоезични диалогови случаи, с отлични резултати в множество налични отворени и затворени чат модели при стандартни индустриални бенчмаркове."
|
1621
|
+
},
|
1622
|
+
"meta/Meta-Llama-3.1-70B-Instruct": {
|
1623
|
+
"description": "Текстов модел Llama 3.1 с фино настройване за инструкции, оптимизиран за многоезични диалогови случаи, с отлични резултати в множество налични отворени и затворени чат модели при стандартни индустриални бенчмаркове."
|
1624
|
+
},
|
1625
|
+
"meta/Meta-Llama-3.1-8B-Instruct": {
|
1626
|
+
"description": "Текстов модел Llama 3.1 с фино настройване за инструкции, оптимизиран за многоезични диалогови случаи, с отлични резултати в множество налични отворени и затворени чат модели при стандартни индустриални бенчмаркове."
|
1627
|
+
},
|
1589
1628
|
"meta/llama-3.1-405b-instruct": {
|
1590
1629
|
"description": "Напреднал LLM, поддържащ генериране на синтетични данни, дестилация на знания и разсъждение, подходящ за чатботове, програмиране и специфични задачи."
|
1591
1630
|
},
|
@@ -1610,6 +1649,30 @@
|
|
1610
1649
|
"meta/llama-3.3-70b-instruct": {
|
1611
1650
|
"description": "Напреднал LLM, специализиран в разсъждения, математика, общи познания и извикване на функции."
|
1612
1651
|
},
|
1652
|
+
"microsoft/Phi-3-medium-128k-instruct": {
|
1653
|
+
"description": "Същият модел Phi-3-medium, но с по-голям размер на контекста, подходящ за RAG или малко количество подсказки."
|
1654
|
+
},
|
1655
|
+
"microsoft/Phi-3-medium-4k-instruct": {
|
1656
|
+
"description": "Модел с 14 милиарда параметри, с по-добро качество от Phi-3-mini, фокусиран върху висококачествени, разсъждаващи данни."
|
1657
|
+
},
|
1658
|
+
"microsoft/Phi-3-mini-128k-instruct": {
|
1659
|
+
"description": "Същият модел Phi-3-mini, но с по-голям размер на контекста, подходящ за RAG или малко количество подсказки."
|
1660
|
+
},
|
1661
|
+
"microsoft/Phi-3-mini-4k-instruct": {
|
1662
|
+
"description": "Най-малкият член на семейството Phi-3, оптимизиран за качество и ниска латентност."
|
1663
|
+
},
|
1664
|
+
"microsoft/Phi-3-small-128k-instruct": {
|
1665
|
+
"description": "Същият модел Phi-3-small, но с по-голям размер на контекста, подходящ за RAG или малко количество подсказки."
|
1666
|
+
},
|
1667
|
+
"microsoft/Phi-3-small-8k-instruct": {
|
1668
|
+
"description": "Модел с 7 милиарда параметри, с по-добро качество от Phi-3-mini, фокусиран върху висококачествени, разсъждаващи данни."
|
1669
|
+
},
|
1670
|
+
"microsoft/Phi-3.5-mini-instruct": {
|
1671
|
+
"description": "Актуализирана версия на модела Phi-3-mini."
|
1672
|
+
},
|
1673
|
+
"microsoft/Phi-3.5-vision-instruct": {
|
1674
|
+
"description": "Актуализирана версия на модела Phi-3-vision."
|
1675
|
+
},
|
1613
1676
|
"microsoft/WizardLM-2-8x22B": {
|
1614
1677
|
"description": "WizardLM 2 е езиков модел, предоставен от Microsoft AI, който показва особени способности в сложни разговори, многоезичност, разсъждения и интелигентни асистенти."
|
1615
1678
|
},
|
@@ -1628,6 +1691,15 @@
|
|
1628
1691
|
"mistral": {
|
1629
1692
|
"description": "Mistral е 7B модел, представен от Mistral AI, подходящ за променливи нужди в обработката на език."
|
1630
1693
|
},
|
1694
|
+
"mistral-ai/Mistral-Large-2411": {
|
1695
|
+
"description": "Флагманският модел на Mistral, подходящ за сложни задачи, изискващи мащабни способности за разсъждение или висока специализация (синтетично генериране на текст, кодиране, RAG или агенти)."
|
1696
|
+
},
|
1697
|
+
"mistral-ai/Mistral-Nemo": {
|
1698
|
+
"description": "Mistral Nemo е водещ езиков модел (LLM), който предлага най-съвременни способности за разсъждение, световни знания и кодиране в своя размерен клас."
|
1699
|
+
},
|
1700
|
+
"mistral-ai/mistral-small-2503": {
|
1701
|
+
"description": "Mistral Small е подходящ за всякакви езикови задачи, изискващи висока ефективност и ниска латентност."
|
1702
|
+
},
|
1631
1703
|
"mistral-large": {
|
1632
1704
|
"description": "Mixtral Large е флагманският модел на Mistral, комбиниращ способности за генериране на код, математика и разсъждение, поддържащ контекстен прозорец от 128k."
|
1633
1705
|
},
|
@@ -1769,6 +1841,9 @@
|
|
1769
1841
|
"openai/gpt-4o-mini": {
|
1770
1842
|
"description": "GPT-4o mini е най-новият модел на OpenAI, пуснат след GPT-4 Omni, който поддържа вход и изход на текст и изображения. Като най-напредналият им малък модел, той е значително по-евтин от другите нови модели и е с над 60% по-евтин от GPT-3.5 Turbo. Запазва най-съвременната интелигентност, като предлага значителна стойност за парите. GPT-4o mini получи 82% на теста MMLU и в момента е с по-висок рейтинг от GPT-4 в предпочитанията за чат."
|
1771
1843
|
},
|
1844
|
+
"openai/o1": {
|
1845
|
+
"description": "o1 е новият модел за разсъждение на OpenAI, който поддържа вход с изображения и текст и генерира текст, подходящ за сложни задачи, изискващи широкообхватни общи знания. Моделът разполага с контекст от 200K и дата на знание до октомври 2023 г."
|
1846
|
+
},
|
1772
1847
|
"openai/o1-mini": {
|
1773
1848
|
"description": "o1-mini е бърз и икономичен модел за изводи, проектиран за приложения в програмирането, математиката и науката. Моделът разполага с контекст от 128K и дата на знание до октомври 2023."
|
1774
1849
|
},
|
@@ -259,9 +259,6 @@
|
|
259
259
|
"enableMaxTokens": {
|
260
260
|
"title": "Активиране на ограничението за максимален брой токени"
|
261
261
|
},
|
262
|
-
"enableReasoningEffort": {
|
263
|
-
"title": "Активиране на настройките за интензивност на разсъжденията"
|
264
|
-
},
|
265
262
|
"frequencyPenalty": {
|
266
263
|
"desc": "Колкото по-голяма е стойността, толкова по-богат и разнообразен е речникът; колкото по-ниска е стойността, толкова по-прост и обикновен е речникът.",
|
267
264
|
"title": "Богатство на речника"
|
@@ -281,15 +278,6 @@
|
|
281
278
|
"desc": "Колкото по-голяма е стойността, толкова по-склонен е към различни изрази, избягвайки повторение на концепции; колкото по-ниска е стойността, толкова по-склонен е да използва повторение на концепции или разкази, изразявайки по-голяма последователност.",
|
282
279
|
"title": "Разнообразие на изразите"
|
283
280
|
},
|
284
|
-
"reasoningEffort": {
|
285
|
-
"desc": "Колкото по-висока е стойността, толкова по-силна е способността за разсъждение, но може да увеличи времето за отговор и консумацията на токени",
|
286
|
-
"options": {
|
287
|
-
"high": "Висока",
|
288
|
-
"low": "Ниска",
|
289
|
-
"medium": "Средна"
|
290
|
-
},
|
291
|
-
"title": "Интензивност на разсъжденията"
|
292
|
-
},
|
293
281
|
"submit": "Актуализиране на настройките на модела",
|
294
282
|
"temperature": {
|
295
283
|
"desc": "Колкото по-голямо е числото, толкова по-креативни и въображаеми са отговорите; колкото по-малко е числото, толкова по-строги са отговорите",
|