@lobehub/chat 1.81.3 → 1.81.5
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.eslintrc.js +1 -0
- package/.github/workflows/release.yml +5 -0
- package/.github/workflows/test.yml +5 -0
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/common.json +2 -0
- package/locales/ar/electron.json +32 -0
- package/locales/ar/models.json +129 -3
- package/locales/ar/plugin.json +1 -0
- package/locales/ar/tool.json +25 -0
- package/locales/bg-BG/common.json +2 -0
- package/locales/bg-BG/electron.json +32 -0
- package/locales/bg-BG/models.json +129 -3
- package/locales/bg-BG/plugin.json +1 -0
- package/locales/bg-BG/tool.json +25 -0
- package/locales/de-DE/common.json +2 -0
- package/locales/de-DE/electron.json +32 -0
- package/locales/de-DE/models.json +129 -3
- package/locales/de-DE/plugin.json +1 -0
- package/locales/de-DE/tool.json +25 -0
- package/locales/en-US/common.json +2 -0
- package/locales/en-US/electron.json +32 -0
- package/locales/en-US/models.json +129 -3
- package/locales/en-US/plugin.json +1 -0
- package/locales/en-US/tool.json +25 -0
- package/locales/es-ES/common.json +2 -0
- package/locales/es-ES/electron.json +32 -0
- package/locales/es-ES/models.json +129 -3
- package/locales/es-ES/plugin.json +1 -0
- package/locales/es-ES/tool.json +25 -0
- package/locales/fa-IR/common.json +2 -0
- package/locales/fa-IR/electron.json +32 -0
- package/locales/fa-IR/models.json +129 -3
- package/locales/fa-IR/plugin.json +1 -0
- package/locales/fa-IR/tool.json +25 -0
- package/locales/fr-FR/common.json +2 -0
- package/locales/fr-FR/electron.json +32 -0
- package/locales/fr-FR/models.json +129 -3
- package/locales/fr-FR/plugin.json +1 -0
- package/locales/fr-FR/tool.json +25 -0
- package/locales/it-IT/common.json +2 -0
- package/locales/it-IT/electron.json +32 -0
- package/locales/it-IT/models.json +129 -3
- package/locales/it-IT/plugin.json +1 -0
- package/locales/it-IT/tool.json +25 -0
- package/locales/ja-JP/common.json +2 -0
- package/locales/ja-JP/electron.json +32 -0
- package/locales/ja-JP/models.json +129 -3
- package/locales/ja-JP/plugin.json +1 -0
- package/locales/ja-JP/tool.json +25 -0
- package/locales/ko-KR/common.json +2 -0
- package/locales/ko-KR/electron.json +32 -0
- package/locales/ko-KR/models.json +129 -3
- package/locales/ko-KR/plugin.json +1 -0
- package/locales/ko-KR/tool.json +25 -0
- package/locales/nl-NL/common.json +2 -0
- package/locales/nl-NL/electron.json +32 -0
- package/locales/nl-NL/models.json +129 -3
- package/locales/nl-NL/plugin.json +1 -0
- package/locales/nl-NL/tool.json +25 -0
- package/locales/pl-PL/common.json +2 -0
- package/locales/pl-PL/electron.json +32 -0
- package/locales/pl-PL/models.json +129 -3
- package/locales/pl-PL/plugin.json +1 -0
- package/locales/pl-PL/tool.json +25 -0
- package/locales/pt-BR/common.json +2 -0
- package/locales/pt-BR/electron.json +32 -0
- package/locales/pt-BR/models.json +129 -3
- package/locales/pt-BR/plugin.json +1 -0
- package/locales/pt-BR/tool.json +25 -0
- package/locales/ru-RU/common.json +2 -0
- package/locales/ru-RU/electron.json +32 -0
- package/locales/ru-RU/models.json +129 -3
- package/locales/ru-RU/plugin.json +1 -0
- package/locales/ru-RU/tool.json +25 -0
- package/locales/tr-TR/common.json +2 -0
- package/locales/tr-TR/electron.json +32 -0
- package/locales/tr-TR/models.json +129 -3
- package/locales/tr-TR/plugin.json +1 -0
- package/locales/tr-TR/tool.json +25 -0
- package/locales/vi-VN/common.json +2 -0
- package/locales/vi-VN/electron.json +32 -0
- package/locales/vi-VN/models.json +129 -3
- package/locales/vi-VN/plugin.json +1 -0
- package/locales/vi-VN/tool.json +25 -0
- package/locales/zh-CN/common.json +2 -0
- package/locales/zh-CN/electron.json +32 -0
- package/locales/zh-CN/models.json +134 -8
- package/locales/zh-CN/plugin.json +1 -0
- package/locales/zh-CN/tool.json +25 -0
- package/locales/zh-TW/common.json +2 -0
- package/locales/zh-TW/electron.json +32 -0
- package/locales/zh-TW/models.json +129 -3
- package/locales/zh-TW/plugin.json +1 -0
- package/locales/zh-TW/tool.json +25 -0
- package/package.json +4 -3
- package/packages/electron-client-ipc/src/events/index.ts +5 -5
- package/packages/electron-client-ipc/src/events/localFile.ts +22 -0
- package/packages/electron-client-ipc/src/events/{file.ts → upload.ts} +1 -1
- package/packages/electron-client-ipc/src/types/index.ts +2 -1
- package/packages/electron-client-ipc/src/types/localFile.ts +52 -0
- package/packages/file-loaders/README.md +63 -0
- package/packages/file-loaders/package.json +42 -0
- package/packages/file-loaders/src/index.ts +2 -0
- package/packages/file-loaders/src/loadFile.ts +206 -0
- package/packages/file-loaders/src/loaders/docx/__snapshots__/index.test.ts.snap +74 -0
- package/packages/file-loaders/src/loaders/docx/fixtures/test.docx +0 -0
- package/packages/file-loaders/src/loaders/docx/index.test.ts +41 -0
- package/packages/file-loaders/src/loaders/docx/index.ts +73 -0
- package/packages/file-loaders/src/loaders/excel/__snapshots__/index.test.ts.snap +58 -0
- package/packages/file-loaders/src/loaders/excel/fixtures/test.xlsx +0 -0
- package/packages/file-loaders/src/loaders/excel/index.test.ts +47 -0
- package/packages/file-loaders/src/loaders/excel/index.ts +121 -0
- package/packages/file-loaders/src/loaders/index.ts +19 -0
- package/packages/file-loaders/src/loaders/pdf/__snapshots__/index.test.ts.snap +98 -0
- package/packages/file-loaders/src/loaders/pdf/index.test.ts +49 -0
- package/packages/file-loaders/src/loaders/pdf/index.ts +133 -0
- package/packages/file-loaders/src/loaders/pptx/__snapshots__/index.test.ts.snap +40 -0
- package/packages/file-loaders/src/loaders/pptx/fixtures/test.pptx +0 -0
- package/packages/file-loaders/src/loaders/pptx/index.test.ts +47 -0
- package/packages/file-loaders/src/loaders/pptx/index.ts +186 -0
- package/packages/file-loaders/src/loaders/text/__snapshots__/index.test.ts.snap +15 -0
- package/packages/file-loaders/src/loaders/text/fixtures/test.txt +2 -0
- package/packages/file-loaders/src/loaders/text/index.test.ts +38 -0
- package/packages/file-loaders/src/loaders/text/index.ts +53 -0
- package/packages/file-loaders/src/types.ts +200 -0
- package/packages/file-loaders/src/utils/isTextReadableFile.ts +68 -0
- package/packages/file-loaders/src/utils/parser-utils.ts +112 -0
- package/packages/file-loaders/test/__snapshots__/loaders.test.ts.snap +93 -0
- package/packages/file-loaders/test/fixtures/test.csv +4 -0
- package/packages/file-loaders/test/fixtures/test.docx +0 -0
- package/packages/file-loaders/test/fixtures/test.epub +0 -0
- package/packages/file-loaders/test/fixtures/test.md +3 -0
- package/packages/file-loaders/test/fixtures/test.pptx +0 -0
- package/packages/file-loaders/test/fixtures/test.txt +3 -0
- package/packages/file-loaders/test/loaders.test.ts +39 -0
- package/scripts/prebuild.mts +5 -1
- package/src/app/(backend)/trpc/desktop/[trpc]/route.ts +26 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ObjectEntity.tsx +81 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ValueCell.tsx +43 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/index.tsx +120 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +75 -2
- package/src/features/Conversation/Messages/Assistant/Tool/Render/KeyValueEditor.tsx +214 -0
- package/src/features/User/UserPanel/useMenu.tsx +8 -1
- package/src/libs/agent-runtime/google/index.ts +3 -0
- package/src/libs/trpc/client/desktop.ts +14 -0
- package/src/locales/default/common.ts +2 -0
- package/src/locales/default/electron.ts +34 -0
- package/src/locales/default/index.ts +2 -0
- package/src/locales/default/tool.ts +25 -0
- package/src/server/routers/desktop/index.ts +9 -0
- package/src/server/routers/desktop/pgTable.ts +43 -0
- package/src/services/electron/autoUpdate.ts +17 -0
- package/src/services/electron/file.ts +31 -0
- package/src/services/electron/localFileService.ts +39 -0
- package/src/services/electron/remoteServer.ts +40 -0
- package/src/store/chat/index.ts +1 -1
- package/src/store/chat/slices/builtinTool/actions/index.ts +3 -1
- package/src/store/chat/slices/builtinTool/actions/localFile.ts +129 -0
- package/src/store/chat/slices/builtinTool/initialState.ts +2 -0
- package/src/store/chat/slices/builtinTool/selectors.ts +2 -0
- package/src/store/chat/slices/plugin/action.ts +3 -3
- package/src/store/chat/store.ts +2 -0
- package/src/store/electron/actions/sync.ts +117 -0
- package/src/store/electron/index.ts +1 -0
- package/src/store/electron/initialState.ts +18 -0
- package/src/store/electron/selectors/index.ts +1 -0
- package/src/store/electron/selectors/sync.ts +9 -0
- package/src/store/electron/store.ts +29 -0
- package/src/tools/index.ts +8 -0
- package/src/tools/local-files/Render/ListFiles/Result.tsx +42 -0
- package/src/tools/local-files/Render/ListFiles/index.tsx +68 -0
- package/src/tools/local-files/Render/ReadLocalFile/ReadFileSkeleton.tsx +50 -0
- package/src/tools/local-files/Render/ReadLocalFile/ReadFileView.tsx +197 -0
- package/src/tools/local-files/Render/ReadLocalFile/index.tsx +31 -0
- package/src/tools/local-files/Render/ReadLocalFile/style.ts +37 -0
- package/src/tools/local-files/Render/SearchFiles/Result.tsx +42 -0
- package/src/tools/local-files/Render/SearchFiles/SearchQuery/SearchView.tsx +77 -0
- package/src/tools/local-files/Render/SearchFiles/SearchQuery/index.tsx +72 -0
- package/src/tools/local-files/Render/SearchFiles/index.tsx +32 -0
- package/src/tools/local-files/Render/index.tsx +36 -0
- package/src/tools/local-files/components/FileItem.tsx +117 -0
- package/src/tools/local-files/index.ts +149 -0
- package/src/tools/local-files/systemRole.ts +46 -0
- package/src/tools/local-files/type.ts +33 -0
- package/src/tools/renders.ts +3 -0
- package/packages/electron-client-ipc/src/events/search.ts +0 -4
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments.tsx +0 -165
- /package/packages/electron-client-ipc/src/types/{file.ts → upload.ts} +0 -0
package/.eslintrc.js
CHANGED
@@ -17,6 +17,7 @@ config.rules['unicorn/prefer-spread'] = 0;
|
|
17
17
|
config.rules['unicorn/catch-error-name'] = 0;
|
18
18
|
config.rules['unicorn/no-array-for-each'] = 0;
|
19
19
|
config.rules['unicorn/prefer-number-properties'] = 0;
|
20
|
+
config.rules['unicorn/prefer-query-selector'] = 0;
|
20
21
|
config.rules['unicorn/no-array-callback-reference'] = 0;
|
21
22
|
|
22
23
|
config.overrides = [
|
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,64 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.81.5](https://github.com/lobehub/lobe-chat/compare/v1.81.4...v1.81.5)
|
6
|
+
|
7
|
+
<sup>Released on **2025-04-20**</sup>
|
8
|
+
|
9
|
+
#### 🐛 Bug Fixes
|
10
|
+
|
11
|
+
- **misc**: Lock nextauth to beta.25.
|
12
|
+
|
13
|
+
<br/>
|
14
|
+
|
15
|
+
<details>
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
17
|
+
|
18
|
+
#### What's fixed
|
19
|
+
|
20
|
+
- **misc**: Lock nextauth to beta.25, closes [#7491](https://github.com/lobehub/lobe-chat/issues/7491) ([d1fd40d](https://github.com/lobehub/lobe-chat/commit/d1fd40d))
|
21
|
+
|
22
|
+
</details>
|
23
|
+
|
24
|
+
<div align="right">
|
25
|
+
|
26
|
+
[](#readme-top)
|
27
|
+
|
28
|
+
</div>
|
29
|
+
|
30
|
+
### [Version 1.81.4](https://github.com/lobehub/lobe-chat/compare/v1.81.3...v1.81.4)
|
31
|
+
|
32
|
+
<sup>Released on **2025-04-19**</sup>
|
33
|
+
|
34
|
+
#### 🐛 Bug Fixes
|
35
|
+
|
36
|
+
- **misc**: Gemini error `Tool use with function calling is unsupported`.
|
37
|
+
|
38
|
+
#### 💄 Styles
|
39
|
+
|
40
|
+
- **misc**: Support update tool calling params and trigger again.
|
41
|
+
|
42
|
+
<br/>
|
43
|
+
|
44
|
+
<details>
|
45
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
46
|
+
|
47
|
+
#### What's fixed
|
48
|
+
|
49
|
+
- **misc**: Gemini error `Tool use with function calling is unsupported`, closes [#7463](https://github.com/lobehub/lobe-chat/issues/7463) ([0567095](https://github.com/lobehub/lobe-chat/commit/0567095))
|
50
|
+
|
51
|
+
#### Styles
|
52
|
+
|
53
|
+
- **misc**: Support update tool calling params and trigger again, closes [#7476](https://github.com/lobehub/lobe-chat/issues/7476) ([0085e63](https://github.com/lobehub/lobe-chat/commit/0085e63))
|
54
|
+
|
55
|
+
</details>
|
56
|
+
|
57
|
+
<div align="right">
|
58
|
+
|
59
|
+
[](#readme-top)
|
60
|
+
|
61
|
+
</div>
|
62
|
+
|
5
63
|
### [Version 1.81.3](https://github.com/lobehub/lobe-chat/compare/v1.81.2...v1.81.3)
|
6
64
|
|
7
65
|
<sup>Released on **2025-04-19**</sup>
|
package/changelog/v1.json
CHANGED
@@ -1,4 +1,25 @@
|
|
1
1
|
[
|
2
|
+
{
|
3
|
+
"children": {
|
4
|
+
"fixes": [
|
5
|
+
"Lock nextauth to beta.25."
|
6
|
+
]
|
7
|
+
},
|
8
|
+
"date": "2025-04-20",
|
9
|
+
"version": "1.81.5"
|
10
|
+
},
|
11
|
+
{
|
12
|
+
"children": {
|
13
|
+
"fixes": [
|
14
|
+
"Gemini error Tool use with function calling is unsupported."
|
15
|
+
],
|
16
|
+
"improvements": [
|
17
|
+
"Support update tool calling params and trigger again."
|
18
|
+
]
|
19
|
+
},
|
20
|
+
"date": "2025-04-19",
|
21
|
+
"version": "1.81.4"
|
22
|
+
},
|
2
23
|
{
|
3
24
|
"children": {
|
4
25
|
"improvements": [
|
package/locales/ar/common.json
CHANGED
@@ -0,0 +1,32 @@
|
|
1
|
+
{
|
2
|
+
"remoteServer": {
|
3
|
+
"authError": "فشل التفويض: {{error}}",
|
4
|
+
"authPending": "يرجى إكمال التفويض في المتصفح",
|
5
|
+
"configDesc": "الاتصال بخادم LobeChat البعيد، تمكين مزامنة البيانات",
|
6
|
+
"configError": "خطأ في التكوين",
|
7
|
+
"configTitle": "تكوين المزامنة السحابية",
|
8
|
+
"connect": "الاتصال والتفويض",
|
9
|
+
"connected": "متصل",
|
10
|
+
"disconnect": "قطع الاتصال",
|
11
|
+
"disconnectError": "فشل في قطع الاتصال",
|
12
|
+
"disconnected": "غير متصل",
|
13
|
+
"fetchError": "فشل في جلب التكوين",
|
14
|
+
"invalidUrl": "يرجى إدخال عنوان URL صالح",
|
15
|
+
"serverUrl": "عنوان الخادم",
|
16
|
+
"statusConnected": "متصل",
|
17
|
+
"statusDisconnected": "غير متصل",
|
18
|
+
"urlRequired": "يرجى إدخال عنوان الخادم"
|
19
|
+
},
|
20
|
+
"updater": {
|
21
|
+
"downloadingUpdate": "جارٍ تنزيل التحديث",
|
22
|
+
"downloadingUpdateDesc": "يتم تنزيل التحديث، يرجى الانتظار...",
|
23
|
+
"later": "تحديث لاحقًا",
|
24
|
+
"newVersionAvailable": "يتوفر إصدار جديد",
|
25
|
+
"newVersionAvailableDesc": "تم العثور على إصدار جديد {{version}}، هل ترغب في التنزيل الآن؟",
|
26
|
+
"restartAndInstall": "إعادة التشغيل والتثبيت",
|
27
|
+
"updateError": "خطأ في التحديث",
|
28
|
+
"updateReady": "التحديث جاهز",
|
29
|
+
"updateReadyDesc": "تم تنزيل Lobe Chat {{version}} بنجاح، سيتم التثبيت بعد إعادة تشغيل التطبيق.",
|
30
|
+
"upgradeNow": "تحديث الآن"
|
31
|
+
}
|
32
|
+
}
|
package/locales/ar/models.json
CHANGED
@@ -5,9 +5,15 @@
|
|
5
5
|
"01-ai/yi-1.5-9b-chat": {
|
6
6
|
"description": "Zero One Everything، أحدث نموذج مفتوح المصدر تم تعديله، يحتوي على 9 مليار معلمة، ويدعم تعديلات متعددة لمشاهد الحوار، مع بيانات تدريب عالية الجودة تتماشى مع تفضيلات البشر."
|
7
7
|
},
|
8
|
+
"360/deepseek-r1": {
|
9
|
+
"description": "【إصدار 360】DeepSeek-R1 استخدم تقنيات التعلم المعزز على نطاق واسع في مرحلة ما بعد التدريب، مما عزز بشكل كبير من قدرة النموذج على الاستدلال مع وجود بيانات محدودة. في المهام الرياضية، البرمجية، واستدلال اللغة الطبيعية، يقدم أداءً يضاهي النسخة الرسمية OpenAI o1."
|
10
|
+
},
|
8
11
|
"360gpt-pro": {
|
9
12
|
"description": "360GPT Pro كعضو مهم في سلسلة نماذج 360 AI، يلبي احتياجات معالجة النصوص المتنوعة بفعالية، ويدعم فهم النصوص الطويلة والحوار المتعدد الجولات."
|
10
13
|
},
|
14
|
+
"360gpt-pro-trans": {
|
15
|
+
"description": "نموذج مخصص للترجمة، تم تحسينه بشكل عميق، ويقدم نتائج ترجمة رائدة."
|
16
|
+
},
|
11
17
|
"360gpt-turbo": {
|
12
18
|
"description": "يوفر 360GPT Turbo قدرات حسابية وحوارية قوية، ويتميز بفهم دلالي ممتاز وكفاءة في التوليد، مما يجعله الحل المثالي للمؤسسات والمطورين كمساعد ذكي."
|
13
19
|
},
|
@@ -62,6 +68,18 @@
|
|
62
68
|
"DeepSeek-R1-Distill-Qwen-7B": {
|
63
69
|
"description": "نموذج التقطير DeepSeek-R1 المستند إلى Qwen2.5-Math-7B، تم تحسين أداء الاستدلال من خلال التعلم المعزز وبيانات البداية الباردة، ويعيد نموذج المصدر فتح معايير المهام المتعددة."
|
64
70
|
},
|
71
|
+
"DeepSeek-V3": {
|
72
|
+
"description": "DeepSeek-V3 هو نموذج MoE تم تطويره ذاتيًا بواسطة شركة DeepSeek. حقق DeepSeek-V3 نتائج تقييم تفوقت على نماذج مفتوحة المصدر الأخرى مثل Qwen2.5-72B و Llama-3.1-405B، وفي الأداء ينافس النماذج المغلقة الرائدة عالميًا مثل GPT-4o و Claude-3.5-Sonnet."
|
73
|
+
},
|
74
|
+
"Doubao-1.5-thinking-pro": {
|
75
|
+
"description": "Doubao-1.5 هو نموذج تفكير عميق جديد، يظهر أداءً بارزًا في مجالات الرياضيات، البرمجة، الاستدلال العلمي، والكتابة الإبداعية، ويحقق أو يقترب من المستوى الأول في عدة معايير مرموقة مثل AIME 2024، Codeforces، وGPQA. يدعم نافذة سياق 128k، وإخراج 16k."
|
76
|
+
},
|
77
|
+
"Doubao-1.5-thinking-pro-vision": {
|
78
|
+
"description": "Doubao-1.5 هو نموذج تفكير عميق جديد، يظهر أداءً بارزًا في مجالات الرياضيات، البرمجة، الاستدلال العلمي، والكتابة الإبداعية، ويحقق أو يقترب من المستوى الأول في عدة معايير مرموقة مثل AIME 2024، Codeforces، وGPQA. يدعم نافذة سياق 128k، وإخراج 16k."
|
79
|
+
},
|
80
|
+
"Doubao-1.5-vision-pro": {
|
81
|
+
"description": "Doubao-1.5-vision-pro هو نموذج كبير متعدد الوسائط تم ترقيته حديثًا، يدعم التعرف على الصور بدقة غير محدودة ونسب عرض إلى ارتفاع متطرفة، ويعزز قدرات الاستدلال البصري، التعرف على الوثائق، فهم المعلومات التفصيلية، واتباع التعليمات."
|
82
|
+
},
|
65
83
|
"Doubao-1.5-vision-pro-32k": {
|
66
84
|
"description": "دو باو 1.5 فيجن برو هو نموذج كبير متعدد الوسائط تم تحديثه حديثًا، يدعم التعرف على الصور بدقة أي دقة ونسب عرض إلى ارتفاع متطرفة، مما يعزز القدرة على الاستدلال البصري، والتعرف على الوثائق، وفهم المعلومات التفصيلية، والامتثال للتعليمات."
|
67
85
|
},
|
@@ -341,6 +359,15 @@
|
|
341
359
|
"SenseChat-Vision": {
|
342
360
|
"description": "النموذج الأحدث (V5.5) يدعم إدخال صور متعددة، ويحقق تحسينات شاملة في القدرات الأساسية للنموذج، مع تحسينات كبيرة في التعرف على خصائص الكائنات، والعلاقات المكانية، والتعرف على الأحداث، وفهم المشاهد، والتعرف على المشاعر، واستنتاج المعرفة المنطقية، وفهم النصوص وتوليدها."
|
343
361
|
},
|
362
|
+
"SenseNova-V6-Pro": {
|
363
|
+
"description": "تحقيق توحيد أصلي لقدرات الصور والنصوص والفيديو، متجاوزًا حدود التعدد النمطي التقليدي المنفصل، وفاز بالبطولة المزدوجة في تقييمات OpenCompass وSuperCLUE."
|
364
|
+
},
|
365
|
+
"SenseNova-V6-Reasoner": {
|
366
|
+
"description": "يجمع بين الاستدلال العميق البصري واللغوي، لتحقيق التفكير البطيء والاستدلال العميق، ويعرض سلسلة التفكير الكاملة."
|
367
|
+
},
|
368
|
+
"SenseNova-V6-Turbo": {
|
369
|
+
"description": "تحقيق توحيد أصلي لقدرات الصور والنصوص والفيديو، متجاوزًا حدود التعدد النمطي التقليدي المنفصل، متفوقًا بشكل شامل في القدرات الأساسية متعددة النماذج والقدرات اللغوية الأساسية، متوازنًا بين العلوم والآداب، واحتل مرارًا المرتبة الأولى على المستوى المحلي والدولي في العديد من التقييمات."
|
370
|
+
},
|
344
371
|
"Skylark2-lite-8k": {
|
345
372
|
"description": "نموذج سكايلارك (Skylark) من الجيل الثاني، نموذج سكايلارك2-لايت يتميز بسرعات استجابة عالية، مناسب للسيناريوهات التي تتطلب استجابة في الوقت الحقيقي، وحساسة للتكاليف، وغير متطلبة لدقة نموذج عالية، بسعة سياق تبلغ 8k."
|
346
373
|
},
|
@@ -356,6 +383,21 @@
|
|
356
383
|
"Skylark2-pro-turbo-8k": {
|
357
384
|
"description": "نموذج سكايلارك (Skylark) من الجيل الثاني، سكايلارك2-برو-توربو-8k يقدم استدلالًا أسرع وتكاليف أقل، بسعة سياق تبلغ 8k."
|
358
385
|
},
|
386
|
+
"THUDM/GLM-4-32B-0414": {
|
387
|
+
"description": "GLM-4-32B-0414 هو نموذج الجيل الجديد من سلسلة GLM المفتوحة، يحتوي على 32 مليار معلمة. يمكن مقارنة أداء هذا النموذج مع سلسلة GPT من OpenAI وسلسلة V3/R1 من DeepSeek."
|
388
|
+
},
|
389
|
+
"THUDM/GLM-4-9B-0414": {
|
390
|
+
"description": "GLM-4-9B-0414 هو نموذج صغير من سلسلة GLM، يحتوي على 9 مليار معلمة. يرث هذا النموذج الخصائص التقنية من سلسلة GLM-4-32B، لكنه يوفر خيارات نشر أخف. على الرغم من حجمه الصغير، لا يزال GLM-4-9B-0414 يظهر قدرة ممتازة في توليد الأكواد، تصميم الويب، توليد الرسوم البيانية SVG، والكتابة المعتمدة على البحث."
|
391
|
+
},
|
392
|
+
"THUDM/GLM-Z1-32B-0414": {
|
393
|
+
"description": "GLM-Z1-32B-0414 هو نموذج استدلال يتمتع بقدرة على التفكير العميق. تم تطوير هذا النموذج بناءً على GLM-4-32B-0414 من خلال بدء التشغيل البارد وتعزيز التعلم، وتم تدريبه بشكل إضافي في المهام الرياضية، البرمجية، والمنطقية. مقارنة بالنموذج الأساسي، حقق GLM-Z1-32B-0414 تحسينًا ملحوظًا في القدرة الرياضية وحل المهام المعقدة."
|
394
|
+
},
|
395
|
+
"THUDM/GLM-Z1-9B-0414": {
|
396
|
+
"description": "GLM-Z1-9B-0414 هو نموذج صغير من سلسلة GLM، يحتوي على 9 مليار معلمة، لكنه يظهر قدرة مذهلة مع الحفاظ على تقاليد المصدر المفتوح. على الرغم من حجمه الصغير، إلا أن هذا النموذج لا يزال يظهر أداءً ممتازًا في الاستدلال الرياضي والمهام العامة، حيث يحتل مستوى أداءً رائدًا بين نماذج المصدر المفتوح ذات الحجم المماثل."
|
397
|
+
},
|
398
|
+
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
399
|
+
"description": "GLM-Z1-Rumination-32B-0414 هو نموذج استدلال عميق يتمتع بقدرة على التفكير العميق (مقابل Deep Research من OpenAI). على عكس نماذج التفكير العميق التقليدية، يستخدم نموذج التفكير العميق وقتًا أطول لحل المشكلات الأكثر انفتاحًا وتعقيدًا."
|
400
|
+
},
|
359
401
|
"THUDM/chatglm3-6b": {
|
360
402
|
"description": "ChatGLM3-6B هو نموذج مفتوح المصدر من سلسلة ChatGLM، تم تطويره بواسطة Zhizhu AI. يحتفظ هذا النموذج بخصائص الجيل السابق الممتازة، مثل سلاسة المحادثة وانخفاض عتبة النشر، بينما يقدم ميزات جديدة. تم تدريبه على بيانات تدريب أكثر تنوعًا، وعدد أكبر من خطوات التدريب، واستراتيجيات تدريب أكثر منطقية، مما يجعله نموذجًا ممتازًا بين النماذج المدربة مسبقًا التي تقل عن 10B. يدعم ChatGLM3-6B المحادثات متعددة الجولات، واستدعاء الأدوات، وتنفيذ الشيفرة، ومهام الوكلاء في سيناريوهات معقدة. بالإضافة إلى نموذج المحادثة، تم إصدار النموذج الأساسي ChatGLM-6B-Base ونموذج المحادثة الطويلة ChatGLM3-6B-32K. النموذج مفتوح بالكامل للأبحاث الأكاديمية، ويسمح بالاستخدام التجاري المجاني بعد التسجيل."
|
361
403
|
},
|
@@ -521,6 +563,9 @@
|
|
521
563
|
"charglm-3": {
|
522
564
|
"description": "CharGLM-3 مصمم خصيصًا للأدوار التفاعلية والمرافقة العاطفية، يدعم ذاكرة متعددة الجولات طويلة الأمد وحوارات مخصصة، ويستخدم على نطاق واسع."
|
523
565
|
},
|
566
|
+
"charglm-4": {
|
567
|
+
"description": "CharGLM-4 مصمم خصيصًا للأدوار والشعور بالرفقة، يدعم الذاكرة متعددة الجولات الطويلة والحوار المخصص، ويستخدم على نطاق واسع."
|
568
|
+
},
|
524
569
|
"chatglm3": {
|
525
570
|
"description": "ChatGLM3 هو نموذج مغلق المصدر تم إصداره بواسطة مختبر KEG في جامعة تسينغهوا وشركة Zhizhu AI، وقد تم تدريبه مسبقًا على كميات هائلة من المعرفة المعرفية باللغتين الصينية والإنجليزية، وتم تحسينه وفقًا للاختيارات البشرية. مقارنة بالنموذج الأول، حقق تحسينات بنسبة 16٪ و 36٪ و 280٪ في MMLU و C-Eval و GSM8K على التوالي، وتصدر قائمة المهام الصينية C-Eval. يناسب هذا النموذج السيناريوهات التي تتطلب كميات كبيرة من المعرفة وقدرات الاستدلال والإبداع، مثل كتابة النصوص الإعلانية وكتابة الروايات وكتابة المحتوى المعرفي وتكوين الكود."
|
526
571
|
},
|
@@ -632,9 +677,18 @@
|
|
632
677
|
"command-r-plus-04-2024": {
|
633
678
|
"description": "الأمر R+ هو نموذج حواري يتبع التعليمات، ويظهر جودة أعلى وموثوقية أكبر في المهام اللغوية، ويتميز بطول سياق أطول مقارنة بالنماذج السابقة. إنه الأنسب لعمليات العمل المعقدة في RAG واستخدام الأدوات متعددة الخطوات."
|
634
679
|
},
|
680
|
+
"command-r-plus-08-2024": {
|
681
|
+
"description": "Command R+ هو نموذج حواري يتبع التعليمات، يقدم جودة أعلى وموثوقية أكبر في المهام اللغوية، مقارنة بالنماذج السابقة، مع طول سياق أطول. هو الأنسب لعمليات العمل المعقدة RAG واستخدام الأدوات متعددة الخطوات."
|
682
|
+
},
|
635
683
|
"command-r7b-12-2024": {
|
636
684
|
"description": "الأمر-r7b-12-2024 هو إصدار صغير وفعال تم إصداره في ديسمبر 2024. يظهر أداءً ممتازًا في المهام التي تتطلب استدلالًا معقدًا ومعالجة متعددة الخطوات مثل RAG، واستخدام الأدوات، والوكالات."
|
637
685
|
},
|
686
|
+
"compound-beta": {
|
687
|
+
"description": "Compound-beta هو نظام ذكاء اصطناعي مركب، مدعوم بعدة نماذج مفتوحة متاحة في GroqCloud، يمكنه استخدام الأدوات بشكل ذكي وانتقائي للإجابة على استفسارات المستخدمين."
|
688
|
+
},
|
689
|
+
"compound-beta-mini": {
|
690
|
+
"description": "Compound-beta-mini هو نظام ذكاء اصطناعي مركب، مدعوم بنماذج مفتوحة متاحة في GroqCloud، يمكنه استخدام الأدوات بشكل ذكي وانتقائي للإجابة على استفسارات المستخدمين."
|
691
|
+
},
|
638
692
|
"dall-e-2": {
|
639
693
|
"description": "النموذج الثاني من DALL·E، يدعم توليد صور أكثر واقعية ودقة، بدقة تعادل أربعة أضعاف الجيل الأول."
|
640
694
|
},
|
@@ -779,6 +833,18 @@
|
|
779
833
|
"deepseek/deepseek-v3/community": {
|
780
834
|
"description": "حقق DeepSeek-V3 تقدمًا كبيرًا في سرعة الاستدلال مقارنة بالنماذج السابقة. يحتل المرتبة الأولى بين النماذج المفتوحة المصدر، ويمكن مقارنته بأحدث النماذج المغلقة على مستوى العالم. يعتمد DeepSeek-V3 على بنية الانتباه المتعدد الرؤوس (MLA) وبنية DeepSeekMoE، والتي تم التحقق منها بشكل شامل في DeepSeek-V2. بالإضافة إلى ذلك، قدم DeepSeek-V3 استراتيجية مساعدة غير مدمرة للتوازن في الحمل، وحدد أهداف تدريب متعددة التسمية لتحقيق أداء أقوى."
|
781
835
|
},
|
836
|
+
"deepseek_r1": {
|
837
|
+
"description": "DeepSeek-R1 هو نموذج استدلال مدفوع بالتعلم المعزز (RL)، يعالج مشكلات التكرار والقراءة في النموذج. قبل RL، أدخل DeepSeek-R1 بيانات بدء التشغيل الباردة، مما عزز أداء الاستدلال. يظهر أداءً متساويًا مع OpenAI-o1 في المهام الرياضية، البرمجية، والاستدلال، ومن خلال طرق التدريب المصممة بعناية، تم تحسين الأداء العام."
|
838
|
+
},
|
839
|
+
"deepseek_r1_distill_llama_70b": {
|
840
|
+
"description": "DeepSeek-R1-Distill-Llama-70B هو نموذج تم الحصول عليه من Llama-3.3-70B-Instruct من خلال التدريب بالتقطير. هذا النموذج هو جزء من سلسلة DeepSeek-R1، ويظهر أداءً ممتازًا في مجالات متعددة مثل الرياضيات، البرمجة، والاستدلال من خلال استخدام عينات تم إنشاؤها بواسطة DeepSeek-R1 للتدريب."
|
841
|
+
},
|
842
|
+
"deepseek_r1_distill_qwen_14b": {
|
843
|
+
"description": "DeepSeek-R1-Distill-Qwen-14B هو نموذج تم الحصول عليه من Qwen2.5-14B من خلال تقطير المعرفة. يستخدم هذا النموذج 800,000 عينة مختارة تم إنشاؤها بواسطة DeepSeek-R1 للتدريب، ويظهر قدرة استدلال ممتازة."
|
844
|
+
},
|
845
|
+
"deepseek_r1_distill_qwen_32b": {
|
846
|
+
"description": "DeepSeek-R1-Distill-Qwen-32B هو نموذج تم الحصول عليه من Qwen2.5-32B من خلال تقطير المعرفة. يستخدم هذا النموذج 800,000 عينة مختارة تم إنشاؤها بواسطة DeepSeek-R1 للتدريب، ويظهر أداءً ممتازًا في مجالات متعددة مثل الرياضيات، البرمجة، والاستدلال."
|
847
|
+
},
|
782
848
|
"doubao-1.5-lite-32k": {
|
783
849
|
"description": "دو باو 1.5 لايت هو نموذج الجيل الجديد الخفيف، مع سرعة استجابة قصوى، حيث يصل الأداء والوقت المستغرق إلى مستوى عالمي."
|
784
850
|
},
|
@@ -788,6 +854,9 @@
|
|
788
854
|
"doubao-1.5-pro-32k": {
|
789
855
|
"description": "دو باو 1.5 برو هو نموذج الجيل الجديد الرائد، مع ترقية شاملة في الأداء، حيث يظهر تفوقًا في المعرفة، والبرمجة، والاستدلال، وغيرها."
|
790
856
|
},
|
857
|
+
"doubao-1.5-vision-lite": {
|
858
|
+
"description": "Doubao-1.5-vision-lite هو نموذج كبير متعدد الوسائط تم ترقيته حديثًا، يدعم التعرف على الصور بدقة غير محدودة ونسب عرض إلى ارتفاع متطرفة، ويعزز قدرات الاستدلال البصري، التعرف على الوثائق، فهم المعلومات التفصيلية، واتباع التعليمات. يدعم نافذة سياق 128k، وطول الإخراج يدعم حتى 16k توكن."
|
859
|
+
},
|
791
860
|
"emohaa": {
|
792
861
|
"description": "Emohaa هو نموذج نفسي، يتمتع بقدرات استشارية متخصصة، يساعد المستخدمين في فهم القضايا العاطفية."
|
793
862
|
},
|
@@ -914,6 +983,9 @@
|
|
914
983
|
"gemini-2.0-pro-exp-02-05": {
|
915
984
|
"description": "Gemini 2.0 Pro Experimental هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط التجريبي من Google، مع تحسينات ملحوظة في الجودة مقارنة بالإصدارات السابقة، خاصة في المعرفة العالمية، والبرمجة، والسياقات الطويلة."
|
916
985
|
},
|
986
|
+
"gemini-2.5-flash-preview-04-17": {
|
987
|
+
"description": "معاينة فلاش جمنّي 2.5 هي النموذج الأكثر كفاءة من جوجل، حيث تقدم مجموعة شاملة من الميزات."
|
988
|
+
},
|
917
989
|
"gemini-2.5-pro-exp-03-25": {
|
918
990
|
"description": "نموذج Gemini 2.5 Pro التجريبي هو الأكثر تقدمًا من Google، قادر على استنتاج المشكلات المعقدة في البرمجة والرياضيات وعلوم STEM، بالإضافة إلى تحليل مجموعات البيانات الكبيرة ومكتبات الشيفرات والمستندات باستخدام سياقات طويلة."
|
919
991
|
},
|
@@ -953,6 +1025,9 @@
|
|
953
1025
|
"glm-4-air": {
|
954
1026
|
"description": "GLM-4-Air هو إصدار ذو قيمة عالية، يتمتع بأداء قريب من GLM-4، ويقدم سرعة عالية وسعرًا معقولًا."
|
955
1027
|
},
|
1028
|
+
"glm-4-air-250414": {
|
1029
|
+
"description": "GLM-4-Air هو إصدار ذو قيمة عالية، أداءه قريب من GLM-4، يوفر سرعة عالية وسعرًا معقولًا."
|
1030
|
+
},
|
956
1031
|
"glm-4-airx": {
|
957
1032
|
"description": "GLM-4-AirX يقدم إصدارًا فعالًا من GLM-4-Air، حيث تصل سرعة الاستدلال إلى 2.6 مرة."
|
958
1033
|
},
|
@@ -962,6 +1037,9 @@
|
|
962
1037
|
"glm-4-flash": {
|
963
1038
|
"description": "GLM-4-Flash هو الخيار المثالي لمعالجة المهام البسيطة، حيث يتمتع بأسرع سرعة وأفضل سعر."
|
964
1039
|
},
|
1040
|
+
"glm-4-flash-250414": {
|
1041
|
+
"description": "GLM-4-Flash هو الخيار المثالي لمعالجة المهام البسيطة، الأسرع والأكثر مجانية."
|
1042
|
+
},
|
965
1043
|
"glm-4-flashx": {
|
966
1044
|
"description": "GLM-4-FlashX هو إصدار معزز من Flash، يتميز بسرعة استدلال فائقة."
|
967
1045
|
},
|
@@ -980,6 +1058,18 @@
|
|
980
1058
|
"glm-4v-plus": {
|
981
1059
|
"description": "GLM-4V-Plus يتمتع بقدرة على فهم محتوى الفيديو والصور المتعددة، مما يجعله مناسبًا للمهام متعددة الوسائط."
|
982
1060
|
},
|
1061
|
+
"glm-4v-plus-0111": {
|
1062
|
+
"description": "GLM-4V-Plus يتمتع بقدرة على فهم محتوى الفيديو والصور المتعددة، مناسب للمهام متعددة الوسائط."
|
1063
|
+
},
|
1064
|
+
"glm-z1-air": {
|
1065
|
+
"description": "نموذج استدلال: يتمتع بقدرة استدلال قوية، مناسب للمهام التي تتطلب استدلالًا عميقًا."
|
1066
|
+
},
|
1067
|
+
"glm-z1-airx": {
|
1068
|
+
"description": "استدلال فائق السرعة: يتمتع بسرعة استدلال فائقة وأداء استدلال قوي."
|
1069
|
+
},
|
1070
|
+
"glm-z1-flash": {
|
1071
|
+
"description": "سلسلة GLM-Z1 تتمتع بقدرة استدلال معقدة قوية، تظهر أداءً ممتازًا في مجالات الاستدلال المنطقي، الرياضيات، والبرمجة. الحد الأقصى لطول السياق هو 32K."
|
1072
|
+
},
|
983
1073
|
"glm-zero-preview": {
|
984
1074
|
"description": "يمتلك GLM-Zero-Preview قدرة قوية على الاستدلال المعقد، ويظهر أداءً ممتازًا في مجالات الاستدلال المنطقي، والرياضيات، والبرمجة."
|
985
1075
|
},
|
@@ -1199,12 +1289,15 @@
|
|
1199
1289
|
"hunyuan-turbos-20250226": {
|
1200
1290
|
"description": "hunyuan-TurboS pv2.1.2 هو إصدار ثابت تم تحديث قاعدة التدريب لرموز التوكن؛ تعزيز القدرات الفكرية في الرياضيات/المنطق/البرمجة؛ تحسين تجربة الاستخدام العامة باللغتين الصينية والإنجليزية، بما في ذلك إنشاء النصوص، وفهم النصوص، والأسئلة والأجوبة المعرفية، والدردشة."
|
1201
1291
|
},
|
1202
|
-
"hunyuan-turbos-20250313": {
|
1203
|
-
"description": "توحيد أسلوب خطوات حل المسائل الرياضية، وتعزيز الأسئلة والأجوبة الرياضية متعددة الجولات. تحسين أسلوب الإجابة في إنشاء النصوص، وإزالة طابع الذكاء الاصطناعي، وزيادة البلاغة."
|
1204
|
-
},
|
1205
1292
|
"hunyuan-turbos-latest": {
|
1206
1293
|
"description": "hunyuan-TurboS هو أحدث إصدار من نموذج هونيان الرائد، يتمتع بقدرات تفكير أقوى وتجربة أفضل."
|
1207
1294
|
},
|
1295
|
+
"hunyuan-turbos-longtext-128k-20250325": {
|
1296
|
+
"description": "بارع في معالجة المهام الطويلة مثل تلخيص الوثائق والأسئلة والأجوبة، كما يمتلك القدرة على معالجة مهام توليد النصوص العامة. يظهر أداءً ممتازًا في تحليل وتوليد النصوص الطويلة، ويمكنه التعامل بفعالية مع متطلبات معالجة المحتوى الطويل والمعقد."
|
1297
|
+
},
|
1298
|
+
"hunyuan-turbos-vision": {
|
1299
|
+
"description": "هذا النموذج مناسب لمشاهد فهم النصوص والصور، وهو نموذج لغة بصري رائد من الجيل الجديد يعتمد على turbos الأحدث، يركز على المهام المتعلقة بفهم النصوص والصور، بما في ذلك التعرف على الكيانات المستندة إلى الصور، الأسئلة والأجوبة المعرفية، إنشاء النصوص، وحل المشكلات من خلال التصوير، مع تحسين شامل مقارنة بالنموذج السابق."
|
1300
|
+
},
|
1208
1301
|
"hunyuan-vision": {
|
1209
1302
|
"description": "نموذج Hunyuan الأحدث متعدد الوسائط، يدعم إدخال الصور والنصوص لتوليد محتوى نصي."
|
1210
1303
|
},
|
@@ -1223,6 +1316,12 @@
|
|
1223
1316
|
"internlm3-latest": {
|
1224
1317
|
"description": "سلسلة نماذجنا الأحدث، تتمتع بأداء استدلال ممتاز، تتصدر نماذج المصدر المفتوح من نفس الفئة. تشير بشكل افتراضي إلى أحدث نماذج سلسلة InternLM3 التي تم إصدارها."
|
1225
1318
|
},
|
1319
|
+
"jamba-large": {
|
1320
|
+
"description": "أقوى وأحدث نموذج لدينا، مصمم لمعالجة المهام المعقدة على مستوى المؤسسات، ويتميز بأداء استثنائي."
|
1321
|
+
},
|
1322
|
+
"jamba-mini": {
|
1323
|
+
"description": "النموذج الأكثر كفاءة في فئته، يجمع بين السرعة والجودة، ويتميز بحجمه الصغير."
|
1324
|
+
},
|
1226
1325
|
"jina-deepsearch-v1": {
|
1227
1326
|
"description": "البحث العميق يجمع بين البحث عبر الإنترنت، والقراءة، والاستدلال، مما يتيح إجراء تحقيق شامل. يمكنك اعتباره وكيلًا يتولى مهام البحث الخاصة بك - حيث يقوم بإجراء بحث واسع النطاق ويخضع لعدة تكرارات قبل تقديم الإجابة. تتضمن هذه العملية بحثًا مستمرًا، واستدلالًا، وحل المشكلات من زوايا متعددة. وهذا يختلف اختلافًا جوهريًا عن النماذج الكبيرة القياسية التي تولد الإجابات مباشرة من البيانات المدربة مسبقًا، وكذلك عن أنظمة RAG التقليدية التي تعتمد على البحث السطحي لمرة واحدة."
|
1228
1327
|
},
|
@@ -1568,9 +1667,18 @@
|
|
1568
1667
|
"o1-preview": {
|
1569
1668
|
"description": "o1 هو نموذج استدلال جديد من OpenAI، مناسب للمهام المعقدة التي تتطلب معرفة عامة واسعة. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023."
|
1570
1669
|
},
|
1670
|
+
"o3": {
|
1671
|
+
"description": "o3 هو نموذج قوي شامل، يظهر أداءً ممتازًا في مجالات متعددة. يضع معايير جديدة في المهام الرياضية، العلمية، البرمجية، واستدلال الرؤية. كما أنه بارع في الكتابة التقنية واتباع التعليمات. يمكن للمستخدمين استخدامه لتحليل النصوص، الأكواد، والصور، وحل المشكلات المعقدة متعددة الخطوات."
|
1672
|
+
},
|
1571
1673
|
"o3-mini": {
|
1572
1674
|
"description": "o3-mini هو أحدث نموذج استدلال صغير لدينا، يقدم ذكاءً عالياً تحت نفس تكاليف التأخير والأداء مثل o1-mini."
|
1573
1675
|
},
|
1676
|
+
"o3-mini-high": {
|
1677
|
+
"description": "o3-mini إصدار عالي من حيث مستوى الاستدلال، يقدم ذكاءً عاليًا بنفس تكلفة وأهداف التأخير مثل o1-mini."
|
1678
|
+
},
|
1679
|
+
"o4-mini": {
|
1680
|
+
"description": "o4-mini هو أحدث نموذج صغير من سلسلة o. تم تحسينه للاستدلال السريع والفعال، ويظهر كفاءة وأداء عاليين في المهام البرمجية والرؤية."
|
1681
|
+
},
|
1574
1682
|
"open-codestral-mamba": {
|
1575
1683
|
"description": "Codestral Mamba هو نموذج لغة Mamba 2 يركز على توليد الشيفرة، ويوفر دعمًا قويًا لمهام الشيفرة المتقدمة والاستدلال."
|
1576
1684
|
},
|
@@ -1598,6 +1706,12 @@
|
|
1598
1706
|
"openai/o1-preview": {
|
1599
1707
|
"description": "o1 هو نموذج استدلال جديد من OpenAI، مناسب للمهام المعقدة التي تتطلب معرفة عامة واسعة. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023."
|
1600
1708
|
},
|
1709
|
+
"openai/o4-mini": {
|
1710
|
+
"description": "o4-mini تم تحسينه للاستدلال السريع والفعال، ويظهر كفاءة وأداء عاليين في المهام البرمجية والرؤية."
|
1711
|
+
},
|
1712
|
+
"openai/o4-mini-high": {
|
1713
|
+
"description": "o4-mini إصدار عالي من حيث مستوى الاستدلال، تم تحسينه للاستدلال السريع والفعال، ويظهر كفاءة وأداء عاليين في المهام البرمجية والرؤية."
|
1714
|
+
},
|
1601
1715
|
"openrouter/auto": {
|
1602
1716
|
"description": "استنادًا إلى طول السياق، والموضوع، والتعقيد، سيتم إرسال طلبك إلى Llama 3 70B Instruct، أو Claude 3.5 Sonnet (التعديل الذاتي) أو GPT-4o."
|
1603
1717
|
},
|
@@ -1793,6 +1907,9 @@
|
|
1793
1907
|
"qwq-plus-latest": {
|
1794
1908
|
"description": "نموذج استدلال QwQ المدرب على نموذج Qwen2.5، الذي يعزز بشكل كبير من قدرة الاستدلال للنموذج من خلال التعلم المعزز. تصل المؤشرات الأساسية للنموذج (AIME 24/25، LiveCodeBench) وبعض المؤشرات العامة (IFEval، LiveBench وغيرها) إلى مستوى DeepSeek-R1 الكامل."
|
1795
1909
|
},
|
1910
|
+
"qwq_32b": {
|
1911
|
+
"description": "نموذج استدلال متوسط الحجم من سلسلة Qwen. مقارنة بنماذج تحسين التعليمات التقليدية، يظهر QwQ، الذي يتمتع بقدرة على التفكير والاستدلال، أداءً محسّنًا بشكل ملحوظ في المهام اللاحقة، خاصة عند حل المشكلات الصعبة."
|
1912
|
+
},
|
1796
1913
|
"r1-1776": {
|
1797
1914
|
"description": "R1-1776 هو إصدار من نموذج DeepSeek R1، تم تدريبه لاحقًا لتقديم معلومات حقائق غير خاضعة للرقابة وغير متحيزة."
|
1798
1915
|
},
|
@@ -1853,12 +1970,21 @@
|
|
1853
1970
|
"step-2-16k": {
|
1854
1971
|
"description": "يدعم تفاعلات سياق كبيرة، مناسب لمشاهد الحوار المعقدة."
|
1855
1972
|
},
|
1973
|
+
"step-2-16k-exp": {
|
1974
|
+
"description": "الإصدار التجريبي من نموذج step-2، يحتوي على أحدث الميزات، يتم تحديثه بشكل دوري. لا يُوصى باستخدامه في بيئات الإنتاج الرسمية."
|
1975
|
+
},
|
1856
1976
|
"step-2-mini": {
|
1857
1977
|
"description": "نموذج كبير سريع يعتمد على بنية الانتباه الجديدة MFA، يحقق نتائج مشابهة لـ step1 بتكلفة منخفضة جداً، مع الحفاظ على قدرة أعلى على المعالجة وزمن استجابة أسرع. يمكنه التعامل مع المهام العامة، ويتميز بقدرات قوية في البرمجة."
|
1858
1978
|
},
|
1979
|
+
"step-r1-v-mini": {
|
1980
|
+
"description": "هذا النموذج هو نموذج استدلال كبير يتمتع بقدرة قوية على فهم الصور، يمكنه معالجة المعلومات النصية والصورية، ويخرج نصوصًا بعد تفكير عميق. يظهر هذا النموذج أداءً بارزًا في مجال الاستدلال البصري، كما يمتلك قدرات رياضية، برمجية، ونصية من الدرجة الأولى. طول السياق هو 100k."
|
1981
|
+
},
|
1859
1982
|
"taichu_llm": {
|
1860
1983
|
"description": "نموذج اللغة الكبير TaiChu يتمتع بقدرات قوية في فهم اللغة، بالإضافة إلى إنشاء النصوص، والإجابة على الأسئلة، وبرمجة الأكواد، والحسابات الرياضية، والاستدلال المنطقي، وتحليل المشاعر، وتلخيص النصوص. يجمع بشكل مبتكر بين التدريب المسبق على البيانات الضخمة والمعرفة الغنية من مصادر متعددة، من خلال تحسين تقنيات الخوارزميات باستمرار واستيعاب المعرفة الجديدة من البيانات النصية الضخمة، مما يحقق تطورًا مستمرًا في أداء النموذج. يوفر للمستخدمين معلومات وخدمات أكثر سهولة وتجربة أكثر ذكاءً."
|
1861
1984
|
},
|
1985
|
+
"taichu_o1": {
|
1986
|
+
"description": "taichu_o1 هو نموذج استدلال كبير من الجيل الجديد، يحقق سلسلة من التفكير الشبيه بالبشر من خلال التفاعل متعدد الوسائط والتعلم المعزز، يدعم استنتاجات القرارات المعقدة، ويظهر مسارات تفكير قابلة للنموذج مع الحفاظ على دقة عالية في المخرجات، مناسب لتحليل الاستراتيجيات والتفكير العميق."
|
1987
|
+
},
|
1862
1988
|
"taichu_vl": {
|
1863
1989
|
"description": "يجمع بين فهم الصور، ونقل المعرفة، والاستدلال المنطقي، ويظهر أداءً بارزًا في مجال الأسئلة والأجوبة النصية والصورية."
|
1864
1990
|
},
|
package/locales/ar/plugin.json
CHANGED
package/locales/ar/tool.json
CHANGED
@@ -7,6 +7,20 @@
|
|
7
7
|
"images": "الصور:",
|
8
8
|
"prompt": "كلمة تلميح"
|
9
9
|
},
|
10
|
+
"localFiles": {
|
11
|
+
"file": "ملف",
|
12
|
+
"folder": "مجلد",
|
13
|
+
"open": "فتح",
|
14
|
+
"openFile": "فتح ملف",
|
15
|
+
"openFolder": "فتح مجلد",
|
16
|
+
"read": {
|
17
|
+
"more": "عرض المزيد"
|
18
|
+
},
|
19
|
+
"readFile": "قراءة الملف",
|
20
|
+
"readFileError": "فشل في قراءة الملف، يرجى التحقق من صحة مسار الملف",
|
21
|
+
"readFiles": "قراءة الملفات",
|
22
|
+
"readFilesError": "فشل في قراءة الملفات، يرجى التحقق من صحة مسار الملف"
|
23
|
+
},
|
10
24
|
"search": {
|
11
25
|
"createNewSearch": "إنشاء سجل بحث جديد",
|
12
26
|
"emptyResult": "لم يتم العثور على نتائج، يرجى تعديل الكلمات الرئيسية والمحاولة مرة أخرى",
|
@@ -44,5 +58,16 @@
|
|
44
58
|
"summary": "ملخص",
|
45
59
|
"summaryTooltip": "تلخيص المحتوى الحالي",
|
46
60
|
"viewMoreResults": "عرض المزيد من {{results}} نتيجة"
|
61
|
+
},
|
62
|
+
"updateArgs": {
|
63
|
+
"duplicateKeyError": "يجب أن يكون مفتاح الحقل فريدًا",
|
64
|
+
"form": {
|
65
|
+
"add": "إضافة عنصر",
|
66
|
+
"key": "مفتاح الحقل",
|
67
|
+
"value": "قيمة الحقل"
|
68
|
+
},
|
69
|
+
"formValidationFailed": "فشل التحقق من صحة النموذج، يرجى التحقق من تنسيق المعلمات",
|
70
|
+
"keyRequired": "لا يمكن أن يكون مفتاح الحقل فارغًا",
|
71
|
+
"stringifyError": "تعذر تسلسل المعلمات، يرجى التحقق من تنسيق المعلمات"
|
47
72
|
}
|
48
73
|
}
|
@@ -0,0 +1,32 @@
|
|
1
|
+
{
|
2
|
+
"remoteServer": {
|
3
|
+
"authError": "Упълномощаването не бе успешно: {{error}}",
|
4
|
+
"authPending": "Моля, завършете упълномощаването в браузъра",
|
5
|
+
"configDesc": "Свържете се с отдалечения сървър LobeChat, за да активирате синхронизация на данни",
|
6
|
+
"configError": "Грешка в конфигурацията",
|
7
|
+
"configTitle": "Конфигуриране на облачна синхронизация",
|
8
|
+
"connect": "Свързване и упълномощаване",
|
9
|
+
"connected": "Свързан",
|
10
|
+
"disconnect": "Прекъсване на връзката",
|
11
|
+
"disconnectError": "Неуспешно прекъсване на връзката",
|
12
|
+
"disconnected": "Не е свързан",
|
13
|
+
"fetchError": "Неуспешно извличане на конфигурацията",
|
14
|
+
"invalidUrl": "Моля, въведете валиден URL адрес",
|
15
|
+
"serverUrl": "Адрес на сървъра",
|
16
|
+
"statusConnected": "Свързан",
|
17
|
+
"statusDisconnected": "Не е свързан",
|
18
|
+
"urlRequired": "Моля, въведете адреса на сървъра"
|
19
|
+
},
|
20
|
+
"updater": {
|
21
|
+
"downloadingUpdate": "Изтегляне на актуализация",
|
22
|
+
"downloadingUpdateDesc": "Актуализацията се изтегля, моля изчакайте...",
|
23
|
+
"later": "Актуализирай по-късно",
|
24
|
+
"newVersionAvailable": "Налична е нова версия",
|
25
|
+
"newVersionAvailableDesc": "Открита е нова версия {{version}}, искате ли да я изтеглите сега?",
|
26
|
+
"restartAndInstall": "Рестартирай и инсталирай",
|
27
|
+
"updateError": "Грешка при актуализацията",
|
28
|
+
"updateReady": "Актуализацията е готова",
|
29
|
+
"updateReadyDesc": "Lobe Chat {{version}} е изтеглен, рестартирайте приложението, за да завършите инсталацията.",
|
30
|
+
"upgradeNow": "Актуализирай сега"
|
31
|
+
}
|
32
|
+
}
|