@lobehub/chat 1.20.8 → 1.21.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (100) hide show
  1. package/CHANGELOG.md +42 -0
  2. package/Dockerfile +5 -2
  3. package/Dockerfile.database +5 -2
  4. package/locales/ar/error.json +1 -0
  5. package/locales/ar/modelProvider.json +20 -0
  6. package/locales/ar/models.json +73 -4
  7. package/locales/ar/providers.json +6 -0
  8. package/locales/bg-BG/error.json +1 -0
  9. package/locales/bg-BG/modelProvider.json +20 -0
  10. package/locales/bg-BG/models.json +73 -4
  11. package/locales/bg-BG/providers.json +6 -0
  12. package/locales/de-DE/error.json +1 -0
  13. package/locales/de-DE/modelProvider.json +20 -0
  14. package/locales/de-DE/models.json +73 -4
  15. package/locales/de-DE/providers.json +6 -0
  16. package/locales/en-US/error.json +1 -0
  17. package/locales/en-US/modelProvider.json +20 -0
  18. package/locales/en-US/models.json +73 -4
  19. package/locales/en-US/providers.json +6 -0
  20. package/locales/es-ES/error.json +1 -0
  21. package/locales/es-ES/modelProvider.json +20 -0
  22. package/locales/es-ES/models.json +73 -4
  23. package/locales/es-ES/providers.json +6 -0
  24. package/locales/fr-FR/error.json +1 -0
  25. package/locales/fr-FR/modelProvider.json +20 -0
  26. package/locales/fr-FR/models.json +73 -4
  27. package/locales/fr-FR/providers.json +6 -0
  28. package/locales/it-IT/error.json +1 -0
  29. package/locales/it-IT/modelProvider.json +20 -0
  30. package/locales/it-IT/models.json +73 -4
  31. package/locales/it-IT/providers.json +6 -0
  32. package/locales/ja-JP/error.json +1 -0
  33. package/locales/ja-JP/modelProvider.json +20 -0
  34. package/locales/ja-JP/models.json +73 -4
  35. package/locales/ja-JP/providers.json +6 -0
  36. package/locales/ko-KR/error.json +1 -0
  37. package/locales/ko-KR/modelProvider.json +20 -0
  38. package/locales/ko-KR/models.json +73 -4
  39. package/locales/ko-KR/providers.json +6 -0
  40. package/locales/nl-NL/error.json +1 -0
  41. package/locales/nl-NL/modelProvider.json +20 -0
  42. package/locales/nl-NL/models.json +73 -4
  43. package/locales/nl-NL/providers.json +6 -0
  44. package/locales/pl-PL/error.json +1 -0
  45. package/locales/pl-PL/modelProvider.json +20 -0
  46. package/locales/pl-PL/models.json +73 -4
  47. package/locales/pl-PL/providers.json +6 -0
  48. package/locales/pt-BR/error.json +1 -0
  49. package/locales/pt-BR/modelProvider.json +20 -0
  50. package/locales/pt-BR/models.json +73 -4
  51. package/locales/pt-BR/providers.json +6 -0
  52. package/locales/ru-RU/error.json +1 -0
  53. package/locales/ru-RU/modelProvider.json +20 -0
  54. package/locales/ru-RU/models.json +73 -4
  55. package/locales/ru-RU/providers.json +6 -0
  56. package/locales/tr-TR/error.json +1 -0
  57. package/locales/tr-TR/modelProvider.json +20 -0
  58. package/locales/tr-TR/models.json +73 -4
  59. package/locales/tr-TR/providers.json +6 -0
  60. package/locales/vi-VN/error.json +1 -0
  61. package/locales/vi-VN/modelProvider.json +20 -0
  62. package/locales/vi-VN/models.json +73 -4
  63. package/locales/vi-VN/providers.json +6 -0
  64. package/locales/zh-CN/error.json +1 -0
  65. package/locales/zh-CN/modelProvider.json +20 -0
  66. package/locales/zh-CN/models.json +76 -7
  67. package/locales/zh-CN/providers.json +6 -0
  68. package/locales/zh-TW/error.json +1 -0
  69. package/locales/zh-TW/modelProvider.json +20 -0
  70. package/locales/zh-TW/models.json +73 -4
  71. package/locales/zh-TW/providers.json +6 -0
  72. package/package.json +3 -2
  73. package/scripts/serverLauncher/startServer.js +10 -81
  74. package/src/app/(main)/settings/llm/ProviderList/Wenxin/index.tsx +46 -0
  75. package/src/app/(main)/settings/llm/ProviderList/providers.tsx +4 -1
  76. package/src/app/api/chat/agentRuntime.test.ts +21 -0
  77. package/src/app/api/chat/wenxin/route.test.ts +27 -0
  78. package/src/app/api/chat/wenxin/route.ts +30 -0
  79. package/src/app/api/errorResponse.ts +4 -0
  80. package/src/config/llm.ts +8 -0
  81. package/src/config/modelProviders/index.ts +4 -0
  82. package/src/config/modelProviders/wenxin.ts +159 -0
  83. package/src/const/auth.ts +4 -0
  84. package/src/const/settings/llm.ts +5 -0
  85. package/src/features/Conversation/Error/APIKeyForm/Wenxin.tsx +49 -0
  86. package/src/features/Conversation/Error/APIKeyForm/index.tsx +3 -0
  87. package/src/features/Conversation/Error/index.tsx +1 -0
  88. package/src/libs/agent-runtime/AgentRuntime.test.ts +1 -0
  89. package/src/libs/agent-runtime/error.ts +1 -0
  90. package/src/libs/agent-runtime/types/type.ts +1 -0
  91. package/src/libs/agent-runtime/utils/streams/wenxin.test.ts +149 -0
  92. package/src/libs/agent-runtime/utils/streams/wenxin.ts +46 -0
  93. package/src/libs/agent-runtime/wenxin/index.ts +106 -0
  94. package/src/libs/agent-runtime/wenxin/type.ts +84 -0
  95. package/src/locales/default/error.ts +2 -0
  96. package/src/locales/default/modelProvider.ts +20 -0
  97. package/src/server/globalConfig/index.ts +4 -1
  98. package/src/services/_auth.ts +14 -0
  99. package/src/store/user/slices/modelList/selectors/keyVaults.ts +2 -0
  100. package/src/types/user/settings/keyVaults.ts +6 -0
package/CHANGELOG.md CHANGED
@@ -2,6 +2,48 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.21.1](https://github.com/lobehub/lobe-chat/compare/v1.21.0...v1.21.1)
6
+
7
+ <sup>Released on **2024-09-30**</sup>
8
+
9
+ <br/>
10
+
11
+ <details>
12
+ <summary><kbd>Improvements and Fixes</kbd></summary>
13
+
14
+ </details>
15
+
16
+ <div align="right">
17
+
18
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
19
+
20
+ </div>
21
+
22
+ ## [Version 1.21.0](https://github.com/lobehub/lobe-chat/compare/v1.20.8...v1.21.0)
23
+
24
+ <sup>Released on **2024-09-30**</sup>
25
+
26
+ #### ✨ Features
27
+
28
+ - **misc**: Add wenxin model provider.
29
+
30
+ <br/>
31
+
32
+ <details>
33
+ <summary><kbd>Improvements and Fixes</kbd></summary>
34
+
35
+ #### What's improved
36
+
37
+ - **misc**: Add wenxin model provider, closes [#4018](https://github.com/lobehub/lobe-chat/issues/4018) ([4483599](https://github.com/lobehub/lobe-chat/commit/4483599))
38
+
39
+ </details>
40
+
41
+ <div align="right">
42
+
43
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
44
+
45
+ </div>
46
+
5
47
  ### [Version 1.20.8](https://github.com/lobehub/lobe-chat/compare/v1.20.7...v1.20.8)
6
48
 
7
49
  <sup>Released on **2024-09-30**</sup>
package/Dockerfile CHANGED
@@ -114,8 +114,9 @@ COPY --from=app / /
114
114
 
115
115
  ENV NODE_ENV="production" \
116
116
  NODE_OPTIONS="--use-openssl-ca" \
117
- NODE_EXTRA_CA_CERTS="/etc/ssl/certs/ca-certificates.crt" \
118
- NODE_TLS_REJECT_UNAUTHORIZED=""
117
+ NODE_EXTRA_CA_CERTS="" \
118
+ NODE_TLS_REJECT_UNAUTHORIZED="" \
119
+ SSL_CERT_DIR="/etc/ssl/certs/ca-certificates.crt"
119
120
 
120
121
  # set hostname to localhost
121
122
  ENV HOSTNAME="0.0.0.0" \
@@ -185,6 +186,8 @@ ENV \
185
186
  TOGETHERAI_API_KEY="" TOGETHERAI_MODEL_LIST="" \
186
187
  # Upstage
187
188
  UPSTAGE_API_KEY="" \
189
+ # Wenxin
190
+ WENXIN_ACCESS_KEY="" WENXIN_SECRET_KEY="" \
188
191
  # 01.AI
189
192
  ZEROONE_API_KEY="" ZEROONE_MODEL_LIST="" \
190
193
  # Zhipu
@@ -127,8 +127,9 @@ COPY --from=app / /
127
127
 
128
128
  ENV NODE_ENV="production" \
129
129
  NODE_OPTIONS="--use-openssl-ca" \
130
- NODE_EXTRA_CA_CERTS="/etc/ssl/certs/ca-certificates.crt" \
131
- NODE_TLS_REJECT_UNAUTHORIZED=""
130
+ NODE_EXTRA_CA_CERTS="" \
131
+ NODE_TLS_REJECT_UNAUTHORIZED="" \
132
+ SSL_CERT_DIR="/etc/ssl/certs/ca-certificates.crt"
132
133
 
133
134
  # set hostname to localhost
134
135
  ENV HOSTNAME="0.0.0.0" \
@@ -217,6 +218,8 @@ ENV \
217
218
  TOGETHERAI_API_KEY="" TOGETHERAI_MODEL_LIST="" \
218
219
  # Upstage
219
220
  UPSTAGE_API_KEY="" \
221
+ # Wenxin
222
+ WENXIN_ACCESS_KEY="" WENXIN_SECRET_KEY="" \
220
223
  # 01.AI
221
224
  ZEROONE_API_KEY="" ZEROONE_MODEL_LIST="" \
222
225
  # Zhipu
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "خطأ في استجابة الخادم لطلب الإضافة، يرجى التحقق من ملف وصف الإضافة وتكوين الإضافة وتنفيذ الخادم وفقًا لمعلومات الخطأ أدناه",
82
82
  "PluginSettingsInvalid": "تحتاج هذه الإضافة إلى تكوين صحيح قبل الاستخدام، يرجى التحقق من صحة تكوينك",
83
83
  "ProviderBizError": "طلب خدمة {{provider}} خاطئ، يرجى التحقق من المعلومات التالية أو إعادة المحاولة",
84
+ "QuotaLimitReached": "عذرًا، لقد reached الحد الأقصى من استخدام الرموز أو عدد الطلبات لهذا المفتاح. يرجى زيادة حصة هذا المفتاح أو المحاولة لاحقًا.",
84
85
  "StreamChunkError": "خطأ في تحليل كتلة الرسالة لطلب التدفق، يرجى التحقق مما إذا كانت واجهة برمجة التطبيقات الحالية تتوافق مع المعايير، أو الاتصال بمزود واجهة برمجة التطبيقات الخاصة بك للاستفسار.",
85
86
  "SubscriptionPlanLimit": "لقد استنفذت حصتك من الاشتراك، لا يمكنك استخدام هذه الوظيفة، يرجى الترقية إلى خطة أعلى أو شراء حزمة موارد للمتابعة",
86
87
  "UnknownChatFetchError": "عذرًا، حدث خطأ غير معروف في الطلب، يرجى التحقق من المعلومات التالية أو المحاولة مرة أخرى"
@@ -112,6 +112,26 @@
112
112
  "title": "Download specified Ollama model"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "أدخل مفتاح الوصول من منصة بايدو تشيانفان",
118
+ "placeholder": "مفتاح الوصول لتشيانفان",
119
+ "title": "مفتاح الوصول"
120
+ },
121
+ "checker": {
122
+ "desc": "اختبر ما إذا كان مفتاح الوصول / مفتاح السر صحيحًا"
123
+ },
124
+ "secretKey": {
125
+ "desc": "أدخل مفتاح السر من منصة بايدو تشيانفان",
126
+ "placeholder": "مفتاح السر لتشيانفان",
127
+ "title": "مفتاح السر"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "منطقة الخدمة المخصصة",
131
+ "description": "أدخل مفتاح الوصول / مفتاح السر لبدء المحادثة. التطبيق لن يسجل إعدادات المصادقة الخاصة بك",
132
+ "title": "استخدام معلومات مصادقة وينشين يي يان المخصصة"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI الأشياء الصغرى"
117
137
  },
@@ -32,6 +32,39 @@
32
32
  "Baichuan4": {
33
33
  "description": "النموذج الأول في البلاد من حيث القدرة، يتفوق على النماذج الرئيسية الأجنبية في المهام الصينية مثل الموسوعات، والنصوص الطويلة، والإبداع. كما يتمتع بقدرات متعددة الوسائط رائدة في الصناعة، ويظهر أداءً ممتازًا في العديد من معايير التقييم الموثوقة."
34
34
  },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يغطي كمية هائلة من البيانات باللغة الصينية والإنجليزية، ويتميز بقدرات عامة قوية، يمكنه تلبية معظم متطلبات الحوار، والإجابة على الأسئلة، وإنشاء المحتوى، وتطبيقات الإضافات؛ يدعم الاتصال التلقائي بإضافات بحث بايدو، مما يضمن تحديث معلومات الإجابة."
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يغطي كمية هائلة من البيانات باللغة الصينية والإنجليزية، ويتميز بقدرات عامة قوية، يمكنه تلبية معظم متطلبات الحوار، والإجابة على الأسئلة، وإنشاء المحتوى، وتطبيقات الإضافات؛ يدعم الاتصال التلقائي بإضافات بحث بايدو، مما يضمن تحديث معلومات الإجابة."
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يغطي كمية هائلة من البيانات باللغة الصينية والإنجليزية، ويتميز بقدرات عامة قوية، يمكنه تلبية معظم متطلبات الحوار، والإجابة على الأسئلة، وإنشاء المحتوى، وتطبيقات الإضافات؛ يدعم الاتصال التلقائي بإضافات بحث بايدو، مما يضمن تحديث معلومات الإجابة."
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، والذي شهد ترقية شاملة في القدرات مقارنةً بـERNIE 3.5، ويستخدم على نطاق واسع في مجالات متعددة لمهام معقدة؛ يدعم الاتصال التلقائي بإضافات بحث بايدو لضمان تحديث معلومات الإجابة."
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، والذي شهد ترقية شاملة في القدرات مقارنةً بـERNIE 3.5، ويستخدم على نطاق واسع في مجالات متعددة لمهام معقدة؛ يدعم الاتصال التلقائي بإضافات بحث بايدو لضمان تحديث معلومات الإجابة."
49
+ },
50
+ "ERNIE-4.0-Turbo-8K": {
51
+ "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يتميز بأداء شامل ممتاز، ويستخدم على نطاق واسع في مجالات متعددة لمهام معقدة؛ يدعم الاتصال التلقائي بإضافات بحث بايدو لضمان تحديث معلومات الإجابة. مقارنةً بـERNIE 4.0، يتمتع بأداء أفضل."
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يتميز بأداء شامل ممتاز، ويستخدم على نطاق واسع في مجالات متعددة لمهام معقدة؛ يدعم الاتصال التلقائي بإضافات بحث بايدو لضمان تحديث معلومات الإجابة. مقارنةً بـERNIE 4.0، يتمتع بأداء أفضل."
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "نموذج اللغة الكبير الذي طورته بايدو، مناسب لمشاهد الألعاب، والحوار مع خدمة العملاء، وأدوار الحوار، وغيرها من تطبيقات السيناريوهات، حيث يتميز بأسلوب شخصيات واضح ومتسق، وقدرة قوية على اتباع التعليمات، وأداء استدلال أفضل."
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "نموذج اللغة الخفيف الذي طورته بايدو، يجمع بين أداء النموذج الممتاز وأداء الاستدلال، ويتميز بأداء أفضل من ERNIE Lite، مناسب للاستخدام في بطاقات تسريع الذكاء الاصطناعي ذات القدرة الحاسوبية المنخفضة."
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "نموذج اللغة الكبير عالي الأداء الذي طورته بايدو، والذي تم إصداره في عام 2024، يتمتع بقدرات عامة ممتازة، مناسب كنموذج أساسي للتعديل الدقيق، مما يساعد على معالجة مشكلات السيناريوهات المحددة بشكل أفضل، مع أداء استدلال ممتاز."
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "نموذج اللغة الكبير عالي الأداء الذي طورته بايدو، والذي تم إصداره في عام 2024، يتمتع بقدرات عامة ممتازة، ويتميز بأداء أفضل من ERNIE Speed، مناسب كنموذج أساسي للتعديل الدقيق، مما يساعد على معالجة مشكلات السيناريوهات المحددة بشكل أفضل، مع أداء استدلال ممتاز."
67
+ },
35
68
  "Gryphe/MythoMax-L2-13b": {
36
69
  "description": "MythoMax-L2 (13B) هو نموذج مبتكر، مناسب لتطبيقات متعددة المجالات والمهام المعقدة."
37
70
  },
@@ -401,6 +434,9 @@
401
434
  "glm-4-flash": {
402
435
  "description": "GLM-4-Flash هو الخيار المثالي لمعالجة المهام البسيطة، حيث يتمتع بأسرع سرعة وأفضل سعر."
403
436
  },
437
+ "glm-4-flashx": {
438
+ "description": "GLM-4-FlashX هو إصدار معزز من Flash، يتميز بسرعة استدلال فائقة."
439
+ },
404
440
  "glm-4-long": {
405
441
  "description": "GLM-4-Long يدعم إدخالات نصية طويلة جدًا، مما يجعله مناسبًا للمهام الذاكرية ومعالجة الوثائق الكبيرة."
406
442
  },
@@ -413,11 +449,11 @@
413
449
  "glm-4v-plus": {
414
450
  "description": "GLM-4V-Plus يتمتع بقدرة على فهم محتوى الفيديو والصور المتعددة، مما يجعله مناسبًا للمهام متعددة الوسائط."
415
451
  },
416
- "google/gemini-flash-1.5-exp": {
417
- "description": "Gemini 1.5 Flash 0827 يوفر قدرات معالجة متعددة الوسائط محسّنة، مناسبة لمجموعة متنوعة من سيناريوهات المهام المعقدة."
452
+ "google/gemini-flash-1.5": {
453
+ "description": "يقدم Gemini 1.5 Flash قدرات معالجة متعددة الوسائط محسّنة، مناسبة لمجموعة متنوعة من سيناريوهات المهام المعقدة."
418
454
  },
419
- "google/gemini-pro-1.5-exp": {
420
- "description": "Gemini 1.5 Pro 0827 يجمع بين أحدث تقنيات التحسين، مما يوفر قدرة معالجة بيانات متعددة الوسائط أكثر كفاءة."
455
+ "google/gemini-pro-1.5": {
456
+ "description": "يجمع Gemini 1.5 Pro بين أحدث تقنيات التحسين، مما يوفر قدرة معالجة بيانات متعددة الوسائط بشكل أكثر كفاءة."
421
457
  },
422
458
  "google/gemma-2-27b-it": {
423
459
  "description": "Gemma 2 تستمر في مفهوم التصميم الخفيف والفعال."
@@ -491,6 +527,33 @@
491
527
  "gryphe/mythomax-l2-13b": {
492
528
  "description": "MythoMax l2 13B هو نموذج لغوي يجمع بين الإبداع والذكاء من خلال دمج عدة نماذج رائدة."
493
529
  },
530
+ "hunyuan-code": {
531
+ "description": "نموذج توليد الشيفرة الأحدث من Hunyuan، تم تدريبه على نموذج أساسي من بيانات الشيفرة عالية الجودة بحجم 200B، مع تدريب عالي الجودة على بيانات SFT لمدة ستة أشهر، وزيادة طول نافذة السياق إلى 8K، ويحتل مرتبة متقدمة في مؤشرات التقييم التلقائي لتوليد الشيفرة في خمس لغات؛ كما أنه في الطليعة في تقييمات الشيفرة عالية الجودة عبر عشرة معايير في خمس لغات."
532
+ },
533
+ "hunyuan-functioncall": {
534
+ "description": "نموذج Hunyuan الأحدث من نوع MOE FunctionCall، تم تدريبه على بيانات FunctionCall عالية الجودة، مع نافذة سياق تصل إلى 32K، ويحتل مرتبة متقدمة في مؤشرات التقييم عبر عدة أبعاد."
535
+ },
536
+ "hunyuan-lite": {
537
+ "description": "تم الترقية إلى هيكل MOE، مع نافذة سياق تصل إلى 256k، متفوقًا على العديد من النماذج مفتوحة المصدر في تقييمات NLP، البرمجة، الرياضيات، والصناعات."
538
+ },
539
+ "hunyuan-pro": {
540
+ "description": "نموذج نصوص طويلة MOE-32K بحجم تريليون من المعلمات. يحقق مستوى رائد مطلق في مختلف المعايير، مع القدرة على التعامل مع التعليمات المعقدة والاستدلال، ويتميز بقدرات رياضية معقدة، ويدعم استدعاء الوظائف، مع تحسينات رئيسية في مجالات الترجمة متعددة اللغات، المالية، القانونية، والرعاية الصحية."
541
+ },
542
+ "hunyuan-role": {
543
+ "description": "نموذج Hunyuan الأحدث لتقمص الأدوار، تم تطويره من قبل Hunyuan مع تدريب دقيق، يعتمد على نموذج Hunyuan مع مجموعة بيانات سيناريوهات تقمص الأدوار، مما يوفر أداءً أفضل في سيناريوهات تقمص الأدوار."
544
+ },
545
+ "hunyuan-standard": {
546
+ "description": "يستخدم استراتيجية توجيه أفضل، مع تخفيف مشكلات التوازن في الحمل وتوافق الخبراء. في مجال النصوص الطويلة، تصل نسبة مؤشر البحث إلى 99.9%. MOE-32K يقدم قيمة أفضل، مع تحقيق توازن بين الأداء والسعر، مما يسمح بمعالجة المدخلات النصية الطويلة."
547
+ },
548
+ "hunyuan-standard-256K": {
549
+ "description": "يستخدم استراتيجية توجيه أفضل، مع تخفيف مشكلات التوازن في الحمل وتوافق الخبراء. في مجال النصوص الطويلة، تصل نسبة مؤشر البحث إلى 99.9%. MOE-256K يحقق اختراقًا إضافيًا في الطول والأداء، مما يوسع بشكل كبير طول المدخلات الممكنة."
550
+ },
551
+ "hunyuan-turbo": {
552
+ "description": "نسخة المعاينة من الجيل الجديد من نموذج اللغة الكبير، يستخدم هيكل نموذج الخبراء المختلط (MoE) الجديد، مما يوفر كفاءة استدلال أسرع وأداء أقوى مقارنة بـ hunyuan-pro."
553
+ },
554
+ "hunyuan-vision": {
555
+ "description": "نموذج Hunyuan الأحدث متعدد الوسائط، يدعم إدخال الصور والنصوص لتوليد محتوى نصي."
556
+ },
494
557
  "internlm/internlm2_5-20b-chat": {
495
558
  "description": "نموذج مفتوح المصدر مبتكر InternLM2.5، يعزز الذكاء الحواري من خلال عدد كبير من المعلمات."
496
559
  },
@@ -634,6 +697,12 @@
634
697
  "meta-llama/llama-3.1-8b-instruct:free": {
635
698
  "description": "LLaMA 3.1 يوفر دعمًا متعدد اللغات، وهو واحد من النماذج الرائدة في الصناعة في مجال التوليد."
636
699
  },
700
+ "meta-llama/llama-3.2-11b-vision-instruct": {
701
+ "description": "تم تصميم LLaMA 3.2 لمعالجة المهام التي تجمع بين البيانات البصرية والنصية. إنه يتفوق في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة والاستدلال البصري."
702
+ },
703
+ "meta-llama/llama-3.2-90b-vision-instruct": {
704
+ "description": "تم تصميم LLaMA 3.2 لمعالجة المهام التي تجمع بين البيانات البصرية والنصية. إنه يتفوق في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة والاستدلال البصري."
705
+ },
637
706
  "meta.llama3-1-405b-instruct-v1:0": {
638
707
  "description": "نموذج Meta Llama 3.1 405B Instruct هو أكبر وأقوى نموذج في مجموعة نماذج Llama 3.1 Instruct، وهو نموذج متقدم للغاية لتوليد البيانات والحوار، ويمكن استخدامه كأساس للتدريب المستمر أو التخصيص في مجالات معينة. توفر Llama 3.1 نماذج لغوية كبيرة متعددة اللغات (LLMs) وهي مجموعة من النماذج المدربة مسبقًا والمعدلة وفقًا للتعليمات، بما في ذلك أحجام 8B و70B و405B (إدخال/إخراج نصي). تم تحسين نماذج النص المعدلة وفقًا للتعليمات (8B و70B و405B) لحالات الاستخدام الحوارية متعددة اللغات، وقد تفوقت في العديد من اختبارات المعايير الصناعية الشائعة على العديد من نماذج الدردشة مفتوحة المصدر المتاحة. تم تصميم Llama 3.1 للاستخدام التجاري والبحثي في عدة لغات. نماذج النص المعدلة وفقًا للتعليمات مناسبة للدردشة الشبيهة بالمساعد، بينما يمكن للنماذج المدربة مسبقًا التكيف مع مجموعة متنوعة من مهام توليد اللغة الطبيعية. تدعم نماذج Llama 3.1 أيضًا تحسين نماذج أخرى باستخدام مخرجاتها، بما في ذلك توليد البيانات الاصطناعية والتنقيح. Llama 3.1 هو نموذج لغوي ذاتي التكرار يستخدم بنية المحولات المحسّنة. تستخدم النسخ المعدلة التعلم المعزز مع التغذية الراجعة البشرية (RLHF) لتلبية تفضيلات البشر فيما يتعلق بالمساعدة والأمان."
639
708
  },
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "يتميز محرك الاستدلال LPU من Groq بأداء ممتاز في أحدث اختبارات المعايير لنماذج اللغة الكبيرة المستقلة (LLM)، حيث أعاد تعريف معايير حلول الذكاء الاصطناعي بسرعته وكفاءته المذهلة. Groq يمثل سرعة استدلال فورية، ويظهر أداءً جيدًا في النشر القائم على السحابة."
32
32
  },
33
+ "hunyuan": {
34
+ "description": "نموذج لغة متقدم تم تطويره بواسطة Tencent، يتمتع بقدرة قوية على الإبداع باللغة الصينية، وقدرة على الاستدلال المنطقي في سياقات معقدة، بالإضافة إلى قدرة موثوقة على تنفيذ المهام."
35
+ },
33
36
  "minimax": {
34
37
  "description": "MiniMax هي شركة تكنولوجيا الذكاء الاصطناعي العامة التي تأسست في عام 2021، تكرس جهودها للتعاون مع المستخدمين في إنشاء الذكاء. طورت MiniMax نماذج كبيرة عامة من أوضاع مختلفة، بما في ذلك نموذج نصي MoE الذي يحتوي على تريليونات من المعلمات، ونموذج صوتي، ونموذج صور. وقد أطلقت تطبيقات مثل Conch AI."
35
38
  },
@@ -75,6 +78,9 @@
75
78
  "upstage": {
76
79
  "description": "تتخصص Upstage في تطوير نماذج الذكاء الاصطناعي لتلبية احتياجات الأعمال المتنوعة، بما في ذلك Solar LLM وDocument AI، بهدف تحقيق الذكاء الاصطناعي العام (AGI) القائم على العمل. من خلال واجهة Chat API، يمكن إنشاء وكلاء حوار بسيطين، وتدعم استدعاء الوظائف، والترجمة، والتضمين، وتطبيقات المجالات المحددة."
77
80
  },
81
+ "wenxin": {
82
+ "description": "منصة تطوير وخدمات النماذج الكبيرة والتطبيقات الأصلية للذكاء الاصطناعي على مستوى المؤسسات، تقدم مجموعة شاملة وسهلة الاستخدام من أدوات تطوير النماذج الذكية التوليدية وأدوات تطوير التطبيقات على مدار العملية بأكملها."
83
+ },
78
84
  "zeroone": {
79
85
  "description": "01.AI تركز على تقنيات الذكاء الاصطناعي في عصر الذكاء الاصطناعي 2.0، وتعزز الابتكار والتطبيقات \"الإنسان + الذكاء الاصطناعي\"، باستخدام نماذج قوية وتقنيات ذكاء اصطناعي متقدمة لتعزيز إنتاجية البشر وتحقيق تمكين التكنولوجيا."
80
86
  },
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "Заявката към сървъра на плъгина върна грешка. Моля, проверете файла на манифеста на плъгина, конфигурацията на плъгина или изпълнението на сървъра въз основа на информацията за грешката по-долу",
82
82
  "PluginSettingsInvalid": "Този плъгин трябва да бъде конфигуриран правилно, преди да може да се използва. Моля, проверете дали конфигурацията ви е правилна",
83
83
  "ProviderBizError": "Грешка в услугата на {{provider}}, моля проверете следната информация или опитайте отново",
84
+ "QuotaLimitReached": "Съжаляваме, но текущото използване на токени или брой на заявките е достигнало лимита на квотата за този ключ. Моля, увеличете квотата на ключа или опитайте отново по-късно.",
84
85
  "StreamChunkError": "Грешка при парсирането на съобщение от потокова заявка. Моля, проверете дали текущият API интерфейс отговаря на стандартите или се свържете с вашия доставчик на API за консултация.",
85
86
  "SubscriptionPlanLimit": "Изчерпали сте вашия абонаментен лимит и не можете да използвате тази функционалност. Моля, надстройте до по-висок план или закупете допълнителни ресурси, за да продължите да я използвате.",
86
87
  "UnknownChatFetchError": "Съжаляваме, възникна неизвестна грешка при заявката. Моля, проверете информацията по-долу или опитайте отново."
@@ -112,6 +112,26 @@
112
112
  "title": "Download specified Ollama model"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "Въведете Access Key от платформата Baidu Qianfan",
118
+ "placeholder": "Qianfan Access Key",
119
+ "title": "Access Key"
120
+ },
121
+ "checker": {
122
+ "desc": "Тествайте дали AccessKey / SecretAccess е попълнен правилно"
123
+ },
124
+ "secretKey": {
125
+ "desc": "Въведете Secret Key от платформата Baidu Qianfan",
126
+ "placeholder": "Qianfan Secret Key",
127
+ "title": "Secret Key"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "Персонализиран регион на услугата",
131
+ "description": "Въведете вашия AccessKey / SecretKey, за да започнете сесия. Приложението няма да запомня вашите конфигурации за удостоверяване",
132
+ "title": "Използвайте персонализирана информация за удостоверяване на Wenxin Yiyan"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI Зероуан Всичко"
117
137
  },
@@ -32,6 +32,39 @@
32
32
  "Baichuan4": {
33
33
  "description": "Моделът е с най-добри способности в страната, надминаващ чуждестранните водещи модели в задачи като енциклопедични знания, дълги текстове и генериране на съдържание. Също така притежава водещи в индустрията мултимодални способности и отлични резултати в множество авторитетни тестови стандарти."
34
34
  },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "Флагманският модел на Baidu, разработен самостоятелно, е мащабен езиков модел, който обхваща огромно количество китайски и английски текстове. Той притежава мощни общи способности и може да отговори на почти всички изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения с плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговорите."
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "Флагманският модел на Baidu, разработен самостоятелно, е мащабен езиков модел, който обхваща огромно количество китайски и английски текстове. Той притежава мощни общи способности и може да отговори на почти всички изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения с плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговорите."
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "Флагманският модел на Baidu, разработен самостоятелно, е мащабен езиков модел, който обхваща огромно количество китайски и английски текстове. Той притежава мощни общи способности и може да отговори на почти всички изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения с плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговорите."
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "Флагманският модел на Baidu за изключително големи езикови модели, разработен самостоятелно, е напълно обновен в сравнение с ERNIE 3.5 и е широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговори."
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "Флагманският модел на Baidu за изключително големи езикови модели, разработен самостоятелно, е напълно обновен в сравнение с ERNIE 3.5 и е широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговори."
49
+ },
50
+ "ERNIE-4.0-Turbo-8K": {
51
+ "description": "Флагманският модел на Baidu за изключително големи езикови модели, разработен самостоятелно, показва отлични резултати и е широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговори. В сравнение с ERNIE 4.0, представянето му е по-добро."
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "Флагманският модел на Baidu за изключително големи езикови модели, разработен самостоятелно, показва отлични резултати и е широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговори. В сравнение с ERNIE 4.0, представянето му е по-добро."
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "Специализиран модел на Baidu за големи езикови модели, разработен самостоятелно, подходящ за приложения като NPC в игри, клиентски разговори и ролеви игри, с по-изразителен и последователен стил на персонажите, по-силна способност за следване на инструкции и по-добра производителност при извеждане."
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "Лек модел на Baidu за големи езикови модели, разработен самостоятелно, който съчетава отлични резултати с производителност при извеждане, с по-добри резултати в сравнение с ERNIE Lite, подходящ за използване с AI ускорителни карти с ниска изчислителна мощ."
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "Най-новият модел на Baidu за големи езикови модели с висока производителност, разработен самостоятелно, с отлични общи способности, подходящ за основен модел за фина настройка, за по-добро справяне с конкретни проблеми, като същевременно предлага отлична производителност при извеждане."
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "Най-новият модел на Baidu за големи езикови модели с висока производителност, разработен самостоятелно, с отлични общи способности, по-добри резултати в сравнение с ERNIE Speed, подходящ за основен модел за фина настройка, за по-добро справяне с конкретни проблеми, като същевременно предлага отлична производителност при извеждане."
67
+ },
35
68
  "Gryphe/MythoMax-L2-13b": {
36
69
  "description": "MythoMax-L2 (13B) е иновативен модел, подходящ за приложения в множество области и сложни задачи."
37
70
  },
@@ -401,6 +434,9 @@
401
434
  "glm-4-flash": {
402
435
  "description": "GLM-4-Flash е идеалният избор за обработка на прости задачи, с най-бърза скорост и най-добра цена."
403
436
  },
437
+ "glm-4-flashx": {
438
+ "description": "GLM-4-FlashX е подобрена версия на Flash с изключително бърза скорост на извеждане."
439
+ },
404
440
  "glm-4-long": {
405
441
  "description": "GLM-4-Long поддържа извеждане на много дълги текстове, подходящ за задачи, свързани с памет и обработка на големи документи."
406
442
  },
@@ -413,11 +449,11 @@
413
449
  "glm-4v-plus": {
414
450
  "description": "GLM-4V-Plus разполага с разбиране на видео съдържание и множество изображения, подходящ за мултимодални задачи."
415
451
  },
416
- "google/gemini-flash-1.5-exp": {
417
- "description": "Gemini 1.5 Flash 0827 предлага оптимизирани мултимодални обработващи способности, подходящи за различни сложни задачи."
452
+ "google/gemini-flash-1.5": {
453
+ "description": "Gemini 1.5 Flash предлага оптимизирани мултимодални обработващи способности, подходящи за различни сложни задачи."
418
454
  },
419
- "google/gemini-pro-1.5-exp": {
420
- "description": "Gemini 1.5 Pro 0827 комбинира най-новите оптимизационни технологии, предоставяйки по-ефективни способности за обработка на мултимодални данни."
455
+ "google/gemini-pro-1.5": {
456
+ "description": "Gemini 1.5 Pro комбинира най-новите оптимизационни технологии, предоставяйки по-ефективна обработка на мултимодални данни."
421
457
  },
422
458
  "google/gemma-2-27b-it": {
423
459
  "description": "Gemma 2 продължава концепцията за лекота и ефективност."
@@ -491,6 +527,33 @@
491
527
  "gryphe/mythomax-l2-13b": {
492
528
  "description": "MythoMax l2 13B е езиков модел, който комбинира креативност и интелигентност, обединявайки множество водещи модели."
493
529
  },
530
+ "hunyuan-code": {
531
+ "description": "Най-новият модел за генериране на код на HunYuan, обучен с 200B висококачествени данни за код, с шестмесечно обучение на данни за SFT с високо качество, увеличен контекстен прозорец до 8K, и водещи резултати в автоматичните оценъчни показатели за генериране на код на пет основни езика; в комплексната оценка на кодови задачи на пет основни езика, представянето е в първата група."
532
+ },
533
+ "hunyuan-functioncall": {
534
+ "description": "Най-новият модел на HunYuan с MOE архитектура за извикване на функции, обучен с висококачествени данни за извикване на функции, с контекстен прозорец от 32K, водещ в множество измерения на оценъчните показатели."
535
+ },
536
+ "hunyuan-lite": {
537
+ "description": "Актуализиран до MOE структура, контекстният прозорец е 256k, водещ в множество оценъчни набори в NLP, код, математика и индустрия, пред много от отворените модели."
538
+ },
539
+ "hunyuan-pro": {
540
+ "description": "Модел с параметри от триллион MOE-32K за дълги текстове. Постига абсолютни водещи нива в различни бенчмаркове, с комплексни инструкции и разсъждения, притежаващи сложни математически способности, поддържа функция за извикване, с акцент върху оптимизацията в области като многоезичен превод, финанси, право и медицина."
541
+ },
542
+ "hunyuan-role": {
543
+ "description": "Най-новият модел за ролеви игри на HunYuan, официално настроен и обучен от HunYuan, базиран на модела HunYuan и данни от набори за ролеви игри, с по-добри основни резултати в ролевите игри."
544
+ },
545
+ "hunyuan-standard": {
546
+ "description": "Използва по-добра стратегия за маршрутизиране, като същевременно облекчава проблемите с балансирането на натоварването и сближаването на експертите. За дълги текстове, показателят за откритие достига 99.9%. MOE-32K предлага по-добра цена-качество, балансирайки ефективността и цената, и позволява обработка на дълги текстови входове."
547
+ },
548
+ "hunyuan-standard-256K": {
549
+ "description": "Използва по-добра стратегия за маршрутизиране, като същевременно облекчава проблемите с балансирането на натоварването и сближаването на експертите. За дълги текстове, показателят за откритие достига 99.9%. MOE-256K прави допълнителен пробив в дължината и ефективността, значително разширявайки допустимата дължина на входа."
550
+ },
551
+ "hunyuan-turbo": {
552
+ "description": "Предварителна версия на новото поколение голям езиков модел на HunYuan, използваща нова структура на смесен експертен модел (MoE), с по-бърза скорост на извеждане и по-силни резултати в сравнение с hunyuan-pro."
553
+ },
554
+ "hunyuan-vision": {
555
+ "description": "Най-новият мултимодален модел на HunYuan, поддържащ генериране на текстово съдържание от изображения и текстови входове."
556
+ },
494
557
  "internlm/internlm2_5-20b-chat": {
495
558
  "description": "Иновативният отворен модел InternLM2.5 повишава интелигентността на диалога чрез голям брой параметри."
496
559
  },
@@ -634,6 +697,12 @@
634
697
  "meta-llama/llama-3.1-8b-instruct:free": {
635
698
  "description": "LLaMA 3.1 предлага поддръжка на множество езици и е един от водещите генеративни модели в индустрията."
636
699
  },
700
+ "meta-llama/llama-3.2-11b-vision-instruct": {
701
+ "description": "LLaMA 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси, преодолявайки пропастта между генерирането на език и визуалното разсъждение."
702
+ },
703
+ "meta-llama/llama-3.2-90b-vision-instruct": {
704
+ "description": "LLaMA 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси, преодолявайки пропастта между генерирането на език и визуалното разсъждение."
705
+ },
637
706
  "meta.llama3-1-405b-instruct-v1:0": {
638
707
  "description": "Meta Llama 3.1 405B Instruct е най-голямата и най-мощната версия на модела Llama 3.1 Instruct. Това е високо напреднал модел за диалогово разсъждение и генериране на синтетични данни, който може да се използва и като основа за професионално продължително предварително обучение или фино настройване в специфични области. Многоезичният голям езиков модел (LLMs), предоставен от Llama 3.1, е набор от предварително обучени, коригирани по инструкции генеративни модели, включително размери 8B, 70B и 405B (текстов вход/изход). Текстовите модели, коригирани по инструкции (8B, 70B, 405B), са оптимизирани за многоезични диалогови случаи и надминават много налични отворени чат модели в общи индустриални бенчмаркове. Llama 3.1 е проектиран за търговски и изследователски цели на множество езици. Моделите, коригирани по инструкции, са подходящи за чатове, подобни на асистенти, докато предварително обучените модели могат да се адаптират към различни задачи за генериране на естествен език. Моделите на Llama 3.1 също поддържат използването на изхода на модела за подобряване на други модели, включително генериране на синтетични данни и рафиниране. Llama 3.1 е саморегресивен езиков модел, използващ оптимизирана трансформаторна архитектура. Коригираните версии използват супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF), за да отговорят на предпочитанията на хората за полезност и безопасност."
639
708
  },
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Инженерният двигател LPU на Groq показва изключителни резултати в последните независими тестове на големи езикови модели (LLM), преосмисляйки стандартите за AI решения с невероятната си скорост и ефективност. Groq е представител на мигновен скорост на изводите, демонстрирайки добро представяне в облачни внедрения."
32
32
  },
33
+ "hunyuan": {
34
+ "description": "Модел на голям език, разработен от Tencent, който притежава мощни способности за създаване на текст на китайски, логическо разсъждение в сложни контексти и надеждни способности за изпълнение на задачи."
35
+ },
33
36
  "minimax": {
34
37
  "description": "MiniMax е компания за универсален изкуствен интелект, основана през 2021 г., която се стреми да създаде интелигентност заедно с потребителите. MiniMax е разработила различни универсални големи модели, включително текстови модели с трилйон параметри, модели за глас и модели за изображения. Също така е пуснала приложения като Conch AI."
35
38
  },
@@ -75,6 +78,9 @@
75
78
  "upstage": {
76
79
  "description": "Upstage се фокусира върху разработването на AI модели за различни бизнес нужди, включително Solar LLM и документен AI, с цел постигане на човешки универсален интелект (AGI). Създава прости диалогови агенти чрез Chat API и поддържа извикване на функции, превод, вграждане и специфични приложения."
77
80
  },
81
+ "wenxin": {
82
+ "description": "Платформа за разработка и услуги на корпоративно ниво, предлагаща цялостно решение за разработка на генеративни модели на изкуствен интелект и приложения, с най-пълния и лесен за използване инструментариум за целия процес на разработка на модели и приложения."
83
+ },
78
84
  "zeroone": {
79
85
  "description": "01.AI се фокусира върху технологии за изкуствен интелект от ерата на AI 2.0, активно насърчавайки иновации и приложения на \"човек + изкуствен интелект\", използвайки мощни модели и напреднали AI технологии за повишаване на производителността на човека и реализиране на технологично овластяване."
80
86
  },
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "Fehler bei der Serveranfrage des Plugins. Bitte überprüfen Sie die Fehlerinformationen unten in Ihrer Plugin-Beschreibungsdatei, Plugin-Konfiguration oder Serverimplementierung",
82
82
  "PluginSettingsInvalid": "Das Plugin muss korrekt konfiguriert werden, um verwendet werden zu können. Bitte überprüfen Sie Ihre Konfiguration auf Richtigkeit",
83
83
  "ProviderBizError": "Fehler bei der Anforderung des {{provider}}-Dienstes. Bitte überprüfen Sie die folgenden Informationen oder versuchen Sie es erneut.",
84
+ "QuotaLimitReached": "Es tut uns leid, die aktuelle Token-Nutzung oder die Anzahl der Anfragen hat das Kontingent (Quota) für diesen Schlüssel erreicht. Bitte erhöhen Sie das Kontingent für diesen Schlüssel oder versuchen Sie es später erneut.",
84
85
  "StreamChunkError": "Fehler beim Parsen des Nachrichtenchunks der Streaming-Anfrage. Bitte überprüfen Sie, ob die aktuelle API-Schnittstelle den Standards entspricht, oder wenden Sie sich an Ihren API-Anbieter.",
85
86
  "SubscriptionPlanLimit": "Ihr Abonnementkontingent wurde aufgebraucht und Sie können diese Funktion nicht nutzen. Bitte aktualisieren Sie auf ein höheres Abonnement oder kaufen Sie ein Ressourcenpaket, um fortzufahren.",
86
87
  "UnknownChatFetchError": "Es tut uns leid, es ist ein unbekannter Anforderungsfehler aufgetreten. Bitte überprüfen Sie die folgenden Informationen oder versuchen Sie es erneut."
@@ -112,6 +112,26 @@
112
112
  "title": "Download specified Ollama model"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "Geben Sie den Access Key der Baidu Qianfan-Plattform ein",
118
+ "placeholder": "Qianfan Access Key",
119
+ "title": "Access Key"
120
+ },
121
+ "checker": {
122
+ "desc": "Überprüfen Sie, ob der AccessKey / SecretAccess korrekt eingegeben wurde"
123
+ },
124
+ "secretKey": {
125
+ "desc": "Geben Sie den Secret Key der Baidu Qianfan-Plattform ein",
126
+ "placeholder": "Qianfan Secret Key",
127
+ "title": "Secret Key"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "Benutzerdefinierte Service-Region",
131
+ "description": "Geben Sie Ihren AccessKey / SecretKey ein, um die Sitzung zu starten. Die Anwendung speichert Ihre Authentifizierungseinstellungen nicht.",
132
+ "title": "Verwendung benutzerdefinierter Wenxin-Yiyan-Authentifizierungsinformationen"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI Alles und Nichts"
117
137
  },