@lobehub/chat 1.60.9 → 1.61.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (101) hide show
  1. package/CHANGELOG.md +58 -0
  2. package/changelog/v1.json +21 -0
  3. package/locales/ar/error.json +4 -1
  4. package/locales/ar/modelProvider.json +7 -0
  5. package/locales/ar/models.json +3 -12
  6. package/locales/ar/providers.json +3 -0
  7. package/locales/bg-BG/error.json +4 -1
  8. package/locales/bg-BG/modelProvider.json +7 -0
  9. package/locales/bg-BG/models.json +3 -12
  10. package/locales/bg-BG/providers.json +3 -0
  11. package/locales/de-DE/error.json +4 -1
  12. package/locales/de-DE/modelProvider.json +7 -0
  13. package/locales/de-DE/models.json +3 -12
  14. package/locales/de-DE/providers.json +3 -0
  15. package/locales/en-US/error.json +4 -1
  16. package/locales/en-US/modelProvider.json +7 -0
  17. package/locales/en-US/models.json +3 -12
  18. package/locales/en-US/providers.json +3 -0
  19. package/locales/es-ES/error.json +4 -1
  20. package/locales/es-ES/modelProvider.json +7 -0
  21. package/locales/es-ES/models.json +3 -12
  22. package/locales/es-ES/providers.json +3 -0
  23. package/locales/fa-IR/error.json +4 -1
  24. package/locales/fa-IR/modelProvider.json +7 -0
  25. package/locales/fa-IR/models.json +3 -12
  26. package/locales/fa-IR/providers.json +3 -0
  27. package/locales/fr-FR/error.json +4 -1
  28. package/locales/fr-FR/modelProvider.json +7 -0
  29. package/locales/fr-FR/models.json +3 -12
  30. package/locales/fr-FR/providers.json +3 -0
  31. package/locales/it-IT/error.json +4 -1
  32. package/locales/it-IT/modelProvider.json +7 -0
  33. package/locales/it-IT/models.json +3 -12
  34. package/locales/it-IT/providers.json +3 -0
  35. package/locales/ja-JP/error.json +4 -1
  36. package/locales/ja-JP/modelProvider.json +7 -0
  37. package/locales/ja-JP/models.json +3 -12
  38. package/locales/ja-JP/providers.json +3 -0
  39. package/locales/ko-KR/error.json +4 -1
  40. package/locales/ko-KR/modelProvider.json +7 -0
  41. package/locales/ko-KR/models.json +3 -12
  42. package/locales/ko-KR/providers.json +3 -0
  43. package/locales/nl-NL/error.json +4 -1
  44. package/locales/nl-NL/modelProvider.json +7 -0
  45. package/locales/nl-NL/models.json +3 -12
  46. package/locales/nl-NL/providers.json +3 -0
  47. package/locales/pl-PL/error.json +4 -1
  48. package/locales/pl-PL/modelProvider.json +7 -0
  49. package/locales/pl-PL/models.json +3 -12
  50. package/locales/pl-PL/providers.json +3 -0
  51. package/locales/pt-BR/error.json +4 -1
  52. package/locales/pt-BR/modelProvider.json +7 -0
  53. package/locales/pt-BR/models.json +3 -12
  54. package/locales/pt-BR/providers.json +3 -0
  55. package/locales/ru-RU/error.json +4 -1
  56. package/locales/ru-RU/modelProvider.json +7 -0
  57. package/locales/ru-RU/models.json +3 -12
  58. package/locales/ru-RU/providers.json +3 -0
  59. package/locales/tr-TR/error.json +4 -1
  60. package/locales/tr-TR/modelProvider.json +7 -0
  61. package/locales/tr-TR/models.json +3 -12
  62. package/locales/tr-TR/providers.json +3 -0
  63. package/locales/vi-VN/error.json +4 -1
  64. package/locales/vi-VN/modelProvider.json +7 -0
  65. package/locales/vi-VN/models.json +3 -12
  66. package/locales/vi-VN/providers.json +3 -0
  67. package/locales/zh-CN/error.json +5 -2
  68. package/locales/zh-CN/modelProvider.json +7 -0
  69. package/locales/zh-CN/models.json +3 -12
  70. package/locales/zh-CN/providers.json +3 -0
  71. package/locales/zh-TW/error.json +4 -1
  72. package/locales/zh-TW/modelProvider.json +7 -0
  73. package/locales/zh-TW/models.json +3 -12
  74. package/locales/zh-TW/providers.json +3 -0
  75. package/package.json +2 -1
  76. package/src/app/(backend)/middleware/auth/index.ts +14 -1
  77. package/src/app/(backend)/webapi/chat/vertexai/route.ts +35 -0
  78. package/src/app/[variants]/(main)/settings/provider/(detail)/huggingface/page.tsx +3 -3
  79. package/src/app/[variants]/(main)/settings/provider/(detail)/vertexai/page.tsx +67 -0
  80. package/src/config/aiModels/index.ts +3 -0
  81. package/src/config/aiModels/vertexai.ts +200 -0
  82. package/src/config/modelProviders/index.ts +3 -0
  83. package/src/config/modelProviders/vertexai.ts +22 -0
  84. package/src/database/client/db.ts +2 -1
  85. package/src/features/Conversation/Error/index.tsx +3 -5
  86. package/src/features/Conversation/Messages/User/MarkdownRender/ContentPreview.tsx +6 -0
  87. package/src/libs/agent-runtime/error.ts +5 -4
  88. package/src/libs/agent-runtime/google/index.ts +22 -4
  89. package/src/libs/agent-runtime/types/type.ts +1 -0
  90. package/src/libs/agent-runtime/utils/openaiCompatibleFactory/index.ts +22 -0
  91. package/src/libs/agent-runtime/utils/streams/vertex-ai.test.ts +236 -0
  92. package/src/libs/agent-runtime/utils/streams/vertex-ai.ts +75 -0
  93. package/src/libs/agent-runtime/vertexai/index.ts +23 -0
  94. package/src/locales/default/error.ts +5 -4
  95. package/src/locales/default/modelProvider.ts +7 -0
  96. package/src/types/fetch.ts +1 -0
  97. package/src/types/user/settings/keyVaults.ts +1 -0
  98. package/src/utils/errorResponse.test.ts +0 -12
  99. package/src/utils/errorResponse.ts +7 -2
  100. package/src/utils/safeParseJSON.ts +1 -1
  101. package/src/features/Conversation/Error/OpenAiBizError.tsx +0 -29
package/CHANGELOG.md CHANGED
@@ -2,6 +2,64 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.61.1](https://github.com/lobehub/lobe-chat/compare/v1.61.0...v1.61.1)
6
+
7
+ <sup>Released on **2025-02-18**</sup>
8
+
9
+ #### 💄 Styles
10
+
11
+ - **misc**: Improve serveral error code.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Styles
19
+
20
+ - **misc**: Improve serveral error code, closes [#6299](https://github.com/lobehub/lobe-chat/issues/6299) ([352cb90](https://github.com/lobehub/lobe-chat/commit/352cb90))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
30
+ ## [Version 1.61.0](https://github.com/lobehub/lobe-chat/compare/v1.60.9...v1.61.0)
31
+
32
+ <sup>Released on **2025-02-18**</sup>
33
+
34
+ #### ✨ Features
35
+
36
+ - **misc**: Support google vertex ai as a new provider.
37
+
38
+ #### 🐛 Bug Fixes
39
+
40
+ - **misc**: Try to fix pglite worker.
41
+
42
+ <br/>
43
+
44
+ <details>
45
+ <summary><kbd>Improvements and Fixes</kbd></summary>
46
+
47
+ #### What's improved
48
+
49
+ - **misc**: Support google vertex ai as a new provider, closes [#4487](https://github.com/lobehub/lobe-chat/issues/4487) ([a0a9592](https://github.com/lobehub/lobe-chat/commit/a0a9592))
50
+
51
+ #### What's fixed
52
+
53
+ - **misc**: Try to fix pglite worker, closes [#6169](https://github.com/lobehub/lobe-chat/issues/6169) ([b3f4f13](https://github.com/lobehub/lobe-chat/commit/b3f4f13))
54
+
55
+ </details>
56
+
57
+ <div align="right">
58
+
59
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
60
+
61
+ </div>
62
+
5
63
  ### [Version 1.60.9](https://github.com/lobehub/lobe-chat/compare/v1.60.8...v1.60.9)
6
64
 
7
65
  <sup>Released on **2025-02-18**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,25 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Improve serveral error code."
6
+ ]
7
+ },
8
+ "date": "2025-02-18",
9
+ "version": "1.61.1"
10
+ },
11
+ {
12
+ "children": {
13
+ "features": [
14
+ "Support google vertex ai as a new provider."
15
+ ],
16
+ "fixes": [
17
+ "Try to fix pglite worker."
18
+ ]
19
+ },
20
+ "date": "2025-02-18",
21
+ "version": "1.61.0"
22
+ },
2
23
  {
3
24
  "children": {},
4
25
  "date": "2025-02-18",
@@ -69,18 +69,20 @@
69
69
  "524": "عذرًا، انتهت مهلة الخادم أثناء الانتظار للرد، قد يكون ذلك بسبب بطء الاستجابة، يرجى المحاولة مرة أخرى لاحقًا",
70
70
  "AgentRuntimeError": "حدث خطأ في تشغيل نموذج Lobe اللغوي، يرجى التحقق من المعلومات التالية أو إعادة المحاولة",
71
71
  "ConnectionCheckFailed": "الاستجابة فارغة، يرجى التحقق من أن عنوان وكيل الـ API لا ينتهي بـ `/v1`",
72
+ "ExceededContextWindow": "المحتوى المطلوب الحالي يتجاوز الطول الذي يمكن للنموذج معالجته، يرجى تقليل كمية المحتوى ثم إعادة المحاولة",
72
73
  "FreePlanLimit": "أنت حاليًا مستخدم مجاني، لا يمكنك استخدام هذه الوظيفة، يرجى الترقية إلى خطة مدفوعة للمتابعة",
74
+ "InsufficientQuota": "عذرًا، لقد reached الحد الأقصى للحصة (quota) لهذه المفتاح، يرجى التحقق من رصيد الحساب الخاص بك أو زيادة حصة المفتاح ثم المحاولة مرة أخرى",
73
75
  "InvalidAccessCode": "كلمة المرور غير صحيحة أو فارغة، يرجى إدخال كلمة مرور الوصول الصحيحة أو إضافة مفتاح API مخصص",
74
76
  "InvalidBedrockCredentials": "فشلت مصادقة Bedrock، يرجى التحقق من AccessKeyId/SecretAccessKey وإعادة المحاولة",
75
77
  "InvalidClerkUser": "عذرًا، لم تقم بتسجيل الدخول بعد، يرجى تسجيل الدخول أو التسجيل للمتابعة",
76
78
  "InvalidGithubToken": "رمز وصول شخصية GitHub غير صحيح أو فارغ، يرجى التحقق من رمز وصول GitHub الشخصي والمحاولة مرة أخرى",
77
79
  "InvalidOllamaArgs": "تكوين Ollama غير صحيح، يرجى التحقق من تكوين Ollama وإعادة المحاولة",
78
80
  "InvalidProviderAPIKey": "{{provider}} مفتاح API غير صحيح أو فارغ، يرجى التحقق من مفتاح API {{provider}} الخاص بك وحاول مرة أخرى",
81
+ "InvalidVertexCredentials": "فشل التحقق من بيانات اعتماد Vertex، يرجى التحقق من بيانات الاعتماد وإعادة المحاولة",
79
82
  "LocationNotSupportError": "عذرًا، لا يدعم موقعك الحالي خدمة هذا النموذج، قد يكون ذلك بسبب قيود المنطقة أو عدم توفر الخدمة. يرجى التحقق مما إذا كان الموقع الحالي يدعم استخدام هذه الخدمة، أو محاولة استخدام معلومات الموقع الأخرى.",
80
83
  "NoOpenAIAPIKey": "مفتاح API الخاص بـ OpenAI فارغ، يرجى إضافة مفتاح API الخاص بـ OpenAI",
81
84
  "OllamaBizError": "خطأ في طلب خدمة Ollama، يرجى التحقق من المعلومات التالية أو إعادة المحاولة",
82
85
  "OllamaServiceUnavailable": "خدمة Ollama غير متوفرة، يرجى التحقق من تشغيل Ollama بشكل صحيح أو إعدادات الـ Ollama للاتصال عبر النطاقات",
83
- "OpenAIBizError": "طلب خدمة OpenAI خاطئ، يرجى التحقق من المعلومات التالية أو إعادة المحاولة",
84
86
  "PermissionDenied": "عذرًا، ليس لديك إذن للوصول إلى هذه الخدمة، يرجى التحقق مما إذا كانت مفاتيحك تمتلك إذن الوصول",
85
87
  "PluginApiNotFound": "عذرًا، لا يوجد API للإضافة في وصف الإضافة، يرجى التحقق من تطابق طريقة الطلب الخاصة بك مع API الوصف",
86
88
  "PluginApiParamsError": "عذرًا، فشلت التحقق من صحة معلمات الطلب للإضافة، يرجى التحقق من تطابق المعلمات مع معلومات الوصف",
@@ -99,6 +101,7 @@
99
101
  "QuotaLimitReached": "عذرًا، لقد reached الحد الأقصى من استخدام الرموز أو عدد الطلبات لهذا المفتاح. يرجى زيادة حصة هذا المفتاح أو المحاولة لاحقًا.",
100
102
  "StreamChunkError": "خطأ في تحليل كتلة الرسالة لطلب التدفق، يرجى التحقق مما إذا كانت واجهة برمجة التطبيقات الحالية تتوافق مع المعايير، أو الاتصال بمزود واجهة برمجة التطبيقات الخاصة بك للاستفسار.",
101
103
  "SubscriptionPlanLimit": "لقد استنفذت حصتك من الاشتراك، لا يمكنك استخدام هذه الوظيفة، يرجى الترقية إلى خطة أعلى أو شراء حزمة موارد للمتابعة",
104
+ "SystemTimeNotMatchError": "عذرًا، وقت النظام لديك لا يتطابق مع الخادم، يرجى التحقق من وقت النظام لديك ثم إعادة المحاولة",
102
105
  "UnknownChatFetchError": "عذرًا، حدث خطأ غير معروف في الطلب، يرجى التحقق من المعلومات التالية أو المحاولة مرة أخرى"
103
106
  },
104
107
  "stt": {
@@ -322,6 +322,13 @@
322
322
  "tooltip": "تحديث التكوين الأساسي للمزود",
323
323
  "updateSuccess": "تم التحديث بنجاح"
324
324
  },
325
+ "vertexai": {
326
+ "apiKey": {
327
+ "desc": "أدخل مفاتيح Vertex AI الخاصة بك",
328
+ "placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
329
+ "title": "مفاتيح Vertex AI"
330
+ }
331
+ },
325
332
  "zeroone": {
326
333
  "title": "01.AI الأشياء الصغرى"
327
334
  },
@@ -371,9 +371,6 @@
371
371
  "abab6.5t-chat": {
372
372
  "description": "محسن لمشاهد الحوار باللغة الصينية، يوفر قدرة توليد حوار سلس ومتوافق مع عادات التعبير الصينية."
373
373
  },
374
- "abab7-chat-preview": {
375
- "description": "تحسين كبير في قدرات النموذج مقارنة بسلسلة abab6.5 في النصوص الطويلة، الرياضيات، والكتابة."
376
- },
377
374
  "accounts/fireworks/models/deepseek-r1": {
378
375
  "description": "DeepSeek-R1 هو نموذج لغة كبير متقدم، تم تحسينه من خلال التعلم المعزز وبيانات البدء البارد، ويتميز بأداء ممتاز في الاستدلال، والرياضيات، والبرمجة."
379
376
  },
@@ -728,6 +725,9 @@
728
725
  "gemini-1.0-pro-latest": {
729
726
  "description": "Gemini 1.0 Pro هو نموذج ذكاء اصطناعي عالي الأداء من Google، مصمم للتوسع في مجموعة واسعة من المهام."
730
727
  },
728
+ "gemini-1.5-flash": {
729
+ "description": "جمني 1.5 فلاش هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط من جوجل، يتمتع بقدرة معالجة سريعة، ويدعم إدخال النصوص والصور والفيديو، مما يجعله مناسبًا للتوسع الفعال في مجموعة متنوعة من المهام."
730
+ },
731
731
  "gemini-1.5-flash-001": {
732
732
  "description": "Gemini 1.5 Flash 001 هو نموذج متعدد الوسائط فعال، يدعم التوسع في التطبيقات الواسعة."
733
733
  },
@@ -767,24 +767,15 @@
767
767
  "gemini-2.0-flash-001": {
768
768
  "description": "Gemini 2.0 Flash يقدم ميزات وتحسينات من الجيل التالي، بما في ذلك سرعة فائقة، واستخدام أدوات أصلية، وتوليد متعدد الوسائط، ونافذة سياق تصل إلى 1M توكن."
769
769
  },
770
- "gemini-2.0-flash-exp": {
771
- "description": "جيميناي 2.0 فلاش إكسب هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط من جوجل، يتمتع بميزات الجيل القادم، وسرعة فائقة، واستدعاء أدوات أصلية، وتوليد متعدد الوسائط."
772
- },
773
770
  "gemini-2.0-flash-lite-preview-02-05": {
774
771
  "description": "نموذج Gemini 2.0 Flash، تم تحسينه لأهداف التكلفة المنخفضة والكمون المنخفض."
775
772
  },
776
773
  "gemini-2.0-flash-thinking-exp-01-21": {
777
774
  "description": "Gemini 2.0 Flash Exp هو أحدث نموذج تجريبي متعدد الوسائط من Google، يتمتع بميزات الجيل التالي، وسرعة فائقة، واستدعاء أدوات أصلية، وتوليد متعدد الوسائط."
778
775
  },
779
- "gemini-2.0-flash-thinking-exp-1219": {
780
- "description": "Gemini 2.0 Flash Exp هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط التجريبي من Google، يتميز بخصائص الجيل التالي، وسرعة فائقة، واستدعاء أدوات أصلية، وتوليد متعدد الوسائط."
781
- },
782
776
  "gemini-2.0-pro-exp-02-05": {
783
777
  "description": "Gemini 2.0 Pro Experimental هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط التجريبي من Google، مع تحسينات ملحوظة في الجودة مقارنة بالإصدارات السابقة، خاصة في المعرفة العالمية، والبرمجة، والسياقات الطويلة."
784
778
  },
785
- "gemini-exp-1206": {
786
- "description": "جيميني إكسب 1206 هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط من جوجل، مع تحسينات في الجودة مقارنةً بالإصدارات السابقة."
787
- },
788
779
  "gemma-7b-it": {
789
780
  "description": "Gemma 7B مناسب لمعالجة المهام المتوسطة والصغيرة، ويجمع بين الكفاءة من حيث التكلفة."
790
781
  },
@@ -119,6 +119,9 @@
119
119
  "upstage": {
120
120
  "description": "تتخصص Upstage في تطوير نماذج الذكاء الاصطناعي لتلبية احتياجات الأعمال المتنوعة، بما في ذلك Solar LLM وDocument AI، بهدف تحقيق الذكاء الاصطناعي العام (AGI) القائم على العمل. من خلال واجهة Chat API، يمكن إنشاء وكلاء حوار بسيطين، وتدعم استدعاء الوظائف، والترجمة، والتضمين، وتطبيقات المجالات المحددة."
121
121
  },
122
+ "vertexai": {
123
+ "description": "سلسلة جيميني من جوجل هي نماذج الذكاء الاصطناعي الأكثر تقدمًا وعمومية، تم تطويرها بواسطة جوجل ديب مايند، مصممة خصيصًا لتكون متعددة الوسائط، تدعم الفهم والمعالجة السلسة للنصوص، الأكواد، الصور، الصوتيات، والفيديو. تناسب مجموعة متنوعة من البيئات، من مراكز البيانات إلى الأجهزة المحمولة، مما يعزز بشكل كبير كفاءة نماذج الذكاء الاصطناعي وتطبيقاتها الواسعة."
124
+ },
122
125
  "vllm": {
123
126
  "description": "vLLM هو مكتبة سريعة وسهلة الاستخدام لاستدلال LLM والخدمات."
124
127
  },
@@ -69,18 +69,20 @@
69
69
  "524": "Съжаляваме, сървърът изтече времето за изчакване при очакване на отговор, вероятно поради бавен отговор, моля, опитайте отново по-късно",
70
70
  "AgentRuntimeError": "Грешка при изпълнение на времето за изпълнение на езиковия модел Lobe. Моля, отстранете неизправностите или опитайте отново въз основа на следната информация.",
71
71
  "ConnectionCheckFailed": "Заявката върна празен отговор. Моля, проверете дали адресът на API проксито не завършва с `/v1`.",
72
+ "ExceededContextWindow": "Текущото съдържание на заявката надвишава дължината, която моделът може да обработи. Моля, намалете обема на съдържанието и опитайте отново.",
72
73
  "FreePlanLimit": "В момента сте потребител на безплатен план и не можете да използвате тази функционалност. Моля, надстройте до платен план, за да продължите да я използвате.",
74
+ "InsufficientQuota": "Съжаляваме, квотата за този ключ е достигнала лимита. Моля, проверете баланса на акаунта си или увеличете квотата на ключа и опитайте отново.",
73
75
  "InvalidAccessCode": "Невалиден или празен код за достъп. Моля, въведете правилния код за достъп или добавете персонализиран API ключ.",
74
76
  "InvalidBedrockCredentials": "Удостоверяването на Bedrock е неуспешно. Моля, проверете AccessKeyId/SecretAccessKey и опитайте отново.",
75
77
  "InvalidClerkUser": "很抱歉,你当前尚未登录,请先登录或注册账号后继续操作",
76
78
  "InvalidGithubToken": "GitHub Личният Достъпен Токен е неправилен или е празен. Моля, проверете Личния Достъпен Токен на GitHub и опитайте отново.",
77
79
  "InvalidOllamaArgs": "Невалидна конфигурация на Ollama, моля, проверете конфигурацията на Ollama и опитайте отново",
78
80
  "InvalidProviderAPIKey": "{{provider}} API ключ е невалиден или липсва, моля проверете {{provider}} API ключа и опитайте отново",
81
+ "InvalidVertexCredentials": "Аутентификация на Vertex не беше успешна, моля проверете удостоверението и опитайте отново",
79
82
  "LocationNotSupportError": "Съжаляваме, вашето текущо местоположение не поддържа тази услуга на модела. Това може да се дължи на регионални ограничения или на недостъпност на услугата. Моля, потвърдете дали текущото местоположение поддържа използването на тази услуга или опитайте да използвате друго местоположение.",
80
83
  "NoOpenAIAPIKey": "API ключът на OpenAI е празен, моля, добавете персонализиран API ключ на OpenAI",
81
84
  "OllamaBizError": "Грешка при заявка към услугата Ollama, моля, отстранете неизправностите или опитайте отново въз основа на следната информация",
82
85
  "OllamaServiceUnavailable": "Услугата Ollama не е налична. Моля, проверете дали Ollama работи правилно или дали е конфигуриран коректно за междудомейност.",
83
- "OpenAIBizError": "Грешка в услугата на OpenAI, моля проверете следната информация или опитайте отново",
84
86
  "PermissionDenied": "Съжаляваме, нямате разрешение да достъпвате тази услуга. Моля, проверете дали вашият ключ има необходимите права за достъп.",
85
87
  "PluginApiNotFound": "Съжаляваме, API не съществува в манифеста на плъгина. Моля, проверете дали методът на вашата заявка съвпада с API на манифеста на плъгина",
86
88
  "PluginApiParamsError": "Съжаляваме, проверката на входния параметър за заявката на плъгина е неуспешна. Моля, проверете дали входните параметри съвпадат с описанието на API",
@@ -99,6 +101,7 @@
99
101
  "QuotaLimitReached": "Съжаляваме, но текущото използване на токени или брой на заявките е достигнало лимита на квотата за този ключ. Моля, увеличете квотата на ключа или опитайте отново по-късно.",
100
102
  "StreamChunkError": "Грешка при парсирането на съобщение от потокова заявка. Моля, проверете дали текущият API интерфейс отговаря на стандартите или се свържете с вашия доставчик на API за консултация.",
101
103
  "SubscriptionPlanLimit": "Изчерпали сте вашия абонаментен лимит и не можете да използвате тази функционалност. Моля, надстройте до по-висок план или закупете допълнителни ресурси, за да продължите да я използвате.",
104
+ "SystemTimeNotMatchError": "Съжаляваме, вашето системно време не съвпада с времето на сървъра. Моля, проверете системното си време и опитайте отново.",
102
105
  "UnknownChatFetchError": "Съжаляваме, възникна неизвестна грешка при заявката. Моля, проверете информацията по-долу или опитайте отново."
103
106
  },
104
107
  "stt": {
@@ -322,6 +322,13 @@
322
322
  "tooltip": "Актуализиране на основната конфигурация на доставчика",
323
323
  "updateSuccess": "Актуализацията е успешна"
324
324
  },
325
+ "vertexai": {
326
+ "apiKey": {
327
+ "desc": "Въведете вашите ключове за Vertex AI",
328
+ "placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
329
+ "title": "Ключове за Vertex AI"
330
+ }
331
+ },
325
332
  "zeroone": {
326
333
  "title": "01.AI Зероуан Всичко"
327
334
  },
@@ -371,9 +371,6 @@
371
371
  "abab6.5t-chat": {
372
372
  "description": "Оптимизирана за диалогови сценарии на китайски, предлагаща плавно и съответстващо на китайските изразни навици генериране на диалози."
373
373
  },
374
- "abab7-chat-preview": {
375
- "description": "В сравнение с моделите от серията abab6.5, този модел предлага значително подобрение в способностите за работа с дълги текстове, математика и писане."
376
- },
377
374
  "accounts/fireworks/models/deepseek-r1": {
378
375
  "description": "DeepSeek-R1 е авангарден голям езиков модел, оптимизиран чрез подсилено обучение и данни за студен старт, с отлични способности в разсъжденията, математиката и програмирането."
379
376
  },
@@ -728,6 +725,9 @@
728
725
  "gemini-1.0-pro-latest": {
729
726
  "description": "Gemini 1.0 Pro е високопроизводителен AI модел на Google, проектиран за разширяване на широк спектър от задачи."
730
727
  },
728
+ "gemini-1.5-flash": {
729
+ "description": "Gemini 1.5 Flash е най-новият мултимодален AI модел на Google, който предлага бърза обработка и поддържа текстови, изображенчески и видео входове, подходящ за ефективно разширяване на различни задачи."
730
+ },
731
731
  "gemini-1.5-flash-001": {
732
732
  "description": "Gemini 1.5 Flash 001 е ефективен многомодален модел, който поддържа разширяване на широк спектър от приложения."
733
733
  },
@@ -767,24 +767,15 @@
767
767
  "gemini-2.0-flash-001": {
768
768
  "description": "Gemini 2.0 Flash предлага следващо поколение функции и подобрения, включително изключителна скорост, нативна употреба на инструменти, многомодално генериране и контекстен прозорец от 1M токена."
769
769
  },
770
- "gemini-2.0-flash-exp": {
771
- "description": "Gemini 2.0 Flash Exp е най-новият експериментален мултимодален AI модел на Google, предлагащ следващо поколение функции, изключителна скорост, нативно извикване на инструменти и мултимодално генериране."
772
- },
773
770
  "gemini-2.0-flash-lite-preview-02-05": {
774
771
  "description": "Модел на Gemini 2.0 Flash, оптимизиран за икономичност и ниска латентност."
775
772
  },
776
773
  "gemini-2.0-flash-thinking-exp-01-21": {
777
774
  "description": "Gemini 2.0 Flash Exp е най-новият експериментален многомодален AI модел на Google, с ново поколение функции, изключителна скорост, нативно извикване на инструменти и многомодално генериране."
778
775
  },
779
- "gemini-2.0-flash-thinking-exp-1219": {
780
- "description": "Gemini 2.0 Flash Exp е най-новият експериментален мултимодален AI модел на Google, с ново поколение функции, изключителна скорост, нативни инструменти за извикване и мултимодално генериране."
781
- },
782
776
  "gemini-2.0-pro-exp-02-05": {
783
777
  "description": "Gemini 2.0 Pro Experimental е най-новият експериментален многомодален AI модел на Google, който предлага значително подобрение в качеството в сравнение с предишните версии, особено по отношение на световни знания, код и дълги контексти."
784
778
  },
785
- "gemini-exp-1206": {
786
- "description": "Gemini Exp 1206 е най-новият експериментален мултимодален AI модел на Google, който предлага значително подобрение в качеството в сравнение с предишни версии."
787
- },
788
779
  "gemma-7b-it": {
789
780
  "description": "Gemma 7B е подходяща за обработка на средни и малки задачи, съчетаваща икономичност."
790
781
  },
@@ -119,6 +119,9 @@
119
119
  "upstage": {
120
120
  "description": "Upstage се фокусира върху разработването на AI модели за различни бизнес нужди, включително Solar LLM и документен AI, с цел постигане на човешки универсален интелект (AGI). Създава прости диалогови агенти чрез Chat API и поддържа извикване на функции, превод, вграждане и специфични приложения."
121
121
  },
122
+ "vertexai": {
123
+ "description": "Серията Gemini на Google е най-напредналият и универсален AI модел, създаден от Google DeepMind, проектиран за мултимодалност, който поддържа безпроблемно разбиране и обработка на текст, код, изображения, аудио и видео. Подходящ за различни среди, от центрове за данни до мобилни устройства, значително увеличава ефективността и приложимостта на AI моделите."
124
+ },
122
125
  "vllm": {
123
126
  "description": "vLLM е бърза и лесна за използване библиотека за LLM инференция и услуги."
124
127
  },
@@ -69,18 +69,20 @@
69
69
  "524": "Es tut uns leid, der Server hat beim Warten auf eine Antwort die Zeit überschritten, möglicherweise aufgrund einer zu langsamen Antwort. Bitte versuchen Sie es später erneut.",
70
70
  "AgentRuntimeError": "Es ist ein Fehler bei der Ausführung des Lobe-Sprachmodells aufgetreten. Bitte überprüfen Sie die folgenden Informationen oder versuchen Sie es erneut.",
71
71
  "ConnectionCheckFailed": "Die Anfrage brachte eine leere Antwort zurück. Bitte überprüfen Sie, ob die API-Proxy-Adresse am Ende nicht mit `/v1` endet.",
72
+ "ExceededContextWindow": "Der aktuelle Anfrageinhalt überschreitet die von dem Modell verarbeitbare Länge. Bitte reduzieren Sie die Menge des Inhalts und versuchen Sie es erneut.",
72
73
  "FreePlanLimit": "Sie sind derzeit ein kostenloser Benutzer und können diese Funktion nicht nutzen. Bitte aktualisieren Sie auf ein kostenpflichtiges Abonnement, um fortzufahren.",
74
+ "InsufficientQuota": "Es tut uns leid, das Kontingent (Quota) für diesen Schlüssel ist erreicht. Bitte überprüfen Sie Ihr Kontoguthaben oder erhöhen Sie das Kontingent des Schlüssels und versuchen Sie es erneut.",
73
75
  "InvalidAccessCode": "Das Passwort ist ungültig oder leer. Bitte geben Sie das richtige Zugangspasswort ein oder fügen Sie einen benutzerdefinierten API-Schlüssel hinzu.",
74
76
  "InvalidBedrockCredentials": "Die Bedrock-Authentifizierung ist fehlgeschlagen. Bitte überprüfen Sie AccessKeyId/SecretAccessKey und versuchen Sie es erneut.",
75
77
  "InvalidClerkUser": "Entschuldigung, du bist derzeit nicht angemeldet. Bitte melde dich an oder registriere ein Konto, um fortzufahren.",
76
78
  "InvalidGithubToken": "Der persönliche Zugriffstoken für Github ist ungültig oder leer. Bitte überprüfen Sie den persönlichen Zugriffstoken für Github und versuchen Sie es erneut.",
77
79
  "InvalidOllamaArgs": "Ollama-Konfiguration ist ungültig. Bitte überprüfen Sie die Ollama-Konfiguration und versuchen Sie es erneut.",
78
80
  "InvalidProviderAPIKey": "{{provider}} API-Schlüssel ist ungültig oder leer. Bitte überprüfen Sie den {{provider}} API-Schlüssel und versuchen Sie es erneut.",
81
+ "InvalidVertexCredentials": "Die Vertex-Authentifizierung ist fehlgeschlagen. Bitte überprüfen Sie Ihre Authentifizierungsdaten und versuchen Sie es erneut.",
79
82
  "LocationNotSupportError": "Entschuldigung, Ihr Standort unterstützt diesen Modellservice möglicherweise aufgrund von regionalen Einschränkungen oder nicht aktivierten Diensten nicht. Bitte überprüfen Sie, ob der aktuelle Standort die Verwendung dieses Dienstes unterstützt, oder versuchen Sie, andere Standortinformationen zu verwenden.",
80
83
  "NoOpenAIAPIKey": "Der OpenAI-API-Schlüssel ist leer. Bitte fügen Sie einen benutzerdefinierten OpenAI-API-Schlüssel hinzu",
81
84
  "OllamaBizError": "Fehler bei der Anforderung des Ollama-Dienstes. Bitte überprüfen Sie die folgenden Informationen oder versuchen Sie es erneut.",
82
85
  "OllamaServiceUnavailable": "Der Ollama-Dienst ist nicht verfügbar. Bitte überprüfen Sie, ob Ollama ordnungsgemäß ausgeführt wird und ob die CORS-Konfiguration von Ollama korrekt ist.",
83
- "OpenAIBizError": "Fehler bei der Anforderung des OpenAI-Dienstes. Bitte überprüfen Sie die folgenden Informationen oder versuchen Sie es erneut.",
84
86
  "PermissionDenied": "Es tut uns leid, Sie haben keine Berechtigung, auf diesen Dienst zuzugreifen. Bitte überprüfen Sie, ob Ihr Schlüssel die erforderlichen Zugriffsrechte hat.",
85
87
  "PluginApiNotFound": "Entschuldigung, das API des Plugins im Plugin-Manifest existiert nicht. Bitte überprüfen Sie, ob Ihre Anfragemethode mit dem Plugin-Manifest-API übereinstimmt",
86
88
  "PluginApiParamsError": "Entschuldigung, die Eingabeüberprüfung der Plugin-Anfrage ist fehlgeschlagen. Bitte überprüfen Sie, ob die Eingabe mit den API-Beschreibungsinformationen übereinstimmt",
@@ -99,6 +101,7 @@
99
101
  "QuotaLimitReached": "Es tut uns leid, die aktuelle Token-Nutzung oder die Anzahl der Anfragen hat das Kontingent (Quota) für diesen Schlüssel erreicht. Bitte erhöhen Sie das Kontingent für diesen Schlüssel oder versuchen Sie es später erneut.",
100
102
  "StreamChunkError": "Fehler beim Parsen des Nachrichtenchunks der Streaming-Anfrage. Bitte überprüfen Sie, ob die aktuelle API-Schnittstelle den Standards entspricht, oder wenden Sie sich an Ihren API-Anbieter.",
101
103
  "SubscriptionPlanLimit": "Ihr Abonnementkontingent wurde aufgebraucht und Sie können diese Funktion nicht nutzen. Bitte aktualisieren Sie auf ein höheres Abonnement oder kaufen Sie ein Ressourcenpaket, um fortzufahren.",
104
+ "SystemTimeNotMatchError": "Es tut uns leid, Ihre Systemzeit stimmt nicht mit dem Server überein. Bitte überprüfen Sie Ihre Systemzeit und versuchen Sie es erneut.",
102
105
  "UnknownChatFetchError": "Es tut uns leid, es ist ein unbekannter Anforderungsfehler aufgetreten. Bitte überprüfen Sie die folgenden Informationen oder versuchen Sie es erneut."
103
106
  },
104
107
  "stt": {
@@ -322,6 +322,13 @@
322
322
  "tooltip": "Aktualisieren Sie die grundlegenden Anbieterinformationen",
323
323
  "updateSuccess": "Aktualisierung erfolgreich"
324
324
  },
325
+ "vertexai": {
326
+ "apiKey": {
327
+ "desc": "Geben Sie Ihre Vertex AI-Schlüssel ein",
328
+ "placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
329
+ "title": "Vertex AI-Schlüssel"
330
+ }
331
+ },
325
332
  "zeroone": {
326
333
  "title": "01.AI Alles und Nichts"
327
334
  },
@@ -371,9 +371,6 @@
371
371
  "abab6.5t-chat": {
372
372
  "description": "Für chinesische Charakterdialoge optimiert, bietet es flüssige und den chinesischen Ausdrucksgewohnheiten entsprechende Dialoggenerierung."
373
373
  },
374
- "abab7-chat-preview": {
375
- "description": "Im Vergleich zur abab6.5-Modellreihe gibt es erhebliche Verbesserungen in den Fähigkeiten bei langen Texten, Mathematik und Schreiben."
376
- },
377
374
  "accounts/fireworks/models/deepseek-r1": {
378
375
  "description": "DeepSeek-R1 ist ein hochmodernes großes Sprachmodell, das durch verstärktes Lernen und Optimierung mit Kaltstartdaten hervorragende Leistungen in Inferenz, Mathematik und Programmierung bietet."
379
376
  },
@@ -728,6 +725,9 @@
728
725
  "gemini-1.0-pro-latest": {
729
726
  "description": "Gemini 1.0 Pro ist Googles leistungsstarkes KI-Modell, das für die Skalierung einer Vielzahl von Aufgaben konzipiert ist."
730
727
  },
728
+ "gemini-1.5-flash": {
729
+ "description": "Gemini 1.5 Flash ist Googles neuestes multimodales KI-Modell, das über eine schnelle Verarbeitungskapazität verfügt und Texte, Bilder und Videoeingaben unterstützt, um eine effiziente Skalierung für verschiedene Aufgaben zu ermöglichen."
730
+ },
731
731
  "gemini-1.5-flash-001": {
732
732
  "description": "Gemini 1.5 Flash 001 ist ein effizientes multimodales Modell, das eine breite Anwendbarkeit unterstützt."
733
733
  },
@@ -767,24 +767,15 @@
767
767
  "gemini-2.0-flash-001": {
768
768
  "description": "Gemini 2.0 Flash bietet nächste Generation Funktionen und Verbesserungen, einschließlich außergewöhnlicher Geschwindigkeit, nativer Werkzeugnutzung, multimodaler Generierung und einem Kontextfenster von 1M Tokens."
769
769
  },
770
- "gemini-2.0-flash-exp": {
771
- "description": "Gemini 2.0 Flash Exp ist Googles neuestes experimentelles multimodales KI-Modell mit Next-Gen-Funktionen, herausragender Geschwindigkeit, nativer Werkzeuganwendung und multimodaler Generierung."
772
- },
773
770
  "gemini-2.0-flash-lite-preview-02-05": {
774
771
  "description": "Ein Gemini 2.0 Flash Modell, das auf Kosteneffizienz und niedrige Latenz optimiert wurde."
775
772
  },
776
773
  "gemini-2.0-flash-thinking-exp-01-21": {
777
774
  "description": "Gemini 2.0 Flash Exp ist Googles neuestes experimentelles multimodales KI-Modell mit der nächsten Generation von Funktionen, außergewöhnlicher Geschwindigkeit, nativer Tool-Nutzung und multimodaler Generierung."
778
775
  },
779
- "gemini-2.0-flash-thinking-exp-1219": {
780
- "description": "Gemini 2.0 Flash Exp ist Googles neuestes experimentelles multimodales KI-Modell mit der nächsten Generation von Funktionen, außergewöhnlicher Geschwindigkeit, nativen Toolaufrufen und multimodaler Generierung."
781
- },
782
776
  "gemini-2.0-pro-exp-02-05": {
783
777
  "description": "Gemini 2.0 Pro Experimental ist Googles neuestes experimentelles multimodales KI-Modell, das im Vergleich zu früheren Versionen eine gewisse Qualitätsverbesserung aufweist, insbesondere in Bezug auf Weltwissen, Code und lange Kontexte."
784
778
  },
785
- "gemini-exp-1206": {
786
- "description": "Gemini Exp 1206 ist Googles neuestes experimentelles multimodales KI-Modell, das im Vergleich zu historischen Versionen eine gewisse Qualitätssteigerung aufweist."
787
- },
788
779
  "gemma-7b-it": {
789
780
  "description": "Gemma 7B eignet sich für die Verarbeitung von mittelgroßen Aufgaben und bietet ein gutes Kosten-Nutzen-Verhältnis."
790
781
  },
@@ -119,6 +119,9 @@
119
119
  "upstage": {
120
120
  "description": "Upstage konzentriert sich auf die Entwicklung von KI-Modellen für verschiedene geschäftliche Anforderungen, einschließlich Solar LLM und Dokumenten-KI, mit dem Ziel, künstliche allgemeine Intelligenz (AGI) zu erreichen. Es ermöglicht die Erstellung einfacher Dialogagenten über die Chat-API und unterstützt Funktionsaufrufe, Übersetzungen, Einbettungen und spezifische Anwendungsbereiche."
121
121
  },
122
+ "vertexai": {
123
+ "description": "Die Gemini-Serie von Google ist das fortschrittlichste, universelle KI-Modell, das von Google DeepMind entwickelt wurde. Es ist speziell für multimodale Anwendungen konzipiert und unterstützt das nahtlose Verständnis und die Verarbeitung von Text, Code, Bildern, Audio und Video. Es eignet sich für eine Vielzahl von Umgebungen, von Rechenzentren bis hin zu mobilen Geräten, und verbessert erheblich die Effizienz und Anwendbarkeit von KI-Modellen."
124
+ },
122
125
  "vllm": {
123
126
  "description": "vLLM ist eine schnelle und benutzerfreundliche Bibliothek für LLM-Inferenz und -Dienste."
124
127
  },
@@ -69,18 +69,20 @@
69
69
  "524": "Sorry, the server timed out while waiting for a response, possibly due to a slow reply. Please try again later.",
70
70
  "AgentRuntimeError": "Lobe language model runtime execution error. Please troubleshoot or retry based on the following information.",
71
71
  "ConnectionCheckFailed": "The request returned empty. Please check if the API proxy address does not end with `/v1`.",
72
+ "ExceededContextWindow": "The current request content exceeds the length that the model can handle. Please reduce the amount of content and try again.",
72
73
  "FreePlanLimit": "You are currently a free user and cannot use this feature. Please upgrade to a paid plan to continue using it.",
74
+ "InsufficientQuota": "Sorry, the quota for this key has been reached. Please check your account balance or increase the key quota and try again.",
73
75
  "InvalidAccessCode": "Invalid access code or empty. Please enter the correct access code or add a custom API Key.",
74
76
  "InvalidBedrockCredentials": "Bedrock authentication failed. Please check the AccessKeyId/SecretAccessKey and retry.",
75
77
  "InvalidClerkUser": "Sorry, you are not currently logged in. Please log in or register an account to continue.",
76
78
  "InvalidGithubToken": "The GitHub Personal Access Token is incorrect or empty. Please check your GitHub Personal Access Token and try again.",
77
79
  "InvalidOllamaArgs": "Invalid Ollama configuration, please check Ollama configuration and try again",
78
80
  "InvalidProviderAPIKey": "{{provider}} API Key is incorrect or empty, please check your {{provider}} API Key and try again",
81
+ "InvalidVertexCredentials": "Vertex authentication failed. Please check your credentials and try again.",
79
82
  "LocationNotSupportError": "We're sorry, your current location does not support this model service. This may be due to regional restrictions or the service not being available. Please confirm if the current location supports using this service, or try using a different location.",
80
83
  "NoOpenAIAPIKey": "OpenAI API Key is empty, please add a custom OpenAI API Key",
81
84
  "OllamaBizError": "Error requesting Ollama service, please troubleshoot or retry based on the following information",
82
85
  "OllamaServiceUnavailable": "Ollama service is unavailable. Please check if Ollama is running properly or if the cross-origin configuration of Ollama is set correctly.",
83
- "OpenAIBizError": "Error requesting OpenAI service, please troubleshoot or retry based on the following information",
84
86
  "PermissionDenied": "Sorry, you do not have permission to access this service. Please check if your key has the necessary access rights.",
85
87
  "PluginApiNotFound": "Sorry, the API does not exist in the plugin's manifest. Please check if your request method matches the plugin manifest API",
86
88
  "PluginApiParamsError": "Sorry, the input parameter validation for the plugin request failed. Please check if the input parameters match the API description",
@@ -99,6 +101,7 @@
99
101
  "QuotaLimitReached": "We apologize, but the current token usage or number of requests has reached the quota limit for this key. Please increase the quota for this key or try again later.",
100
102
  "StreamChunkError": "Error parsing the message chunk of the streaming request. Please check if the current API interface complies with the standard specifications, or contact your API provider for assistance.",
101
103
  "SubscriptionPlanLimit": "Your subscription limit has been reached, and you cannot use this feature. Please upgrade to a higher plan or purchase a resource pack to continue using it.",
104
+ "SystemTimeNotMatchError": "Sorry, your system time does not match the server. Please check your system time and try again.",
102
105
  "UnknownChatFetchError": "Sorry, an unknown request error occurred. Please check the information below or try again."
103
106
  },
104
107
  "stt": {
@@ -322,6 +322,13 @@
322
322
  "tooltip": "Update provider basic configuration",
323
323
  "updateSuccess": "Update successful"
324
324
  },
325
+ "vertexai": {
326
+ "apiKey": {
327
+ "desc": "Enter your Vertex AI Keys",
328
+ "placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
329
+ "title": "Vertex AI Keys"
330
+ }
331
+ },
325
332
  "zeroone": {
326
333
  "title": "01.AI Zero One Everything"
327
334
  },
@@ -371,9 +371,6 @@
371
371
  "abab6.5t-chat": {
372
372
  "description": "Optimized for Chinese persona dialogue scenarios, providing smooth dialogue generation that aligns with Chinese expression habits."
373
373
  },
374
- "abab7-chat-preview": {
375
- "description": "Significant improvements in capabilities such as long text, mathematics, and writing compared to the abab6.5 series models."
376
- },
377
374
  "accounts/fireworks/models/deepseek-r1": {
378
375
  "description": "DeepSeek-R1 is a state-of-the-art large language model optimized through reinforcement learning and cold-start data, excelling in reasoning, mathematics, and programming performance."
379
376
  },
@@ -728,6 +725,9 @@
728
725
  "gemini-1.0-pro-latest": {
729
726
  "description": "Gemini 1.0 Pro is Google's high-performance AI model, designed for extensive task scaling."
730
727
  },
728
+ "gemini-1.5-flash": {
729
+ "description": "Gemini 1.5 Flash is Google's latest multimodal AI model, featuring rapid processing capabilities and supporting text, image, and video inputs, making it efficient for scaling across various tasks."
730
+ },
731
731
  "gemini-1.5-flash-001": {
732
732
  "description": "Gemini 1.5 Flash 001 is an efficient multimodal model that supports extensive application scaling."
733
733
  },
@@ -767,24 +767,15 @@
767
767
  "gemini-2.0-flash-001": {
768
768
  "description": "Gemini 2.0 Flash offers next-generation features and improvements, including exceptional speed, native tool usage, multimodal generation, and a 1M token context window."
769
769
  },
770
- "gemini-2.0-flash-exp": {
771
- "description": "Gemini 2.0 Flash Exp is Google's latest experimental multimodal AI model, featuring next-generation capabilities, exceptional speed, native tool integration, and multimodal generation."
772
- },
773
770
  "gemini-2.0-flash-lite-preview-02-05": {
774
771
  "description": "A Gemini 2.0 Flash model optimized for cost-effectiveness and low latency."
775
772
  },
776
773
  "gemini-2.0-flash-thinking-exp-01-21": {
777
774
  "description": "Gemini 2.0 Flash Exp is Google's latest experimental multimodal AI model, featuring next-generation capabilities, exceptional speed, native tool invocation, and multimodal generation."
778
775
  },
779
- "gemini-2.0-flash-thinking-exp-1219": {
780
- "description": "Gemini 2.0 Flash Exp is Google's latest experimental multimodal AI model, featuring next-generation capabilities, exceptional speed, native tool invocation, and multimodal generation."
781
- },
782
776
  "gemini-2.0-pro-exp-02-05": {
783
777
  "description": "Gemini 2.0 Pro Experimental is Google's latest experimental multimodal AI model, showing a quality improvement compared to previous versions, especially in world knowledge, coding, and long context."
784
778
  },
785
- "gemini-exp-1206": {
786
- "description": "Gemini Exp 1206 is Google's latest experimental multimodal AI model, offering significant quality improvements compared to previous versions."
787
- },
788
779
  "gemma-7b-it": {
789
780
  "description": "Gemma 7B is suitable for medium to small-scale task processing, offering cost-effectiveness."
790
781
  },
@@ -119,6 +119,9 @@
119
119
  "upstage": {
120
120
  "description": "Upstage focuses on developing AI models for various business needs, including Solar LLM and document AI, aiming to achieve artificial general intelligence (AGI) for work. It allows for the creation of simple conversational agents through Chat API and supports functional calling, translation, embedding, and domain-specific applications."
121
121
  },
122
+ "vertexai": {
123
+ "description": "Google's Gemini series is its most advanced and versatile AI model, developed by Google DeepMind. It is designed for multimodal use, supporting seamless understanding and processing of text, code, images, audio, and video. Suitable for a variety of environments, from data centers to mobile devices, it significantly enhances the efficiency and applicability of AI models."
124
+ },
122
125
  "vllm": {
123
126
  "description": "vLLM is a fast and easy-to-use library for LLM inference and serving."
124
127
  },
@@ -69,18 +69,20 @@
69
69
  "524": "Lo sentimos, el servidor ha agotado el tiempo de espera mientras esperaba una respuesta, puede ser debido a que la respuesta es demasiado lenta, por favor inténtelo de nuevo más tarde",
70
70
  "AgentRuntimeError": "Se produjo un error en la ejecución del tiempo de ejecución del modelo de lenguaje Lobe, por favor, verifica la siguiente información o inténtalo de nuevo",
71
71
  "ConnectionCheckFailed": "La respuesta de la solicitud está vacía, por favor verifica que la dirección del proxy de la API no termine con `/v1`",
72
+ "ExceededContextWindow": "El contenido de la solicitud actual excede la longitud que el modelo puede procesar. Por favor, reduzca la cantidad de contenido y vuelva a intentarlo.",
72
73
  "FreePlanLimit": "Actualmente eres un usuario gratuito y no puedes utilizar esta función. Por favor, actualiza a un plan de pago para seguir utilizando.",
74
+ "InsufficientQuota": "Lo sentimos, la cuota de esta clave ha alcanzado su límite. Por favor, verifique si el saldo de su cuenta es suficiente o aumente la cuota de la clave y vuelva a intentarlo.",
73
75
  "InvalidAccessCode": "La contraseña no es válida o está vacía. Por favor, introduce una contraseña de acceso válida o añade una clave API personalizada",
74
76
  "InvalidBedrockCredentials": "La autenticación de Bedrock no se ha completado con éxito, por favor, verifica AccessKeyId/SecretAccessKey e inténtalo de nuevo",
75
77
  "InvalidClerkUser": "Lo siento mucho, actualmente no has iniciado sesión. Por favor, inicia sesión o regístrate antes de continuar.",
76
78
  "InvalidGithubToken": "El token de acceso personal de Github es incorrecto o está vacío. Por favor, verifica el token de acceso personal de Github y vuelve a intentarlo.",
77
79
  "InvalidOllamaArgs": "La configuración de Ollama no es válida, por favor revisa la configuración de Ollama e inténtalo de nuevo",
78
80
  "InvalidProviderAPIKey": "{{provider}} API Key incorrecta o vacía, por favor revisa tu {{provider}} API Key e intenta de nuevo",
81
+ "InvalidVertexCredentials": "La autenticación de Vertex no se ha completado, por favor verifica las credenciales de autenticación y vuelve a intentarlo",
79
82
  "LocationNotSupportError": "Lo sentimos, tu ubicación actual no es compatible con este servicio de modelo, puede ser debido a restricciones geográficas o a que el servicio no está disponible. Por favor, verifica si tu ubicación actual es compatible con este servicio o intenta usar otra información de ubicación.",
80
83
  "NoOpenAIAPIKey": "La clave de API de OpenAI está vacía. Agregue una clave de API de OpenAI personalizada",
81
84
  "OllamaBizError": "Error al solicitar el servicio de Ollama, por favor verifica la siguiente información o inténtalo de nuevo",
82
85
  "OllamaServiceUnavailable": "El servicio Ollama no está disponible. Por favor, verifica si Ollama está funcionando correctamente o si la configuración de Ollama para el acceso entre dominios está configurada correctamente.",
83
- "OpenAIBizError": "Se produjo un error al solicitar el servicio de OpenAI, por favor, revise la siguiente información o inténtelo de nuevo",
84
86
  "PermissionDenied": "Lo sentimos, no tienes permiso para acceder a este servicio. Por favor, verifica si tu clave tiene los permisos necesarios.",
85
87
  "PluginApiNotFound": "Lo sentimos, el API especificado no existe en el manifiesto del complemento. Verifique si su método de solicitud coincide con el API del manifiesto del complemento",
86
88
  "PluginApiParamsError": "Lo sentimos, la validación de los parámetros de entrada de la solicitud del complemento no ha pasado. Verifique si los parámetros de entrada coinciden con la información de descripción del API",
@@ -99,6 +101,7 @@
99
101
  "QuotaLimitReached": "Lo sentimos, el uso actual de tokens o el número de solicitudes ha alcanzado el límite de cuota de esta clave. Por favor, aumenta la cuota de esta clave o intenta de nuevo más tarde.",
100
102
  "StreamChunkError": "Error de análisis del bloque de mensajes de la solicitud en streaming. Por favor, verifica si la API actual cumple con las normas estándar o contacta a tu proveedor de API para más información.",
101
103
  "SubscriptionPlanLimit": "Has alcanzado el límite de tu suscripción y no puedes utilizar esta función. Por favor, actualiza a un plan superior o compra un paquete de recursos para seguir utilizando.",
104
+ "SystemTimeNotMatchError": "Lo sentimos, la hora de su sistema no coincide con la del servidor. Por favor, verifique la hora de su sistema y vuelva a intentarlo.",
102
105
  "UnknownChatFetchError": "Lo sentimos, se ha producido un error desconocido en la solicitud. Por favor, verifica la información a continuación o intenta de nuevo."
103
106
  },
104
107
  "stt": {
@@ -322,6 +322,13 @@
322
322
  "tooltip": "Actualizar configuración básica del proveedor",
323
323
  "updateSuccess": "Actualización exitosa"
324
324
  },
325
+ "vertexai": {
326
+ "apiKey": {
327
+ "desc": "Introduce tus claves de Vertex AI",
328
+ "placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
329
+ "title": "Claves de Vertex AI"
330
+ }
331
+ },
325
332
  "zeroone": {
326
333
  "title": "01.AI Cero Uno Todo"
327
334
  },