@lobehub/chat 1.60.9 → 1.61.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/error.json +4 -1
- package/locales/ar/modelProvider.json +7 -0
- package/locales/ar/models.json +3 -12
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/error.json +4 -1
- package/locales/bg-BG/modelProvider.json +7 -0
- package/locales/bg-BG/models.json +3 -12
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/error.json +4 -1
- package/locales/de-DE/modelProvider.json +7 -0
- package/locales/de-DE/models.json +3 -12
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/error.json +4 -1
- package/locales/en-US/modelProvider.json +7 -0
- package/locales/en-US/models.json +3 -12
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/error.json +4 -1
- package/locales/es-ES/modelProvider.json +7 -0
- package/locales/es-ES/models.json +3 -12
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/error.json +4 -1
- package/locales/fa-IR/modelProvider.json +7 -0
- package/locales/fa-IR/models.json +3 -12
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/error.json +4 -1
- package/locales/fr-FR/modelProvider.json +7 -0
- package/locales/fr-FR/models.json +3 -12
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/error.json +4 -1
- package/locales/it-IT/modelProvider.json +7 -0
- package/locales/it-IT/models.json +3 -12
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/error.json +4 -1
- package/locales/ja-JP/modelProvider.json +7 -0
- package/locales/ja-JP/models.json +3 -12
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/error.json +4 -1
- package/locales/ko-KR/modelProvider.json +7 -0
- package/locales/ko-KR/models.json +3 -12
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/error.json +4 -1
- package/locales/nl-NL/modelProvider.json +7 -0
- package/locales/nl-NL/models.json +3 -12
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/error.json +4 -1
- package/locales/pl-PL/modelProvider.json +7 -0
- package/locales/pl-PL/models.json +3 -12
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/error.json +4 -1
- package/locales/pt-BR/modelProvider.json +7 -0
- package/locales/pt-BR/models.json +3 -12
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/error.json +4 -1
- package/locales/ru-RU/modelProvider.json +7 -0
- package/locales/ru-RU/models.json +3 -12
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/error.json +4 -1
- package/locales/tr-TR/modelProvider.json +7 -0
- package/locales/tr-TR/models.json +3 -12
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/error.json +4 -1
- package/locales/vi-VN/modelProvider.json +7 -0
- package/locales/vi-VN/models.json +3 -12
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/error.json +5 -2
- package/locales/zh-CN/modelProvider.json +7 -0
- package/locales/zh-CN/models.json +3 -12
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/error.json +4 -1
- package/locales/zh-TW/modelProvider.json +7 -0
- package/locales/zh-TW/models.json +3 -12
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +2 -1
- package/src/app/(backend)/middleware/auth/index.ts +14 -1
- package/src/app/(backend)/webapi/chat/vertexai/route.ts +35 -0
- package/src/app/[variants]/(main)/settings/provider/(detail)/huggingface/page.tsx +3 -3
- package/src/app/[variants]/(main)/settings/provider/(detail)/vertexai/page.tsx +67 -0
- package/src/config/aiModels/index.ts +3 -0
- package/src/config/aiModels/vertexai.ts +200 -0
- package/src/config/modelProviders/index.ts +3 -0
- package/src/config/modelProviders/vertexai.ts +22 -0
- package/src/database/client/db.ts +2 -1
- package/src/features/Conversation/Error/index.tsx +3 -5
- package/src/features/Conversation/Messages/User/MarkdownRender/ContentPreview.tsx +6 -0
- package/src/libs/agent-runtime/error.ts +5 -4
- package/src/libs/agent-runtime/google/index.ts +22 -4
- package/src/libs/agent-runtime/types/type.ts +1 -0
- package/src/libs/agent-runtime/utils/openaiCompatibleFactory/index.ts +22 -0
- package/src/libs/agent-runtime/utils/streams/vertex-ai.test.ts +236 -0
- package/src/libs/agent-runtime/utils/streams/vertex-ai.ts +75 -0
- package/src/libs/agent-runtime/vertexai/index.ts +23 -0
- package/src/locales/default/error.ts +5 -4
- package/src/locales/default/modelProvider.ts +7 -0
- package/src/types/fetch.ts +1 -0
- package/src/types/user/settings/keyVaults.ts +1 -0
- package/src/utils/errorResponse.test.ts +0 -12
- package/src/utils/errorResponse.ts +7 -2
- package/src/utils/safeParseJSON.ts +1 -1
- package/src/features/Conversation/Error/OpenAiBizError.tsx +0 -29
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "Optimizado para escenarios de diálogo de personajes en chino, ofrece capacidades de generación de diálogos fluidos y acordes con las expresiones chinas."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "En comparación con la serie de modelos abab6.5, ha habido una mejora significativa en habilidades como el manejo de textos largos, matemáticas y escritura."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 es un modelo de lenguaje grande de última generación, optimizado mediante aprendizaje por refuerzo y datos de arranque en frío, con un rendimiento excepcional en razonamiento, matemáticas y programación."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro es el modelo de IA de alto rendimiento de Google, diseñado para la escalabilidad en una amplia gama de tareas."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash es el último modelo de IA multimodal de Google, que cuenta con una capacidad de procesamiento rápido, admite entradas de texto, imágenes y videos, y es adecuado para la escalabilidad eficiente en diversas tareas."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001 es un modelo multimodal eficiente, que admite la escalabilidad para aplicaciones amplias."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash ofrece funciones y mejoras de próxima generación, incluyendo velocidad excepcional, uso de herramientas nativas, generación multimodal y una ventana de contexto de 1M tokens."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp es el último modelo experimental de inteligencia artificial multimodal de Google, que cuenta con características de próxima generación, velocidad superior, llamadas nativas a herramientas y generación multimodal."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "Un modelo Gemini 2.0 Flash optimizado para objetivos de costo-efectividad y baja latencia."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp es el último modelo experimental de IA multimodal de Google, con características de próxima generación, velocidad excepcional, llamadas nativas a herramientas y generación multimodal."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp es el último modelo de IA multimodal experimental de Google, que cuenta con características de próxima generación, velocidad excepcional, llamadas a herramientas nativas y generación multimodal."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental es el último modelo de IA multimodal experimental de Google, con mejoras de calidad en comparación con versiones anteriores, especialmente en conocimiento del mundo, código y contextos largos."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 es el último modelo de IA multimodal experimental de Google, con mejoras de calidad en comparación con versiones anteriores."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B es adecuado para el procesamiento de tareas de pequeña y mediana escala, combinando rentabilidad."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage se centra en desarrollar modelos de IA para diversas necesidades comerciales, incluidos Solar LLM y Document AI, con el objetivo de lograr una inteligencia general artificial (AGI) que trabaje para las personas. Crea agentes de diálogo simples a través de la API de Chat y admite llamadas de funciones, traducción, incrustaciones y aplicaciones de dominio específico."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "La serie Gemini de Google es su modelo de IA más avanzado y versátil, desarrollado por Google DeepMind, diseñado específicamente para ser multimodal, soportando la comprensión y procesamiento sin interrupciones de texto, código, imágenes, audio y video. Es adecuado para una variedad de entornos, desde centros de datos hasta dispositivos móviles, mejorando enormemente la eficiencia y la aplicabilidad de los modelos de IA."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM es una biblioteca rápida y fácil de usar para la inferencia y el servicio de LLM."
|
124
127
|
},
|
package/locales/fa-IR/error.json
CHANGED
@@ -69,18 +69,20 @@
|
|
69
69
|
"524": "متأسفیم، سرور در انتظار پاسخ زمانسنجی کرد، ممکن است به دلیل کندی پاسخ باشد، لطفاً بعداً دوباره تلاش کنید",
|
70
70
|
"AgentRuntimeError": "اجرای Lobe AI Runtime با خطا مواجه شد، لطفاً بر اساس اطلاعات زیر بررسی کنید یا دوباره تلاش کنید",
|
71
71
|
"ConnectionCheckFailed": "درخواست بدون پاسخ برگشت، لطفاً بررسی کنید که آیا آدرس پروکسی API در انتها شامل `/v1` نیست",
|
72
|
+
"ExceededContextWindow": "محتوای درخواست فعلی از طول قابل پردازش مدل فراتر رفته است، لطفاً حجم محتوا را کاهش داده و دوباره تلاش کنید",
|
72
73
|
"FreePlanLimit": "شما در حال حاضر کاربر رایگان هستید و نمیتوانید از این قابلیت استفاده کنید، لطفاً به یک طرح پولی ارتقا دهید تا ادامه دهید",
|
74
|
+
"InsufficientQuota": "متأسفیم، سهمیه این کلید به حداکثر رسیده است، لطفاً موجودی حساب خود را بررسی کرده یا سهمیه کلید را افزایش دهید و دوباره تلاش کنید",
|
73
75
|
"InvalidAccessCode": "رمز عبور نادرست یا خالی است، لطفاً رمز عبور صحیح را وارد کنید یا API Key سفارشی اضافه کنید",
|
74
76
|
"InvalidBedrockCredentials": "اعتبارسنجی Bedrock ناموفق بود، لطفاً AccessKeyId/SecretAccessKey را بررسی کرده و دوباره تلاش کنید",
|
75
77
|
"InvalidClerkUser": "متأسفیم، شما هنوز وارد نشدهاید، لطفاً ابتدا وارد شوید یا ثبتنام کنید و سپس ادامه دهید",
|
76
78
|
"InvalidGithubToken": "Github PAT نادرست یا خالی است، لطفاً Github PAT را بررسی کرده و دوباره تلاش کنید",
|
77
79
|
"InvalidOllamaArgs": "پیکربندی Ollama نادرست است، لطفاً پیکربندی Ollama را بررسی کرده و دوباره تلاش کنید",
|
78
80
|
"InvalidProviderAPIKey": "{{provider}} API Key نادرست یا خالی است، لطفاً {{provider}} API Key را بررسی کرده و دوباره تلاش کنید",
|
81
|
+
"InvalidVertexCredentials": "احراز هویت Vertex ناموفق بود، لطفاً گواهی احراز هویت را بررسی کرده و دوباره تلاش کنید",
|
79
82
|
"LocationNotSupportError": "متأسفیم، منطقه شما از این سرویس مدل پشتیبانی نمیکند، ممکن است به دلیل محدودیتهای منطقهای یا عدم دسترسی به سرویس باشد. لطفاً بررسی کنید که آیا منطقه فعلی شما از این سرویس پشتیبانی میکند یا سعی کنید به منطقه دیگری تغییر دهید و دوباره تلاش کنید",
|
80
83
|
"NoOpenAIAPIKey": "OpenAI API Key نادرست یا خالی است، لطفاً OpenAI API Key سفارشی اضافه کنید",
|
81
84
|
"OllamaBizError": "درخواست به سرویس Ollama با خطا مواجه شد، لطفاً بر اساس اطلاعات زیر بررسی کنید یا دوباره تلاش کنید",
|
82
85
|
"OllamaServiceUnavailable": "اتصال به سرویس Ollama ناموفق بود، لطفاً بررسی کنید که آیا Ollama به درستی کار میکند یا پیکربندیهای cross-origin Ollama به درستی تنظیم شده است",
|
83
|
-
"OpenAIBizError": "درخواست به سرویس OpenAI با خطا مواجه شد، لطفاً بر اساس اطلاعات زیر بررسی کنید یا دوباره تلاش کنید",
|
84
86
|
"PermissionDenied": "متأسفیم، شما اجازه دسترسی به این سرویس را ندارید، لطفاً بررسی کنید که آیا کلید شما دسترسی لازم را دارد",
|
85
87
|
"PluginApiNotFound": "متأسفیم، API در فایل توصیف افزونه وجود ندارد، لطفاً روش درخواست خود را با API افزونه مطابقت دهید",
|
86
88
|
"PluginApiParamsError": "متأسفیم، اعتبارسنجی پارامترهای درخواست افزونه ناموفق بود، لطفاً پارامترها را با اطلاعات API مطابقت دهید",
|
@@ -99,6 +101,7 @@
|
|
99
101
|
"QuotaLimitReached": "متأسفیم، میزان استفاده از توکن یا تعداد درخواستهای شما به حد مجاز این کلید رسیده است، لطفاً سهمیه کلید را افزایش دهید یا بعداً دوباره تلاش کنید",
|
100
102
|
"StreamChunkError": "خطا در تجزیه بلوک پیام درخواست جریانی، لطفاً بررسی کنید که آیا API فعلی با استانداردها مطابقت دارد یا با ارائهدهنده API خود تماس بگیرید",
|
101
103
|
"SubscriptionPlanLimit": "سهمیه اشتراک شما به پایان رسیده است و نمیتوانید از این قابلیت استفاده کنید، لطفاً به یک طرح بالاتر ارتقا دهید یا بسته منابع خریداری کنید تا ادامه دهید",
|
104
|
+
"SystemTimeNotMatchError": "متأسفیم، زمان سیستم شما با سرور مطابقت ندارد، لطفاً زمان سیستم خود را بررسی کرده و دوباره تلاش کنید",
|
102
105
|
"UnknownChatFetchError": "متأسفیم، با خطای ناشناخته در درخواست مواجه شدیم، لطفاً بر اساس اطلاعات زیر بررسی کنید یا دوباره تلاش کنید"
|
103
106
|
},
|
104
107
|
"stt": {
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "بهروزرسانی پیکربندی پایه ارائهدهنده",
|
323
323
|
"updateSuccess": "بهروزرسانی با موفقیت انجام شد"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "کلیدهای Vertex AI خود را وارد کنید",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "کلیدهای Vertex AI"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI صفر و یک همه چیز"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "بهینهسازی شده برای سناریوهای مکالمه با شخصیتهای چینی، ارائه توانایی تولید مکالمات روان و مطابق با عادات بیانی چینی."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "نسبت به مدلهای سری abab6.5، در تواناییهای مربوط به متنهای طولانی، ریاضیات و نوشتن به طور قابل توجهی بهبود یافته است."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 یک مدل زبان بزرگ پیشرفته است که با یادگیری تقویتی و بهینهسازی دادههای راهاندازی سرد، عملکرد استدلال، ریاضیات و برنامهنویسی فوقالعادهای دارد."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro مدل هوش مصنوعی با عملکرد بالای Google است که برای گسترش وظایف گسترده طراحی شده است."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash جدیدترین مدل هوش مصنوعی چندوجهی گوگل است که دارای قابلیت پردازش سریع بوده و از ورودیهای متنی، تصویری و ویدیویی پشتیبانی میکند و برای گسترش کارآمد در انواع وظایف مناسب است."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "جمینی 1.5 فلش 001 یک مدل چندوجهی کارآمد است که از گسترش کاربردهای گسترده پشتیبانی میکند."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash ویژگیها و بهبودهای نسل بعدی را ارائه میدهد، از جمله سرعت عالی، استفاده از ابزارهای بومی، تولید چندرسانهای و پنجره متن 1M توکن."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp یک مدل هوش مصنوعی چندمدلی آزمایشی از گوگل است که دارای ویژگیهای نسل بعدی، سرعت فوقالعاده، فراخوانی ابزارهای بومی و تولید چندمدلی است."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "مدل Gemini 2.0 Flash که برای بهینهسازی هزینه و تأخیر کم طراحی شده است."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp جدیدترین مدل AI چندرسانهای آزمایشی گوگل است که دارای ویژگیهای نسل بعدی، سرعت فوقالعاده، فراخوانی ابزار بومی و تولید چندرسانهای است."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp جدیدترین مدل هوش مصنوعی چندرسانهای آزمایشی Google است که ویژگیهای نسل بعدی، سرعت فوقالعاده، فراخوانی ابزارهای بومی و تولید چندرسانهای را داراست."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental جدیدترین مدل AI چندرسانهای آزمایشی گوگل است که نسبت به نسخههای قبلی خود بهبود کیفیت قابل توجهی داشته است، به ویژه در زمینه دانش جهانی، کد و متنهای طولانی."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 جدیدترین مدل AI چندرسانهای آزمایشی Google است که نسبت به نسخههای تاریخی خود دارای ارتقاء کیفیت قابل توجهی میباشد."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B برای پردازش وظایف کوچک و متوسط مناسب است و از نظر هزینه مؤثر است."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage بر توسعه مدلهای هوش مصنوعی برای نیازهای مختلف تجاری تمرکز دارد، از جمله Solar LLM و هوش مصنوعی اسناد، که هدف آن دستیابی به هوش عمومی مصنوعی (AGI) برای کار است. با استفاده از Chat API، میتوانید نمایندگان مکالمه ساده ایجاد کنید و از قابلیتهای فراخوانی عملکرد، ترجمه، تعبیه و کاربردهای خاص حوزه پشتیبانی کنید."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "سری Gemini گوگل پیشرفتهترین و عمومیترین مدلهای هوش مصنوعی است که توسط Google DeepMind طراحی شده و بهطور خاص برای چندرسانهای طراحی شده است و از درک و پردازش بیوقفه متن، کد، تصویر، صدا و ویدیو پشتیبانی میکند. این مدلها برای محیطهای مختلف از مراکز داده تا دستگاههای همراه مناسب هستند و بهطور قابل توجهی کارایی و کاربردهای مدلهای هوش مصنوعی را افزایش میدهند."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM یک کتابخانه سریع و آسان برای استفاده است که برای استنتاج و خدمات LLM طراحی شده است."
|
124
127
|
},
|
package/locales/fr-FR/error.json
CHANGED
@@ -69,18 +69,20 @@
|
|
69
69
|
"524": "Désolé, le serveur a dépassé le délai d'attente en attendant une réponse, cela peut être dû à une réponse trop lente, veuillez réessayer plus tard.",
|
70
70
|
"AgentRuntimeError": "Erreur d'exécution du modèle linguistique Lobe, veuillez vérifier les informations ci-dessous ou réessayer",
|
71
71
|
"ConnectionCheckFailed": "La réponse est vide, veuillez vérifier si l'URL du proxy API se termine par `/v1`",
|
72
|
+
"ExceededContextWindow": "Le contenu de la demande actuelle dépasse la longueur que le modèle peut traiter. Veuillez réduire la quantité de contenu et réessayer.",
|
72
73
|
"FreePlanLimit": "Vous êtes actuellement un utilisateur gratuit et ne pouvez pas utiliser cette fonction. Veuillez passer à un plan payant pour continuer à l'utiliser.",
|
74
|
+
"InsufficientQuota": "Désolé, le quota de cette clé a atteint sa limite. Veuillez vérifier si le solde de votre compte est suffisant ou augmenter le quota de la clé avant de réessayer.",
|
73
75
|
"InvalidAccessCode": "Le mot de passe est incorrect ou vide. Veuillez saisir le mot de passe d'accès correct ou ajouter une clé API personnalisée.",
|
74
76
|
"InvalidBedrockCredentials": "L'authentification Bedrock a échoué, veuillez vérifier AccessKeyId/SecretAccessKey et réessayer",
|
75
77
|
"InvalidClerkUser": "Désolé, vous n'êtes pas actuellement connecté. Veuillez vous connecter ou vous inscrire avant de continuer.",
|
76
78
|
"InvalidGithubToken": "Le jeton d'accès personnel GitHub est incorrect ou vide. Veuillez vérifier le jeton d'accès personnel GitHub et réessayer.",
|
77
79
|
"InvalidOllamaArgs": "La configuration d'Ollama n'est pas valide, veuillez vérifier la configuration d'Ollama et réessayer",
|
78
80
|
"InvalidProviderAPIKey": "{{provider}} API Key incorrect or missing, please check {{provider}} API Key and try again",
|
81
|
+
"InvalidVertexCredentials": "L'authentification Vertex a échoué, veuillez vérifier vos informations d'authentification et réessayer",
|
79
82
|
"LocationNotSupportError": "Désolé, votre emplacement actuel ne prend pas en charge ce service de modèle, peut-être en raison de restrictions géographiques ou de services non disponibles. Veuillez vérifier si votre emplacement actuel prend en charge ce service ou essayer avec une autre localisation.",
|
80
83
|
"NoOpenAIAPIKey": "La clé API OpenAI est vide. Veuillez ajouter une clé API OpenAI personnalisée",
|
81
84
|
"OllamaBizError": "Erreur commerciale lors de la demande de service Ollama, veuillez vérifier les informations ci-dessous ou réessayer",
|
82
85
|
"OllamaServiceUnavailable": "Le service Ollama n'est pas disponible. Veuillez vérifier si Ollama fonctionne correctement ou si la configuration de la communication inter-domaines d'Ollama est correcte.",
|
83
|
-
"OpenAIBizError": "Erreur de service OpenAI. Veuillez vérifier les informations suivantes ou réessayer.",
|
84
86
|
"PermissionDenied": "Désolé, vous n'avez pas la permission d'accéder à ce service. Veuillez vérifier si votre clé a les droits d'accès.",
|
85
87
|
"PluginApiNotFound": "Désolé, l'API spécifiée n'existe pas dans le manifeste du plugin. Veuillez vérifier que votre méthode de requête correspond à l'API du manifeste du plugin",
|
86
88
|
"PluginApiParamsError": "Désolé, la validation des paramètres d'entrée de la requête de ce plugin a échoué. Veuillez vérifier que les paramètres d'entrée correspondent aux informations de l'API",
|
@@ -99,6 +101,7 @@
|
|
99
101
|
"QuotaLimitReached": "Désolé, l'utilisation actuelle des tokens ou le nombre de requêtes a atteint la limite de quota de cette clé. Veuillez augmenter le quota de cette clé ou réessayer plus tard.",
|
100
102
|
"StreamChunkError": "Erreur de parsing du bloc de message de la requête en streaming. Veuillez vérifier si l'API actuelle respecte les normes ou contacter votre fournisseur d'API pour des conseils.",
|
101
103
|
"SubscriptionPlanLimit": "Vous avez atteint votre limite d'abonnement et ne pouvez pas utiliser cette fonction. Veuillez passer à un plan supérieur ou acheter un pack de ressources pour continuer à l'utiliser.",
|
104
|
+
"SystemTimeNotMatchError": "Désolé, l'heure de votre système ne correspond pas à celle du serveur. Veuillez vérifier l'heure de votre système et réessayer.",
|
102
105
|
"UnknownChatFetchError": "Désolé, une erreur de requête inconnue s'est produite. Veuillez vérifier les informations ci-dessous ou réessayer."
|
103
106
|
},
|
104
107
|
"stt": {
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "Mettre à jour la configuration de base du fournisseur",
|
323
323
|
"updateSuccess": "Mise à jour réussie"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "Entrez vos clés Vertex AI",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Clés Vertex AI"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI Zéro Un Tout"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "Optimisé pour des scénarios de dialogue en chinois, offrant une capacité de génération de dialogues fluide et conforme aux habitudes d'expression en chinois."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "Par rapport à la série de modèles abab6.5, il y a eu une amélioration significative des capacités en matière de textes longs, de mathématiques et d'écriture."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 est un modèle de langage de grande taille à la pointe de la technologie, optimisé par apprentissage renforcé et données de démarrage à froid, offrant d'excellentes performances en raisonnement, mathématiques et programmation."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro est le modèle d'IA haute performance de Google, conçu pour une large extension des tâches."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash est le dernier modèle d'IA multimodale de Google, doté d'une capacité de traitement rapide, prenant en charge les entrées de texte, d'images et de vidéos, et adapté à une extension efficace pour diverses tâches."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001 est un modèle multimodal efficace, prenant en charge l'extension d'applications variées."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash propose des fonctionnalités et des améliorations de nouvelle génération, y compris une vitesse exceptionnelle, l'utilisation d'outils natifs, la génération multimodale et une fenêtre de contexte de 1M tokens."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, avec des caractéristiques de nouvelle génération, une vitesse exceptionnelle, des appels d'outils natifs et une génération multimodale."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "Un modèle Gemini 2.0 Flash optimisé pour des objectifs de rentabilité et de faible latence."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, doté de caractéristiques de nouvelle génération, d'une vitesse exceptionnelle, d'appels d'outils natifs et de génération multimodale."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, doté de caractéristiques de nouvelle génération, d'une vitesse exceptionnelle, d'appels d'outils natifs et de génération multimodale."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental est le dernier modèle AI multimodal expérimental de Google, offrant une amélioration de la qualité par rapport aux versions précédentes, en particulier pour les connaissances générales, le code et les longs contextes."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 est le dernier modèle d'IA multimodal expérimental de Google, offrant une qualité améliorée par rapport aux versions précédentes."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B est adapté au traitement de tâches de taille moyenne, alliant coût et efficacité."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage se concentre sur le développement de modèles IA pour divers besoins commerciaux, y compris Solar LLM et Document AI, visant à réaliser une intelligence générale artificielle (AGI) pour le travail. Créez des agents de dialogue simples via l'API Chat, et prenez en charge les appels de fonction, la traduction, l'intégration et les applications spécifiques à un domaine."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "La série Gemini de Google est son modèle d'IA le plus avancé et polyvalent, développé par Google DeepMind, conçu pour être multimodal, prenant en charge la compréhension et le traitement sans couture de texte, de code, d'images, d'audio et de vidéo. Adapté à divers environnements, des centres de données aux appareils mobiles, il améliore considérablement l'efficacité et l'applicabilité des modèles d'IA."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM est une bibliothèque rapide et facile à utiliser pour l'inférence et les services LLM."
|
124
127
|
},
|
package/locales/it-IT/error.json
CHANGED
@@ -69,18 +69,20 @@
|
|
69
69
|
"524": "Ci dispiace, il server ha superato il timeout in attesa di una risposta, potrebbe essere a causa di una risposta troppo lenta, per favore riprova più tardi",
|
70
70
|
"AgentRuntimeError": "Errore di esecuzione del modello linguistico Lobe, controlla le informazioni seguenti o riprova",
|
71
71
|
"ConnectionCheckFailed": "La risposta è vuota, controlla se l'indirizzo del proxy API termina con `/v1`",
|
72
|
+
"ExceededContextWindow": "Il contenuto della richiesta attuale supera la lunghezza che il modello può gestire. Si prega di ridurre la quantità di contenuto e riprovare.",
|
72
73
|
"FreePlanLimit": "Attualmente sei un utente gratuito e non puoi utilizzare questa funzione. Per favore, passa a un piano a pagamento per continuare.",
|
74
|
+
"InsufficientQuota": "Ci dispiace, la quota per questa chiave ha raggiunto il limite. Si prega di controllare il saldo dell'account o di aumentare la quota della chiave e riprovare.",
|
73
75
|
"InvalidAccessCode": "Password incorrect or empty, please enter the correct access password, or add a custom API Key",
|
74
76
|
"InvalidBedrockCredentials": "Autenticazione Bedrock non riuscita, controlla AccessKeyId/SecretAccessKey e riprova",
|
75
77
|
"InvalidClerkUser": "Spiacenti, al momento non hai effettuato l'accesso. Per favore, effettua l'accesso o registrati prima di continuare.",
|
76
78
|
"InvalidGithubToken": "Il token di accesso personale di Github non è corretto o è vuoto. Controlla il token di accesso personale di Github e riprova.",
|
77
79
|
"InvalidOllamaArgs": "Configurazione Ollama non valida, controllare la configurazione di Ollama e riprovare",
|
78
80
|
"InvalidProviderAPIKey": "{{provider}} Chiave API non valida o vuota, controlla la Chiave API di {{provider}} e riprova",
|
81
|
+
"InvalidVertexCredentials": "Autenticazione Vertex non riuscita, controlla le credenziali di autenticazione e riprova",
|
79
82
|
"LocationNotSupportError": "Spiacenti, la tua posizione attuale non supporta questo servizio modello, potrebbe essere a causa di restrizioni geografiche o servizi non attivati. Verifica se la posizione attuale supporta l'uso di questo servizio o prova a utilizzare un'altra posizione.",
|
80
83
|
"NoOpenAIAPIKey": "La chiave API OpenAI è vuota. Aggiungi una chiave API personalizzata OpenAI",
|
81
84
|
"OllamaBizError": "Errore di servizio Ollama, controllare le informazioni seguenti o riprovare",
|
82
85
|
"OllamaServiceUnavailable": "Servizio Ollama non disponibile: controllare che Ollama sia in esecuzione correttamente o che la configurazione di cross-origin di Ollama sia corretta",
|
83
|
-
"OpenAIBizError": "Errore di business di OpenAI. Si prega di controllare le informazioni seguenti o riprovare.",
|
84
86
|
"PermissionDenied": "Ci dispiace, non hai il permesso di accedere a questo servizio. Controlla se la tua chiave ha i diritti di accesso.",
|
85
87
|
"PluginApiNotFound": "Spiacenti, l'API specificata non esiste nel manifesto del plugin. Verifica che il metodo di richiesta corrisponda all'API del manifesto del plugin",
|
86
88
|
"PluginApiParamsError": "Spiacenti, la convalida dei parametri di input della richiesta del plugin non è riuscita. Verifica che i parametri di input corrispondano alle informazioni dell'API",
|
@@ -99,6 +101,7 @@
|
|
99
101
|
"QuotaLimitReached": "Ci dispiace, l'uso attuale dei token o il numero di richieste ha raggiunto il limite di quota per questa chiave. Si prega di aumentare la quota di questa chiave o riprovare più tardi.",
|
100
102
|
"StreamChunkError": "Erro di analisi del blocco di messaggi della richiesta in streaming. Controlla se l'interfaccia API attuale è conforme agli standard o contatta il tuo fornitore di API per ulteriori informazioni.",
|
101
103
|
"SubscriptionPlanLimit": "Il tuo piano di abbonamento ha raggiunto il limite e non puoi utilizzare questa funzione. Per favore, passa a un piano superiore o acquista un pacchetto di risorse per continuare.",
|
104
|
+
"SystemTimeNotMatchError": "Ci dispiace, l'orario del sistema non corrisponde a quello del server. Si prega di controllare l'orario del sistema e riprovare.",
|
102
105
|
"UnknownChatFetchError": "Ci scusiamo, si è verificato un errore di richiesta sconosciuto. Si prega di controllare le informazioni seguenti o riprovare."
|
103
106
|
},
|
104
107
|
"stt": {
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "Aggiorna la configurazione di base del fornitore",
|
323
323
|
"updateSuccess": "Aggiornamento avvenuto con successo"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "Inserisci le tue chiavi Vertex AI",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Chiavi Vertex AI"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI ZeroOne"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "Ottimizzato per scenari di dialogo con personaggi cinesi, offre capacità di generazione di dialoghi fluida e conforme alle espressioni cinesi."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "Rispetto alla serie di modelli abab6.5, ci sono stati notevoli miglioramenti nelle capacità di elaborazione di testi lunghi, matematica e scrittura."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 è un modello linguistico di grandi dimensioni all'avanguardia, ottimizzato tramite apprendimento rinforzato e dati di cold start, con prestazioni eccezionali nel ragionamento, nella matematica e nella programmazione."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro è il modello AI ad alte prestazioni di Google, progettato per l'espansione su una vasta gamma di compiti."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash è il più recente modello AI multimodale di Google, dotato di capacità di elaborazione rapida, supporta input di testo, immagini e video, ed è adatto per un'efficiente scalabilità in vari compiti."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001 è un modello multimodale efficiente, supporta l'espansione per applicazioni ampie."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash offre funzionalità e miglioramenti di nuova generazione, tra cui velocità eccezionale, utilizzo di strumenti nativi, generazione multimodale e una finestra di contesto di 1M token."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp è il nuovo modello AI multimodale sperimentale di Google, dotato di funzionalità di nuova generazione, velocità straordinaria, chiamate di strumenti native e generazione multimodale."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "Un modello Gemini 2.0 Flash ottimizzato per obiettivi di costo-efficacia e bassa latenza."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp è il più recente modello AI multimodale sperimentale di Google, dotato di caratteristiche di nuova generazione, velocità eccezionale, chiamate a strumenti nativi e generazione multimodale."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp è il più recente modello AI multimodale sperimentale di Google, dotato di funzionalità di nuova generazione, velocità eccezionale, chiamate a strumenti nativi e generazione multimodale."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental è il più recente modello AI multimodale sperimentale di Google, con un miglioramento della qualità rispetto alle versioni precedenti, in particolare per quanto riguarda la conoscenza del mondo, il codice e i contesti lunghi."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 è il modello AI multimodale sperimentale più recente di Google, con miglioramenti significativi della qualità rispetto alle versioni precedenti."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B è adatto per l'elaborazione di compiti di piccole e medie dimensioni, combinando efficienza dei costi."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage si concentra sullo sviluppo di modelli AI per varie esigenze commerciali, inclusi Solar LLM e document AI, con l'obiettivo di realizzare un'intelligenza artificiale generale artificiale (AGI) per il lavoro. Crea semplici agenti di dialogo tramite Chat API e supporta chiamate funzionali, traduzioni, embedding e applicazioni specifiche del settore."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "La serie Gemini di Google è il suo modello AI più avanzato e versatile, sviluppato da Google DeepMind, progettato per essere multimodale e supportare la comprensione e l'elaborazione senza soluzione di continuità di testo, codice, immagini, audio e video. Adatta a una varietà di ambienti, dai data center ai dispositivi mobili, migliora notevolmente l'efficienza e l'ampia applicabilità dei modelli AI."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM è una libreria veloce e facile da usare per l'inferenza e i servizi LLM."
|
124
127
|
},
|
package/locales/ja-JP/error.json
CHANGED
@@ -69,18 +69,20 @@
|
|
69
69
|
"524": "申し訳ありませんが、サーバーは応答を待っている間にタイムアウトしました。応答が遅すぎる可能性があります。後でもう一度お試しください。",
|
70
70
|
"AgentRuntimeError": "Lobe言語モデルの実行時にエラーが発生しました。以下の情報に基づいてトラブルシューティングを行うか、再試行してください。",
|
71
71
|
"ConnectionCheckFailed": "リクエストの返答が空です。API プロキシのアドレスの末尾に `/v1` が含まれているか確認してください。",
|
72
|
+
"ExceededContextWindow": "現在のリクエスト内容がモデルが処理できる長さを超えています。内容量を減らして再試行してください。",
|
72
73
|
"FreePlanLimit": "現在は無料ユーザーですので、この機能を使用することはできません。有料プランにアップグレードして継続してください。",
|
74
|
+
"InsufficientQuota": "申し訳ありませんが、そのキーのクォータが上限に達しました。アカウントの残高を確認するか、キーのクォータを増やしてから再試行してください。",
|
73
75
|
"InvalidAccessCode": "パスワードが正しくないか空です。正しいアクセスパスワードを入力するか、カスタムAPIキーを追加してください",
|
74
76
|
"InvalidBedrockCredentials": "Bedrockの認証に失敗しました。AccessKeyId/SecretAccessKeyを確認してから再試行してください。",
|
75
77
|
"InvalidClerkUser": "申し訳ありませんが、現在ログインしていません。続行するにはログインまたはアカウント登録を行ってください",
|
76
78
|
"InvalidGithubToken": "Githubのパーソナルアクセストークンが無効または空です。Githubのパーソナルアクセストークンを確認してから、再試行してください。",
|
77
79
|
"InvalidOllamaArgs": "Ollamaの設定が正しくありません。Ollamaの設定を確認してからもう一度お試しください",
|
78
80
|
"InvalidProviderAPIKey": "{{provider}} APIキーが正しくないか空です。{{provider}} APIキーを確認して再試行してください。",
|
81
|
+
"InvalidVertexCredentials": "Vertexの認証に失敗しました。認証情報を確認して再試行してください",
|
79
82
|
"LocationNotSupportError": "申し訳ありませんが、お住まいの地域ではこのモデルサービスをサポートしていません。地域制限またはサービスが利用できない可能性があります。現在の位置がこのサービスをサポートしているかどうかを確認するか、他の位置情報を使用してみてください。",
|
80
83
|
"NoOpenAIAPIKey": "OpenAI APIキーが空です。カスタムOpenAI APIキーを追加してください。",
|
81
84
|
"OllamaBizError": "Ollamaサービスのリクエストでエラーが発生しました。以下の情報に基づいてトラブルシューティングを行うか、再度お試しください",
|
82
85
|
"OllamaServiceUnavailable": "Ollamaサービスが利用できません。Ollamaが正常に動作しているか、またはOllamaのクロスオリジン設定が正しく行われているかを確認してください",
|
83
|
-
"OpenAIBizError": "リクエスト OpenAI サービスでエラーが発生しました。以下の情報を確認して再試行してください。",
|
84
86
|
"PermissionDenied": "申し訳ありませんが、このサービスにアクセスする権限がありません。あなたのキーにアクセス権があるかどうかを確認してください。",
|
85
87
|
"PluginApiNotFound": "申し訳ありませんが、プラグインのマニフェストに指定されたAPIが見つかりませんでした。リクエストメソッドとプラグインのマニフェストのAPIが一致しているかどうかを確認してください",
|
86
88
|
"PluginApiParamsError": "申し訳ありませんが、プラグインのリクエストパラメータの検証に失敗しました。パラメータとAPIの説明が一致しているかどうか確認してください",
|
@@ -99,6 +101,7 @@
|
|
99
101
|
"QuotaLimitReached": "申し訳ありませんが、現在のトークン使用量またはリクエスト回数がこのキーのクォータ上限に達しました。キーのクォータを増やすか、後でもう一度お試しください。",
|
100
102
|
"StreamChunkError": "ストリーミングリクエストのメッセージブロック解析エラーです。現在のAPIインターフェースが標準仕様に準拠しているか確認するか、APIプロバイダーにお問い合わせください。",
|
101
103
|
"SubscriptionPlanLimit": "ご契約のクォータが使い切られましたので、この機能を使用することはできません。より高いプランにアップグレードするか、リソースパッケージを購入して継続してください。",
|
104
|
+
"SystemTimeNotMatchError": "申し訳ありませんが、システムの時間がサーバーと一致していません。システムの時間を確認して再試行してください。",
|
102
105
|
"UnknownChatFetchError": "申し訳ありませんが、未知のリクエストエラーが発生しました。以下の情報をもとに確認するか、再試行してください。"
|
103
106
|
},
|
104
107
|
"stt": {
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "サービスプロバイダーの基本設定を更新",
|
323
323
|
"updateSuccess": "更新に成功しました"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "あなたの Vertex AI キーを入力してください",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Vertex AI キー"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI 零一万物"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "中国語のキャラクター対話シーンに最適化されており、流暢で中国語の表現習慣に合った対話生成能力を提供します。"
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "abab6.5シリーズモデルに比べて、長文、数学、執筆などの能力が大幅に向上しています。"
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1は、強化学習とコールドスタートデータの最適化を経た最先端の大規模言語モデルで、優れた推論、数学、プログラミング性能を持っています。"
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Proは、Googleの高性能AIモデルであり、幅広いタスクの拡張に特化しています。"
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flashは、Googleの最新のマルチモーダルAIモデルで、高速処理能力を備え、テキスト、画像、動画の入力をサポートし、さまざまなタスクに対して効率的に拡張できます。"
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001は、効率的なマルチモーダルモデルであり、幅広いアプリケーションの拡張をサポートします。"
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flashは、卓越した速度、ネイティブツールの使用、マルチモーダル生成、1Mトークンのコンテキストウィンドウを含む次世代の機能と改善を提供します。"
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp は、Google の最新の実験的なマルチモーダル AI モデルで、次世代の機能、卓越した速度、ネイティブツールの呼び出し、マルチモーダル生成を備えています。"
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "コスト効率と低遅延を目指して最適化されたGemini 2.0 Flashモデルです。"
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Expは、Googleの最新の実験的なマルチモーダルAIモデルであり、次世代の機能、卓越した速度、ネイティブツールの呼び出し、マルチモーダル生成を備えています。"
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Expは、Googleの最新の実験的なマルチモーダルAIモデルで、次世代の機能、卓越した速度、ネイティブツールの呼び出し、そしてマルチモーダル生成を備えています。"
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimentalは、Googleの最新の実験的なマルチモーダルAIモデルで、歴史的なバージョンと比較して品質が向上しています。特に、世界の知識、コード、長いコンテキストにおいて顕著です。"
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206は、Googleの最新の実験的なマルチモーダルAIモデルで、過去のバージョンと比較して品質が向上しています。"
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7Bは、中小規模のタスク処理に適しており、コスト効果を兼ね備えています。"
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstageは、さまざまなビジネスニーズに応じたAIモデルの開発に特化しており、Solar LLMや文書AIを含み、人造一般知能(AGI)の実現を目指しています。Chat APIを通じてシンプルな対話エージェントを作成し、機能呼び出し、翻訳、埋め込み、特定分野のアプリケーションをサポートします。"
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "GoogleのGeminiシリーズは、Google DeepMindによって開発された最先端の汎用AIモデルであり、マルチモーダル設計に特化しています。テキスト、コード、画像、音声、動画のシームレスな理解と処理をサポートし、データセンターからモバイルデバイスまでのさまざまな環境で使用できます。AIモデルの効率と適用範囲を大幅に向上させます。"
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLMは、LLM推論とサービスのための迅速で使いやすいライブラリです。"
|
124
127
|
},
|
package/locales/ko-KR/error.json
CHANGED
@@ -69,18 +69,20 @@
|
|
69
69
|
"524": "죄송합니다. 서버가 응답을 기다리는 동안 시간 초과가 발생했습니다. 응답이 너무 느릴 수 있습니다. 잠시 후 다시 시도해 주세요.",
|
70
70
|
"AgentRuntimeError": "Lobe 언어 모델 실행 중 오류가 발생했습니다. 아래 정보를 확인하고 다시 시도하십시오.",
|
71
71
|
"ConnectionCheckFailed": "요청이 빈 응답으로 돌아왔습니다. API 프록시 주소의 끝에 `/v1`이 포함되어 있는지 확인하세요.",
|
72
|
+
"ExceededContextWindow": "현재 요청 내용이 모델이 처리할 수 있는 길이를 초과했습니다. 내용량을 줄인 후 다시 시도해 주십시오.",
|
72
73
|
"FreePlanLimit": "현재 무료 사용자이므로이 기능을 사용할 수 없습니다. 유료 요금제로 업그레이드 한 후 계속 사용하십시오.",
|
74
|
+
"InsufficientQuota": "죄송합니다. 해당 키의 할당량이 초과되었습니다. 계좌 잔액이 충분한지 확인하거나 키 할당량을 늘린 후 다시 시도해 주십시오.",
|
73
75
|
"InvalidAccessCode": "액세스 코드가 잘못되었거나 비어 있습니다. 올바른 액세스 코드를 입력하거나 사용자 지정 API 키를 추가하십시오.",
|
74
76
|
"InvalidBedrockCredentials": "Bedrock 인증에 실패했습니다. AccessKeyId/SecretAccessKey를 확인한 후 다시 시도하십시오.",
|
75
77
|
"InvalidClerkUser": "죄송합니다. 현재 로그인되어 있지 않습니다. 계속하려면 먼저 로그인하거나 계정을 등록해주세요.",
|
76
78
|
"InvalidGithubToken": "Github 개인 액세스 토큰이 올바르지 않거나 비어 있습니다. Github 개인 액세스 토큰을 확인한 후 다시 시도해 주십시오.",
|
77
79
|
"InvalidOllamaArgs": "Ollama 구성이 잘못되었습니다. Ollama 구성을 확인한 후 다시 시도하십시오.",
|
78
80
|
"InvalidProviderAPIKey": "{{provider}} API 키가 잘못되었거나 비어 있습니다. {{provider}} API 키를 확인하고 다시 시도하십시오.",
|
81
|
+
"InvalidVertexCredentials": "Vertex 인증에 실패했습니다. 인증 정보를 확인한 후 다시 시도해 주세요.",
|
79
82
|
"LocationNotSupportError": "죄송합니다. 귀하의 현재 위치는 해당 모델 서비스를 지원하지 않습니다. 지역 제한 또는 서비스 미개통으로 인한 것일 수 있습니다. 현재 위치가 해당 서비스를 지원하는지 확인하거나 다른 위치 정보를 사용해 보십시오.",
|
80
83
|
"NoOpenAIAPIKey": "OpenAI API 키가 비어 있습니다. 사용자 정의 OpenAI API 키를 추가해주세요.",
|
81
84
|
"OllamaBizError": "Ollama 서비스 요청 중 오류가 발생했습니다. 아래 정보를 확인하고 다시 시도하십시오.",
|
82
85
|
"OllamaServiceUnavailable": "Ollama 서비스를 사용할 수 없습니다. Ollama가 올바르게 작동하는지 또는 Ollama의 교차 도메인 구성이 올바르게 설정되었는지 확인하십시오.",
|
83
|
-
"OpenAIBizError": "OpenAI 서비스 요청 중 오류가 발생했습니다. 아래 정보를 확인하고 다시 시도해주세요.",
|
84
86
|
"PermissionDenied": "죄송합니다. 이 서비스에 접근할 권한이 없습니다. 키에 접근 권한이 있는지 확인해 주세요.",
|
85
87
|
"PluginApiNotFound": "죄송합니다. 플러그인 설명서에 해당 API가 없습니다. 요청 메서드와 플러그인 설명서 API가 일치하는지 확인해주세요.",
|
86
88
|
"PluginApiParamsError": "죄송합니다. 플러그인 요청의 입력 매개변수 유효성 검사에 실패했습니다. 입력 매개변수와 API 설명 정보가 일치하는지 확인해주세요.",
|
@@ -99,6 +101,7 @@
|
|
99
101
|
"QuotaLimitReached": "죄송합니다. 현재 토큰 사용량 또는 요청 횟수가 해당 키의 할당량 한도에 도달했습니다. 해당 키의 할당량을 늘리거나 나중에 다시 시도해 주십시오.",
|
100
102
|
"StreamChunkError": "스트리밍 요청의 메시지 블록 구문 분석 오류입니다. 현재 API 인터페이스가 표준 규격에 부합하는지 확인하거나 API 공급자에게 문의하십시오.",
|
101
103
|
"SubscriptionPlanLimit": "구독 한도를 모두 사용했으므로이 기능을 사용할 수 없습니다. 더 높은 요금제로 업그레이드하거나 리소스 패키지를 구매하여 계속 사용하십시오.",
|
104
|
+
"SystemTimeNotMatchError": "죄송합니다. 귀하의 시스템 시간이 서버와 일치하지 않습니다. 시스템 시간을 확인한 후 다시 시도해 주십시오.",
|
102
105
|
"UnknownChatFetchError": "죄송합니다. 알 수 없는 요청 오류가 발생했습니다. 아래 정보를 참고하여 문제를 해결하거나 다시 시도해 주세요."
|
103
106
|
},
|
104
107
|
"stt": {
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "서비스 제공자 기본 설정 업데이트",
|
323
323
|
"updateSuccess": "업데이트 성공"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "당신의 Vertex AI 키를 입력하세요",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Vertex AI 키"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI Zero One All Things"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "중국어 캐릭터 대화 시나리오에 최적화되어 있으며, 유창하고 중국어 표현 습관에 맞는 대화 생성 능력을 제공합니다."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "abab6.5 시리즈 모델에 비해 긴 글, 수학, 작문 등에서 능력이 크게 향상되었습니다."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1은 최첨단 대형 언어 모델로, 강화 학습과 콜드 스타트 데이터를 최적화하여 뛰어난 추론, 수학 및 프로그래밍 성능을 제공합니다."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro는 Google의 고성능 AI 모델로, 광범위한 작업 확장을 위해 설계되었습니다."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash는 Google의 최신 다중 모달 AI 모델로, 빠른 처리 능력을 갖추고 있으며 텍스트, 이미지 및 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001은 효율적인 다중 모달 모델로, 광범위한 응용 프로그램 확장을 지원합니다."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash는 뛰어난 속도, 원주율 도구 사용, 다중 모달 생성 및 1M 토큰 문맥 창을 포함한 차세대 기능과 개선 사항을 제공합니다."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모달 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모달 생성을 갖추고 있습니다."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "비용 효율성과 낮은 지연 시간 등을 목표로 최적화된 Gemini 2.0 Flash 모델입니다."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모드 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모드 생성을 제공합니다."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모드 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모드 생성을 제공합니다."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental은 Google의 최신 실험적 다중 모달 AI 모델로, 이전 버전과 비교하여 품질이 향상되었습니다. 특히 세계 지식, 코드 및 긴 문맥에 대해 개선되었습니다."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206은 Google의 최신 실험적 다중 모달 AI 모델로, 이전 버전에 비해 품질이 개선되었습니다."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B는 중소 규모 작업 처리에 적합하며, 비용 효과성을 갖추고 있습니다."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage는 Solar LLM 및 문서 AI를 포함하여 다양한 비즈니스 요구를 위한 AI 모델 개발에 집중하고 있으며, 인공지능 일반 지능(AGI)을 실현하는 것을 목표로 하고 있습니다. Chat API를 통해 간단한 대화 에이전트를 생성하고 기능 호출, 번역, 임베딩 및 특정 분야 응용 프로그램을 지원합니다."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "구글의 제미니 시리즈는 구글 딥마인드가 개발한 최첨단 범용 AI 모델로, 다중 모드에 맞춰 설계되어 텍스트, 코드, 이미지, 오디오 및 비디오의 원활한 이해와 처리를 지원합니다. 데이터 센터에서 모바일 장치에 이르기까지 다양한 환경에 적합하며, AI 모델의 효율성과 응용 범위를 크게 향상시킵니다."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM은 LLM 추론 및 서비스를 위한 빠르고 사용하기 쉬운 라이브러리입니다."
|
124
127
|
},
|