@lobehub/chat 1.60.8 → 1.61.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/ISSUE_TEMPLATE/1_bug_report.yml +2 -1
- package/.github/ISSUE_TEMPLATE/1_bug_report_cn.yml +1 -0
- package/.github/workflows/docker-pglite.yml +161 -0
- package/CHANGELOG.md +50 -0
- package/Dockerfile.pglite +244 -0
- package/changelog/v1.json +17 -0
- package/locales/ar/error.json +1 -0
- package/locales/ar/modelProvider.json +7 -0
- package/locales/ar/models.json +3 -12
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/error.json +1 -0
- package/locales/bg-BG/modelProvider.json +7 -0
- package/locales/bg-BG/models.json +3 -12
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/error.json +1 -0
- package/locales/de-DE/modelProvider.json +7 -0
- package/locales/de-DE/models.json +3 -12
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/error.json +1 -0
- package/locales/en-US/modelProvider.json +7 -0
- package/locales/en-US/models.json +3 -12
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/error.json +1 -0
- package/locales/es-ES/modelProvider.json +7 -0
- package/locales/es-ES/models.json +3 -12
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/error.json +1 -0
- package/locales/fa-IR/modelProvider.json +7 -0
- package/locales/fa-IR/models.json +3 -12
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/error.json +1 -0
- package/locales/fr-FR/modelProvider.json +7 -0
- package/locales/fr-FR/models.json +3 -12
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/error.json +1 -0
- package/locales/it-IT/modelProvider.json +7 -0
- package/locales/it-IT/models.json +3 -12
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/error.json +1 -0
- package/locales/ja-JP/modelProvider.json +7 -0
- package/locales/ja-JP/models.json +3 -12
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/error.json +1 -0
- package/locales/ko-KR/modelProvider.json +7 -0
- package/locales/ko-KR/models.json +3 -12
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/error.json +1 -0
- package/locales/nl-NL/modelProvider.json +7 -0
- package/locales/nl-NL/models.json +3 -12
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/error.json +1 -0
- package/locales/pl-PL/modelProvider.json +7 -0
- package/locales/pl-PL/models.json +3 -12
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/error.json +1 -0
- package/locales/pt-BR/modelProvider.json +7 -0
- package/locales/pt-BR/models.json +3 -12
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/error.json +1 -0
- package/locales/ru-RU/modelProvider.json +7 -0
- package/locales/ru-RU/models.json +3 -12
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/error.json +1 -0
- package/locales/tr-TR/modelProvider.json +7 -0
- package/locales/tr-TR/models.json +3 -12
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/error.json +1 -0
- package/locales/vi-VN/modelProvider.json +7 -0
- package/locales/vi-VN/models.json +3 -12
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/error.json +1 -0
- package/locales/zh-CN/modelProvider.json +7 -0
- package/locales/zh-CN/models.json +3 -12
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/error.json +1 -0
- package/locales/zh-TW/modelProvider.json +7 -0
- package/locales/zh-TW/models.json +3 -12
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +2 -1
- package/src/app/(backend)/webapi/chat/vertexai/route.ts +35 -0
- package/src/app/[variants]/(main)/settings/provider/(detail)/huggingface/page.tsx +3 -3
- package/src/app/[variants]/(main)/settings/provider/(detail)/vertexai/page.tsx +67 -0
- package/src/config/aiModels/index.ts +3 -0
- package/src/config/aiModels/vertexai.ts +200 -0
- package/src/config/modelProviders/index.ts +3 -0
- package/src/config/modelProviders/vertexai.ts +22 -0
- package/src/database/client/db.ts +2 -1
- package/src/libs/agent-runtime/error.ts +1 -0
- package/src/libs/agent-runtime/google/index.ts +22 -4
- package/src/libs/agent-runtime/types/type.ts +1 -0
- package/src/libs/agent-runtime/utils/streams/vertex-ai.test.ts +236 -0
- package/src/libs/agent-runtime/utils/streams/vertex-ai.ts +75 -0
- package/src/libs/agent-runtime/vertexai/index.ts +23 -0
- package/src/locales/default/error.ts +1 -0
- package/src/locales/default/modelProvider.ts +7 -0
- package/src/types/user/settings/keyVaults.ts +1 -0
- package/src/utils/safeParseJSON.ts +1 -1
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage се фокусира върху разработването на AI модели за различни бизнес нужди, включително Solar LLM и документен AI, с цел постигане на човешки универсален интелект (AGI). Създава прости диалогови агенти чрез Chat API и поддържа извикване на функции, превод, вграждане и специфични приложения."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "Серията Gemini на Google е най-напредналият и универсален AI модел, създаден от Google DeepMind, проектиран за мултимодалност, който поддържа безпроблемно разбиране и обработка на текст, код, изображения, аудио и видео. Подходящ за различни среди, от центрове за данни до мобилни устройства, значително увеличава ефективността и приложимостта на AI моделите."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM е бърза и лесна за използване библиотека за LLM инференция и услуги."
|
124
127
|
},
|
package/locales/de-DE/error.json
CHANGED
@@ -76,6 +76,7 @@
|
|
76
76
|
"InvalidGithubToken": "Der persönliche Zugriffstoken für Github ist ungültig oder leer. Bitte überprüfen Sie den persönlichen Zugriffstoken für Github und versuchen Sie es erneut.",
|
77
77
|
"InvalidOllamaArgs": "Ollama-Konfiguration ist ungültig. Bitte überprüfen Sie die Ollama-Konfiguration und versuchen Sie es erneut.",
|
78
78
|
"InvalidProviderAPIKey": "{{provider}} API-Schlüssel ist ungültig oder leer. Bitte überprüfen Sie den {{provider}} API-Schlüssel und versuchen Sie es erneut.",
|
79
|
+
"InvalidVertexCredentials": "Die Vertex-Authentifizierung ist fehlgeschlagen. Bitte überprüfen Sie Ihre Authentifizierungsdaten und versuchen Sie es erneut.",
|
79
80
|
"LocationNotSupportError": "Entschuldigung, Ihr Standort unterstützt diesen Modellservice möglicherweise aufgrund von regionalen Einschränkungen oder nicht aktivierten Diensten nicht. Bitte überprüfen Sie, ob der aktuelle Standort die Verwendung dieses Dienstes unterstützt, oder versuchen Sie, andere Standortinformationen zu verwenden.",
|
80
81
|
"NoOpenAIAPIKey": "Der OpenAI-API-Schlüssel ist leer. Bitte fügen Sie einen benutzerdefinierten OpenAI-API-Schlüssel hinzu",
|
81
82
|
"OllamaBizError": "Fehler bei der Anforderung des Ollama-Dienstes. Bitte überprüfen Sie die folgenden Informationen oder versuchen Sie es erneut.",
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "Aktualisieren Sie die grundlegenden Anbieterinformationen",
|
323
323
|
"updateSuccess": "Aktualisierung erfolgreich"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "Geben Sie Ihre Vertex AI-Schlüssel ein",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Vertex AI-Schlüssel"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI Alles und Nichts"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "Für chinesische Charakterdialoge optimiert, bietet es flüssige und den chinesischen Ausdrucksgewohnheiten entsprechende Dialoggenerierung."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "Im Vergleich zur abab6.5-Modellreihe gibt es erhebliche Verbesserungen in den Fähigkeiten bei langen Texten, Mathematik und Schreiben."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 ist ein hochmodernes großes Sprachmodell, das durch verstärktes Lernen und Optimierung mit Kaltstartdaten hervorragende Leistungen in Inferenz, Mathematik und Programmierung bietet."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro ist Googles leistungsstarkes KI-Modell, das für die Skalierung einer Vielzahl von Aufgaben konzipiert ist."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash ist Googles neuestes multimodales KI-Modell, das über eine schnelle Verarbeitungskapazität verfügt und Texte, Bilder und Videoeingaben unterstützt, um eine effiziente Skalierung für verschiedene Aufgaben zu ermöglichen."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001 ist ein effizientes multimodales Modell, das eine breite Anwendbarkeit unterstützt."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash bietet nächste Generation Funktionen und Verbesserungen, einschließlich außergewöhnlicher Geschwindigkeit, nativer Werkzeugnutzung, multimodaler Generierung und einem Kontextfenster von 1M Tokens."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp ist Googles neuestes experimentelles multimodales KI-Modell mit Next-Gen-Funktionen, herausragender Geschwindigkeit, nativer Werkzeuganwendung und multimodaler Generierung."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "Ein Gemini 2.0 Flash Modell, das auf Kosteneffizienz und niedrige Latenz optimiert wurde."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp ist Googles neuestes experimentelles multimodales KI-Modell mit der nächsten Generation von Funktionen, außergewöhnlicher Geschwindigkeit, nativer Tool-Nutzung und multimodaler Generierung."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp ist Googles neuestes experimentelles multimodales KI-Modell mit der nächsten Generation von Funktionen, außergewöhnlicher Geschwindigkeit, nativen Toolaufrufen und multimodaler Generierung."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental ist Googles neuestes experimentelles multimodales KI-Modell, das im Vergleich zu früheren Versionen eine gewisse Qualitätsverbesserung aufweist, insbesondere in Bezug auf Weltwissen, Code und lange Kontexte."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 ist Googles neuestes experimentelles multimodales KI-Modell, das im Vergleich zu historischen Versionen eine gewisse Qualitätssteigerung aufweist."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B eignet sich für die Verarbeitung von mittelgroßen Aufgaben und bietet ein gutes Kosten-Nutzen-Verhältnis."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage konzentriert sich auf die Entwicklung von KI-Modellen für verschiedene geschäftliche Anforderungen, einschließlich Solar LLM und Dokumenten-KI, mit dem Ziel, künstliche allgemeine Intelligenz (AGI) zu erreichen. Es ermöglicht die Erstellung einfacher Dialogagenten über die Chat-API und unterstützt Funktionsaufrufe, Übersetzungen, Einbettungen und spezifische Anwendungsbereiche."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "Die Gemini-Serie von Google ist das fortschrittlichste, universelle KI-Modell, das von Google DeepMind entwickelt wurde. Es ist speziell für multimodale Anwendungen konzipiert und unterstützt das nahtlose Verständnis und die Verarbeitung von Text, Code, Bildern, Audio und Video. Es eignet sich für eine Vielzahl von Umgebungen, von Rechenzentren bis hin zu mobilen Geräten, und verbessert erheblich die Effizienz und Anwendbarkeit von KI-Modellen."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM ist eine schnelle und benutzerfreundliche Bibliothek für LLM-Inferenz und -Dienste."
|
124
127
|
},
|
package/locales/en-US/error.json
CHANGED
@@ -76,6 +76,7 @@
|
|
76
76
|
"InvalidGithubToken": "The GitHub Personal Access Token is incorrect or empty. Please check your GitHub Personal Access Token and try again.",
|
77
77
|
"InvalidOllamaArgs": "Invalid Ollama configuration, please check Ollama configuration and try again",
|
78
78
|
"InvalidProviderAPIKey": "{{provider}} API Key is incorrect or empty, please check your {{provider}} API Key and try again",
|
79
|
+
"InvalidVertexCredentials": "Vertex authentication failed. Please check your credentials and try again.",
|
79
80
|
"LocationNotSupportError": "We're sorry, your current location does not support this model service. This may be due to regional restrictions or the service not being available. Please confirm if the current location supports using this service, or try using a different location.",
|
80
81
|
"NoOpenAIAPIKey": "OpenAI API Key is empty, please add a custom OpenAI API Key",
|
81
82
|
"OllamaBizError": "Error requesting Ollama service, please troubleshoot or retry based on the following information",
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "Update provider basic configuration",
|
323
323
|
"updateSuccess": "Update successful"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "Enter your Vertex AI Keys",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Vertex AI Keys"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI Zero One Everything"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "Optimized for Chinese persona dialogue scenarios, providing smooth dialogue generation that aligns with Chinese expression habits."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "Significant improvements in capabilities such as long text, mathematics, and writing compared to the abab6.5 series models."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 is a state-of-the-art large language model optimized through reinforcement learning and cold-start data, excelling in reasoning, mathematics, and programming performance."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro is Google's high-performance AI model, designed for extensive task scaling."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash is Google's latest multimodal AI model, featuring rapid processing capabilities and supporting text, image, and video inputs, making it efficient for scaling across various tasks."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001 is an efficient multimodal model that supports extensive application scaling."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash offers next-generation features and improvements, including exceptional speed, native tool usage, multimodal generation, and a 1M token context window."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp is Google's latest experimental multimodal AI model, featuring next-generation capabilities, exceptional speed, native tool integration, and multimodal generation."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "A Gemini 2.0 Flash model optimized for cost-effectiveness and low latency."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp is Google's latest experimental multimodal AI model, featuring next-generation capabilities, exceptional speed, native tool invocation, and multimodal generation."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp is Google's latest experimental multimodal AI model, featuring next-generation capabilities, exceptional speed, native tool invocation, and multimodal generation."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental is Google's latest experimental multimodal AI model, showing a quality improvement compared to previous versions, especially in world knowledge, coding, and long context."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 is Google's latest experimental multimodal AI model, offering significant quality improvements compared to previous versions."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B is suitable for medium to small-scale task processing, offering cost-effectiveness."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage focuses on developing AI models for various business needs, including Solar LLM and document AI, aiming to achieve artificial general intelligence (AGI) for work. It allows for the creation of simple conversational agents through Chat API and supports functional calling, translation, embedding, and domain-specific applications."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "Google's Gemini series is its most advanced and versatile AI model, developed by Google DeepMind. It is designed for multimodal use, supporting seamless understanding and processing of text, code, images, audio, and video. Suitable for a variety of environments, from data centers to mobile devices, it significantly enhances the efficiency and applicability of AI models."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM is a fast and easy-to-use library for LLM inference and serving."
|
124
127
|
},
|
package/locales/es-ES/error.json
CHANGED
@@ -76,6 +76,7 @@
|
|
76
76
|
"InvalidGithubToken": "El token de acceso personal de Github es incorrecto o está vacío. Por favor, verifica el token de acceso personal de Github y vuelve a intentarlo.",
|
77
77
|
"InvalidOllamaArgs": "La configuración de Ollama no es válida, por favor revisa la configuración de Ollama e inténtalo de nuevo",
|
78
78
|
"InvalidProviderAPIKey": "{{provider}} API Key incorrecta o vacía, por favor revisa tu {{provider}} API Key e intenta de nuevo",
|
79
|
+
"InvalidVertexCredentials": "La autenticación de Vertex no se ha completado, por favor verifica las credenciales de autenticación y vuelve a intentarlo",
|
79
80
|
"LocationNotSupportError": "Lo sentimos, tu ubicación actual no es compatible con este servicio de modelo, puede ser debido a restricciones geográficas o a que el servicio no está disponible. Por favor, verifica si tu ubicación actual es compatible con este servicio o intenta usar otra información de ubicación.",
|
80
81
|
"NoOpenAIAPIKey": "La clave de API de OpenAI está vacía. Agregue una clave de API de OpenAI personalizada",
|
81
82
|
"OllamaBizError": "Error al solicitar el servicio de Ollama, por favor verifica la siguiente información o inténtalo de nuevo",
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "Actualizar configuración básica del proveedor",
|
323
323
|
"updateSuccess": "Actualización exitosa"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "Introduce tus claves de Vertex AI",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Claves de Vertex AI"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI Cero Uno Todo"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "Optimizado para escenarios de diálogo de personajes en chino, ofrece capacidades de generación de diálogos fluidos y acordes con las expresiones chinas."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "En comparación con la serie de modelos abab6.5, ha habido una mejora significativa en habilidades como el manejo de textos largos, matemáticas y escritura."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 es un modelo de lenguaje grande de última generación, optimizado mediante aprendizaje por refuerzo y datos de arranque en frío, con un rendimiento excepcional en razonamiento, matemáticas y programación."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro es el modelo de IA de alto rendimiento de Google, diseñado para la escalabilidad en una amplia gama de tareas."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash es el último modelo de IA multimodal de Google, que cuenta con una capacidad de procesamiento rápido, admite entradas de texto, imágenes y videos, y es adecuado para la escalabilidad eficiente en diversas tareas."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001 es un modelo multimodal eficiente, que admite la escalabilidad para aplicaciones amplias."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash ofrece funciones y mejoras de próxima generación, incluyendo velocidad excepcional, uso de herramientas nativas, generación multimodal y una ventana de contexto de 1M tokens."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp es el último modelo experimental de inteligencia artificial multimodal de Google, que cuenta con características de próxima generación, velocidad superior, llamadas nativas a herramientas y generación multimodal."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "Un modelo Gemini 2.0 Flash optimizado para objetivos de costo-efectividad y baja latencia."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp es el último modelo experimental de IA multimodal de Google, con características de próxima generación, velocidad excepcional, llamadas nativas a herramientas y generación multimodal."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp es el último modelo de IA multimodal experimental de Google, que cuenta con características de próxima generación, velocidad excepcional, llamadas a herramientas nativas y generación multimodal."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental es el último modelo de IA multimodal experimental de Google, con mejoras de calidad en comparación con versiones anteriores, especialmente en conocimiento del mundo, código y contextos largos."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 es el último modelo de IA multimodal experimental de Google, con mejoras de calidad en comparación con versiones anteriores."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B es adecuado para el procesamiento de tareas de pequeña y mediana escala, combinando rentabilidad."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage se centra en desarrollar modelos de IA para diversas necesidades comerciales, incluidos Solar LLM y Document AI, con el objetivo de lograr una inteligencia general artificial (AGI) que trabaje para las personas. Crea agentes de diálogo simples a través de la API de Chat y admite llamadas de funciones, traducción, incrustaciones y aplicaciones de dominio específico."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "La serie Gemini de Google es su modelo de IA más avanzado y versátil, desarrollado por Google DeepMind, diseñado específicamente para ser multimodal, soportando la comprensión y procesamiento sin interrupciones de texto, código, imágenes, audio y video. Es adecuado para una variedad de entornos, desde centros de datos hasta dispositivos móviles, mejorando enormemente la eficiencia y la aplicabilidad de los modelos de IA."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM es una biblioteca rápida y fácil de usar para la inferencia y el servicio de LLM."
|
124
127
|
},
|
package/locales/fa-IR/error.json
CHANGED
@@ -76,6 +76,7 @@
|
|
76
76
|
"InvalidGithubToken": "Github PAT نادرست یا خالی است، لطفاً Github PAT را بررسی کرده و دوباره تلاش کنید",
|
77
77
|
"InvalidOllamaArgs": "پیکربندی Ollama نادرست است، لطفاً پیکربندی Ollama را بررسی کرده و دوباره تلاش کنید",
|
78
78
|
"InvalidProviderAPIKey": "{{provider}} API Key نادرست یا خالی است، لطفاً {{provider}} API Key را بررسی کرده و دوباره تلاش کنید",
|
79
|
+
"InvalidVertexCredentials": "احراز هویت Vertex ناموفق بود، لطفاً گواهی احراز هویت را بررسی کرده و دوباره تلاش کنید",
|
79
80
|
"LocationNotSupportError": "متأسفیم، منطقه شما از این سرویس مدل پشتیبانی نمیکند، ممکن است به دلیل محدودیتهای منطقهای یا عدم دسترسی به سرویس باشد. لطفاً بررسی کنید که آیا منطقه فعلی شما از این سرویس پشتیبانی میکند یا سعی کنید به منطقه دیگری تغییر دهید و دوباره تلاش کنید",
|
80
81
|
"NoOpenAIAPIKey": "OpenAI API Key نادرست یا خالی است، لطفاً OpenAI API Key سفارشی اضافه کنید",
|
81
82
|
"OllamaBizError": "درخواست به سرویس Ollama با خطا مواجه شد، لطفاً بر اساس اطلاعات زیر بررسی کنید یا دوباره تلاش کنید",
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "بهروزرسانی پیکربندی پایه ارائهدهنده",
|
323
323
|
"updateSuccess": "بهروزرسانی با موفقیت انجام شد"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "کلیدهای Vertex AI خود را وارد کنید",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "کلیدهای Vertex AI"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI صفر و یک همه چیز"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "بهینهسازی شده برای سناریوهای مکالمه با شخصیتهای چینی، ارائه توانایی تولید مکالمات روان و مطابق با عادات بیانی چینی."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "نسبت به مدلهای سری abab6.5، در تواناییهای مربوط به متنهای طولانی، ریاضیات و نوشتن به طور قابل توجهی بهبود یافته است."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 یک مدل زبان بزرگ پیشرفته است که با یادگیری تقویتی و بهینهسازی دادههای راهاندازی سرد، عملکرد استدلال، ریاضیات و برنامهنویسی فوقالعادهای دارد."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro مدل هوش مصنوعی با عملکرد بالای Google است که برای گسترش وظایف گسترده طراحی شده است."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash جدیدترین مدل هوش مصنوعی چندوجهی گوگل است که دارای قابلیت پردازش سریع بوده و از ورودیهای متنی، تصویری و ویدیویی پشتیبانی میکند و برای گسترش کارآمد در انواع وظایف مناسب است."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "جمینی 1.5 فلش 001 یک مدل چندوجهی کارآمد است که از گسترش کاربردهای گسترده پشتیبانی میکند."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash ویژگیها و بهبودهای نسل بعدی را ارائه میدهد، از جمله سرعت عالی، استفاده از ابزارهای بومی، تولید چندرسانهای و پنجره متن 1M توکن."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp یک مدل هوش مصنوعی چندمدلی آزمایشی از گوگل است که دارای ویژگیهای نسل بعدی، سرعت فوقالعاده، فراخوانی ابزارهای بومی و تولید چندمدلی است."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "مدل Gemini 2.0 Flash که برای بهینهسازی هزینه و تأخیر کم طراحی شده است."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp جدیدترین مدل AI چندرسانهای آزمایشی گوگل است که دارای ویژگیهای نسل بعدی، سرعت فوقالعاده، فراخوانی ابزار بومی و تولید چندرسانهای است."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp جدیدترین مدل هوش مصنوعی چندرسانهای آزمایشی Google است که ویژگیهای نسل بعدی، سرعت فوقالعاده، فراخوانی ابزارهای بومی و تولید چندرسانهای را داراست."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental جدیدترین مدل AI چندرسانهای آزمایشی گوگل است که نسبت به نسخههای قبلی خود بهبود کیفیت قابل توجهی داشته است، به ویژه در زمینه دانش جهانی، کد و متنهای طولانی."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 جدیدترین مدل AI چندرسانهای آزمایشی Google است که نسبت به نسخههای تاریخی خود دارای ارتقاء کیفیت قابل توجهی میباشد."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B برای پردازش وظایف کوچک و متوسط مناسب است و از نظر هزینه مؤثر است."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage بر توسعه مدلهای هوش مصنوعی برای نیازهای مختلف تجاری تمرکز دارد، از جمله Solar LLM و هوش مصنوعی اسناد، که هدف آن دستیابی به هوش عمومی مصنوعی (AGI) برای کار است. با استفاده از Chat API، میتوانید نمایندگان مکالمه ساده ایجاد کنید و از قابلیتهای فراخوانی عملکرد، ترجمه، تعبیه و کاربردهای خاص حوزه پشتیبانی کنید."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "سری Gemini گوگل پیشرفتهترین و عمومیترین مدلهای هوش مصنوعی است که توسط Google DeepMind طراحی شده و بهطور خاص برای چندرسانهای طراحی شده است و از درک و پردازش بیوقفه متن، کد، تصویر، صدا و ویدیو پشتیبانی میکند. این مدلها برای محیطهای مختلف از مراکز داده تا دستگاههای همراه مناسب هستند و بهطور قابل توجهی کارایی و کاربردهای مدلهای هوش مصنوعی را افزایش میدهند."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM یک کتابخانه سریع و آسان برای استفاده است که برای استنتاج و خدمات LLM طراحی شده است."
|
124
127
|
},
|
package/locales/fr-FR/error.json
CHANGED
@@ -76,6 +76,7 @@
|
|
76
76
|
"InvalidGithubToken": "Le jeton d'accès personnel GitHub est incorrect ou vide. Veuillez vérifier le jeton d'accès personnel GitHub et réessayer.",
|
77
77
|
"InvalidOllamaArgs": "La configuration d'Ollama n'est pas valide, veuillez vérifier la configuration d'Ollama et réessayer",
|
78
78
|
"InvalidProviderAPIKey": "{{provider}} API Key incorrect or missing, please check {{provider}} API Key and try again",
|
79
|
+
"InvalidVertexCredentials": "L'authentification Vertex a échoué, veuillez vérifier vos informations d'authentification et réessayer",
|
79
80
|
"LocationNotSupportError": "Désolé, votre emplacement actuel ne prend pas en charge ce service de modèle, peut-être en raison de restrictions géographiques ou de services non disponibles. Veuillez vérifier si votre emplacement actuel prend en charge ce service ou essayer avec une autre localisation.",
|
80
81
|
"NoOpenAIAPIKey": "La clé API OpenAI est vide. Veuillez ajouter une clé API OpenAI personnalisée",
|
81
82
|
"OllamaBizError": "Erreur commerciale lors de la demande de service Ollama, veuillez vérifier les informations ci-dessous ou réessayer",
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "Mettre à jour la configuration de base du fournisseur",
|
323
323
|
"updateSuccess": "Mise à jour réussie"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "Entrez vos clés Vertex AI",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Clés Vertex AI"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI Zéro Un Tout"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "Optimisé pour des scénarios de dialogue en chinois, offrant une capacité de génération de dialogues fluide et conforme aux habitudes d'expression en chinois."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "Par rapport à la série de modèles abab6.5, il y a eu une amélioration significative des capacités en matière de textes longs, de mathématiques et d'écriture."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 est un modèle de langage de grande taille à la pointe de la technologie, optimisé par apprentissage renforcé et données de démarrage à froid, offrant d'excellentes performances en raisonnement, mathématiques et programmation."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro est le modèle d'IA haute performance de Google, conçu pour une large extension des tâches."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash est le dernier modèle d'IA multimodale de Google, doté d'une capacité de traitement rapide, prenant en charge les entrées de texte, d'images et de vidéos, et adapté à une extension efficace pour diverses tâches."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001 est un modèle multimodal efficace, prenant en charge l'extension d'applications variées."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash propose des fonctionnalités et des améliorations de nouvelle génération, y compris une vitesse exceptionnelle, l'utilisation d'outils natifs, la génération multimodale et une fenêtre de contexte de 1M tokens."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, avec des caractéristiques de nouvelle génération, une vitesse exceptionnelle, des appels d'outils natifs et une génération multimodale."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "Un modèle Gemini 2.0 Flash optimisé pour des objectifs de rentabilité et de faible latence."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, doté de caractéristiques de nouvelle génération, d'une vitesse exceptionnelle, d'appels d'outils natifs et de génération multimodale."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, doté de caractéristiques de nouvelle génération, d'une vitesse exceptionnelle, d'appels d'outils natifs et de génération multimodale."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental est le dernier modèle AI multimodal expérimental de Google, offrant une amélioration de la qualité par rapport aux versions précédentes, en particulier pour les connaissances générales, le code et les longs contextes."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 est le dernier modèle d'IA multimodal expérimental de Google, offrant une qualité améliorée par rapport aux versions précédentes."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B est adapté au traitement de tâches de taille moyenne, alliant coût et efficacité."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage se concentre sur le développement de modèles IA pour divers besoins commerciaux, y compris Solar LLM et Document AI, visant à réaliser une intelligence générale artificielle (AGI) pour le travail. Créez des agents de dialogue simples via l'API Chat, et prenez en charge les appels de fonction, la traduction, l'intégration et les applications spécifiques à un domaine."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "La série Gemini de Google est son modèle d'IA le plus avancé et polyvalent, développé par Google DeepMind, conçu pour être multimodal, prenant en charge la compréhension et le traitement sans couture de texte, de code, d'images, d'audio et de vidéo. Adapté à divers environnements, des centres de données aux appareils mobiles, il améliore considérablement l'efficacité et l'applicabilité des modèles d'IA."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM est une bibliothèque rapide et facile à utiliser pour l'inférence et les services LLM."
|
124
127
|
},
|
package/locales/it-IT/error.json
CHANGED
@@ -76,6 +76,7 @@
|
|
76
76
|
"InvalidGithubToken": "Il token di accesso personale di Github non è corretto o è vuoto. Controlla il token di accesso personale di Github e riprova.",
|
77
77
|
"InvalidOllamaArgs": "Configurazione Ollama non valida, controllare la configurazione di Ollama e riprovare",
|
78
78
|
"InvalidProviderAPIKey": "{{provider}} Chiave API non valida o vuota, controlla la Chiave API di {{provider}} e riprova",
|
79
|
+
"InvalidVertexCredentials": "Autenticazione Vertex non riuscita, controlla le credenziali di autenticazione e riprova",
|
79
80
|
"LocationNotSupportError": "Spiacenti, la tua posizione attuale non supporta questo servizio modello, potrebbe essere a causa di restrizioni geografiche o servizi non attivati. Verifica se la posizione attuale supporta l'uso di questo servizio o prova a utilizzare un'altra posizione.",
|
80
81
|
"NoOpenAIAPIKey": "La chiave API OpenAI è vuota. Aggiungi una chiave API personalizzata OpenAI",
|
81
82
|
"OllamaBizError": "Errore di servizio Ollama, controllare le informazioni seguenti o riprovare",
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "Aggiorna la configurazione di base del fornitore",
|
323
323
|
"updateSuccess": "Aggiornamento avvenuto con successo"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "Inserisci le tue chiavi Vertex AI",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Chiavi Vertex AI"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI ZeroOne"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "Ottimizzato per scenari di dialogo con personaggi cinesi, offre capacità di generazione di dialoghi fluida e conforme alle espressioni cinesi."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "Rispetto alla serie di modelli abab6.5, ci sono stati notevoli miglioramenti nelle capacità di elaborazione di testi lunghi, matematica e scrittura."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 è un modello linguistico di grandi dimensioni all'avanguardia, ottimizzato tramite apprendimento rinforzato e dati di cold start, con prestazioni eccezionali nel ragionamento, nella matematica e nella programmazione."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro è il modello AI ad alte prestazioni di Google, progettato per l'espansione su una vasta gamma di compiti."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash è il più recente modello AI multimodale di Google, dotato di capacità di elaborazione rapida, supporta input di testo, immagini e video, ed è adatto per un'efficiente scalabilità in vari compiti."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001 è un modello multimodale efficiente, supporta l'espansione per applicazioni ampie."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash offre funzionalità e miglioramenti di nuova generazione, tra cui velocità eccezionale, utilizzo di strumenti nativi, generazione multimodale e una finestra di contesto di 1M token."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp è il nuovo modello AI multimodale sperimentale di Google, dotato di funzionalità di nuova generazione, velocità straordinaria, chiamate di strumenti native e generazione multimodale."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "Un modello Gemini 2.0 Flash ottimizzato per obiettivi di costo-efficacia e bassa latenza."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp è il più recente modello AI multimodale sperimentale di Google, dotato di caratteristiche di nuova generazione, velocità eccezionale, chiamate a strumenti nativi e generazione multimodale."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp è il più recente modello AI multimodale sperimentale di Google, dotato di funzionalità di nuova generazione, velocità eccezionale, chiamate a strumenti nativi e generazione multimodale."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental è il più recente modello AI multimodale sperimentale di Google, con un miglioramento della qualità rispetto alle versioni precedenti, in particolare per quanto riguarda la conoscenza del mondo, il codice e i contesti lunghi."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 è il modello AI multimodale sperimentale più recente di Google, con miglioramenti significativi della qualità rispetto alle versioni precedenti."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B è adatto per l'elaborazione di compiti di piccole e medie dimensioni, combinando efficienza dei costi."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage si concentra sullo sviluppo di modelli AI per varie esigenze commerciali, inclusi Solar LLM e document AI, con l'obiettivo di realizzare un'intelligenza artificiale generale artificiale (AGI) per il lavoro. Crea semplici agenti di dialogo tramite Chat API e supporta chiamate funzionali, traduzioni, embedding e applicazioni specifiche del settore."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "La serie Gemini di Google è il suo modello AI più avanzato e versatile, sviluppato da Google DeepMind, progettato per essere multimodale e supportare la comprensione e l'elaborazione senza soluzione di continuità di testo, codice, immagini, audio e video. Adatta a una varietà di ambienti, dai data center ai dispositivi mobili, migliora notevolmente l'efficienza e l'ampia applicabilità dei modelli AI."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM è una libreria veloce e facile da usare per l'inferenza e i servizi LLM."
|
124
127
|
},
|
package/locales/ja-JP/error.json
CHANGED
@@ -76,6 +76,7 @@
|
|
76
76
|
"InvalidGithubToken": "Githubのパーソナルアクセストークンが無効または空です。Githubのパーソナルアクセストークンを確認してから、再試行してください。",
|
77
77
|
"InvalidOllamaArgs": "Ollamaの設定が正しくありません。Ollamaの設定を確認してからもう一度お試しください",
|
78
78
|
"InvalidProviderAPIKey": "{{provider}} APIキーが正しくないか空です。{{provider}} APIキーを確認して再試行してください。",
|
79
|
+
"InvalidVertexCredentials": "Vertexの認証に失敗しました。認証情報を確認して再試行してください",
|
79
80
|
"LocationNotSupportError": "申し訳ありませんが、お住まいの地域ではこのモデルサービスをサポートしていません。地域制限またはサービスが利用できない可能性があります。現在の位置がこのサービスをサポートしているかどうかを確認するか、他の位置情報を使用してみてください。",
|
80
81
|
"NoOpenAIAPIKey": "OpenAI APIキーが空です。カスタムOpenAI APIキーを追加してください。",
|
81
82
|
"OllamaBizError": "Ollamaサービスのリクエストでエラーが発生しました。以下の情報に基づいてトラブルシューティングを行うか、再度お試しください",
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "サービスプロバイダーの基本設定を更新",
|
323
323
|
"updateSuccess": "更新に成功しました"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "あなたの Vertex AI キーを入力してください",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Vertex AI キー"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI 零一万物"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "中国語のキャラクター対話シーンに最適化されており、流暢で中国語の表現習慣に合った対話生成能力を提供します。"
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "abab6.5シリーズモデルに比べて、長文、数学、執筆などの能力が大幅に向上しています。"
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1は、強化学習とコールドスタートデータの最適化を経た最先端の大規模言語モデルで、優れた推論、数学、プログラミング性能を持っています。"
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Proは、Googleの高性能AIモデルであり、幅広いタスクの拡張に特化しています。"
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flashは、Googleの最新のマルチモーダルAIモデルで、高速処理能力を備え、テキスト、画像、動画の入力をサポートし、さまざまなタスクに対して効率的に拡張できます。"
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001は、効率的なマルチモーダルモデルであり、幅広いアプリケーションの拡張をサポートします。"
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flashは、卓越した速度、ネイティブツールの使用、マルチモーダル生成、1Mトークンのコンテキストウィンドウを含む次世代の機能と改善を提供します。"
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp は、Google の最新の実験的なマルチモーダル AI モデルで、次世代の機能、卓越した速度、ネイティブツールの呼び出し、マルチモーダル生成を備えています。"
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "コスト効率と低遅延を目指して最適化されたGemini 2.0 Flashモデルです。"
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Expは、Googleの最新の実験的なマルチモーダルAIモデルであり、次世代の機能、卓越した速度、ネイティブツールの呼び出し、マルチモーダル生成を備えています。"
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Expは、Googleの最新の実験的なマルチモーダルAIモデルで、次世代の機能、卓越した速度、ネイティブツールの呼び出し、そしてマルチモーダル生成を備えています。"
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimentalは、Googleの最新の実験的なマルチモーダルAIモデルで、歴史的なバージョンと比較して品質が向上しています。特に、世界の知識、コード、長いコンテキストにおいて顕著です。"
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206は、Googleの最新の実験的なマルチモーダルAIモデルで、過去のバージョンと比較して品質が向上しています。"
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7Bは、中小規模のタスク処理に適しており、コスト効果を兼ね備えています。"
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstageは、さまざまなビジネスニーズに応じたAIモデルの開発に特化しており、Solar LLMや文書AIを含み、人造一般知能(AGI)の実現を目指しています。Chat APIを通じてシンプルな対話エージェントを作成し、機能呼び出し、翻訳、埋め込み、特定分野のアプリケーションをサポートします。"
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "GoogleのGeminiシリーズは、Google DeepMindによって開発された最先端の汎用AIモデルであり、マルチモーダル設計に特化しています。テキスト、コード、画像、音声、動画のシームレスな理解と処理をサポートし、データセンターからモバイルデバイスまでのさまざまな環境で使用できます。AIモデルの効率と適用範囲を大幅に向上させます。"
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLMは、LLM推論とサービスのための迅速で使いやすいライブラリです。"
|
124
127
|
},
|
package/locales/ko-KR/error.json
CHANGED
@@ -76,6 +76,7 @@
|
|
76
76
|
"InvalidGithubToken": "Github 개인 액세스 토큰이 올바르지 않거나 비어 있습니다. Github 개인 액세스 토큰을 확인한 후 다시 시도해 주십시오.",
|
77
77
|
"InvalidOllamaArgs": "Ollama 구성이 잘못되었습니다. Ollama 구성을 확인한 후 다시 시도하십시오.",
|
78
78
|
"InvalidProviderAPIKey": "{{provider}} API 키가 잘못되었거나 비어 있습니다. {{provider}} API 키를 확인하고 다시 시도하십시오.",
|
79
|
+
"InvalidVertexCredentials": "Vertex 인증에 실패했습니다. 인증 정보를 확인한 후 다시 시도해 주세요.",
|
79
80
|
"LocationNotSupportError": "죄송합니다. 귀하의 현재 위치는 해당 모델 서비스를 지원하지 않습니다. 지역 제한 또는 서비스 미개통으로 인한 것일 수 있습니다. 현재 위치가 해당 서비스를 지원하는지 확인하거나 다른 위치 정보를 사용해 보십시오.",
|
80
81
|
"NoOpenAIAPIKey": "OpenAI API 키가 비어 있습니다. 사용자 정의 OpenAI API 키를 추가해주세요.",
|
81
82
|
"OllamaBizError": "Ollama 서비스 요청 중 오류가 발생했습니다. 아래 정보를 확인하고 다시 시도하십시오.",
|