@lobehub/chat 1.60.8 → 1.61.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/ISSUE_TEMPLATE/1_bug_report.yml +2 -1
- package/.github/ISSUE_TEMPLATE/1_bug_report_cn.yml +1 -0
- package/.github/workflows/docker-pglite.yml +161 -0
- package/CHANGELOG.md +50 -0
- package/Dockerfile.pglite +244 -0
- package/changelog/v1.json +17 -0
- package/locales/ar/error.json +1 -0
- package/locales/ar/modelProvider.json +7 -0
- package/locales/ar/models.json +3 -12
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/error.json +1 -0
- package/locales/bg-BG/modelProvider.json +7 -0
- package/locales/bg-BG/models.json +3 -12
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/error.json +1 -0
- package/locales/de-DE/modelProvider.json +7 -0
- package/locales/de-DE/models.json +3 -12
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/error.json +1 -0
- package/locales/en-US/modelProvider.json +7 -0
- package/locales/en-US/models.json +3 -12
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/error.json +1 -0
- package/locales/es-ES/modelProvider.json +7 -0
- package/locales/es-ES/models.json +3 -12
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/error.json +1 -0
- package/locales/fa-IR/modelProvider.json +7 -0
- package/locales/fa-IR/models.json +3 -12
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/error.json +1 -0
- package/locales/fr-FR/modelProvider.json +7 -0
- package/locales/fr-FR/models.json +3 -12
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/error.json +1 -0
- package/locales/it-IT/modelProvider.json +7 -0
- package/locales/it-IT/models.json +3 -12
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/error.json +1 -0
- package/locales/ja-JP/modelProvider.json +7 -0
- package/locales/ja-JP/models.json +3 -12
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/error.json +1 -0
- package/locales/ko-KR/modelProvider.json +7 -0
- package/locales/ko-KR/models.json +3 -12
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/error.json +1 -0
- package/locales/nl-NL/modelProvider.json +7 -0
- package/locales/nl-NL/models.json +3 -12
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/error.json +1 -0
- package/locales/pl-PL/modelProvider.json +7 -0
- package/locales/pl-PL/models.json +3 -12
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/error.json +1 -0
- package/locales/pt-BR/modelProvider.json +7 -0
- package/locales/pt-BR/models.json +3 -12
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/error.json +1 -0
- package/locales/ru-RU/modelProvider.json +7 -0
- package/locales/ru-RU/models.json +3 -12
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/error.json +1 -0
- package/locales/tr-TR/modelProvider.json +7 -0
- package/locales/tr-TR/models.json +3 -12
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/error.json +1 -0
- package/locales/vi-VN/modelProvider.json +7 -0
- package/locales/vi-VN/models.json +3 -12
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/error.json +1 -0
- package/locales/zh-CN/modelProvider.json +7 -0
- package/locales/zh-CN/models.json +3 -12
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/error.json +1 -0
- package/locales/zh-TW/modelProvider.json +7 -0
- package/locales/zh-TW/models.json +3 -12
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +2 -1
- package/src/app/(backend)/webapi/chat/vertexai/route.ts +35 -0
- package/src/app/[variants]/(main)/settings/provider/(detail)/huggingface/page.tsx +3 -3
- package/src/app/[variants]/(main)/settings/provider/(detail)/vertexai/page.tsx +67 -0
- package/src/config/aiModels/index.ts +3 -0
- package/src/config/aiModels/vertexai.ts +200 -0
- package/src/config/modelProviders/index.ts +3 -0
- package/src/config/modelProviders/vertexai.ts +22 -0
- package/src/database/client/db.ts +2 -1
- package/src/libs/agent-runtime/error.ts +1 -0
- package/src/libs/agent-runtime/google/index.ts +22 -4
- package/src/libs/agent-runtime/types/type.ts +1 -0
- package/src/libs/agent-runtime/utils/streams/vertex-ai.test.ts +236 -0
- package/src/libs/agent-runtime/utils/streams/vertex-ai.ts +75 -0
- package/src/libs/agent-runtime/vertexai/index.ts +23 -0
- package/src/locales/default/error.ts +1 -0
- package/src/locales/default/modelProvider.ts +7 -0
- package/src/types/user/settings/keyVaults.ts +1 -0
- package/src/utils/safeParseJSON.ts +1 -1
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "서비스 제공자 기본 설정 업데이트",
|
323
323
|
"updateSuccess": "업데이트 성공"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "당신의 Vertex AI 키를 입력하세요",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Vertex AI 키"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI Zero One All Things"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "중국어 캐릭터 대화 시나리오에 최적화되어 있으며, 유창하고 중국어 표현 습관에 맞는 대화 생성 능력을 제공합니다."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "abab6.5 시리즈 모델에 비해 긴 글, 수학, 작문 등에서 능력이 크게 향상되었습니다."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1은 최첨단 대형 언어 모델로, 강화 학습과 콜드 스타트 데이터를 최적화하여 뛰어난 추론, 수학 및 프로그래밍 성능을 제공합니다."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro는 Google의 고성능 AI 모델로, 광범위한 작업 확장을 위해 설계되었습니다."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash는 Google의 최신 다중 모달 AI 모델로, 빠른 처리 능력을 갖추고 있으며 텍스트, 이미지 및 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001은 효율적인 다중 모달 모델로, 광범위한 응용 프로그램 확장을 지원합니다."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash는 뛰어난 속도, 원주율 도구 사용, 다중 모달 생성 및 1M 토큰 문맥 창을 포함한 차세대 기능과 개선 사항을 제공합니다."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모달 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모달 생성을 갖추고 있습니다."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "비용 효율성과 낮은 지연 시간 등을 목표로 최적화된 Gemini 2.0 Flash 모델입니다."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모드 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모드 생성을 제공합니다."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모드 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모드 생성을 제공합니다."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental은 Google의 최신 실험적 다중 모달 AI 모델로, 이전 버전과 비교하여 품질이 향상되었습니다. 특히 세계 지식, 코드 및 긴 문맥에 대해 개선되었습니다."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206은 Google의 최신 실험적 다중 모달 AI 모델로, 이전 버전에 비해 품질이 개선되었습니다."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B는 중소 규모 작업 처리에 적합하며, 비용 효과성을 갖추고 있습니다."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage는 Solar LLM 및 문서 AI를 포함하여 다양한 비즈니스 요구를 위한 AI 모델 개발에 집중하고 있으며, 인공지능 일반 지능(AGI)을 실현하는 것을 목표로 하고 있습니다. Chat API를 통해 간단한 대화 에이전트를 생성하고 기능 호출, 번역, 임베딩 및 특정 분야 응용 프로그램을 지원합니다."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "구글의 제미니 시리즈는 구글 딥마인드가 개발한 최첨단 범용 AI 모델로, 다중 모드에 맞춰 설계되어 텍스트, 코드, 이미지, 오디오 및 비디오의 원활한 이해와 처리를 지원합니다. 데이터 센터에서 모바일 장치에 이르기까지 다양한 환경에 적합하며, AI 모델의 효율성과 응용 범위를 크게 향상시킵니다."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM은 LLM 추론 및 서비스를 위한 빠르고 사용하기 쉬운 라이브러리입니다."
|
124
127
|
},
|
package/locales/nl-NL/error.json
CHANGED
@@ -76,6 +76,7 @@
|
|
76
76
|
"InvalidGithubToken": "Github Persoonlijke Toegangstoken is ongeldig of leeg, controleer de Github Persoonlijke Toegangstoken en probeer het opnieuw.",
|
77
77
|
"InvalidOllamaArgs": "Ollama-configuratie is onjuist, controleer de Ollama-configuratie en probeer het opnieuw",
|
78
78
|
"InvalidProviderAPIKey": "{{provider}} API-sleutel is onjuist of leeg. Controleer de {{provider}} API-sleutel en probeer het opnieuw.",
|
79
|
+
"InvalidVertexCredentials": "Vertex-authenticatie is mislukt, controleer de authenticatiegegevens en probeer het opnieuw",
|
79
80
|
"LocationNotSupportError": "Sorry, your current location does not support this model service, possibly due to regional restrictions or service not being available. Please confirm if the current location supports using this service, or try using other location information.",
|
80
81
|
"NoOpenAIAPIKey": "OpenAI API-sleutel ontbreekt. Voeg een aangepaste OpenAI API-sleutel toe",
|
81
82
|
"OllamaBizError": "Fout bij het aanroepen van de Ollama-service, controleer de onderstaande informatie en probeer opnieuw",
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "Werk basisconfiguratie van provider bij",
|
323
323
|
"updateSuccess": "Bijwerking geslaagd"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "Vul je Vertex AI-sleutels in",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Vertex AI-sleutels"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI Nul Een Alles"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "Geoptimaliseerd voor Chinese personagegesprekken, biedt vloeiende en cultureel passende gespreksgeneratiecapaciteiten."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "In vergelijking met de abab6.5-serie modellen zijn er aanzienlijke verbeteringen in de capaciteiten op het gebied van lange teksten, wiskunde, schrijven, enzovoort."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 is een geavanceerd groot taalmodel, geoptimaliseerd met versterkend leren en koude startdata, met uitstekende prestaties in redeneren, wiskunde en programmeren."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro is Google's high-performance AI-model, ontworpen voor brede taakuitbreiding."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash is het nieuwste multimodale AI-model van Google, met snelle verwerkingscapaciteiten, ondersteuning voor tekst-, beeld- en video-invoer, en efficiënt schaalbaar voor verschillende taken."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001 is een efficiënt multimodaal model dat ondersteuning biedt voor brede toepassingsuitbreiding."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash biedt next-gen functies en verbeteringen, waaronder uitstekende snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1M tokens."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met de volgende generatie functies, uitstekende snelheid, ingebouwde tool-aanroepen en multimodale generatie."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "Een Gemini 2.0 Flash-model dat is geoptimaliseerd voor kosteneffectiviteit en lage latentie."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met next-gen functies, uitstekende snelheid, native tool-aanroepen en multimodale generatie."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met next-gen functies, uitstekende snelheid, native tool-aanroepen en multimodale generatie."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental is Google's nieuwste experimentele multimodale AI-model, met aanzienlijke kwaliteitsverbeteringen ten opzichte van eerdere versies, vooral op het gebied van wereldkennis, code en lange context."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 is Google's nieuwste experimentele multimodale AI-model, met een aanzienlijke kwaliteitsverbetering ten opzichte van eerdere versies."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B is geschikt voor het verwerken van middelgrote taken, met een goede kosteneffectiviteit."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage richt zich op het ontwikkelen van AI-modellen voor verschillende zakelijke behoeften, waaronder Solar LLM en document AI, met als doel het realiseren van kunstmatige algemene intelligentie (AGI). Het creëert eenvoudige dialoogagenten via de Chat API en ondersteunt functionele aanroepen, vertalingen, insluitingen en specifieke domeintoepassingen."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "De Gemini-serie van Google is zijn meest geavanceerde, algemene AI-modellen, ontwikkeld door Google DeepMind. Deze modellen zijn ontworpen voor multimodale toepassingen en ondersteunen naadloze begrip en verwerking van tekst, code, afbeeldingen, audio en video. Ze zijn geschikt voor verschillende omgevingen, van datacenters tot mobiele apparaten, en verbeteren aanzienlijk de efficiëntie en toepasbaarheid van AI-modellen."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM is een snelle en gebruiksvriendelijke bibliotheek voor LLM-inferentie en -diensten."
|
124
127
|
},
|
package/locales/pl-PL/error.json
CHANGED
@@ -76,6 +76,7 @@
|
|
76
76
|
"InvalidGithubToken": "Token dostępu osobistego do GitHub jest niewłaściwy lub pusty. Proszę sprawdzić Token dostępu osobistego do GitHub i spróbować ponownie.",
|
77
77
|
"InvalidOllamaArgs": "Nieprawidłowa konfiguracja Ollama, sprawdź konfigurację Ollama i spróbuj ponownie",
|
78
78
|
"InvalidProviderAPIKey": "{{provider}} Klucz API jest nieprawidłowy lub pusty. Sprawdź Klucz API {{provider}} i spróbuj ponownie.",
|
79
|
+
"InvalidVertexCredentials": "Weryfikacja poświadczeń Vertex nie powiodła się, proszę sprawdzić poświadczenia i spróbować ponownie",
|
79
80
|
"LocationNotSupportError": "Przepraszamy, Twoja lokalizacja nie obsługuje tego usługi modelu, być może ze względu na ograniczenia regionalne lub brak dostępności usługi. Proszę sprawdź, czy bieżąca lokalizacja obsługuje tę usługę, lub spróbuj użyć innych informacji o lokalizacji.",
|
80
81
|
"NoOpenAIAPIKey": "Klucz API OpenAI jest pusty. Proszę dodać niestandardowy klucz API OpenAI",
|
81
82
|
"OllamaBizError": "Błąd usługi Ollama, sprawdź poniższe informacje lub spróbuj ponownie",
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "Aktualizuj podstawowe ustawienia dostawcy",
|
323
323
|
"updateSuccess": "Aktualizacja zakończona sukcesem"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "Wprowadź swoje klucze Vertex AI",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Klucze Vertex AI"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI Zero Jeden Wszystko"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "Optymalizowany do scenariuszy dialogowych w języku chińskim, oferujący płynne i zgodne z chińskimi zwyczajami generowanie dialogów."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "W porównaniu do modeli z serii abab6.5, zdolności w zakresie długich tekstów, matematyki i pisania uległy znacznej poprawie."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 to zaawansowany model językowy, który został zoptymalizowany dzięki uczeniu przez wzmocnienie i danym z zimnego startu, oferując doskonałe możliwości wnioskowania, matematyki i programowania."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro to model AI o wysokiej wydajności od Google, zaprojektowany do szerokiego rozszerzania zadań."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash to najnowszy model AI wielomodalnego od Google, charakteryzujący się szybkim przetwarzaniem, obsługujący wejścia tekstowe, obrazowe i wideo, idealny do efektywnego rozszerzania w różnych zadaniach."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001 to wydajny model multimodalny, wspierający szerokie zastosowania."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash oferuje funkcje i ulepszenia nowej generacji, w tym doskonałą prędkość, natywne korzystanie z narzędzi, generowanie multimodalne oraz okno kontekstowe o długości 1M tokenów."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI o wielu modalnościach od Google, który oferuje cechy nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generowanie multimodalne."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "Model Gemini 2.0 Flash, zoptymalizowany pod kątem efektywności kosztowej i niskiej latencji."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI multimodalnego Google, posiadający cechy nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generację multimodalną."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI multimodalnego Google, oferujący funkcje nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generację multimodalną."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental to najnowszy eksperymentalny model AI o wielu modalnościach od Google, który w porównaniu do wcześniejszych wersji oferuje pewne poprawy jakości, szczególnie w zakresie wiedzy o świecie, kodu i długiego kontekstu."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 to najnowszy eksperymentalny model AI Google w multimodalności, z zauważalnym poprawieniem jakości w porównaniu do wcześniejszych wersji."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B nadaje się do przetwarzania zadań średniej i małej skali, łącząc efektywność kosztową."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage koncentruje się na opracowywaniu modeli AI dla różnych potrzeb biznesowych, w tym Solar LLM i dokumentów AI, mając na celu osiągnięcie sztucznej ogólnej inteligencji (AGI). Umożliwia tworzenie prostych agentów konwersacyjnych za pomocą Chat API oraz wspiera wywołania funkcji, tłumaczenia, osadzenia i zastosowania w określonych dziedzinach."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "Seria Gemini od Google to najnowocześniejsze, uniwersalne modele AI stworzone przez Google DeepMind, zaprojektowane z myślą o multimodalności, wspierające bezproblemowe rozumienie i przetwarzanie tekstu, kodu, obrazów, dźwięku i wideo. Odpowiednie do różnych środowisk, od centrów danych po urządzenia mobilne, znacznie zwiększa efektywność i wszechstronność modeli AI."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM to szybka i łatwa w użyciu biblioteka do wnioskowania i usług LLM."
|
124
127
|
},
|
package/locales/pt-BR/error.json
CHANGED
@@ -76,6 +76,7 @@
|
|
76
76
|
"InvalidGithubToken": "O Token de Acesso Pessoal do Github está incorreto ou vazio. Por favor, verifique o Token de Acesso Pessoal do Github e tente novamente.",
|
77
77
|
"InvalidOllamaArgs": "Configuração Ollama inválida, verifique a configuração do Ollama e tente novamente",
|
78
78
|
"InvalidProviderAPIKey": "{{provider}} API Key inválido ou em branco, por favor, verifique o {{provider}} API Key e tente novamente",
|
79
|
+
"InvalidVertexCredentials": "A autenticação do Vertex falhou, por favor verifique suas credenciais e tente novamente",
|
79
80
|
"LocationNotSupportError": "Desculpe, sua localização atual não suporta este serviço de modelo, pode ser devido a restrições geográficas ou serviço não disponível. Por favor, verifique se a localização atual suporta o uso deste serviço ou tente usar outras informações de localização.",
|
80
81
|
"NoOpenAIAPIKey": "A chave de API do OpenAI está em branco. Adicione uma chave de API personalizada do OpenAI",
|
81
82
|
"OllamaBizError": "Erro de negócio ao solicitar o serviço Ollama, verifique as informações a seguir ou tente novamente",
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "Atualizar configurações básicas do provedor",
|
323
323
|
"updateSuccess": "Atualização bem-sucedida"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "Insira suas Chaves do Vertex AI",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Chaves do Vertex AI"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI Zero e Um"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "Otimizado para cenários de diálogo de personagens em chinês, oferecendo capacidade de geração de diálogos fluentes e que respeitam os hábitos de expressão em chinês."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "Em comparação com a série de modelos abab6.5, houve uma melhoria significativa nas habilidades em textos longos, matemática, escrita, entre outros."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 é um modelo de linguagem grande de última geração, otimizado com aprendizado por reforço e dados de inicialização a frio, apresentando desempenho excepcional em raciocínio, matemática e programação."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro é o modelo de IA de alto desempenho do Google, projetado para expansão em uma ampla gama de tarefas."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash é o mais recente modelo de IA multimodal do Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a escalabilidade eficiente de diversas tarefas."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001 é um modelo multimodal eficiente, suportando a expansão de aplicações amplas."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash oferece funcionalidades e melhorias de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e uma janela de contexto de 1M tokens."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "O Gemini 2.0 Flash Exp é o mais recente modelo de IA multiodal experimental do Google, com recursos de próxima geração, velocidade extraordinária, chamadas nativas de ferramentas e geração multimodal."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "Um modelo Gemini 2.0 Flash otimizado para custo-benefício e baixa latência."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "O Gemini 2.0 Flash Exp é o mais recente modelo experimental de IA multimodal do Google, com características de próxima geração, velocidade excepcional, chamadas nativas de ferramentas e geração multimodal."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp é o mais recente modelo de IA multimodal experimental do Google, com recursos de próxima geração, velocidade excepcional, chamadas nativas de ferramentas e geração multimodal."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental é o mais recente modelo de IA multimodal experimental do Google, apresentando melhorias de qualidade em comparação com versões anteriores, especialmente em conhecimento mundial, código e contextos longos."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 é o mais recente modelo experimental multimodal da Google, apresentando uma melhoria na qualidade em comparação com versões anteriores."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B é adequado para o processamento de tarefas de pequeno a médio porte, combinando custo e eficiência."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage se concentra no desenvolvimento de modelos de IA para diversas necessidades comerciais, incluindo Solar LLM e Document AI, visando alcançar uma inteligência geral artificial (AGI) que funcione. Crie agentes de diálogo simples por meio da API de Chat e suporte chamadas de função, tradução, incorporação e aplicações em domínios específicos."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "A série Gemini do Google é seu modelo de IA mais avançado e versátil, desenvolvido pelo Google DeepMind, projetado para ser multimodal, suportando compreensão e processamento sem costura de texto, código, imagens, áudio e vídeo. Adequado para uma variedade de ambientes, desde data centers até dispositivos móveis, aumentando significativamente a eficiência e a aplicabilidade dos modelos de IA."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM é uma biblioteca rápida e fácil de usar para inferência e serviços de LLM."
|
124
127
|
},
|
package/locales/ru-RU/error.json
CHANGED
@@ -76,6 +76,7 @@
|
|
76
76
|
"InvalidGithubToken": "Личный токен доступа Github некорректен или пуст, пожалуйста, проверьте личный токен доступа Github и повторите попытку",
|
77
77
|
"InvalidOllamaArgs": "Неверная конфигурация Ollama, пожалуйста, проверьте конфигурацию Ollama и повторите попытку",
|
78
78
|
"InvalidProviderAPIKey": "{{provider}} API ключ недействителен или отсутствует. Пожалуйста, проверьте ключ API {{provider}} и повторите попытку",
|
79
|
+
"InvalidVertexCredentials": "Аутентификация Vertex не прошла, пожалуйста, проверьте учетные данные и попробуйте снова",
|
79
80
|
"LocationNotSupportError": "Извините, ваше текущее местоположение не поддерживает эту службу модели, возможно из-за ограничений региона или недоступности службы. Пожалуйста, убедитесь, что текущее местоположение поддерживает использование этой службы, или попробуйте использовать другую информацию о местоположении.",
|
80
81
|
"NoOpenAIAPIKey": "Ключ OpenAI API пуст, пожалуйста, добавьте свой собственный ключ OpenAI API",
|
81
82
|
"OllamaBizError": "Ошибка обращения к сервису Ollama, пожалуйста, проверьте следующую информацию или повторите попытку",
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "Обновить базовую конфигурацию провайдера",
|
323
323
|
"updateSuccess": "Обновление успешно"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "Введите ваши ключи Vertex AI",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Ключи Vertex AI"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI Цифровая Вселенная"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "Оптимизирован для диалогов на китайском языке, обеспечивая плавную генерацию диалогов, соответствующую китайским языковым привычкам."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "По сравнению с серией моделей abab6.5, значительно улучшены способности в области длинных текстов, математики и написания."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 — это передовая большая языковая модель, оптимизированная с помощью обучения с подкреплением и холодных стартовых данных, обладающая выдающимися показателями вывода, математики и программирования."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro — это высокопроизводительная модель ИИ от Google, разработанная для масштабирования широкого спектра задач."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash — это последняя многомодальная модель ИИ от Google, обладающая высокой скоростью обработки и поддерживающая текстовые, графические и видеовходы, что делает её эффективной для масштабирования различных задач."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001 — это эффективная многомодальная модель, поддерживающая масштабирование для широкого спектра приложений."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash предлагает функции следующего поколения и улучшения, включая выдающуюся скорость, использование встроенных инструментов, многомодальную генерацию и контекстное окно на 1M токенов."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp — это новейшая экспериментальная мультимодальная AI-модель от Google, обладающая функциями следующего поколения, выдающейся скоростью, нативными инструментами и мультимодальной генерацией."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "Модель Gemini 2.0 Flash, оптимизированная для экономической эффективности и низкой задержки."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp — это последняя экспериментальная многомодальная AI модель от Google, обладающая следующими поколениями характеристик, выдающейся скоростью, нативным вызовом инструментов и многомодальной генерацией."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp — это последняя экспериментальная многомодальная AI-модель от Google, обладающая следующими поколениями функций, выдающейся скоростью, нативными вызовами инструментов и многомодальной генерацией."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental — это последняя экспериментальная многомодальная AI модель от Google, которая демонстрирует определенное улучшение качества по сравнению с предыдущими версиями, особенно в области мировых знаний, кода и длинного контекста."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 — это новейшая экспериментальная многомодальная AI модель от Google, которая продемонстрировала определенное улучшение качества по сравнению с предыдущими версиями."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B подходит для обработки задач среднего и малого масштаба, обеспечивая экономическую эффективность."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage сосредоточен на разработке AI-моделей для различных бизнес-потребностей, включая Solar LLM и документальный AI, с целью достижения искусственного общего интеллекта (AGI). Создавайте простые диалоговые агенты через Chat API и поддерживайте вызовы функций, переводы, встраивания и приложения в конкретных областях."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "Серия Gemini от Google — это самые современные и универсальные AI-модели, разработанные Google DeepMind, специально созданные для мультимодальности, поддерживающие бесшовное понимание и обработку текста, кода, изображений, аудио и видео. Подходят для различных сред, от дата-центров до мобильных устройств, значительно повышая эффективность и универсальность применения AI-моделей."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM — это быстрая и простая в использовании библиотека для вывода и обслуживания LLM."
|
124
127
|
},
|
package/locales/tr-TR/error.json
CHANGED
@@ -76,6 +76,7 @@
|
|
76
76
|
"InvalidGithubToken": "Github Kişisel Erişim Token'ı hatalı veya boş. Lütfen Github Kişisel Erişim Token'ınızı kontrol edin ve tekrar deneyin.",
|
77
77
|
"InvalidOllamaArgs": "Ollama yapılandırması yanlış, lütfen Ollama yapılandırmasını kontrol edip tekrar deneyin",
|
78
78
|
"InvalidProviderAPIKey": "{{provider}} API Anahtarı geçersiz veya boş, lütfen {{provider}} API Anahtarını kontrol edip tekrar deneyin",
|
79
|
+
"InvalidVertexCredentials": "Vertex kimlik doğrulaması başarısız oldu, lütfen kimlik bilgilerinizi kontrol edip tekrar deneyin",
|
79
80
|
"LocationNotSupportError": "Üzgünüz, bulunduğunuz konum bu model hizmetini desteklemiyor, muhtemelen bölge kısıtlamaları veya hizmetin henüz açılmamış olması nedeniyle. Lütfen mevcut konumun bu hizmeti kullanmaya uygun olup olmadığını doğrulayın veya başka bir konum bilgisi kullanmayı deneyin.",
|
80
81
|
"NoOpenAIAPIKey": "OpenAI API Anahtarı boş, lütfen özel bir OpenAI API Anahtarı ekleyin",
|
81
82
|
"OllamaBizError": "Ollama servisine yapılan istekte hata oluştu, lütfen aşağıdaki bilgilere göre sorunu gidermeye çalışın veya tekrar deneyin",
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "Hizmet sağlayıcının temel yapılandırmasını güncelle",
|
323
323
|
"updateSuccess": "Güncelleme başarılı"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "Vertex AI Anahtarlarınızı buraya girin",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Vertex AI Anahtarları"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI Sıfır Bir"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "Çin karakter diyalog senaryoları için optimize edilmiş, akıcı ve Çin ifade alışkanlıklarına uygun diyalog üretim yeteneği sunar."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "abab6.5 serisi modellere kıyasla uzun metin, matematik, yazım gibi yeteneklerde büyük bir gelişim göstermektedir."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1, güçlendirilmiş öğrenme ve soğuk başlangıç verileri ile optimize edilmiş, mükemmel akıl yürütme, matematik ve programlama performansına sahip en son teknoloji büyük bir dil modelidir."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro, Google'ın yüksek performanslı AI modelidir ve geniş görev genişletmeleri için tasarlanmıştır."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash, Google'ın en son çok modlu AI modelidir, hızlı işleme yeteneğine sahiptir, metin, görüntü ve video girişi destekler, çeşitli görevler için verimli bir şekilde ölçeklenebilir."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001, geniş uygulama alanları için destekleyen verimli bir çok modlu modeldir."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash, mükemmel hız, yerel araç kullanımı, çok modlu üretim ve 1M token bağlam penceresi dahil olmak üzere bir sonraki nesil özellikler ve iyileştirmeler sunar."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp, Google'ın en yeni deneysel çok modlu yapay zeka modelidir. Gelecek nesil özellikleri, olağanüstü hızı, yerel araç çağrısı ve çok modlu üretim ile donatılmıştır."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "Maliyet etkinliği ve düşük gecikme gibi hedefler için optimize edilmiş bir Gemini 2.0 Flash modelidir."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp, Google'ın en son deneysel çok modlu AI modelidir, bir sonraki nesil özelliklere, olağanüstü hıza, yerel araç çağrısına ve çok modlu üretime sahiptir."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp, Google'ın en son deneysel çok modlu AI modelidir, bir sonraki nesil özelliklere, üstün hıza, yerel araç çağrısına ve çok modlu üretime sahiptir."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Deneysel, Google'ın en son deneysel çok modlu AI modelidir ve önceki sürümlere göre belirli bir kalite artışı sağlamaktadır, özellikle dünya bilgisi, kod ve uzun bağlam için."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206, Google'ın en son deneysel çok modlu AI modelidir ve önceki sürümlere kıyasla belirli bir kalite artırımı sağlar."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B, orta ölçekli görev işleme için uygundur ve maliyet etkinliği sunar."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage, çeşitli ticari ihtiyaçlar için yapay zeka modelleri geliştirmeye odaklanmaktadır. Solar LLM ve belge AI gibi modeller, insan yapımı genel zeka (AGI) hedeflemektedir. Chat API aracılığıyla basit diyalog ajanları oluşturmakta ve işlev çağrısı, çeviri, gömme ve belirli alan uygulamalarını desteklemektedir."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "Google'un Gemini serisi, Google DeepMind tarafından geliştirilen en gelişmiş ve genel amaçlı AI modelleridir. Çok modlu tasarım için özel olarak oluşturulmuş olup, metin, kod, görüntü, ses ve video gibi içeriklerin kesintisiz anlaşılması ve işlenmesini destekler. Veri merkezlerinden mobil cihazlara kadar çeşitli ortamlarda kullanılabilir, AI modellerinin verimliliğini ve uygulama kapsamını büyük ölçüde artırır."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM, LLM çıkarımı ve hizmetleri için hızlı ve kullanımı kolay bir kütüphanedir."
|
124
127
|
},
|
package/locales/vi-VN/error.json
CHANGED
@@ -76,6 +76,7 @@
|
|
76
76
|
"InvalidGithubToken": "Mã truy cập cá nhân Github không chính xác hoặc để trống, vui lòng kiểm tra lại Mã truy cập cá nhân Github và thử lại",
|
77
77
|
"InvalidOllamaArgs": "Cấu hình Ollama không hợp lệ, vui lòng kiểm tra lại cấu hình Ollama và thử lại",
|
78
78
|
"InvalidProviderAPIKey": "{{provider}} API Key không hợp lệ hoặc trống, vui lòng kiểm tra và thử lại",
|
79
|
+
"InvalidVertexCredentials": "Xác thực Vertex không thành công, vui lòng kiểm tra lại thông tin xác thực và thử lại",
|
79
80
|
"LocationNotSupportError": "Xin lỗi, vị trí của bạn không hỗ trợ dịch vụ mô hình này, có thể do hạn chế vùng miền hoặc dịch vụ chưa được mở. Vui lòng xác nhận xem vị trí hiện tại có hỗ trợ sử dụng dịch vụ này không, hoặc thử sử dụng thông tin vị trí khác.",
|
80
81
|
"NoOpenAIAPIKey": "Khóa API OpenAI trống, vui lòng thêm Khóa API OpenAI tùy chỉnh",
|
81
82
|
"OllamaBizError": "Yêu cầu dịch vụ Ollama gặp lỗi, vui lòng kiểm tra thông tin dưới đây hoặc thử lại",
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "Cập nhật cấu hình cơ bản của nhà cung cấp",
|
323
323
|
"updateSuccess": "Cập nhật thành công"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "Nhập khóa Vertex AI của bạn",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Khóa Vertex AI"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI Zero One"
|
327
334
|
},
|
@@ -371,9 +371,6 @@
|
|
371
371
|
"abab6.5t-chat": {
|
372
372
|
"description": "Tối ưu hóa cho các tình huống đối thoại bằng tiếng Trung, cung cấp khả năng sinh đối thoại mượt mà và phù hợp với thói quen diễn đạt tiếng Trung."
|
373
373
|
},
|
374
|
-
"abab7-chat-preview": {
|
375
|
-
"description": "So với các mô hình trong series abab6.5, khả năng xử lý văn bản dài, toán học, viết lách, v.v. đã được cải thiện đáng kể."
|
376
|
-
},
|
377
374
|
"accounts/fireworks/models/deepseek-r1": {
|
378
375
|
"description": "DeepSeek-R1 là một mô hình ngôn ngữ lớn tiên tiến, được tối ưu hóa thông qua học tăng cường và dữ liệu khởi động lạnh, có hiệu suất suy luận, toán học và lập trình xuất sắc."
|
379
376
|
},
|
@@ -728,6 +725,9 @@
|
|
728
725
|
"gemini-1.0-pro-latest": {
|
729
726
|
"description": "Gemini 1.0 Pro là mô hình AI hiệu suất cao của Google, được thiết kế để mở rộng cho nhiều nhiệm vụ."
|
730
727
|
},
|
728
|
+
"gemini-1.5-flash": {
|
729
|
+
"description": "Gemini 1.5 Flash là mô hình AI đa phương thức mới nhất của Google, có khả năng xử lý nhanh, hỗ trợ đầu vào văn bản, hình ảnh và video, phù hợp cho việc mở rộng hiệu quả cho nhiều nhiệm vụ."
|
730
|
+
},
|
731
731
|
"gemini-1.5-flash-001": {
|
732
732
|
"description": "Gemini 1.5 Flash 001 là một mô hình đa phương thức hiệu quả, hỗ trợ mở rộng cho nhiều ứng dụng."
|
733
733
|
},
|
@@ -767,24 +767,15 @@
|
|
767
767
|
"gemini-2.0-flash-001": {
|
768
768
|
"description": "Gemini 2.0 Flash cung cấp các tính năng và cải tiến thế hệ tiếp theo, bao gồm tốc độ vượt trội, sử dụng công cụ bản địa, tạo đa phương tiện và cửa sổ ngữ cảnh 1M token."
|
769
769
|
},
|
770
|
-
"gemini-2.0-flash-exp": {
|
771
|
-
"description": "Gemini 2.0 Flash Exp là mô hình AI đa phương thức thử nghiệm mới nhất của Google, có các tính năng thế hệ tiếp theo, tốc độ vượt trội, khả năng gọi công cụ nguyên bản và tạo ra đa phương thức."
|
772
|
-
},
|
773
770
|
"gemini-2.0-flash-lite-preview-02-05": {
|
774
771
|
"description": "Một mô hình Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp."
|
775
772
|
},
|
776
773
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
777
774
|
"description": "Gemini 2.0 Flash Exp là mô hình AI đa phương thức thử nghiệm mới nhất của Google, sở hữu các tính năng thế hệ tiếp theo, tốc độ vượt trội, gọi công cụ bản địa và sinh ra đa phương thức."
|
778
775
|
},
|
779
|
-
"gemini-2.0-flash-thinking-exp-1219": {
|
780
|
-
"description": "Gemini 2.0 Flash Exp là mô hình AI đa phương thức thử nghiệm mới nhất của Google, với các tính năng thế hệ tiếp theo, tốc độ vượt trội, gọi công cụ bản địa và tạo ra đa phương thức."
|
781
|
-
},
|
782
776
|
"gemini-2.0-pro-exp-02-05": {
|
783
777
|
"description": "Gemini 2.0 Pro Experimental là mô hình AI đa phương tiện thử nghiệm mới nhất của Google, có sự cải thiện chất lượng nhất định so với các phiên bản trước, đặc biệt là về kiến thức thế giới, mã và ngữ cảnh dài."
|
784
778
|
},
|
785
|
-
"gemini-exp-1206": {
|
786
|
-
"description": "Gemini Exp 1206 là mô hình AI đa phương tiện thử nghiệm mới nhất của Google, có sự cải thiện về chất lượng so với các phiên bản trước."
|
787
|
-
},
|
788
779
|
"gemma-7b-it": {
|
789
780
|
"description": "Gemma 7B phù hợp cho việc xử lý các nhiệm vụ quy mô vừa và nhỏ, đồng thời mang lại hiệu quả chi phí."
|
790
781
|
},
|
@@ -119,6 +119,9 @@
|
|
119
119
|
"upstage": {
|
120
120
|
"description": "Upstage tập trung vào việc phát triển các mô hình AI cho nhiều nhu cầu thương mại khác nhau, bao gồm Solar LLM và AI tài liệu, nhằm đạt được trí thông minh nhân tạo tổng quát (AGI) cho công việc. Tạo ra các đại lý đối thoại đơn giản thông qua Chat API, và hỗ trợ gọi chức năng, dịch thuật, nhúng và ứng dụng trong các lĩnh vực cụ thể."
|
121
121
|
},
|
122
|
+
"vertexai": {
|
123
|
+
"description": "Dòng sản phẩm Gemini của Google là mô hình AI tiên tiến và đa năng nhất của họ, được phát triển bởi Google DeepMind, được thiết kế đặc biệt cho đa phương thức, hỗ trợ hiểu và xử lý liền mạch văn bản, mã, hình ảnh, âm thanh và video. Phù hợp với nhiều môi trường từ trung tâm dữ liệu đến thiết bị di động, nâng cao đáng kể hiệu quả và tính ứng dụng của mô hình AI."
|
124
|
+
},
|
122
125
|
"vllm": {
|
123
126
|
"description": "vLLM là một thư viện nhanh chóng và dễ sử dụng cho suy diễn và dịch vụ LLM."
|
124
127
|
},
|
package/locales/zh-CN/error.json
CHANGED
@@ -89,6 +89,7 @@
|
|
89
89
|
"ProviderBizError": "请求 {{provider}} 服务出错,请根据以下信息排查或重试",
|
90
90
|
"NoOpenAIAPIKey": "OpenAI API Key 不正确或为空,请添加自定义 OpenAI API Key",
|
91
91
|
"OpenAIBizError": "请求 OpenAI 服务出错,请根据以下信息排查或重试",
|
92
|
+
"InvalidVertexCredentials": "Vertex 鉴权未通过,请检查鉴权凭证后重试",
|
92
93
|
"InvalidBedrockCredentials": "Bedrock 鉴权未通过,请检查 AccessKeyId/SecretAccessKey 后重试",
|
93
94
|
"StreamChunkError": "流式请求的消息块解析错误,请检查当前 API 接口是否符合标准规范,或联系你的 API 供应商咨询",
|
94
95
|
"UnknownChatFetchError": "很抱歉,遇到未知请求错误,请根据以下信息排查或重试",
|
@@ -322,6 +322,13 @@
|
|
322
322
|
"tooltip": "更新服务商基础配置",
|
323
323
|
"updateSuccess": "更新成功"
|
324
324
|
},
|
325
|
+
"vertexai": {
|
326
|
+
"apiKey": {
|
327
|
+
"desc": "填入你的 Vertex Ai Keys",
|
328
|
+
"placeholder": "{ \"type\": \"service_account\", \"project_id\": \"xxx\", \"private_key_id\": ... }",
|
329
|
+
"title": "Vertex AI Keys"
|
330
|
+
}
|
331
|
+
},
|
325
332
|
"zeroone": {
|
326
333
|
"title": "01.AI 零一万物"
|
327
334
|
},
|