@lobehub/chat 1.20.8 → 1.21.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +42 -0
- package/Dockerfile +5 -2
- package/Dockerfile.database +5 -2
- package/locales/ar/error.json +1 -0
- package/locales/ar/modelProvider.json +20 -0
- package/locales/ar/models.json +73 -4
- package/locales/ar/providers.json +6 -0
- package/locales/bg-BG/error.json +1 -0
- package/locales/bg-BG/modelProvider.json +20 -0
- package/locales/bg-BG/models.json +73 -4
- package/locales/bg-BG/providers.json +6 -0
- package/locales/de-DE/error.json +1 -0
- package/locales/de-DE/modelProvider.json +20 -0
- package/locales/de-DE/models.json +73 -4
- package/locales/de-DE/providers.json +6 -0
- package/locales/en-US/error.json +1 -0
- package/locales/en-US/modelProvider.json +20 -0
- package/locales/en-US/models.json +73 -4
- package/locales/en-US/providers.json +6 -0
- package/locales/es-ES/error.json +1 -0
- package/locales/es-ES/modelProvider.json +20 -0
- package/locales/es-ES/models.json +73 -4
- package/locales/es-ES/providers.json +6 -0
- package/locales/fr-FR/error.json +1 -0
- package/locales/fr-FR/modelProvider.json +20 -0
- package/locales/fr-FR/models.json +73 -4
- package/locales/fr-FR/providers.json +6 -0
- package/locales/it-IT/error.json +1 -0
- package/locales/it-IT/modelProvider.json +20 -0
- package/locales/it-IT/models.json +73 -4
- package/locales/it-IT/providers.json +6 -0
- package/locales/ja-JP/error.json +1 -0
- package/locales/ja-JP/modelProvider.json +20 -0
- package/locales/ja-JP/models.json +73 -4
- package/locales/ja-JP/providers.json +6 -0
- package/locales/ko-KR/error.json +1 -0
- package/locales/ko-KR/modelProvider.json +20 -0
- package/locales/ko-KR/models.json +73 -4
- package/locales/ko-KR/providers.json +6 -0
- package/locales/nl-NL/error.json +1 -0
- package/locales/nl-NL/modelProvider.json +20 -0
- package/locales/nl-NL/models.json +73 -4
- package/locales/nl-NL/providers.json +6 -0
- package/locales/pl-PL/error.json +1 -0
- package/locales/pl-PL/modelProvider.json +20 -0
- package/locales/pl-PL/models.json +73 -4
- package/locales/pl-PL/providers.json +6 -0
- package/locales/pt-BR/error.json +1 -0
- package/locales/pt-BR/modelProvider.json +20 -0
- package/locales/pt-BR/models.json +73 -4
- package/locales/pt-BR/providers.json +6 -0
- package/locales/ru-RU/error.json +1 -0
- package/locales/ru-RU/modelProvider.json +20 -0
- package/locales/ru-RU/models.json +73 -4
- package/locales/ru-RU/providers.json +6 -0
- package/locales/tr-TR/error.json +1 -0
- package/locales/tr-TR/modelProvider.json +20 -0
- package/locales/tr-TR/models.json +73 -4
- package/locales/tr-TR/providers.json +6 -0
- package/locales/vi-VN/error.json +1 -0
- package/locales/vi-VN/modelProvider.json +20 -0
- package/locales/vi-VN/models.json +73 -4
- package/locales/vi-VN/providers.json +6 -0
- package/locales/zh-CN/error.json +1 -0
- package/locales/zh-CN/modelProvider.json +20 -0
- package/locales/zh-CN/models.json +76 -7
- package/locales/zh-CN/providers.json +6 -0
- package/locales/zh-TW/error.json +1 -0
- package/locales/zh-TW/modelProvider.json +20 -0
- package/locales/zh-TW/models.json +73 -4
- package/locales/zh-TW/providers.json +6 -0
- package/package.json +3 -2
- package/scripts/serverLauncher/startServer.js +10 -81
- package/src/app/(main)/settings/llm/ProviderList/Wenxin/index.tsx +46 -0
- package/src/app/(main)/settings/llm/ProviderList/providers.tsx +4 -1
- package/src/app/api/chat/agentRuntime.test.ts +21 -0
- package/src/app/api/chat/wenxin/route.test.ts +27 -0
- package/src/app/api/chat/wenxin/route.ts +30 -0
- package/src/app/api/errorResponse.ts +4 -0
- package/src/config/llm.ts +8 -0
- package/src/config/modelProviders/index.ts +4 -0
- package/src/config/modelProviders/wenxin.ts +159 -0
- package/src/const/auth.ts +4 -0
- package/src/const/settings/llm.ts +5 -0
- package/src/features/Conversation/Error/APIKeyForm/Wenxin.tsx +49 -0
- package/src/features/Conversation/Error/APIKeyForm/index.tsx +3 -0
- package/src/features/Conversation/Error/index.tsx +1 -0
- package/src/libs/agent-runtime/AgentRuntime.test.ts +1 -0
- package/src/libs/agent-runtime/error.ts +1 -0
- package/src/libs/agent-runtime/types/type.ts +1 -0
- package/src/libs/agent-runtime/utils/streams/wenxin.test.ts +149 -0
- package/src/libs/agent-runtime/utils/streams/wenxin.ts +46 -0
- package/src/libs/agent-runtime/wenxin/index.ts +106 -0
- package/src/libs/agent-runtime/wenxin/type.ts +84 -0
- package/src/locales/default/error.ts +2 -0
- package/src/locales/default/modelProvider.ts +20 -0
- package/src/server/globalConfig/index.ts +4 -1
- package/src/services/_auth.ts +14 -0
- package/src/store/user/slices/modelList/selectors/keyVaults.ts +2 -0
- package/src/types/user/settings/keyVaults.ts +6 -0
@@ -32,6 +32,39 @@
|
|
32
32
|
"Baichuan4": {
|
33
33
|
"description": "모델 능력 국내 1위로, 지식 백과, 긴 텍스트, 생성 창작 등 중국어 작업에서 해외 주류 모델을 초월합니다. 또한 업계 선도적인 다중 모달 능력을 갖추고 있으며, 여러 권위 있는 평가 기준에서 우수한 성과를 보입니다."
|
34
34
|
},
|
35
|
+
"ERNIE-3.5-128K": {
|
36
|
+
"description": "바이두가 자체 개발한 플래그십 대규모 언어 모델로, 방대한 중문 및 영문 코퍼스를 포함하고 있으며, 강력한 일반 능력을 갖추고 있어 대부분의 대화형 질문 응답, 창작 생성, 플러그인 응용 시나리오 요구를 충족할 수 있습니다. 또한 바이두 검색 플러그인과의 자동 연동을 지원하여 질문 응답 정보의 시의성을 보장합니다."
|
37
|
+
},
|
38
|
+
"ERNIE-3.5-8K": {
|
39
|
+
"description": "바이두가 자체 개발한 플래그십 대규모 언어 모델로, 방대한 중문 및 영문 코퍼스를 포함하고 있으며, 강력한 일반 능력을 갖추고 있어 대부분의 대화형 질문 응답, 창작 생성, 플러그인 응용 시나리오 요구를 충족할 수 있습니다. 또한 바이두 검색 플러그인과의 자동 연동을 지원하여 질문 응답 정보의 시의성을 보장합니다."
|
40
|
+
},
|
41
|
+
"ERNIE-3.5-8K-Preview": {
|
42
|
+
"description": "바이두가 자체 개발한 플래그십 대규모 언어 모델로, 방대한 중문 및 영문 코퍼스를 포함하고 있으며, 강력한 일반 능력을 갖추고 있어 대부분의 대화형 질문 응답, 창작 생성, 플러그인 응용 시나리오 요구를 충족할 수 있습니다. 또한 바이두 검색 플러그인과의 자동 연동을 지원하여 질문 응답 정보의 시의성을 보장합니다."
|
43
|
+
},
|
44
|
+
"ERNIE-4.0-8K-Latest": {
|
45
|
+
"description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, ERNIE 3.5에 비해 모델 능력이 전면적으로 업그레이드되었으며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다."
|
46
|
+
},
|
47
|
+
"ERNIE-4.0-8K-Preview": {
|
48
|
+
"description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, ERNIE 3.5에 비해 모델 능력이 전면적으로 업그레이드되었으며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다."
|
49
|
+
},
|
50
|
+
"ERNIE-4.0-Turbo-8K": {
|
51
|
+
"description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, 종합적인 성능이 뛰어나며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더욱 우수합니다."
|
52
|
+
},
|
53
|
+
"ERNIE-4.0-Turbo-8K-Preview": {
|
54
|
+
"description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, 종합적인 성능이 뛰어나며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더욱 우수합니다."
|
55
|
+
},
|
56
|
+
"ERNIE-Character-8K": {
|
57
|
+
"description": "바이두가 자체 개발한 수직 장면 대언어 모델로, 게임 NPC, 고객 서비스 대화, 대화 역할 수행 등 다양한 응용 시나리오에 적합하며, 캐릭터 스타일이 더욱 뚜렷하고 일관되며, 지시 준수 능력이 더 강하고, 추론 성능이 우수합니다."
|
58
|
+
},
|
59
|
+
"ERNIE-Lite-Pro-128K": {
|
60
|
+
"description": "바이두가 자체 개발한 경량 대언어 모델로, 우수한 모델 효과와 추론 성능을 겸비하고 있으며, ERNIE Lite보다 더 나은 성능을 보여 저전력 AI 가속 카드에서의 추론 사용에 적합합니다."
|
61
|
+
},
|
62
|
+
"ERNIE-Speed-128K": {
|
63
|
+
"description": "바이두가 2024년에 최신 발표한 자체 개발 고성능 대언어 모델로, 일반 능력이 뛰어나며, 특정 시나리오 문제를 더 잘 처리하기 위해 기본 모델로 조정하는 데 적합하며, 뛰어난 추론 성능을 갖추고 있습니다."
|
64
|
+
},
|
65
|
+
"ERNIE-Speed-Pro-128K": {
|
66
|
+
"description": "바이두가 2024년에 최신 발표한 자체 개발 고성능 대언어 모델로, 일반 능력이 뛰어나며, ERNIE Speed보다 더 나은 성능을 보여 특정 시나리오 문제를 더 잘 처리하기 위해 기본 모델로 조정하는 데 적합하며, 뛰어난 추론 성능을 갖추고 있습니다."
|
67
|
+
},
|
35
68
|
"Gryphe/MythoMax-L2-13b": {
|
36
69
|
"description": "MythoMax-L2 (13B)는 혁신적인 모델로, 다양한 분야의 응용과 복잡한 작업에 적합합니다."
|
37
70
|
},
|
@@ -401,6 +434,9 @@
|
|
401
434
|
"glm-4-flash": {
|
402
435
|
"description": "GLM-4-Flash는 간단한 작업을 처리하는 데 이상적인 선택으로, 가장 빠른 속도와 가장 저렴한 가격을 자랑합니다."
|
403
436
|
},
|
437
|
+
"glm-4-flashx": {
|
438
|
+
"description": "GLM-4-FlashX는 Flash의 향상된 버전으로, 초고속 추론 속도를 자랑합니다."
|
439
|
+
},
|
404
440
|
"glm-4-long": {
|
405
441
|
"description": "GLM-4-Long는 초장 텍스트 입력을 지원하여 기억형 작업 및 대규모 문서 처리에 적합합니다."
|
406
442
|
},
|
@@ -413,11 +449,11 @@
|
|
413
449
|
"glm-4v-plus": {
|
414
450
|
"description": "GLM-4V-Plus는 비디오 콘텐츠 및 다수의 이미지에 대한 이해 능력을 갖추고 있어 다중 모드 작업에 적합합니다."
|
415
451
|
},
|
416
|
-
"google/gemini-flash-1.5
|
417
|
-
"description": "Gemini 1.5 Flash
|
452
|
+
"google/gemini-flash-1.5": {
|
453
|
+
"description": "Gemini 1.5 Flash는 최적화된 다중 모달 처리 능력을 제공하며, 다양한 복잡한 작업 시나리오에 적합합니다."
|
418
454
|
},
|
419
|
-
"google/gemini-pro-1.5
|
420
|
-
"description": "Gemini 1.5 Pro
|
455
|
+
"google/gemini-pro-1.5": {
|
456
|
+
"description": "Gemini 1.5 Pro는 최신 최적화 기술을 결합하여 더 효율적인 다중 모달 데이터 처리 능력을 제공합니다."
|
421
457
|
},
|
422
458
|
"google/gemma-2-27b-it": {
|
423
459
|
"description": "Gemma 2는 경량화와 효율적인 설계를 이어갑니다."
|
@@ -491,6 +527,33 @@
|
|
491
527
|
"gryphe/mythomax-l2-13b": {
|
492
528
|
"description": "MythoMax l2 13B는 여러 최상위 모델을 통합한 창의성과 지능이 결합된 언어 모델입니다."
|
493
529
|
},
|
530
|
+
"hunyuan-code": {
|
531
|
+
"description": "혼원 최신 코드 생성 모델로, 200B 고품질 코드 데이터로 증훈된 기초 모델을 기반으로 하며, 6개월간 고품질 SFT 데이터 훈련을 거쳤습니다. 컨텍스트 길이는 8K로 증가하였으며, 다섯 가지 언어의 코드 생성 자동 평가 지표에서 상위에 위치하고 있습니다. 다섯 가지 언어의 10개 항목에서 종합 코드 작업의 인공지능 고품질 평가에서 성능이 1위입니다."
|
532
|
+
},
|
533
|
+
"hunyuan-functioncall": {
|
534
|
+
"description": "혼원 최신 MOE 구조의 FunctionCall 모델로, 고품질 FunctionCall 데이터 훈련을 거쳤으며, 컨텍스트 윈도우는 32K에 도달하고 여러 차원의 평가 지표에서 선두에 있습니다."
|
535
|
+
},
|
536
|
+
"hunyuan-lite": {
|
537
|
+
"description": "MOE 구조로 업그레이드되었으며, 컨텍스트 윈도우는 256k로 설정되어 NLP, 코드, 수학, 산업 등 여러 평가 집합에서 많은 오픈 소스 모델을 선도하고 있습니다."
|
538
|
+
},
|
539
|
+
"hunyuan-pro": {
|
540
|
+
"description": "조 단위 매개변수 규모의 MOE-32K 긴 문서 모델입니다. 다양한 벤치마크에서 절대적인 선두 수준에 도달하며, 복잡한 지시 및 추론, 복잡한 수학 능력을 갖추고 있으며, functioncall을 지원하고 다국어 번역, 금융, 법률, 의료 등 분야에서 최적화된 응용을 제공합니다."
|
541
|
+
},
|
542
|
+
"hunyuan-role": {
|
543
|
+
"description": "혼원 최신 버전의 역할 수행 모델로, 혼원 공식적으로 세밀하게 조정된 훈련을 통해 출시된 역할 수행 모델입니다. 혼원 모델과 역할 수행 시나리오 데이터 세트를 결합하여 증훈하였으며, 역할 수행 시나리오에서 더 나은 기본 성능을 제공합니다."
|
544
|
+
},
|
545
|
+
"hunyuan-standard": {
|
546
|
+
"description": "더 나은 라우팅 전략을 채택하여 부하 균형 및 전문가 수렴 문제를 완화했습니다. 긴 문서의 경우, 대해잡기 지표가 99.9%에 도달했습니다. MOE-32K는 상대적으로 더 높은 가성비를 제공하며, 효과와 가격의 균형을 맞추면서 긴 텍스트 입력 처리를 가능하게 합니다."
|
547
|
+
},
|
548
|
+
"hunyuan-standard-256K": {
|
549
|
+
"description": "더 나은 라우팅 전략을 채택하여 부하 균형 및 전문가 수렴 문제를 완화했습니다. 긴 문서의 경우, 대해잡기 지표가 99.9%에 도달했습니다. MOE-256K는 길이와 효과에서 더욱 발전하여 입력 길이를 크게 확장했습니다."
|
550
|
+
},
|
551
|
+
"hunyuan-turbo": {
|
552
|
+
"description": "혼원 최신 세대 대형 언어 모델의 미리보기 버전으로, 새로운 혼합 전문가 모델(MoE) 구조를 채택하여 hunyuan-pro보다 추론 효율이 더 빠르고 성능이 더 뛰어납니다."
|
553
|
+
},
|
554
|
+
"hunyuan-vision": {
|
555
|
+
"description": "혼원 최신 다중 모달 모델로, 이미지와 텍스트 입력을 지원하여 텍스트 콘텐츠를 생성합니다."
|
556
|
+
},
|
494
557
|
"internlm/internlm2_5-20b-chat": {
|
495
558
|
"description": "혁신적인 오픈 소스 모델 InternLM2.5는 대규모 파라미터를 통해 대화의 지능을 향상시킵니다."
|
496
559
|
},
|
@@ -634,6 +697,12 @@
|
|
634
697
|
"meta-llama/llama-3.1-8b-instruct:free": {
|
635
698
|
"description": "LLaMA 3.1은 다국어 지원을 제공하며, 업계 최고의 생성 모델 중 하나입니다."
|
636
699
|
},
|
700
|
+
"meta-llama/llama-3.2-11b-vision-instruct": {
|
701
|
+
"description": "LLaMA 3.2는 시각 및 텍스트 데이터를 결합한 작업을 처리하기 위해 설계되었습니다. 이미지 설명 및 시각적 질문 응답과 같은 작업에서 뛰어난 성능을 보이며, 언어 생성과 시각적 추론 간의 간극을 넘습니다."
|
702
|
+
},
|
703
|
+
"meta-llama/llama-3.2-90b-vision-instruct": {
|
704
|
+
"description": "LLaMA 3.2는 시각 및 텍스트 데이터를 결합한 작업을 처리하기 위해 설계되었습니다. 이미지 설명 및 시각적 질문 응답과 같은 작업에서 뛰어난 성능을 보이며, 언어 생성과 시각적 추론 간의 간극을 넘습니다."
|
705
|
+
},
|
637
706
|
"meta.llama3-1-405b-instruct-v1:0": {
|
638
707
|
"description": "Meta Llama 3.1 405B Instruct는 Llama 3.1 Instruct 모델 중 가장 크고 강력한 모델로, 고도로 발전된 대화 추론 및 합성 데이터 생성 모델입니다. 특정 분야에서 전문적인 지속적 사전 훈련 또는 미세 조정의 기초로도 사용될 수 있습니다. Llama 3.1이 제공하는 다국어 대형 언어 모델(LLMs)은 8B, 70B 및 405B 크기의 사전 훈련된 지시 조정 생성 모델로 구성되어 있습니다(텍스트 입력/출력). Llama 3.1 지시 조정 텍스트 모델(8B, 70B, 405B)은 다국어 대화 사용 사례에 최적화되어 있으며, 일반 산업 벤치마크 테스트에서 많은 오픈 소스 채팅 모델을 초과했습니다. Llama 3.1은 다양한 언어의 상업적 및 연구 용도로 설계되었습니다. 지시 조정 텍스트 모델은 비서와 유사한 채팅에 적합하며, 사전 훈련 모델은 다양한 자연어 생성 작업에 적응할 수 있습니다. Llama 3.1 모델은 또한 모델의 출력을 활용하여 다른 모델을 개선하는 것을 지원하며, 합성 데이터 생성 및 정제에 사용될 수 있습니다. Llama 3.1은 최적화된 변압기 아키텍처를 사용한 자기 회귀 언어 모델입니다. 조정된 버전은 감독 미세 조정(SFT) 및 인간 피드백이 포함된 강화 학습(RLHF)을 사용하여 인간의 도움 및 안전성 선호에 부합하도록 설계되었습니다."
|
639
708
|
},
|
@@ -30,6 +30,9 @@
|
|
30
30
|
"groq": {
|
31
31
|
"description": "Groq의 LPU 추론 엔진은 최신 독립 대형 언어 모델(LLM) 벤치마크 테스트에서 뛰어난 성능을 보이며, 놀라운 속도와 효율성으로 AI 솔루션의 기준을 재정의하고 있습니다. Groq는 즉각적인 추론 속도의 대표주자로, 클라우드 기반 배포에서 우수한 성능을 보여줍니다."
|
32
32
|
},
|
33
|
+
"hunyuan": {
|
34
|
+
"description": "텐센트가 개발한 대형 언어 모델로, 강력한 한국어 창작 능력과 복잡한 맥락에서의 논리적 추론 능력, 그리고 신뢰할 수 있는 작업 수행 능력을 갖추고 있습니다."
|
35
|
+
},
|
33
36
|
"minimax": {
|
34
37
|
"description": "MiniMax는 2021년에 설립된 일반 인공지능 기술 회사로, 사용자와 함께 지능을 공동 창출하는 데 전념하고 있습니다. MiniMax는 다양한 모드의 일반 대형 모델을 독자적으로 개발하였으며, 여기에는 조 단위의 MoE 텍스트 대형 모델, 음성 대형 모델 및 이미지 대형 모델이 포함됩니다. 또한 해마 AI와 같은 응용 프로그램을 출시하였습니다."
|
35
38
|
},
|
@@ -75,6 +78,9 @@
|
|
75
78
|
"upstage": {
|
76
79
|
"description": "Upstage는 Solar LLM 및 문서 AI를 포함하여 다양한 비즈니스 요구를 위한 AI 모델 개발에 집중하고 있으며, 인공지능 일반 지능(AGI)을 실현하는 것을 목표로 하고 있습니다. Chat API를 통해 간단한 대화 에이전트를 생성하고 기능 호출, 번역, 임베딩 및 특정 분야 응용 프로그램을 지원합니다."
|
77
80
|
},
|
81
|
+
"wenxin": {
|
82
|
+
"description": "기업용 원스톱 대형 모델 및 AI 네이티브 애플리케이션 개발 및 서비스 플랫폼으로, 가장 포괄적이고 사용하기 쉬운 생성적 인공지능 모델 개발 및 애플리케이션 개발 전체 프로세스 도구 체인을 제공합니다."
|
83
|
+
},
|
78
84
|
"zeroone": {
|
79
85
|
"description": "01.AI는 AI 2.0 시대의 인공지능 기술에 집중하며, '인간 + 인공지능'의 혁신과 응용을 적극적으로 추진하고, 초강력 모델과 고급 AI 기술을 활용하여 인간의 생산성을 향상시키고 기술의 힘을 실현합니다."
|
80
86
|
},
|
package/locales/nl-NL/error.json
CHANGED
@@ -81,6 +81,7 @@
|
|
81
81
|
"PluginServerError": "Fout bij serverrespons voor plug-in. Controleer de foutinformatie hieronder voor uw plug-inbeschrijvingsbestand, plug-inconfiguratie of serverimplementatie",
|
82
82
|
"PluginSettingsInvalid": "Deze plug-in moet correct geconfigureerd zijn voordat deze kan worden gebruikt. Controleer of uw configuratie juist is",
|
83
83
|
"ProviderBizError": "Er is een fout opgetreden bij het aanvragen van de {{provider}}-service. Controleer de volgende informatie of probeer het opnieuw.",
|
84
|
+
"QuotaLimitReached": "Het spijt ons, het huidige tokenverbruik of het aantal verzoeken heeft de quota-limiet van deze sleutel bereikt. Verhoog de quota van deze sleutel of probeer het later opnieuw.",
|
84
85
|
"StreamChunkError": "Fout bij het parseren van het berichtblok van de streamingaanroep. Controleer of de huidige API-interface voldoet aan de standaardnormen, of neem contact op met uw API-leverancier voor advies.",
|
85
86
|
"SubscriptionPlanLimit": "Uw abonnementslimiet is bereikt en u kunt deze functie niet gebruiken. Upgrade naar een hoger plan of koop een resourcepakket om door te gaan met gebruiken.",
|
86
87
|
"UnknownChatFetchError": "Het spijt me, er is een onbekende verzoekfout opgetreden. Controleer de onderstaande informatie of probeer het opnieuw."
|
@@ -112,6 +112,26 @@
|
|
112
112
|
"title": "Download specified Ollama model"
|
113
113
|
}
|
114
114
|
},
|
115
|
+
"wenxin": {
|
116
|
+
"accessKey": {
|
117
|
+
"desc": "Vul de Access Key van het Baidu Qianfan-platform in",
|
118
|
+
"placeholder": "Qianfan Access Key",
|
119
|
+
"title": "Access Key"
|
120
|
+
},
|
121
|
+
"checker": {
|
122
|
+
"desc": "Test of de AccessKey / SecretAccess correct is ingevuld"
|
123
|
+
},
|
124
|
+
"secretKey": {
|
125
|
+
"desc": "Vul de Secret Key van het Baidu Qianfan-platform in",
|
126
|
+
"placeholder": "Qianfan Secret Key",
|
127
|
+
"title": "Secret Key"
|
128
|
+
},
|
129
|
+
"unlock": {
|
130
|
+
"customRegion": "Aangepaste servicegebied",
|
131
|
+
"description": "Voer je AccessKey / SecretKey in om de sessie te starten. De applicatie zal je authenticatie-instellingen niet opslaan",
|
132
|
+
"title": "Gebruik aangepaste Wenxin Yiyan-authenticatie-informatie"
|
133
|
+
}
|
134
|
+
},
|
115
135
|
"zeroone": {
|
116
136
|
"title": "01.AI Nul Een Alles"
|
117
137
|
},
|
@@ -32,6 +32,39 @@
|
|
32
32
|
"Baichuan4": {
|
33
33
|
"description": "Het model heeft de beste prestaties in het binnenland en overtreft buitenlandse mainstream modellen in kennisencyclopedieën, lange teksten en creatieve generaties. Het heeft ook toonaangevende multimodale capaciteiten en presteert uitstekend in verschillende autoritatieve evaluatiebenchmarks."
|
34
34
|
},
|
35
|
+
"ERNIE-3.5-128K": {
|
36
|
+
"description": "De door Baidu ontwikkelde vlaggenschip grote taalmodel, dat een enorme hoeveelheid Chinese en Engelse gegevens dekt, met krachtige algemene capaciteiten die voldoen aan de meeste eisen voor dialoogvragen, creatieve generatie en plug-in toepassingsscenario's; ondersteunt automatische integratie met de Baidu zoekplug-in, wat de actualiteit van vraag- en antwoordinformatie waarborgt."
|
37
|
+
},
|
38
|
+
"ERNIE-3.5-8K": {
|
39
|
+
"description": "De door Baidu ontwikkelde vlaggenschip grote taalmodel, dat een enorme hoeveelheid Chinese en Engelse gegevens dekt, met krachtige algemene capaciteiten die voldoen aan de meeste eisen voor dialoogvragen, creatieve generatie en plug-in toepassingsscenario's; ondersteunt automatische integratie met de Baidu zoekplug-in, wat de actualiteit van vraag- en antwoordinformatie waarborgt."
|
40
|
+
},
|
41
|
+
"ERNIE-3.5-8K-Preview": {
|
42
|
+
"description": "De door Baidu ontwikkelde vlaggenschip grote taalmodel, dat een enorme hoeveelheid Chinese en Engelse gegevens dekt, met krachtige algemene capaciteiten die voldoen aan de meeste eisen voor dialoogvragen, creatieve generatie en plug-in toepassingsscenario's; ondersteunt automatische integratie met de Baidu zoekplug-in, wat de actualiteit van vraag- en antwoordinformatie waarborgt."
|
43
|
+
},
|
44
|
+
"ERNIE-4.0-8K-Latest": {
|
45
|
+
"description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat in vergelijking met ERNIE 3.5 een algehele upgrade van de modelcapaciteiten heeft gerealiseerd, en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen."
|
46
|
+
},
|
47
|
+
"ERNIE-4.0-8K-Preview": {
|
48
|
+
"description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat in vergelijking met ERNIE 3.5 een algehele upgrade van de modelcapaciteiten heeft gerealiseerd, en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen."
|
49
|
+
},
|
50
|
+
"ERNIE-4.0-Turbo-8K": {
|
51
|
+
"description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat uitstekende algehele prestaties levert en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen. In vergelijking met ERNIE 4.0 presteert het beter."
|
52
|
+
},
|
53
|
+
"ERNIE-4.0-Turbo-8K-Preview": {
|
54
|
+
"description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat uitstekende algehele prestaties levert en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen. In vergelijking met ERNIE 4.0 presteert het beter."
|
55
|
+
},
|
56
|
+
"ERNIE-Character-8K": {
|
57
|
+
"description": "Het door Baidu ontwikkelde verticale taalmodel, geschikt voor toepassingen zoals game NPC's, klantenservice gesprekken en rollenspellen, met een duidelijker en consistenter karakterontwerp, sterkere instructievolgcapaciteiten en betere inferentieprestaties."
|
58
|
+
},
|
59
|
+
"ERNIE-Lite-Pro-128K": {
|
60
|
+
"description": "Het door Baidu ontwikkelde lichte taalmodel, dat zowel uitstekende modelprestaties als inferentieprestaties biedt, met betere resultaten dan ERNIE Lite, en geschikt is voor inferentie op AI-versnelling kaarten met lage rekencapaciteit."
|
61
|
+
},
|
62
|
+
"ERNIE-Speed-128K": {
|
63
|
+
"description": "Het door Baidu in 2024 gepresenteerde nieuwe hoge-prestatie taalmodel, met uitstekende algemene capaciteiten, geschikt als basis model voor fine-tuning, om beter specifieke probleemstellingen aan te pakken, met uitstekende inferentieprestaties."
|
64
|
+
},
|
65
|
+
"ERNIE-Speed-Pro-128K": {
|
66
|
+
"description": "Het door Baidu in 2024 gepresenteerde nieuwe hoge-prestatie taalmodel, met uitstekende algemene capaciteiten, betere resultaten dan ERNIE Speed, en geschikt als basis model voor fine-tuning, om beter specifieke probleemstellingen aan te pakken, met uitstekende inferentieprestaties."
|
67
|
+
},
|
35
68
|
"Gryphe/MythoMax-L2-13b": {
|
36
69
|
"description": "MythoMax-L2 (13B) is een innovatief model, geschikt voor toepassingen in meerdere domeinen en complexe taken."
|
37
70
|
},
|
@@ -401,6 +434,9 @@
|
|
401
434
|
"glm-4-flash": {
|
402
435
|
"description": "GLM-4-Flash is de ideale keuze voor het verwerken van eenvoudige taken, met de snelste snelheid en de laagste prijs."
|
403
436
|
},
|
437
|
+
"glm-4-flashx": {
|
438
|
+
"description": "GLM-4-FlashX is een verbeterde versie van Flash met een super snelle inferentiesnelheid."
|
439
|
+
},
|
404
440
|
"glm-4-long": {
|
405
441
|
"description": "GLM-4-Long ondersteunt zeer lange tekstinvoer, geschikt voor geheugenintensieve taken en grootschalige documentverwerking."
|
406
442
|
},
|
@@ -413,11 +449,11 @@
|
|
413
449
|
"glm-4v-plus": {
|
414
450
|
"description": "GLM-4V-Plus heeft de capaciteit om video-inhoud en meerdere afbeeldingen te begrijpen, geschikt voor multimodale taken."
|
415
451
|
},
|
416
|
-
"google/gemini-flash-1.5
|
417
|
-
"description": "Gemini 1.5 Flash
|
452
|
+
"google/gemini-flash-1.5": {
|
453
|
+
"description": "Gemini 1.5 Flash biedt geoptimaliseerde multimodale verwerkingscapaciteiten, geschikt voor verschillende complexe taakscenario's."
|
418
454
|
},
|
419
|
-
"google/gemini-pro-1.5
|
420
|
-
"description": "Gemini 1.5 Pro
|
455
|
+
"google/gemini-pro-1.5": {
|
456
|
+
"description": "Gemini 1.5 Pro combineert de nieuwste optimalisatietechnologieën en biedt efficiëntere multimodale gegevensverwerkingscapaciteiten."
|
421
457
|
},
|
422
458
|
"google/gemma-2-27b-it": {
|
423
459
|
"description": "Gemma 2 behoudt het ontwerpprincipe van lichtgewicht en efficiëntie."
|
@@ -491,6 +527,33 @@
|
|
491
527
|
"gryphe/mythomax-l2-13b": {
|
492
528
|
"description": "MythoMax l2 13B is een taalmodel dat creativiteit en intelligentie combineert door meerdere topmodellen te integreren."
|
493
529
|
},
|
530
|
+
"hunyuan-code": {
|
531
|
+
"description": "Het nieuwste codegeneratiemodel van Hunyuan, getraind op 200B hoogwaardige codegegevens, met een half jaar training op hoogwaardige SFT-gegevens, met een vergroot contextvenster van 8K, en staat bovenaan de automatische evaluatie-indicatoren voor codegeneratie in vijf grote programmeertalen; presteert in de eerste divisie op basis van handmatige kwaliteitsbeoordelingen van 10 aspecten van code-taken in vijf grote talen."
|
532
|
+
},
|
533
|
+
"hunyuan-functioncall": {
|
534
|
+
"description": "Het nieuwste MOE-architectuur FunctionCall-model van Hunyuan, getraind op hoogwaardige FunctionCall-gegevens, met een contextvenster van 32K, en staat voorop in meerdere dimensies van evaluatie-indicatoren."
|
535
|
+
},
|
536
|
+
"hunyuan-lite": {
|
537
|
+
"description": "Geüpgraded naar een MOE-structuur, met een contextvenster van 256k, en leidt in verschillende evaluatiesets op het gebied van NLP, code, wiskunde en industrie ten opzichte van vele open-source modellen."
|
538
|
+
},
|
539
|
+
"hunyuan-pro": {
|
540
|
+
"description": "Een MOE-32K lange tekstmodel met triljoenen parameters. Bereikt een absoluut leidend niveau op verschillende benchmarks, met complexe instructies en redenering, beschikt over complexe wiskundige capaciteiten, ondersteunt function calls, en is geoptimaliseerd voor toepassingen in meertalige vertaling, financiële, juridische en medische gebieden."
|
541
|
+
},
|
542
|
+
"hunyuan-role": {
|
543
|
+
"description": "Het nieuwste rolspelmodel van Hunyuan, een rolspelmodel dat is ontwikkeld door de officiële fine-tuning training van Hunyuan, dat is getraind op basis van rolspel-scenario datasets, en betere basisprestaties biedt in rolspel-scenario's."
|
544
|
+
},
|
545
|
+
"hunyuan-standard": {
|
546
|
+
"description": "Maakt gebruik van een betere routeringsstrategie en verlicht tegelijkertijd de problemen van load balancing en expert convergentie. Voor lange teksten bereikt de naald in een hooiberg-index 99,9%. MOE-32K biedt een relatief betere prijs-kwaliteitverhouding, en kan lange tekstinvoer verwerken terwijl het effect en prijs in balans houdt."
|
547
|
+
},
|
548
|
+
"hunyuan-standard-256K": {
|
549
|
+
"description": "Maakt gebruik van een betere routeringsstrategie en verlicht tegelijkertijd de problemen van load balancing en expert convergentie. Voor lange teksten bereikt de naald in een hooiberg-index 99,9%. MOE-256K doorbreekt verder in lengte en effectiviteit, waardoor de invoerlengte aanzienlijk wordt vergroot."
|
550
|
+
},
|
551
|
+
"hunyuan-turbo": {
|
552
|
+
"description": "Een previewversie van het nieuwe generatie grote taalmodel van Hunyuan, met een nieuwe hybride expertmodel (MoE) structuur, die sneller inferentie-efficiëntie biedt en betere prestaties levert dan hunyan-pro."
|
553
|
+
},
|
554
|
+
"hunyuan-vision": {
|
555
|
+
"description": "Het nieuwste multimodale model van Hunyuan, ondersteunt het genereren van tekstinhoud op basis van afbeelding + tekstinvoer."
|
556
|
+
},
|
494
557
|
"internlm/internlm2_5-20b-chat": {
|
495
558
|
"description": "Het innovatieve open-source model InternLM2.5 verhoogt de gespreksintelligentie door een groot aantal parameters."
|
496
559
|
},
|
@@ -634,6 +697,12 @@
|
|
634
697
|
"meta-llama/llama-3.1-8b-instruct:free": {
|
635
698
|
"description": "LLaMA 3.1 biedt ondersteuning voor meerdere talen en is een van de toonaangevende generatiemodellen in de industrie."
|
636
699
|
},
|
700
|
+
"meta-llama/llama-3.2-11b-vision-instruct": {
|
701
|
+
"description": "LLaMA 3.2 is ontworpen voor taken die visuele en tekstuele gegevens combineren. Het presteert uitstekend in taken zoals afbeeldingsbeschrijving en visuele vraag-en-antwoord, en overbrugt de kloof tussen taalgeneratie en visuele redenering."
|
702
|
+
},
|
703
|
+
"meta-llama/llama-3.2-90b-vision-instruct": {
|
704
|
+
"description": "LLaMA 3.2 is ontworpen voor taken die visuele en tekstuele gegevens combineren. Het presteert uitstekend in taken zoals afbeeldingsbeschrijving en visuele vraag-en-antwoord, en overbrugt de kloof tussen taalgeneratie en visuele redenering."
|
705
|
+
},
|
637
706
|
"meta.llama3-1-405b-instruct-v1:0": {
|
638
707
|
"description": "Meta Llama 3.1 405B Instruct is het grootste en krachtigste model binnen het Llama 3.1 Instruct-model, een geavanceerd model voor conversatie-inferentie en synthetische datageneratie, dat ook kan worden gebruikt als basis voor gespecialiseerde continue pre-training of fine-tuning in specifieke domeinen. De meertalige grote taalmodellen (LLMs) die Llama 3.1 biedt, zijn een set van voorgetrainde, instructie-geoptimaliseerde generatieve modellen, waaronder 8B, 70B en 405B in grootte (tekstinvoer/uitvoer). De tekstmodellen van Llama 3.1, die zijn geoptimaliseerd voor meertalige conversatiegebruik, overtreffen veel beschikbare open-source chatmodellen in gangbare industriële benchmarktests. Llama 3.1 is ontworpen voor commercieel en onderzoeksgebruik in meerdere talen. De instructie-geoptimaliseerde tekstmodellen zijn geschikt voor assistentachtige chats, terwijl de voorgetrainde modellen zich kunnen aanpassen aan verschillende taken voor natuurlijke taalgeneratie. Het Llama 3.1-model ondersteunt ook het verbeteren van andere modellen door gebruik te maken van de output van zijn modellen, inclusief synthetische datageneratie en verfijning. Llama 3.1 is een autoregressief taalmodel dat gebruikmaakt van een geoptimaliseerde transformer-architectuur. De afgestelde versies gebruiken supervisie-finetuning (SFT) en versterkend leren met menselijke feedback (RLHF) om te voldoen aan menselijke voorkeuren voor behulpzaamheid en veiligheid."
|
639
708
|
},
|
@@ -30,6 +30,9 @@
|
|
30
30
|
"groq": {
|
31
31
|
"description": "De LPU-inferentie-engine van Groq presteert uitstekend in de nieuwste onafhankelijke benchmarktests voor grote taalmodellen (LLM), en herdefinieert de normen voor AI-oplossingen met zijn verbazingwekkende snelheid en efficiëntie. Groq is een vertegenwoordiger van onmiddellijke inferentiesnelheid en toont goede prestaties in cloudgebaseerde implementaties."
|
32
32
|
},
|
33
|
+
"hunyuan": {
|
34
|
+
"description": "Een door Tencent ontwikkeld groot taalmodel, dat beschikt over krachtige Chinese creatiecapaciteiten, logische redeneervaardigheden in complexe contexten, en betrouwbare taakuitvoeringscapaciteiten."
|
35
|
+
},
|
33
36
|
"minimax": {
|
34
37
|
"description": "MiniMax is een algemeen kunstmatige intelligentietechnologiebedrijf dat in 2021 is opgericht, en zich richt op co-creatie van intelligentie met gebruikers. MiniMax heeft verschillende multimodale algemene grote modellen ontwikkeld, waaronder een MoE-tekstgrootmodel met triljoenen parameters, een spraakgrootmodel en een afbeeldingsgrootmodel. Ze hebben ook toepassingen zoals Conch AI gelanceerd."
|
35
38
|
},
|
@@ -75,6 +78,9 @@
|
|
75
78
|
"upstage": {
|
76
79
|
"description": "Upstage richt zich op het ontwikkelen van AI-modellen voor verschillende zakelijke behoeften, waaronder Solar LLM en document AI, met als doel het realiseren van kunstmatige algemene intelligentie (AGI). Het creëert eenvoudige dialoogagenten via de Chat API en ondersteunt functionele aanroepen, vertalingen, insluitingen en specifieke domeintoepassingen."
|
77
80
|
},
|
81
|
+
"wenxin": {
|
82
|
+
"description": "Een enterprise-grade, alles-in-één platform voor de ontwikkeling en service van grote modellen en AI-native applicaties, dat de meest uitgebreide en gebruiksvriendelijke toolchain biedt voor de ontwikkeling van generatieve kunstmatige intelligentiemodellen en applicaties."
|
83
|
+
},
|
78
84
|
"zeroone": {
|
79
85
|
"description": "01.AI richt zich op kunstmatige intelligentietechnologie in het tijdperk van AI 2.0, en bevordert sterk de innovatie en toepassing van 'mens + kunstmatige intelligentie', met behulp van krachtige modellen en geavanceerde AI-technologie om de productiviteit van de mens te verbeteren en technologische capaciteiten te realiseren."
|
80
86
|
},
|
package/locales/pl-PL/error.json
CHANGED
@@ -81,6 +81,7 @@
|
|
81
81
|
"PluginServerError": "Błąd zwrócony przez serwer wtyczki. Proszę sprawdź plik opisowy wtyczki, konfigurację wtyczki lub implementację serwera zgodnie z poniższymi informacjami o błędzie",
|
82
82
|
"PluginSettingsInvalid": "Ta wtyczka wymaga poprawnej konfiguracji przed użyciem. Proszę sprawdź, czy Twoja konfiguracja jest poprawna",
|
83
83
|
"ProviderBizError": "Wystąpił błąd usługi {{provider}}, proszę sprawdzić poniższe informacje lub spróbować ponownie",
|
84
|
+
"QuotaLimitReached": "Przykro nam, bieżące zużycie tokenów lub liczba żądań osiągnęła limit kwoty dla tego klucza. Proszę zwiększyć limit kwoty dla tego klucza lub spróbować ponownie później.",
|
84
85
|
"StreamChunkError": "Błąd analizy bloku wiadomości w żądaniu strumieniowym. Proszę sprawdzić, czy aktualny interfejs API jest zgodny z normami, lub skontaktować się z dostawcą API w celu uzyskania informacji.",
|
85
86
|
"SubscriptionPlanLimit": "Wykorzystałeś limit swojego abonamentu i nie możesz korzystać z tej funkcji. Proszę uaktualnić do wyższego planu lub zakupić dodatkowy pakiet zasobów, aby kontynuować korzystanie.",
|
86
87
|
"UnknownChatFetchError": "Przykro nam, wystąpił nieznany błąd żądania. Proszę sprawdzić poniższe informacje lub spróbować ponownie."
|
@@ -112,6 +112,26 @@
|
|
112
112
|
"title": "Download specified Ollama model"
|
113
113
|
}
|
114
114
|
},
|
115
|
+
"wenxin": {
|
116
|
+
"accessKey": {
|
117
|
+
"desc": "Wprowadź Access Key z platformy Baidu Qianfan",
|
118
|
+
"placeholder": "Access Key Qianfan",
|
119
|
+
"title": "Access Key"
|
120
|
+
},
|
121
|
+
"checker": {
|
122
|
+
"desc": "Sprawdź, czy AccessKey / SecretAccess zostały poprawnie wprowadzone"
|
123
|
+
},
|
124
|
+
"secretKey": {
|
125
|
+
"desc": "Wprowadź Secret Key z platformy Baidu Qianfan",
|
126
|
+
"placeholder": "Secret Key Qianfan",
|
127
|
+
"title": "Secret Key"
|
128
|
+
},
|
129
|
+
"unlock": {
|
130
|
+
"customRegion": "Niestandardowy obszar usług",
|
131
|
+
"description": "Wprowadź swój AccessKey / SecretKey, aby rozpocząć sesję. Aplikacja nie zapisuje twojej konfiguracji uwierzytelniania",
|
132
|
+
"title": "Użyj niestandardowych informacji uwierzytelniających Wenxin Yiyan"
|
133
|
+
}
|
134
|
+
},
|
115
135
|
"zeroone": {
|
116
136
|
"title": "01.AI Zero Jeden Wszystko"
|
117
137
|
},
|
@@ -32,6 +32,39 @@
|
|
32
32
|
"Baichuan4": {
|
33
33
|
"description": "Model o najwyższej wydajności w kraju, przewyższający zagraniczne modele w zadaniach związanych z encyklopedią, długimi tekstami i generowaniem treści w języku chińskim. Posiada również wiodące w branży zdolności multimodalne, osiągając doskonałe wyniki w wielu autorytatywnych testach."
|
34
34
|
},
|
35
|
+
"ERNIE-3.5-128K": {
|
36
|
+
"description": "Flagowy model dużego języka opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, zdolny do spełnienia wymagań w większości scenariuszy związanych z pytaniami i odpowiedziami, generowaniem treści oraz aplikacjami wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach."
|
37
|
+
},
|
38
|
+
"ERNIE-3.5-8K": {
|
39
|
+
"description": "Flagowy model dużego języka opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, zdolny do spełnienia wymagań w większości scenariuszy związanych z pytaniami i odpowiedziami, generowaniem treści oraz aplikacjami wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach."
|
40
|
+
},
|
41
|
+
"ERNIE-3.5-8K-Preview": {
|
42
|
+
"description": "Flagowy model dużego języka opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, zdolny do spełnienia wymagań w większości scenariuszy związanych z pytaniami i odpowiedziami, generowaniem treści oraz aplikacjami wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach."
|
43
|
+
},
|
44
|
+
"ERNIE-4.0-8K-Latest": {
|
45
|
+
"description": "Flagowy model ultra dużego języka opracowany przez Baidu, w porównaniu do ERNIE 3.5, oferujący kompleksową aktualizację możliwości modelu, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji."
|
46
|
+
},
|
47
|
+
"ERNIE-4.0-8K-Preview": {
|
48
|
+
"description": "Flagowy model ultra dużego języka opracowany przez Baidu, w porównaniu do ERNIE 3.5, oferujący kompleksową aktualizację możliwości modelu, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji."
|
49
|
+
},
|
50
|
+
"ERNIE-4.0-Turbo-8K": {
|
51
|
+
"description": "Flagowy model ultra dużego języka opracowany przez Baidu, charakteryzujący się doskonałymi wynikami ogólnymi, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji. W porównaniu do ERNIE 4.0, oferuje lepsze wyniki wydajności."
|
52
|
+
},
|
53
|
+
"ERNIE-4.0-Turbo-8K-Preview": {
|
54
|
+
"description": "Flagowy model ultra dużego języka opracowany przez Baidu, charakteryzujący się doskonałymi wynikami ogólnymi, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji. W porównaniu do ERNIE 4.0, oferuje lepsze wyniki wydajności."
|
55
|
+
},
|
56
|
+
"ERNIE-Character-8K": {
|
57
|
+
"description": "Model dużego języka opracowany przez Baidu, skoncentrowany na specyficznych scenariuszach, odpowiedni do zastosowań takich jak NPC w grach, rozmowy z obsługą klienta, odgrywanie ról w dialogach, charakteryzujący się wyraźnym i spójnym stylem postaci, silniejszą zdolnością do przestrzegania poleceń oraz lepszą wydajnością wnioskowania."
|
58
|
+
},
|
59
|
+
"ERNIE-Lite-Pro-128K": {
|
60
|
+
"description": "Lekki model dużego języka opracowany przez Baidu, łączący doskonałe wyniki modelu z wydajnością wnioskowania, oferujący lepsze wyniki niż ERNIE Lite, odpowiedni do użycia w niskomocowych kartach przyspieszających AI."
|
61
|
+
},
|
62
|
+
"ERNIE-Speed-128K": {
|
63
|
+
"description": "Najnowocześniejszy model dużego języka opracowany przez Baidu w 2024 roku, charakteryzujący się doskonałymi zdolnościami ogólnymi, odpowiedni jako model bazowy do dalszego dostosowywania, lepiej radzący sobie z problemami w specyficznych scenariuszach, a także zapewniający doskonałą wydajność wnioskowania."
|
64
|
+
},
|
65
|
+
"ERNIE-Speed-Pro-128K": {
|
66
|
+
"description": "Najnowocześniejszy model dużego języka opracowany przez Baidu w 2024 roku, charakteryzujący się doskonałymi zdolnościami ogólnymi, oferujący lepsze wyniki niż ERNIE Speed, odpowiedni jako model bazowy do dalszego dostosowywania, lepiej radzący sobie z problemami w specyficznych scenariuszach, a także zapewniający doskonałą wydajność wnioskowania."
|
67
|
+
},
|
35
68
|
"Gryphe/MythoMax-L2-13b": {
|
36
69
|
"description": "MythoMax-L2 (13B) to innowacyjny model, idealny do zastosowań w wielu dziedzinach i złożonych zadań."
|
37
70
|
},
|
@@ -401,6 +434,9 @@
|
|
401
434
|
"glm-4-flash": {
|
402
435
|
"description": "GLM-4-Flash to idealny wybór do przetwarzania prostych zadań, najszybszy i najtańszy."
|
403
436
|
},
|
437
|
+
"glm-4-flashx": {
|
438
|
+
"description": "GLM-4-FlashX to ulepszona wersja Flash, charakteryzująca się niezwykle szybkim czasem wnioskowania."
|
439
|
+
},
|
404
440
|
"glm-4-long": {
|
405
441
|
"description": "GLM-4-Long obsługuje ultra-długie wejścia tekstowe, odpowiednie do zadań pamięciowych i przetwarzania dużych dokumentów."
|
406
442
|
},
|
@@ -413,11 +449,11 @@
|
|
413
449
|
"glm-4v-plus": {
|
414
450
|
"description": "GLM-4V-Plus ma zdolność rozumienia treści wideo oraz wielu obrazów, odpowiedni do zadań multimodalnych."
|
415
451
|
},
|
416
|
-
"google/gemini-flash-1.5
|
417
|
-
"description": "Gemini 1.5 Flash
|
452
|
+
"google/gemini-flash-1.5": {
|
453
|
+
"description": "Gemini 1.5 Flash oferuje zoptymalizowane możliwości przetwarzania multimodalnego, odpowiednie do różnych złożonych scenariuszy zadań."
|
418
454
|
},
|
419
|
-
"google/gemini-pro-1.5
|
420
|
-
"description": "Gemini 1.5 Pro
|
455
|
+
"google/gemini-pro-1.5": {
|
456
|
+
"description": "Gemini 1.5 Pro łączy najnowsze technologie optymalizacji, oferując bardziej efektywne przetwarzanie danych multimodalnych."
|
421
457
|
},
|
422
458
|
"google/gemma-2-27b-it": {
|
423
459
|
"description": "Gemma 2 kontynuuje ideę lekkiego i wydajnego projektowania."
|
@@ -491,6 +527,33 @@
|
|
491
527
|
"gryphe/mythomax-l2-13b": {
|
492
528
|
"description": "MythoMax l2 13B to model językowy łączący kreatywność i inteligencję, zintegrowany z wieloma wiodącymi modelami."
|
493
529
|
},
|
530
|
+
"hunyuan-code": {
|
531
|
+
"description": "Najnowocześniejszy model generowania kodu Hunyuan, przeszkolony na bazie 200B wysokiej jakości danych kodu, z półrocznym treningiem na wysokiej jakości danych SFT, z wydłużonym oknem kontekstowym do 8K, zajmującym czołowe miejsca w automatycznych wskaźnikach oceny generowania kodu w pięciu językach; w ocenie jakościowej zadań kodowych w pięciu językach, osiąga wyniki w pierwszej lidze."
|
532
|
+
},
|
533
|
+
"hunyuan-functioncall": {
|
534
|
+
"description": "Najnowocześniejszy model FunctionCall w architekturze MOE Hunyuan, przeszkolony na wysokiej jakości danych FunctionCall, z oknem kontekstowym o długości 32K, osiągający wiodące wyniki w wielu wymiarach oceny."
|
535
|
+
},
|
536
|
+
"hunyuan-lite": {
|
537
|
+
"description": "Zaktualizowana do struktury MOE, z oknem kontekstowym o długości 256k, prowadzi w wielu zestawach testowych w NLP, kodowaniu, matematyce i innych dziedzinach w porównaniu do wielu modeli open source."
|
538
|
+
},
|
539
|
+
"hunyuan-pro": {
|
540
|
+
"description": "Model długiego tekstu MOE-32K o skali bilionów parametrów. Osiąga absolutnie wiodący poziom w różnych benchmarkach, obsługując złożone instrukcje i wnioskowanie, posiadając zaawansowane umiejętności matematyczne, wspierając wywołania funkcji, z optymalizacjami w obszarach takich jak tłumaczenia wielojęzyczne, prawo finansowe i medyczne."
|
541
|
+
},
|
542
|
+
"hunyuan-role": {
|
543
|
+
"description": "Najnowocześniejszy model odgrywania ról Hunyuan, stworzony przez oficjalne dostosowanie i trening Hunyuan, oparty na modelu Hunyuan i zestawie danych scenariuszy odgrywania ról, oferujący lepsze podstawowe wyniki w scenariuszach odgrywania ról."
|
544
|
+
},
|
545
|
+
"hunyuan-standard": {
|
546
|
+
"description": "Zastosowano lepszą strategię routingu, jednocześnie łagodząc problemy z równoważeniem obciążenia i zbieżnością ekspertów. W przypadku długich tekstów wskaźnik 'znalezienia igły w stogu siana' osiąga 99,9%. MOE-32K oferuje lepszy stosunek jakości do ceny, równoważąc efektywność i cenę, umożliwiając przetwarzanie długich tekstów."
|
547
|
+
},
|
548
|
+
"hunyuan-standard-256K": {
|
549
|
+
"description": "Zastosowano lepszą strategię routingu, jednocześnie łagodząc problemy z równoważeniem obciążenia i zbieżnością ekspertów. W przypadku długich tekstów wskaźnik 'znalezienia igły w stogu siana' osiąga 99,9%. MOE-256K dokonuje dalszych przełomów w długości i efektywności, znacznie rozszerzając możliwą długość wejścia."
|
550
|
+
},
|
551
|
+
"hunyuan-turbo": {
|
552
|
+
"description": "Hunyuan to nowa generacja dużego modelu językowego w wersji próbnej, wykorzystująca nową strukturę modelu mieszanych ekspertów (MoE), która w porównaniu do hunyuan-pro charakteryzuje się szybszą efektywnością wnioskowania i lepszymi wynikami."
|
553
|
+
},
|
554
|
+
"hunyuan-vision": {
|
555
|
+
"description": "Najnowocześniejszy model multimodalny Hunyuan, wspierający generowanie treści tekstowych na podstawie obrazów i tekstu."
|
556
|
+
},
|
494
557
|
"internlm/internlm2_5-20b-chat": {
|
495
558
|
"description": "Innowacyjny model open source InternLM2.5, dzięki dużej liczbie parametrów, zwiększa inteligencję dialogową."
|
496
559
|
},
|
@@ -634,6 +697,12 @@
|
|
634
697
|
"meta-llama/llama-3.1-8b-instruct:free": {
|
635
698
|
"description": "LLaMA 3.1 oferuje wsparcie dla wielu języków i jest jednym z wiodących modeli generacyjnych w branży."
|
636
699
|
},
|
700
|
+
"meta-llama/llama-3.2-11b-vision-instruct": {
|
701
|
+
"description": "LLaMA 3.2 jest zaprojektowana do przetwarzania zadań łączących dane wizualne i tekstowe. Wykazuje doskonałe wyniki w zadaniach takich jak opisywanie obrazów i wizualne pytania i odpowiedzi, przekraczając granice między generowaniem języka a wnioskowaniem wizualnym."
|
702
|
+
},
|
703
|
+
"meta-llama/llama-3.2-90b-vision-instruct": {
|
704
|
+
"description": "LLaMA 3.2 jest zaprojektowana do przetwarzania zadań łączących dane wizualne i tekstowe. Wykazuje doskonałe wyniki w zadaniach takich jak opisywanie obrazów i wizualne pytania i odpowiedzi, przekraczając granice między generowaniem języka a wnioskowaniem wizualnym."
|
705
|
+
},
|
637
706
|
"meta.llama3-1-405b-instruct-v1:0": {
|
638
707
|
"description": "Meta Llama 3.1 405B Instruct to największy i najpotężniejszy model w rodzinie modeli Llama 3.1 Instruct. Jest to wysoko zaawansowany model do dialogów, wnioskowania i generowania danych, który może być również używany jako podstawa do specjalistycznego, ciągłego wstępnego szkolenia lub dostosowywania w określonych dziedzinach. Llama 3.1 oferuje wielojęzyczne duże modele językowe (LLM), które są zestawem wstępnie wytrenowanych, dostosowanych do instrukcji modeli generacyjnych, obejmujących rozmiary 8B, 70B i 405B (wejście/wyjście tekstowe). Modele tekstowe Llama 3.1 dostosowane do instrukcji (8B, 70B, 405B) zostały zoptymalizowane do zastosowań w wielojęzycznych dialogach i przewyższają wiele dostępnych modeli czatu open source w powszechnych testach branżowych. Llama 3.1 jest zaprojektowana do użytku komercyjnego i badawczego w wielu językach. Modele tekstowe dostosowane do instrukcji nadają się do czatu w stylu asystenta, podczas gdy modele wstępnie wytrenowane mogą być dostosowane do różnych zadań generowania języka naturalnego. Modele Llama 3.1 wspierają również wykorzystanie ich wyjść do poprawy innych modeli, w tym generowania danych syntetycznych i udoskonalania. Llama 3.1 jest modelem językowym autoregresywnym opartym na zoptymalizowanej architekturze transformatora. Dostosowane wersje wykorzystują nadzorowane dostosowywanie (SFT) oraz uczenie się ze wzmocnieniem z ludzkim feedbackiem (RLHF), aby odpowiadać ludzkim preferencjom dotyczącym pomocności i bezpieczeństwa."
|
639
708
|
},
|
@@ -30,6 +30,9 @@
|
|
30
30
|
"groq": {
|
31
31
|
"description": "Silnik inferencyjny LPU firmy Groq wyróżnia się w najnowszych niezależnych testach benchmarkowych dużych modeli językowych (LLM), redefiniując standardy rozwiązań AI dzięki niesamowitej szybkości i wydajności. Groq jest reprezentantem natychmiastowej szybkości inferencji, wykazując dobrą wydajność w wdrożeniach opartych na chmurze."
|
32
32
|
},
|
33
|
+
"hunyuan": {
|
34
|
+
"description": "Model językowy opracowany przez Tencent, który posiada potężne zdolności twórcze w języku chińskim, umiejętność logicznego wnioskowania w złożonych kontekstach oraz niezawodne zdolności wykonawcze w zadaniach."
|
35
|
+
},
|
33
36
|
"minimax": {
|
34
37
|
"description": "MiniMax to firma technologiczna zajmująca się ogólną sztuczną inteligencją, założona w 2021 roku, dążąca do współtworzenia inteligencji z użytkownikami. MiniMax opracowało różne modele dużych modeli o różnych modalnościach, w tym model tekstowy MoE z bilionem parametrów, model głosowy oraz model obrazowy. Wprowadziło również aplikacje takie jak Conch AI."
|
35
38
|
},
|
@@ -75,6 +78,9 @@
|
|
75
78
|
"upstage": {
|
76
79
|
"description": "Upstage koncentruje się na opracowywaniu modeli AI dla różnych potrzeb biznesowych, w tym Solar LLM i dokumentów AI, mając na celu osiągnięcie sztucznej ogólnej inteligencji (AGI). Umożliwia tworzenie prostych agentów konwersacyjnych za pomocą Chat API oraz wspiera wywołania funkcji, tłumaczenia, osadzenia i zastosowania w określonych dziedzinach."
|
77
80
|
},
|
81
|
+
"wenxin": {
|
82
|
+
"description": "Platforma do rozwoju i usług aplikacji AI oraz dużych modeli w skali przedsiębiorstwa, oferująca najbardziej kompleksowy i łatwy w użyciu zestaw narzędzi do rozwoju modeli sztucznej inteligencji generatywnej oraz całego procesu tworzenia aplikacji."
|
83
|
+
},
|
78
84
|
"zeroone": {
|
79
85
|
"description": "01.AI koncentruje się na technologiach sztucznej inteligencji w erze AI 2.0, intensywnie promując innowacje i zastosowania „człowiek + sztuczna inteligencja”, wykorzystując potężne modele i zaawansowane technologie AI w celu zwiększenia wydajności ludzkiej produkcji i realizacji technologicznego wsparcia."
|
80
86
|
},
|
package/locales/pt-BR/error.json
CHANGED
@@ -81,6 +81,7 @@
|
|
81
81
|
"PluginServerError": "Erro na resposta do servidor do plugin. Verifique o arquivo de descrição do plugin, a configuração do plugin ou a implementação do servidor de acordo com as informações de erro abaixo",
|
82
82
|
"PluginSettingsInvalid": "Este plugin precisa ser configurado corretamente antes de ser usado. Verifique se sua configuração está correta",
|
83
83
|
"ProviderBizError": "Erro no serviço {{provider}} solicitado. Por favor, verifique as informações abaixo ou tente novamente.",
|
84
|
+
"QuotaLimitReached": "Desculpe, o uso atual de tokens ou o número de solicitações atingiu o limite de quota da chave. Por favor, aumente a quota dessa chave ou tente novamente mais tarde.",
|
84
85
|
"StreamChunkError": "Erro de análise do bloco de mensagem da solicitação em fluxo. Verifique se a interface da API atual está em conformidade com os padrões ou entre em contato com seu fornecedor de API para mais informações.",
|
85
86
|
"SubscriptionPlanLimit": "Você atingiu o limite de sua assinatura e não pode usar essa função. Por favor, faça upgrade para um plano superior ou compre um pacote de recursos para continuar usando.",
|
86
87
|
"UnknownChatFetchError": "Desculpe, ocorreu um erro desconhecido na solicitação. Por favor, verifique as informações abaixo ou tente novamente."
|
@@ -112,6 +112,26 @@
|
|
112
112
|
"title": "Download specified Ollama model"
|
113
113
|
}
|
114
114
|
},
|
115
|
+
"wenxin": {
|
116
|
+
"accessKey": {
|
117
|
+
"desc": "Insira a Access Key da plataforma Qianfan do Baidu",
|
118
|
+
"placeholder": "Access Key Qianfan",
|
119
|
+
"title": "Access Key"
|
120
|
+
},
|
121
|
+
"checker": {
|
122
|
+
"desc": "Teste se a AccessKey / SecretAccess está preenchida corretamente"
|
123
|
+
},
|
124
|
+
"secretKey": {
|
125
|
+
"desc": "Insira a Secret Key da plataforma Qianfan do Baidu",
|
126
|
+
"placeholder": "Secret Key Qianfan",
|
127
|
+
"title": "Secret Key"
|
128
|
+
},
|
129
|
+
"unlock": {
|
130
|
+
"customRegion": "Região de serviço personalizada",
|
131
|
+
"description": "Insira sua AccessKey / SecretKey para iniciar a sessão. O aplicativo não registrará suas configurações de autenticação",
|
132
|
+
"title": "Usar informações de autenticação personalizadas do Wenxin Yiyan"
|
133
|
+
}
|
134
|
+
},
|
115
135
|
"zeroone": {
|
116
136
|
"title": "01.AI Zero e Um"
|
117
137
|
},
|