@lobehub/chat 1.74.2 → 1.74.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +33 -0
- package/changelog/v1.json +9 -0
- package/docs/developer/database-schema.dbml +54 -2
- package/locales/ar/common.json +51 -0
- package/locales/ar/models.json +69 -3
- package/locales/ar/providers.json +6 -0
- package/locales/bg-BG/common.json +51 -0
- package/locales/bg-BG/models.json +69 -3
- package/locales/bg-BG/providers.json +6 -0
- package/locales/de-DE/common.json +51 -0
- package/locales/de-DE/models.json +69 -3
- package/locales/de-DE/providers.json +6 -0
- package/locales/en-US/common.json +51 -0
- package/locales/en-US/models.json +69 -3
- package/locales/en-US/providers.json +6 -3
- package/locales/es-ES/common.json +51 -0
- package/locales/es-ES/models.json +69 -3
- package/locales/es-ES/providers.json +6 -0
- package/locales/fa-IR/common.json +51 -0
- package/locales/fa-IR/models.json +69 -3
- package/locales/fa-IR/providers.json +6 -0
- package/locales/fr-FR/common.json +51 -0
- package/locales/fr-FR/models.json +69 -3
- package/locales/fr-FR/providers.json +6 -0
- package/locales/it-IT/common.json +51 -0
- package/locales/it-IT/models.json +69 -3
- package/locales/it-IT/providers.json +6 -0
- package/locales/ja-JP/common.json +51 -0
- package/locales/ja-JP/models.json +78 -4
- package/locales/ja-JP/providers.json +6 -0
- package/locales/ko-KR/common.json +51 -0
- package/locales/ko-KR/models.json +69 -3
- package/locales/ko-KR/providers.json +6 -0
- package/locales/nl-NL/common.json +51 -0
- package/locales/nl-NL/models.json +69 -3
- package/locales/nl-NL/providers.json +6 -0
- package/locales/pl-PL/common.json +51 -0
- package/locales/pl-PL/models.json +69 -3
- package/locales/pl-PL/providers.json +6 -0
- package/locales/pt-BR/common.json +51 -0
- package/locales/pt-BR/models.json +69 -3
- package/locales/pt-BR/providers.json +6 -0
- package/locales/ru-RU/common.json +51 -0
- package/locales/ru-RU/models.json +69 -3
- package/locales/ru-RU/providers.json +6 -0
- package/locales/tr-TR/common.json +51 -0
- package/locales/tr-TR/models.json +69 -3
- package/locales/tr-TR/providers.json +6 -0
- package/locales/vi-VN/common.json +51 -0
- package/locales/vi-VN/models.json +69 -3
- package/locales/vi-VN/providers.json +6 -0
- package/locales/zh-CN/common.json +53 -2
- package/locales/zh-CN/models.json +79 -13
- package/locales/zh-CN/providers.json +6 -4
- package/locales/zh-TW/common.json +51 -0
- package/locales/zh-TW/models.json +81 -4
- package/locales/zh-TW/providers.json +6 -0
- package/package.json +1 -1
- package/packages/web-crawler/src/utils/__tests__/withTimeout.test.ts +0 -1
- package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/Checker.tsx +4 -0
- package/src/database/client/db.ts +102 -11
- package/src/database/client/migrations.json +38 -8
- package/src/database/migrations/0018_add_client_id_for_entities.sql +32 -0
- package/src/database/migrations/meta/0018_snapshot.json +4212 -0
- package/src/database/migrations/meta/_journal.json +7 -0
- package/src/database/models/drizzleMigration.ts +23 -0
- package/src/database/schemas/agent.ts +48 -31
- package/src/database/schemas/file.ts +32 -16
- package/src/database/schemas/message.ts +91 -54
- package/src/database/schemas/rag.ts +65 -32
- package/src/database/schemas/session.ts +6 -3
- package/src/database/schemas/topic.ts +31 -24
- package/src/features/InitClientDB/ErrorResult.tsx +53 -32
- package/src/features/InitClientDB/features/DatabaseRepair/Backup.tsx +77 -0
- package/src/features/InitClientDB/features/DatabaseRepair/Diagnosis.tsx +98 -0
- package/src/features/InitClientDB/features/DatabaseRepair/Repair.tsx +220 -0
- package/src/features/InitClientDB/features/DatabaseRepair/index.tsx +85 -0
- package/src/features/ModelSwitchPanel/index.tsx +13 -7
- package/src/locales/default/common.ts +53 -1
- package/src/store/global/actions/clientDb.ts +19 -3
- package/src/store/global/initialState.ts +6 -1
- package/src/store/global/selectors/clientDB.ts +43 -0
- package/src/store/global/selectors/index.ts +1 -0
- package/src/store/user/slices/settings/selectors/general.test.ts +90 -0
- package/src/types/clientDB.ts +13 -0
@@ -23,6 +23,9 @@
|
|
23
23
|
"cloudflare": {
|
24
24
|
"description": "Cloudflareのグローバルネットワーク上で、サーバーレスGPUによって駆動される機械学習モデルを実行します。"
|
25
25
|
},
|
26
|
+
"cohere": {
|
27
|
+
"description": "Cohereは、最先端の多言語モデル、高度な検索機能、そして現代企業向けにカスタマイズされたAIワークスペースを提供します。すべてが安全なプラットフォームに統合されています。"
|
28
|
+
},
|
26
29
|
"deepseek": {
|
27
30
|
"description": "DeepSeekは、人工知能技術の研究と応用に特化した企業であり、最新のモデルDeepSeek-V2.5は、汎用対話とコード処理能力を融合させ、人間の好みの整合、ライティングタスク、指示の遵守などの面で顕著な向上を実現しています。"
|
28
31
|
},
|
@@ -101,6 +104,9 @@
|
|
101
104
|
"sambanova": {
|
102
105
|
"description": "SambaNova Cloudは、開発者が最高のオープンソースモデルを簡単に利用でき、最速の推論速度を享受できるようにします。"
|
103
106
|
},
|
107
|
+
"search1api": {
|
108
|
+
"description": "Search1APIは、必要に応じて接続可能なDeepSeekシリーズモデルへのアクセスを提供します。標準版と高速版があり、さまざまなパラメータスケールのモデル選択をサポートしています。"
|
109
|
+
},
|
104
110
|
"sensenova": {
|
105
111
|
"description": "商湯日日新は、商湯の強力な基盤支援に基づき、高効率で使いやすい全スタックの大規模モデルサービスを提供します。"
|
106
112
|
},
|
@@ -41,7 +41,10 @@
|
|
41
41
|
"error": {
|
42
42
|
"desc": "죄송합니다. Pglite 데이터베이스 초기화 과정에서 예외가 발생했습니다. 버튼을 클릭하여 다시 시도해 주십시오. 여러 번 시도한 후에도 여전히 문제가 발생하면 <1>문제를 제출</1>해 주십시오. 저희가 즉시 문제를 해결해 드리겠습니다.",
|
43
43
|
"detail": "오류 원인: [[[{{type}}]]] {{message}},상세 내용은 다음과 같습니다:",
|
44
|
+
"detailTitle": "오류 원인",
|
45
|
+
"report": "문제 피드백",
|
44
46
|
"retry": "재시도",
|
47
|
+
"selfSolve": "자체 해결",
|
45
48
|
"title": "데이터베이스 초기화 실패"
|
46
49
|
},
|
47
50
|
"initing": {
|
@@ -80,6 +83,54 @@
|
|
80
83
|
"button": "즉시 사용",
|
81
84
|
"desc": "즉시 사용하고 싶습니다.",
|
82
85
|
"title": "PGlite 데이터베이스 준비 완료"
|
86
|
+
},
|
87
|
+
"solve": {
|
88
|
+
"backup": {
|
89
|
+
"backup": "백업",
|
90
|
+
"backupSuccess": "백업 성공",
|
91
|
+
"desc": "현재 데이터베이스의 중요한 데이터를 내보냅니다",
|
92
|
+
"export": "모든 데이터 내보내기",
|
93
|
+
"exportDesc": "내보낸 데이터는 JSON 형식으로 저장되며, 이후 복원 또는 분석에 사용할 수 있습니다.",
|
94
|
+
"reset": {
|
95
|
+
"alert": "경고",
|
96
|
+
"alertDesc": "다음 작업은 데이터 손실을 초래할 수 있습니다. 중요한 데이터를 백업한 후 계속 진행하십시오.",
|
97
|
+
"button": "데이터베이스 완전 초기화(모든 데이터 삭제)",
|
98
|
+
"confirm": {
|
99
|
+
"desc": "이 작업은 모든 데이터를 삭제하며 복구할 수 없습니다. 계속 진행하시겠습니까?",
|
100
|
+
"title": "데이터베이스 초기화 확인"
|
101
|
+
},
|
102
|
+
"desc": "복구할 수 없는 경우 데이터베이스를 초기화합니다",
|
103
|
+
"title": "데이터베이스 초기화"
|
104
|
+
},
|
105
|
+
"restore": "복원",
|
106
|
+
"restoreSuccess": "복원 성공",
|
107
|
+
"title": "데이터 백업"
|
108
|
+
},
|
109
|
+
"diagnosis": {
|
110
|
+
"createdAt": "생성 시간",
|
111
|
+
"migratedAt": "마이그레이션 완료 시간",
|
112
|
+
"sql": "마이그레이션 SQL",
|
113
|
+
"title": "마이그레이션 상태"
|
114
|
+
},
|
115
|
+
"repair": {
|
116
|
+
"desc": "마이그레이션 상태 수동 관리",
|
117
|
+
"runSQL": "사용자 정의 실행",
|
118
|
+
"sql": {
|
119
|
+
"clear": "비우기",
|
120
|
+
"desc": "사용자 정의 SQL 문을 실행하여 데이터베이스 문제를 수정합니다",
|
121
|
+
"markFinished": "완료로 표시",
|
122
|
+
"placeholder": "SQL 문 입력...",
|
123
|
+
"result": "실행 결과",
|
124
|
+
"run": "실행",
|
125
|
+
"title": "SQL 실행기"
|
126
|
+
},
|
127
|
+
"title": "마이그레이션 제어"
|
128
|
+
},
|
129
|
+
"tabs": {
|
130
|
+
"backup": "백업 및 복원",
|
131
|
+
"diagnosis": "진단",
|
132
|
+
"repair": "수리"
|
133
|
+
}
|
83
134
|
}
|
84
135
|
},
|
85
136
|
"close": "닫기",
|
@@ -518,6 +518,18 @@
|
|
518
518
|
"baichuan/baichuan2-13b-chat": {
|
519
519
|
"description": "Baichuan-13B는 백천 인공지능이 개발한 130억 개의 매개변수를 가진 오픈 소스 상용 대형 언어 모델로, 권위 있는 중국어 및 영어 벤치마크에서 동일한 크기에서 최고의 성과를 달성했습니다."
|
520
520
|
},
|
521
|
+
"c4ai-aya-expanse-32b": {
|
522
|
+
"description": "Aya Expanse는 지시 조정, 데이터 차익 거래, 선호 훈련 및 모델 통합의 혁신을 통해 단일 언어 모델의 성능에 도전하는 고성능 32B 다국어 모델입니다. 23개 언어를 지원합니다."
|
523
|
+
},
|
524
|
+
"c4ai-aya-expanse-8b": {
|
525
|
+
"description": "Aya Expanse는 지시 조정, 데이터 차익 거래, 선호 훈련 및 모델 통합의 혁신을 통해 단일 언어 모델의 성능에 도전하는 고성능 8B 다국어 모델입니다. 23개 언어를 지원합니다."
|
526
|
+
},
|
527
|
+
"c4ai-aya-vision-32b": {
|
528
|
+
"description": "Aya Vision은 언어, 텍스트 및 이미지 능력의 여러 주요 기준에서 뛰어난 성능을 발휘하는 최첨단 다중 모달 모델입니다. 23개 언어를 지원합니다. 이 320억 매개변수 버전은 최첨단 다국어 성능에 중점을 두고 있습니다."
|
529
|
+
},
|
530
|
+
"c4ai-aya-vision-8b": {
|
531
|
+
"description": "Aya Vision은 언어, 텍스트 및 이미지 능력의 여러 주요 기준에서 뛰어난 성능을 발휘하는 최첨단 다중 모달 모델입니다. 이 80억 매개변수 버전은 낮은 지연 시간과 최상의 성능에 중점을 두고 있습니다."
|
532
|
+
},
|
521
533
|
"charglm-3": {
|
522
534
|
"description": "CharGLM-3는 역할 수행 및 감정 동반을 위해 설계된 모델로, 초장 다회 기억 및 개인화된 대화를 지원하여 광범위하게 사용됩니다."
|
523
535
|
},
|
@@ -602,12 +614,39 @@
|
|
602
614
|
"cohere-command-r-plus": {
|
603
615
|
"description": "Command R+는 기업급 작업을 처리하기 위해 설계된 최첨단 RAG 최적화 모델입니다."
|
604
616
|
},
|
617
|
+
"command": {
|
618
|
+
"description": "지시를 따르는 대화 모델로, 언어 작업에서 높은 품질과 신뢰성을 제공하며, 우리의 기본 생성 모델에 비해 더 긴 컨텍스트 길이를 가지고 있습니다."
|
619
|
+
},
|
620
|
+
"command-a-03-2025": {
|
621
|
+
"description": "Command A는 지금까지 성능이 가장 뛰어난 모델로, 도구 사용, 에이전트, 검색 강화 생성(RAG) 및 다국어 응용 시나리오에서 뛰어난 성능을 발휘합니다. Command A는 256K의 컨텍스트 길이를 가지고 있으며, 두 개의 GPU만으로 실행할 수 있으며, Command R+ 08-2024에 비해 처리량이 150% 향상되었습니다."
|
622
|
+
},
|
623
|
+
"command-light": {
|
624
|
+
"description": "더 작고 빠른 Command 버전으로, 거의 동일한 강력함을 가지고 있지만 더 빠릅니다."
|
625
|
+
},
|
626
|
+
"command-light-nightly": {
|
627
|
+
"description": "주요 버전 출시 간의 시간 간격을 단축하기 위해 Command 모델의 매일 버전을 출시했습니다. command-light 시리즈의 경우 이 버전은 command-light-nightly로 불립니다. command-light-nightly는 최신이며 가장 실험적이고(아마도) 불안정한 버전입니다. 매일 버전은 정기적으로 업데이트되며 사전 통지 없이 제공되므로 생산 환경에서 사용하지 않는 것이 좋습니다."
|
628
|
+
},
|
629
|
+
"command-nightly": {
|
630
|
+
"description": "주요 버전 출시 간의 시간 간격을 단축하기 위해 Command 모델의 매일 버전을 출시했습니다. Command 시리즈의 경우 이 버전은 command-cightly로 불립니다. command-nightly는 최신이며 가장 실험적이고(아마도) 불안정한 버전입니다. 매일 버전은 정기적으로 업데이트되며 사전 통지 없이 제공되므로 생산 환경에서 사용하지 않는 것이 좋습니다."
|
631
|
+
},
|
605
632
|
"command-r": {
|
606
633
|
"description": "Command R은 대화 및 긴 컨텍스트 작업에 최적화된 LLM으로, 동적 상호작용 및 지식 관리에 특히 적합합니다."
|
607
634
|
},
|
635
|
+
"command-r-03-2024": {
|
636
|
+
"description": "Command R은 지시를 따르는 대화 모델로, 언어 작업에서 더 높은 품질과 신뢰성을 제공하며, 이전 모델에 비해 더 긴 컨텍스트 길이를 가지고 있습니다. 코드 생성, 검색 강화 생성(RAG), 도구 사용 및 에이전트와 같은 복잡한 워크플로우에 사용할 수 있습니다."
|
637
|
+
},
|
638
|
+
"command-r-08-2024": {
|
639
|
+
"description": "command-r-08-2024는 Command R 모델의 업데이트 버전으로, 2024년 8월에 출시되었습니다."
|
640
|
+
},
|
608
641
|
"command-r-plus": {
|
609
642
|
"description": "Command R+는 실제 기업 환경 및 복잡한 응용을 위해 설계된 고성능 대형 언어 모델입니다."
|
610
643
|
},
|
644
|
+
"command-r-plus-04-2024": {
|
645
|
+
"description": "Command R+는 지시를 따르는 대화 모델로, 언어 작업에서 더 높은 품질과 신뢰성을 제공하며, 이전 모델에 비해 더 긴 컨텍스트 길이를 가지고 있습니다. 복잡한 RAG 워크플로우와 다단계 도구 사용에 가장 적합합니다."
|
646
|
+
},
|
647
|
+
"command-r7b-12-2024": {
|
648
|
+
"description": "command-r7b-12-2024는 소형이면서도 효율적인 업데이트 버전으로, 2024년 12월에 출시되었습니다. RAG, 도구 사용, 에이전트 등 복잡한 추론과 다단계 처리가 필요한 작업에서 뛰어난 성능을 발휘합니다."
|
649
|
+
},
|
611
650
|
"dall-e-2": {
|
612
651
|
"description": "2세대 DALL·E 모델로, 더 사실적이고 정확한 이미지 생성을 지원하며, 해상도는 1세대의 4배입니다."
|
613
652
|
},
|
@@ -668,12 +707,24 @@
|
|
668
707
|
"deepseek-r1": {
|
669
708
|
"description": "DeepSeek-R1은 강화 학습(RL) 기반의 추론 모델로, 모델 내의 반복성과 가독성 문제를 해결합니다. RL 이전에 DeepSeek-R1은 콜드 스타트 데이터를 도입하여 추론 성능을 더욱 최적화했습니다. 수학, 코드 및 추론 작업에서 OpenAI-o1과 유사한 성능을 보이며, 정교하게 설계된 훈련 방법을 통해 전체적인 효과를 향상시켰습니다."
|
670
709
|
},
|
710
|
+
"deepseek-r1-70b-fast-online": {
|
711
|
+
"description": "DeepSeek R1 70B 빠른 버전으로, 실시간 온라인 검색을 지원하며 모델 성능을 유지하면서 더 빠른 응답 속도를 제공합니다."
|
712
|
+
},
|
713
|
+
"deepseek-r1-70b-online": {
|
714
|
+
"description": "DeepSeek R1 70B 표준 버전으로, 실시간 온라인 검색을 지원하며 최신 정보가 필요한 대화 및 텍스트 처리 작업에 적합합니다."
|
715
|
+
},
|
671
716
|
"deepseek-r1-distill-llama-70b": {
|
672
717
|
"description": "DeepSeek R1 - DeepSeek 패키지에서 더 크고 더 스마트한 모델이 Llama 70B 아키텍처로 증류되었습니다. 기준 테스트와 인공지능 평가에 따르면, 이 모델은 원래 Llama 70B보다 더 스마트하며, 특히 수학 및 사실 정확성이 필요한 작업에서 뛰어난 성능을 보입니다."
|
673
718
|
},
|
674
719
|
"deepseek-r1-distill-llama-8b": {
|
675
720
|
"description": "DeepSeek-R1-Distill 시리즈 모델은 지식 증류 기술을 통해 DeepSeek-R1이 생성한 샘플을 Qwen, Llama 등 오픈 소스 모델에 미세 조정하여 얻은 것입니다."
|
676
721
|
},
|
722
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
723
|
+
"description": "2025년 2월 14일 최초 출시된 이 모델은 천범 대모델 연구팀이 Llama3_70B를 기반 모델로 하여(메타 라마로 구축) 증류한 것입니다. 증류 데이터에는 천범의 말뭉치도 동기화되어 추가되었습니다."
|
724
|
+
},
|
725
|
+
"deepseek-r1-distill-qianfan-llama-8b": {
|
726
|
+
"description": "2025년 2월 14일 최초 출시된 이 모델은 천범 대모델 연구팀이 Llama3_8B를 기반 모델로 하여(메타 라마로 구축) 증류한 것입니다. 증류 데이터에는 천범의 말뭉치도 동기화되어 추가되었습니다."
|
727
|
+
},
|
677
728
|
"deepseek-r1-distill-qwen-1.5b": {
|
678
729
|
"description": "DeepSeek-R1-Distill 시리즈 모델은 지식 증류 기술을 통해 DeepSeek-R1이 생성한 샘플을 Qwen, Llama 등 오픈 소스 모델에 미세 조정하여 얻은 것입니다."
|
679
730
|
},
|
@@ -686,6 +737,12 @@
|
|
686
737
|
"deepseek-r1-distill-qwen-7b": {
|
687
738
|
"description": "DeepSeek-R1-Distill 시리즈 모델은 지식 증류 기술을 통해 DeepSeek-R1이 생성한 샘플을 Qwen, Llama 등 오픈 소스 모델에 미세 조정하여 얻은 것입니다."
|
688
739
|
},
|
740
|
+
"deepseek-r1-fast-online": {
|
741
|
+
"description": "DeepSeek R1 풀 빠른 버전으로, 실시간 온라인 검색을 지원하며 671B 매개변수의 강력한 능력과 더 빠른 응답 속도를 결합합니다."
|
742
|
+
},
|
743
|
+
"deepseek-r1-online": {
|
744
|
+
"description": "DeepSeek R1 풀 버전으로, 671B 매개변수를 가지고 있으며 실시간 온라인 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다."
|
745
|
+
},
|
689
746
|
"deepseek-reasoner": {
|
690
747
|
"description": "DeepSeek에서 제공하는 추론 모델입니다. 최종 답변을 출력하기 전에 모델은 먼저 사고 과정을 출력하여 최종 답변의 정확성을 높입니다."
|
691
748
|
},
|
@@ -764,6 +821,9 @@
|
|
764
821
|
"ernie-4.0-turbo-8k-preview": {
|
765
822
|
"description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, 종합적인 성능이 뛰어나며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 바이두 검색 플러그인과 자동으로 연결되어 질문 답변 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더 우수합니다."
|
766
823
|
},
|
824
|
+
"ernie-4.5-8k-preview": {
|
825
|
+
"description": "문심 대모델 4.5는 바이두가 독자적으로 개발한 차세대 원주율 다중 모달 기본 대모델로, 여러 모달의 공동 모델링을 통해 협동 최적화를 실현하며, 다중 모달 이해 능력이 뛰어납니다. 언어 능력이 더욱 향상되어 이해, 생성, 논리, 기억 능력이 전반적으로 향상되었으며, 환각 제거, 논리 추론, 코드 능력이 현저히 향상되었습니다."
|
826
|
+
},
|
767
827
|
"ernie-char-8k": {
|
768
828
|
"description": "바이두가 자체 개발한 수직 장면 대형 언어 모델로, 게임 NPC, 고객 서비스 대화, 대화 역할극 등 응용 시나리오에 적합하며, 캐릭터 스타일이 더 뚜렷하고 일관되며, 지시 따르기 능력이 더 강하고 추론 성능이 우수합니다."
|
769
829
|
},
|
@@ -1097,9 +1157,6 @@
|
|
1097
1157
|
"hunyuan-turbo": {
|
1098
1158
|
"description": "혼원 최신 세대 대형 언어 모델의 미리보기 버전으로, 새로운 혼합 전문가 모델(MoE) 구조를 채택하여 hunyuan-pro보다 추론 효율이 더 빠르고 성능이 더 뛰어납니다."
|
1099
1159
|
},
|
1100
|
-
"hunyuan-turbo-20241120": {
|
1101
|
-
"description": "hunyuan-turbo 2024년 11월 20일 고정 버전, hunyuan-turbo와 hunyuan-turbo-latest 사이의 버전."
|
1102
|
-
},
|
1103
1160
|
"hunyuan-turbo-20241223": {
|
1104
1161
|
"description": "이번 버전 최적화: 데이터 지시 스케일링, 모델의 일반화 능력 대폭 향상; 수학, 코드, 논리 추론 능력 대폭 향상; 텍스트 이해 및 단어 이해 관련 능력 최적화; 텍스트 창작 내용 생성 질 최적화."
|
1105
1162
|
},
|
@@ -1109,6 +1166,15 @@
|
|
1109
1166
|
"hunyuan-turbo-vision": {
|
1110
1167
|
"description": "혼원 차세대 비주얼 언어 플래그십 대형 모델, 새로운 혼합 전문가 모델(MoE) 구조를 채택하여, 이미지 및 텍스트 이해 관련 기본 인식, 콘텐츠 창작, 지식 질문 응답, 분석 추론 등의 능력이 이전 세대 모델에 비해 전반적으로 향상되었습니다."
|
1111
1168
|
},
|
1169
|
+
"hunyuan-turbos-20250226": {
|
1170
|
+
"description": "hunyuan-TurboS pv2.1.2 고정 버전 사전 훈련 기반 훈련 토큰 수 업그레이드; 수학/논리/코드 등의 사고 능력 향상; 중문 및 영문 공통 경험 효과 향상, 텍스트 창작, 텍스트 이해, 지식 질문 응답, 잡담 등을 포함합니다."
|
1171
|
+
},
|
1172
|
+
"hunyuan-turbos-20250313": {
|
1173
|
+
"description": "수학 문제 해결 단계를 통일하여 수학 다단계 질문 응답을 강화합니다. 텍스트 창작 최적화 답변 스타일로 AI 느낌을 제거하고 문학성을 높입니다."
|
1174
|
+
},
|
1175
|
+
"hunyuan-turbos-latest": {
|
1176
|
+
"description": "hunyuan-TurboS 혼원 플래그십 대모델 최신 버전으로, 더 강력한 사고 능력과 더 나은 경험 효과를 제공합니다."
|
1177
|
+
},
|
1112
1178
|
"hunyuan-vision": {
|
1113
1179
|
"description": "혼원 최신 다중 모달 모델로, 이미지와 텍스트 입력을 지원하여 텍스트 콘텐츠를 생성합니다."
|
1114
1180
|
},
|
@@ -23,6 +23,9 @@
|
|
23
23
|
"cloudflare": {
|
24
24
|
"description": "Cloudflare의 글로벌 네트워크에서 서버리스 GPU로 구동되는 머신러닝 모델을 실행합니다."
|
25
25
|
},
|
26
|
+
"cohere": {
|
27
|
+
"description": "Cohere는 최첨단 다국어 모델, 고급 검색 기능 및 현대 기업을 위해 맞춤 설계된 AI 작업 공간을 제공합니다 — 모든 것이 안전한 플랫폼에 통합되어 있습니다."
|
28
|
+
},
|
26
29
|
"deepseek": {
|
27
30
|
"description": "DeepSeek는 인공지능 기술 연구 및 응용에 집중하는 회사로, 최신 모델인 DeepSeek-V2.5는 일반 대화 및 코드 처리 능력을 통합하고 인간의 선호 정렬, 작문 작업 및 지시 따르기 등에서 상당한 향상을 이루었습니다."
|
28
31
|
},
|
@@ -101,6 +104,9 @@
|
|
101
104
|
"sambanova": {
|
102
105
|
"description": "SambaNova Cloud는 개발자가 최고의 오픈 소스 모델을 쉽게 사용하고 가장 빠른 추론 속도를 즐길 수 있도록 합니다."
|
103
106
|
},
|
107
|
+
"search1api": {
|
108
|
+
"description": "Search1API는 필요에 따라 연결할 수 있는 DeepSeek 시리즈 모델에 대한 액세스를 제공하며, 표준 버전과 빠른 버전을 포함하고 다양한 매개변수 규모의 모델 선택을 지원합니다."
|
109
|
+
},
|
104
110
|
"sensenova": {
|
105
111
|
"description": "상탕의 일일 혁신은 상탕의 강력한 기반 지원을 바탕으로 효율적이고 사용하기 쉬운 전체 스택 대모델 서비스를 제공합니다."
|
106
112
|
},
|
@@ -41,7 +41,10 @@
|
|
41
41
|
"error": {
|
42
42
|
"desc": "Onze excuses, er is een fout opgetreden tijdens het initialisatieproces van de Pglite-database. Klik op de knop om het opnieuw te proberen. Als het probleem zich blijft voordoen na meerdere pogingen, gelieve <1>een probleem te melden</1> en we zullen u zo snel mogelijk helpen.",
|
43
43
|
"detail": "Fout reden: [[{{type}}] {{message}}. Details zijn als volgt:",
|
44
|
+
"detailTitle": "Foutreden",
|
45
|
+
"report": "Probleem rapporteren",
|
44
46
|
"retry": "Opnieuw proberen",
|
47
|
+
"selfSolve": "Zelf oplossen",
|
45
48
|
"title": "Fout bij database-initialisatie"
|
46
49
|
},
|
47
50
|
"initing": {
|
@@ -80,6 +83,54 @@
|
|
80
83
|
"button": "Nu gebruiken",
|
81
84
|
"desc": "Direct gebruiken",
|
82
85
|
"title": "PGlite-database is gereed"
|
86
|
+
},
|
87
|
+
"solve": {
|
88
|
+
"backup": {
|
89
|
+
"backup": "Back-up",
|
90
|
+
"backupSuccess": "Back-up succesvol",
|
91
|
+
"desc": "Exporteer belangrijke gegevens uit de huidige database",
|
92
|
+
"export": "Exporteer alle gegevens",
|
93
|
+
"exportDesc": "De geëxporteerde gegevens worden opgeslagen in JSON-formaat en kunnen worden gebruikt voor toekomstige herstel of analyse.",
|
94
|
+
"reset": {
|
95
|
+
"alert": "Waarschuwing",
|
96
|
+
"alertDesc": "De volgende acties kunnen leiden tot gegevensverlies. Zorg ervoor dat u belangrijke gegevens hebt geback-upt voordat u verdergaat.",
|
97
|
+
"button": "Database volledig resetten (alle gegevens verwijderen)",
|
98
|
+
"confirm": {
|
99
|
+
"desc": "Deze actie zal alle gegevens verwijderen en is onomkeerbaar. Bevestig dat u wilt doorgaan?",
|
100
|
+
"title": "Bevestig database reset"
|
101
|
+
},
|
102
|
+
"desc": "Reset de database in het geval van onherstelbare migratie",
|
103
|
+
"title": "Database reset"
|
104
|
+
},
|
105
|
+
"restore": "Herstellen",
|
106
|
+
"restoreSuccess": "Herstel succesvol",
|
107
|
+
"title": "Gegevensback-up"
|
108
|
+
},
|
109
|
+
"diagnosis": {
|
110
|
+
"createdAt": "Aanmaakdatum",
|
111
|
+
"migratedAt": "Migratie voltooid op",
|
112
|
+
"sql": "Migratie SQL",
|
113
|
+
"title": "Migratiestatus"
|
114
|
+
},
|
115
|
+
"repair": {
|
116
|
+
"desc": "Handmatig migratiestatus beheren",
|
117
|
+
"runSQL": "Aangepast uitvoeren",
|
118
|
+
"sql": {
|
119
|
+
"clear": "Leegmaken",
|
120
|
+
"desc": "Voer aangepaste SQL-opdrachten uit om databaseproblemen te verhelpen",
|
121
|
+
"markFinished": "Markeer als voltooid",
|
122
|
+
"placeholder": "Voer SQL-opdracht in...",
|
123
|
+
"result": "Uitvoeringsresultaat",
|
124
|
+
"run": "Uitvoeren",
|
125
|
+
"title": "SQL-uitvoerder"
|
126
|
+
},
|
127
|
+
"title": "Migratiecontrole"
|
128
|
+
},
|
129
|
+
"tabs": {
|
130
|
+
"backup": "Back-up en herstel",
|
131
|
+
"diagnosis": "Diagnose",
|
132
|
+
"repair": "Herstel"
|
133
|
+
}
|
83
134
|
}
|
84
135
|
},
|
85
136
|
"close": "Sluiten",
|
@@ -518,6 +518,18 @@
|
|
518
518
|
"baichuan/baichuan2-13b-chat": {
|
519
519
|
"description": "Baichuan-13B is een open-source, commercieel bruikbaar groot taalmodel ontwikkeld door Baichuan Intelligent, met 13 miljard parameters, dat de beste prestaties in zijn klasse heeft behaald op gezaghebbende Chinese en Engelse benchmarks."
|
520
520
|
},
|
521
|
+
"c4ai-aya-expanse-32b": {
|
522
|
+
"description": "Aya Expanse is een hoogwaardig 32B meertalig model, ontworpen om de prestaties van eentalige modellen uit te dagen door middel van instructietuning, data-arbitrage, voorkeurstraining en modelintegratie. Het ondersteunt 23 talen."
|
523
|
+
},
|
524
|
+
"c4ai-aya-expanse-8b": {
|
525
|
+
"description": "Aya Expanse is een hoogwaardig 8B meertalig model, ontworpen om de prestaties van eentalige modellen uit te dagen door middel van instructietuning, data-arbitrage, voorkeurstraining en modelintegratie. Het ondersteunt 23 talen."
|
526
|
+
},
|
527
|
+
"c4ai-aya-vision-32b": {
|
528
|
+
"description": "Aya Vision is een geavanceerd multimodaal model dat uitstekende prestaties levert op meerdere belangrijke benchmarks voor taal-, tekst- en beeldcapaciteiten. Deze versie met 32 miljard parameters richt zich op de meest geavanceerde meertalige prestaties."
|
529
|
+
},
|
530
|
+
"c4ai-aya-vision-8b": {
|
531
|
+
"description": "Aya Vision is een geavanceerd multimodaal model dat uitstekende prestaties levert op meerdere belangrijke benchmarks voor taal-, tekst- en beeldcapaciteiten. Deze versie met 8 miljard parameters richt zich op lage latentie en optimale prestaties."
|
532
|
+
},
|
521
533
|
"charglm-3": {
|
522
534
|
"description": "CharGLM-3 is ontworpen voor rollenspellen en emotionele begeleiding, ondersteunt zeer lange meerdaagse herinneringen en gepersonaliseerde gesprekken, met brede toepassingen."
|
523
535
|
},
|
@@ -602,12 +614,39 @@
|
|
602
614
|
"cohere-command-r-plus": {
|
603
615
|
"description": "Command R+ is een state-of-the-art RAG-geoptimaliseerd model ontworpen om enterprise-grade workloads aan te pakken."
|
604
616
|
},
|
617
|
+
"command": {
|
618
|
+
"description": "Een instructievolgend dialoogmodel dat hoge kwaliteit en betrouwbaarheid biedt voor taaltaken, met een langere contextlengte dan ons basisgeneratiemodel."
|
619
|
+
},
|
620
|
+
"command-a-03-2025": {
|
621
|
+
"description": "Command A is ons krachtigste model tot nu toe, met uitstekende prestaties in het gebruik van tools, agenten, retrieval-augmented generation (RAG) en meertalige toepassingen. Command A heeft een contextlengte van 256K, kan draaien op slechts twee GPU's en heeft een doorvoersnelheid die 150% hoger is dan die van Command R+ 08-2024."
|
622
|
+
},
|
623
|
+
"command-light": {
|
624
|
+
"description": "Een kleinere, snellere versie van Command, die bijna even krachtig is, maar sneller."
|
625
|
+
},
|
626
|
+
"command-light-nightly": {
|
627
|
+
"description": "Om de tijd tussen de belangrijkste versies te verkorten, hebben we een nightly versie van het Command-model gelanceerd. Voor de command-light serie wordt deze versie command-light-nightly genoemd. Houd er rekening mee dat command-light-nightly de nieuwste, meest experimentele en (mogelijk) onbetrouwbare versie is. Nightly versies worden regelmatig bijgewerkt zonder voorafgaande kennisgeving, dus het wordt niet aanbevolen om deze in productieomgevingen te gebruiken."
|
628
|
+
},
|
629
|
+
"command-nightly": {
|
630
|
+
"description": "Om de tijd tussen de belangrijkste versies te verkorten, hebben we een nightly versie van het Command-model gelanceerd. Voor de Command-serie wordt deze versie command-cightly genoemd. Houd er rekening mee dat command-nightly de nieuwste, meest experimentele en (mogelijk) onbetrouwbare versie is. Nightly versies worden regelmatig bijgewerkt zonder voorafgaande kennisgeving, dus het wordt niet aanbevolen om deze in productieomgevingen te gebruiken."
|
631
|
+
},
|
605
632
|
"command-r": {
|
606
633
|
"description": "Command R is geoptimaliseerd voor conversatie- en lange contexttaken, bijzonder geschikt voor dynamische interactie en kennisbeheer."
|
607
634
|
},
|
635
|
+
"command-r-03-2024": {
|
636
|
+
"description": "Command R is een instructievolgend dialoogmodel dat hogere kwaliteit en betrouwbaarheid biedt voor taaltaken, met een langere contextlengte dan eerdere modellen. Het kan worden gebruikt voor complexe workflows, zoals codegeneratie, retrieval-augmented generation (RAG), toolgebruik en agenten."
|
637
|
+
},
|
638
|
+
"command-r-08-2024": {
|
639
|
+
"description": "command-r-08-2024 is een bijgewerkte versie van het Command R-model, uitgebracht in augustus 2024."
|
640
|
+
},
|
608
641
|
"command-r-plus": {
|
609
642
|
"description": "Command R+ is een hoogpresterend groot taalmodel, speciaal ontworpen voor echte zakelijke scenario's en complexe toepassingen."
|
610
643
|
},
|
644
|
+
"command-r-plus-04-2024": {
|
645
|
+
"description": "Command R+ is een instructievolgend dialoogmodel dat hogere kwaliteit en betrouwbaarheid biedt voor taaltaken, met een langere contextlengte dan eerdere modellen. Het is het meest geschikt voor complexe RAG-workflows en meervoudig gebruik van tools."
|
646
|
+
},
|
647
|
+
"command-r7b-12-2024": {
|
648
|
+
"description": "command-r7b-12-2024 is een compacte en efficiënte bijgewerkte versie, uitgebracht in december 2024. Het presteert uitstekend in taken die complexe redenering en meervoudige verwerking vereisen, zoals RAG, toolgebruik en agenten."
|
649
|
+
},
|
611
650
|
"dall-e-2": {
|
612
651
|
"description": "De tweede generatie DALL·E model, ondersteunt realistischere en nauwkeurigere beeldgeneratie, met een resolutie die vier keer zo hoog is als die van de eerste generatie."
|
613
652
|
},
|
@@ -668,12 +707,24 @@
|
|
668
707
|
"deepseek-r1": {
|
669
708
|
"description": "DeepSeek-R1 is een op versterkend leren (RL) aangedreven inferentiemodel dat de problemen van herhaling en leesbaarheid in het model oplost. Voor RL introduceerde DeepSeek-R1 koude startdata om de inferentieprestaties verder te optimaliseren. Het presteert vergelijkbaar met OpenAI-o1 in wiskunde, code en inferentietaken, en verbetert de algehele effectiviteit door zorgvuldig ontworpen trainingsmethoden."
|
670
709
|
},
|
710
|
+
"deepseek-r1-70b-fast-online": {
|
711
|
+
"description": "DeepSeek R1 70B snelle versie, ondersteunt realtime online zoeken en biedt snellere reactietijden zonder in te boeten op modelprestaties."
|
712
|
+
},
|
713
|
+
"deepseek-r1-70b-online": {
|
714
|
+
"description": "DeepSeek R1 70B standaardversie, ondersteunt realtime online zoeken, geschikt voor dialoog- en tekstverwerkingstaken die actuele informatie vereisen."
|
715
|
+
},
|
671
716
|
"deepseek-r1-distill-llama-70b": {
|
672
717
|
"description": "DeepSeek R1 - een groter en slimmer model binnen de DeepSeek suite - is gedistilleerd naar de Llama 70B architectuur. Op basis van benchmarktests en menselijke evaluaties is dit model slimmer dan de originele Llama 70B, vooral in taken die wiskundige en feitelijke nauwkeurigheid vereisen."
|
673
718
|
},
|
674
719
|
"deepseek-r1-distill-llama-8b": {
|
675
720
|
"description": "Het DeepSeek-R1-Distill model is verkregen door middel van kennisdistillatie-technologie, waarbij samples gegenereerd door DeepSeek-R1 zijn afgestemd op open-source modellen zoals Qwen en Llama."
|
676
721
|
},
|
722
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
723
|
+
"description": "Eerste release op 14 februari 2025, gedistilleerd door het Qianfan grote model ontwikkelteam met Llama3_70B als basis (gebouwd met Meta Llama), waarbij ook Qianfan's corpora zijn toegevoegd aan de gedistilleerde data."
|
724
|
+
},
|
725
|
+
"deepseek-r1-distill-qianfan-llama-8b": {
|
726
|
+
"description": "Eerste release op 14 februari 2025, gedistilleerd door het Qianfan grote model ontwikkelteam met Llama3_8B als basis (gebouwd met Meta Llama), waarbij ook Qianfan's corpora zijn toegevoegd aan de gedistilleerde data."
|
727
|
+
},
|
677
728
|
"deepseek-r1-distill-qwen-1.5b": {
|
678
729
|
"description": "Het DeepSeek-R1-Distill model is verkregen door middel van kennisdistillatie-technologie, waarbij samples gegenereerd door DeepSeek-R1 zijn afgestemd op open-source modellen zoals Qwen en Llama."
|
679
730
|
},
|
@@ -686,6 +737,12 @@
|
|
686
737
|
"deepseek-r1-distill-qwen-7b": {
|
687
738
|
"description": "Het DeepSeek-R1-Distill model is verkregen door middel van kennisdistillatie-technologie, waarbij samples gegenereerd door DeepSeek-R1 zijn afgestemd op open-source modellen zoals Qwen en Llama."
|
688
739
|
},
|
740
|
+
"deepseek-r1-fast-online": {
|
741
|
+
"description": "DeepSeek R1 volledige snelle versie, ondersteunt realtime online zoeken en combineert de krachtige capaciteiten van 671B parameters met snellere reactietijden."
|
742
|
+
},
|
743
|
+
"deepseek-r1-online": {
|
744
|
+
"description": "DeepSeek R1 volledige versie, met 671B parameters, ondersteunt realtime online zoeken en heeft krachtige begrip- en generatiecapaciteiten."
|
745
|
+
},
|
689
746
|
"deepseek-reasoner": {
|
690
747
|
"description": "Het redeneer model van DeepSeek. Voordat het model het uiteindelijke antwoord geeft, genereert het eerst een stuk denkproces om de nauwkeurigheid van het uiteindelijke antwoord te verbeteren."
|
691
748
|
},
|
@@ -764,6 +821,9 @@
|
|
764
821
|
"ernie-4.0-turbo-8k-preview": {
|
765
822
|
"description": "Het vlaggenschip ultra-grote taalmodel van Baidu, zelf ontwikkeld, presteert uitstekend in algehele effectiviteit en is breed toepasbaar in complexe taakscenario's in verschillende domeinen; ondersteunt automatische integratie met Baidu zoekplug-ins om de actualiteit van vraag- en antwoordinformatie te waarborgen. Het presteert beter dan ERNIE 4.0."
|
766
823
|
},
|
824
|
+
"ernie-4.5-8k-preview": {
|
825
|
+
"description": "Het Wenxin grote model 4.5 is een nieuwe generatie native multimodale basisgrootte model, ontwikkeld door Baidu, dat samenwerking optimaliseert door meerdere modaliteiten gezamenlijk te modelleren, met uitstekende multimodale begripcapaciteiten; het heeft verbeterde taalvaardigheden, met verbeteringen in begrip, generatie, logica en geheugen, en significante verbeteringen in hallucinatie, logische redenering en codecapaciteiten."
|
826
|
+
},
|
767
827
|
"ernie-char-8k": {
|
768
828
|
"description": "Een door Baidu ontwikkeld groot taalmodel voor verticale scenario's, geschikt voor toepassingen zoals game NPC's, klantenservice dialoog, en rollenspellen, met een duidelijkere en consistentere karakterstijl, sterkere instructievolgcapaciteiten en betere inferentieprestaties."
|
769
829
|
},
|
@@ -1097,9 +1157,6 @@
|
|
1097
1157
|
"hunyuan-turbo": {
|
1098
1158
|
"description": "Een previewversie van het nieuwe generatie grote taalmodel van Hunyuan, met een nieuwe hybride expertmodel (MoE) structuur, die sneller inferentie-efficiëntie biedt en betere prestaties levert dan hunyan-pro."
|
1099
1159
|
},
|
1100
|
-
"hunyuan-turbo-20241120": {
|
1101
|
-
"description": "Hunyuan-turbo versie van 20 november 2024, een vaste versie die zich tussen hunyuan-turbo en hunyuan-turbo-latest bevindt."
|
1102
|
-
},
|
1103
1160
|
"hunyuan-turbo-20241223": {
|
1104
1161
|
"description": "Deze versie optimaliseert: gegevensinstructiescaling, wat de algemene generalisatiecapaciteit van het model aanzienlijk verbetert; aanzienlijke verbetering van wiskunde-, code- en logische redeneervaardigheden; optimalisatie van tekstbegrip en woordbegrip gerelateerde capaciteiten; optimalisatie van de kwaliteit van tekstcreatie en inhoudsgeneratie."
|
1105
1162
|
},
|
@@ -1109,6 +1166,15 @@
|
|
1109
1166
|
"hunyuan-turbo-vision": {
|
1110
1167
|
"description": "De nieuwe generatie visuele taal vlaggenschipmodel van Hunyuan, met een geheel nieuwe hybride expertmodel (MoE) structuur, biedt aanzienlijke verbeteringen in basisherkenning, inhoudcreatie, kennisvragen, en analytische redeneervaardigheden in vergelijking met de vorige generatie modellen."
|
1111
1168
|
},
|
1169
|
+
"hunyuan-turbos-20250226": {
|
1170
|
+
"description": "hunyuan-TurboS pv2.1.2 vaste versie met verbeterde training van token-upgrades; verbeterde denkcapaciteiten voor wiskunde/logica/code; verbeterde gebruikerservaring in zowel het Chinees als het Engels, inclusief tekstcreatie, tekstbegrip, kennisvragen en casual chat."
|
1171
|
+
},
|
1172
|
+
"hunyuan-turbos-20250313": {
|
1173
|
+
"description": "Een uniforme stijl voor het oplossen van wiskundige problemen, met een versterking van meerdaagse wiskundige vraag-en-antwoord. Optimalisatie van de antwoordstijl voor tekstcreatie, met verwijdering van AI-kenmerken en een toename van de literairheid."
|
1174
|
+
},
|
1175
|
+
"hunyuan-turbos-latest": {
|
1176
|
+
"description": "hunyuan-TurboS is de nieuwste versie van het Hunyuan vlaggenschipmodel, met verbeterde denkcapaciteiten en een betere gebruikerservaring."
|
1177
|
+
},
|
1112
1178
|
"hunyuan-vision": {
|
1113
1179
|
"description": "Het nieuwste multimodale model van Hunyuan, ondersteunt het genereren van tekstinhoud op basis van afbeelding + tekstinvoer."
|
1114
1180
|
},
|
@@ -23,6 +23,9 @@
|
|
23
23
|
"cloudflare": {
|
24
24
|
"description": "Voer machine learning-modellen aan, aangedreven door serverloze GPU's, uit op het wereldwijde netwerk van Cloudflare."
|
25
25
|
},
|
26
|
+
"cohere": {
|
27
|
+
"description": "Cohere biedt u de meest geavanceerde meertalige modellen, geavanceerde zoekfunctionaliteit en een op maat gemaakt AI-werkruimte voor moderne bedrijven - alles geïntegreerd in een veilig platform."
|
28
|
+
},
|
26
29
|
"deepseek": {
|
27
30
|
"description": "DeepSeek is een bedrijf dat zich richt op onderzoek en toepassing van kunstmatige intelligentietechnologie, en hun nieuwste model DeepSeek-V2.5 combineert algemene dialoog- en codeverwerkingscapaciteiten, met significante verbeteringen in het afstemmen op menselijke voorkeuren, schrijfopdrachten en het volgen van instructies."
|
28
31
|
},
|
@@ -101,6 +104,9 @@
|
|
101
104
|
"sambanova": {
|
102
105
|
"description": "SambaNova Cloud stelt ontwikkelaars in staat om eenvoudig gebruik te maken van de beste open-source modellen en te profiteren van de snelste inferentiesnelheden."
|
103
106
|
},
|
107
|
+
"search1api": {
|
108
|
+
"description": "Search1API biedt toegang tot de DeepSeek-serie modellen die naar behoefte zelf kunnen worden verbonden, inclusief de standaard- en snelle versies, met ondersteuning voor verschillende modelgroottes."
|
109
|
+
},
|
104
110
|
"sensenova": {
|
105
111
|
"description": "SenseNova, ondersteund door de krachtige infrastructuur van SenseTime, biedt efficiënte en gebruiksvriendelijke full-stack modelservices."
|
106
112
|
},
|
@@ -41,7 +41,10 @@
|
|
41
41
|
"error": {
|
42
42
|
"desc": "Przykro nam, wystąpił błąd podczas inicjalizacji bazy danych Pglite. Proszę kliknąć przycisk, aby spróbować ponownie. Jeśli błąd powtarza się po wielokrotnych próbach, proszę <1>zgłosić problem</1>, a my jak najszybciej pomożemy w rozwiązaniu.",
|
43
43
|
"detail": "Powód błędu: [{{type}}] {{message}}. Szczegóły poniżej:",
|
44
|
+
"detailTitle": "Powód błędu",
|
45
|
+
"report": "Zgłoś problem",
|
44
46
|
"retry": "Spróbuj ponownie",
|
47
|
+
"selfSolve": "Rozwiąż samodzielnie",
|
45
48
|
"title": "Błąd inicjalizacji bazy danych"
|
46
49
|
},
|
47
50
|
"initing": {
|
@@ -80,6 +83,54 @@
|
|
80
83
|
"button": "Użyj teraz",
|
81
84
|
"desc": "Chcę użyć teraz",
|
82
85
|
"title": "Baza danych PGlite jest gotowa"
|
86
|
+
},
|
87
|
+
"solve": {
|
88
|
+
"backup": {
|
89
|
+
"backup": "Kopia zapasowa",
|
90
|
+
"backupSuccess": "Kopia zapasowa zakończona sukcesem",
|
91
|
+
"desc": "Eksportuj kluczowe dane z bieżącej bazy danych",
|
92
|
+
"export": "Eksportuj wszystkie dane",
|
93
|
+
"exportDesc": "Eksportowane dane będą zapisane w formacie JSON, co umożliwi późniejsze przywracanie lub analizę.",
|
94
|
+
"reset": {
|
95
|
+
"alert": "Ostrzeżenie",
|
96
|
+
"alertDesc": "Poniższe operacje mogą prowadzić do utraty danych. Upewnij się, że wykonałeś kopię zapasową ważnych danych przed kontynuowaniem.",
|
97
|
+
"button": "Całkowite zresetowanie bazy danych (usunięcie wszystkich danych)",
|
98
|
+
"confirm": {
|
99
|
+
"desc": "Ta operacja usunie wszystkie dane i nie będzie mogła być cofnięta, czy na pewno chcesz kontynuować?",
|
100
|
+
"title": "Potwierdź resetowanie bazy danych"
|
101
|
+
},
|
102
|
+
"desc": "Zresetuj bazę danych w przypadku nieodwracalnej migracji",
|
103
|
+
"title": "Resetowanie bazy danych"
|
104
|
+
},
|
105
|
+
"restore": "Przywróć",
|
106
|
+
"restoreSuccess": "Przywracanie zakończone sukcesem",
|
107
|
+
"title": "Kopia zapasowa danych"
|
108
|
+
},
|
109
|
+
"diagnosis": {
|
110
|
+
"createdAt": "Data utworzenia",
|
111
|
+
"migratedAt": "Data zakończenia migracji",
|
112
|
+
"sql": "Migracja SQL",
|
113
|
+
"title": "Stan migracji"
|
114
|
+
},
|
115
|
+
"repair": {
|
116
|
+
"desc": "Ręczne zarządzanie stanem migracji",
|
117
|
+
"runSQL": "Wykonaj niestandardowo",
|
118
|
+
"sql": {
|
119
|
+
"clear": "Wyczyść",
|
120
|
+
"desc": "Wykonaj niestandardowe zapytanie SQL, aby naprawić problemy z bazą danych",
|
121
|
+
"markFinished": "Oznacz jako zakończone",
|
122
|
+
"placeholder": "Wprowadź zapytanie SQL...",
|
123
|
+
"result": "Wynik wykonania",
|
124
|
+
"run": "Wykonaj",
|
125
|
+
"title": "Wykonawca SQL"
|
126
|
+
},
|
127
|
+
"title": "Kontrola migracji"
|
128
|
+
},
|
129
|
+
"tabs": {
|
130
|
+
"backup": "Kopia zapasowa i przywracanie",
|
131
|
+
"diagnosis": "Diagnostyka",
|
132
|
+
"repair": "Naprawa"
|
133
|
+
}
|
83
134
|
}
|
84
135
|
},
|
85
136
|
"close": "Zamknij",
|