@lobehub/chat 1.76.1 → 1.77.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/common.json +12 -1
- package/locales/ar/error.json +10 -0
- package/locales/ar/models.json +9 -6
- package/locales/ar/setting.json +28 -0
- package/locales/bg-BG/common.json +12 -1
- package/locales/bg-BG/error.json +10 -0
- package/locales/bg-BG/models.json +9 -6
- package/locales/bg-BG/setting.json +28 -0
- package/locales/de-DE/common.json +12 -1
- package/locales/de-DE/error.json +10 -0
- package/locales/de-DE/models.json +9 -6
- package/locales/de-DE/setting.json +28 -0
- package/locales/en-US/common.json +12 -1
- package/locales/en-US/error.json +10 -0
- package/locales/en-US/models.json +9 -6
- package/locales/en-US/setting.json +28 -0
- package/locales/es-ES/common.json +12 -1
- package/locales/es-ES/error.json +10 -0
- package/locales/es-ES/models.json +9 -6
- package/locales/es-ES/setting.json +28 -0
- package/locales/fa-IR/common.json +12 -1
- package/locales/fa-IR/error.json +10 -0
- package/locales/fa-IR/models.json +9 -6
- package/locales/fa-IR/setting.json +28 -0
- package/locales/fr-FR/common.json +12 -1
- package/locales/fr-FR/error.json +10 -0
- package/locales/fr-FR/models.json +9 -6
- package/locales/fr-FR/setting.json +28 -0
- package/locales/it-IT/common.json +12 -1
- package/locales/it-IT/error.json +10 -0
- package/locales/it-IT/models.json +9 -6
- package/locales/it-IT/setting.json +28 -0
- package/locales/ja-JP/common.json +12 -1
- package/locales/ja-JP/error.json +10 -0
- package/locales/ja-JP/models.json +9 -6
- package/locales/ja-JP/setting.json +28 -0
- package/locales/ko-KR/common.json +12 -1
- package/locales/ko-KR/error.json +10 -0
- package/locales/ko-KR/models.json +9 -6
- package/locales/ko-KR/setting.json +28 -0
- package/locales/nl-NL/common.json +12 -1
- package/locales/nl-NL/error.json +10 -0
- package/locales/nl-NL/models.json +9 -6
- package/locales/nl-NL/setting.json +28 -0
- package/locales/pl-PL/common.json +12 -1
- package/locales/pl-PL/error.json +10 -0
- package/locales/pl-PL/models.json +9 -6
- package/locales/pl-PL/setting.json +28 -0
- package/locales/pt-BR/common.json +12 -1
- package/locales/pt-BR/error.json +10 -0
- package/locales/pt-BR/models.json +9 -6
- package/locales/pt-BR/setting.json +28 -0
- package/locales/ru-RU/common.json +12 -1
- package/locales/ru-RU/error.json +10 -0
- package/locales/ru-RU/models.json +9 -6
- package/locales/ru-RU/setting.json +28 -0
- package/locales/tr-TR/common.json +12 -1
- package/locales/tr-TR/error.json +10 -0
- package/locales/tr-TR/models.json +9 -6
- package/locales/tr-TR/setting.json +28 -0
- package/locales/vi-VN/common.json +12 -1
- package/locales/vi-VN/error.json +10 -0
- package/locales/vi-VN/models.json +9 -6
- package/locales/vi-VN/setting.json +28 -0
- package/locales/zh-CN/common.json +12 -1
- package/locales/zh-CN/error.json +10 -0
- package/locales/zh-CN/models.json +9 -6
- package/locales/zh-CN/setting.json +28 -0
- package/locales/zh-TW/common.json +12 -1
- package/locales/zh-TW/error.json +10 -0
- package/locales/zh-TW/models.json +9 -6
- package/locales/zh-TW/setting.json +28 -0
- package/package.json +1 -1
- package/src/app/[variants]/(main)/(mobile)/me/data/features/Category.tsx +1 -1
- package/src/app/[variants]/(main)/chat/features/Migration/UpgradeButton.tsx +2 -1
- package/src/app/[variants]/(main)/settings/common/features/Common.tsx +0 -44
- package/src/app/[variants]/(main)/settings/hooks/useCategory.tsx +40 -14
- package/src/app/[variants]/(main)/settings/storage/Advanced.tsx +133 -0
- package/src/app/[variants]/(main)/settings/storage/IndexedDBStorage.tsx +55 -0
- package/src/app/[variants]/(main)/settings/storage/page.tsx +17 -0
- package/src/components/GroupIcon/index.tsx +25 -0
- package/src/components/IndexCard/index.tsx +143 -0
- package/src/components/ProgressItem/index.tsx +75 -0
- package/src/database/repositories/dataExporter/index.test.ts +330 -0
- package/src/database/repositories/dataExporter/index.ts +216 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/agents.json +65 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/agentsToSessions.json +541 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/topic.json +269 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/userSettings.json +18 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/with-client-id.json +778 -0
- package/src/database/repositories/dataImporter/__tests__/index.test.ts +120 -880
- package/src/database/repositories/dataImporter/deprecated/__tests__/index.test.ts +940 -0
- package/src/database/repositories/dataImporter/deprecated/index.ts +326 -0
- package/src/database/repositories/dataImporter/index.ts +684 -289
- package/src/features/DataImporter/ImportDetail.tsx +203 -0
- package/src/features/DataImporter/SuccessResult.tsx +22 -6
- package/src/features/DataImporter/_deprecated.ts +43 -0
- package/src/features/DataImporter/config.ts +21 -0
- package/src/features/DataImporter/index.tsx +112 -31
- package/src/features/DevPanel/PostgresViewer/DataTable/index.tsx +6 -0
- package/src/features/User/UserPanel/useMenu.tsx +0 -35
- package/src/features/User/__tests__/useMenu.test.tsx +0 -2
- package/src/locales/default/common.ts +11 -0
- package/src/locales/default/error.ts +10 -0
- package/src/locales/default/setting.ts +28 -0
- package/src/server/routers/lambda/exporter.ts +25 -0
- package/src/server/routers/lambda/importer.ts +19 -3
- package/src/server/routers/lambda/index.ts +2 -0
- package/src/services/config.ts +80 -135
- package/src/services/export/_deprecated.ts +155 -0
- package/src/services/export/client.ts +15 -0
- package/src/services/export/index.ts +6 -0
- package/src/services/export/server.ts +9 -0
- package/src/services/export/type.ts +5 -0
- package/src/services/import/_deprecated.ts +42 -1
- package/src/services/import/client.test.ts +1 -1
- package/src/services/import/client.ts +30 -1
- package/src/services/import/server.ts +70 -2
- package/src/services/import/type.ts +10 -0
- package/src/store/global/initialState.ts +1 -0
- package/src/types/export.ts +11 -0
- package/src/types/exportConfig.ts +2 -0
- package/src/types/importer.ts +15 -0
- package/src/utils/client/exportFile.ts +21 -0
- package/vitest.config.ts +1 -1
- package/src/utils/config.ts +0 -109
- /package/src/database/repositories/dataImporter/{__tests__ → deprecated/__tests__}/fixtures/messages.json +0 -0
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "テーマ設定"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "エクスポート",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "エージェント設定をエクスポート",
|
355
|
+
"agentWithMessage": "エージェントとメッセージをエクスポート",
|
356
|
+
"all": "全体設定とすべてのエージェントデータをエクスポート",
|
357
|
+
"allAgent": "すべてのエージェント設定をエクスポート",
|
358
|
+
"allAgentWithMessage": "すべてのエージェントとメッセージをエクスポート",
|
359
|
+
"globalSetting": "全体設定をエクスポート"
|
360
|
+
},
|
361
|
+
"title": "データをエクスポート"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "インポート",
|
365
|
+
"title": "データをインポート"
|
366
|
+
},
|
367
|
+
"title": "高度な操作"
|
368
|
+
},
|
369
|
+
"desc": "現在のブラウザのストレージ使用量",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "ベクトルストレージ"
|
372
|
+
},
|
373
|
+
"title": "データストレージ",
|
374
|
+
"used": "ストレージ使用量"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "エージェントを提出",
|
351
378
|
"identifier": "エージェント識別子",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "ショートカットキー",
|
440
467
|
"llm": "言語モデル",
|
441
468
|
"provider": "AIサービスプロバイダー",
|
469
|
+
"storage": "データストレージ",
|
442
470
|
"sync": "クラウド同期",
|
443
471
|
"system-agent": "システムアシスタント",
|
444
472
|
"tts": "音声サービス"
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "에이전트",
|
206
206
|
"skips": "중복 건너뛰기",
|
207
207
|
"topics": "주제",
|
208
|
-
"type": "데이터 유형"
|
208
|
+
"type": "데이터 유형",
|
209
|
+
"update": "기록 업데이트"
|
209
210
|
},
|
210
211
|
"title": "데이터 가져오기",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "업로드 속도"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "가져오기 확인",
|
220
|
+
"tables": {
|
221
|
+
"count": "기록 수",
|
222
|
+
"name": "표 이름"
|
223
|
+
},
|
224
|
+
"title": "데이터 가져오기 미리보기",
|
225
|
+
"totalRecords": "총 {{count}} 개의 기록이 가져와집니다",
|
226
|
+
"totalTables": "{{count}} 개의 표"
|
227
|
+
},
|
217
228
|
"information": "커뮤니티 및 정보",
|
218
229
|
"installPWA": "브라우저 앱 설치",
|
219
230
|
"lang": {
|
package/locales/ko-KR/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "오류 세부정보",
|
17
17
|
"title": "요청 실패"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "오류 원인: {{reason}}",
|
22
|
+
"title": "가져오기 실패"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "이 파일은 더 높은 버전에서 내보낸 것입니다. 최신 버전으로 업그레이드한 후 다시 가져오기를 시도하십시오.",
|
26
|
+
"title": "현재 애플리케이션은 이 파일의 가져오기를 지원하지 않습니다."
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "곧 로그인 페이지로 자동 이동합니다",
|
21
31
|
"title": "이 기능을 사용하려면 로그인해 주세요"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3는 6710억 개의 매개변수를 가진 혼합 전문가(MoE) 언어 모델로, 다중 헤드 잠재 주의(MLA) 및 DeepSeekMoE 아키텍처를 사용하여 보조 손실 없는 부하 균형 전략을 결합하여 추론 및 훈련 효율성을 최적화합니다. 14.8조 개의 고품질 토큰에서 사전 훈련을 수행하고 감독 미세 조정 및 강화 학습을 통해 DeepSeek-V3는 성능 면에서 다른 오픈 소스 모델을 초월하며, 선도적인 폐쇄형 모델에 근접합니다."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3는 6710억 개의 매개변수를 가진 혼합 전문가(MoE) 언어 모델로, 다중 헤드 잠재 주의(MLA) 및 DeepSeekMoE 아키텍처를 채택하고, 보조 손실 없는 부하 균형 전략을 결합하여 추론 및 훈련 효율성을 최적화합니다. 14.8조 개의 고품질 토큰에서 사전 훈련을 거치고 감독 미세 조정 및 강화 학습을 통해 DeepSeek-V3는 성능 면에서 다른 오픈 소스 모델을 초월하며, 선도적인 폐쇄형 모델에 근접합니다."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview는 복잡한 대화 생성 및 맥락 이해 작업을 효율적으로 처리할 수 있는 혁신적인 자연어 처리 모델입니다."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3는 항저우 심도 탐색 인공지능 기초 기술 연구 회사에서 자체 개발한 MoE 모델로, 여러 평가에서 뛰어난 성적을 거두며, 주류 순위에서 오픈 소스 모델 1위를 차지하고 있습니다. V3는 V2.5 모델에 비해 생성 속도가 3배 향상되어 사용자에게 더 빠르고 원활한 사용 경험을 제공합니다."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324는 671B 매개변수를 가진 MoE 모델로, 프로그래밍 및 기술 능력, 맥락 이해 및 긴 텍스트 처리 등에서 두드러진 장점을 보입니다."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "일반 및 코드 능력을 통합한 새로운 오픈 소스 모델로, 기존 Chat 모델의 일반 대화 능력과 Coder 모델의 강력한 코드 처리 능력을 유지하면서 인간의 선호에 더 잘 맞춰졌습니다. 또한, DeepSeek-V2.5는 작문 작업, 지시 따르기 등 여러 분야에서 큰 향상을 이루었습니다."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro는 Google의 고성능 AI 모델로, 광범위한 작업 확장을 위해 설계되었습니다."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash는 Google의 최신 다중 모달 AI 모델로, 빠른 처리 능력을 갖추고 있으며 텍스트, 이미지 및 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001은 효율적인 다중 모달 모델로, 광범위한 응용 프로그램 확장을 지원합니다."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 플래시 모델 변형으로, 비용 효율성과 낮은 지연 시간 등의 목표를 위해 최적화되었습니다."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "비용 효율성과 낮은 지연 시간 등을 목표로 최적화된 Gemini 2.0 Flash 모델입니다."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모드 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모드 생성을 제공합니다."
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "Qwen-Math 모델은 강력한 수학 문제 해결 능력을 가지고 있습니다."
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Qwen-Omni 시리즈 모델은 비디오, 오디오, 이미지, 텍스트 등 다양한 모드의 데이터를 입력으로 지원하며, 오디오와 텍스트를 출력합니다."
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "Qwen2.5-VL 시리즈 모델은 모델의 지능 수준, 실용성 및 적용성을 향상시켜 자연스러운 대화, 콘텐츠 제작, 전문 지식 서비스 및 코드 개발 등 다양한 시나리오에서 더 나은 성능을 발휘합니다. 32B 버전은 강화 학습 기술을 활용하여 최적화되었으며, Qwen2.5 VL 시리즈의 다른 모델들과 비교하여 인간의 선호도에 더 부합하는 출력 스타일, 복잡한 수학 문제의 추론 능력, 그리고 이미지의 세밀한 이해와 추론 능력을 제공합니다."
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "테마 설정"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "내보내기",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "도우미 설정 내보내기",
|
355
|
+
"agentWithMessage": "도우미와 메시지 내보내기",
|
356
|
+
"all": "전체 설정 및 모든 도우미 데이터 내보내기",
|
357
|
+
"allAgent": "모든 도우미 설정 내보내기",
|
358
|
+
"allAgentWithMessage": "모든 도우미와 메시지 내보내기",
|
359
|
+
"globalSetting": "전체 설정 내보내기"
|
360
|
+
},
|
361
|
+
"title": "데이터 내보내기"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "가져오기",
|
365
|
+
"title": "데이터 가져오기"
|
366
|
+
},
|
367
|
+
"title": "고급 작업"
|
368
|
+
},
|
369
|
+
"desc": "현재 브라우저의 저장 용량",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "벡터 저장소"
|
372
|
+
},
|
373
|
+
"title": "데이터 저장소",
|
374
|
+
"used": "저장 용량"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "에이전트 제출",
|
351
378
|
"identifier": "에이전트 식별자",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "단축키",
|
440
467
|
"llm": "언어 모델",
|
441
468
|
"provider": "AI 서비스 제공자",
|
469
|
+
"storage": "데이터 저장소",
|
442
470
|
"sync": "클라우드 동기화",
|
443
471
|
"system-agent": "시스템 도우미",
|
444
472
|
"tts": "음성 서비스"
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "Assistenten",
|
206
206
|
"skips": "Overslaan van duplicaten",
|
207
207
|
"topics": "Onderwerpen",
|
208
|
-
"type": "Gegevenstype"
|
208
|
+
"type": "Gegevenstype",
|
209
|
+
"update": "Record bijgewerkt"
|
209
210
|
},
|
210
211
|
"title": "Gegevens importeren",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "Uploadsnelheid"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "Bevestig import",
|
220
|
+
"tables": {
|
221
|
+
"count": "Aantal records",
|
222
|
+
"name": "Tabelnaam"
|
223
|
+
},
|
224
|
+
"title": "Voorbeeld van gegevensimport",
|
225
|
+
"totalRecords": "In totaal worden {{count}} records geïmporteerd",
|
226
|
+
"totalTables": "{{count}} tabellen"
|
227
|
+
},
|
217
228
|
"information": "Gemeenschap en Informatie",
|
218
229
|
"installPWA": "Installeer de browser-app",
|
219
230
|
"lang": {
|
package/locales/nl-NL/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "Foutdetails",
|
17
17
|
"title": "Verzoek mislukt"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "Foutmelding: {{reason}}",
|
22
|
+
"title": "Import mislukt"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "Dit bestand is geëxporteerd vanuit een hogere versie, probeer te upgraden naar de nieuwste versie en importeer opnieuw",
|
26
|
+
"title": "De huidige applicatie ondersteunt het importeren van dit bestand niet"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "U wordt binnenkort automatisch doorgestuurd naar de inlogpagina",
|
21
31
|
"title": "Log in om deze functie te gebruiken"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 is een hybride expert (MoE) taalmodel met 6710 miljard parameters, dat gebruikmaakt van multi-head latent attention (MLA) en de DeepSeekMoE-architectuur, gecombineerd met een load balancing-strategie zonder extra verlies, om de inferentie- en trainingsefficiëntie te optimaliseren. Door voorgetraind te worden op 14,8 biljoen hoogwaardige tokens en vervolgens te worden fijngesteld met supervisie en versterkend leren, overtreft DeepSeek-V3 andere open-source modellen in prestaties en komt het dicht in de buurt van toonaangevende gesloten modellen."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 is een hybride expert (MoE) taalmodel met 6710 miljard parameters, dat gebruikmaakt van multi-head latent attention (MLA) en de DeepSeekMoE-architectuur, gecombineerd met een load balancing strategie zonder extra verlies, om de efficiëntie van inferentie en training te optimaliseren. Door voorgetraind te worden op 14,8 biljoen hoogwaardige tokens en vervolgens te worden verfijnd met supervisie en versterkend leren, overtreft DeepSeek-V3 andere open-source modellen in prestaties en benadert het de toonaangevende gesloten-source modellen."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview is een innovatief natuurlijk taalverwerkingsmodel dat efficiënt complexe dialooggeneratie en contextbegripstaken kan verwerken."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 is een MoE-model dat is ontwikkeld door Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd. Het heeft uitstekende scores in verschillende evaluaties en staat bovenaan de open-source modellen in de mainstream ranglijsten. V3 heeft de generatiesnelheid met 3 keer verbeterd in vergelijking met het V2.5 model, wat zorgt voor een snellere en soepelere gebruikerservaring."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 is een MoE-model met 671 miljard parameters, dat uitblinkt in programmeer- en technische vaardigheden, contextbegrip en het verwerken van lange teksten."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "Een nieuw open-source model dat algemene en codeercapaciteiten combineert, niet alleen de algemene gespreksvaardigheden van het oorspronkelijke Chat-model en de krachtige codeverwerkingscapaciteiten van het Coder-model behoudt, maar ook beter is afgestemd op menselijke voorkeuren. Bovendien heeft DeepSeek-V2.5 aanzienlijke verbeteringen gerealiseerd in schrijfopdrachten, instructievolging en meer."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro is Google's high-performance AI-model, ontworpen voor brede taakuitbreiding."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash is het nieuwste multimodale AI-model van Google, met snelle verwerkingscapaciteiten, ondersteuning voor tekst-, beeld- en video-invoer, en efficiënt schaalbaar voor verschillende taken."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001 is een efficiënt multimodaal model dat ondersteuning biedt voor brede toepassingsuitbreiding."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 Flash is een modelvariant die is geoptimaliseerd voor kosteneffectiviteit en lage latentie."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "Een Gemini 2.0 Flash-model dat is geoptimaliseerd voor kosteneffectiviteit en lage latentie."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met next-gen functies, uitstekende snelheid, native tool-aanroepen en multimodale generatie."
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "Het Qwen-Math model heeft krachtige capaciteiten voor het oplossen van wiskundige problemen."
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Het Qwen-Omni serie model ondersteunt het invoeren van verschillende modaliteiten van gegevens, waaronder video, audio, afbeeldingen en tekst, en kan audio en tekst als output genereren."
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "De Qwen2.5-VL-serie modellen verbeteren het intelligentieniveau, de praktisch toepasbaarheid en de bruikbaarheid, waardoor ze beter presteren in natuurlijke conversaties, inhoudscREATie, specialistische kennisdiensten en codeontwikkeling. De 32B-versie maakt gebruik van versterkingsleertechnieken om het model te optimaliseren, waardoor het in vergelijking met andere modellen uit de Qwen2.5 VL-serie een uitvoerstijl biedt die meer voldoet aan menselijke voorkeuren, een betere redeneringscapaciteit voor complexe wiskundige problemen, en een fijnere begrip en redenering van afbeeldingen."
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "Thema-instellingen"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "Exporteren",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "Exporteren assistentinstellingen",
|
355
|
+
"agentWithMessage": "Exporteren assistent en berichten",
|
356
|
+
"all": "Exporteren globale instellingen en alle assistentgegevens",
|
357
|
+
"allAgent": "Exporteren alle assistentinstellingen",
|
358
|
+
"allAgentWithMessage": "Exporteren alle assistenten en berichten",
|
359
|
+
"globalSetting": "Exporteren globale instellingen"
|
360
|
+
},
|
361
|
+
"title": "Gegevens exporteren"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "Importeren",
|
365
|
+
"title": "Gegevens importeren"
|
366
|
+
},
|
367
|
+
"title": "Geavanceerde acties"
|
368
|
+
},
|
369
|
+
"desc": "Huidig opslaggebruik in de browser",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "Vectoropslag"
|
372
|
+
},
|
373
|
+
"title": "Gegevensopslag",
|
374
|
+
"used": "Opslaggebruik"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "Assistent indienen",
|
351
378
|
"identifier": "Assistent-identificatie",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "Sneltoetsen",
|
440
467
|
"llm": "Taalmodel",
|
441
468
|
"provider": "AI-dienstverlener",
|
469
|
+
"storage": "Gegevensopslag",
|
442
470
|
"sync": "Cloudsynchronisatie",
|
443
471
|
"system-agent": "Systeemassistent",
|
444
472
|
"tts": "Spraakdienst"
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "Sesje",
|
206
206
|
"skips": "Pominięcia duplikatów",
|
207
207
|
"topics": "Tematy",
|
208
|
-
"type": "Typ danych"
|
208
|
+
"type": "Typ danych",
|
209
|
+
"update": "Aktualizacja rekordu"
|
209
210
|
},
|
210
211
|
"title": "Import danych",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "Prędkość wysyłania"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "Potwierdź import",
|
220
|
+
"tables": {
|
221
|
+
"count": "Liczba rekordów",
|
222
|
+
"name": "Nazwa tabeli"
|
223
|
+
},
|
224
|
+
"title": "Podgląd importu danych",
|
225
|
+
"totalRecords": "Łącznie zaimportuje {{count}} rekordów",
|
226
|
+
"totalTables": "{{count}} tabel"
|
227
|
+
},
|
217
228
|
"information": "Społeczność i informacje",
|
218
229
|
"installPWA": "Zainstaluj aplikację przeglądarki",
|
219
230
|
"lang": {
|
package/locales/pl-PL/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "Szczegóły błędu",
|
17
17
|
"title": "Żądanie nie powiodło się"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "Powód błędu: {{reason}}",
|
22
|
+
"title": "Import nie powiódł się"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "Ten plik został wyeksportowany z wyższej wersji, spróbuj zaktualizować do najnowszej wersji, a następnie spróbuj ponownie zaimportować",
|
26
|
+
"title": "Bieżąca aplikacja nie obsługuje importu tego pliku"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "Zaraz nastąpi automatyczne przekierowanie do strony logowania",
|
21
31
|
"title": "Proszę zalogować się, aby korzystać z tej funkcji"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 to model językowy z 6710 miliardami parametrów, oparty na architekturze mieszanych ekspertów (MoE), wykorzystujący wielogłowicową potencjalną uwagę (MLA) oraz strategię równoważenia obciążenia bez dodatkowych strat, co optymalizuje wydajność wnioskowania i treningu. Dzięki wstępnemu treningowi na 14,8 bilionach wysokiej jakości tokenów oraz nadzorowanemu dostrajaniu i uczeniu ze wzmocnieniem, DeepSeek-V3 przewyższa inne modele open source, zbliżając się do wiodących modeli zamkniętych."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 to model językowy z 671 miliardami parametrów, oparty na architekturze mieszanych ekspertów (MoE), wykorzystujący wielogłowicową uwagę (MLA) oraz strategię równoważenia obciążenia bez dodatkowych strat, co optymalizuje efektywność wnioskowania i treningu. Model został wstępnie wytrenowany na 14,8 bilionach wysokiej jakości tokenów, a następnie poddany nadzorowanemu dostrajaniu i uczeniu przez wzmocnienie, co pozwala mu przewyższać inne modele open-source i zbliżać się do wiodących modeli zamkniętych."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview to innowacyjny model przetwarzania języka naturalnego, który efektywnie radzi sobie z złożonymi zadaniami generowania dialogów i rozumienia kontekstu."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 to model MoE opracowany przez Hangzhou DeepSeek AI Technology Research Co., Ltd., który osiągnął znakomite wyniki w wielu testach, zajmując pierwsze miejsce wśród modeli open-source na głównych listach. W porównaniu do modelu V2.5, prędkość generowania wzrosła trzykrotnie, co zapewnia użytkownikom szybsze i płynniejsze doświadczenia."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, który wyróżnia się w zakresie programowania i umiejętności technicznych, rozumienia kontekstu oraz przetwarzania długich tekstów."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "Nowy, otwarty model łączący zdolności ogólne i kodowe, który nie tylko zachowuje ogólne zdolności dialogowe oryginalnego modelu Chat, ale także potężne zdolności przetwarzania kodu modelu Coder, lepiej dostosowując się do ludzkich preferencji. Ponadto, DeepSeek-V2.5 osiągnął znaczne poprawy w zadaniach pisarskich, przestrzeganiu instrukcji i wielu innych obszarach."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro to model AI o wysokiej wydajności od Google, zaprojektowany do szerokiego rozszerzania zadań."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash to najnowszy model AI wielomodalnego od Google, charakteryzujący się szybkim przetwarzaniem, obsługujący wejścia tekstowe, obrazowe i wideo, idealny do efektywnego rozszerzania w różnych zadaniach."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001 to wydajny model multimodalny, wspierający szerokie zastosowania."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 Flash to wariant modelu, zoptymalizowany pod kątem efektywności kosztowej i niskiego opóźnienia."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "Model Gemini 2.0 Flash, zoptymalizowany pod kątem efektywności kosztowej i niskiej latencji."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI multimodalnego Google, posiadający cechy nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generację multimodalną."
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "Model Qwen-Math, który ma silne zdolności rozwiązywania problemów matematycznych."
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Model serii Qwen-Omni obsługuje wprowadzanie danych w różnych modalnościach, w tym wideo, audio, obrazy i tekst, oraz generuje audio i tekst."
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "Seria modeli Qwen2.5-VL poprawia poziom inteligencji, praktyczności i zastosowania modelu, co pozwala mu lepiej radzić sobie w naturalnej konwersacji, tworzeniu treści, usługach wiedzy specjalistycznej i programowaniu. Wersja 32B została zoptymalizowana za pomocą technologii uczenia wzmacniającego, co w porównaniu z innymi modelami serii Qwen2.5 VL, zapewnia bardziej zgodny z preferencjami ludzi styl wyjściowy, zdolność wnioskowania w złożonych problemach matematycznych oraz zdolność szczegółowej interpretacji i wnioskowania na podstawie obrazów."
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "Ustawienia motywu"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "Eksportuj",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "Eksportuj ustawienia agenta",
|
355
|
+
"agentWithMessage": "Eksportuj ustawienia agenta i wiadomości",
|
356
|
+
"all": "Eksportuj globalne ustawienia i wszystkie dane agenta",
|
357
|
+
"allAgent": "Eksportuj wszystkie ustawienia agenta",
|
358
|
+
"allAgentWithMessage": "Eksportuj wszystkie agentów i wiadomości",
|
359
|
+
"globalSetting": "Eksportuj globalne ustawienia"
|
360
|
+
},
|
361
|
+
"title": "Eksportuj dane"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "Importuj",
|
365
|
+
"title": "Importuj dane"
|
366
|
+
},
|
367
|
+
"title": "Zaawansowane operacje"
|
368
|
+
},
|
369
|
+
"desc": "Aktualne zużycie pamięci w przeglądarce",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "Przechowywanie wektorów"
|
372
|
+
},
|
373
|
+
"title": "Przechowywanie danych",
|
374
|
+
"used": "Zużycie pamięci"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "Prześlij asystenta",
|
351
378
|
"identifier": "Identyfikator asystenta",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "Skróty klawiszowe",
|
440
467
|
"llm": "Model językowy",
|
441
468
|
"provider": "Dostawca usług AI",
|
469
|
+
"storage": "Przechowywanie danych",
|
442
470
|
"sync": "Synchronizacja w chmurze",
|
443
471
|
"system-agent": "System Agent",
|
444
472
|
"tts": "Usługa głosowa"
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "Assistentes",
|
206
206
|
"skips": "Ignorados",
|
207
207
|
"topics": "Tópicos",
|
208
|
-
"type": "Tipo de dados"
|
208
|
+
"type": "Tipo de dados",
|
209
|
+
"update": "Registro atualizado"
|
209
210
|
},
|
210
211
|
"title": "Importar dados",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "Velocidade de upload"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "Confirmar importação",
|
220
|
+
"tables": {
|
221
|
+
"count": "Número de registros",
|
222
|
+
"name": "Nome da tabela"
|
223
|
+
},
|
224
|
+
"title": "Pré-visualização da importação de dados",
|
225
|
+
"totalRecords": "Total de {{count}} registros a serem importados",
|
226
|
+
"totalTables": "{{count}} tabelas"
|
227
|
+
},
|
217
228
|
"information": "Comunidade e Informações",
|
218
229
|
"installPWA": "Instalar aplicativo de navegador",
|
219
230
|
"lang": {
|
package/locales/pt-BR/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "Detalhes do erro",
|
17
17
|
"title": "Solicitação falhou"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "Motivo do erro: {{reason}}",
|
22
|
+
"title": "Falha na importação"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "Este arquivo foi exportado de uma versão mais recente, por favor, tente atualizar para a versão mais recente e tente importar novamente",
|
26
|
+
"title": "O aplicativo atual não suporta a importação deste arquivo"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "Você será redirecionado para a página de login em breve",
|
21
31
|
"title": "Por favor, faça login para usar esta função"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 é um modelo de linguagem com 671 bilhões de parâmetros, utilizando uma arquitetura de especialistas mistos (MoE) com atenção potencial de múltiplas cabeças (MLA) e uma estratégia de balanceamento de carga sem perda auxiliar, otimizando a eficiência de inferência e treinamento. Pré-treinado em 14,8 trilhões de tokens de alta qualidade, e ajustado por supervisão e aprendizado por reforço, o DeepSeek-V3 supera outros modelos de código aberto, aproximando-se de modelos fechados líderes."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 é um modelo de linguagem híbrido de especialistas (MoE) com 671 bilhões de parâmetros, utilizando atenção latente multi-cabeça (MLA) e a arquitetura DeepSeekMoE, combinando uma estratégia de balanceamento de carga sem perda auxiliar para otimizar a eficiência de inferência e treinamento. Pré-treinado em 14,8 trilhões de tokens de alta qualidade, e passando por ajuste fino supervisionado e aprendizado por reforço, o DeepSeek-V3 supera outros modelos de código aberto em desempenho, aproximando-se de modelos fechados líderes."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "O QwQ-32B-Preview é um modelo de processamento de linguagem natural inovador, capaz de lidar eficientemente com tarefas complexas de geração de diálogos e compreensão de contexto."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 é um modelo MoE desenvolvido pela Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd., com desempenho destacado em várias avaliações, ocupando o primeiro lugar entre os modelos de código aberto nas principais listas. Em comparação com o modelo V2.5, a velocidade de geração do V3 foi aumentada em 3 vezes, proporcionando uma experiência de uso mais rápida e fluida."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 é um modelo MoE com 671 bilhões de parâmetros, destacando-se em habilidades de programação e técnicas, compreensão de contexto e processamento de textos longos."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "Um novo modelo de código aberto que integra capacidades gerais e de codificação, não apenas preservando a capacidade de diálogo geral do modelo Chat original e a poderosa capacidade de processamento de código do modelo Coder, mas também alinhando-se melhor às preferências humanas. Além disso, o DeepSeek-V2.5 também alcançou melhorias significativas em várias áreas, como tarefas de escrita e seguimento de instruções."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro é o modelo de IA de alto desempenho do Google, projetado para expansão em uma ampla gama de tarefas."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash é o mais recente modelo de IA multimodal do Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a escalabilidade eficiente de diversas tarefas."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001 é um modelo multimodal eficiente, suportando a expansão de aplicações amplas."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Variante do modelo Gemini 2.0 Flash, otimizada para custo-benefício e baixa latência."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "Um modelo Gemini 2.0 Flash otimizado para custo-benefício e baixa latência."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "O Gemini 2.0 Flash Exp é o mais recente modelo experimental de IA multimodal do Google, com características de próxima geração, velocidade excepcional, chamadas nativas de ferramentas e geração multimodal."
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "O modelo da série Qwen-Omni suporta a entrada de múltiplos tipos de dados, incluindo vídeo, áudio, imagens e texto, e produz saídas em áudio e texto."
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "A série de modelos Qwen2.5-VL aprimorou o nível de inteligência, praticidade e aplicabilidade dos modelos, proporcionando um desempenho superior em cenários como conversação natural, criação de conteúdo, serviços de conhecimento especializado e desenvolvimento de código. A versão 32B utiliza técnicas de aprendizado por reforço para otimizar o modelo, oferecendo, em comparação com outros modelos da série Qwen2.5 VL, um estilo de saída mais alinhado com as preferências humanas, capacidade de raciocínio para problemas matemáticos complexos e compreensão detalhada e raciocínio sobre imagens."
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "Configurações de Tema"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "Exportar",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "Exportar configurações do assistente",
|
355
|
+
"agentWithMessage": "Exportar assistente e mensagens",
|
356
|
+
"all": "Exportar configurações globais e todos os dados do assistente",
|
357
|
+
"allAgent": "Exportar todas as configurações do assistente",
|
358
|
+
"allAgentWithMessage": "Exportar todos os assistentes e mensagens",
|
359
|
+
"globalSetting": "Exportar configurações globais"
|
360
|
+
},
|
361
|
+
"title": "Exportar dados"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "Importar",
|
365
|
+
"title": "Importar dados"
|
366
|
+
},
|
367
|
+
"title": "Operações Avançadas"
|
368
|
+
},
|
369
|
+
"desc": "Uso de armazenamento no navegador atual",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "Armazenamento de vetores"
|
372
|
+
},
|
373
|
+
"title": "Armazenamento de Dados",
|
374
|
+
"used": "Uso de armazenamento"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "Enviar Assistente",
|
351
378
|
"identifier": "Identificador do assistente",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "Atalhos",
|
440
467
|
"llm": "Modelo de Linguagem",
|
441
468
|
"provider": "Fornecedor de IA",
|
469
|
+
"storage": "Armazenamento de Dados",
|
442
470
|
"sync": "Sincronização na nuvem",
|
443
471
|
"system-agent": "Assistente do Sistema",
|
444
472
|
"tts": "Serviço de Voz"
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "Агенты",
|
206
206
|
"skips": "Пропущено дубликатов",
|
207
207
|
"topics": "Темы",
|
208
|
-
"type": "Тип данных"
|
208
|
+
"type": "Тип данных",
|
209
|
+
"update": "Запись обновлена"
|
209
210
|
},
|
210
211
|
"title": "Импорт данных",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "Скорость загрузки"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "Подтвердить импорт",
|
220
|
+
"tables": {
|
221
|
+
"count": "Количество записей",
|
222
|
+
"name": "Имя таблицы"
|
223
|
+
},
|
224
|
+
"title": "Предварительный просмотр импорта данных",
|
225
|
+
"totalRecords": "Всего будет импортировано {{count}} записей",
|
226
|
+
"totalTables": "{{count}} таблиц"
|
227
|
+
},
|
217
228
|
"information": "Сообщество и информация",
|
218
229
|
"installPWA": "Установить веб-приложение",
|
219
230
|
"lang": {
|
package/locales/ru-RU/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "Детали ошибки",
|
17
17
|
"title": "Запрос не удался"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "Причина ошибки: {{reason}}",
|
22
|
+
"title": "Импорт не удался"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "Этот файл был экспортирован из более новой версии, пожалуйста, попробуйте обновить до последней версии и повторите импорт",
|
26
|
+
"title": "Текущая версия приложения не поддерживает импорт этого файла"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "Скоро произойдет автоматический переход на страницу входа",
|
21
31
|
"title": "Пожалуйста, войдите в систему, чтобы использовать эту функцию"
|