@lobehub/chat 1.76.1 → 1.77.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/common.json +13 -2
- package/locales/ar/error.json +10 -0
- package/locales/ar/models.json +9 -6
- package/locales/ar/setting.json +28 -0
- package/locales/bg-BG/common.json +13 -2
- package/locales/bg-BG/error.json +10 -0
- package/locales/bg-BG/models.json +9 -6
- package/locales/bg-BG/setting.json +28 -0
- package/locales/de-DE/common.json +13 -2
- package/locales/de-DE/error.json +10 -0
- package/locales/de-DE/models.json +9 -6
- package/locales/de-DE/setting.json +28 -0
- package/locales/en-US/common.json +13 -2
- package/locales/en-US/error.json +10 -0
- package/locales/en-US/models.json +9 -6
- package/locales/en-US/setting.json +28 -0
- package/locales/es-ES/common.json +13 -2
- package/locales/es-ES/error.json +10 -0
- package/locales/es-ES/models.json +9 -6
- package/locales/es-ES/setting.json +28 -0
- package/locales/fa-IR/common.json +13 -2
- package/locales/fa-IR/error.json +10 -0
- package/locales/fa-IR/models.json +9 -6
- package/locales/fa-IR/setting.json +28 -0
- package/locales/fr-FR/common.json +13 -2
- package/locales/fr-FR/error.json +10 -0
- package/locales/fr-FR/models.json +9 -6
- package/locales/fr-FR/setting.json +28 -0
- package/locales/it-IT/common.json +13 -2
- package/locales/it-IT/error.json +10 -0
- package/locales/it-IT/models.json +9 -6
- package/locales/it-IT/setting.json +28 -0
- package/locales/ja-JP/common.json +13 -2
- package/locales/ja-JP/error.json +10 -0
- package/locales/ja-JP/models.json +9 -6
- package/locales/ja-JP/setting.json +28 -0
- package/locales/ko-KR/common.json +13 -2
- package/locales/ko-KR/error.json +10 -0
- package/locales/ko-KR/models.json +9 -6
- package/locales/ko-KR/setting.json +28 -0
- package/locales/nl-NL/common.json +13 -2
- package/locales/nl-NL/error.json +10 -0
- package/locales/nl-NL/models.json +9 -6
- package/locales/nl-NL/setting.json +28 -0
- package/locales/pl-PL/common.json +13 -2
- package/locales/pl-PL/error.json +10 -0
- package/locales/pl-PL/models.json +9 -6
- package/locales/pl-PL/setting.json +28 -0
- package/locales/pt-BR/common.json +13 -2
- package/locales/pt-BR/error.json +10 -0
- package/locales/pt-BR/models.json +9 -6
- package/locales/pt-BR/setting.json +28 -0
- package/locales/ru-RU/common.json +13 -2
- package/locales/ru-RU/error.json +10 -0
- package/locales/ru-RU/models.json +9 -6
- package/locales/ru-RU/setting.json +28 -0
- package/locales/tr-TR/common.json +13 -2
- package/locales/tr-TR/error.json +10 -0
- package/locales/tr-TR/models.json +9 -6
- package/locales/tr-TR/setting.json +28 -0
- package/locales/vi-VN/common.json +13 -2
- package/locales/vi-VN/error.json +10 -0
- package/locales/vi-VN/models.json +9 -6
- package/locales/vi-VN/setting.json +28 -0
- package/locales/zh-CN/common.json +13 -2
- package/locales/zh-CN/error.json +10 -0
- package/locales/zh-CN/models.json +10 -7
- package/locales/zh-CN/setting.json +28 -0
- package/locales/zh-TW/common.json +13 -2
- package/locales/zh-TW/error.json +10 -0
- package/locales/zh-TW/models.json +9 -6
- package/locales/zh-TW/setting.json +28 -0
- package/package.json +1 -1
- package/src/app/[variants]/(main)/(mobile)/me/data/features/Category.tsx +2 -2
- package/src/app/[variants]/(main)/chat/features/Migration/UpgradeButton.tsx +2 -1
- package/src/app/[variants]/(main)/settings/common/features/Common.tsx +0 -44
- package/src/app/[variants]/(main)/settings/hooks/useCategory.tsx +40 -14
- package/src/app/[variants]/(main)/settings/storage/Advanced.tsx +108 -0
- package/src/app/[variants]/(main)/settings/storage/IndexedDBStorage.tsx +55 -0
- package/src/app/[variants]/(main)/settings/storage/page.tsx +17 -0
- package/src/components/GroupIcon/index.tsx +25 -0
- package/src/components/IndexCard/index.tsx +143 -0
- package/src/components/ProgressItem/index.tsx +75 -0
- package/src/database/models/__tests__/session.test.ts +21 -0
- package/src/database/repositories/dataExporter/index.test.ts +330 -0
- package/src/database/repositories/dataExporter/index.ts +216 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/agents.json +65 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/agentsToSessions.json +541 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/topic.json +269 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/userSettings.json +18 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/with-client-id.json +778 -0
- package/src/database/repositories/dataImporter/__tests__/index.test.ts +120 -880
- package/src/database/repositories/dataImporter/deprecated/__tests__/index.test.ts +940 -0
- package/src/database/repositories/dataImporter/deprecated/index.ts +326 -0
- package/src/database/repositories/dataImporter/index.ts +684 -289
- package/src/database/server/models/session.ts +85 -9
- package/src/features/DataImporter/ImportDetail.tsx +203 -0
- package/src/features/DataImporter/SuccessResult.tsx +22 -6
- package/src/features/DataImporter/_deprecated.ts +43 -0
- package/src/features/DataImporter/config.ts +21 -0
- package/src/features/DataImporter/index.tsx +112 -31
- package/src/features/DevPanel/PostgresViewer/DataTable/index.tsx +6 -0
- package/src/features/User/UserPanel/useMenu.tsx +1 -36
- package/src/features/User/__tests__/useMenu.test.tsx +0 -2
- package/src/locales/default/common.ts +12 -1
- package/src/locales/default/error.ts +10 -0
- package/src/locales/default/setting.ts +28 -0
- package/src/server/routers/lambda/exporter.ts +25 -0
- package/src/server/routers/lambda/importer.ts +19 -3
- package/src/server/routers/lambda/index.ts +2 -0
- package/src/services/config.ts +80 -135
- package/src/services/export/_deprecated.ts +155 -0
- package/src/services/export/client.ts +15 -0
- package/src/services/export/index.ts +6 -0
- package/src/services/export/server.ts +9 -0
- package/src/services/export/type.ts +5 -0
- package/src/services/import/_deprecated.ts +42 -1
- package/src/services/import/client.test.ts +1 -1
- package/src/services/import/client.ts +30 -1
- package/src/services/import/server.ts +70 -2
- package/src/services/import/type.ts +10 -0
- package/src/store/global/initialState.ts +1 -0
- package/src/types/export.ts +11 -0
- package/src/types/exportConfig.ts +2 -0
- package/src/types/importer.ts +15 -0
- package/src/utils/client/exportFile.ts +21 -0
- package/vitest.config.ts +1 -1
- package/src/utils/config.ts +0 -109
- /package/src/database/repositories/dataImporter/{__tests__ → deprecated/__tests__}/fixtures/messages.json +0 -0
@@ -183,7 +183,7 @@
|
|
183
183
|
},
|
184
184
|
"fullscreen": "フルスクリーンモード",
|
185
185
|
"historyRange": "履歴範囲",
|
186
|
-
"
|
186
|
+
"importData": "データをインポートする",
|
187
187
|
"importModal": {
|
188
188
|
"error": {
|
189
189
|
"desc": "データのインポート中にエラーが発生しました。再度インポートを試すか、<1>問題を報告</1>してください。問題を迅速に解決いたします。",
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "セッション",
|
206
206
|
"skips": "重複スキップ",
|
207
207
|
"topics": "トピック",
|
208
|
-
"type": "データタイプ"
|
208
|
+
"type": "データタイプ",
|
209
|
+
"update": "レコードが更新されました"
|
209
210
|
},
|
210
211
|
"title": "データのインポート",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "アップロード速度"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "インポートを確認",
|
220
|
+
"tables": {
|
221
|
+
"count": "レコード数",
|
222
|
+
"name": "テーブル名"
|
223
|
+
},
|
224
|
+
"title": "データインポートプレビュー",
|
225
|
+
"totalRecords": "合計で {{count}} 件のレコードがインポートされます",
|
226
|
+
"totalTables": "{{count}} 個のテーブル"
|
227
|
+
},
|
217
228
|
"information": "コミュニティと情報",
|
218
229
|
"installPWA": "PWAをインストール",
|
219
230
|
"lang": {
|
package/locales/ja-JP/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "エラーの詳細",
|
17
17
|
"title": "リクエストに失敗しました"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "エラーの理由: {{reason}}",
|
22
|
+
"title": "インポート失敗"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "このファイルはより高いバージョンからエクスポートされました。最新バージョンにアップグレードしてから再度インポートしてください",
|
26
|
+
"title": "現在のアプリはこのファイルのインポートをサポートしていません"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "自動的にログインページにリダイレクトされます",
|
21
31
|
"title": "この機能を使用するにはログインしてください"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3は、6710億パラメータを持つ混合専門家(MoE)言語モデルで、多頭潜在注意力(MLA)とDeepSeekMoEアーキテクチャを採用し、無補助損失の負荷バランス戦略を組み合わせて推論とトレーニングの効率を最適化しています。14.8兆の高品質トークンで事前トレーニングを行い、監視付き微調整と強化学習を経て、DeepSeek-V3は他のオープンソースモデルを超え、先進的なクローズドモデルに近づいています。"
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3は、6710億のパラメータを持つ混合専門家(MoE)言語モデルであり、マルチヘッド潜在注意(MLA)とDeepSeekMoEアーキテクチャを採用し、補助損失なしの負荷バランス戦略を組み合わせて、推論とトレーニングの効率を最適化しています。14.8兆の高品質トークンで事前トレーニングを行い、監視付き微調整と強化学習を経て、DeepSeek-V3は他のオープンソースモデルを超え、先進的なクローズドソースモデルに近づいています。"
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Previewは、複雑な対話生成と文脈理解タスクを効率的に処理できる革新的な自然言語処理モデルです。"
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3は、杭州深度求索人工知能基礎技術研究有限公司が独自に開発したMoEモデルで、複数の評価で優れた成績を収め、主流のランキングでオープンソースモデルの首位に立っています。V3はV2.5モデルに比べて生成速度が3倍向上し、ユーザーにより迅速でスムーズな使用体験を提供します。"
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324は671BパラメータのMoEモデルであり、プログラミングと技術能力、文脈理解、長文処理において優れた性能を発揮します。"
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "汎用性とコード能力を融合させた新しいオープンソースモデルで、元のChatモデルの汎用対話能力とCoderモデルの強力なコード処理能力を保持しつつ、人間の好みにより良く整合しています。さらに、DeepSeek-V2.5は執筆タスク、指示の遵守などの多くの面で大幅な向上を実現しました。"
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Proは、Googleの高性能AIモデルであり、幅広いタスクの拡張に特化しています。"
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flashは、Googleの最新のマルチモーダルAIモデルで、高速処理能力を備え、テキスト、画像、動画の入力をサポートし、さまざまなタスクに対して効率的に拡張できます。"
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001は、効率的なマルチモーダルモデルであり、幅広いアプリケーションの拡張をサポートします。"
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 Flashモデルのバリアントで、コスト効率と低遅延などの目標に最適化されています。"
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "コスト効率と低遅延を目指して最適化されたGemini 2.0 Flashモデルです。"
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Expは、Googleの最新の実験的なマルチモーダルAIモデルであり、次世代の機能、卓越した速度、ネイティブツールの呼び出し、マルチモーダル生成を備えています。"
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "Qwen-Mathモデルは、強力な数学の問題解決能力を持っています。"
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Qwen-Omniシリーズモデルは、動画、音声、画像、テキストなどの多様なモダリティのデータを入力としてサポートし、音声とテキストを出力します。"
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "Qwen2.5-VLシリーズモデルは、モデルの知能レベル、実用性、適応性を向上させ、自然な会話、コンテンツ作成、専門知識サービス、コード開発などのシナリオにおいてより優れたパフォーマンスを発揮します。32Bバージョンでは強化学習技術を用いてモデルを最適化しており、Qwen2.5 VLシリーズの他のモデルと比較して、人間の嗜好に合致した出力スタイル、複雑な数学問題の推論能力、および画像の細粒度理解と推論能力を提供します。"
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "テーマ設定"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "エクスポート",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "エージェント設定をエクスポート",
|
355
|
+
"agentWithMessage": "エージェントとメッセージをエクスポート",
|
356
|
+
"all": "全体設定とすべてのエージェントデータをエクスポート",
|
357
|
+
"allAgent": "すべてのエージェント設定をエクスポート",
|
358
|
+
"allAgentWithMessage": "すべてのエージェントとメッセージをエクスポート",
|
359
|
+
"globalSetting": "全体設定をエクスポート"
|
360
|
+
},
|
361
|
+
"title": "データをエクスポート"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "インポート",
|
365
|
+
"title": "データをインポート"
|
366
|
+
},
|
367
|
+
"title": "高度な操作"
|
368
|
+
},
|
369
|
+
"desc": "現在のブラウザのストレージ使用量",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "ベクトルストレージ"
|
372
|
+
},
|
373
|
+
"title": "データストレージ",
|
374
|
+
"used": "ストレージ使用量"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "エージェントを提出",
|
351
378
|
"identifier": "エージェント識別子",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "ショートカットキー",
|
440
467
|
"llm": "言語モデル",
|
441
468
|
"provider": "AIサービスプロバイダー",
|
469
|
+
"storage": "データストレージ",
|
442
470
|
"sync": "クラウド同期",
|
443
471
|
"system-agent": "システムアシスタント",
|
444
472
|
"tts": "音声サービス"
|
@@ -183,7 +183,7 @@
|
|
183
183
|
},
|
184
184
|
"fullscreen": "전체 화면",
|
185
185
|
"historyRange": "기록 범위",
|
186
|
-
"
|
186
|
+
"importData": "데이터 가져오기",
|
187
187
|
"importModal": {
|
188
188
|
"error": {
|
189
189
|
"desc": "데이터 가져오기 중에 문제가 발생했습니다. 다시 시도하거나 <1>문제 제출</1>을 클릭하여 문제를 보고하면 우리가 즉시 도와드리겠습니다.",
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "에이전트",
|
206
206
|
"skips": "중복 건너뛰기",
|
207
207
|
"topics": "주제",
|
208
|
-
"type": "데이터 유형"
|
208
|
+
"type": "데이터 유형",
|
209
|
+
"update": "기록 업데이트"
|
209
210
|
},
|
210
211
|
"title": "데이터 가져오기",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "업로드 속도"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "가져오기 확인",
|
220
|
+
"tables": {
|
221
|
+
"count": "기록 수",
|
222
|
+
"name": "표 이름"
|
223
|
+
},
|
224
|
+
"title": "데이터 가져오기 미리보기",
|
225
|
+
"totalRecords": "총 {{count}} 개의 기록이 가져와집니다",
|
226
|
+
"totalTables": "{{count}} 개의 표"
|
227
|
+
},
|
217
228
|
"information": "커뮤니티 및 정보",
|
218
229
|
"installPWA": "브라우저 앱 설치",
|
219
230
|
"lang": {
|
package/locales/ko-KR/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "오류 세부정보",
|
17
17
|
"title": "요청 실패"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "오류 원인: {{reason}}",
|
22
|
+
"title": "가져오기 실패"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "이 파일은 더 높은 버전에서 내보낸 것입니다. 최신 버전으로 업그레이드한 후 다시 가져오기를 시도하십시오.",
|
26
|
+
"title": "현재 애플리케이션은 이 파일의 가져오기를 지원하지 않습니다."
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "곧 로그인 페이지로 자동 이동합니다",
|
21
31
|
"title": "이 기능을 사용하려면 로그인해 주세요"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3는 6710억 개의 매개변수를 가진 혼합 전문가(MoE) 언어 모델로, 다중 헤드 잠재 주의(MLA) 및 DeepSeekMoE 아키텍처를 사용하여 보조 손실 없는 부하 균형 전략을 결합하여 추론 및 훈련 효율성을 최적화합니다. 14.8조 개의 고품질 토큰에서 사전 훈련을 수행하고 감독 미세 조정 및 강화 학습을 통해 DeepSeek-V3는 성능 면에서 다른 오픈 소스 모델을 초월하며, 선도적인 폐쇄형 모델에 근접합니다."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3는 6710억 개의 매개변수를 가진 혼합 전문가(MoE) 언어 모델로, 다중 헤드 잠재 주의(MLA) 및 DeepSeekMoE 아키텍처를 채택하고, 보조 손실 없는 부하 균형 전략을 결합하여 추론 및 훈련 효율성을 최적화합니다. 14.8조 개의 고품질 토큰에서 사전 훈련을 거치고 감독 미세 조정 및 강화 학습을 통해 DeepSeek-V3는 성능 면에서 다른 오픈 소스 모델을 초월하며, 선도적인 폐쇄형 모델에 근접합니다."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview는 복잡한 대화 생성 및 맥락 이해 작업을 효율적으로 처리할 수 있는 혁신적인 자연어 처리 모델입니다."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3는 항저우 심도 탐색 인공지능 기초 기술 연구 회사에서 자체 개발한 MoE 모델로, 여러 평가에서 뛰어난 성적을 거두며, 주류 순위에서 오픈 소스 모델 1위를 차지하고 있습니다. V3는 V2.5 모델에 비해 생성 속도가 3배 향상되어 사용자에게 더 빠르고 원활한 사용 경험을 제공합니다."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324는 671B 매개변수를 가진 MoE 모델로, 프로그래밍 및 기술 능력, 맥락 이해 및 긴 텍스트 처리 등에서 두드러진 장점을 보입니다."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "일반 및 코드 능력을 통합한 새로운 오픈 소스 모델로, 기존 Chat 모델의 일반 대화 능력과 Coder 모델의 강력한 코드 처리 능력을 유지하면서 인간의 선호에 더 잘 맞춰졌습니다. 또한, DeepSeek-V2.5는 작문 작업, 지시 따르기 등 여러 분야에서 큰 향상을 이루었습니다."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro는 Google의 고성능 AI 모델로, 광범위한 작업 확장을 위해 설계되었습니다."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash는 Google의 최신 다중 모달 AI 모델로, 빠른 처리 능력을 갖추고 있으며 텍스트, 이미지 및 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001은 효율적인 다중 모달 모델로, 광범위한 응용 프로그램 확장을 지원합니다."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 플래시 모델 변형으로, 비용 효율성과 낮은 지연 시간 등의 목표를 위해 최적화되었습니다."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "비용 효율성과 낮은 지연 시간 등을 목표로 최적화된 Gemini 2.0 Flash 모델입니다."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모드 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모드 생성을 제공합니다."
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "Qwen-Math 모델은 강력한 수학 문제 해결 능력을 가지고 있습니다."
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Qwen-Omni 시리즈 모델은 비디오, 오디오, 이미지, 텍스트 등 다양한 모드의 데이터를 입력으로 지원하며, 오디오와 텍스트를 출력합니다."
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "Qwen2.5-VL 시리즈 모델은 모델의 지능 수준, 실용성 및 적용성을 향상시켜 자연스러운 대화, 콘텐츠 제작, 전문 지식 서비스 및 코드 개발 등 다양한 시나리오에서 더 나은 성능을 발휘합니다. 32B 버전은 강화 학습 기술을 활용하여 최적화되었으며, Qwen2.5 VL 시리즈의 다른 모델들과 비교하여 인간의 선호도에 더 부합하는 출력 스타일, 복잡한 수학 문제의 추론 능력, 그리고 이미지의 세밀한 이해와 추론 능력을 제공합니다."
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "테마 설정"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "내보내기",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "도우미 설정 내보내기",
|
355
|
+
"agentWithMessage": "도우미와 메시지 내보내기",
|
356
|
+
"all": "전체 설정 및 모든 도우미 데이터 내보내기",
|
357
|
+
"allAgent": "모든 도우미 설정 내보내기",
|
358
|
+
"allAgentWithMessage": "모든 도우미와 메시지 내보내기",
|
359
|
+
"globalSetting": "전체 설정 내보내기"
|
360
|
+
},
|
361
|
+
"title": "데이터 내보내기"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "가져오기",
|
365
|
+
"title": "데이터 가져오기"
|
366
|
+
},
|
367
|
+
"title": "고급 작업"
|
368
|
+
},
|
369
|
+
"desc": "현재 브라우저의 저장 용량",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "벡터 저장소"
|
372
|
+
},
|
373
|
+
"title": "데이터 저장소",
|
374
|
+
"used": "저장 용량"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "에이전트 제출",
|
351
378
|
"identifier": "에이전트 식별자",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "단축키",
|
440
467
|
"llm": "언어 모델",
|
441
468
|
"provider": "AI 서비스 제공자",
|
469
|
+
"storage": "데이터 저장소",
|
442
470
|
"sync": "클라우드 동기화",
|
443
471
|
"system-agent": "시스템 도우미",
|
444
472
|
"tts": "음성 서비스"
|
@@ -183,7 +183,7 @@
|
|
183
183
|
},
|
184
184
|
"fullscreen": "Volledig scherm",
|
185
185
|
"historyRange": "Geschiedenisbereik",
|
186
|
-
"
|
186
|
+
"importData": "Gegevens importeren",
|
187
187
|
"importModal": {
|
188
188
|
"error": {
|
189
189
|
"desc": "Sorry, er is een uitzondering opgetreden tijdens het importeren van gegevens. Probeer opnieuw te importeren of <1>diend een probleem in</1>, we zullen het probleem zo snel mogelijk voor je onderzoeken.",
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "Assistenten",
|
206
206
|
"skips": "Overslaan van duplicaten",
|
207
207
|
"topics": "Onderwerpen",
|
208
|
-
"type": "Gegevenstype"
|
208
|
+
"type": "Gegevenstype",
|
209
|
+
"update": "Record bijgewerkt"
|
209
210
|
},
|
210
211
|
"title": "Gegevens importeren",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "Uploadsnelheid"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "Bevestig import",
|
220
|
+
"tables": {
|
221
|
+
"count": "Aantal records",
|
222
|
+
"name": "Tabelnaam"
|
223
|
+
},
|
224
|
+
"title": "Voorbeeld van gegevensimport",
|
225
|
+
"totalRecords": "In totaal worden {{count}} records geïmporteerd",
|
226
|
+
"totalTables": "{{count}} tabellen"
|
227
|
+
},
|
217
228
|
"information": "Gemeenschap en Informatie",
|
218
229
|
"installPWA": "Installeer de browser-app",
|
219
230
|
"lang": {
|
package/locales/nl-NL/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "Foutdetails",
|
17
17
|
"title": "Verzoek mislukt"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "Foutmelding: {{reason}}",
|
22
|
+
"title": "Import mislukt"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "Dit bestand is geëxporteerd vanuit een hogere versie, probeer te upgraden naar de nieuwste versie en importeer opnieuw",
|
26
|
+
"title": "De huidige applicatie ondersteunt het importeren van dit bestand niet"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "U wordt binnenkort automatisch doorgestuurd naar de inlogpagina",
|
21
31
|
"title": "Log in om deze functie te gebruiken"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 is een hybride expert (MoE) taalmodel met 6710 miljard parameters, dat gebruikmaakt van multi-head latent attention (MLA) en de DeepSeekMoE-architectuur, gecombineerd met een load balancing-strategie zonder extra verlies, om de inferentie- en trainingsefficiëntie te optimaliseren. Door voorgetraind te worden op 14,8 biljoen hoogwaardige tokens en vervolgens te worden fijngesteld met supervisie en versterkend leren, overtreft DeepSeek-V3 andere open-source modellen in prestaties en komt het dicht in de buurt van toonaangevende gesloten modellen."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 is een hybride expert (MoE) taalmodel met 6710 miljard parameters, dat gebruikmaakt van multi-head latent attention (MLA) en de DeepSeekMoE-architectuur, gecombineerd met een load balancing strategie zonder extra verlies, om de efficiëntie van inferentie en training te optimaliseren. Door voorgetraind te worden op 14,8 biljoen hoogwaardige tokens en vervolgens te worden verfijnd met supervisie en versterkend leren, overtreft DeepSeek-V3 andere open-source modellen in prestaties en benadert het de toonaangevende gesloten-source modellen."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview is een innovatief natuurlijk taalverwerkingsmodel dat efficiënt complexe dialooggeneratie en contextbegripstaken kan verwerken."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 is een MoE-model dat is ontwikkeld door Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd. Het heeft uitstekende scores in verschillende evaluaties en staat bovenaan de open-source modellen in de mainstream ranglijsten. V3 heeft de generatiesnelheid met 3 keer verbeterd in vergelijking met het V2.5 model, wat zorgt voor een snellere en soepelere gebruikerservaring."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 is een MoE-model met 671 miljard parameters, dat uitblinkt in programmeer- en technische vaardigheden, contextbegrip en het verwerken van lange teksten."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "Een nieuw open-source model dat algemene en codeercapaciteiten combineert, niet alleen de algemene gespreksvaardigheden van het oorspronkelijke Chat-model en de krachtige codeverwerkingscapaciteiten van het Coder-model behoudt, maar ook beter is afgestemd op menselijke voorkeuren. Bovendien heeft DeepSeek-V2.5 aanzienlijke verbeteringen gerealiseerd in schrijfopdrachten, instructievolging en meer."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro is Google's high-performance AI-model, ontworpen voor brede taakuitbreiding."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash is het nieuwste multimodale AI-model van Google, met snelle verwerkingscapaciteiten, ondersteuning voor tekst-, beeld- en video-invoer, en efficiënt schaalbaar voor verschillende taken."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001 is een efficiënt multimodaal model dat ondersteuning biedt voor brede toepassingsuitbreiding."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 Flash is een modelvariant die is geoptimaliseerd voor kosteneffectiviteit en lage latentie."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "Een Gemini 2.0 Flash-model dat is geoptimaliseerd voor kosteneffectiviteit en lage latentie."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met next-gen functies, uitstekende snelheid, native tool-aanroepen en multimodale generatie."
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "Het Qwen-Math model heeft krachtige capaciteiten voor het oplossen van wiskundige problemen."
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Het Qwen-Omni serie model ondersteunt het invoeren van verschillende modaliteiten van gegevens, waaronder video, audio, afbeeldingen en tekst, en kan audio en tekst als output genereren."
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "De Qwen2.5-VL-serie modellen verbeteren het intelligentieniveau, de praktisch toepasbaarheid en de bruikbaarheid, waardoor ze beter presteren in natuurlijke conversaties, inhoudscREATie, specialistische kennisdiensten en codeontwikkeling. De 32B-versie maakt gebruik van versterkingsleertechnieken om het model te optimaliseren, waardoor het in vergelijking met andere modellen uit de Qwen2.5 VL-serie een uitvoerstijl biedt die meer voldoet aan menselijke voorkeuren, een betere redeneringscapaciteit voor complexe wiskundige problemen, en een fijnere begrip en redenering van afbeeldingen."
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "Thema-instellingen"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "Exporteren",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "Exporteren assistentinstellingen",
|
355
|
+
"agentWithMessage": "Exporteren assistent en berichten",
|
356
|
+
"all": "Exporteren globale instellingen en alle assistentgegevens",
|
357
|
+
"allAgent": "Exporteren alle assistentinstellingen",
|
358
|
+
"allAgentWithMessage": "Exporteren alle assistenten en berichten",
|
359
|
+
"globalSetting": "Exporteren globale instellingen"
|
360
|
+
},
|
361
|
+
"title": "Gegevens exporteren"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "Importeren",
|
365
|
+
"title": "Gegevens importeren"
|
366
|
+
},
|
367
|
+
"title": "Geavanceerde acties"
|
368
|
+
},
|
369
|
+
"desc": "Huidig opslaggebruik in de browser",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "Vectoropslag"
|
372
|
+
},
|
373
|
+
"title": "Gegevensopslag",
|
374
|
+
"used": "Opslaggebruik"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "Assistent indienen",
|
351
378
|
"identifier": "Assistent-identificatie",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "Sneltoetsen",
|
440
467
|
"llm": "Taalmodel",
|
441
468
|
"provider": "AI-dienstverlener",
|
469
|
+
"storage": "Gegevensopslag",
|
442
470
|
"sync": "Cloudsynchronisatie",
|
443
471
|
"system-agent": "Systeemassistent",
|
444
472
|
"tts": "Spraakdienst"
|
@@ -183,7 +183,7 @@
|
|
183
183
|
},
|
184
184
|
"fullscreen": "Tryb pełnoekranowy",
|
185
185
|
"historyRange": "Zakres historii",
|
186
|
-
"
|
186
|
+
"importData": "Importuj dane",
|
187
187
|
"importModal": {
|
188
188
|
"error": {
|
189
189
|
"desc": "Przepraszamy, wystąpił błąd podczas importowania danych. Spróbuj ponownie zaimportować, lub <1>zgłoś problem</1>, a my postaramy się jak najszybciej rozwiązać problem.",
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "Sesje",
|
206
206
|
"skips": "Pominięcia duplikatów",
|
207
207
|
"topics": "Tematy",
|
208
|
-
"type": "Typ danych"
|
208
|
+
"type": "Typ danych",
|
209
|
+
"update": "Aktualizacja rekordu"
|
209
210
|
},
|
210
211
|
"title": "Import danych",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "Prędkość wysyłania"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "Potwierdź import",
|
220
|
+
"tables": {
|
221
|
+
"count": "Liczba rekordów",
|
222
|
+
"name": "Nazwa tabeli"
|
223
|
+
},
|
224
|
+
"title": "Podgląd importu danych",
|
225
|
+
"totalRecords": "Łącznie zaimportuje {{count}} rekordów",
|
226
|
+
"totalTables": "{{count}} tabel"
|
227
|
+
},
|
217
228
|
"information": "Społeczność i informacje",
|
218
229
|
"installPWA": "Zainstaluj aplikację przeglądarki",
|
219
230
|
"lang": {
|
package/locales/pl-PL/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "Szczegóły błędu",
|
17
17
|
"title": "Żądanie nie powiodło się"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "Powód błędu: {{reason}}",
|
22
|
+
"title": "Import nie powiódł się"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "Ten plik został wyeksportowany z wyższej wersji, spróbuj zaktualizować do najnowszej wersji, a następnie spróbuj ponownie zaimportować",
|
26
|
+
"title": "Bieżąca aplikacja nie obsługuje importu tego pliku"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "Zaraz nastąpi automatyczne przekierowanie do strony logowania",
|
21
31
|
"title": "Proszę zalogować się, aby korzystać z tej funkcji"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 to model językowy z 6710 miliardami parametrów, oparty na architekturze mieszanych ekspertów (MoE), wykorzystujący wielogłowicową potencjalną uwagę (MLA) oraz strategię równoważenia obciążenia bez dodatkowych strat, co optymalizuje wydajność wnioskowania i treningu. Dzięki wstępnemu treningowi na 14,8 bilionach wysokiej jakości tokenów oraz nadzorowanemu dostrajaniu i uczeniu ze wzmocnieniem, DeepSeek-V3 przewyższa inne modele open source, zbliżając się do wiodących modeli zamkniętych."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 to model językowy z 671 miliardami parametrów, oparty na architekturze mieszanych ekspertów (MoE), wykorzystujący wielogłowicową uwagę (MLA) oraz strategię równoważenia obciążenia bez dodatkowych strat, co optymalizuje efektywność wnioskowania i treningu. Model został wstępnie wytrenowany na 14,8 bilionach wysokiej jakości tokenów, a następnie poddany nadzorowanemu dostrajaniu i uczeniu przez wzmocnienie, co pozwala mu przewyższać inne modele open-source i zbliżać się do wiodących modeli zamkniętych."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview to innowacyjny model przetwarzania języka naturalnego, który efektywnie radzi sobie z złożonymi zadaniami generowania dialogów i rozumienia kontekstu."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 to model MoE opracowany przez Hangzhou DeepSeek AI Technology Research Co., Ltd., który osiągnął znakomite wyniki w wielu testach, zajmując pierwsze miejsce wśród modeli open-source na głównych listach. W porównaniu do modelu V2.5, prędkość generowania wzrosła trzykrotnie, co zapewnia użytkownikom szybsze i płynniejsze doświadczenia."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, który wyróżnia się w zakresie programowania i umiejętności technicznych, rozumienia kontekstu oraz przetwarzania długich tekstów."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "Nowy, otwarty model łączący zdolności ogólne i kodowe, który nie tylko zachowuje ogólne zdolności dialogowe oryginalnego modelu Chat, ale także potężne zdolności przetwarzania kodu modelu Coder, lepiej dostosowując się do ludzkich preferencji. Ponadto, DeepSeek-V2.5 osiągnął znaczne poprawy w zadaniach pisarskich, przestrzeganiu instrukcji i wielu innych obszarach."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro to model AI o wysokiej wydajności od Google, zaprojektowany do szerokiego rozszerzania zadań."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash to najnowszy model AI wielomodalnego od Google, charakteryzujący się szybkim przetwarzaniem, obsługujący wejścia tekstowe, obrazowe i wideo, idealny do efektywnego rozszerzania w różnych zadaniach."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001 to wydajny model multimodalny, wspierający szerokie zastosowania."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 Flash to wariant modelu, zoptymalizowany pod kątem efektywności kosztowej i niskiego opóźnienia."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "Model Gemini 2.0 Flash, zoptymalizowany pod kątem efektywności kosztowej i niskiej latencji."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI multimodalnego Google, posiadający cechy nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generację multimodalną."
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "Model Qwen-Math, który ma silne zdolności rozwiązywania problemów matematycznych."
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Model serii Qwen-Omni obsługuje wprowadzanie danych w różnych modalnościach, w tym wideo, audio, obrazy i tekst, oraz generuje audio i tekst."
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "Seria modeli Qwen2.5-VL poprawia poziom inteligencji, praktyczności i zastosowania modelu, co pozwala mu lepiej radzić sobie w naturalnej konwersacji, tworzeniu treści, usługach wiedzy specjalistycznej i programowaniu. Wersja 32B została zoptymalizowana za pomocą technologii uczenia wzmacniającego, co w porównaniu z innymi modelami serii Qwen2.5 VL, zapewnia bardziej zgodny z preferencjami ludzi styl wyjściowy, zdolność wnioskowania w złożonych problemach matematycznych oraz zdolność szczegółowej interpretacji i wnioskowania na podstawie obrazów."
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "Ustawienia motywu"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "Eksportuj",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "Eksportuj ustawienia agenta",
|
355
|
+
"agentWithMessage": "Eksportuj ustawienia agenta i wiadomości",
|
356
|
+
"all": "Eksportuj globalne ustawienia i wszystkie dane agenta",
|
357
|
+
"allAgent": "Eksportuj wszystkie ustawienia agenta",
|
358
|
+
"allAgentWithMessage": "Eksportuj wszystkie agentów i wiadomości",
|
359
|
+
"globalSetting": "Eksportuj globalne ustawienia"
|
360
|
+
},
|
361
|
+
"title": "Eksportuj dane"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "Importuj",
|
365
|
+
"title": "Importuj dane"
|
366
|
+
},
|
367
|
+
"title": "Zaawansowane operacje"
|
368
|
+
},
|
369
|
+
"desc": "Aktualne zużycie pamięci w przeglądarce",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "Przechowywanie wektorów"
|
372
|
+
},
|
373
|
+
"title": "Przechowywanie danych",
|
374
|
+
"used": "Zużycie pamięci"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "Prześlij asystenta",
|
351
378
|
"identifier": "Identyfikator asystenta",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "Skróty klawiszowe",
|
440
467
|
"llm": "Model językowy",
|
441
468
|
"provider": "Dostawca usług AI",
|
469
|
+
"storage": "Przechowywanie danych",
|
442
470
|
"sync": "Synchronizacja w chmurze",
|
443
471
|
"system-agent": "System Agent",
|
444
472
|
"tts": "Usługa głosowa"
|
@@ -183,7 +183,7 @@
|
|
183
183
|
},
|
184
184
|
"fullscreen": "Modo de Tela Cheia",
|
185
185
|
"historyRange": "Intervalo de histórico",
|
186
|
-
"
|
186
|
+
"importData": "Importar dados",
|
187
187
|
"importModal": {
|
188
188
|
"error": {
|
189
189
|
"desc": "Desculpe, ocorreu um erro durante o processo de importação de dados. Por favor, tente importar novamente ou <1>envie um problema</1>, e nós iremos ajudá-lo a resolver o problema o mais rápido possível.",
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "Assistentes",
|
206
206
|
"skips": "Ignorados",
|
207
207
|
"topics": "Tópicos",
|
208
|
-
"type": "Tipo de dados"
|
208
|
+
"type": "Tipo de dados",
|
209
|
+
"update": "Registro atualizado"
|
209
210
|
},
|
210
211
|
"title": "Importar dados",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "Velocidade de upload"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "Confirmar importação",
|
220
|
+
"tables": {
|
221
|
+
"count": "Número de registros",
|
222
|
+
"name": "Nome da tabela"
|
223
|
+
},
|
224
|
+
"title": "Pré-visualização da importação de dados",
|
225
|
+
"totalRecords": "Total de {{count}} registros a serem importados",
|
226
|
+
"totalTables": "{{count}} tabelas"
|
227
|
+
},
|
217
228
|
"information": "Comunidade e Informações",
|
218
229
|
"installPWA": "Instalar aplicativo de navegador",
|
219
230
|
"lang": {
|
package/locales/pt-BR/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "Detalhes do erro",
|
17
17
|
"title": "Solicitação falhou"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "Motivo do erro: {{reason}}",
|
22
|
+
"title": "Falha na importação"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "Este arquivo foi exportado de uma versão mais recente, por favor, tente atualizar para a versão mais recente e tente importar novamente",
|
26
|
+
"title": "O aplicativo atual não suporta a importação deste arquivo"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "Você será redirecionado para a página de login em breve",
|
21
31
|
"title": "Por favor, faça login para usar esta função"
|