@lobehub/chat 1.76.0 → 1.77.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/Dockerfile +3 -2
- package/Dockerfile.database +3 -1
- package/Dockerfile.pglite +3 -1
- package/changelog/v1.json +18 -0
- package/locales/ar/common.json +12 -1
- package/locales/ar/error.json +10 -0
- package/locales/ar/models.json +12 -6
- package/locales/ar/setting.json +28 -0
- package/locales/bg-BG/common.json +12 -1
- package/locales/bg-BG/error.json +10 -0
- package/locales/bg-BG/models.json +12 -6
- package/locales/bg-BG/setting.json +28 -0
- package/locales/de-DE/common.json +12 -1
- package/locales/de-DE/error.json +10 -0
- package/locales/de-DE/models.json +12 -6
- package/locales/de-DE/setting.json +28 -0
- package/locales/en-US/common.json +12 -1
- package/locales/en-US/error.json +10 -0
- package/locales/en-US/models.json +12 -6
- package/locales/en-US/setting.json +28 -0
- package/locales/es-ES/common.json +12 -1
- package/locales/es-ES/error.json +10 -0
- package/locales/es-ES/models.json +12 -6
- package/locales/es-ES/setting.json +28 -0
- package/locales/fa-IR/common.json +12 -1
- package/locales/fa-IR/error.json +10 -0
- package/locales/fa-IR/models.json +12 -6
- package/locales/fa-IR/setting.json +28 -0
- package/locales/fr-FR/common.json +12 -1
- package/locales/fr-FR/error.json +10 -0
- package/locales/fr-FR/models.json +12 -6
- package/locales/fr-FR/setting.json +28 -0
- package/locales/it-IT/common.json +12 -1
- package/locales/it-IT/error.json +10 -0
- package/locales/it-IT/models.json +12 -6
- package/locales/it-IT/setting.json +28 -0
- package/locales/ja-JP/common.json +12 -1
- package/locales/ja-JP/error.json +10 -0
- package/locales/ja-JP/models.json +12 -6
- package/locales/ja-JP/setting.json +28 -0
- package/locales/ko-KR/common.json +12 -1
- package/locales/ko-KR/error.json +10 -0
- package/locales/ko-KR/models.json +12 -6
- package/locales/ko-KR/setting.json +28 -0
- package/locales/nl-NL/common.json +12 -1
- package/locales/nl-NL/error.json +10 -0
- package/locales/nl-NL/models.json +12 -6
- package/locales/nl-NL/setting.json +28 -0
- package/locales/pl-PL/common.json +12 -1
- package/locales/pl-PL/error.json +10 -0
- package/locales/pl-PL/models.json +12 -6
- package/locales/pl-PL/setting.json +28 -0
- package/locales/pt-BR/common.json +12 -1
- package/locales/pt-BR/error.json +10 -0
- package/locales/pt-BR/models.json +12 -6
- package/locales/pt-BR/setting.json +28 -0
- package/locales/ru-RU/common.json +12 -1
- package/locales/ru-RU/error.json +10 -0
- package/locales/ru-RU/models.json +12 -6
- package/locales/ru-RU/setting.json +28 -0
- package/locales/tr-TR/common.json +12 -1
- package/locales/tr-TR/error.json +10 -0
- package/locales/tr-TR/models.json +12 -6
- package/locales/tr-TR/setting.json +28 -0
- package/locales/vi-VN/common.json +12 -1
- package/locales/vi-VN/error.json +10 -0
- package/locales/vi-VN/models.json +12 -6
- package/locales/vi-VN/setting.json +28 -0
- package/locales/zh-CN/common.json +12 -1
- package/locales/zh-CN/error.json +10 -0
- package/locales/zh-CN/models.json +12 -6
- package/locales/zh-CN/setting.json +28 -0
- package/locales/zh-TW/common.json +12 -1
- package/locales/zh-TW/error.json +10 -0
- package/locales/zh-TW/models.json +12 -6
- package/locales/zh-TW/setting.json +28 -0
- package/package.json +1 -1
- package/src/app/[variants]/(main)/(mobile)/me/data/features/Category.tsx +1 -1
- package/src/app/[variants]/(main)/chat/features/Migration/UpgradeButton.tsx +2 -1
- package/src/app/[variants]/(main)/settings/common/features/Common.tsx +0 -44
- package/src/app/[variants]/(main)/settings/hooks/useCategory.tsx +40 -14
- package/src/app/[variants]/(main)/settings/storage/Advanced.tsx +133 -0
- package/src/app/[variants]/(main)/settings/storage/IndexedDBStorage.tsx +55 -0
- package/src/app/[variants]/(main)/settings/storage/page.tsx +17 -0
- package/src/app/[variants]/(main)/settings/tts/features/const.tsx +4 -0
- package/src/components/GroupIcon/index.tsx +25 -0
- package/src/components/IndexCard/index.tsx +143 -0
- package/src/components/ProgressItem/index.tsx +75 -0
- package/src/config/aiModels/openai.ts +10 -0
- package/src/database/repositories/dataExporter/index.test.ts +330 -0
- package/src/database/repositories/dataExporter/index.ts +216 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/agents.json +65 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/agentsToSessions.json +541 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/topic.json +269 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/userSettings.json +18 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/with-client-id.json +778 -0
- package/src/database/repositories/dataImporter/__tests__/index.test.ts +120 -880
- package/src/database/repositories/dataImporter/deprecated/__tests__/index.test.ts +940 -0
- package/src/database/repositories/dataImporter/deprecated/index.ts +326 -0
- package/src/database/repositories/dataImporter/index.ts +684 -289
- package/src/features/DataImporter/ImportDetail.tsx +203 -0
- package/src/features/DataImporter/SuccessResult.tsx +22 -6
- package/src/features/DataImporter/_deprecated.ts +43 -0
- package/src/features/DataImporter/config.ts +21 -0
- package/src/features/DataImporter/index.tsx +112 -31
- package/src/features/DevPanel/PostgresViewer/DataTable/index.tsx +6 -0
- package/src/features/User/UserPanel/useMenu.tsx +0 -35
- package/src/features/User/__tests__/useMenu.test.tsx +0 -2
- package/src/locales/default/common.ts +11 -0
- package/src/locales/default/error.ts +10 -0
- package/src/locales/default/setting.ts +28 -0
- package/src/server/routers/lambda/exporter.ts +25 -0
- package/src/server/routers/lambda/importer.ts +19 -3
- package/src/server/routers/lambda/index.ts +2 -0
- package/src/services/config.ts +80 -135
- package/src/services/export/_deprecated.ts +155 -0
- package/src/services/export/client.ts +15 -0
- package/src/services/export/index.ts +6 -0
- package/src/services/export/server.ts +9 -0
- package/src/services/export/type.ts +5 -0
- package/src/services/import/_deprecated.ts +42 -1
- package/src/services/import/client.test.ts +1 -1
- package/src/services/import/client.ts +30 -1
- package/src/services/import/server.ts +70 -2
- package/src/services/import/type.ts +10 -0
- package/src/store/global/initialState.ts +1 -0
- package/src/types/export.ts +11 -0
- package/src/types/exportConfig.ts +2 -0
- package/src/types/importer.ts +15 -0
- package/src/types/user/settings/tts.ts +1 -1
- package/src/utils/client/exportFile.ts +21 -0
- package/vitest.config.ts +1 -1
- package/src/utils/config.ts +0 -109
- /package/src/database/repositories/dataImporter/{__tests__ → deprecated/__tests__}/fixtures/messages.json +0 -0
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 è un modello di linguaggio con 6710 miliardi di parametri, basato su un'architettura di esperti misti (MoE) che utilizza attenzione multilivello (MLA) e la strategia di bilanciamento del carico senza perdite ausiliarie, ottimizzando l'efficienza di inferenza e addestramento. Pre-addestrato su 14,8 trilioni di token di alta qualità e successivamente affinato tramite supervisione e apprendimento per rinforzo, DeepSeek-V3 supera altri modelli open source, avvicinandosi ai modelli chiusi di punta."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 è un modello linguistico ibrido esperto (MoE) con 6710 miliardi di parametri, che utilizza l'attenzione multilivello (MLA) e l'architettura DeepSeekMoE, combinando strategie di bilanciamento del carico senza perdite ausiliarie per ottimizzare l'efficienza di inferenza e addestramento. Pre-addestrato su 14,8 trilioni di token di alta qualità e successivamente affinato supervisionato e tramite apprendimento rinforzato, DeepSeek-V3 supera le prestazioni di altri modelli open source, avvicinandosi ai modelli closed source leader."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview è un modello di elaborazione del linguaggio naturale innovativo, in grado di gestire in modo efficiente compiti complessi di generazione di dialoghi e comprensione del contesto."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 è un modello MoE sviluppato internamente da Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd., con risultati eccezionali in molteplici valutazioni, posizionandosi al primo posto tra i modelli open source nelle classifiche principali. Rispetto al modello V2.5, la velocità di generazione è aumentata di 3 volte, offrendo un'esperienza utente più rapida e fluida."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con vantaggi notevoli nelle capacità di programmazione e tecniche, comprensione del contesto e gestione di testi lunghi."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "Un nuovo modello open source che integra capacità generali e di codice, mantenendo non solo le capacità di dialogo generali del modello Chat originale e la potente capacità di elaborazione del codice del modello Coder, ma allineandosi anche meglio alle preferenze umane. Inoltre, DeepSeek-V2.5 ha ottenuto notevoli miglioramenti in vari aspetti, come compiti di scrittura e seguire istruzioni."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro è il modello AI ad alte prestazioni di Google, progettato per l'espansione su una vasta gamma di compiti."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash è il più recente modello AI multimodale di Google, dotato di capacità di elaborazione rapida, supporta input di testo, immagini e video, ed è adatto per un'efficiente scalabilità in vari compiti."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001 è un modello multimodale efficiente, supporta l'espansione per applicazioni ampie."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 Flash è una variante del modello Flash, ottimizzata per obiettivi come il rapporto costo-efficacia e la bassa latenza."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "Un modello Gemini 2.0 Flash ottimizzato per obiettivi di costo-efficacia e bassa latenza."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp è il più recente modello AI multimodale sperimentale di Google, dotato di caratteristiche di nuova generazione, velocità eccezionale, chiamate a strumenti nativi e generazione multimodale."
|
910
910
|
},
|
@@ -1082,6 +1082,9 @@
|
|
1082
1082
|
"gpt-4o-mini-realtime-preview": {
|
1083
1083
|
"description": "Versione in tempo reale di GPT-4o-mini, supporta input e output audio e testuali in tempo reale."
|
1084
1084
|
},
|
1085
|
+
"gpt-4o-mini-tts": {
|
1086
|
+
"description": "GPT-4o mini TTS è un modello di sintesi vocale basato su GPT-4o mini, che offre una generazione di voce di alta qualità a un costo più basso."
|
1087
|
+
},
|
1085
1088
|
"gpt-4o-realtime-preview": {
|
1086
1089
|
"description": "Versione in tempo reale di GPT-4o, supporta input e output audio e testuali in tempo reale."
|
1087
1090
|
},
|
@@ -1715,6 +1718,9 @@
|
|
1715
1718
|
"qwen2.5-math-7b-instruct": {
|
1716
1719
|
"description": "Il modello Qwen-Math ha potenti capacità di risoluzione di problemi matematici."
|
1717
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "La serie di modelli Qwen-Omni supporta l'input di dati multimodali, inclusi video, audio, immagini e testo, e produce output audio e testo."
|
1723
|
+
},
|
1718
1724
|
"qwen2.5-vl-32b-instruct": {
|
1719
1725
|
"description": "La serie di modelli Qwen2.5-VL ha migliorato il livello di intelligenza, praticità e applicabilità del modello, rendendolo più performante in scenari come conversazioni naturali, creazione di contenuti, servizi di conoscenza specialistica e sviluppo di codice. La versione 32B utilizza tecniche di apprendimento rinforzato per ottimizzare il modello, offrendo uno stile di output più in linea con le preferenze umane, capacità di ragionamento per problemi matematici complessi e comprensione e ragionamento dettagliati di immagini rispetto ad altri modelli della serie Qwen2.5 VL."
|
1720
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "Impostazioni del tema"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "Esporta",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "Esporta impostazioni assistente",
|
355
|
+
"agentWithMessage": "Esporta assistente e messaggi",
|
356
|
+
"all": "Esporta impostazioni globali e tutti i dati degli assistenti",
|
357
|
+
"allAgent": "Esporta tutte le impostazioni degli assistenti",
|
358
|
+
"allAgentWithMessage": "Esporta tutti gli assistenti e messaggi",
|
359
|
+
"globalSetting": "Esporta impostazioni globali"
|
360
|
+
},
|
361
|
+
"title": "Esporta dati"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "Importa",
|
365
|
+
"title": "Importa dati"
|
366
|
+
},
|
367
|
+
"title": "Operazioni avanzate"
|
368
|
+
},
|
369
|
+
"desc": "Utilizzo dello storage nel browser attuale",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "Storage vettoriale"
|
372
|
+
},
|
373
|
+
"title": "Storage dati",
|
374
|
+
"used": "Utilizzo dello storage"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "Invia assistente",
|
351
378
|
"identifier": "Identificatore assistente",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "Scorciatoie",
|
440
467
|
"llm": "Modello linguistico",
|
441
468
|
"provider": "Fornitore di servizi AI",
|
469
|
+
"storage": "Storage dati",
|
442
470
|
"sync": "云端同步",
|
443
471
|
"system-agent": "Assistente di sistema",
|
444
472
|
"tts": "Servizio vocale"
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "セッション",
|
206
206
|
"skips": "重複スキップ",
|
207
207
|
"topics": "トピック",
|
208
|
-
"type": "データタイプ"
|
208
|
+
"type": "データタイプ",
|
209
|
+
"update": "レコードが更新されました"
|
209
210
|
},
|
210
211
|
"title": "データのインポート",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "アップロード速度"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "インポートを確認",
|
220
|
+
"tables": {
|
221
|
+
"count": "レコード数",
|
222
|
+
"name": "テーブル名"
|
223
|
+
},
|
224
|
+
"title": "データインポートプレビュー",
|
225
|
+
"totalRecords": "合計で {{count}} 件のレコードがインポートされます",
|
226
|
+
"totalTables": "{{count}} 個のテーブル"
|
227
|
+
},
|
217
228
|
"information": "コミュニティと情報",
|
218
229
|
"installPWA": "PWAをインストール",
|
219
230
|
"lang": {
|
package/locales/ja-JP/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "エラーの詳細",
|
17
17
|
"title": "リクエストに失敗しました"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "エラーの理由: {{reason}}",
|
22
|
+
"title": "インポート失敗"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "このファイルはより高いバージョンからエクスポートされました。最新バージョンにアップグレードしてから再度インポートしてください",
|
26
|
+
"title": "現在のアプリはこのファイルのインポートをサポートしていません"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "自動的にログインページにリダイレクトされます",
|
21
31
|
"title": "この機能を使用するにはログインしてください"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3は、6710億パラメータを持つ混合専門家(MoE)言語モデルで、多頭潜在注意力(MLA)とDeepSeekMoEアーキテクチャを採用し、無補助損失の負荷バランス戦略を組み合わせて推論とトレーニングの効率を最適化しています。14.8兆の高品質トークンで事前トレーニングを行い、監視付き微調整と強化学習を経て、DeepSeek-V3は他のオープンソースモデルを超え、先進的なクローズドモデルに近づいています。"
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3は、6710億のパラメータを持つ混合専門家(MoE)言語モデルであり、マルチヘッド潜在注意(MLA)とDeepSeekMoEアーキテクチャを採用し、補助損失なしの負荷バランス戦略を組み合わせて、推論とトレーニングの効率を最適化しています。14.8兆の高品質トークンで事前トレーニングを行い、監視付き微調整と強化学習を経て、DeepSeek-V3は他のオープンソースモデルを超え、先進的なクローズドソースモデルに近づいています。"
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Previewは、複雑な対話生成と文脈理解タスクを効率的に処理できる革新的な自然言語処理モデルです。"
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3は、杭州深度求索人工知能基礎技術研究有限公司が独自に開発したMoEモデルで、複数の評価で優れた成績を収め、主流のランキングでオープンソースモデルの首位に立っています。V3はV2.5モデルに比べて生成速度が3倍向上し、ユーザーにより迅速でスムーズな使用体験を提供します。"
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324は671BパラメータのMoEモデルであり、プログラミングと技術能力、文脈理解、長文処理において優れた性能を発揮します。"
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "汎用性とコード能力を融合させた新しいオープンソースモデルで、元のChatモデルの汎用対話能力とCoderモデルの強力なコード処理能力を保持しつつ、人間の好みにより良く整合しています。さらに、DeepSeek-V2.5は執筆タスク、指示の遵守などの多くの面で大幅な向上を実現しました。"
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Proは、Googleの高性能AIモデルであり、幅広いタスクの拡張に特化しています。"
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flashは、Googleの最新のマルチモーダルAIモデルで、高速処理能力を備え、テキスト、画像、動画の入力をサポートし、さまざまなタスクに対して効率的に拡張できます。"
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001は、効率的なマルチモーダルモデルであり、幅広いアプリケーションの拡張をサポートします。"
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 Flashモデルのバリアントで、コスト効率と低遅延などの目標に最適化されています。"
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "コスト効率と低遅延を目指して最適化されたGemini 2.0 Flashモデルです。"
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Expは、Googleの最新の実験的なマルチモーダルAIモデルであり、次世代の機能、卓越した速度、ネイティブツールの呼び出し、マルチモーダル生成を備えています。"
|
910
910
|
},
|
@@ -1082,6 +1082,9 @@
|
|
1082
1082
|
"gpt-4o-mini-realtime-preview": {
|
1083
1083
|
"description": "GPT-4o-miniリアルタイムバージョン、音声とテキストのリアルタイム入力と出力をサポート"
|
1084
1084
|
},
|
1085
|
+
"gpt-4o-mini-tts": {
|
1086
|
+
"description": "GPT-4o mini TTS は、GPT-4o mini に基づくテキスト音声合成モデルで、高品質な音声生成を低コストで提供します。"
|
1087
|
+
},
|
1085
1088
|
"gpt-4o-realtime-preview": {
|
1086
1089
|
"description": "GPT-4oリアルタイムバージョン、音声とテキストのリアルタイム入力と出力をサポート"
|
1087
1090
|
},
|
@@ -1715,6 +1718,9 @@
|
|
1715
1718
|
"qwen2.5-math-7b-instruct": {
|
1716
1719
|
"description": "Qwen-Mathモデルは、強力な数学の問題解決能力を持っています。"
|
1717
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Qwen-Omniシリーズモデルは、動画、音声、画像、テキストなどの多様なモダリティのデータを入力としてサポートし、音声とテキストを出力します。"
|
1723
|
+
},
|
1718
1724
|
"qwen2.5-vl-32b-instruct": {
|
1719
1725
|
"description": "Qwen2.5-VLシリーズモデルは、モデルの知能レベル、実用性、適応性を向上させ、自然な会話、コンテンツ作成、専門知識サービス、コード開発などのシナリオにおいてより優れたパフォーマンスを発揮します。32Bバージョンでは強化学習技術を用いてモデルを最適化しており、Qwen2.5 VLシリーズの他のモデルと比較して、人間の嗜好に合致した出力スタイル、複雑な数学問題の推論能力、および画像の細粒度理解と推論能力を提供します。"
|
1720
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "テーマ設定"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "エクスポート",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "エージェント設定をエクスポート",
|
355
|
+
"agentWithMessage": "エージェントとメッセージをエクスポート",
|
356
|
+
"all": "全体設定とすべてのエージェントデータをエクスポート",
|
357
|
+
"allAgent": "すべてのエージェント設定をエクスポート",
|
358
|
+
"allAgentWithMessage": "すべてのエージェントとメッセージをエクスポート",
|
359
|
+
"globalSetting": "全体設定をエクスポート"
|
360
|
+
},
|
361
|
+
"title": "データをエクスポート"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "インポート",
|
365
|
+
"title": "データをインポート"
|
366
|
+
},
|
367
|
+
"title": "高度な操作"
|
368
|
+
},
|
369
|
+
"desc": "現在のブラウザのストレージ使用量",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "ベクトルストレージ"
|
372
|
+
},
|
373
|
+
"title": "データストレージ",
|
374
|
+
"used": "ストレージ使用量"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "エージェントを提出",
|
351
378
|
"identifier": "エージェント識別子",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "ショートカットキー",
|
440
467
|
"llm": "言語モデル",
|
441
468
|
"provider": "AIサービスプロバイダー",
|
469
|
+
"storage": "データストレージ",
|
442
470
|
"sync": "クラウド同期",
|
443
471
|
"system-agent": "システムアシスタント",
|
444
472
|
"tts": "音声サービス"
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "에이전트",
|
206
206
|
"skips": "중복 건너뛰기",
|
207
207
|
"topics": "주제",
|
208
|
-
"type": "데이터 유형"
|
208
|
+
"type": "데이터 유형",
|
209
|
+
"update": "기록 업데이트"
|
209
210
|
},
|
210
211
|
"title": "데이터 가져오기",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "업로드 속도"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "가져오기 확인",
|
220
|
+
"tables": {
|
221
|
+
"count": "기록 수",
|
222
|
+
"name": "표 이름"
|
223
|
+
},
|
224
|
+
"title": "데이터 가져오기 미리보기",
|
225
|
+
"totalRecords": "총 {{count}} 개의 기록이 가져와집니다",
|
226
|
+
"totalTables": "{{count}} 개의 표"
|
227
|
+
},
|
217
228
|
"information": "커뮤니티 및 정보",
|
218
229
|
"installPWA": "브라우저 앱 설치",
|
219
230
|
"lang": {
|
package/locales/ko-KR/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "오류 세부정보",
|
17
17
|
"title": "요청 실패"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "오류 원인: {{reason}}",
|
22
|
+
"title": "가져오기 실패"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "이 파일은 더 높은 버전에서 내보낸 것입니다. 최신 버전으로 업그레이드한 후 다시 가져오기를 시도하십시오.",
|
26
|
+
"title": "현재 애플리케이션은 이 파일의 가져오기를 지원하지 않습니다."
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "곧 로그인 페이지로 자동 이동합니다",
|
21
31
|
"title": "이 기능을 사용하려면 로그인해 주세요"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3는 6710억 개의 매개변수를 가진 혼합 전문가(MoE) 언어 모델로, 다중 헤드 잠재 주의(MLA) 및 DeepSeekMoE 아키텍처를 사용하여 보조 손실 없는 부하 균형 전략을 결합하여 추론 및 훈련 효율성을 최적화합니다. 14.8조 개의 고품질 토큰에서 사전 훈련을 수행하고 감독 미세 조정 및 강화 학습을 통해 DeepSeek-V3는 성능 면에서 다른 오픈 소스 모델을 초월하며, 선도적인 폐쇄형 모델에 근접합니다."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3는 6710억 개의 매개변수를 가진 혼합 전문가(MoE) 언어 모델로, 다중 헤드 잠재 주의(MLA) 및 DeepSeekMoE 아키텍처를 채택하고, 보조 손실 없는 부하 균형 전략을 결합하여 추론 및 훈련 효율성을 최적화합니다. 14.8조 개의 고품질 토큰에서 사전 훈련을 거치고 감독 미세 조정 및 강화 학습을 통해 DeepSeek-V3는 성능 면에서 다른 오픈 소스 모델을 초월하며, 선도적인 폐쇄형 모델에 근접합니다."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview는 복잡한 대화 생성 및 맥락 이해 작업을 효율적으로 처리할 수 있는 혁신적인 자연어 처리 모델입니다."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3는 항저우 심도 탐색 인공지능 기초 기술 연구 회사에서 자체 개발한 MoE 모델로, 여러 평가에서 뛰어난 성적을 거두며, 주류 순위에서 오픈 소스 모델 1위를 차지하고 있습니다. V3는 V2.5 모델에 비해 생성 속도가 3배 향상되어 사용자에게 더 빠르고 원활한 사용 경험을 제공합니다."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324는 671B 매개변수를 가진 MoE 모델로, 프로그래밍 및 기술 능력, 맥락 이해 및 긴 텍스트 처리 등에서 두드러진 장점을 보입니다."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "일반 및 코드 능력을 통합한 새로운 오픈 소스 모델로, 기존 Chat 모델의 일반 대화 능력과 Coder 모델의 강력한 코드 처리 능력을 유지하면서 인간의 선호에 더 잘 맞춰졌습니다. 또한, DeepSeek-V2.5는 작문 작업, 지시 따르기 등 여러 분야에서 큰 향상을 이루었습니다."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro는 Google의 고성능 AI 모델로, 광범위한 작업 확장을 위해 설계되었습니다."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash는 Google의 최신 다중 모달 AI 모델로, 빠른 처리 능력을 갖추고 있으며 텍스트, 이미지 및 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001은 효율적인 다중 모달 모델로, 광범위한 응용 프로그램 확장을 지원합니다."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 플래시 모델 변형으로, 비용 효율성과 낮은 지연 시간 등의 목표를 위해 최적화되었습니다."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "비용 효율성과 낮은 지연 시간 등을 목표로 최적화된 Gemini 2.0 Flash 모델입니다."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모드 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모드 생성을 제공합니다."
|
910
910
|
},
|
@@ -1082,6 +1082,9 @@
|
|
1082
1082
|
"gpt-4o-mini-realtime-preview": {
|
1083
1083
|
"description": "GPT-4o-mini 실시간 버전으로, 오디오 및 텍스트의 실시간 입력 및 출력을 지원합니다."
|
1084
1084
|
},
|
1085
|
+
"gpt-4o-mini-tts": {
|
1086
|
+
"description": "GPT-4o mini TTS 는 GPT-4o mini 에 기반한 텍스트 음성 변환 모델로, 높은 품질의 음성 생성을 저렴한 가격으로 제공합니다."
|
1087
|
+
},
|
1085
1088
|
"gpt-4o-realtime-preview": {
|
1086
1089
|
"description": "GPT-4o 실시간 버전으로, 오디오 및 텍스트의 실시간 입력 및 출력을 지원합니다."
|
1087
1090
|
},
|
@@ -1715,6 +1718,9 @@
|
|
1715
1718
|
"qwen2.5-math-7b-instruct": {
|
1716
1719
|
"description": "Qwen-Math 모델은 강력한 수학 문제 해결 능력을 가지고 있습니다."
|
1717
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Qwen-Omni 시리즈 모델은 비디오, 오디오, 이미지, 텍스트 등 다양한 모드의 데이터를 입력으로 지원하며, 오디오와 텍스트를 출력합니다."
|
1723
|
+
},
|
1718
1724
|
"qwen2.5-vl-32b-instruct": {
|
1719
1725
|
"description": "Qwen2.5-VL 시리즈 모델은 모델의 지능 수준, 실용성 및 적용성을 향상시켜 자연스러운 대화, 콘텐츠 제작, 전문 지식 서비스 및 코드 개발 등 다양한 시나리오에서 더 나은 성능을 발휘합니다. 32B 버전은 강화 학습 기술을 활용하여 최적화되었으며, Qwen2.5 VL 시리즈의 다른 모델들과 비교하여 인간의 선호도에 더 부합하는 출력 스타일, 복잡한 수학 문제의 추론 능력, 그리고 이미지의 세밀한 이해와 추론 능력을 제공합니다."
|
1720
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "테마 설정"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "내보내기",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "도우미 설정 내보내기",
|
355
|
+
"agentWithMessage": "도우미와 메시지 내보내기",
|
356
|
+
"all": "전체 설정 및 모든 도우미 데이터 내보내기",
|
357
|
+
"allAgent": "모든 도우미 설정 내보내기",
|
358
|
+
"allAgentWithMessage": "모든 도우미와 메시지 내보내기",
|
359
|
+
"globalSetting": "전체 설정 내보내기"
|
360
|
+
},
|
361
|
+
"title": "데이터 내보내기"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "가져오기",
|
365
|
+
"title": "데이터 가져오기"
|
366
|
+
},
|
367
|
+
"title": "고급 작업"
|
368
|
+
},
|
369
|
+
"desc": "현재 브라우저의 저장 용량",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "벡터 저장소"
|
372
|
+
},
|
373
|
+
"title": "데이터 저장소",
|
374
|
+
"used": "저장 용량"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "에이전트 제출",
|
351
378
|
"identifier": "에이전트 식별자",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "단축키",
|
440
467
|
"llm": "언어 모델",
|
441
468
|
"provider": "AI 서비스 제공자",
|
469
|
+
"storage": "데이터 저장소",
|
442
470
|
"sync": "클라우드 동기화",
|
443
471
|
"system-agent": "시스템 도우미",
|
444
472
|
"tts": "음성 서비스"
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "Assistenten",
|
206
206
|
"skips": "Overslaan van duplicaten",
|
207
207
|
"topics": "Onderwerpen",
|
208
|
-
"type": "Gegevenstype"
|
208
|
+
"type": "Gegevenstype",
|
209
|
+
"update": "Record bijgewerkt"
|
209
210
|
},
|
210
211
|
"title": "Gegevens importeren",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "Uploadsnelheid"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "Bevestig import",
|
220
|
+
"tables": {
|
221
|
+
"count": "Aantal records",
|
222
|
+
"name": "Tabelnaam"
|
223
|
+
},
|
224
|
+
"title": "Voorbeeld van gegevensimport",
|
225
|
+
"totalRecords": "In totaal worden {{count}} records geïmporteerd",
|
226
|
+
"totalTables": "{{count}} tabellen"
|
227
|
+
},
|
217
228
|
"information": "Gemeenschap en Informatie",
|
218
229
|
"installPWA": "Installeer de browser-app",
|
219
230
|
"lang": {
|
package/locales/nl-NL/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "Foutdetails",
|
17
17
|
"title": "Verzoek mislukt"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "Foutmelding: {{reason}}",
|
22
|
+
"title": "Import mislukt"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "Dit bestand is geëxporteerd vanuit een hogere versie, probeer te upgraden naar de nieuwste versie en importeer opnieuw",
|
26
|
+
"title": "De huidige applicatie ondersteunt het importeren van dit bestand niet"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "U wordt binnenkort automatisch doorgestuurd naar de inlogpagina",
|
21
31
|
"title": "Log in om deze functie te gebruiken"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 is een hybride expert (MoE) taalmodel met 6710 miljard parameters, dat gebruikmaakt van multi-head latent attention (MLA) en de DeepSeekMoE-architectuur, gecombineerd met een load balancing-strategie zonder extra verlies, om de inferentie- en trainingsefficiëntie te optimaliseren. Door voorgetraind te worden op 14,8 biljoen hoogwaardige tokens en vervolgens te worden fijngesteld met supervisie en versterkend leren, overtreft DeepSeek-V3 andere open-source modellen in prestaties en komt het dicht in de buurt van toonaangevende gesloten modellen."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 is een hybride expert (MoE) taalmodel met 6710 miljard parameters, dat gebruikmaakt van multi-head latent attention (MLA) en de DeepSeekMoE-architectuur, gecombineerd met een load balancing strategie zonder extra verlies, om de efficiëntie van inferentie en training te optimaliseren. Door voorgetraind te worden op 14,8 biljoen hoogwaardige tokens en vervolgens te worden verfijnd met supervisie en versterkend leren, overtreft DeepSeek-V3 andere open-source modellen in prestaties en benadert het de toonaangevende gesloten-source modellen."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview is een innovatief natuurlijk taalverwerkingsmodel dat efficiënt complexe dialooggeneratie en contextbegripstaken kan verwerken."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 is een MoE-model dat is ontwikkeld door Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd. Het heeft uitstekende scores in verschillende evaluaties en staat bovenaan de open-source modellen in de mainstream ranglijsten. V3 heeft de generatiesnelheid met 3 keer verbeterd in vergelijking met het V2.5 model, wat zorgt voor een snellere en soepelere gebruikerservaring."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 is een MoE-model met 671 miljard parameters, dat uitblinkt in programmeer- en technische vaardigheden, contextbegrip en het verwerken van lange teksten."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "Een nieuw open-source model dat algemene en codeercapaciteiten combineert, niet alleen de algemene gespreksvaardigheden van het oorspronkelijke Chat-model en de krachtige codeverwerkingscapaciteiten van het Coder-model behoudt, maar ook beter is afgestemd op menselijke voorkeuren. Bovendien heeft DeepSeek-V2.5 aanzienlijke verbeteringen gerealiseerd in schrijfopdrachten, instructievolging en meer."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro is Google's high-performance AI-model, ontworpen voor brede taakuitbreiding."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash is het nieuwste multimodale AI-model van Google, met snelle verwerkingscapaciteiten, ondersteuning voor tekst-, beeld- en video-invoer, en efficiënt schaalbaar voor verschillende taken."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001 is een efficiënt multimodaal model dat ondersteuning biedt voor brede toepassingsuitbreiding."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 Flash is een modelvariant die is geoptimaliseerd voor kosteneffectiviteit en lage latentie."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "Een Gemini 2.0 Flash-model dat is geoptimaliseerd voor kosteneffectiviteit en lage latentie."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met next-gen functies, uitstekende snelheid, native tool-aanroepen en multimodale generatie."
|
910
910
|
},
|
@@ -1082,6 +1082,9 @@
|
|
1082
1082
|
"gpt-4o-mini-realtime-preview": {
|
1083
1083
|
"description": "GPT-4o-mini realtime versie, ondersteunt audio en tekst realtime invoer en uitvoer."
|
1084
1084
|
},
|
1085
|
+
"gpt-4o-mini-tts": {
|
1086
|
+
"description": "GPT-4o mini TTS is een tekst-naar-spraak model dat is gebaseerd op GPT-4o mini, en biedt hoge kwaliteit spraakgeneratie tegen een lagere prijs."
|
1087
|
+
},
|
1085
1088
|
"gpt-4o-realtime-preview": {
|
1086
1089
|
"description": "GPT-4o realtime versie, ondersteunt audio en tekst realtime invoer en uitvoer."
|
1087
1090
|
},
|
@@ -1715,6 +1718,9 @@
|
|
1715
1718
|
"qwen2.5-math-7b-instruct": {
|
1716
1719
|
"description": "Het Qwen-Math model heeft krachtige capaciteiten voor het oplossen van wiskundige problemen."
|
1717
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "Het Qwen-Omni serie model ondersteunt het invoeren van verschillende modaliteiten van gegevens, waaronder video, audio, afbeeldingen en tekst, en kan audio en tekst als output genereren."
|
1723
|
+
},
|
1718
1724
|
"qwen2.5-vl-32b-instruct": {
|
1719
1725
|
"description": "De Qwen2.5-VL-serie modellen verbeteren het intelligentieniveau, de praktisch toepasbaarheid en de bruikbaarheid, waardoor ze beter presteren in natuurlijke conversaties, inhoudscREATie, specialistische kennisdiensten en codeontwikkeling. De 32B-versie maakt gebruik van versterkingsleertechnieken om het model te optimaliseren, waardoor het in vergelijking met andere modellen uit de Qwen2.5 VL-serie een uitvoerstijl biedt die meer voldoet aan menselijke voorkeuren, een betere redeneringscapaciteit voor complexe wiskundige problemen, en een fijnere begrip en redenering van afbeeldingen."
|
1720
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "Thema-instellingen"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "Exporteren",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "Exporteren assistentinstellingen",
|
355
|
+
"agentWithMessage": "Exporteren assistent en berichten",
|
356
|
+
"all": "Exporteren globale instellingen en alle assistentgegevens",
|
357
|
+
"allAgent": "Exporteren alle assistentinstellingen",
|
358
|
+
"allAgentWithMessage": "Exporteren alle assistenten en berichten",
|
359
|
+
"globalSetting": "Exporteren globale instellingen"
|
360
|
+
},
|
361
|
+
"title": "Gegevens exporteren"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "Importeren",
|
365
|
+
"title": "Gegevens importeren"
|
366
|
+
},
|
367
|
+
"title": "Geavanceerde acties"
|
368
|
+
},
|
369
|
+
"desc": "Huidig opslaggebruik in de browser",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "Vectoropslag"
|
372
|
+
},
|
373
|
+
"title": "Gegevensopslag",
|
374
|
+
"used": "Opslaggebruik"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "Assistent indienen",
|
351
378
|
"identifier": "Assistent-identificatie",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "Sneltoetsen",
|
440
467
|
"llm": "Taalmodel",
|
441
468
|
"provider": "AI-dienstverlener",
|
469
|
+
"storage": "Gegevensopslag",
|
442
470
|
"sync": "Cloudsynchronisatie",
|
443
471
|
"system-agent": "Systeemassistent",
|
444
472
|
"tts": "Spraakdienst"
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "Sesje",
|
206
206
|
"skips": "Pominięcia duplikatów",
|
207
207
|
"topics": "Tematy",
|
208
|
-
"type": "Typ danych"
|
208
|
+
"type": "Typ danych",
|
209
|
+
"update": "Aktualizacja rekordu"
|
209
210
|
},
|
210
211
|
"title": "Import danych",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "Prędkość wysyłania"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "Potwierdź import",
|
220
|
+
"tables": {
|
221
|
+
"count": "Liczba rekordów",
|
222
|
+
"name": "Nazwa tabeli"
|
223
|
+
},
|
224
|
+
"title": "Podgląd importu danych",
|
225
|
+
"totalRecords": "Łącznie zaimportuje {{count}} rekordów",
|
226
|
+
"totalTables": "{{count}} tabel"
|
227
|
+
},
|
217
228
|
"information": "Społeczność i informacje",
|
218
229
|
"installPWA": "Zainstaluj aplikację przeglądarki",
|
219
230
|
"lang": {
|
package/locales/pl-PL/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "Szczegóły błędu",
|
17
17
|
"title": "Żądanie nie powiodło się"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "Powód błędu: {{reason}}",
|
22
|
+
"title": "Import nie powiódł się"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "Ten plik został wyeksportowany z wyższej wersji, spróbuj zaktualizować do najnowszej wersji, a następnie spróbuj ponownie zaimportować",
|
26
|
+
"title": "Bieżąca aplikacja nie obsługuje importu tego pliku"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "Zaraz nastąpi automatyczne przekierowanie do strony logowania",
|
21
31
|
"title": "Proszę zalogować się, aby korzystać z tej funkcji"
|