@lobehub/chat 1.63.2 → 1.64.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/models.json +25 -16
- package/locales/ar/plugin.json +16 -0
- package/locales/ar/portal.json +0 -5
- package/locales/ar/tool.json +18 -0
- package/locales/bg-BG/models.json +25 -16
- package/locales/bg-BG/plugin.json +16 -0
- package/locales/bg-BG/portal.json +0 -5
- package/locales/bg-BG/tool.json +18 -0
- package/locales/de-DE/models.json +25 -16
- package/locales/de-DE/plugin.json +16 -0
- package/locales/de-DE/portal.json +0 -5
- package/locales/de-DE/tool.json +18 -0
- package/locales/en-US/models.json +24 -15
- package/locales/en-US/plugin.json +16 -0
- package/locales/en-US/portal.json +0 -5
- package/locales/en-US/tool.json +18 -0
- package/locales/es-ES/models.json +25 -16
- package/locales/es-ES/plugin.json +16 -0
- package/locales/es-ES/portal.json +0 -5
- package/locales/es-ES/tool.json +18 -0
- package/locales/fa-IR/models.json +25 -16
- package/locales/fa-IR/plugin.json +16 -0
- package/locales/fa-IR/portal.json +0 -5
- package/locales/fa-IR/tool.json +18 -0
- package/locales/fr-FR/models.json +25 -16
- package/locales/fr-FR/plugin.json +16 -0
- package/locales/fr-FR/portal.json +0 -5
- package/locales/fr-FR/tool.json +18 -0
- package/locales/it-IT/models.json +25 -16
- package/locales/it-IT/plugin.json +16 -0
- package/locales/it-IT/portal.json +0 -5
- package/locales/it-IT/tool.json +18 -0
- package/locales/ja-JP/models.json +24 -15
- package/locales/ja-JP/plugin.json +16 -0
- package/locales/ja-JP/portal.json +0 -5
- package/locales/ja-JP/tool.json +18 -0
- package/locales/ko-KR/models.json +25 -16
- package/locales/ko-KR/plugin.json +16 -0
- package/locales/ko-KR/portal.json +0 -5
- package/locales/ko-KR/tool.json +18 -0
- package/locales/nl-NL/models.json +25 -16
- package/locales/nl-NL/plugin.json +16 -0
- package/locales/nl-NL/portal.json +0 -5
- package/locales/nl-NL/tool.json +18 -0
- package/locales/pl-PL/models.json +25 -16
- package/locales/pl-PL/plugin.json +16 -0
- package/locales/pl-PL/portal.json +0 -5
- package/locales/pl-PL/tool.json +18 -0
- package/locales/pt-BR/models.json +24 -15
- package/locales/pt-BR/plugin.json +16 -0
- package/locales/pt-BR/portal.json +0 -5
- package/locales/pt-BR/tool.json +18 -0
- package/locales/ru-RU/models.json +25 -16
- package/locales/ru-RU/plugin.json +16 -0
- package/locales/ru-RU/portal.json +0 -5
- package/locales/ru-RU/tool.json +18 -0
- package/locales/tr-TR/models.json +25 -16
- package/locales/tr-TR/plugin.json +16 -0
- package/locales/tr-TR/portal.json +0 -5
- package/locales/tr-TR/tool.json +18 -0
- package/locales/vi-VN/models.json +24 -15
- package/locales/vi-VN/plugin.json +16 -0
- package/locales/vi-VN/portal.json +0 -5
- package/locales/vi-VN/tool.json +18 -0
- package/locales/zh-CN/models.json +30 -21
- package/locales/zh-CN/plugin.json +16 -0
- package/locales/zh-CN/portal.json +1 -6
- package/locales/zh-CN/tool.json +19 -1
- package/locales/zh-TW/models.json +23 -14
- package/locales/zh-TW/plugin.json +16 -0
- package/locales/zh-TW/portal.json +0 -5
- package/locales/zh-TW/tool.json +18 -0
- package/package.json +1 -1
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatInput/Mobile/index.tsx +1 -0
- package/src/app/[variants]/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/SearchTags.tsx +17 -0
- package/src/app/[variants]/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/Tags.tsx +8 -2
- package/src/config/tools.ts +16 -0
- package/src/database/repositories/aiInfra/index.test.ts +29 -0
- package/src/features/ChatInput/ActionBar/Search/index.tsx +6 -15
- package/src/features/Conversation/Messages/Assistant/Tool/Inspector/ToolTitle.tsx +76 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Inspector/index.tsx +8 -21
- package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +62 -50
- package/src/features/PluginsUI/Render/BuiltinType/index.tsx +11 -1
- package/src/features/PluginsUI/Render/index.tsx +3 -0
- package/src/features/Portal/Plugins/Body/index.tsx +3 -7
- package/src/features/Portal/Plugins/Header.tsx +14 -2
- package/src/hooks/useAgentEnableSearch.ts +27 -0
- package/src/libs/agent-runtime/perplexity/index.test.ts +26 -0
- package/src/libs/agent-runtime/utils/streams/openai.ts +1 -1
- package/src/libs/trpc/client/index.ts +1 -0
- package/src/libs/trpc/client/tools.ts +20 -0
- package/src/locales/default/plugin.ts +16 -0
- package/src/locales/default/portal.ts +0 -5
- package/src/locales/default/tool.ts +18 -0
- package/src/server/modules/SearXNG.ts +33 -0
- package/src/server/routers/lambda/message.ts +11 -0
- package/src/server/routers/tools/__tests__/fixtures/searXNG.ts +668 -0
- package/src/server/routers/tools/__tests__/search.test.ts +47 -0
- package/src/server/routers/tools/index.ts +3 -0
- package/src/server/routers/tools/search.ts +38 -0
- package/src/services/__tests__/__snapshots__/chat.test.ts.snap +1 -0
- package/src/services/_auth.ts +4 -4
- package/src/services/chat.ts +31 -10
- package/src/services/message/_deprecated.ts +4 -0
- package/src/services/message/client.ts +4 -0
- package/src/services/message/server.ts +5 -5
- package/src/services/message/type.ts +2 -0
- package/src/services/search.ts +9 -0
- package/src/store/aiInfra/slices/aiModel/selectors.ts +12 -5
- package/src/store/chat/slices/builtinTool/action.ts +121 -0
- package/src/store/chat/slices/builtinTool/initialState.ts +2 -0
- package/src/store/chat/slices/builtinTool/selectors.ts +3 -0
- package/src/store/chat/slices/message/action.ts +11 -0
- package/src/store/chat/slices/plugin/action.test.ts +2 -2
- package/src/store/chat/slices/plugin/action.ts +2 -2
- package/src/store/tool/selectors/tool.ts +5 -12
- package/src/store/tool/slices/builtin/selectors.ts +1 -1
- package/src/store/user/slices/modelList/action.ts +6 -0
- package/src/store/user/slices/modelList/selectors/keyVaults.ts +1 -0
- package/src/tools/index.ts +7 -0
- package/src/tools/portals.ts +6 -1
- package/src/tools/renders.ts +3 -0
- package/src/{features/Portal/Plugins → tools/web-browsing/Portal}/Footer.tsx +13 -10
- package/src/tools/web-browsing/Portal/ResultList/SearchItem/CategoryAvatar.tsx +70 -0
- package/src/tools/web-browsing/Portal/ResultList/SearchItem/TitleExtra.tsx +38 -0
- package/src/tools/web-browsing/Portal/ResultList/SearchItem/Video.tsx +135 -0
- package/src/tools/web-browsing/Portal/ResultList/SearchItem/index.tsx +91 -0
- package/src/tools/web-browsing/Portal/ResultList/index.tsx +21 -0
- package/src/tools/web-browsing/Portal/index.tsx +65 -0
- package/src/tools/web-browsing/Render/ConfigForm/Form.tsx +110 -0
- package/src/tools/web-browsing/Render/ConfigForm/SearchXNGIcon.tsx +20 -0
- package/src/tools/web-browsing/Render/ConfigForm/index.tsx +67 -0
- package/src/tools/web-browsing/Render/ConfigForm/style.tsx +63 -0
- package/src/tools/web-browsing/Render/SearchQuery/SearchView.tsx +88 -0
- package/src/tools/web-browsing/Render/SearchQuery/index.tsx +61 -0
- package/src/tools/web-browsing/Render/SearchResult/SearchResultItem.tsx +72 -0
- package/src/tools/web-browsing/Render/SearchResult/ShowMore.tsx +68 -0
- package/src/tools/web-browsing/Render/SearchResult/index.tsx +105 -0
- package/src/tools/web-browsing/Render/index.tsx +57 -0
- package/src/tools/web-browsing/components/EngineAvatar.tsx +32 -0
- package/src/tools/web-browsing/components/SearchBar.tsx +134 -0
- package/src/tools/web-browsing/const.ts +11 -0
- package/src/tools/web-browsing/index.ts +102 -0
- package/src/types/message/chat.ts +1 -0
- package/src/types/message/tools.ts +10 -0
- package/src/types/tool/builtin.ts +2 -0
- package/src/types/tool/search.ts +38 -0
- package/src/types/user/settings/keyVaults.ts +8 -1
- package/src/utils/toolManifest.ts +20 -0
@@ -134,6 +134,22 @@
|
|
134
134
|
"plugin": "Exécution du plugin en cours..."
|
135
135
|
},
|
136
136
|
"pluginList": "Liste des plugins",
|
137
|
+
"search": {
|
138
|
+
"config": {
|
139
|
+
"addKey": "Ajouter une clé",
|
140
|
+
"close": "Supprimer",
|
141
|
+
"confirm": "Configuration terminée, veuillez réessayer"
|
142
|
+
},
|
143
|
+
"searchxng": {
|
144
|
+
"baseURL": "Veuillez entrer",
|
145
|
+
"description": "Veuillez entrer l'URL de SearchXNG pour commencer la recherche en ligne",
|
146
|
+
"keyPlaceholder": "Veuillez entrer la clé",
|
147
|
+
"title": "Configurer le moteur de recherche SearchXNG",
|
148
|
+
"unconfiguredDesc": "Veuillez contacter l'administrateur pour compléter la configuration du moteur de recherche SearchXNG afin de commencer la recherche en ligne",
|
149
|
+
"unconfiguredTitle": "Moteur de recherche SearchXNG non configuré"
|
150
|
+
},
|
151
|
+
"title": "Recherche en ligne"
|
152
|
+
},
|
137
153
|
"setting": "Paramètres des plugins",
|
138
154
|
"settings": {
|
139
155
|
"indexUrl": {
|
package/locales/fr-FR/tool.json
CHANGED
@@ -6,5 +6,23 @@
|
|
6
6
|
"generating": "En cours de génération...",
|
7
7
|
"images": "Images :",
|
8
8
|
"prompt": "Mot de rappel"
|
9
|
+
},
|
10
|
+
"search": {
|
11
|
+
"createNewSearch": "Créer un nouvel enregistrement de recherche",
|
12
|
+
"emptyResult": "Aucun résultat trouvé, veuillez modifier les mots-clés et réessayer",
|
13
|
+
"genAiMessage": "Créer un message d'assistant",
|
14
|
+
"includedTooltip": "Les résultats de recherche actuels seront intégrés dans le contexte de la conversation",
|
15
|
+
"keywords": "Mots-clés :",
|
16
|
+
"scoreTooltip": "Score de pertinence, plus ce score est élevé, plus il est pertinent par rapport aux mots-clés de la requête",
|
17
|
+
"searchBar": {
|
18
|
+
"button": "Rechercher",
|
19
|
+
"placeholder": "Mots-clés",
|
20
|
+
"tooltip": "Cela va récupérer à nouveau les résultats de recherche et créer un nouveau message de résumé"
|
21
|
+
},
|
22
|
+
"searchEngine": "Moteur de recherche :",
|
23
|
+
"searchResult": "Nombre de recherches :",
|
24
|
+
"summary": "Résumé",
|
25
|
+
"summaryTooltip": "Résumer le contenu actuel",
|
26
|
+
"viewMoreResults": "Voir {{results}} résultats supplémentaires"
|
9
27
|
}
|
10
28
|
}
|
@@ -170,9 +170,6 @@
|
|
170
170
|
"MiniMax-Text-01": {
|
171
171
|
"description": "Nella serie di modelli MiniMax-01, abbiamo fatto un'innovazione audace: per la prima volta abbiamo implementato su larga scala un meccanismo di attenzione lineare, rendendo l'architettura Transformer tradizionale non più l'unica opzione. Questo modello ha un numero di parametri che raggiunge i 456 miliardi, con un'attivazione singola di 45,9 miliardi. Le prestazioni complessive del modello sono paragonabili a quelle dei migliori modelli internazionali, mentre è in grado di gestire in modo efficiente contesti globali lunghi fino a 4 milioni di token, 32 volte rispetto a GPT-4o e 20 volte rispetto a Claude-3.5-Sonnet."
|
172
172
|
},
|
173
|
-
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
174
|
-
"description": "Hermes 2 Mixtral 8x7B DPO è un modello altamente flessibile, progettato per offrire un'esperienza creativa eccezionale."
|
175
|
-
},
|
176
173
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
177
174
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) è un modello di istruzioni ad alta precisione, adatto per calcoli complessi."
|
178
175
|
},
|
@@ -323,6 +320,9 @@
|
|
323
320
|
"SenseChat-5": {
|
324
321
|
"description": "Modello dell'ultima versione (V5.5), lunghezza del contesto di 128K, con capacità significativamente migliorate in ragionamento matematico, conversazioni in inglese, seguire istruzioni e comprensione di testi lunghi, paragonabile a GPT-4o."
|
325
322
|
},
|
323
|
+
"SenseChat-5-1202": {
|
324
|
+
"description": "È l'ultima versione basata su V5.5, con miglioramenti significativi rispetto alla versione precedente nelle capacità di base in cinese e inglese, chat, conoscenze scientifiche, conoscenze umanistiche, scrittura, logica matematica e controllo del numero di parole."
|
325
|
+
},
|
326
326
|
"SenseChat-5-Cantonese": {
|
327
327
|
"description": "Lunghezza del contesto di 32K, supera GPT-4 nella comprensione delle conversazioni in cantonese, paragonabile a GPT-4 Turbo in vari ambiti come conoscenza, ragionamento, matematica e scrittura di codice."
|
328
328
|
},
|
@@ -335,6 +335,12 @@
|
|
335
335
|
"SenseChat-Turbo": {
|
336
336
|
"description": "Adatto per domande e risposte rapide, scenari di micro-ottimizzazione del modello."
|
337
337
|
},
|
338
|
+
"SenseChat-Turbo-1202": {
|
339
|
+
"description": "È l'ultima versione leggera del modello, raggiungendo oltre il 90% delle capacità del modello completo, riducendo significativamente i costi di inferenza."
|
340
|
+
},
|
341
|
+
"SenseChat-Vision": {
|
342
|
+
"description": "L'ultima versione del modello (V5.5) supporta l'input di più immagini, ottimizzando le capacità di base del modello, con notevoli miglioramenti nel riconoscimento delle proprietà degli oggetti, nelle relazioni spaziali, nel riconoscimento degli eventi, nella comprensione delle scene, nel riconoscimento delle emozioni, nel ragionamento logico e nella comprensione e generazione del testo."
|
343
|
+
},
|
338
344
|
"Skylark2-lite-8k": {
|
339
345
|
"description": "Il modello di seconda generazione Skylark (Skylark2-lite) ha un'elevata velocità di risposta, adatto per scenari in cui sono richieste elevate prestazioni in tempo reale, attento ai costi e con requisiti di precisione del modello non elevati, con una lunghezza della finestra di contesto di 8k."
|
340
346
|
},
|
@@ -1019,6 +1025,12 @@
|
|
1019
1025
|
"hunyuan-standard-vision": {
|
1020
1026
|
"description": "Il modello multimodale più recente di Hunyuan, supporta risposte in più lingue, con capacità equilibrate in cinese e inglese."
|
1021
1027
|
},
|
1028
|
+
"hunyuan-translation": {
|
1029
|
+
"description": "Supporta la traduzione tra cinese e inglese, giapponese, francese, portoghese, spagnolo, turco, russo, arabo, coreano, italiano, tedesco, vietnamita, malese e indonesiano, per un totale di 15 lingue, con valutazione automatica basata su un set di valutazione di traduzione multi-scenario e punteggio COMET, mostrando complessivamente prestazioni superiori rispetto ai modelli di dimensioni simili sul mercato in termini di capacità di traduzione reciproca tra le lingue più comuni."
|
1030
|
+
},
|
1031
|
+
"hunyuan-translation-lite": {
|
1032
|
+
"description": "Il modello di traduzione Hunyuan supporta la traduzione in modo conversazionale in linguaggio naturale; supporta la traduzione tra cinese e inglese, giapponese, francese, portoghese, spagnolo, turco, russo, arabo, coreano, italiano, tedesco, vietnamita, malese e indonesiano, per un totale di 15 lingue."
|
1033
|
+
},
|
1022
1034
|
"hunyuan-turbo": {
|
1023
1035
|
"description": "Anteprima della nuova generazione di modelli di linguaggio di Hunyuan, utilizza una nuova struttura di modello ibrido di esperti (MoE), con una maggiore efficienza di inferenza e prestazioni superiori rispetto a hunyuan-pro."
|
1024
1036
|
},
|
@@ -1220,9 +1232,6 @@
|
|
1220
1232
|
"meta-llama/llama-3-8b-instruct": {
|
1221
1233
|
"description": "Llama 3 8B Instruct è ottimizzato per scenari di dialogo di alta qualità, con prestazioni superiori a molti modelli chiusi."
|
1222
1234
|
},
|
1223
|
-
"meta-llama/llama-3.1-405b-instruct": {
|
1224
|
-
"description": "Llama 3.1 405B Instruct è l'ultima versione rilasciata da Meta, ottimizzata per generare dialoghi di alta qualità, superando molti modelli chiusi di punta."
|
1225
|
-
},
|
1226
1235
|
"meta-llama/llama-3.1-70b-instruct": {
|
1227
1236
|
"description": "Llama 3.1 70B Instruct è progettato per dialoghi di alta qualità, con prestazioni eccezionali nelle valutazioni umane, particolarmente adatto per scenari ad alta interazione."
|
1228
1237
|
},
|
@@ -1286,9 +1295,6 @@
|
|
1286
1295
|
"microsoft/WizardLM-2-8x22B": {
|
1287
1296
|
"description": "WizardLM 2 è un modello linguistico fornito da Microsoft AI, particolarmente efficace in conversazioni complesse, multilingue, ragionamento e assistenti intelligenti."
|
1288
1297
|
},
|
1289
|
-
"microsoft/wizardlm 2-7b": {
|
1290
|
-
"description": "WizardLM 2 7B è il modello leggero e veloce più recente di Microsoft AI, con prestazioni vicine a quelle dei modelli leader open source esistenti."
|
1291
|
-
},
|
1292
1298
|
"microsoft/wizardlm-2-8x22b": {
|
1293
1299
|
"description": "WizardLM-2 8x22B è il modello Wizard più avanzato di Microsoft AI, mostrando prestazioni estremamente competitive."
|
1294
1300
|
},
|
@@ -1580,11 +1586,11 @@
|
|
1580
1586
|
"qwq-32b-preview": {
|
1581
1587
|
"description": "Il modello QwQ è un modello di ricerca sperimentale sviluppato dal team Qwen, focalizzato sul potenziamento delle capacità di ragionamento dell'IA."
|
1582
1588
|
},
|
1583
|
-
"solar-
|
1584
|
-
"description": "Solar Mini è un LLM compatto, con prestazioni superiori a GPT-3.5, dotato di
|
1589
|
+
"solar-mini": {
|
1590
|
+
"description": "Solar Mini è un LLM compatto, con prestazioni superiori a GPT-3.5, dotato di potenti capacità multilingue, supporta inglese e coreano, offrendo soluzioni efficienti e compatte."
|
1585
1591
|
},
|
1586
|
-
"solar-
|
1587
|
-
"description": "Solar Mini (Ja) espande le capacità di Solar Mini,
|
1592
|
+
"solar-mini-ja": {
|
1593
|
+
"description": "Solar Mini (Ja) espande le capacità di Solar Mini, concentrandosi sul giapponese, mantenendo al contempo prestazioni elevate ed efficienti nell'uso dell'inglese e del coreano."
|
1588
1594
|
},
|
1589
1595
|
"solar-pro": {
|
1590
1596
|
"description": "Solar Pro è un LLM altamente intelligente lanciato da Upstage, focalizzato sulla capacità di seguire istruzioni su singolo GPU, con un punteggio IFEval superiore a 80. Attualmente supporta l'inglese, con una versione ufficiale prevista per novembre 2024, che espanderà il supporto linguistico e la lunghezza del contesto."
|
@@ -1619,6 +1625,9 @@
|
|
1619
1625
|
"step-1.5v-mini": {
|
1620
1626
|
"description": "Questo modello possiede potenti capacità di comprensione video."
|
1621
1627
|
},
|
1628
|
+
"step-1o-turbo-vision": {
|
1629
|
+
"description": "Questo modello ha potenti capacità di comprensione delle immagini, superando 1o nei campi matematici e di codifica. Il modello è più piccolo di 1o e offre una velocità di output più rapida."
|
1630
|
+
},
|
1622
1631
|
"step-1o-vision-32k": {
|
1623
1632
|
"description": "Questo modello possiede una potente capacità di comprensione delle immagini. Rispetto ai modelli della serie step-1v, offre prestazioni visive superiori."
|
1624
1633
|
},
|
@@ -1634,12 +1643,12 @@
|
|
1634
1643
|
"step-2-mini": {
|
1635
1644
|
"description": "Un modello di grandi dimensioni ad alta velocità basato sulla nuova architettura di attenzione auto-sviluppata MFA, in grado di raggiungere risultati simili a quelli di step1 a un costo molto basso, mantenendo al contempo una maggiore capacità di elaborazione e tempi di risposta più rapidi. È in grado di gestire compiti generali, con competenze particolari nella programmazione."
|
1636
1645
|
},
|
1637
|
-
"taichu2_mm": {
|
1638
|
-
"description": "Integra capacità di comprensione delle immagini, trasferimento di conoscenze, attribuzione logica, ecc., e si distingue nel campo delle domande e risposte basate su testo e immagini."
|
1639
|
-
},
|
1640
1646
|
"taichu_llm": {
|
1641
1647
|
"description": "Il modello linguistico Taichu di Zīdōng ha una straordinaria capacità di comprensione del linguaggio e abilità in creazione di testi, domande di conoscenza, programmazione, calcoli matematici, ragionamento logico, analisi del sentimento e sintesi di testi. Combina in modo innovativo il pre-addestramento su grandi dati con una ricca conoscenza multi-sorgente, affinando continuamente la tecnologia degli algoritmi e assorbendo costantemente nuove conoscenze da dati testuali massivi, migliorando continuamente le prestazioni del modello. Fornisce agli utenti informazioni e servizi più convenienti e un'esperienza più intelligente."
|
1642
1648
|
},
|
1649
|
+
"taichu_vl": {
|
1650
|
+
"description": "Integra capacità di comprensione delle immagini, trasferimento di conoscenze e attribuzione logica, mostrando prestazioni eccezionali nel campo delle domande e risposte basate su testo e immagini."
|
1651
|
+
},
|
1643
1652
|
"text-embedding-3-large": {
|
1644
1653
|
"description": "Il modello di vettorizzazione più potente, adatto per compiti in inglese e non inglese."
|
1645
1654
|
},
|
@@ -134,6 +134,22 @@
|
|
134
134
|
"plugin": "Esecuzione del plugin in corso..."
|
135
135
|
},
|
136
136
|
"pluginList": "Elenco dei plugin",
|
137
|
+
"search": {
|
138
|
+
"config": {
|
139
|
+
"addKey": "Aggiungi chiave",
|
140
|
+
"close": "Rimuovi",
|
141
|
+
"confirm": "Configurazione completata, riprovare"
|
142
|
+
},
|
143
|
+
"searchxng": {
|
144
|
+
"baseURL": "Inserisci",
|
145
|
+
"description": "Inserisci l'URL di SearchXNG per iniziare la ricerca online",
|
146
|
+
"keyPlaceholder": "Inserisci chiave",
|
147
|
+
"title": "Configura il motore di ricerca SearchXNG",
|
148
|
+
"unconfiguredDesc": "Contatta l'amministratore per completare la configurazione del motore di ricerca SearchXNG e iniziare la ricerca online",
|
149
|
+
"unconfiguredTitle": "Motore di ricerca SearchXNG non configurato"
|
150
|
+
},
|
151
|
+
"title": "Ricerca online"
|
152
|
+
},
|
137
153
|
"setting": "Impostazioni del plugin",
|
138
154
|
"settings": {
|
139
155
|
"indexUrl": {
|
package/locales/it-IT/tool.json
CHANGED
@@ -6,5 +6,23 @@
|
|
6
6
|
"generating": "Generazione in corso...",
|
7
7
|
"images": "Immagini:",
|
8
8
|
"prompt": "parola chiave"
|
9
|
+
},
|
10
|
+
"search": {
|
11
|
+
"createNewSearch": "Crea una nuova registrazione di ricerca",
|
12
|
+
"emptyResult": "Nessun risultato trovato, per favore modifica le parole chiave e riprova",
|
13
|
+
"genAiMessage": "Crea messaggio assistente",
|
14
|
+
"includedTooltip": "I risultati della ricerca attuale entreranno nel contesto della conversazione",
|
15
|
+
"keywords": "Parole chiave:",
|
16
|
+
"scoreTooltip": "Punteggio di rilevanza, un punteggio più alto indica una maggiore pertinenza rispetto alle parole chiave di ricerca",
|
17
|
+
"searchBar": {
|
18
|
+
"button": "Cerca",
|
19
|
+
"placeholder": "Parole chiave",
|
20
|
+
"tooltip": "Ricaricherà i risultati di ricerca e creerà un nuovo messaggio di sintesi"
|
21
|
+
},
|
22
|
+
"searchEngine": "Motore di ricerca:",
|
23
|
+
"searchResult": "Numero di ricerche:",
|
24
|
+
"summary": "Riepilogo",
|
25
|
+
"summaryTooltip": "Riepiloga il contenuto attuale",
|
26
|
+
"viewMoreResults": "Visualizza altri {{results}} risultati"
|
9
27
|
}
|
10
28
|
}
|
@@ -170,9 +170,6 @@
|
|
170
170
|
"MiniMax-Text-01": {
|
171
171
|
"description": "MiniMax-01シリーズモデルでは、大胆な革新を行いました:初めて大規模に線形注意メカニズムを実現し、従来のTransformerアーキテクチャが唯一の選択肢ではなくなりました。このモデルのパラメータ数は4560億に達し、単回のアクティベーションは459億です。モデルの総合性能は海外のトップモデルに匹敵し、世界最長の400万トークンのコンテキストを効率的に処理でき、GPT-4oの32倍、Claude-3.5-Sonnetの20倍です。"
|
172
172
|
},
|
173
|
-
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
174
|
-
"description": "Hermes 2 Mixtral 8x7B DPOは非常に柔軟なマルチモデル統合で、卓越した創造的体験を提供することを目的としています。"
|
175
|
-
},
|
176
173
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
177
174
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)は、高精度の指示モデルであり、複雑な計算に適しています。"
|
178
175
|
},
|
@@ -323,6 +320,9 @@
|
|
323
320
|
"SenseChat-5": {
|
324
321
|
"description": "最新バージョンのモデル (V5.5)、128Kのコンテキスト長で、数学的推論、英語の対話、指示のフォロー、長文理解などの分野での能力が大幅に向上し、GPT-4oに匹敵します。"
|
325
322
|
},
|
323
|
+
"SenseChat-5-1202": {
|
324
|
+
"description": "V5.5に基づく最新バージョンで、前のバージョンに比べて中国語と英語の基本能力、チャット、理系知識、人文系知識、ライティング、数理論理、文字数制御などのいくつかの次元でのパフォーマンスが大幅に向上しています。"
|
325
|
+
},
|
326
326
|
"SenseChat-5-Cantonese": {
|
327
327
|
"description": "32Kのコンテキスト長で、広東語の対話理解においてGPT-4を超え、知識、推論、数学、コード作成などの複数の分野でGPT-4 Turboに匹敵します。"
|
328
328
|
},
|
@@ -335,6 +335,12 @@
|
|
335
335
|
"SenseChat-Turbo": {
|
336
336
|
"description": "迅速な質問応答やモデルの微調整シーンに適しています。"
|
337
337
|
},
|
338
|
+
"SenseChat-Turbo-1202": {
|
339
|
+
"description": "最新の軽量バージョンモデルで、フルモデルの90%以上の能力を達成し、推論コストを大幅に削減しています。"
|
340
|
+
},
|
341
|
+
"SenseChat-Vision": {
|
342
|
+
"description": "最新バージョンモデル (V5.5) で、複数の画像入力をサポートし、モデルの基本能力の最適化を全面的に実現し、オブジェクト属性認識、空間関係、動作イベント認識、シーン理解、感情認識、論理常識推論、テキスト理解生成において大幅な向上を実現しました。"
|
343
|
+
},
|
338
344
|
"Skylark2-lite-8k": {
|
339
345
|
"description": "雲雀(Skylark)第2世代モデル、Skylark2-liteモデルは高い応答速度を持ち、リアルタイム性が求められ、コストに敏感で、モデルの精度要求がそれほど高くないシーンに適しています。コンテキストウィンドウ長は8kです。"
|
340
346
|
},
|
@@ -1019,6 +1025,12 @@
|
|
1019
1025
|
"hunyuan-standard-vision": {
|
1020
1026
|
"description": "混元最新のマルチモーダルモデルで、多言語での応答をサポートし、中英文能力が均衡している。"
|
1021
1027
|
},
|
1028
|
+
"hunyuan-translation": {
|
1029
|
+
"description": "中国語、英語、日本語、フランス語、ポルトガル語、スペイン語、トルコ語、ロシア語、アラビア語、韓国語、イタリア語、ドイツ語、ベトナム語、マレー語、インドネシア語の15言語の相互翻訳をサポートし、多シーン翻訳評価セットに基づく自動評価COMETスコアを使用して、十数の一般的な言語間の翻訳能力が市場の同規模モデルを全体的に上回っています。"
|
1030
|
+
},
|
1031
|
+
"hunyuan-translation-lite": {
|
1032
|
+
"description": "混元翻訳モデルは自然言語の対話式翻訳をサポートし、中国語、英語、日本語、フランス語、ポルトガル語、スペイン語、トルコ語、ロシア語、アラビア語、韓国語、イタリア語、ドイツ語、ベトナム語、マレー語、インドネシア語の15言語の相互翻訳をサポートしています。"
|
1033
|
+
},
|
1022
1034
|
"hunyuan-turbo": {
|
1023
1035
|
"description": "混元の新世代大規模言語モデルのプレビュー版で、全く新しい混合専門家モデル(MoE)構造を採用し、hunyuan-proに比べて推論効率が向上し、パフォーマンスも強化されています。"
|
1024
1036
|
},
|
@@ -1220,9 +1232,6 @@
|
|
1220
1232
|
"meta-llama/llama-3-8b-instruct": {
|
1221
1233
|
"description": "Llama 3 8B Instructは高品質な対話シーンに最適化されており、多くのクローズドソースモデルよりも優れた性能を持っています。"
|
1222
1234
|
},
|
1223
|
-
"meta-llama/llama-3.1-405b-instruct": {
|
1224
|
-
"description": "Llama 3.1 405B InstructはMetaが最新にリリースしたバージョンで、高品質な対話生成に最適化されており、多くのリーダーのクローズドソースモデルを超えています。"
|
1225
|
-
},
|
1226
1235
|
"meta-llama/llama-3.1-70b-instruct": {
|
1227
1236
|
"description": "Llama 3.1 70B Instructは高品質な対話のために設計されており、人間の評価において優れたパフォーマンスを示し、高いインタラクションシーンに特に適しています。"
|
1228
1237
|
},
|
@@ -1286,9 +1295,6 @@
|
|
1286
1295
|
"microsoft/WizardLM-2-8x22B": {
|
1287
1296
|
"description": "WizardLM 2はMicrosoft AIが提供する言語モデルで、複雑な対話、多言語、推論、インテリジェントアシスタントの分野で特に優れた性能を発揮します。"
|
1288
1297
|
},
|
1289
|
-
"microsoft/wizardlm 2-7b": {
|
1290
|
-
"description": "WizardLM 2 7BはMicrosoft AIの最新の高速軽量モデルで、既存のオープンソースリーダーモデルの10倍に近い性能を持っています。"
|
1291
|
-
},
|
1292
1298
|
"microsoft/wizardlm-2-8x22b": {
|
1293
1299
|
"description": "WizardLM-2 8x22Bは、Microsoftの最先端AI Wizardモデルであり、非常に競争力のあるパフォーマンスを示しています。"
|
1294
1300
|
},
|
@@ -1580,11 +1586,11 @@
|
|
1580
1586
|
"qwq-32b-preview": {
|
1581
1587
|
"description": "QwQモデルはQwenチームによって開発された実験的な研究モデルで、AIの推論能力を強化することに焦点を当てています。"
|
1582
1588
|
},
|
1583
|
-
"solar-
|
1589
|
+
"solar-mini": {
|
1584
1590
|
"description": "Solar MiniはコンパクトなLLMで、GPT-3.5を上回る性能を持ち、強力な多言語能力を備え、英語と韓国語をサポートし、高効率でコンパクトなソリューションを提供します。"
|
1585
1591
|
},
|
1586
|
-
"solar-
|
1587
|
-
"description": "Solar Mini (Ja)はSolar Mini
|
1592
|
+
"solar-mini-ja": {
|
1593
|
+
"description": "Solar Mini (Ja) はSolar Miniの能力を拡張し、日本語に特化しながら、英語と韓国語の使用においても高効率で卓越した性能を維持しています。"
|
1588
1594
|
},
|
1589
1595
|
"solar-pro": {
|
1590
1596
|
"description": "Solar ProはUpstageが発表した高インテリジェンスLLMで、単一GPUの指示追従能力に特化しており、IFEvalスコアは80以上です。現在は英語をサポートしており、正式版は2024年11月にリリース予定で、言語サポートとコンテキスト長を拡張します。"
|
@@ -1619,6 +1625,9 @@
|
|
1619
1625
|
"step-1.5v-mini": {
|
1620
1626
|
"description": "このモデルは、強力なビデオ理解能力を備えています。"
|
1621
1627
|
},
|
1628
|
+
"step-1o-turbo-vision": {
|
1629
|
+
"description": "このモデルは強力な画像理解能力を持ち、数理、コード分野で1oより優れています。モデルは1oよりも小さく、出力速度が速くなっています。"
|
1630
|
+
},
|
1622
1631
|
"step-1o-vision-32k": {
|
1623
1632
|
"description": "このモデルは強力な画像理解能力を持っています。step-1vシリーズモデルと比較して、より優れた視覚性能を発揮します。"
|
1624
1633
|
},
|
@@ -1634,12 +1643,12 @@
|
|
1634
1643
|
"step-2-mini": {
|
1635
1644
|
"description": "新世代の自社開発のAttentionアーキテクチャMFAに基づく超高速大モデルで、非常に低コストでstep1と同様の効果を達成しつつ、より高いスループットと迅速な応答遅延を維持しています。一般的なタスクを処理でき、コード能力において特長を持っています。"
|
1636
1645
|
},
|
1637
|
-
"taichu2_mm": {
|
1638
|
-
"description": "画像理解、知識移転、論理帰納などの能力を融合し、画像とテキストの質問応答分野で優れたパフォーマンスを発揮します。"
|
1639
|
-
},
|
1640
1646
|
"taichu_llm": {
|
1641
1647
|
"description": "紫東太初言語大モデルは、強力な言語理解能力とテキスト創作、知識問答、コードプログラミング、数学計算、論理推論、感情分析、テキスト要約などの能力を備えています。革新的に大データの事前学習と多源の豊富な知識を組み合わせ、アルゴリズム技術を継続的に磨き、膨大なテキストデータから語彙、構造、文法、意味などの新しい知識を吸収し、モデルの効果を進化させています。ユーザーにより便利な情報とサービス、よりインテリジェントな体験を提供します。"
|
1642
1648
|
},
|
1649
|
+
"taichu_vl": {
|
1650
|
+
"description": "画像理解、知識移転、論理帰納などの能力を融合し、画像とテキストの質問応答分野で優れたパフォーマンスを発揮します。"
|
1651
|
+
},
|
1643
1652
|
"text-embedding-3-large": {
|
1644
1653
|
"description": "最も強力なベクトル化モデル、英語および非英語のタスクに適しています"
|
1645
1654
|
},
|
@@ -134,6 +134,22 @@
|
|
134
134
|
"plugin": "プラグインの実行中..."
|
135
135
|
},
|
136
136
|
"pluginList": "プラグインリスト",
|
137
|
+
"search": {
|
138
|
+
"config": {
|
139
|
+
"addKey": "キーを追加",
|
140
|
+
"close": "削除",
|
141
|
+
"confirm": "設定が完了し、再試行しました"
|
142
|
+
},
|
143
|
+
"searchxng": {
|
144
|
+
"baseURL": "入力してください",
|
145
|
+
"description": "SearchXNG の URL を入力すると、ネット検索を開始できます",
|
146
|
+
"keyPlaceholder": "キーを入力してください",
|
147
|
+
"title": "SearchXNG 検索エンジンの設定",
|
148
|
+
"unconfiguredDesc": "ネット検索を開始するには、管理者に連絡して SearchXNG 検索エンジンの設定を完了してください",
|
149
|
+
"unconfiguredTitle": "SearchXNG 検索エンジンはまだ設定されていません"
|
150
|
+
},
|
151
|
+
"title": "ネット検索"
|
152
|
+
},
|
137
153
|
"setting": "プラグインの設定",
|
138
154
|
"settings": {
|
139
155
|
"indexUrl": {
|
package/locales/ja-JP/tool.json
CHANGED
@@ -6,5 +6,23 @@
|
|
6
6
|
"generating": "生成中...",
|
7
7
|
"images": "画像:",
|
8
8
|
"prompt": "プロンプト"
|
9
|
+
},
|
10
|
+
"search": {
|
11
|
+
"createNewSearch": "新しい検索記録を作成",
|
12
|
+
"emptyResult": "結果が見つかりませんでした。キーワードを変更して再試行してください",
|
13
|
+
"genAiMessage": "アシスタントメッセージを作成",
|
14
|
+
"includedTooltip": "現在の検索結果は会話の文脈に含まれます",
|
15
|
+
"keywords": "キーワード:",
|
16
|
+
"scoreTooltip": "関連性スコア。このスコアが高いほど、クエリキーワードとの関連性が高くなります",
|
17
|
+
"searchBar": {
|
18
|
+
"button": "検索",
|
19
|
+
"placeholder": "キーワード",
|
20
|
+
"tooltip": "検索結果を再取得し、新しい要約メッセージを作成します"
|
21
|
+
},
|
22
|
+
"searchEngine": "検索エンジン:",
|
23
|
+
"searchResult": "検索結果の数:",
|
24
|
+
"summary": "要約",
|
25
|
+
"summaryTooltip": "現在の内容を要約",
|
26
|
+
"viewMoreResults": "さらに {{results}} 件の結果を見る"
|
9
27
|
}
|
10
28
|
}
|
@@ -170,9 +170,6 @@
|
|
170
170
|
"MiniMax-Text-01": {
|
171
171
|
"description": "MiniMax-01 시리즈 모델에서는 대담한 혁신을 이루었습니다: 대규모로 선형 주의 메커니즘을 처음으로 구현하였으며, 전통적인 Transformer 아키텍처가 더 이상 유일한 선택이 아닙니다. 이 모델의 파라미터 수는 4560억에 달하며, 단일 활성화는 45.9억입니다. 모델의 종합 성능은 해외 최고의 모델과 견줄 수 있으며, 전 세계에서 가장 긴 400만 토큰의 문맥을 효율적으로 처리할 수 있습니다. 이는 GPT-4o의 32배, Claude-3.5-Sonnet의 20배에 해당합니다."
|
172
172
|
},
|
173
|
-
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
174
|
-
"description": "Hermes 2 Mixtral 8x7B DPO는 뛰어난 창의적 경험을 제공하기 위해 설계된 고도로 유연한 다중 모델 통합입니다."
|
175
|
-
},
|
176
173
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
177
174
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)는 고정밀 지시 모델로, 복잡한 계산에 적합합니다."
|
178
175
|
},
|
@@ -323,6 +320,9 @@
|
|
323
320
|
"SenseChat-5": {
|
324
321
|
"description": "최신 버전 모델(V5.5), 128K 컨텍스트 길이, 수학적 추론, 영어 대화, 지시 따르기 및 긴 텍스트 이해 등 분야에서 능력이 크게 향상되어 GPT-4o와 견줄 수 있습니다."
|
325
322
|
},
|
323
|
+
"SenseChat-5-1202": {
|
324
|
+
"description": "V5.5를 기반으로 한 최신 버전으로, 이전 버전보다 중영 기본 능력, 채팅, 이과 지식, 인문 지식, 작문, 수리 논리, 글자 수 조절 등 여러 측면에서 성능이 크게 향상되었습니다."
|
325
|
+
},
|
326
326
|
"SenseChat-5-Cantonese": {
|
327
327
|
"description": "32K 컨텍스트 길이, 광둥어 대화 이해에서 GPT-4를 초월하며, 지식, 추론, 수학 및 코드 작성 등 여러 분야에서 GPT-4 Turbo와 견줄 수 있습니다."
|
328
328
|
},
|
@@ -335,6 +335,12 @@
|
|
335
335
|
"SenseChat-Turbo": {
|
336
336
|
"description": "빠른 질문 응답 및 모델 미세 조정 시나리오에 적합합니다."
|
337
337
|
},
|
338
|
+
"SenseChat-Turbo-1202": {
|
339
|
+
"description": "최신 경량 버전 모델로, 전체 모델의 90% 이상의 능력을 달성하며, 추론 비용을 크게 줄였습니다."
|
340
|
+
},
|
341
|
+
"SenseChat-Vision": {
|
342
|
+
"description": "최신 버전 모델(V5.5)로, 다중 이미지 입력을 지원하며, 모델의 기본 능력 최적화를 전면적으로 구현하여 객체 속성 인식, 공간 관계, 동작 사건 인식, 장면 이해, 감정 인식, 논리 상식 추론 및 텍스트 이해 생성에서 큰 향상을 이루었습니다."
|
343
|
+
},
|
338
344
|
"Skylark2-lite-8k": {
|
339
345
|
"description": "구름제비(Skylark) 2세대 모델로, Skylark2-lite 모델은 높은 응답 속도를 자랑하며, 실시간 요구가 높은, 비용에 민감하고, 모델 정확도에 대한 요구가 낮은 장면에 적합하며, 컨텍스트 윈도우 길이는 8k입니다."
|
340
346
|
},
|
@@ -1019,6 +1025,12 @@
|
|
1019
1025
|
"hunyuan-standard-vision": {
|
1020
1026
|
"description": "혼원 최신 다중 모달 모델, 다국어 응답 지원, 중문 및 영문 능력이 균형 잡혀 있습니다."
|
1021
1027
|
},
|
1028
|
+
"hunyuan-translation": {
|
1029
|
+
"description": "중국어, 영어, 일본어, 프랑스어, 포르투갈어, 스페인어, 터키어, 러시아어, 아랍어, 한국어, 이탈리아어, 독일어, 베트남어, 말레이어, 인도네시아어 등 15개 언어 간의 상호 번역을 지원하며, 다중 시나리오 번역 평가 집합을 기반으로 한 자동화 평가 COMET 점수를 통해, 10여 개의 일반 언어에서의 상호 번역 능력이 시장의 동급 모델보다 전반적으로 우수합니다."
|
1030
|
+
},
|
1031
|
+
"hunyuan-translation-lite": {
|
1032
|
+
"description": "혼원 번역 모델은 자연어 대화식 번역을 지원하며, 중국어, 영어, 일본어, 프랑스어, 포르투갈어, 스페인어, 터키어, 러시아어, 아랍어, 한국어, 이탈리아어, 독일어, 베트남어, 말레이어, 인도네시아어 등 15개 언어 간의 상호 번역을 지원합니다."
|
1033
|
+
},
|
1022
1034
|
"hunyuan-turbo": {
|
1023
1035
|
"description": "혼원 최신 세대 대형 언어 모델의 미리보기 버전으로, 새로운 혼합 전문가 모델(MoE) 구조를 채택하여 hunyuan-pro보다 추론 효율이 더 빠르고 성능이 더 뛰어납니다."
|
1024
1036
|
},
|
@@ -1220,9 +1232,6 @@
|
|
1220
1232
|
"meta-llama/llama-3-8b-instruct": {
|
1221
1233
|
"description": "Llama 3 8B Instruct는 고품질 대화 시나리오에 최적화되어 있으며, 많은 폐쇄형 모델보다 우수한 성능을 보입니다."
|
1222
1234
|
},
|
1223
|
-
"meta-llama/llama-3.1-405b-instruct": {
|
1224
|
-
"description": "Llama 3.1 405B Instruct는 Meta에서 새롭게 출시한 버전으로, 고품질 대화 생성을 위해 최적화되어 있으며, 많은 선도적인 폐쇄형 모델을 초월합니다."
|
1225
|
-
},
|
1226
1235
|
"meta-llama/llama-3.1-70b-instruct": {
|
1227
1236
|
"description": "Llama 3.1 70B Instruct는 고품질 대화를 위해 설계되었으며, 인간 평가에서 뛰어난 성능을 보여주고, 특히 높은 상호작용 시나리오에 적합합니다."
|
1228
1237
|
},
|
@@ -1286,9 +1295,6 @@
|
|
1286
1295
|
"microsoft/WizardLM-2-8x22B": {
|
1287
1296
|
"description": "WizardLM 2는 Microsoft AI가 제공하는 언어 모델로, 복잡한 대화, 다국어, 추론 및 스마트 어시스턴트 분야에서 특히 뛰어난 성능을 보입니다."
|
1288
1297
|
},
|
1289
|
-
"microsoft/wizardlm 2-7b": {
|
1290
|
-
"description": "WizardLM 2 7B는 Microsoft AI의 최신 경량 모델로, 기존 오픈 소스 선도 모델의 성능에 근접합니다."
|
1291
|
-
},
|
1292
1298
|
"microsoft/wizardlm-2-8x22b": {
|
1293
1299
|
"description": "WizardLM-2 8x22B는 마이크로소프트 AI의 최첨단 Wizard 모델로, 매우 경쟁력 있는 성능을 보여줍니다."
|
1294
1300
|
},
|
@@ -1580,11 +1586,11 @@
|
|
1580
1586
|
"qwq-32b-preview": {
|
1581
1587
|
"description": "QwQ 모델은 Qwen 팀이 개발한 실험적 연구 모델로, AI 추론 능력을 향상시키는 데 중점을 두고 있습니다."
|
1582
1588
|
},
|
1583
|
-
"solar-
|
1584
|
-
"description": "Solar Mini는 컴팩트한 LLM으로, GPT-3.5보다 성능이 우수하며, 강력한 다국어 능력을 갖추고 있어 영어와 한국어를 지원하며, 효율적이고
|
1589
|
+
"solar-mini": {
|
1590
|
+
"description": "Solar Mini는 컴팩트한 LLM으로, GPT-3.5보다 성능이 우수하며, 강력한 다국어 능력을 갖추고 있어 영어와 한국어를 지원하며, 효율적이고 소형의 솔루션을 제공합니다."
|
1585
1591
|
},
|
1586
|
-
"solar-
|
1587
|
-
"description": "Solar Mini (Ja)는 Solar Mini의 능력을 확장하여 일본어에
|
1592
|
+
"solar-mini-ja": {
|
1593
|
+
"description": "Solar Mini (Ja)는 Solar Mini의 능력을 확장하여 일본어에 집중하며, 영어와 한국어 사용에서도 효율적이고 뛰어난 성능을 유지합니다."
|
1588
1594
|
},
|
1589
1595
|
"solar-pro": {
|
1590
1596
|
"description": "Solar Pro는 Upstage에서 출시한 고지능 LLM으로, 단일 GPU의 지시 추적 능력에 중점을 두고 있으며, IFEval 점수가 80 이상입니다. 현재 영어를 지원하며, 정식 버전은 2024년 11월에 출시될 예정이며, 언어 지원 및 컨텍스트 길이를 확장할 계획입니다."
|
@@ -1619,6 +1625,9 @@
|
|
1619
1625
|
"step-1.5v-mini": {
|
1620
1626
|
"description": "이 모델은 강력한 비디오 이해 능력을 가지고 있습니다."
|
1621
1627
|
},
|
1628
|
+
"step-1o-turbo-vision": {
|
1629
|
+
"description": "이 모델은 강력한 이미지 이해 능력을 가지고 있으며, 수리 및 코드 분야에서 1o보다 우수합니다. 모델은 1o보다 더 작고, 출력 속도가 더 빠릅니다."
|
1630
|
+
},
|
1622
1631
|
"step-1o-vision-32k": {
|
1623
1632
|
"description": "이 모델은 강력한 이미지 이해 능력을 가지고 있습니다. step-1v 시리즈 모델에 비해 더 강력한 시각 성능을 자랑합니다."
|
1624
1633
|
},
|
@@ -1634,12 +1643,12 @@
|
|
1634
1643
|
"step-2-mini": {
|
1635
1644
|
"description": "신세대 자체 개발 Attention 아키텍처인 MFA를 기반으로 한 초고속 대형 모델로, 매우 낮은 비용으로 step1과 유사한 효과를 달성하면서도 더 높은 처리량과 더 빠른 응답 지연을 유지합니다. 일반적인 작업을 처리할 수 있으며, 코드 능력에 있어 특장점을 가지고 있습니다."
|
1636
1645
|
},
|
1637
|
-
"taichu2_mm": {
|
1638
|
-
"description": "이미지 이해, 지식 이전, 논리 귀속 등의 능력을 통합하여, 이미지-텍스트 질문 응답 분야에서 뛰어난 성능을 보입니다."
|
1639
|
-
},
|
1640
1646
|
"taichu_llm": {
|
1641
1647
|
"description": "자이동 태초 언어 대모델은 뛰어난 언어 이해 능력과 텍스트 창작, 지식 질문 응답, 코드 프로그래밍, 수학 계산, 논리 추론, 감정 분석, 텍스트 요약 등의 능력을 갖추고 있습니다. 혁신적으로 대규모 데이터 사전 훈련과 다원적 풍부한 지식을 결합하여 알고리즘 기술을 지속적으로 다듬고, 방대한 텍스트 데이터에서 어휘, 구조, 문법, 의미 등의 새로운 지식을 지속적으로 흡수하여 모델 성능을 지속적으로 진화시킵니다. 사용자에게 보다 편리한 정보와 서비스, 그리고 더 지능적인 경험을 제공합니다."
|
1642
1648
|
},
|
1649
|
+
"taichu_vl": {
|
1650
|
+
"description": "이미지 이해, 지식 이전, 논리 귀속 등의 능력을 통합하여, 이미지-텍스트 질문 응답 분야에서 뛰어난 성능을 보입니다."
|
1651
|
+
},
|
1643
1652
|
"text-embedding-3-large": {
|
1644
1653
|
"description": "가장 강력한 벡터화 모델로, 영어 및 비영어 작업에 적합합니다."
|
1645
1654
|
},
|
@@ -134,6 +134,22 @@
|
|
134
134
|
"plugin": "플러그인 실행 중..."
|
135
135
|
},
|
136
136
|
"pluginList": "플러그인 목록",
|
137
|
+
"search": {
|
138
|
+
"config": {
|
139
|
+
"addKey": "키 추가",
|
140
|
+
"close": "삭제",
|
141
|
+
"confirm": "구성이 완료되었습니다. 다시 시도하십시오."
|
142
|
+
},
|
143
|
+
"searchxng": {
|
144
|
+
"baseURL": "입력하십시오",
|
145
|
+
"description": "SearchXNG의 URL을 입력하면 인터넷 검색을 시작할 수 있습니다.",
|
146
|
+
"keyPlaceholder": "키를 입력하십시오",
|
147
|
+
"title": "SearchXNG 검색 엔진 구성",
|
148
|
+
"unconfiguredDesc": "관리자에게 연락하여 SearchXNG 검색 엔진 구성을 완료하십시오. 인터넷 검색을 시작할 수 있습니다.",
|
149
|
+
"unconfiguredTitle": "SearchXNG 검색 엔진이 아직 구성되지 않았습니다."
|
150
|
+
},
|
151
|
+
"title": "인터넷 검색"
|
152
|
+
},
|
137
153
|
"setting": "플러그인 설정",
|
138
154
|
"settings": {
|
139
155
|
"indexUrl": {
|
package/locales/ko-KR/tool.json
CHANGED
@@ -6,5 +6,23 @@
|
|
6
6
|
"generating": "생성 중...",
|
7
7
|
"images": "이미지:",
|
8
8
|
"prompt": "알림 단어"
|
9
|
+
},
|
10
|
+
"search": {
|
11
|
+
"createNewSearch": "새 검색 기록 만들기",
|
12
|
+
"emptyResult": "결과를 찾을 수 없습니다. 키워드를 수정한 후 다시 시도해 주세요.",
|
13
|
+
"genAiMessage": "도움말 메시지 생성",
|
14
|
+
"includedTooltip": "현재 검색 결과는 대화의 맥락에 포함됩니다.",
|
15
|
+
"keywords": "키워드:",
|
16
|
+
"scoreTooltip": "관련성 점수, 이 점수가 높을수록 쿼리 키워드와 더 관련이 있습니다.",
|
17
|
+
"searchBar": {
|
18
|
+
"button": "검색",
|
19
|
+
"placeholder": "키워드",
|
20
|
+
"tooltip": "검색 결과를 다시 가져오고 새로운 요약 메시지를 생성합니다."
|
21
|
+
},
|
22
|
+
"searchEngine": "검색 엔진:",
|
23
|
+
"searchResult": "검색 수:",
|
24
|
+
"summary": "요약",
|
25
|
+
"summaryTooltip": "현재 내용 요약",
|
26
|
+
"viewMoreResults": "{{results}}개의 결과 더 보기"
|
9
27
|
}
|
10
28
|
}
|