@lobehub/chat 1.63.3 → 1.64.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/models.json +25 -16
- package/locales/ar/plugin.json +16 -0
- package/locales/ar/portal.json +0 -5
- package/locales/ar/tool.json +18 -0
- package/locales/bg-BG/models.json +25 -16
- package/locales/bg-BG/plugin.json +16 -0
- package/locales/bg-BG/portal.json +0 -5
- package/locales/bg-BG/tool.json +18 -0
- package/locales/de-DE/models.json +25 -16
- package/locales/de-DE/plugin.json +16 -0
- package/locales/de-DE/portal.json +0 -5
- package/locales/de-DE/tool.json +18 -0
- package/locales/en-US/models.json +24 -15
- package/locales/en-US/plugin.json +16 -0
- package/locales/en-US/portal.json +0 -5
- package/locales/en-US/tool.json +18 -0
- package/locales/es-ES/models.json +25 -16
- package/locales/es-ES/plugin.json +16 -0
- package/locales/es-ES/portal.json +0 -5
- package/locales/es-ES/tool.json +18 -0
- package/locales/fa-IR/models.json +25 -16
- package/locales/fa-IR/plugin.json +16 -0
- package/locales/fa-IR/portal.json +0 -5
- package/locales/fa-IR/tool.json +18 -0
- package/locales/fr-FR/models.json +25 -16
- package/locales/fr-FR/plugin.json +16 -0
- package/locales/fr-FR/portal.json +0 -5
- package/locales/fr-FR/tool.json +18 -0
- package/locales/it-IT/models.json +25 -16
- package/locales/it-IT/plugin.json +16 -0
- package/locales/it-IT/portal.json +0 -5
- package/locales/it-IT/tool.json +18 -0
- package/locales/ja-JP/models.json +24 -15
- package/locales/ja-JP/plugin.json +16 -0
- package/locales/ja-JP/portal.json +0 -5
- package/locales/ja-JP/tool.json +18 -0
- package/locales/ko-KR/models.json +25 -16
- package/locales/ko-KR/plugin.json +16 -0
- package/locales/ko-KR/portal.json +0 -5
- package/locales/ko-KR/tool.json +18 -0
- package/locales/nl-NL/models.json +25 -16
- package/locales/nl-NL/plugin.json +16 -0
- package/locales/nl-NL/portal.json +0 -5
- package/locales/nl-NL/tool.json +18 -0
- package/locales/pl-PL/models.json +25 -16
- package/locales/pl-PL/plugin.json +16 -0
- package/locales/pl-PL/portal.json +0 -5
- package/locales/pl-PL/tool.json +18 -0
- package/locales/pt-BR/models.json +24 -15
- package/locales/pt-BR/plugin.json +16 -0
- package/locales/pt-BR/portal.json +0 -5
- package/locales/pt-BR/tool.json +18 -0
- package/locales/ru-RU/models.json +25 -16
- package/locales/ru-RU/plugin.json +16 -0
- package/locales/ru-RU/portal.json +0 -5
- package/locales/ru-RU/tool.json +18 -0
- package/locales/tr-TR/models.json +25 -16
- package/locales/tr-TR/plugin.json +16 -0
- package/locales/tr-TR/portal.json +0 -5
- package/locales/tr-TR/tool.json +18 -0
- package/locales/vi-VN/models.json +24 -15
- package/locales/vi-VN/plugin.json +16 -0
- package/locales/vi-VN/portal.json +0 -5
- package/locales/vi-VN/tool.json +18 -0
- package/locales/zh-CN/models.json +30 -21
- package/locales/zh-CN/plugin.json +16 -0
- package/locales/zh-CN/portal.json +1 -6
- package/locales/zh-CN/tool.json +19 -1
- package/locales/zh-TW/models.json +23 -14
- package/locales/zh-TW/plugin.json +16 -0
- package/locales/zh-TW/portal.json +0 -5
- package/locales/zh-TW/tool.json +18 -0
- package/package.json +1 -1
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatInput/Mobile/index.tsx +1 -0
- package/src/app/[variants]/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/SearchTags.tsx +17 -0
- package/src/app/[variants]/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/Tags.tsx +8 -2
- package/src/config/tools.ts +16 -0
- package/src/features/ChatInput/ActionBar/Search/index.tsx +6 -15
- package/src/features/Conversation/Messages/Assistant/Tool/Inspector/ToolTitle.tsx +76 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Inspector/index.tsx +8 -21
- package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +62 -50
- package/src/features/PluginsUI/Render/BuiltinType/index.tsx +11 -1
- package/src/features/PluginsUI/Render/index.tsx +3 -0
- package/src/features/Portal/Plugins/Body/index.tsx +3 -7
- package/src/features/Portal/Plugins/Header.tsx +14 -2
- package/src/hooks/useAgentEnableSearch.ts +27 -0
- package/src/libs/trpc/client/index.ts +1 -0
- package/src/libs/trpc/client/tools.ts +20 -0
- package/src/locales/default/plugin.ts +16 -0
- package/src/locales/default/portal.ts +0 -5
- package/src/locales/default/tool.ts +18 -0
- package/src/server/modules/SearXNG.ts +33 -0
- package/src/server/routers/lambda/message.ts +11 -0
- package/src/server/routers/tools/__tests__/fixtures/searXNG.ts +668 -0
- package/src/server/routers/tools/__tests__/search.test.ts +47 -0
- package/src/server/routers/tools/index.ts +3 -0
- package/src/server/routers/tools/search.ts +38 -0
- package/src/services/__tests__/__snapshots__/chat.test.ts.snap +1 -0
- package/src/services/_auth.ts +4 -4
- package/src/services/chat.ts +31 -10
- package/src/services/message/_deprecated.ts +4 -0
- package/src/services/message/client.ts +4 -0
- package/src/services/message/server.ts +5 -5
- package/src/services/message/type.ts +2 -0
- package/src/services/search.ts +9 -0
- package/src/store/aiInfra/slices/aiModel/selectors.ts +12 -5
- package/src/store/chat/slices/builtinTool/action.ts +121 -0
- package/src/store/chat/slices/builtinTool/initialState.ts +2 -0
- package/src/store/chat/slices/builtinTool/selectors.ts +3 -0
- package/src/store/chat/slices/message/action.ts +11 -0
- package/src/store/chat/slices/plugin/action.test.ts +2 -2
- package/src/store/chat/slices/plugin/action.ts +2 -2
- package/src/store/tool/selectors/tool.ts +5 -12
- package/src/store/tool/slices/builtin/selectors.ts +1 -1
- package/src/store/user/slices/modelList/action.ts +6 -0
- package/src/store/user/slices/modelList/selectors/keyVaults.ts +1 -0
- package/src/tools/index.ts +7 -0
- package/src/tools/portals.ts +6 -1
- package/src/tools/renders.ts +3 -0
- package/src/{features/Portal/Plugins → tools/web-browsing/Portal}/Footer.tsx +13 -10
- package/src/tools/web-browsing/Portal/ResultList/SearchItem/CategoryAvatar.tsx +70 -0
- package/src/tools/web-browsing/Portal/ResultList/SearchItem/TitleExtra.tsx +38 -0
- package/src/tools/web-browsing/Portal/ResultList/SearchItem/Video.tsx +135 -0
- package/src/tools/web-browsing/Portal/ResultList/SearchItem/index.tsx +91 -0
- package/src/tools/web-browsing/Portal/ResultList/index.tsx +21 -0
- package/src/tools/web-browsing/Portal/index.tsx +65 -0
- package/src/tools/web-browsing/Render/ConfigForm/Form.tsx +110 -0
- package/src/tools/web-browsing/Render/ConfigForm/SearchXNGIcon.tsx +20 -0
- package/src/tools/web-browsing/Render/ConfigForm/index.tsx +67 -0
- package/src/tools/web-browsing/Render/ConfigForm/style.tsx +63 -0
- package/src/tools/web-browsing/Render/SearchQuery/SearchView.tsx +88 -0
- package/src/tools/web-browsing/Render/SearchQuery/index.tsx +61 -0
- package/src/tools/web-browsing/Render/SearchResult/SearchResultItem.tsx +72 -0
- package/src/tools/web-browsing/Render/SearchResult/ShowMore.tsx +68 -0
- package/src/tools/web-browsing/Render/SearchResult/index.tsx +105 -0
- package/src/tools/web-browsing/Render/index.tsx +57 -0
- package/src/tools/web-browsing/components/EngineAvatar.tsx +32 -0
- package/src/tools/web-browsing/components/SearchBar.tsx +134 -0
- package/src/tools/web-browsing/const.ts +11 -0
- package/src/tools/web-browsing/index.ts +102 -0
- package/src/types/message/chat.ts +1 -0
- package/src/types/message/tools.ts +10 -0
- package/src/types/tool/builtin.ts +2 -0
- package/src/types/tool/search.ts +38 -0
- package/src/types/user/settings/keyVaults.ts +8 -1
- package/src/utils/toolManifest.ts +20 -0
@@ -170,9 +170,6 @@
|
|
170
170
|
"MiniMax-Text-01": {
|
171
171
|
"description": "In de MiniMax-01-serie modellen hebben we gedurfde innovaties doorgevoerd: voor het eerst op grote schaal een lineaire aandachtmechanisme geïmplementeerd, waardoor de traditionele Transformer-architectuur niet langer de enige keuze is. Dit model heeft een parameterhoeveelheid van maar liefst 456 miljard, met een enkele activatie van 45,9 miljard. De algehele prestaties van het model zijn vergelijkbaar met die van de beste modellen in het buitenland, terwijl het efficiënt de wereldwijd langste context van 4 miljoen tokens kan verwerken, wat 32 keer de capaciteit van GPT-4o en 20 keer die van Claude-3.5-Sonnet is."
|
172
172
|
},
|
173
|
-
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
174
|
-
"description": "Hermes 2 Mixtral 8x7B DPO is een zeer flexibele multi-model combinatie, ontworpen om een uitstekende creatieve ervaring te bieden."
|
175
|
-
},
|
176
173
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
177
174
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) is een hoogprecisie instructiemodel, geschikt voor complexe berekeningen."
|
178
175
|
},
|
@@ -323,6 +320,9 @@
|
|
323
320
|
"SenseChat-5": {
|
324
321
|
"description": "De nieuwste versie van het model (V5.5), met een contextlengte van 128K, heeft aanzienlijke verbeteringen in wiskundig redeneren, Engelse conversatie, instructievolging en begrip van lange teksten, en kan zich meten met GPT-4o."
|
325
322
|
},
|
323
|
+
"SenseChat-5-1202": {
|
324
|
+
"description": "Dit is de nieuwste versie gebaseerd op V5.5, met significante verbeteringen in basisvaardigheden in het Chinees en Engels, chatten, exacte wetenschappen, geesteswetenschappen, schrijven, wiskundige logica en woordtelling in vergelijking met de vorige versie."
|
325
|
+
},
|
326
326
|
"SenseChat-5-Cantonese": {
|
327
327
|
"description": "Met een contextlengte van 32K overtreft het de conversatiebegrip in het Kantonees van GPT-4 en kan het zich in verschillende domeinen zoals kennis, redeneren, wiskunde en coderen meten met GPT-4 Turbo."
|
328
328
|
},
|
@@ -335,6 +335,12 @@
|
|
335
335
|
"SenseChat-Turbo": {
|
336
336
|
"description": "Geschikt voor snelle vraag-en-antwoord en modelafstemming."
|
337
337
|
},
|
338
|
+
"SenseChat-Turbo-1202": {
|
339
|
+
"description": "Dit is de nieuwste lichte versie van het model, die meer dan 90% van de capaciteiten van het volledige model bereikt en de kosten voor inferentie aanzienlijk verlaagt."
|
340
|
+
},
|
341
|
+
"SenseChat-Vision": {
|
342
|
+
"description": "De nieuwste versie van het model (V5.5) ondersteunt meerdere afbeeldingen als invoer en heeft aanzienlijke optimalisaties doorgevoerd in de basiscapaciteiten van het model, met verbeteringen in objecteigenschappenherkenning, ruimtelijke relaties, actie-evenementherkenning, scènebegrip, emotieherkenning, logische kennisredenering en tekstbegrip en -generatie."
|
343
|
+
},
|
338
344
|
"Skylark2-lite-8k": {
|
339
345
|
"description": "De tweede generatie Skylark (Skylark2) model, Skylark2-lite model heeft een hoge responssnelheid, geschikt voor scenario's met hoge realtimevereisten, kostenbewustzijn en lagere modelnauwkeurigheidsvereisten, met een contextvenster lengte van 8k."
|
340
346
|
},
|
@@ -1019,6 +1025,12 @@
|
|
1019
1025
|
"hunyuan-standard-vision": {
|
1020
1026
|
"description": "De nieuwste multimodale Hunyuan-model, ondersteunt meertalige antwoorden, met evenwichtige capaciteiten in het Chinees en het Engels."
|
1021
1027
|
},
|
1028
|
+
"hunyuan-translation": {
|
1029
|
+
"description": "Ondersteunt vertalingen tussen het Chinees en 15 andere talen, waaronder Engels, Japans, Frans, Portugees, Spaans, Turks, Russisch, Arabisch, Koreaans, Italiaans, Duits, Vietnamees, Maleis en Indonesisch. Gebaseerd op een geautomatiseerde evaluatie van de COMET-score met een meervoudige scenario-vertalingstestset, overtreft het in het algemeen de vertaalcapaciteiten van vergelijkbare modellen op de markt."
|
1030
|
+
},
|
1031
|
+
"hunyuan-translation-lite": {
|
1032
|
+
"description": "Het Hunyuan vertaalmodel ondersteunt natuurlijke taal conversatievertalingen; het ondersteunt vertalingen tussen het Chinees en 15 andere talen, waaronder Engels, Japans, Frans, Portugees, Spaans, Turks, Russisch, Arabisch, Koreaans, Italiaans, Duits, Vietnamees, Maleis en Indonesisch."
|
1033
|
+
},
|
1022
1034
|
"hunyuan-turbo": {
|
1023
1035
|
"description": "Een previewversie van het nieuwe generatie grote taalmodel van Hunyuan, met een nieuwe hybride expertmodel (MoE) structuur, die sneller inferentie-efficiëntie biedt en betere prestaties levert dan hunyan-pro."
|
1024
1036
|
},
|
@@ -1220,9 +1232,6 @@
|
|
1220
1232
|
"meta-llama/llama-3-8b-instruct": {
|
1221
1233
|
"description": "Llama 3 8B Instruct is geoptimaliseerd voor hoogwaardige gespreksscenario's en presteert beter dan veel gesloten modellen."
|
1222
1234
|
},
|
1223
|
-
"meta-llama/llama-3.1-405b-instruct": {
|
1224
|
-
"description": "Llama 3.1 405B Instruct is de nieuwste versie van Meta, geoptimaliseerd voor het genereren van hoogwaardige gesprekken en overtreft veel toonaangevende gesloten modellen."
|
1225
|
-
},
|
1226
1235
|
"meta-llama/llama-3.1-70b-instruct": {
|
1227
1236
|
"description": "Llama 3.1 70B Instruct is ontworpen voor hoogwaardige gesprekken en presteert uitstekend in menselijke evaluaties, vooral in interactieve scenario's."
|
1228
1237
|
},
|
@@ -1286,9 +1295,6 @@
|
|
1286
1295
|
"microsoft/WizardLM-2-8x22B": {
|
1287
1296
|
"description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe gesprekken, meertaligheid, redenering en intelligente assistenttoepassingen."
|
1288
1297
|
},
|
1289
|
-
"microsoft/wizardlm 2-7b": {
|
1290
|
-
"description": "WizardLM 2 7B is het nieuwste snelle en lichte model van Microsoft AI, met prestaties die bijna 10 keer beter zijn dan de huidige toonaangevende open-source modellen."
|
1291
|
-
},
|
1292
1298
|
"microsoft/wizardlm-2-8x22b": {
|
1293
1299
|
"description": "WizardLM-2 8x22B is het meest geavanceerde Wizard-model van Microsoft AI, met een uiterst competitieve prestatie."
|
1294
1300
|
},
|
@@ -1580,11 +1586,11 @@
|
|
1580
1586
|
"qwq-32b-preview": {
|
1581
1587
|
"description": "Het QwQ-model is een experimenteel onderzoeksmodel ontwikkeld door het Qwen-team, gericht op het verbeteren van de AI-redeneringscapaciteiten."
|
1582
1588
|
},
|
1583
|
-
"solar-
|
1584
|
-
"description": "Solar Mini is een
|
1589
|
+
"solar-mini": {
|
1590
|
+
"description": "Solar Mini is een compacte LLM die beter presteert dan GPT-3.5, met sterke meertalige capaciteiten, ondersteunt Engels en Koreaans, en biedt een efficiënte en compacte oplossing."
|
1585
1591
|
},
|
1586
|
-
"solar-
|
1587
|
-
"description": "Solar Mini (Ja) breidt de
|
1592
|
+
"solar-mini-ja": {
|
1593
|
+
"description": "Solar Mini (Ja) breidt de capaciteiten van Solar Mini uit, met een focus op het Japans, terwijl het efficiënt en uitstekend presteert in het gebruik van Engels en Koreaans."
|
1588
1594
|
},
|
1589
1595
|
"solar-pro": {
|
1590
1596
|
"description": "Solar Pro is een zeer intelligent LLM dat is uitgebracht door Upstage, gericht op instructievolging met één GPU, met een IFEval-score van boven de 80. Momenteel ondersteunt het Engels, met een officiële versie die gepland staat voor november 2024, die de taalondersteuning en contextlengte zal uitbreiden."
|
@@ -1619,6 +1625,9 @@
|
|
1619
1625
|
"step-1.5v-mini": {
|
1620
1626
|
"description": "Dit model heeft krachtige video begrip capaciteiten."
|
1621
1627
|
},
|
1628
|
+
"step-1o-turbo-vision": {
|
1629
|
+
"description": "Dit model heeft krachtige beeldbegripcapaciteiten en presteert beter dan 1o in wiskunde en codering. Het model is kleiner dan 1o en heeft een snellere uitvoersnelheid."
|
1630
|
+
},
|
1622
1631
|
"step-1o-vision-32k": {
|
1623
1632
|
"description": "Dit model heeft krachtige beeldbegripcapaciteiten. In vergelijking met de step-1v serie modellen heeft het een sterkere visuele prestatie."
|
1624
1633
|
},
|
@@ -1634,12 +1643,12 @@
|
|
1634
1643
|
"step-2-mini": {
|
1635
1644
|
"description": "Een razendsnel groot model gebaseerd op de nieuwe generatie zelfontwikkelde Attention-architectuur MFA, dat met zeer lage kosten vergelijkbare resultaten als step1 behaalt, terwijl het een hogere doorvoer en snellere responstijd behoudt. Het kan algemene taken verwerken en heeft speciale vaardigheden op het gebied van codering."
|
1636
1645
|
},
|
1637
|
-
"taichu2_mm": {
|
1638
|
-
"description": "Gecombineerd met beeldbegrip, kennisoverdracht en logische toerekening, excelleert het in het domein van vraag-en-antwoord met tekst en afbeeldingen."
|
1639
|
-
},
|
1640
1646
|
"taichu_llm": {
|
1641
1647
|
"description": "Het Zido Tai Chu-taalmodel heeft een sterke taalbegripcapaciteit en kan tekstcreatie, kennisvragen, codeprogrammering, wiskundige berekeningen, logische redenering, sentimentanalyse, tekstsamenvattingen en meer aan. Het combineert innovatief grote data voortraining met rijke kennis uit meerdere bronnen, door algoritmische technologie continu te verfijnen en voortdurend nieuwe kennis op te nemen uit enorme tekstdata op het gebied van vocabulaire, structuur, grammatica en semantiek, waardoor de modelprestaties voortdurend evolueren. Het biedt gebruikers gemakkelijkere informatie en diensten en een meer intelligente ervaring."
|
1642
1648
|
},
|
1649
|
+
"taichu_vl": {
|
1650
|
+
"description": "Integreert beeldbegrip, kennisoverdracht en logische toerekening, en presteert uitstekend in het domein van vraag-en-antwoord met tekst en afbeeldingen."
|
1651
|
+
},
|
1643
1652
|
"text-embedding-3-large": {
|
1644
1653
|
"description": "Het krachtigste vectorisatie model, geschikt voor Engelse en niet-Engelse taken."
|
1645
1654
|
},
|
@@ -134,6 +134,22 @@
|
|
134
134
|
"plugin": "Plugin wordt uitgevoerd..."
|
135
135
|
},
|
136
136
|
"pluginList": "Lijst met plugins",
|
137
|
+
"search": {
|
138
|
+
"config": {
|
139
|
+
"addKey": "Voeg sleutel toe",
|
140
|
+
"close": "Verwijderen",
|
141
|
+
"confirm": "Configuratie voltooid en opnieuw proberen"
|
142
|
+
},
|
143
|
+
"searchxng": {
|
144
|
+
"baseURL": "Voer in",
|
145
|
+
"description": "Voer de URL van SearchXNG in om te beginnen met online zoeken",
|
146
|
+
"keyPlaceholder": "Voer sleutel in",
|
147
|
+
"title": "Configureer SearchXNG zoekmachine",
|
148
|
+
"unconfiguredDesc": "Neem contact op met de beheerder om de configuratie van de SearchXNG zoekmachine te voltooien en te beginnen met online zoeken",
|
149
|
+
"unconfiguredTitle": "SearchXNG zoekmachine is nog niet geconfigureerd"
|
150
|
+
},
|
151
|
+
"title": "Online zoeken"
|
152
|
+
},
|
137
153
|
"setting": "Plugin-instellingen",
|
138
154
|
"settings": {
|
139
155
|
"indexUrl": {
|
package/locales/nl-NL/tool.json
CHANGED
@@ -6,5 +6,23 @@
|
|
6
6
|
"generating": "Bezig met genereren...",
|
7
7
|
"images": "Afbeeldingen:",
|
8
8
|
"prompt": "prompt"
|
9
|
+
},
|
10
|
+
"search": {
|
11
|
+
"createNewSearch": "Maak een nieuwe zoekopdracht",
|
12
|
+
"emptyResult": "Geen resultaten gevonden, pas alstublieft uw zoekwoorden aan en probeer het opnieuw",
|
13
|
+
"genAiMessage": "Maak assistentbericht",
|
14
|
+
"includedTooltip": "De huidige zoekresultaten worden opgenomen in de context van de sessie",
|
15
|
+
"keywords": "Zoekwoorden:",
|
16
|
+
"scoreTooltip": "Relevantie score, hoe hoger de score, hoe relevanter het is voor de zoekwoorden",
|
17
|
+
"searchBar": {
|
18
|
+
"button": "Zoeken",
|
19
|
+
"placeholder": "Zoekwoorden",
|
20
|
+
"tooltip": "De zoekresultaten worden opnieuw opgehaald en er wordt een nieuwe samenvattingsbericht aangemaakt"
|
21
|
+
},
|
22
|
+
"searchEngine": "Zoekmachine:",
|
23
|
+
"searchResult": "Aantal zoekresultaten:",
|
24
|
+
"summary": "Samenvatting",
|
25
|
+
"summaryTooltip": "Samenvatting van de huidige inhoud",
|
26
|
+
"viewMoreResults": "Bekijk meer {{results}} resultaten"
|
9
27
|
}
|
10
28
|
}
|
@@ -170,9 +170,6 @@
|
|
170
170
|
"MiniMax-Text-01": {
|
171
171
|
"description": "W serii modeli MiniMax-01 wprowadziliśmy odważne innowacje: po raz pierwszy na dużą skalę zrealizowano mechanizm liniowej uwagi, tradycyjna architektura Transformera nie jest już jedynym wyborem. Liczba parametrów tego modelu wynosi aż 456 miliardów, z aktywacją wynoszącą 45,9 miliarda. Ogólna wydajność modelu dorównuje najlepszym modelom zagranicznym, jednocześnie efektywnie przetwarzając kontekst o długości do 4 milionów tokenów, co stanowi 32 razy więcej niż GPT-4o i 20 razy więcej niż Claude-3.5-Sonnet."
|
172
172
|
},
|
173
|
-
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
174
|
-
"description": "Hermes 2 Mixtral 8x7B DPO to wysoce elastyczna fuzja wielu modeli, mająca na celu zapewnienie doskonałego doświadczenia twórczego."
|
175
|
-
},
|
176
173
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
177
174
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) to model poleceń o wysokiej precyzji, idealny do złożonych obliczeń."
|
178
175
|
},
|
@@ -323,6 +320,9 @@
|
|
323
320
|
"SenseChat-5": {
|
324
321
|
"description": "Najnowsza wersja modelu (V5.5), długość kontekstu 128K, znacznie poprawione zdolności w zakresie rozumowania matematycznego, rozmów w języku angielskim, podążania za instrukcjami oraz rozumienia długich tekstów, dorównująca GPT-4o."
|
325
322
|
},
|
323
|
+
"SenseChat-5-1202": {
|
324
|
+
"description": "Jest to najnowsza wersja oparta na V5.5, która w porównaniu do poprzedniej wersji wykazuje znaczną poprawę w podstawowych umiejętnościach językowych w chińskim i angielskim, czatach, wiedzy ścisłej, wiedzy humanistycznej, pisaniu, logice matematycznej oraz kontroli liczby słów."
|
325
|
+
},
|
326
326
|
"SenseChat-5-Cantonese": {
|
327
327
|
"description": "Długość kontekstu 32K, w rozumieniu rozmów w języku kantońskim przewyższa GPT-4, w wielu dziedzinach, takich jak wiedza, rozumowanie, matematyka i programowanie, dorównuje GPT-4 Turbo."
|
328
328
|
},
|
@@ -335,6 +335,12 @@
|
|
335
335
|
"SenseChat-Turbo": {
|
336
336
|
"description": "Idealny do szybkich odpowiedzi i scenariuszy dostosowywania modelu."
|
337
337
|
},
|
338
|
+
"SenseChat-Turbo-1202": {
|
339
|
+
"description": "Jest to najnowsza wersja modelu o niskiej wadze, osiągająca ponad 90% możliwości pełnego modelu, znacznie obniżając koszty wnioskowania."
|
340
|
+
},
|
341
|
+
"SenseChat-Vision": {
|
342
|
+
"description": "Najnowsza wersja modelu (V5.5), obsługująca wiele obrazów jako wejście, w pełni optymalizuje podstawowe możliwości modelu, osiągając znaczną poprawę w rozpoznawaniu atrybutów obiektów, relacji przestrzennych, rozpoznawaniu zdarzeń, zrozumieniu scen, rozpoznawaniu emocji, wnioskowaniu logicznym oraz generowaniu i rozumieniu tekstu."
|
343
|
+
},
|
338
344
|
"Skylark2-lite-8k": {
|
339
345
|
"description": "Model drugiej generacji Skylark (Skylark2) o wysokiej szybkości reakcji, odpowiedni do scenariuszy wymagających wysokiej reaktywności, wrażliwych na koszty, z mniejszymi wymaganiami co do precyzji modelu, z długością okna kontekstowego 8k."
|
340
346
|
},
|
@@ -1019,6 +1025,12 @@
|
|
1019
1025
|
"hunyuan-standard-vision": {
|
1020
1026
|
"description": "Najnowocześniejszy model multimodalny Hunyuan, wspierający odpowiedzi w wielu językach, z równoważnymi zdolnościami w języku chińskim i angielskim."
|
1021
1027
|
},
|
1028
|
+
"hunyuan-translation": {
|
1029
|
+
"description": "Obsługuje tłumaczenie między 15 językami, w tym chińskim, angielskim, japońskim, francuskim, portugalskim, hiszpańskim, tureckim, rosyjskim, arabskim, koreańskim, włoskim, niemieckim, wietnamskim, malajskim i indonezyjskim, opartym na automatycznej ocenie COMET w oparciu o zestaw testowy do tłumaczenia w różnych scenariuszach, wykazując ogólnie lepsze zdolności tłumaczeniowe w porównaniu do modeli o podobnej skali na rynku."
|
1030
|
+
},
|
1031
|
+
"hunyuan-translation-lite": {
|
1032
|
+
"description": "Model tłumaczenia Hunyuan wspiera naturalne tłumaczenie w formie dialogu; obsługuje tłumaczenie między chińskim, angielskim, japońskim, francuskim, portugalskim, hiszpańskim, tureckim, rosyjskim, arabskim, koreańskim, włoskim, niemieckim, wietnamskim, malajskim i indonezyjskim."
|
1033
|
+
},
|
1022
1034
|
"hunyuan-turbo": {
|
1023
1035
|
"description": "Hunyuan to nowa generacja dużego modelu językowego w wersji próbnej, wykorzystująca nową strukturę modelu mieszanych ekspertów (MoE), która w porównaniu do hunyuan-pro charakteryzuje się szybszą efektywnością wnioskowania i lepszymi wynikami."
|
1024
1036
|
},
|
@@ -1220,9 +1232,6 @@
|
|
1220
1232
|
"meta-llama/llama-3-8b-instruct": {
|
1221
1233
|
"description": "Llama 3 8B Instruct zoptymalizowano do wysokiej jakości scenariuszy dialogowych, osiągając lepsze wyniki niż wiele modeli zamkniętych."
|
1222
1234
|
},
|
1223
|
-
"meta-llama/llama-3.1-405b-instruct": {
|
1224
|
-
"description": "Llama 3.1 405B Instruct to najnowsza wersja wydana przez Meta, zoptymalizowana do generowania wysokiej jakości dialogów, przewyższająca wiele wiodących modeli zamkniętych."
|
1225
|
-
},
|
1226
1235
|
"meta-llama/llama-3.1-70b-instruct": {
|
1227
1236
|
"description": "Llama 3.1 70B Instruct zaprojektowano z myślą o wysokiej jakości dialogach, osiągając znakomite wyniki w ocenach ludzkich, szczególnie w scenariuszach o wysokiej interakcji."
|
1228
1237
|
},
|
@@ -1286,9 +1295,6 @@
|
|
1286
1295
|
"microsoft/WizardLM-2-8x22B": {
|
1287
1296
|
"description": "WizardLM 2 to model językowy oferowany przez Microsoft AI, który wyróżnia się w złożonych rozmowach, wielojęzyczności, wnioskowaniu i jako inteligentny asystent."
|
1288
1297
|
},
|
1289
|
-
"microsoft/wizardlm 2-7b": {
|
1290
|
-
"description": "WizardLM 2 7B to najnowszy szybki i lekki model AI od Microsoftu, osiągający wydajność bliską 10-krotności istniejących wiodących modeli open source."
|
1291
|
-
},
|
1292
1298
|
"microsoft/wizardlm-2-8x22b": {
|
1293
1299
|
"description": "WizardLM-2 8x22B to najnowocześniejszy model Wizard od Microsoftu, wykazujący niezwykle konkurencyjne osiągi."
|
1294
1300
|
},
|
@@ -1580,11 +1586,11 @@
|
|
1580
1586
|
"qwq-32b-preview": {
|
1581
1587
|
"description": "Model QwQ to eksperymentalny model badawczy opracowany przez zespół Qwen, skoncentrowany na zwiększeniu zdolności wnioskowania AI."
|
1582
1588
|
},
|
1583
|
-
"solar-
|
1584
|
-
"description": "Solar Mini to kompaktowy LLM,
|
1589
|
+
"solar-mini": {
|
1590
|
+
"description": "Solar Mini to kompaktowy LLM, który przewyższa GPT-3.5, posiadając potężne zdolności wielojęzyczne, wspierając angielski i koreański, oferując efektywne i zgrabne rozwiązania."
|
1585
1591
|
},
|
1586
|
-
"solar-
|
1587
|
-
"description": "Solar Mini (Ja) rozszerza możliwości Solar Mini, koncentrując się na języku japońskim, jednocześnie zachowując wysoką
|
1592
|
+
"solar-mini-ja": {
|
1593
|
+
"description": "Solar Mini (Ja) rozszerza możliwości Solar Mini, koncentrując się na języku japońskim, jednocześnie zachowując wysoką efektywność i doskonałe osiągi w użyciu angielskiego i koreańskiego."
|
1588
1594
|
},
|
1589
1595
|
"solar-pro": {
|
1590
1596
|
"description": "Solar Pro to model LLM o wysokiej inteligencji wydany przez Upstage, koncentrujący się na zdolności do przestrzegania instrukcji na pojedynczym GPU, osiągając wynik IFEval powyżej 80. Obecnie wspiera język angielski, a wersja oficjalna planowana jest na listopad 2024, z rozszerzeniem wsparcia językowego i długości kontekstu."
|
@@ -1619,6 +1625,9 @@
|
|
1619
1625
|
"step-1.5v-mini": {
|
1620
1626
|
"description": "Ten model ma potężne zdolności rozumienia wideo."
|
1621
1627
|
},
|
1628
|
+
"step-1o-turbo-vision": {
|
1629
|
+
"description": "Model ten ma potężne zdolności rozumienia obrazów, w dziedzinie matematyki i kodowania przewyższa 1o. Model jest mniejszy niż 1o, a prędkość wyjścia jest szybsza."
|
1630
|
+
},
|
1622
1631
|
"step-1o-vision-32k": {
|
1623
1632
|
"description": "Ten model ma potężne zdolności rozumienia obrazów. W porównaniu do modeli z serii step-1v, oferuje lepsze osiągi wizualne."
|
1624
1633
|
},
|
@@ -1634,12 +1643,12 @@
|
|
1634
1643
|
"step-2-mini": {
|
1635
1644
|
"description": "Model oparty na nowej generacji własnej architektury Attention MFA, osiągający podobne wyniki jak step1 przy bardzo niskich kosztach, jednocześnie zapewniając wyższą przepustowość i szybszy czas reakcji. Potrafi obsługiwać ogólne zadania, a w zakresie umiejętności kodowania ma szczególne zdolności."
|
1636
1645
|
},
|
1637
|
-
"taichu2_mm": {
|
1638
|
-
"description": "Łączy zdolności rozumienia obrazów, transferu wiedzy, logicznego wnioskowania i wyróżnia się w dziedzinie pytań i odpowiedzi związanych z obrazem i tekstem."
|
1639
|
-
},
|
1640
1646
|
"taichu_llm": {
|
1641
1647
|
"description": "Model językowy TaiChu charakteryzuje się wyjątkową zdolnością rozumienia języka oraz umiejętnościami w zakresie tworzenia tekstów, odpowiadania na pytania, programowania, obliczeń matematycznych, wnioskowania logicznego, analizy emocji i streszczenia tekstu. Innowacyjnie łączy wstępne uczenie się na dużych zbiorach danych z bogatą wiedzą z wielu źródeł, stale doskonaląc technologię algorytmiczną i nieustannie przyswajając nową wiedzę z zakresu słownictwa, struktury, gramatyki i semantyki z ogromnych zbiorów danych tekstowych, co prowadzi do ciągłej ewolucji modelu. Umożliwia użytkownikom łatwiejszy dostęp do informacji i usług oraz bardziej inteligentne doświadczenia."
|
1642
1648
|
},
|
1649
|
+
"taichu_vl": {
|
1650
|
+
"description": "Łączy zdolności rozumienia obrazów, transferu wiedzy i logicznego wnioskowania, wyróżniając się w dziedzinie pytań i odpowiedzi na podstawie tekstu i obrazów."
|
1651
|
+
},
|
1643
1652
|
"text-embedding-3-large": {
|
1644
1653
|
"description": "Najpotężniejszy model wektoryzacji, odpowiedni do zadań w języku angielskim i innych językach."
|
1645
1654
|
},
|
@@ -134,6 +134,22 @@
|
|
134
134
|
"plugin": "Wtyczka jest uruchomiona..."
|
135
135
|
},
|
136
136
|
"pluginList": "Lista wtyczek",
|
137
|
+
"search": {
|
138
|
+
"config": {
|
139
|
+
"addKey": "Dodaj klucz",
|
140
|
+
"close": "Usuń",
|
141
|
+
"confirm": "Konfiguracja zakończona, spróbuj ponownie"
|
142
|
+
},
|
143
|
+
"searchxng": {
|
144
|
+
"baseURL": "Wprowadź",
|
145
|
+
"description": "Wprowadź adres URL SearchXNG, aby rozpocząć wyszukiwanie w sieci",
|
146
|
+
"keyPlaceholder": "Wprowadź klucz",
|
147
|
+
"title": "Konfiguracja silnika wyszukiwania SearchXNG",
|
148
|
+
"unconfiguredDesc": "Skontaktuj się z administratorem, aby zakończyć konfigurację silnika wyszukiwania SearchXNG i rozpocząć wyszukiwanie w sieci",
|
149
|
+
"unconfiguredTitle": "Silnik wyszukiwania SearchXNG nie jest jeszcze skonfigurowany"
|
150
|
+
},
|
151
|
+
"title": "Wyszukiwanie w sieci"
|
152
|
+
},
|
137
153
|
"setting": "Ustawienia wtyczki",
|
138
154
|
"settings": {
|
139
155
|
"indexUrl": {
|
package/locales/pl-PL/tool.json
CHANGED
@@ -6,5 +6,23 @@
|
|
6
6
|
"generating": "Generowanie...",
|
7
7
|
"images": "Obrazy:",
|
8
8
|
"prompt": "słowo kluczowe"
|
9
|
+
},
|
10
|
+
"search": {
|
11
|
+
"createNewSearch": "Utwórz nową historię wyszukiwania",
|
12
|
+
"emptyResult": "Nie znaleziono wyników, spróbuj zmienić słowa kluczowe",
|
13
|
+
"genAiMessage": "Utwórz wiadomość asystenta",
|
14
|
+
"includedTooltip": "Aktualne wyniki wyszukiwania będą częścią kontekstu rozmowy",
|
15
|
+
"keywords": "Słowa kluczowe:",
|
16
|
+
"scoreTooltip": "Wynik trafności, im wyższy wynik, tym bardziej związany z zapytaniem",
|
17
|
+
"searchBar": {
|
18
|
+
"button": "Szukaj",
|
19
|
+
"placeholder": "Słowa kluczowe",
|
20
|
+
"tooltip": "Ponownie pobierze wyniki wyszukiwania i utworzy nową wiadomość podsumowującą"
|
21
|
+
},
|
22
|
+
"searchEngine": "Silnik wyszukiwania:",
|
23
|
+
"searchResult": "Liczba wyników:",
|
24
|
+
"summary": "Podsumowanie",
|
25
|
+
"summaryTooltip": "Podsumuj bieżącą treść",
|
26
|
+
"viewMoreResults": "Zobacz więcej {{results}} wyników"
|
9
27
|
}
|
10
28
|
}
|
@@ -170,9 +170,6 @@
|
|
170
170
|
"MiniMax-Text-01": {
|
171
171
|
"description": "Na série de modelos MiniMax-01, fizemos inovações ousadas: pela primeira vez, implementamos em larga escala um mecanismo de atenção linear, tornando a arquitetura Transformer tradicional não mais a única opção. Este modelo possui um total de 456 bilhões de parâmetros, com 45,9 bilhões ativados em uma única vez. O desempenho geral do modelo é comparável aos melhores modelos internacionais, enquanto lida eficientemente com contextos de até 4 milhões de tokens, 32 vezes mais que o GPT-4o e 20 vezes mais que o Claude-3.5-Sonnet."
|
172
172
|
},
|
173
|
-
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
174
|
-
"description": "Hermes 2 Mixtral 8x7B DPO é uma fusão de múltiplos modelos altamente flexível, projetada para oferecer uma experiência criativa excepcional."
|
175
|
-
},
|
176
173
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
177
174
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) é um modelo de instrução de alta precisão, adequado para cálculos complexos."
|
178
175
|
},
|
@@ -323,6 +320,9 @@
|
|
323
320
|
"SenseChat-5": {
|
324
321
|
"description": "Modelo da versão mais recente (V5.5), com comprimento de contexto de 128K, com capacidades significativamente aprimoradas em raciocínio matemático, diálogos em inglês, seguimento de instruções e compreensão de textos longos, rivalizando com o GPT-4o."
|
325
322
|
},
|
323
|
+
"SenseChat-5-1202": {
|
324
|
+
"description": "É a versão mais recente baseada no V5.5, com melhorias significativas em várias dimensões, como habilidades básicas em chinês e inglês, conversação, conhecimento em ciências exatas, conhecimento em ciências humanas, redação, lógica matemática e controle de contagem de palavras em comparação com a versão anterior."
|
325
|
+
},
|
326
326
|
"SenseChat-5-Cantonese": {
|
327
327
|
"description": "Comprimento de contexto de 32K, superando o GPT-4 na compreensão de diálogos em cantonês, competindo com o GPT-4 Turbo em várias áreas, incluindo conhecimento, raciocínio, matemática e programação."
|
328
328
|
},
|
@@ -335,6 +335,12 @@
|
|
335
335
|
"SenseChat-Turbo": {
|
336
336
|
"description": "Adequado para perguntas rápidas e cenários de ajuste fino do modelo."
|
337
337
|
},
|
338
|
+
"SenseChat-Turbo-1202": {
|
339
|
+
"description": "É a versão mais recente do modelo leve, alcançando mais de 90% da capacidade do modelo completo, reduzindo significativamente o custo de inferência."
|
340
|
+
},
|
341
|
+
"SenseChat-Vision": {
|
342
|
+
"description": "Modelo da versão mais recente (V5.5), suporta entrada de múltiplas imagens, otimizando completamente as capacidades básicas do modelo, com grandes melhorias em reconhecimento de atributos de objetos, relações espaciais, reconhecimento de eventos, compreensão de cenários, reconhecimento de emoções, raciocínio lógico e compreensão e geração de texto."
|
343
|
+
},
|
338
344
|
"Skylark2-lite-8k": {
|
339
345
|
"description": "Modelo de segunda geração Skylark, o modelo Skylark2-lite possui alta velocidade de resposta, adequado para cenários que exigem alta capacidade de resposta, sensíveis ao custo e com baixa exigência de precisão do modelo, com uma janela de contexto de 8k."
|
340
346
|
},
|
@@ -1019,6 +1025,12 @@
|
|
1019
1025
|
"hunyuan-standard-vision": {
|
1020
1026
|
"description": "Modelo multimodal mais recente da Hunyuan, suporta respostas em múltiplas línguas, com habilidades equilibradas em chinês e português."
|
1021
1027
|
},
|
1028
|
+
"hunyuan-translation": {
|
1029
|
+
"description": "Suporta tradução entre 15 idiomas, incluindo chinês, inglês, japonês, francês, português, espanhol, turco, russo, árabe, coreano, italiano, alemão, vietnamita, malaio e indonésio, com avaliação automatizada baseada no conjunto de testes de tradução em múltiplos cenários e pontuação COMET, superando modelos de tamanho semelhante no mercado em termos de capacidade de tradução entre idiomas."
|
1030
|
+
},
|
1031
|
+
"hunyuan-translation-lite": {
|
1032
|
+
"description": "O modelo de tradução Hunyuan suporta tradução em estilo de diálogo em linguagem natural; suporta tradução entre 15 idiomas, incluindo chinês, inglês, japonês, francês, português, espanhol, turco, russo, árabe, coreano, italiano, alemão, vietnamita, malaio e indonésio."
|
1033
|
+
},
|
1022
1034
|
"hunyuan-turbo": {
|
1023
1035
|
"description": "Versão de pré-visualização do novo modelo de linguagem de próxima geração Hunyuan, utilizando uma nova estrutura de modelo de especialistas mistos (MoE), com eficiência de inferência mais rápida e desempenho superior em comparação ao Hunyuan-Pro."
|
1024
1036
|
},
|
@@ -1220,9 +1232,6 @@
|
|
1220
1232
|
"meta-llama/llama-3-8b-instruct": {
|
1221
1233
|
"description": "Llama 3 8B Instruct otimiza cenários de diálogo de alta qualidade, com desempenho superior a muitos modelos fechados."
|
1222
1234
|
},
|
1223
|
-
"meta-llama/llama-3.1-405b-instruct": {
|
1224
|
-
"description": "Llama 3.1 405B Instruct é a versão mais recente da Meta, otimizada para gerar diálogos de alta qualidade, superando muitos modelos fechados de liderança."
|
1225
|
-
},
|
1226
1235
|
"meta-llama/llama-3.1-70b-instruct": {
|
1227
1236
|
"description": "Llama 3.1 70B Instruct é projetado para diálogos de alta qualidade, destacando-se em avaliações humanas, especialmente em cenários de alta interação."
|
1228
1237
|
},
|
@@ -1286,9 +1295,6 @@
|
|
1286
1295
|
"microsoft/WizardLM-2-8x22B": {
|
1287
1296
|
"description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, que se destaca em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes."
|
1288
1297
|
},
|
1289
|
-
"microsoft/wizardlm 2-7b": {
|
1290
|
-
"description": "WizardLM 2 7B é o modelo leve e rápido mais recente da Microsoft AI, com desempenho próximo a 10 vezes o de modelos de código aberto existentes."
|
1291
|
-
},
|
1292
1298
|
"microsoft/wizardlm-2-8x22b": {
|
1293
1299
|
"description": "WizardLM-2 8x22B é o modelo Wizard mais avançado da Microsoft, demonstrando um desempenho extremamente competitivo."
|
1294
1300
|
},
|
@@ -1580,11 +1586,11 @@
|
|
1580
1586
|
"qwq-32b-preview": {
|
1581
1587
|
"description": "O modelo QwQ é um modelo de pesquisa experimental desenvolvido pela equipe Qwen, focado em aprimorar a capacidade de raciocínio da IA."
|
1582
1588
|
},
|
1583
|
-
"solar-
|
1589
|
+
"solar-mini": {
|
1584
1590
|
"description": "Solar Mini é um LLM compacto, com desempenho superior ao GPT-3.5, possuindo forte capacidade multilíngue, suportando inglês e coreano, oferecendo uma solução eficiente e compacta."
|
1585
1591
|
},
|
1586
|
-
"solar-
|
1587
|
-
"description": "Solar Mini (Ja) expande as capacidades do Solar Mini, focando no japonês, enquanto mantém eficiência e desempenho excepcional no uso
|
1592
|
+
"solar-mini-ja": {
|
1593
|
+
"description": "Solar Mini (Ja) expande as capacidades do Solar Mini, focando no japonês, enquanto mantém eficiência e desempenho excepcional no uso de inglês e coreano."
|
1588
1594
|
},
|
1589
1595
|
"solar-pro": {
|
1590
1596
|
"description": "Solar Pro é um LLM de alta inteligência lançado pela Upstage, focado na capacidade de seguir instruções em um único GPU, com pontuação IFEval acima de 80. Atualmente suporta inglês, com uma versão oficial planejada para lançamento em novembro de 2024, que expandirá o suporte a idiomas e comprimento de contexto."
|
@@ -1619,6 +1625,9 @@
|
|
1619
1625
|
"step-1.5v-mini": {
|
1620
1626
|
"description": "Este modelo possui uma poderosa capacidade de compreensão de vídeo."
|
1621
1627
|
},
|
1628
|
+
"step-1o-turbo-vision": {
|
1629
|
+
"description": "Este modelo possui uma poderosa capacidade de compreensão de imagens, superando o 1o em áreas de matemática e programação. O modelo é menor que o 1o e oferece uma velocidade de saída mais rápida."
|
1630
|
+
},
|
1622
1631
|
"step-1o-vision-32k": {
|
1623
1632
|
"description": "Este modelo possui uma poderosa capacidade de compreensão de imagens. Em comparação com a série de modelos step-1v, apresenta um desempenho visual superior."
|
1624
1633
|
},
|
@@ -1634,12 +1643,12 @@
|
|
1634
1643
|
"step-2-mini": {
|
1635
1644
|
"description": "Um modelo de grande escala de alta velocidade baseado na nova arquitetura de atenção auto-desenvolvida MFA, alcançando resultados semelhantes ao step1 com um custo muito baixo, enquanto mantém uma maior taxa de transferência e um tempo de resposta mais rápido. Capaz de lidar com tarefas gerais, possui especialização em habilidades de codificação."
|
1636
1645
|
},
|
1637
|
-
"taichu2_mm": {
|
1638
|
-
"description": "Integra capacidades de compreensão de imagem, transferência de conhecimento e atribuição lógica, destacando-se no campo de perguntas e respostas baseadas em texto e imagem."
|
1639
|
-
},
|
1640
1646
|
"taichu_llm": {
|
1641
1647
|
"description": "O modelo de linguagem Taichu possui uma forte capacidade de compreensão de linguagem, além de habilidades em criação de texto, perguntas e respostas, programação de código, cálculos matemáticos, raciocínio lógico, análise de sentimentos e resumo de texto. Inova ao combinar pré-treinamento com grandes dados e conhecimento rico de múltiplas fontes, aprimorando continuamente a tecnologia de algoritmos e absorvendo novos conhecimentos de vocabulário, estrutura, gramática e semântica de grandes volumes de dados textuais, proporcionando aos usuários informações e serviços mais convenientes e uma experiência mais inteligente."
|
1642
1648
|
},
|
1649
|
+
"taichu_vl": {
|
1650
|
+
"description": "Integra capacidades de compreensão de imagens, transferência de conhecimento e atribuição lógica, destacando-se na área de perguntas e respostas baseadas em texto e imagem."
|
1651
|
+
},
|
1643
1652
|
"text-embedding-3-large": {
|
1644
1653
|
"description": "O modelo de vetorização mais poderoso, adequado para tarefas em inglês e não inglês."
|
1645
1654
|
},
|
@@ -134,6 +134,22 @@
|
|
134
134
|
"plugin": "Executando o plugin..."
|
135
135
|
},
|
136
136
|
"pluginList": "Lista de Plugins",
|
137
|
+
"search": {
|
138
|
+
"config": {
|
139
|
+
"addKey": "Adicionar chave",
|
140
|
+
"close": "Remover",
|
141
|
+
"confirm": "Configuração concluída, tente novamente"
|
142
|
+
},
|
143
|
+
"searchxng": {
|
144
|
+
"baseURL": "Digite",
|
145
|
+
"description": "Digite o URL do SearchXNG para começar a pesquisa na internet",
|
146
|
+
"keyPlaceholder": "Digite a chave",
|
147
|
+
"title": "Configurar o mecanismo de busca SearchXNG",
|
148
|
+
"unconfiguredDesc": "Por favor, entre em contato com o administrador para concluir a configuração do mecanismo de busca SearchXNG e começar a pesquisa na internet",
|
149
|
+
"unconfiguredTitle": "Mecanismo de busca SearchXNG ainda não configurado"
|
150
|
+
},
|
151
|
+
"title": "Pesquisa na internet"
|
152
|
+
},
|
137
153
|
"setting": "Configuração do Plugin",
|
138
154
|
"settings": {
|
139
155
|
"indexUrl": {
|
package/locales/pt-BR/tool.json
CHANGED
@@ -6,5 +6,23 @@
|
|
6
6
|
"generating": "Gerando...",
|
7
7
|
"images": "Imagens:",
|
8
8
|
"prompt": "Palavra-chave"
|
9
|
+
},
|
10
|
+
"search": {
|
11
|
+
"createNewSearch": "Criar nova pesquisa",
|
12
|
+
"emptyResult": "Nenhum resultado encontrado, por favor, modifique as palavras-chave e tente novamente",
|
13
|
+
"genAiMessage": "Criar mensagem do assistente",
|
14
|
+
"includedTooltip": "Os resultados da pesquisa atual serão incluídos no contexto da conversa",
|
15
|
+
"keywords": "Palavras-chave:",
|
16
|
+
"scoreTooltip": "Pontuação de relevância, quanto maior a pontuação, mais relevante é em relação às palavras-chave da consulta",
|
17
|
+
"searchBar": {
|
18
|
+
"button": "Pesquisar",
|
19
|
+
"placeholder": "Palavras-chave",
|
20
|
+
"tooltip": "Isso irá recuperar os resultados da pesquisa novamente e criar uma nova mensagem de resumo"
|
21
|
+
},
|
22
|
+
"searchEngine": "Motor de busca:",
|
23
|
+
"searchResult": "Número de pesquisas:",
|
24
|
+
"summary": "Resumo",
|
25
|
+
"summaryTooltip": "Resumir o conteúdo atual",
|
26
|
+
"viewMoreResults": "Ver mais {{results}} resultados"
|
9
27
|
}
|
10
28
|
}
|