@lobehub/lobehub 2.0.0-next.201 → 2.0.0-next.203
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +2 -0
- package/locales/ar/models.json +104 -6
- package/locales/ar/plugin.json +2 -1
- package/locales/bg-BG/chat.json +2 -0
- package/locales/bg-BG/models.json +46 -4
- package/locales/bg-BG/plugin.json +2 -1
- package/locales/de-DE/chat.json +2 -0
- package/locales/de-DE/models.json +74 -4
- package/locales/de-DE/plugin.json +2 -1
- package/locales/en-US/chat.json +2 -0
- package/locales/en-US/plugin.json +2 -1
- package/locales/es-ES/chat.json +2 -0
- package/locales/es-ES/models.json +129 -4
- package/locales/es-ES/plugin.json +2 -1
- package/locales/fa-IR/chat.json +2 -0
- package/locales/fa-IR/models.json +80 -4
- package/locales/fa-IR/plugin.json +2 -1
- package/locales/fr-FR/chat.json +2 -0
- package/locales/fr-FR/models.json +67 -7
- package/locales/fr-FR/plugin.json +2 -1
- package/locales/it-IT/chat.json +2 -0
- package/locales/it-IT/models.json +39 -6
- package/locales/it-IT/plugin.json +2 -1
- package/locales/ja-JP/chat.json +2 -0
- package/locales/ja-JP/models.json +123 -7
- package/locales/ja-JP/plugin.json +2 -1
- package/locales/ko-KR/chat.json +2 -0
- package/locales/ko-KR/models.json +104 -5
- package/locales/ko-KR/plugin.json +2 -1
- package/locales/nl-NL/chat.json +2 -0
- package/locales/nl-NL/models.json +62 -5
- package/locales/nl-NL/plugin.json +2 -1
- package/locales/pl-PL/chat.json +2 -0
- package/locales/pl-PL/models.json +110 -0
- package/locales/pl-PL/plugin.json +2 -1
- package/locales/pt-BR/chat.json +2 -0
- package/locales/pt-BR/models.json +81 -5
- package/locales/pt-BR/plugin.json +2 -1
- package/locales/ru-RU/chat.json +2 -0
- package/locales/ru-RU/models.json +33 -6
- package/locales/ru-RU/plugin.json +2 -1
- package/locales/tr-TR/chat.json +2 -0
- package/locales/tr-TR/models.json +26 -7
- package/locales/tr-TR/plugin.json +2 -1
- package/locales/vi-VN/chat.json +2 -0
- package/locales/vi-VN/models.json +59 -4
- package/locales/vi-VN/plugin.json +2 -1
- package/locales/zh-CN/chat.json +2 -0
- package/locales/zh-CN/models.json +141 -5
- package/locales/zh-CN/plugin.json +2 -1
- package/locales/zh-TW/chat.json +2 -0
- package/locales/zh-TW/models.json +96 -7
- package/locales/zh-TW/plugin.json +2 -1
- package/package.json +1 -1
- package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +30 -15
- package/packages/builtin-tool-gtd/src/manifest.ts +1 -1
- package/packages/model-runtime/src/core/ModelRuntime.test.ts +44 -86
- package/packages/types/src/aiChat.ts +0 -1
- package/packages/types/src/message/ui/chat.ts +1 -1
- package/src/app/(backend)/middleware/auth/index.ts +16 -2
- package/src/app/(backend)/webapi/chat/[provider]/route.test.ts +30 -15
- package/src/app/(backend)/webapi/chat/[provider]/route.ts +44 -40
- package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +4 -3
- package/src/app/(backend)/webapi/models/[provider]/route.test.ts +36 -13
- package/src/app/(backend)/webapi/models/[provider]/route.ts +4 -11
- package/src/features/Conversation/Messages/AssistantGroup/Tool/Render/index.tsx +21 -23
- package/src/features/Conversation/Messages/AssistantGroup/components/ContentBlock.tsx +16 -3
- package/src/features/Conversation/Messages/Task/TaskDetailPanel/index.tsx +17 -20
- package/src/features/Conversation/Messages/Tasks/shared/ErrorState.tsx +16 -11
- package/src/features/Conversation/Messages/Tasks/shared/InitializingState.tsx +6 -20
- package/src/features/Conversation/Messages/Tasks/shared/ProcessingState.tsx +10 -20
- package/src/features/User/DataStatistics.tsx +4 -4
- package/src/hooks/useQueryParam.ts +0 -2
- package/src/libs/trpc/async/asyncAuth.ts +0 -2
- package/src/libs/trpc/async/context.ts +3 -11
- package/src/locales/default/chat.ts +2 -0
- package/src/locales/default/plugin.ts +2 -1
- package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +6 -6
- package/src/server/modules/AgentRuntime/__tests__/RuntimeExecutors.test.ts +3 -3
- package/src/server/modules/AgentRuntime/factory.ts +39 -20
- package/src/server/modules/ModelRuntime/index.ts +138 -1
- package/src/server/routers/async/__tests__/caller.test.ts +22 -27
- package/src/server/routers/async/caller.ts +4 -6
- package/src/server/routers/async/file.ts +10 -5
- package/src/server/routers/async/image.ts +5 -4
- package/src/server/routers/async/ragEval.ts +7 -5
- package/src/server/routers/lambda/__tests__/aiChat.test.ts +8 -37
- package/src/server/routers/lambda/aiChat.ts +5 -21
- package/src/server/routers/lambda/chunk.ts +9 -28
- package/src/server/routers/lambda/image.ts +1 -7
- package/src/server/routers/lambda/ragEval.ts +1 -1
- package/src/server/routers/lambda/userMemories/reembed.ts +4 -1
- package/src/server/routers/lambda/userMemories/search.ts +7 -7
- package/src/server/routers/lambda/userMemories/shared.ts +8 -10
- package/src/server/routers/lambda/userMemories/tools.ts +140 -118
- package/src/server/routers/lambda/userMemories.test.ts +3 -7
- package/src/server/routers/lambda/userMemories.ts +44 -29
- package/src/server/services/agentRuntime/AgentRuntimeService.test.ts +87 -0
- package/src/server/services/agentRuntime/AgentRuntimeService.ts +53 -2
- package/src/server/services/agentRuntime/__tests__/executeSync.test.ts +2 -6
- package/src/server/services/agentRuntime/__tests__/stepLifecycleCallbacks.test.ts +1 -1
- package/src/server/services/chunk/index.ts +6 -5
- package/src/server/services/toolExecution/types.ts +1 -2
- package/src/services/__tests__/_url.test.ts +0 -1
- package/src/services/_url.ts +0 -3
- package/src/services/aiChat.ts +5 -12
- package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +0 -2
- package/src/app/(backend)/webapi/text-to-image/[provider]/route.ts +0 -74
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic. In vergelijking met Claude 3 Haiku
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic. In vergelijking met Claude 3 Haiku biedt het verbeterde vaardigheden en overtreft het het vorige topmodel Claude 3 Opus op veel intelligentietests.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze redeneringen tonen die zichtbaar zijn voor gebruikers. Sonnet blinkt uit in programmeren, datawetenschap, visuele taken en agenttoepassingen.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle prestaties en uitgebreide redeneercapaciteiten.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze denkprocessen tonen met een zichtbaar verloop.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.",
|
|
@@ -298,6 +298,63 @@
|
|
|
298
298
|
"codeqwen.description": "CodeQwen1.5 is een groot taalmodel getraind op uitgebreide codegegevens, ontworpen voor complexe programmeertaken.",
|
|
299
299
|
"codestral-latest.description": "Codestral is ons meest geavanceerde codemodel; versie 2 (jan 2025) is gericht op taken met lage latentie en hoge frequentie zoals FIM, codecorrectie en testgeneratie.",
|
|
300
300
|
"codestral.description": "Codestral is het eerste codemodel van Mistral AI, met sterke ondersteuning voor codegeneratie.",
|
|
301
|
+
"codex-mini-latest.description": "codex-mini-latest is een verfijnd o4-mini-model voor de Codex CLI. Voor direct API-gebruik raden we aan te beginnen met gpt-4.1.",
|
|
302
|
+
"cogito-2.1:671b.description": "Cogito v2.1 671B is een Amerikaans open-source LLM dat vrij is voor commercieel gebruik. Het biedt prestaties die vergelijkbaar zijn met topmodellen, hogere efficiëntie in tokenredenering, een contextlengte van 128k en sterke algemene capaciteiten.",
|
|
303
|
+
"cogview-4.description": "CogView-4 is het eerste open-source tekst-naar-beeldmodel van Zhipu dat Chinese karakters kan genereren. Het verbetert semantisch begrip, beeldkwaliteit en weergave van Chinese/Engelse tekst, ondersteunt tweetalige prompts van willekeurige lengte en kan beelden genereren in elke resolutie binnen opgegeven bereiken.",
|
|
304
|
+
"cohere-command-r-plus.description": "Command R+ is een geavanceerd model geoptimaliseerd voor RAG, ontworpen voor bedrijfsomgevingen.",
|
|
305
|
+
"cohere-command-r.description": "Command R is een schaalbaar generatief model ontworpen voor RAG en toolgebruik, geschikt voor productieklare AI.",
|
|
306
|
+
"cohere/Cohere-command-r-plus.description": "Command R+ is een geavanceerd model geoptimaliseerd voor RAG, ontworpen voor bedrijfsomgevingen.",
|
|
307
|
+
"cohere/Cohere-command-r.description": "Command R is een schaalbaar generatief model ontworpen voor RAG en toolgebruik, geschikt voor productieklare AI.",
|
|
308
|
+
"cohere/command-a.description": "Command A is het krachtigste model van Cohere tot nu toe, uitblinkend in toolgebruik, agents, RAG en meertalige toepassingen. Het ondersteunt een contextlengte van 256K, draait op slechts twee GPU's en levert 150% hogere doorvoer dan Command R+ 08-2024.",
|
|
309
|
+
"cohere/command-r-plus.description": "Command R+ is het nieuwste LLM van Cohere, geoptimaliseerd voor chat en lange contexten, met als doel uitzonderlijke prestaties zodat bedrijven voorbij prototypes kunnen gaan naar productie.",
|
|
310
|
+
"cohere/command-r.description": "Command R is geoptimaliseerd voor chat- en lange-contexttaken, gepositioneerd als een 'schaalbaar' model dat hoge prestaties en nauwkeurigheid in balans brengt, zodat bedrijven voorbij prototypes kunnen gaan naar productie.",
|
|
311
|
+
"cohere/embed-v4.0.description": "Een model dat tekst, afbeeldingen of gemengde inhoud classificeert of omzet in embeddings.",
|
|
312
|
+
"comfyui/flux-dev.description": "FLUX.1 Dev is een hoogwaardig tekst-naar-beeldmodel (10–50 stappen), ideaal voor creatieve en artistieke output van topkwaliteit.",
|
|
313
|
+
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev is een afbeeldingsbewerkingsmodel dat tekstgestuurde bewerkingen ondersteunt, waaronder lokale aanpassingen en stijltransfers.",
|
|
314
|
+
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev is een tekst-naar-beeldmodel met verbeterde veiligheid, mede ontwikkeld met Krea, en bevat ingebouwde veiligheidsfilters.",
|
|
315
|
+
"comfyui/flux-schnell.description": "FLUX.1 Schnell is een ultrasnel tekst-naar-beeldmodel dat hoogwaardige beelden genereert in 1-4 stappen, ideaal voor realtime gebruik en snelle prototyping.",
|
|
316
|
+
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 is een klassiek 512x512 tekst-naar-beeldmodel, ideaal voor snelle prototyping en creatieve experimenten.",
|
|
317
|
+
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 met ingebouwde CLIP/T5-encoders vereist geen externe encoderbestanden en is geschikt voor modellen zoals sd3.5_medium_incl_clips met lager middelenverbruik.",
|
|
318
|
+
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 is een tekst-naar-beeldmodel van de volgende generatie met Large- en Medium-varianten. Het vereist externe CLIP-encoderbestanden en levert uitstekende beeldkwaliteit en promptnauwkeurigheid.",
|
|
319
|
+
"comfyui/stable-diffusion-custom-refiner.description": "Aangepast SDXL beeld-naar-beeldmodel. Gebruik custom_sd_lobe.safetensors als bestandsnaam voor het model; als je een VAE hebt, gebruik dan custom_sd_vae_lobe.safetensors. Plaats modelbestanden in de vereiste Comfy-mappen.",
|
|
320
|
+
"comfyui/stable-diffusion-custom.description": "Aangepast SD tekst-naar-beeldmodel. Gebruik custom_sd_lobe.safetensors als bestandsnaam voor het model; als je een VAE hebt, gebruik dan custom_sd_vae_lobe.safetensors. Plaats modelbestanden in de vereiste Comfy-mappen.",
|
|
321
|
+
"comfyui/stable-diffusion-refiner.description": "SDXL beeld-naar-beeldmodel voert hoogwaardige transformaties uit op invoerbeelden, met ondersteuning voor stijltransfers, restauratie en creatieve variaties.",
|
|
322
|
+
"comfyui/stable-diffusion-xl.description": "SDXL is een tekst-naar-beeldmodel dat 1024x1024 hoge resolutie ondersteunt met verbeterde beeldkwaliteit en detail.",
|
|
323
|
+
"command-a-03-2025.description": "Command A is ons meest geavanceerde model tot nu toe, uitblinkend in het gebruik van tools, agents, RAG en meertalige scenario's. Het beschikt over een contextvenster van 256K, draait op slechts twee GPU's en levert 150% hogere verwerkingssnelheid dan Command R+ 08-2024.",
|
|
324
|
+
"command-light-nightly.description": "Om de tijd tussen grote releases te verkorten, bieden we nachtelijke Command-builds aan. Voor de command-light-serie heet dit command-light-nightly. Dit is de nieuwste, meest experimentele (en mogelijk instabiele) versie, die regelmatig zonder aankondiging wordt bijgewerkt. Daarom wordt het niet aanbevolen voor productieomgevingen.",
|
|
325
|
+
"command-light.description": "Een kleinere, snellere variant van Command die bijna even krachtig is, maar sneller werkt.",
|
|
326
|
+
"command-nightly.description": "Om de tijd tussen grote releases te verkorten, bieden we nachtelijke Command-builds aan. Voor de Command-serie heet dit command-nightly. Dit is de nieuwste, meest experimentele (en mogelijk instabiele) versie, die regelmatig zonder aankondiging wordt bijgewerkt. Daarom wordt het niet aanbevolen voor productieomgevingen.",
|
|
327
|
+
"command-r-03-2024.description": "Command R is een chatmodel dat instructies volgt met hogere kwaliteit, grotere betrouwbaarheid en een langer contextvenster dan eerdere modellen. Het ondersteunt complexe workflows zoals codegeneratie, RAG, toolgebruik en agents.",
|
|
328
|
+
"command-r-08-2024.description": "command-r-08-2024 is een bijgewerkte versie van het Command R-model, uitgebracht in augustus 2024.",
|
|
329
|
+
"command-r-plus-04-2024.description": "command-r-plus is een alias van command-r-plus-04-2024, dus het gebruik van command-r-plus in de API verwijst naar dat model.",
|
|
330
|
+
"command-r-plus-08-2024.description": "Command R+ is een chatmodel dat instructies volgt met hogere kwaliteit, grotere betrouwbaarheid en een langer contextvenster dan eerdere modellen. Het is ideaal voor complexe RAG-workflows en meerstapsgebruik van tools.",
|
|
331
|
+
"command-r-plus.description": "Command R+ is een krachtig LLM ontworpen voor echte zakelijke toepassingen en complexe apps.",
|
|
332
|
+
"command-r.description": "Command R is een LLM geoptimaliseerd voor chat en taken met lange context, ideaal voor dynamische interactie en kennisbeheer.",
|
|
333
|
+
"command-r7b-12-2024.description": "command-r7b-12-2024 is een kleine, efficiënte update uitgebracht in december 2024. Het blinkt uit in RAG, toolgebruik en agenttaken die complexe, meerstapsredenering vereisen.",
|
|
334
|
+
"command.description": "Een chatmodel dat instructies volgt en betere kwaliteit en betrouwbaarheid levert bij taalopdrachten, met een langer contextvenster dan onze generatieve basismodellen.",
|
|
335
|
+
"computer-use-preview.description": "computer-use-preview is een gespecialiseerd model voor de \"computer use tool\", getraind om computergerelateerde taken te begrijpen en uit te voeren.",
|
|
336
|
+
"dall-e-2.description": "Tweede generatie DALL·E-model met realistischere, nauwkeurigere beeldgeneratie en 4× de resolutie van de eerste generatie.",
|
|
337
|
+
"dall-e-3.description": "Het nieuwste DALL·E-model, uitgebracht in november 2023, ondersteunt realistischere, nauwkeurigere beeldgeneratie met sterkere details.",
|
|
338
|
+
"databricks/dbrx-instruct.description": "DBRX Instruct biedt zeer betrouwbare instructieafhandeling in verschillende sectoren.",
|
|
339
|
+
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR is een vision-language model van DeepSeek AI, gericht op OCR en \"contextuele optische compressie\". Het onderzoekt het comprimeren van context uit afbeeldingen, verwerkt documenten efficiënt en zet ze om in gestructureerde tekst (zoals Markdown). Het herkent nauwkeurig tekst in afbeeldingen en is geschikt voor documentdigitalisering, tekstuittrekking en gestructureerde verwerking.",
|
|
340
|
+
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B distilleert chain-of-thought van DeepSeek-R1-0528 naar Qwen3 8B Base. Het bereikt SOTA onder open modellen, verslaat Qwen3 8B met 10% op AIME 2024 en evenaart de prestaties van Qwen3-235B-thinking. Het blinkt uit in wiskundige redenering, programmeren en algemene logica-benchmarks. Het deelt de Qwen3-8B-architectuur maar gebruikt de tokenizer van DeepSeek-R1-0528.",
|
|
341
|
+
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 benut extra rekenkracht en post-trainingsoptimalisaties om redenering te verdiepen. Het presteert sterk op benchmarks in wiskunde, programmeren en algemene logica, en benadert leiders als o3 en Gemini 2.5 Pro.",
|
|
342
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek-R1 gedistilleerde modellen gebruiken RL en cold-start data om redenering te verbeteren en nieuwe open-model multi-task benchmarks te zetten.",
|
|
343
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "DeepSeek-R1 gedistilleerde modellen gebruiken RL en cold-start data om redenering te verbeteren en nieuwe open-model multi-task benchmarks te zetten.",
|
|
344
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1 gedistilleerde modellen gebruiken RL en cold-start data om redenering te verbeteren en nieuwe open-model multi-task benchmarks te zetten.",
|
|
345
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B is gedistilleerd van Qwen2.5-32B en fijngestemd op 800K zorgvuldig geselecteerde DeepSeek-R1-samples. Het blinkt uit in wiskunde, programmeren en redenering, en behaalt sterke resultaten op AIME 2024, MATH-500 (94,3% nauwkeurigheid) en GPQA Diamond.",
|
|
346
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B is gedistilleerd van Qwen2.5-Math-7B en fijngestemd op 800K zorgvuldig geselecteerde DeepSeek-R1-samples. Het presteert sterk, met 92,8% op MATH-500, 55,5% op AIME 2024 en een CodeForces-rating van 1189 voor een 7B-model.",
|
|
347
|
+
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 verbetert redenering met RL en cold-start data, zet nieuwe open-model multi-task benchmarks en overtreft OpenAI-o1-mini.",
|
|
348
|
+
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 is een upgrade van DeepSeek-V2-Chat en DeepSeek-Coder-V2-Instruct, en combineert algemene en programmeervaardigheden. Het verbetert schrijven en instructievolging voor betere voorkeurafstemming, en toont aanzienlijke vooruitgang op AlpacaEval 2.0, ArenaHard, AlignBench en MT-Bench.",
|
|
349
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus is een bijgewerkt V3.1-model gepositioneerd als een hybride agent-LLM. Het lost door gebruikers gemelde problemen op en verbetert stabiliteit, taalconsistentie en vermindert gemengde Chinees/Engels en abnormale tekens. Het integreert Denk- en Niet-denkmodi met chattemplates voor flexibele omschakeling. Het verbetert ook de prestaties van Code Agent en Search Agent voor betrouwbaarder gebruik van tools en meerstapstaken.",
|
|
350
|
+
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 gebruikt een hybride redeneersarchitectuur en ondersteunt zowel denk- als niet-denkmodi.",
|
|
351
|
+
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp is een experimentele V3.2-release die de brug slaat naar de volgende architectuur. Het voegt DeepSeek Sparse Attention (DSA) toe bovenop V3.1-Terminus om de efficiëntie van training en inferentie met lange context te verbeteren, met optimalisaties voor toolgebruik, begrip van lange documenten en meerstapsredenering. Ideaal voor het verkennen van hogere redeneerefficiëntie met grote contextbudgetten.",
|
|
352
|
+
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 is een MoE-model met 671 miljard parameters dat gebruikmaakt van MLA en DeepSeekMoE met verliesvrije load balancing voor efficiënte training en inferentie. Voorgetraind op 14,8T hoogwaardige tokens met SFT en RL, overtreft het andere open modellen en benadert het toonaangevende gesloten modellen.",
|
|
353
|
+
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) is een innovatief model dat diep taalbegrip en interactie biedt.",
|
|
354
|
+
"deepseek-ai/deepseek-r1.description": "Een geavanceerd, efficiënt LLM dat sterk is in redenering, wiskunde en programmeren.",
|
|
355
|
+
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
|
|
356
|
+
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
|
|
357
|
+
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
|
|
301
358
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
|
|
302
359
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
|
|
303
360
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "Plan aangemaakt: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "Taken aanmaken",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "Taak uitvoeren",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "Taak aangemaakt: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "Taak wordt aangemaakt: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "Taken uitvoeren",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "Taken verwijderen",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "Plan bijwerken",
|
package/locales/pl-PL/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} zadań zbiorczych",
|
|
296
296
|
"task.metrics.stepsShort": "kroków",
|
|
297
297
|
"task.metrics.toolCallsShort": "użycia narzędzi",
|
|
298
|
+
"task.status.cancelled": "Zadanie anulowane",
|
|
299
|
+
"task.status.failed": "Zadanie nie powiodło się",
|
|
298
300
|
"task.status.initializing": "Inicjalizacja zadania...",
|
|
299
301
|
"task.subtask": "Podzadanie",
|
|
300
302
|
"thread.divider": "Podtemat",
|
|
@@ -250,6 +250,116 @@
|
|
|
250
250
|
"anthropic/claude-opus-4.description": "Opus 4 to flagowy model Anthropic zaprojektowany do złożonych zadań i zastosowań korporacyjnych.",
|
|
251
251
|
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 to najnowszy hybrydowy model rozumowania od Anthropic, zoptymalizowany pod kątem złożonego rozumowania i kodowania.",
|
|
252
252
|
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 to hybrydowy model rozumowania Anthropic z mieszanym trybem myślenia i działania bez myślenia.",
|
|
253
|
+
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B to rzadki model językowy (LLM) o 72 miliardach parametrów całkowitych i 16 miliardach aktywnych, oparty na architekturze grupowanej MoE (MoGE). Grupuje ekspertów podczas selekcji i ogranicza aktywację tokenów do równej liczby ekspertów w każdej grupie, co równoważy obciążenie i zwiększa efektywność wdrażania na platformie Ascend.",
|
|
254
|
+
"aya.description": "Aya 23 to wielojęzyczny model firmy Cohere, obsługujący 23 języki i różnorodne zastosowania.",
|
|
255
|
+
"aya:35b.description": "Aya 23 to wielojęzyczny model firmy Cohere, obsługujący 23 języki i różnorodne zastosowania.",
|
|
256
|
+
"azure-DeepSeek-R1-0528.description": "Wdrażany przez Microsoft; DeepSeek R1 został zaktualizowany do wersji DeepSeek-R1-0528. Aktualizacja zwiększa moc obliczeniową i optymalizuje algorytmy po treningu, znacząco poprawiając głębokość rozumowania i wnioskowanie. Model osiąga doskonałe wyniki w testach z matematyki, programowania i logiki ogólnej, zbliżając się do czołowych modeli, takich jak O3 i Gemini 2.5 Pro.",
|
|
257
|
+
"baichuan-m2-32b.description": "Baichuan M2 32B to model MoE od Baichuan Intelligence, wyróżniający się silnymi zdolnościami rozumowania.",
|
|
258
|
+
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B to otwartoźródłowy model językowy z 13 miliardami parametrów, dostępny do użytku komercyjnego, osiągający najlepsze wyniki w swojej klasie w autorytatywnych testach w języku chińskim i angielskim.",
|
|
259
|
+
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B to model językowy MoE firmy Baidu z 300 miliardami parametrów całkowitych i 47 miliardami aktywnych na token, łączący wysoką wydajność z efektywnością obliczeniową. Jako kluczowy model serii ERNIE 4.5, wyróżnia się w rozumieniu, generowaniu, rozumowaniu i programowaniu. Wykorzystuje heterogeniczną metodę pretrenowania MoE z multimodalnym treningiem tekst-obraz, co zwiększa ogólne możliwości, szczególnie w zakresie podążania za instrukcjami i wiedzy o świecie.",
|
|
260
|
+
"baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview to nowej generacji natywny multimodalny model ERNIE firmy Baidu, silny w rozumieniu multimodalnym, podążaniu za instrukcjami, tworzeniu treści, odpowiadaniu na pytania faktograficzne i korzystaniu z narzędzi.",
|
|
261
|
+
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro to szybsza, ulepszona wersja modelu FLUX Pro, oferująca doskonałą jakość obrazu i zgodność z podpowiedziami.",
|
|
262
|
+
"black-forest-labs/flux-dev.description": "FLUX Dev to wersja rozwojowa modelu FLUX przeznaczona do użytku niekomercyjnego.",
|
|
263
|
+
"black-forest-labs/flux-pro.description": "FLUX Pro to profesjonalny model FLUX do generowania obrazów wysokiej jakości.",
|
|
264
|
+
"black-forest-labs/flux-schnell.description": "FLUX Schnell to szybki model generowania obrazów zoptymalizowany pod kątem prędkości.",
|
|
265
|
+
"c4ai-aya-expanse-32b.description": "Aya Expanse to wysokowydajny, wielojęzyczny model 32B, który wykorzystuje dostrajanie instrukcji, arbitraż danych, trening preferencji i łączenie modeli, aby dorównać modelom monojęzycznym. Obsługuje 23 języki.",
|
|
266
|
+
"c4ai-aya-expanse-8b.description": "Aya Expanse to wysokowydajny, wielojęzyczny model 8B, który wykorzystuje dostrajanie instrukcji, arbitraż danych, trening preferencji i łączenie modeli, aby dorównać modelom monojęzycznym. Obsługuje 23 języki.",
|
|
267
|
+
"c4ai-aya-vision-32b.description": "Aya Vision to nowoczesny model multimodalny, który osiąga wysokie wyniki w kluczowych testach językowych, tekstowych i wizualnych. Obsługuje 23 języki. Wersja 32B koncentruje się na najwyższej wydajności wielojęzycznej.",
|
|
268
|
+
"c4ai-aya-vision-8b.description": "Aya Vision to nowoczesny model multimodalny, który osiąga wysokie wyniki w kluczowych testach językowych, tekstowych i wizualnych. Wersja 8B została zoptymalizowana pod kątem niskich opóźnień i wysokiej wydajności.",
|
|
269
|
+
"charglm-3.description": "CharGLM-3 został zaprojektowany do odgrywania ról i emocjonalnego towarzyszenia, obsługując ultra-długą pamięć wieloetapową i spersonalizowany dialog.",
|
|
270
|
+
"charglm-4.description": "CharGLM-4 został zaprojektowany do odgrywania ról i emocjonalnego towarzyszenia, obsługując ultra-długą pamięć wieloetapową i spersonalizowany dialog.",
|
|
271
|
+
"chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
|
|
272
|
+
"claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
|
|
273
|
+
"claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic. W porównaniu do Claude 3 Haiku oferuje lepsze umiejętności i przewyższa wcześniejszy największy model Claude 3 Opus w wielu testach inteligencji.",
|
|
275
|
+
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania. Może generować niemal natychmiastowe odpowiedzi lub rozbudowane, krok po kroku rozumowanie widoczne dla użytkownika. Sonnet wyróżnia się szczególnie w programowaniu, analizie danych, przetwarzaniu obrazu i zadaniach agentowych.",
|
|
277
|
+
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
278
|
+
"claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
|
|
279
|
+
"claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
280
|
+
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku od Anthropic, oferujący błyskawiczne działanie i zaawansowane rozumowanie.",
|
|
282
|
+
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
|
|
283
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
285
|
+
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
|
|
286
|
+
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku z widocznym procesem.",
|
|
288
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
|
|
289
|
+
"codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
|
|
290
|
+
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
|
|
291
|
+
"codegemma.description": "CodeGemma to lekki model do różnorodnych zadań programistycznych, umożliwiający szybką iterację i integrację.",
|
|
292
|
+
"codegemma:2b.description": "CodeGemma to lekki model do różnorodnych zadań programistycznych, umożliwiający szybką iterację i integrację.",
|
|
293
|
+
"codellama.description": "Code Llama to duży model językowy (LLM) skoncentrowany na generowaniu i analizie kodu, obsługujący wiele języków programowania i wspierający przepływy pracy deweloperów.",
|
|
294
|
+
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama to duży model językowy (LLM) skoncentrowany na generowaniu i analizie kodu, obsługujący wiele języków programowania i wspierający przepływy pracy deweloperów.",
|
|
295
|
+
"codellama:13b.description": "Code Llama to duży model językowy (LLM) skoncentrowany na generowaniu i analizie kodu, obsługujący wiele języków programowania i wspierający przepływy pracy deweloperów.",
|
|
296
|
+
"codellama:34b.description": "Code Llama to duży model językowy (LLM) skoncentrowany na generowaniu i analizie kodu, obsługujący wiele języków programowania i wspierający przepływy pracy deweloperów.",
|
|
297
|
+
"codellama:70b.description": "Code Llama to duży model językowy (LLM) skoncentrowany na generowaniu i analizie kodu, obsługujący wiele języków programowania i wspierający przepływy pracy deweloperów.",
|
|
298
|
+
"codeqwen.description": "CodeQwen1.5 to duży model językowy wytrenowany na obszernych danych kodu, zaprojektowany do realizacji złożonych zadań programistycznych.",
|
|
299
|
+
"codestral-latest.description": "Codestral to nasz najbardziej zaawansowany model kodujący; wersja 2 (styczeń 2025) została zoptymalizowana pod kątem niskich opóźnień i zadań o wysokiej częstotliwości, takich jak FIM, poprawa kodu i generowanie testów.",
|
|
300
|
+
"codestral.description": "Codestral to pierwszy model kodujący od Mistral AI, oferujący solidne wsparcie dla generowania kodu.",
|
|
301
|
+
"codex-mini-latest.description": "codex-mini-latest to dostrojony model o4-mini dla interfejsu Codex CLI. Do bezpośredniego użycia przez API zalecamy rozpoczęcie od gpt-4.1.",
|
|
302
|
+
"cogito-2.1:671b.description": "Cogito v2.1 671B to amerykański otwartoźródłowy model LLM dostępny do użytku komercyjnego, dorównujący wydajnością czołowym modelom, oferujący wyższą efektywność rozumowania tokenów, kontekst długości 128k i ogólnie wysokie możliwości.",
|
|
303
|
+
"cogview-4.description": "CogView-4 to pierwszy otwartoźródłowy model tekst-na-obraz od Zhipu, który potrafi generować chińskie znaki. Poprawia zrozumienie semantyczne, jakość obrazu i renderowanie tekstu w języku chińskim i angielskim, obsługuje dwujęzyczne podpowiedzi o dowolnej długości i generuje obrazy w dowolnej rozdzielczości w określonych zakresach.",
|
|
304
|
+
"cohere-command-r-plus.description": "Command R+ to zaawansowany model zoptymalizowany pod kątem RAG, stworzony z myślą o zastosowaniach korporacyjnych.",
|
|
305
|
+
"cohere-command-r.description": "Command R to skalowalny model generatywny zaprojektowany do zastosowań RAG i integracji z narzędziami, umożliwiający wdrażanie AI na poziomie produkcyjnym.",
|
|
306
|
+
"cohere/Cohere-command-r-plus.description": "Command R+ to zaawansowany model zoptymalizowany pod kątem RAG, stworzony z myślą o zastosowaniach korporacyjnych.",
|
|
307
|
+
"cohere/Cohere-command-r.description": "Command R to skalowalny model generatywny zaprojektowany do zastosowań RAG i integracji z narzędziami, umożliwiający wdrażanie AI na poziomie produkcyjnym.",
|
|
308
|
+
"cohere/command-a.description": "Command A to najpotężniejszy model Cohere, doskonały w użyciu narzędzi, agentach, RAG i scenariuszach wielojęzycznych. Obsługuje kontekst długości 256K, działa na zaledwie dwóch GPU i zapewnia 150% większą przepustowość niż Command R+ 08-2024.",
|
|
309
|
+
"cohere/command-r-plus.description": "Command R+ to najnowszy model LLM od Cohere, zoptymalizowany pod kątem czatu i długiego kontekstu, zaprojektowany z myślą o przejściu firm od prototypów do produkcji.",
|
|
310
|
+
"cohere/command-r.description": "Command R jest zoptymalizowany pod kątem czatu i zadań z długim kontekstem, pozycjonowany jako model „skalowalny”, który równoważy wysoką wydajność i dokładność, umożliwiając firmom przejście od prototypów do produkcji.",
|
|
311
|
+
"cohere/embed-v4.0.description": "Model klasyfikujący lub przekształcający tekst, obrazy lub treści mieszane w osadzenia (embeddings).",
|
|
312
|
+
"comfyui/flux-dev.description": "FLUX.1 Dev to wysokiej jakości model tekst-na-obraz (10–50 kroków), idealny do kreatywnych i artystycznych zastosowań premium.",
|
|
313
|
+
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev to model edycji obrazu wspierający edycje prowadzone tekstem, w tym edycje lokalne i transfer stylu.",
|
|
314
|
+
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev to model tekst-na-obraz z wbudowanymi filtrami bezpieczeństwa, współtworzony z Krea.",
|
|
315
|
+
"comfyui/flux-schnell.description": "FLUX.1 Schnell to ultraszybki model tekst-na-obraz generujący wysokiej jakości obrazy w 1–4 krokach, idealny do zastosowań w czasie rzeczywistym i szybkiego prototypowania.",
|
|
316
|
+
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 to klasyczny model tekst-na-obraz 512x512, idealny do szybkiego prototypowania i eksperymentów twórczych.",
|
|
317
|
+
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 z wbudowanymi enkoderami CLIP/T5 nie wymaga zewnętrznych plików enkodera, odpowiedni dla modeli takich jak sd3.5_medium_incl_clips o niższym zużyciu zasobów.",
|
|
318
|
+
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 to nowej generacji model tekst-na-obraz w wariantach Large i Medium. Wymaga zewnętrznych plików enkodera CLIP i zapewnia doskonałą jakość obrazu oraz zgodność z podpowiedziami.",
|
|
319
|
+
"comfyui/stable-diffusion-custom-refiner.description": "Niestandardowy model SDXL obraz-na-obraz. Użyj custom_sd_lobe.safetensors jako nazwy pliku modelu; jeśli posiadasz VAE, użyj custom_sd_vae_lobe.safetensors. Umieść pliki modelu w wymaganych folderach Comfy.",
|
|
320
|
+
"comfyui/stable-diffusion-custom.description": "Niestandardowy model SD tekst-na-obraz. Użyj custom_sd_lobe.safetensors jako nazwy pliku modelu; jeśli posiadasz VAE, użyj custom_sd_vae_lobe.safetensors. Umieść pliki modelu w wymaganych folderach Comfy.",
|
|
321
|
+
"comfyui/stable-diffusion-refiner.description": "Model SDXL obraz-na-obraz wykonuje wysokiej jakości transformacje obrazów wejściowych, wspierając transfer stylu, rekonstrukcję i kreatywne wariacje.",
|
|
322
|
+
"comfyui/stable-diffusion-xl.description": "SDXL to model tekst-na-obraz obsługujący generowanie obrazów w wysokiej rozdzielczości 1024x1024 z lepszą jakością i szczegółowością.",
|
|
323
|
+
"command-a-03-2025.description": "Command A to nasz najbardziej zaawansowany model, doskonały w użyciu narzędzi, agentach, RAG i scenariuszach wielojęzycznych. Obsługuje kontekst długości 256K, działa na zaledwie dwóch GPU i zapewnia 150% większą przepustowość niż Command R+ 08-2024.",
|
|
324
|
+
"command-light-nightly.description": "Aby skrócić czas między głównymi wydaniami, oferujemy nocne kompilacje Command. W serii command-light nazywa się to command-light-nightly. Jest to najnowsza, najbardziej eksperymentalna (i potencjalnie niestabilna) wersja, aktualizowana regularnie bez zapowiedzi, dlatego nie jest zalecana do produkcji.",
|
|
325
|
+
"command-light.description": "Mniejszy, szybszy wariant Command, niemal równie wydajny, ale szybszy.",
|
|
326
|
+
"command-nightly.description": "Aby skrócić czas między głównymi wydaniami, oferujemy nocne kompilacje Command. W serii Command nazywa się to command-nightly. Jest to najnowsza, najbardziej eksperymentalna (i potencjalnie niestabilna) wersja, aktualizowana regularnie bez zapowiedzi, dlatego nie jest zalecana do produkcji.",
|
|
327
|
+
"command-r-03-2024.description": "Command R to model czatu podążający za instrukcjami, oferujący wyższą jakość, większą niezawodność i dłuższe okno kontekstu niż wcześniejsze modele. Obsługuje złożone przepływy pracy, takie jak generowanie kodu, RAG, użycie narzędzi i agentów.",
|
|
328
|
+
"command-r-08-2024.description": "command-r-08-2024 to zaktualizowany model Command R wydany w sierpniu 2024.",
|
|
329
|
+
"command-r-plus-04-2024.description": "command-r-plus to alias modelu command-r-plus-04-2024, więc użycie command-r-plus w API wskazuje na ten model.",
|
|
330
|
+
"command-r-plus-08-2024.description": "Command R+ to model czatu podążający za instrukcjami, oferujący wyższą jakość, większą niezawodność i dłuższe okno kontekstu niż wcześniejsze modele. Najlepiej sprawdza się w złożonych przepływach RAG i wieloetapowym użyciu narzędzi.",
|
|
331
|
+
"command-r-plus.description": "Command R+ to wysokowydajny model LLM zaprojektowany do rzeczywistych scenariuszy korporacyjnych i złożonych aplikacji.",
|
|
332
|
+
"command-r.description": "Command R to model LLM zoptymalizowany pod kątem czatu i zadań z długim kontekstem, idealny do dynamicznej interakcji i zarządzania wiedzą.",
|
|
333
|
+
"command-r7b-12-2024.description": "command-r7b-12-2024 to mała, wydajna aktualizacja wydana w grudniu 2024. Doskonale sprawdza się w zadaniach RAG, użyciu narzędzi i agentach wymagających złożonego, wieloetapowego rozumowania.",
|
|
334
|
+
"command.description": "Model czatu podążający za instrukcjami, oferujący wyższą jakość i niezawodność w zadaniach językowych, z dłuższym oknem kontekstu niż nasze podstawowe modele generatywne.",
|
|
335
|
+
"computer-use-preview.description": "computer-use-preview to specjalistyczny model dla narzędzia „użycie komputera”, wytrenowany do rozumienia i wykonywania zadań związanych z komputerem.",
|
|
336
|
+
"dall-e-2.description": "Druga generacja modelu DALL·E z bardziej realistycznym i dokładnym generowaniem obrazów oraz 4× wyższą rozdzielczością niż pierwsza generacja.",
|
|
337
|
+
"dall-e-3.description": "Najnowszy model DALL·E, wydany w listopadzie 2023, oferuje bardziej realistyczne i dokładne generowanie obrazów z lepszymi szczegółami.",
|
|
338
|
+
"databricks/dbrx-instruct.description": "DBRX Instruct zapewnia niezawodne przetwarzanie instrukcji w różnych branżach.",
|
|
339
|
+
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR to model językowo-wizualny od DeepSeek AI skoncentrowany na OCR i „optycznej kompresji kontekstowej”. Eksploruje kompresję kontekstu z obrazów, efektywnie przetwarza dokumenty i konwertuje je na ustrukturyzowany tekst (np. Markdown). Dokładnie rozpoznaje tekst na obrazach, idealny do cyfryzacji dokumentów, ekstrakcji tekstu i przetwarzania strukturalnego.",
|
|
340
|
+
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B destyluje łańcuch rozumowania z DeepSeek-R1-0528 do Qwen3 8B Base. Osiąga SOTA wśród modeli open-source, przewyższając Qwen3 8B o 10% w AIME 2024 i dorównując wydajności Qwen3-235B-thinking. Wyróżnia się w rozumowaniu matematycznym, programowaniu i testach logiki. Dzieli architekturę Qwen3-8B, ale używa tokenizera DeepSeek-R1-0528.",
|
|
341
|
+
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 wykorzystuje dodatkową moc obliczeniową i optymalizacje algorytmiczne po treningu, aby pogłębić rozumowanie. Osiąga wysokie wyniki w testach matematycznych, programistycznych i logicznych, zbliżając się do liderów takich jak o3 i Gemini 2.5 Pro.",
|
|
342
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "Modele destylowane DeepSeek-R1 wykorzystują RL i dane cold-start do poprawy rozumowania i ustanawiają nowe rekordy w testach wielozadaniowych modeli open-source.",
|
|
343
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "Modele destylowane DeepSeek-R1 wykorzystują RL i dane cold-start do poprawy rozumowania i ustanawiają nowe rekordy w testach wielozadaniowych modeli open-source.",
|
|
344
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "Modele destylowane DeepSeek-R1 wykorzystują RL i dane cold-start do poprawy rozumowania i ustanawiają nowe rekordy w testach wielozadaniowych modeli open-source.",
|
|
345
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B to model destylowany z Qwen2.5-32B i dostrojony na 800 tys. starannie dobranych próbkach DeepSeek-R1. Wyróżnia się w matematyce, programowaniu i rozumowaniu, osiągając wysokie wyniki w AIME 2024, MATH-500 (94,3% trafności) i GPQA Diamond.",
|
|
346
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B to model destylowany z Qwen2.5-Math-7B i dostrojony na 800 tys. starannie dobranych próbkach DeepSeek-R1. Osiąga wysokie wyniki: 92,8% w MATH-500, 55,5% w AIME 2024 i ocenę 1189 w CodeForces dla modelu 7B.",
|
|
347
|
+
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 poprawia rozumowanie dzięki RL i danym cold-start, ustanawiając nowe rekordy w testach wielozadaniowych modeli open-source i przewyższając OpenAI-o1-mini.",
|
|
348
|
+
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 to ulepszona wersja DeepSeek-V2-Chat i DeepSeek-Coder-V2-Instruct, łącząca ogólne i programistyczne zdolności. Poprawia pisanie i wykonywanie instrukcji, lepiej dopasowując się do preferencji użytkownika, i osiąga znaczące wyniki w AlpacaEval 2.0, ArenaHard, AlignBench i MT-Bench.",
|
|
349
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus to zaktualizowany model V3.1 pełniący rolę hybrydowego agenta LLM. Naprawia zgłoszone przez użytkowników problemy, poprawia stabilność, spójność językową i redukuje mieszane znaki chińskie/angielskie oraz anomalie. Integruje tryby myślenia i nie-myślenia z szablonami czatu dla elastycznego przełączania. Ulepsza także działanie Code Agent i Search Agent, zapewniając bardziej niezawodne korzystanie z narzędzi i realizację zadań wieloetapowych.",
|
|
350
|
+
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 wykorzystuje hybrydową architekturę rozumowania i obsługuje zarówno tryby myślenia, jak i nie-myślenia.",
|
|
351
|
+
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp to eksperymentalna wersja V3.2, stanowiąca pomost do nowej architektury. Dodaje DeepSeek Sparse Attention (DSA) do V3.1-Terminus, poprawiając efektywność treningu i wnioskowania w długim kontekście, z optymalizacjami dla użycia narzędzi, rozumienia długich dokumentów i rozumowania wieloetapowego. Idealny do eksploracji wyższej efektywności rozumowania przy dużych budżetach kontekstowych.",
|
|
352
|
+
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 to model MoE z 671 miliardami parametrów, wykorzystujący MLA i DeepSeekMoE z bezstratnym równoważeniem obciążenia dla efektywnego treningu i wnioskowania. Wytrenowany na 14,8T wysokiej jakości tokenach z SFT i RL, przewyższa inne modele open-source i zbliża się do czołowych modeli zamkniętych.",
|
|
353
|
+
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) to innowacyjny model oferujący głębokie zrozumienie języka i interakcję.",
|
|
354
|
+
"deepseek-ai/deepseek-r1.description": "Nowoczesny, wydajny LLM o wysokich zdolnościach w rozumowaniu, matematyce i programowaniu.",
|
|
355
|
+
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
|
|
356
|
+
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
|
|
357
|
+
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
|
|
358
|
+
"deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności językowe i programistyczne. Zachowuje ogólny dialog modelu czatu i silne programowanie modelu kodera, z lepszym dopasowaniem do preferencji. DeepSeek-V2.5 poprawia również pisanie i wykonywanie instrukcji.",
|
|
359
|
+
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
|
|
360
|
+
"deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
|
|
361
|
+
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
|
|
362
|
+
"deepseek-ocr.description": "DeepSeek-OCR to model językowo-wizualny od DeepSeek AI skoncentrowany na OCR i „optycznej kompresji kontekstowej”. Eksploruje kompresję informacji kontekstowych z obrazów, efektywnie przetwarza dokumenty i konwertuje je do ustrukturyzowanych formatów tekstowych, takich jak Markdown. Dokładnie rozpoznaje tekst na obrazach, idealny do cyfryzacji dokumentów, ekstrakcji tekstu i przetwarzania strukturalnego.",
|
|
253
363
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
|
|
254
364
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
|
|
255
365
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "Utworzono plan: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "Utwórz zadania",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "Wykonaj zadanie",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "Zadanie utworzone: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "Tworzenie zadania: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "Wykonaj zadania",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "Usuń zadania",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "Zaktualizuj plan",
|
package/locales/pt-BR/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} Subtarefas em Lote",
|
|
296
296
|
"task.metrics.stepsShort": "etapas",
|
|
297
297
|
"task.metrics.toolCallsShort": "usos de ferramenta",
|
|
298
|
+
"task.status.cancelled": "Tarefa Cancelada",
|
|
299
|
+
"task.status.failed": "Falha na Tarefa",
|
|
298
300
|
"task.status.initializing": "Inicializando tarefa...",
|
|
299
301
|
"task.subtask": "Subtarefa",
|
|
300
302
|
"thread.divider": "Subtópico",
|
|
@@ -271,9 +271,9 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, ele apresenta melhorias em diversas habilidades e supera o modelo anterior Claude 3 Opus em muitos testes de inteligência.",
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, ele apresenta melhorias em diversas habilidades e supera o maior modelo anterior, Claude 3 Opus, em muitos testes de inteligência.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado. Ele pode gerar respostas quase instantâneas ou raciocínios passo a passo visíveis para o usuário. O Sonnet se destaca especialmente em programação, ciência de dados, visão computacional e tarefas
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado. Ele pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo visíveis para o usuário. O Sonnet se destaca especialmente em programação, ciência de dados, visão computacional e tarefas de agentes.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
|
|
@@ -284,7 +284,7 @@
|
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou raciocínios passo a passo com processo visível.",
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo com processo visível.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo aprimorado e cadeia de pensamento para tarefas de análise profunda.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo aprimorado e cadeia de pensamento para tarefas de análise profunda.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
|
|
358
|
-
"deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação.
|
|
358
|
+
"deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Ele mantém o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programador, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento no meio, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 é um modelo de código MoE de código aberto com desempenho forte em tarefas de programação, comparável ao GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 é um modelo de código MoE de código aberto com desempenho forte em tarefas de programação, comparável ao GPT-4 Turbo.",
|
|
@@ -378,10 +378,86 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Versão completa rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
|
|
379
379
|
"deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 utiliza dados de início a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
|
|
381
|
-
"deepseek-reasoner.description": "O modo de
|
|
381
|
+
"deepseek-reasoner.description": "O modo de raciocínio do DeepSeek V3.2 gera uma cadeia de pensamento antes da resposta final para melhorar a precisão.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
|
|
385
|
+
"deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus é um LLM otimizado para terminais da DeepSeek, projetado para dispositivos de terminal.",
|
|
386
|
+
"deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 é o modelo de pensamento profundo correspondente à versão Terminus, desenvolvido para raciocínio de alto desempenho.",
|
|
387
|
+
"deepseek-v3.1.description": "DeepSeek-V3.1 é um novo modelo híbrido de raciocínio da DeepSeek, com suporte a modos com e sem pensamento, oferecendo maior eficiência de raciocínio do que o DeepSeek-R1-0528. Otimizações pós-treinamento melhoram significativamente o uso de ferramentas por agentes e o desempenho em tarefas de agentes. Suporta janela de contexto de 128k e até 64k tokens de saída.",
|
|
388
|
+
"deepseek-v3.1:671b.description": "DeepSeek V3.1 é um modelo de raciocínio de próxima geração com melhorias em raciocínio complexo e cadeia de pensamento, ideal para tarefas que exigem análise profunda.",
|
|
389
|
+
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduz atenção esparsa para melhorar a eficiência de treinamento e inferência em textos longos, com custo inferior ao deepseek-v3.1.",
|
|
390
|
+
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think é um modelo completo de pensamento profundo com raciocínio de cadeia longa mais robusto.",
|
|
391
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2 é o primeiro modelo híbrido de raciocínio da DeepSeek que integra pensamento ao uso de ferramentas. Com arquitetura eficiente para economia de recursos, aprendizado por reforço em larga escala para aumento de capacidade e dados sintéticos em massa para maior generalização, seu desempenho rivaliza com o GPT-5-High. A saída é significativamente mais curta, reduzindo o custo computacional e o tempo de espera do usuário.",
|
|
392
|
+
"deepseek-v3.description": "DeepSeek-V3 é um poderoso modelo MoE com 671 bilhões de parâmetros totais e 37 bilhões ativos por token.",
|
|
393
|
+
"deepseek-vl2-small.description": "DeepSeek VL2 Small é uma versão multimodal leve para uso com recursos limitados e alta concorrência.",
|
|
394
|
+
"deepseek-vl2.description": "DeepSeek VL2 é um modelo multimodal para compreensão imagem-texto e perguntas visuais detalhadas.",
|
|
395
|
+
"deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 é um modelo MoE com 685 bilhões de parâmetros e a mais recente iteração da série de chat principal da DeepSeek.\n\nBaseado no [DeepSeek V3](/deepseek/deepseek-chat-v3), apresenta desempenho sólido em diversas tarefas.",
|
|
396
|
+
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 é um modelo MoE com 685 bilhões de parâmetros e a mais recente iteração da série de chat principal da DeepSeek.\n\nBaseado no [DeepSeek V3](/deepseek/deepseek-chat-v3), apresenta desempenho sólido em diversas tarefas.",
|
|
397
|
+
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 é o modelo híbrido de raciocínio de longo contexto da DeepSeek, com suporte a modos mistos de pensamento/não pensamento e integração de ferramentas.",
|
|
398
|
+
"deepseek/deepseek-chat.description": "DeepSeek-V3 é o modelo híbrido de raciocínio de alto desempenho da DeepSeek para tarefas complexas e integração de ferramentas.",
|
|
399
|
+
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 é uma variante atualizada com foco em disponibilidade aberta e raciocínio mais profundo.",
|
|
400
|
+
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 melhora significativamente o raciocínio com dados rotulados mínimos e gera uma cadeia de pensamento antes da resposta final para maior precisão.",
|
|
401
|
+
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B é um LLM destilado baseado no Llama 3.3 70B, ajustado com saídas do DeepSeek R1 para alcançar desempenho competitivo com modelos de ponta.",
|
|
402
|
+
"deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B é um LLM destilado baseado no Llama-3.1-8B-Instruct, treinado com saídas do DeepSeek R1.",
|
|
403
|
+
"deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B é um LLM destilado baseado no Qwen 2.5 14B, treinado com saídas do DeepSeek R1. Supera o OpenAI o1-mini em vários benchmarks, alcançando resultados de ponta entre modelos densos. Destaques de benchmark:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces Rating: 1481\nO ajuste fino com saídas do DeepSeek R1 oferece desempenho competitivo com modelos maiores de ponta.",
|
|
404
|
+
"deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B é um LLM destilado baseado no Qwen 2.5 32B, treinado com saídas do DeepSeek R1. Supera o OpenAI o1-mini em vários benchmarks, alcançando resultados de ponta entre modelos densos. Destaques de benchmark:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces Rating: 1691\nO ajuste fino com saídas do DeepSeek R1 oferece desempenho competitivo com modelos maiores de ponta.",
|
|
405
|
+
"deepseek/deepseek-r1.description": "DeepSeek R1 foi atualizado para DeepSeek-R1-0528. Com mais capacidade computacional e otimizações algorítmicas pós-treinamento, melhora significativamente a profundidade e capacidade de raciocínio. Apresenta desempenho sólido em benchmarks de matemática, programação e lógica geral, aproximando-se de líderes como o3 e Gemini 2.5 Pro.",
|
|
406
|
+
"deepseek/deepseek-r1/community.description": "DeepSeek R1 é o mais recente modelo de código aberto lançado pela equipe DeepSeek, com desempenho de raciocínio muito forte, especialmente em tarefas de matemática, programação e lógica, comparável ao OpenAI o1.",
|
|
407
|
+
"deepseek/deepseek-r1:free.description": "DeepSeek-R1 melhora significativamente o raciocínio com dados rotulados mínimos e gera uma cadeia de pensamento antes da resposta final para maior precisão.",
|
|
408
|
+
"deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) é o modelo experimental de raciocínio da DeepSeek, adequado para tarefas de alta complexidade.",
|
|
409
|
+
"deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base é uma versão aprimorada do modelo DeepSeek V3.",
|
|
410
|
+
"deepseek/deepseek-v3.description": "Um LLM rápido de uso geral com raciocínio aprimorado.",
|
|
411
|
+
"deepseek/deepseek-v3/community.description": "DeepSeek-V3 representa um grande avanço na velocidade de raciocínio em relação a modelos anteriores. Classifica-se em primeiro lugar entre os modelos de código aberto e rivaliza com os modelos fechados mais avançados. Adota Multi-Head Latent Attention (MLA) e a arquitetura DeepSeekMoE, ambas validadas no DeepSeek-V2. Também introduz uma estratégia auxiliar sem perdas para balanceamento de carga e um objetivo de treinamento de predição multi-token para desempenho mais forte.",
|
|
412
|
+
"deepseek_r1.description": "DeepSeek-R1 é um modelo de raciocínio orientado por aprendizado por reforço que resolve problemas de repetição e legibilidade. Antes do RL, utiliza dados de início a frio para melhorar ainda mais o desempenho de raciocínio. Alcança resultados comparáveis ao OpenAI-o1 em tarefas de matemática, programação e lógica, com treinamento cuidadosamente projetado para melhorar os resultados gerais.",
|
|
413
|
+
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B é destilado do Llama-3.3-70B-Instruct. Como parte da série DeepSeek-R1, é ajustado com amostras geradas pelo DeepSeek-R1 e apresenta desempenho forte em matemática, programação e raciocínio.",
|
|
414
|
+
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B é destilado do Qwen2.5-14B e ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, oferecendo raciocínio robusto.",
|
|
415
|
+
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B é destilado do Qwen2.5-32B e ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, destacando-se em matemática, programação e raciocínio.",
|
|
416
|
+
"devstral-2:123b.description": "Devstral 2 123B se destaca no uso de ferramentas para explorar bases de código, editar múltiplos arquivos e apoiar agentes de engenharia de software.",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite é um novo modelo leve com resposta ultrarrápida, oferecendo qualidade e latência de alto nível.",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k é uma atualização abrangente do Doubao-1.5-Pro, com melhoria de 10% no desempenho geral. Suporta uma janela de contexto de 256k e até 12k tokens de saída, oferecendo maior desempenho, janela ampliada e excelente custo-benefício para casos de uso mais amplos.",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro é um modelo carro-chefe de nova geração com melhorias em todas as áreas, destacando-se em conhecimento, programação e raciocínio.",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 é um novo modelo de raciocínio profundo (a versão m inclui raciocínio multimodal nativo) que se destaca em matemática, programação, raciocínio científico e tarefas gerais como escrita criativa. Alcança ou se aproxima de resultados de ponta em benchmarks como AIME 2024, Codeforces e GPQA. Suporta uma janela de contexto de 128k e 16k de saída.",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 é um novo modelo de raciocínio profundo que se destaca em matemática, programação, raciocínio científico e tarefas gerais como escrita criativa. Alcança ou se aproxima de resultados de ponta em benchmarks como AIME 2024, Codeforces e GPQA. Suporta uma janela de contexto de 128k e 16k de saída.",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "Um novo modelo visual de raciocínio profundo com compreensão e raciocínio multimodal mais fortes, alcançando resultados SOTA em 37 de 59 benchmarks públicos.",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS é um modelo de agente com foco nativo em interfaces gráficas, interagindo perfeitamente com interfaces por meio de percepção, raciocínio e ação semelhantes aos humanos.",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções. Suporta uma janela de contexto de 128k e até 16k tokens de saída.",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções.",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções.",
|
|
427
|
+
"doubao-lite-128k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo escolhas mais flexíveis em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 128k.",
|
|
428
|
+
"doubao-lite-32k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo escolhas mais flexíveis em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 32k.",
|
|
429
|
+
"doubao-lite-4k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo escolhas mais flexíveis em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 4k.",
|
|
430
|
+
"doubao-pro-256k.description": "O modelo carro-chefe com melhor desempenho para tarefas complexas, com resultados fortes em QA com referência, sumarização, criação, classificação de texto e simulação de papéis. Suporta raciocínio e ajuste fino com janela de contexto de 256k.",
|
|
431
|
+
"doubao-pro-32k.description": "O modelo carro-chefe com melhor desempenho para tarefas complexas, com resultados fortes em QA com referência, sumarização, criação, classificação de texto e simulação de papéis. Suporta raciocínio e ajuste fino com janela de contexto de 32k.",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash é um modelo multimodal de raciocínio profundo ultrarrápido com TPOT de até 10ms. Suporta entrada de texto e imagem, supera o modelo lite anterior em compreensão de texto e se equipara a modelos pro concorrentes em visão. Suporta janela de contexto de 256k e até 16k tokens de saída.",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite é um novo modelo multimodal de raciocínio profundo com esforço de raciocínio ajustável (Mínimo, Baixo, Médio, Alto), oferecendo melhor custo-benefício e uma escolha sólida para tarefas comuns, com janela de contexto de até 256k.",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 fortalece significativamente o raciocínio, melhorando ainda mais as habilidades centrais em programação, matemática e raciocínio lógico em relação ao Doubao-1.5-thinking-pro, além de adicionar compreensão visual. Suporta uma janela de contexto de 256k e até 16k tokens de saída.",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision é um modelo visual de raciocínio profundo que oferece compreensão e raciocínio multimodal mais fortes para educação, revisão de imagens, inspeção/segurança e perguntas e respostas com busca por IA. Suporta uma janela de contexto de 256k e até 64k tokens de saída.",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 é um novo modelo multimodal de raciocínio profundo com modos automático, com raciocínio e sem raciocínio. No modo sem raciocínio, supera significativamente o Doubao-1.5-pro/250115. Suporta uma janela de contexto de 256k e até 16k tokens de saída.",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 possui capacidades aprimoradas de compreensão multimodal e de agentes, suportando entrada de texto/imagem/vídeo e cache de contexto, oferecendo desempenho superior em tarefas complexas.",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code é otimizado para programação com agentes, suporta entradas multimodais (texto/imagem/vídeo) e janela de contexto de 256k, compatível com a API da Anthropic, ideal para fluxos de trabalho de programação, compreensão visual e agentes.",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "O modelo de imagem Doubao da ByteDance Seed suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Suporta edição de imagem guiada por texto, com tamanhos de saída entre 512 e 1536 no lado maior.",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 é um modelo de geração de imagem da ByteDance Seed, que suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 é um modelo de geração de imagem da ByteDance Seed, que suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision é um modelo multimodal da Doubao com forte compreensão e raciocínio de imagens, além de seguimento preciso de instruções. Apresenta bom desempenho em tarefas de extração imagem-texto e raciocínio baseado em imagem, permitindo cenários de QA visual mais complexos e amplos.",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision é um modelo multimodal da Doubao com forte compreensão e raciocínio de imagens, além de seguimento preciso de instruções. Apresenta bom desempenho em tarefas de extração imagem-texto e raciocínio baseado em imagem, permitindo cenários de QA visual mais complexos e amplos.",
|
|
444
|
+
"emohaa.description": "Emohaa é um modelo voltado para saúde mental com habilidades profissionais de aconselhamento para ajudar os usuários a compreender questões emocionais.",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B é um modelo leve de código aberto para implantação local e personalizada.",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B é um modelo de código aberto com grande número de parâmetros e melhor capacidade de compreensão e geração.",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B é o modelo MoE ultra-grande da Baidu ERNIE com excelente raciocínio.",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview é um modelo de pré-visualização com janela de contexto de 8K para avaliação do ERNIE 4.5.",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "Pré-visualização do ERNIE 4.5 Turbo 128K com capacidades de nível de lançamento, adequado para integração e testes canário.",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K é um modelo geral de alto desempenho com aumento de busca e chamada de ferramentas para QA, programação e cenários com agentes.",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K é uma versão de contexto médio para QA, recuperação de base de conhecimento e diálogo de múltiplas voltas.",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "Última versão do ERNIE 4.5 Turbo com desempenho geral otimizado, ideal como modelo principal de produção.",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "Pré-visualização multimodal do ERNIE 4.5 Turbo VL 32K para avaliação da capacidade de visão com contexto longo.",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K é uma versão multimodal de contexto médio-longo para compreensão combinada de documentos longos e imagens.",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest é a versão multimodal mais recente com melhor compreensão e raciocínio imagem-texto.",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "Pré-visualização multimodal do ERNIE 4.5 Turbo VL para compreensão e geração imagem-texto, adequado para QA visual e compreensão de conteúdo.",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL é um modelo multimodal maduro para compreensão e reconhecimento imagem-texto em produção.",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B é um modelo multimodal de código aberto para compreensão e raciocínio imagem-texto.",
|
|
459
|
+
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking é um modelo carro-chefe nativo totalmente multimodal com modelagem unificada de texto, imagem, áudio e vídeo. Oferece amplas melhorias de capacidade para QA complexo, criação e cenários com agentes.",
|
|
460
|
+
"ernie-5.0-thinking-preview.description": "Pré-visualização do Wenxin 5.0 Thinking, um modelo carro-chefe nativo totalmente multimodal com modelagem unificada de texto, imagem, áudio e vídeo. Oferece amplas melhorias de capacidade para QA complexo, criação e cenários com agentes.",
|
|
385
461
|
"meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
|
|
386
462
|
"mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
|
|
387
463
|
"mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "Plano criado: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "Criar tarefas",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "Executar tarefa",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "Tarefa criada: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "Criando tarefa: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "Executar tarefas",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "Excluir tarefas",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "Atualizar plano",
|
package/locales/ru-RU/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} пакетных подзадач",
|
|
296
296
|
"task.metrics.stepsShort": "шагов",
|
|
297
297
|
"task.metrics.toolCallsShort": "вызовов",
|
|
298
|
+
"task.status.cancelled": "Задача отменена",
|
|
299
|
+
"task.status.failed": "Ошибка выполнения задачи",
|
|
298
300
|
"task.status.initializing": "Инициализация задачи...",
|
|
299
301
|
"task.subtask": "Подзадача",
|
|
300
302
|
"thread.divider": "Подтема",
|