@lobehub/lobehub 2.0.0-next.240 → 2.0.0-next.242

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (123) hide show
  1. package/.github/workflows/test.yml +13 -5
  2. package/CHANGELOG.md +50 -0
  3. package/apps/desktop/build/Icon-beta.Assets.car +0 -0
  4. package/apps/desktop/build/Icon-beta.icns +0 -0
  5. package/apps/desktop/build/icon-beta.ico +0 -0
  6. package/apps/desktop/build/icon-beta.png +0 -0
  7. package/apps/desktop/resources/locales/ar/menu.json +5 -1
  8. package/apps/desktop/resources/locales/bg-BG/menu.json +5 -1
  9. package/apps/desktop/resources/locales/de-DE/menu.json +5 -1
  10. package/apps/desktop/resources/locales/es-ES/menu.json +5 -1
  11. package/apps/desktop/resources/locales/fa-IR/menu.json +5 -1
  12. package/apps/desktop/resources/locales/fr-FR/menu.json +5 -1
  13. package/apps/desktop/resources/locales/it-IT/menu.json +5 -1
  14. package/apps/desktop/resources/locales/ja-JP/menu.json +5 -1
  15. package/apps/desktop/resources/locales/ko-KR/menu.json +5 -1
  16. package/apps/desktop/resources/locales/nl-NL/menu.json +5 -1
  17. package/apps/desktop/resources/locales/pl-PL/menu.json +5 -1
  18. package/apps/desktop/resources/locales/pt-BR/menu.json +5 -1
  19. package/apps/desktop/resources/locales/ru-RU/menu.json +5 -1
  20. package/apps/desktop/resources/locales/tr-TR/menu.json +5 -1
  21. package/apps/desktop/resources/locales/vi-VN/menu.json +5 -1
  22. package/apps/desktop/resources/locales/zh-CN/menu.json +5 -1
  23. package/apps/desktop/resources/locales/zh-TW/menu.json +5 -1
  24. package/apps/desktop/src/main/locales/default/menu.ts +5 -1
  25. package/apps/desktop/src/main/menus/impls/linux.ts +30 -0
  26. package/apps/desktop/src/main/menus/impls/macOS.test.ts +17 -0
  27. package/apps/desktop/src/main/menus/impls/macOS.ts +33 -0
  28. package/apps/desktop/src/main/menus/impls/windows.ts +30 -0
  29. package/changelog/v1.json +10 -0
  30. package/locales/ar/electron.json +24 -0
  31. package/locales/ar/models.json +48 -7
  32. package/locales/ar/plugin.json +9 -0
  33. package/locales/ar/providers.json +1 -0
  34. package/locales/bg-BG/electron.json +24 -0
  35. package/locales/bg-BG/models.json +35 -7
  36. package/locales/bg-BG/plugin.json +9 -0
  37. package/locales/bg-BG/providers.json +1 -0
  38. package/locales/de-DE/electron.json +24 -0
  39. package/locales/de-DE/models.json +26 -6
  40. package/locales/de-DE/plugin.json +9 -0
  41. package/locales/de-DE/providers.json +1 -0
  42. package/locales/en-US/electron.json +24 -0
  43. package/locales/en-US/models.json +10 -10
  44. package/locales/en-US/oauth.json +0 -1
  45. package/locales/en-US/providers.json +1 -0
  46. package/locales/en-US/subscription.json +2 -2
  47. package/locales/es-ES/electron.json +24 -0
  48. package/locales/es-ES/models.json +42 -7
  49. package/locales/es-ES/plugin.json +9 -0
  50. package/locales/es-ES/providers.json +1 -0
  51. package/locales/fa-IR/electron.json +24 -0
  52. package/locales/fa-IR/models.json +52 -10
  53. package/locales/fa-IR/plugin.json +9 -0
  54. package/locales/fa-IR/providers.json +1 -0
  55. package/locales/fr-FR/electron.json +24 -0
  56. package/locales/fr-FR/models.json +36 -7
  57. package/locales/fr-FR/plugin.json +9 -0
  58. package/locales/fr-FR/providers.json +1 -0
  59. package/locales/it-IT/electron.json +24 -0
  60. package/locales/it-IT/models.json +42 -7
  61. package/locales/it-IT/plugin.json +9 -0
  62. package/locales/it-IT/providers.json +1 -0
  63. package/locales/ja-JP/electron.json +24 -0
  64. package/locales/ja-JP/models.json +35 -6
  65. package/locales/ja-JP/plugin.json +9 -0
  66. package/locales/ja-JP/providers.json +1 -0
  67. package/locales/ko-KR/electron.json +24 -0
  68. package/locales/ko-KR/models.json +28 -7
  69. package/locales/ko-KR/plugin.json +9 -0
  70. package/locales/ko-KR/providers.json +1 -0
  71. package/locales/nl-NL/electron.json +24 -0
  72. package/locales/nl-NL/models.json +35 -6
  73. package/locales/nl-NL/plugin.json +9 -0
  74. package/locales/nl-NL/providers.json +1 -0
  75. package/locales/pl-PL/electron.json +24 -0
  76. package/locales/pl-PL/models.json +36 -7
  77. package/locales/pl-PL/plugin.json +9 -0
  78. package/locales/pl-PL/providers.json +1 -0
  79. package/locales/pt-BR/electron.json +24 -0
  80. package/locales/pt-BR/models.json +35 -6
  81. package/locales/pt-BR/plugin.json +9 -0
  82. package/locales/pt-BR/providers.json +1 -0
  83. package/locales/ru-RU/electron.json +24 -0
  84. package/locales/ru-RU/models.json +35 -7
  85. package/locales/ru-RU/plugin.json +9 -0
  86. package/locales/ru-RU/providers.json +1 -0
  87. package/locales/tr-TR/electron.json +24 -0
  88. package/locales/tr-TR/models.json +5 -7
  89. package/locales/tr-TR/plugin.json +9 -0
  90. package/locales/tr-TR/providers.json +1 -0
  91. package/locales/vi-VN/electron.json +24 -0
  92. package/locales/vi-VN/models.json +5 -5
  93. package/locales/vi-VN/plugin.json +9 -0
  94. package/locales/vi-VN/providers.json +1 -0
  95. package/locales/zh-CN/electron.json +24 -0
  96. package/locales/zh-CN/models.json +48 -6
  97. package/locales/zh-CN/oauth.json +0 -1
  98. package/locales/zh-CN/providers.json +1 -0
  99. package/locales/zh-CN/subscription.json +1 -1
  100. package/locales/zh-TW/electron.json +24 -0
  101. package/locales/zh-TW/models.json +10 -10
  102. package/locales/zh-TW/plugin.json +9 -0
  103. package/locales/zh-TW/providers.json +1 -0
  104. package/package.json +1 -1
  105. package/packages/electron-client-ipc/src/events/navigation.ts +12 -0
  106. package/src/components/PageTitle/index.tsx +11 -1
  107. package/src/features/ElectronTitlebar/NavigationBar/RecentlyViewed.tsx +137 -0
  108. package/src/features/ElectronTitlebar/NavigationBar/index.tsx +86 -0
  109. package/src/features/ElectronTitlebar/helpers/routeMetadata.ts +214 -0
  110. package/src/features/ElectronTitlebar/hooks/useNavigationHistory.ts +152 -0
  111. package/src/features/ElectronTitlebar/index.tsx +13 -5
  112. package/src/features/NavHeader/index.tsx +4 -2
  113. package/src/features/NavPanel/components/NavPanelDraggable.tsx +174 -0
  114. package/src/features/NavPanel/hooks/useNavPanel.ts +11 -35
  115. package/src/features/NavPanel/index.tsx +2 -126
  116. package/src/hooks/useTypeScriptHappyCallback.ts +7 -0
  117. package/src/locales/default/electron.ts +24 -0
  118. package/src/locales/default/subscription.ts +2 -3
  119. package/src/server/services/memory/userMemory/extract.ts +46 -6
  120. package/src/store/electron/actions/navigationHistory.ts +247 -0
  121. package/src/store/electron/initialState.ts +7 -1
  122. package/src/store/electron/store.ts +9 -2
  123. package/src/store/global/selectors/systemStatus.ts +4 -1
@@ -92,6 +92,15 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "결과 없음",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "로컬 시스템",
95
+ "builtins.lobe-notebook.actions.copy": "복사",
96
+ "builtins.lobe-notebook.actions.creating": "문서 생성 중...",
97
+ "builtins.lobe-notebook.actions.edit": "편집",
98
+ "builtins.lobe-notebook.actions.expand": "확장",
99
+ "builtins.lobe-notebook.apiName.createDocument": "문서 생성",
100
+ "builtins.lobe-notebook.apiName.deleteDocument": "문서 삭제",
101
+ "builtins.lobe-notebook.apiName.getDocument": "문서 가져오기",
102
+ "builtins.lobe-notebook.apiName.updateDocument": "문서 업데이트",
103
+ "builtins.lobe-notebook.title": "노트북",
95
104
  "builtins.lobe-page-agent.apiName.batchUpdate": "노드 일괄 업데이트",
96
105
  "builtins.lobe-page-agent.apiName.compareSnapshots": "스냅샷 비교",
97
106
  "builtins.lobe-page-agent.apiName.convertToList": "목록으로 변환",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
30
30
  "jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
31
31
  "lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
32
+ "lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.",
32
33
  "minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
33
34
  "mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
34
35
  "modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",
@@ -1,4 +1,28 @@
1
1
  {
2
+ "navigation.chat": "Chat",
3
+ "navigation.discover": "Ontdekken",
4
+ "navigation.discoverAssistants": "Assistenten Ontdekken",
5
+ "navigation.discoverMcp": "MCP Ontdekken",
6
+ "navigation.discoverModels": "Modellen Ontdekken",
7
+ "navigation.discoverProviders": "Providers Ontdekken",
8
+ "navigation.group": "Groep",
9
+ "navigation.groupChat": "Groepschat",
10
+ "navigation.home": "Startpagina",
11
+ "navigation.image": "Afbeelding",
12
+ "navigation.knowledgeBase": "Kennisbank",
13
+ "navigation.lobehub": "LobeHub",
14
+ "navigation.memory": "Geheugen",
15
+ "navigation.memoryContexts": "Geheugen - Contexten",
16
+ "navigation.memoryExperiences": "Geheugen - Ervaringen",
17
+ "navigation.memoryIdentities": "Geheugen - Identiteiten",
18
+ "navigation.memoryPreferences": "Geheugen - Voorkeuren",
19
+ "navigation.onboarding": "Onboarding",
20
+ "navigation.page": "Pagina",
21
+ "navigation.pages": "Pagina's",
22
+ "navigation.provider": "Provider",
23
+ "navigation.recentView": "Recente weergaven",
24
+ "navigation.resources": "Bronnen",
25
+ "navigation.settings": "Instellingen",
2
26
  "notification.finishChatGeneration": "AI-berichtgeneratie voltooid",
3
27
  "proxy.auth": "Authenticatie vereist",
4
28
  "proxy.authDesc": "Indien de proxyserver een gebruikersnaam en wachtwoord vereist",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
272
272
  "claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
273
273
  "claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic. In vergelijking met Claude 3 Haiku biedt het verbeterde vaardigheden en overtreft het het vorige topmodel Claude 3 Opus op veel intelligentietests.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic, met verbeterde vaardigheden en betere prestaties dan het vorige vlaggenschip Claude 3 Opus op veel benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze redeneringen tonen die zichtbaar zijn voor gebruikers. Sonnet blinkt uit in programmeren, datawetenschap, visuele taken en agenttoepassingen.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het biedt vrijwel directe reacties of uitgebreide denkprocessen met nauwkeurige controle.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle prestaties en uitgebreide redeneercapaciteiten.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en meest intelligente Haiku-model van Anthropic, met bliksemsnelle prestaties en diepgaand denkvermogen.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze denkprocessen tonen met een zichtbaar verloop.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is tot nu toe het meest intelligente model van Anthropic. Het biedt vrijwel directe reacties of stapsgewijze denkprocessen met nauwkeurige controle voor API-gebruikers.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
289
289
  "codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
358
- "deepseek-chat.description": "Een nieuw open-source model dat algemene en codevaardigheden combineert. Het behoudt de algemene dialoogcapaciteiten van het chatmodel en de sterke codeerprestaties van het coderingsmodel, met betere voorkeurafstemming. DeepSeek-V2.5 verbetert ook schrijfvaardigheid en het opvolgen van instructies.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 biedt een evenwicht tussen redeneervermogen en outputlengte voor dagelijkse vraag-en-antwoord- en agenttaken. Publieke benchmarks bereiken GPT-5-niveau, en het is het eerste model dat denken integreert in het gebruik van tools, wat leidt tot toonaangevende open-source agentbeoordelingen.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 denkmodus genereert een gedachtegang vóór het eindantwoord om de nauwkeurigheid te verbeteren.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking is een diep redeneermodel dat eerst een denkproces genereert voordat het een antwoord geeft, wat zorgt voor hogere nauwkeurigheid. Het behaalt topprestaties in competities en redeneert op het niveau van Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s codegerichte model met sterke codegeneratie.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
@@ -413,6 +413,35 @@
413
413
  "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B is gedistilleerd van Llama-3.3-70B-Instruct. Als onderdeel van de DeepSeek-R1-serie is het fijn-afgestemd op door DeepSeek-R1 gegenereerde voorbeelden en presteert het sterk in wiskunde, codering en redeneren.",
414
414
  "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B is gedistilleerd van Qwen2.5-14B en fijn-afgestemd op 800K zorgvuldig geselecteerde voorbeelden gegenereerd door DeepSeek-R1, met sterk redeneervermogen.",
415
415
  "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B is gedistilleerd van Qwen2.5-32B en fijn-afgestemd op 800K zorgvuldig geselecteerde voorbeelden gegenereerd door DeepSeek-R1, en blinkt uit in wiskunde, codering en redeneren.",
416
+ "devstral-2:123b.description": "Devstral 2 123B blinkt uit in het gebruik van tools om codebases te verkennen, meerdere bestanden te bewerken en software engineering agents te ondersteunen.",
417
+ "doubao-1.5-lite-32k.description": "Doubao-1.5-lite is een nieuw lichtgewicht model met ultrasnelle reacties en levert topkwaliteit met lage latentie.",
418
+ "doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k is een uitgebreide upgrade van Doubao-1.5-Pro, met een prestatieverbetering van 10%. Het ondersteunt een contextvenster van 256k en tot 12k outputtokens, wat zorgt voor hogere prestaties, een groter bereik en sterke waarde voor bredere toepassingen.",
419
+ "doubao-1.5-pro-32k.description": "Doubao-1.5-pro is een vlaggenschipmodel van de nieuwe generatie met algehele verbeteringen, uitblinkend in kennis, codering en redeneervermogen.",
420
+ "doubao-1.5-thinking-pro-m.description": "Doubao-1.5 is een nieuw diep redeneermodel (de m-versie ondersteunt native multimodale diepe redenering) dat uitblinkt in wiskunde, codering, wetenschappelijke redenering en algemene taken zoals creatief schrijven. Het behaalt of benadert topprestaties op benchmarks zoals AIME 2024, Codeforces en GPQA. Het ondersteunt een contextvenster van 128k en 16k output.",
421
+ "doubao-1.5-thinking-pro.description": "Doubao-1.5 is een nieuw diep redeneermodel dat uitblinkt in wiskunde, codering, wetenschappelijke redenering en algemene taken zoals creatief schrijven. Het behaalt of benadert topprestaties op benchmarks zoals AIME 2024, Codeforces en GPQA. Het ondersteunt een contextvenster van 128k en 16k output.",
422
+ "doubao-1.5-thinking-vision-pro.description": "Een nieuw visueel diep redeneermodel met sterkere multimodale interpretatie en redenering, met SOTA-resultaten op 37 van de 59 openbare benchmarks.",
423
+ "doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS is een native GUI-georiënteerd agentmodel dat naadloos met interfaces communiceert via mensachtige waarneming, redenering en actie.",
424
+ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite is een geüpgraded multimodaal model dat afbeeldingen ondersteunt in elke resolutie en extreme beeldverhoudingen. Het verbetert visuele redenering, documentherkenning, detailbegrip en instructieopvolging. Het ondersteunt een contextvenster van 128k en tot 16k outputtokens.",
425
+ "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro is een geüpgraded multimodaal model dat afbeeldingen ondersteunt in elke resolutie en extreme beeldverhoudingen. Het verbetert visuele redenering, documentherkenning, detailbegrip en instructieopvolging.",
426
+ "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro is een geüpgraded multimodaal model dat afbeeldingen ondersteunt in elke resolutie en extreme beeldverhoudingen. Het verbetert visuele redenering, documentherkenning, detailbegrip en instructieopvolging.",
427
+ "doubao-lite-128k.description": "Ultrasnelle reacties met betere waarde, biedt flexibelere keuzes voor verschillende scenario's. Ondersteunt redenering en fine-tuning met een contextvenster van 128k.",
428
+ "doubao-lite-32k.description": "Ultrasnelle reacties met betere waarde, biedt flexibelere keuzes voor verschillende scenario's. Ondersteunt redenering en fine-tuning met een contextvenster van 32k.",
429
+ "doubao-lite-4k.description": "Ultrasnelle reacties met betere waarde, biedt flexibelere keuzes voor verschillende scenario's. Ondersteunt redenering en fine-tuning met een contextvenster van 4k.",
430
+ "doubao-pro-256k.description": "Het best presterende vlaggenschipmodel voor complexe taken, met sterke resultaten in referentievragen, samenvattingen, creatie, tekstclassificatie en rollenspel. Ondersteunt redenering en fine-tuning met een contextvenster van 256k.",
431
+ "doubao-pro-32k.description": "Het best presterende vlaggenschipmodel voor complexe taken, met sterke resultaten in referentievragen, samenvattingen, creatie, tekstclassificatie en rollenspel. Ondersteunt redenering en fine-tuning met een contextvenster van 32k.",
432
+ "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash is een ultrasnel multimodaal diep redeneermodel met een TPOT van slechts 10ms. Het ondersteunt zowel tekst als visuele input, overtreft het vorige lite-model in tekstbegrip en evenaart concurrerende pro-modellen in visuele prestaties. Het ondersteunt een contextvenster van 256k en tot 16k outputtokens.",
433
+ "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite is een nieuw multimodaal diep redeneermodel met instelbare redeneerinspanning (Minimaal, Laag, Gemiddeld, Hoog), biedt betere waarde en is een sterke keuze voor algemene taken, met een contextvenster tot 256k.",
434
+ "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 versterkt het redeneervermogen aanzienlijk, verbetert de kernvaardigheden in codering, wiskunde en logica ten opzichte van Doubao-1.5-thinking-pro, en voegt visueel begrip toe. Het ondersteunt een contextvenster van 256k en tot 16k outputtokens.",
435
+ "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision is een visueel diep redeneermodel dat sterkere multimodale interpretatie en redenering biedt voor onderwijs, beeldbeoordeling, inspectie/beveiliging en AI-zoekvragen. Het ondersteunt een contextvenster van 256k en tot 64k outputtokens.",
436
+ "doubao-seed-1.6.description": "Doubao-Seed-1.6 is een nieuw multimodaal diep redeneermodel met automatische, denkende en niet-denkende modi. In de niet-denkende modus presteert het aanzienlijk beter dan Doubao-1.5-pro/250115. Het ondersteunt een contextvenster van 256k en tot 16k outputtokens.",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8 beschikt over sterkere multimodale interpretatie en agentvaardigheden, ondersteunt tekst-/afbeelding-/video-invoer en contextuele caching, en levert uitstekende prestaties bij complexe taken.",
438
+ "doubao-seed-code.description": "Doubao-Seed-Code is geoptimaliseerd voor agentmatige codering, ondersteunt multimodale input (tekst/afbeelding/video) en een contextvenster van 256k, is compatibel met de Anthropic API en geschikt voor codering, visueel begrip en agentworkflows.",
439
+ "doubao-seededit-3-0-i2i-250628.description": "Het Doubao-beeldmodel van ByteDance Seed ondersteunt tekst- en afbeeldingsinvoer met zeer controleerbare, hoogwaardige beeldgeneratie. Het ondersteunt tekstgestuurde beeldbewerking, met uitvoerformaten tussen 512 en 1536 aan de lange zijde.",
440
+ "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 is een beeldgeneratiemodel van ByteDance Seed dat tekst- en afbeeldingsinvoer ondersteunt voor zeer controleerbare, hoogwaardige beeldgeneratie. Het genereert beelden op basis van tekstprompts.",
441
+ "doubao-seedream-4-0-250828.description": "Seedream 4.0 is een beeldgeneratiemodel van ByteDance Seed dat tekst- en afbeeldingsinvoer ondersteunt voor zeer controleerbare, hoogwaardige beeldgeneratie. Het genereert beelden op basis van tekstprompts.",
442
+ "doubao-vision-lite-32k.description": "Doubao-vision is een multimodaal model van Doubao met sterk beeldbegrip en redenering, plus nauwkeurige instructieopvolging. Het presteert goed bij beeld-tekstextractie en op beeld gebaseerde redeneertaken, waardoor complexere en bredere visuele vraag-en-antwoordscenario's mogelijk zijn.",
443
+ "doubao-vision-pro-32k.description": "Doubao-vision is een multimodaal model van Doubao met sterk beeldbegrip en redenering, plus nauwkeurige instructieopvolging. Het presteert goed bij beeld-tekstextractie en op beeld gebaseerde redeneertaken, waardoor complexere en bredere visuele vraag-en-antwoordscenario's mogelijk zijn.",
444
+ "emohaa.description": "Emohaa is een mentaal gezondheidsmodel met professionele begeleidingsvaardigheden om gebruikers te helpen emotionele problemen te begrijpen.",
416
445
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
417
446
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
418
447
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
@@ -92,6 +92,15 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Geen resultaten",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Lokaal Systeem",
95
+ "builtins.lobe-notebook.actions.copy": "Kopiëren",
96
+ "builtins.lobe-notebook.actions.creating": "Document wordt aangemaakt...",
97
+ "builtins.lobe-notebook.actions.edit": "Bewerken",
98
+ "builtins.lobe-notebook.actions.expand": "Uitvouwen",
99
+ "builtins.lobe-notebook.apiName.createDocument": "Document aanmaken",
100
+ "builtins.lobe-notebook.apiName.deleteDocument": "Document verwijderen",
101
+ "builtins.lobe-notebook.apiName.getDocument": "Document ophalen",
102
+ "builtins.lobe-notebook.apiName.updateDocument": "Document bijwerken",
103
+ "builtins.lobe-notebook.title": "Notitieboek",
95
104
  "builtins.lobe-page-agent.apiName.batchUpdate": "Meerdere knooppunten bijwerken",
96
105
  "builtins.lobe-page-agent.apiName.compareSnapshots": "Momentopnamen vergelijken",
97
106
  "builtins.lobe-page-agent.apiName.convertToList": "Converteren naar lijst",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
30
30
  "jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
31
31
  "lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
32
+ "lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
32
33
  "minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
33
34
  "mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
34
35
  "modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",
@@ -1,4 +1,28 @@
1
1
  {
2
+ "navigation.chat": "Czat",
3
+ "navigation.discover": "Odkryj",
4
+ "navigation.discoverAssistants": "Odkryj Asystentów",
5
+ "navigation.discoverMcp": "Odkryj MCP",
6
+ "navigation.discoverModels": "Odkryj Modele",
7
+ "navigation.discoverProviders": "Odkryj Dostawców",
8
+ "navigation.group": "Grupa",
9
+ "navigation.groupChat": "Czat Grupowy",
10
+ "navigation.home": "Strona główna",
11
+ "navigation.image": "Obraz",
12
+ "navigation.knowledgeBase": "Baza Wiedzy",
13
+ "navigation.lobehub": "LobeHub",
14
+ "navigation.memory": "Pamięć",
15
+ "navigation.memoryContexts": "Pamięć - Konteksty",
16
+ "navigation.memoryExperiences": "Pamięć - Doświadczenia",
17
+ "navigation.memoryIdentities": "Pamięć - Tożsamości",
18
+ "navigation.memoryPreferences": "Pamięć - Preferencje",
19
+ "navigation.onboarding": "Wprowadzenie",
20
+ "navigation.page": "Strona",
21
+ "navigation.pages": "Strony",
22
+ "navigation.provider": "Dostawca",
23
+ "navigation.recentView": "Ostatnie wyświetlenia",
24
+ "navigation.resources": "Zasoby",
25
+ "navigation.settings": "Ustawienia",
2
26
  "notification.finishChatGeneration": "Generowanie wiadomości AI zakończone",
3
27
  "proxy.auth": "Wymagana autoryzacja",
4
28
  "proxy.authDesc": "Jeśli serwer proxy wymaga nazwy użytkownika i hasła",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
272
272
  "claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
273
273
  "claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic. W porównaniu do Claude 3 Haiku oferuje lepsze umiejętności i przewyższa wcześniejszy największy model Claude 3 Opus w wielu testach inteligencji.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic, oferujący ulepszone umiejętności i przewyższający poprzedni flagowy model Claude 3 Opus w wielu testach porównawczych.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania. Może generować niemal natychmiastowe odpowiedzi lub rozbudowane, krok po kroku rozumowanie widoczne dla użytkownika. Sonnet wyróżnia się szczególnie w programowaniu, analizie danych, przetwarzaniu obrazu i zadaniach agentowych.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 to najbardziej zaawansowany model Anthropic i pierwszy na rynku model hybrydowego rozumowania, umożliwiający błyskawiczne odpowiedzi lub pogłębione myślenie z precyzyjną kontrolą.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku od Anthropic, oferujący błyskawiczne działanie i zaawansowane rozumowanie.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku od Anthropic, łączący błyskawiczne działanie z pogłębionym rozumowaniem.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic, stworzony do realizacji wysoce złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku z widocznym procesem.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 to najbardziej inteligentny model Anthropic do tej pory, oferujący błyskawiczne odpowiedzi lub rozbudowane, krok po kroku rozumowanie z precyzyjną kontrolą dla użytkowników API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
289
289
  "codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
358
- "deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności językowe i programistyczne. Zachowuje ogólny dialog modelu czatu i silne programowanie modelu kodera, z lepszym dopasowaniem do preferencji. DeepSeek-V2.5 poprawia również pisanie i wykonywanie instrukcji.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 zapewnia równowagę między rozumowaniem a długością odpowiedzi w codziennych zadaniach QA i agentowych. W testach publicznych osiąga poziom GPT-5 i jako pierwszy integruje myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Szybka pełna wersja DeepSeek R1 z wyszukiwaniem w czasie rzeczywistym, łącząca możliwości modelu 671B z szybszymi odpowiedziami.",
379
379
  "deepseek-r1-online.description": "Pełna wersja DeepSeek R1 z 671 miliardami parametrów i wyszukiwaniem w czasie rzeczywistym, oferująca lepsze rozumienie i generowanie.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 wykorzystuje dane startowe przed RL i osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, programistycznych i logicznych.",
381
- "deepseek-reasoner.description": "Tryb myślenia DeepSeek V3.2 generuje łańcuch rozumowania przed odpowiedzią końcową, poprawiając trafność wyników.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking to model głębokiego rozumowania, który generuje łańcuch myśli przed odpowiedzią dla większej precyzji. Osiąga czołowe wyniki w konkursach i rozumowaniu porównywalnym z Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 to wydajny model MoE zoptymalizowany pod kątem efektywności kosztowej.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B to model skoncentrowany na kodzie, oferujący zaawansowane generowanie kodu.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, wyróżniający się w programowaniu, rozumieniu kontekstu i obsłudze długich tekstów.",
@@ -413,6 +413,35 @@
413
413
  "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B to model odchudzony z Llama-3.3-70B-Instruct. Jako część serii DeepSeek-R1, został dostrojony na próbkach wygenerowanych przez DeepSeek-R1 i osiąga wysokie wyniki w matematyce, programowaniu i rozumowaniu.",
414
414
  "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B to model odchudzony z Qwen2.5-14B, dostrojony na 800 tysiącach starannie wyselekcjonowanych próbek wygenerowanych przez DeepSeek-R1, zapewniający silne zdolności rozumowania.",
415
415
  "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B to model odchudzony z Qwen2.5-32B, dostrojony na 800 tysiącach starannie wyselekcjonowanych próbek wygenerowanych przez DeepSeek-R1, wyróżniający się w matematyce, programowaniu i rozumowaniu.",
416
+ "devstral-2:123b.description": "Devstral 2 123B doskonale wykorzystuje narzędzia do eksploracji baz kodu, edycji wielu plików i wspierania agentów inżynierii oprogramowania.",
417
+ "doubao-1.5-lite-32k.description": "Doubao-1.5-lite to nowy, lekki model o ultrabłyskawicznej odpowiedzi, oferujący najwyższą jakość i niskie opóźnienia.",
418
+ "doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k to kompleksowa aktualizacja modelu Doubao-1.5-Pro, poprawiająca ogólną wydajność o 10%. Obsługuje kontekst do 256k i do 12k tokenów wyjściowych, oferując wyższą wydajność, większe okno i dużą wartość dla szerokiego zakresu zastosowań.",
419
+ "doubao-1.5-pro-32k.description": "Doubao-1.5-pro to flagowy model nowej generacji z kompleksowymi ulepszeniami, wyróżniający się w wiedzy, kodowaniu i rozumowaniu.",
420
+ "doubao-1.5-thinking-pro-m.description": "Doubao-1.5 to nowy model głębokiego rozumowania (wersja m obejmuje natywne multimodalne rozumowanie), który doskonale radzi sobie z matematyką, kodowaniem, rozumowaniem naukowym i ogólnymi zadaniami, takimi jak twórcze pisanie. Osiąga lub zbliża się do wyników najwyższej klasy w testach takich jak AIME 2024, Codeforces i GPQA. Obsługuje kontekst 128k i 16k tokenów wyjściowych.",
421
+ "doubao-1.5-thinking-pro.description": "Doubao-1.5 to nowy model głębokiego rozumowania, który doskonale radzi sobie z matematyką, kodowaniem, rozumowaniem naukowym i ogólnymi zadaniami, takimi jak twórcze pisanie. Osiąga lub zbliża się do wyników najwyższej klasy w testach takich jak AIME 2024, Codeforces i GPQA. Obsługuje kontekst 128k i 16k tokenów wyjściowych.",
422
+ "doubao-1.5-thinking-vision-pro.description": "Nowy model wizualnego głębokiego rozumowania z silniejszym multimodalnym zrozumieniem i rozumowaniem, osiągający SOTA na 37 z 59 publicznych benchmarków.",
423
+ "doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS to natywny model agenta GUI, który płynnie współdziała z interfejsami dzięki percepcji, rozumowaniu i działaniu zbliżonym do ludzkiego.",
424
+ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite to ulepszony model multimodalny obsługujący obrazy w dowolnej rozdzielczości i ekstremalnych proporcjach, poprawiający rozumowanie wizualne, rozpoznawanie dokumentów, zrozumienie szczegółów i wykonywanie instrukcji. Obsługuje kontekst 128k i do 16k tokenów wyjściowych.",
425
+ "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro to ulepszony model multimodalny obsługujący obrazy w dowolnej rozdzielczości i ekstremalnych proporcjach, poprawiający rozumowanie wizualne, rozpoznawanie dokumentów, zrozumienie szczegółów i wykonywanie instrukcji.",
426
+ "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro to ulepszony model multimodalny obsługujący obrazy w dowolnej rozdzielczości i ekstremalnych proporcjach, poprawiający rozumowanie wizualne, rozpoznawanie dokumentów, zrozumienie szczegółów i wykonywanie instrukcji.",
427
+ "doubao-lite-128k.description": "Ultraszybka odpowiedź i lepsza wartość, oferująca bardziej elastyczne opcje w różnych scenariuszach. Obsługuje rozumowanie i dostrajanie z kontekstem 128k.",
428
+ "doubao-lite-32k.description": "Ultraszybka odpowiedź i lepsza wartość, oferująca bardziej elastyczne opcje w różnych scenariuszach. Obsługuje rozumowanie i dostrajanie z kontekstem 32k.",
429
+ "doubao-lite-4k.description": "Ultraszybka odpowiedź i lepsza wartość, oferująca bardziej elastyczne opcje w różnych scenariuszach. Obsługuje rozumowanie i dostrajanie z kontekstem 4k.",
430
+ "doubao-pro-256k.description": "Najlepszy flagowy model do złożonych zadań, z doskonałymi wynikami w QA z odniesieniami, streszczaniu, tworzeniu treści, klasyfikacji tekstu i odgrywaniu ról. Obsługuje rozumowanie i dostrajanie z kontekstem 256k.",
431
+ "doubao-pro-32k.description": "Najlepszy flagowy model do złożonych zadań, z doskonałymi wynikami w QA z odniesieniami, streszczaniu, tworzeniu treści, klasyfikacji tekstu i odgrywaniu ról. Obsługuje rozumowanie i dostrajanie z kontekstem 32k.",
432
+ "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash to ultraszybki multimodalny model głębokiego rozumowania z TPOT na poziomie 10 ms. Obsługuje tekst i obraz, przewyższa poprzedni model lite w rozumieniu tekstu i dorównuje konkurencyjnym modelom pro w wizji. Obsługuje kontekst 256k i do 16k tokenów wyjściowych.",
433
+ "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite to nowy multimodalny model głębokiego rozumowania z regulowanym wysiłkiem rozumowania (Minimalny, Niski, Średni, Wysoki), oferujący lepszą wartość i silny wybór do typowych zadań, z kontekstem do 256k.",
434
+ "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 znacząco wzmacnia rozumowanie, dodatkowo poprawiając kluczowe umiejętności w kodowaniu, matematyce i logice względem Doubao-1.5-thinking-pro, dodając jednocześnie rozumienie wizji. Obsługuje kontekst 256k i do 16k tokenów wyjściowych.",
435
+ "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision to model wizualnego głębokiego rozumowania, oferujący silniejsze multimodalne zrozumienie i rozumowanie dla edukacji, przeglądu obrazów, inspekcji/bezpieczeństwa i QA z wykorzystaniem AI. Obsługuje kontekst 256k i do 64k tokenów wyjściowych.",
436
+ "doubao-seed-1.6.description": "Doubao-Seed-1.6 to nowy multimodalny model głębokiego rozumowania z trybami auto, thinking i non-thinking. W trybie non-thinking znacznie przewyższa Doubao-1.5-pro/250115. Obsługuje kontekst 256k i do 16k tokenów wyjściowych.",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8 oferuje silniejsze możliwości multimodalnego rozumienia i działania agentów, obsługuje wejścia tekstowe/obrazowe/wideo oraz buforowanie kontekstu, zapewniając lepsze wyniki w złożonych zadaniach.",
438
+ "doubao-seed-code.description": "Doubao-Seed-Code jest głęboko zoptymalizowany pod kątem kodowania agentowego, obsługuje wejścia multimodalne (tekst/obraz/wideo) i kontekst 256k, jest kompatybilny z API Anthropic i nadaje się do kodowania, rozumienia wizji i przepływów pracy agentów.",
439
+ "doubao-seededit-3-0-i2i-250628.description": "Model obrazowy Doubao z ByteDance Seed obsługuje wejścia tekstowe i obrazowe z wysoką kontrolą i jakością generowania obrazów. Obsługuje edycję obrazów kierowaną tekstem, z rozmiarami wyjściowymi od 512 do 1536 po dłuższym boku.",
440
+ "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 to model generowania obrazów od ByteDance Seed, obsługujący wejścia tekstowe i obrazowe z wysoką kontrolą i jakością. Generuje obrazy na podstawie tekstowych promptów.",
441
+ "doubao-seedream-4-0-250828.description": "Seedream 4.0 to model generowania obrazów od ByteDance Seed, obsługujący wejścia tekstowe i obrazowe z wysoką kontrolą i jakością. Generuje obrazy na podstawie tekstowych promptów.",
442
+ "doubao-vision-lite-32k.description": "Doubao-vision to multimodalny model od Doubao z silnym rozumieniem obrazów i rozumowaniem oraz precyzyjnym wykonywaniem instrukcji. Dobrze radzi sobie z ekstrakcją tekstu z obrazów i zadaniami rozumowania obrazowego, umożliwiając bardziej złożone i szerokie scenariusze QA wizualnego.",
443
+ "doubao-vision-pro-32k.description": "Doubao-vision to multimodalny model od Doubao z silnym rozumieniem obrazów i rozumowaniem oraz precyzyjnym wykonywaniem instrukcji. Dobrze radzi sobie z ekstrakcją tekstu z obrazów i zadaniami rozumowania obrazowego, umożliwiając bardziej złożone i szerokie scenariusze QA wizualnego.",
444
+ "emohaa.description": "Emohaa to model zdrowia psychicznego z profesjonalnymi umiejętnościami doradczymi, pomagający użytkownikom zrozumieć problemy emocjonalne.",
416
445
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
417
446
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
418
447
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
@@ -92,6 +92,15 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Brak wyników",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "System Lokalny",
95
+ "builtins.lobe-notebook.actions.copy": "Kopiuj",
96
+ "builtins.lobe-notebook.actions.creating": "Tworzenie dokumentu...",
97
+ "builtins.lobe-notebook.actions.edit": "Edytuj",
98
+ "builtins.lobe-notebook.actions.expand": "Rozwiń",
99
+ "builtins.lobe-notebook.apiName.createDocument": "Utwórz dokument",
100
+ "builtins.lobe-notebook.apiName.deleteDocument": "Usuń dokument",
101
+ "builtins.lobe-notebook.apiName.getDocument": "Pobierz dokument",
102
+ "builtins.lobe-notebook.apiName.updateDocument": "Zaktualizuj dokument",
103
+ "builtins.lobe-notebook.title": "Notatnik",
95
104
  "builtins.lobe-page-agent.apiName.batchUpdate": "Zbiorcza aktualizacja węzłów",
96
105
  "builtins.lobe-page-agent.apiName.compareSnapshots": "Porównaj migawki",
97
106
  "builtins.lobe-page-agent.apiName.convertToList": "Konwertuj na listę",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
30
30
  "jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
31
31
  "lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
32
+ "lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
32
33
  "minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
33
34
  "mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
34
35
  "modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",
@@ -1,4 +1,28 @@
1
1
  {
2
+ "navigation.chat": "Chat",
3
+ "navigation.discover": "Descobrir",
4
+ "navigation.discoverAssistants": "Descobrir Assistentes",
5
+ "navigation.discoverMcp": "Descobrir MCP",
6
+ "navigation.discoverModels": "Descobrir Modelos",
7
+ "navigation.discoverProviders": "Descobrir Provedores",
8
+ "navigation.group": "Grupo",
9
+ "navigation.groupChat": "Chat em Grupo",
10
+ "navigation.home": "Início",
11
+ "navigation.image": "Imagem",
12
+ "navigation.knowledgeBase": "Base de Conhecimento",
13
+ "navigation.lobehub": "LobeHub",
14
+ "navigation.memory": "Memória",
15
+ "navigation.memoryContexts": "Memória - Contextos",
16
+ "navigation.memoryExperiences": "Memória - Experiências",
17
+ "navigation.memoryIdentities": "Memória - Identidades",
18
+ "navigation.memoryPreferences": "Memória - Preferências",
19
+ "navigation.onboarding": "Integração",
20
+ "navigation.page": "Página",
21
+ "navigation.pages": "Páginas",
22
+ "navigation.provider": "Provedor",
23
+ "navigation.recentView": "Visualizações recentes",
24
+ "navigation.resources": "Recursos",
25
+ "navigation.settings": "Configurações",
2
26
  "notification.finishChatGeneration": "Geração de mensagem pela IA concluída",
3
27
  "proxy.auth": "Autenticação necessária",
4
28
  "proxy.authDesc": "Se o servidor proxy exigir nome de usuário e senha",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
273
273
  "claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, ele apresenta melhorias em diversas habilidades e supera o maior modelo anterior, Claude 3 Opus, em muitos testes de inteligência.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o antigo carro-chefe Claude 3 Opus em muitos benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado. Ele pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo visíveis para o usuário. O Sonnet se destaca especialmente em programação, ciência de dados, visão computacional e tarefas de agentes.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento prolongado com controle refinado.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio estendido.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo com processo visível.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou raciocínio passo a passo com controle refinado para usuários de API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
289
289
  "codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
357
357
  "deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
358
- "deepseek-chat.description": "Um novo modelo open-source que combina habilidades gerais e de programação. Preserva o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programação, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Os benchmarks públicos atingem níveis do GPT-5, sendo o primeiro a integrar raciocínio ao uso de ferramentas, liderando avaliações de agentes de código aberto.",
359
359
  "deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
360
360
  "deepseek-coder-v2.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Versão completa e rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
379
379
  "deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
380
380
  "deepseek-r1.description": "O DeepSeek-R1 usa dados de inicialização a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
381
- "deepseek-reasoner.description": "O modo de pensamento do DeepSeek V3.2 gera uma cadeia de raciocínio antes da resposta final para melhorar a precisão.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeias de pensamento antes das respostas para maior precisão, com resultados de ponta em competições e raciocínio comparável ao Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "O DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
383
383
  "deepseek-v2:236b.description": "O DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
384
384
  "deepseek-v3-0324.description": "O DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
@@ -442,6 +442,35 @@
442
442
  "doubao-vision-lite-32k.description": "O Doubao-vision é um modelo multimodal da Doubao com forte compreensão e raciocínio de imagens, além de seguir instruções com precisão. Tem bom desempenho em tarefas de extração imagem-texto e raciocínio baseado em imagem, permitindo cenários de QA visual mais complexos e amplos.",
443
443
  "doubao-vision-pro-32k.description": "O Doubao-vision é um modelo multimodal da Doubao com forte compreensão e raciocínio de imagens, além de seguir instruções com precisão. Tem bom desempenho em tarefas de extração imagem-texto e raciocínio baseado em imagem, permitindo cenários de QA visual mais complexos e amplos.",
444
444
  "emohaa.description": "O Emohaa é um modelo voltado para saúde mental com habilidades profissionais de aconselhamento para ajudar os usuários a compreender questões emocionais.",
445
+ "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B é um modelo leve de código aberto para implantação local e personalizada.",
446
+ "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B é um modelo de código aberto com grande número de parâmetros, com melhor compreensão e geração.",
447
+ "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B é o modelo MoE ultra-grande da Baidu ERNIE, com excelente capacidade de raciocínio.",
448
+ "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview é um modelo de pré-visualização com contexto de 8K para avaliação do ERNIE 4.5.",
449
+ "ernie-4.5-turbo-128k-preview.description": "Pré-visualização do ERNIE 4.5 Turbo 128K com capacidades de nível de lançamento, ideal para integração e testes canário.",
450
+ "ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K é um modelo geral de alto desempenho com aumento por busca e uso de ferramentas para perguntas e respostas, programação e cenários com agentes.",
451
+ "ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K é uma versão com contexto médio para perguntas e respostas, recuperação de base de conhecimento e diálogos de múltiplas interações.",
452
+ "ernie-4.5-turbo-latest.description": "Última versão do ERNIE 4.5 Turbo com desempenho geral otimizado, ideal como modelo principal de produção.",
453
+ "ernie-4.5-turbo-vl-32k-preview.description": "Pré-visualização multimodal do ERNIE 4.5 Turbo VL 32K para avaliação da capacidade de visão em contexto longo.",
454
+ "ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K é uma versão multimodal de contexto médio-longo para compreensão combinada de documentos longos e imagens.",
455
+ "ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest é a versão multimodal mais recente com melhor compreensão e raciocínio entre imagem e texto.",
456
+ "ernie-4.5-turbo-vl-preview.description": "Pré-visualização do ERNIE 4.5 Turbo VL, modelo multimodal para compreensão e geração de imagem-texto, ideal para perguntas visuais e compreensão de conteúdo.",
457
+ "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL é um modelo multimodal maduro para compreensão e reconhecimento de imagem-texto em produção.",
458
+ "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B é um modelo multimodal de código aberto para compreensão e raciocínio de imagem-texto.",
459
+ "ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking é um modelo nativo multimodal de ponta com modelagem unificada de texto, imagem, áudio e vídeo. Oferece amplas melhorias de capacidade para perguntas e respostas complexas, criação e cenários com agentes.",
460
+ "ernie-5.0-thinking-preview.description": "Pré-visualização do Wenxin 5.0 Thinking, modelo nativo multimodal de ponta com modelagem unificada de texto, imagem, áudio e vídeo. Oferece amplas melhorias de capacidade para perguntas e respostas complexas, criação e cenários com agentes.",
461
+ "ernie-char-8k.description": "ERNIE Character 8K é um modelo de diálogo com personalidade para construção de personagens IP e conversas de companhia de longo prazo.",
462
+ "ernie-char-fiction-8k-preview.description": "Pré-visualização do ERNIE Character Fiction 8K, modelo para criação de personagens e enredos, voltado para avaliação e testes de recursos.",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K é um modelo de personagem para romances e criação de enredos, adequado para geração de histórias longas.",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit é um modelo de edição de imagem que suporta apagar, repintar e gerar variantes.",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K é um modelo geral leve para perguntas e respostas diárias e geração de conteúdo com foco em custo.",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K é um modelo leve de alto desempenho para cenários sensíveis à latência e ao custo.",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K é projetado para romances longos e enredos de IP com narrativas de múltiplos personagens.",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K é um modelo sem custo de I/O para compreensão de textos longos e testes em larga escala.",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K é um modelo gratuito e rápido para bate-papo diário e tarefas leves de texto.",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K é um modelo de alto valor e alta concorrência para serviços online em larga escala e aplicativos corporativos.",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K é um modelo ultra leve para perguntas e respostas simples, classificação e inferência de baixo custo.",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.",
473
+ "ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.",
445
474
  "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
446
475
  "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
447
476
  "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
@@ -92,6 +92,15 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Nenhum resultado",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Sistema Local",
95
+ "builtins.lobe-notebook.actions.copy": "Copiar",
96
+ "builtins.lobe-notebook.actions.creating": "Criando documento...",
97
+ "builtins.lobe-notebook.actions.edit": "Editar",
98
+ "builtins.lobe-notebook.actions.expand": "Expandir",
99
+ "builtins.lobe-notebook.apiName.createDocument": "Criar documento",
100
+ "builtins.lobe-notebook.apiName.deleteDocument": "Excluir documento",
101
+ "builtins.lobe-notebook.apiName.getDocument": "Obter documento",
102
+ "builtins.lobe-notebook.apiName.updateDocument": "Atualizar documento",
103
+ "builtins.lobe-notebook.title": "Bloco de Notas",
95
104
  "builtins.lobe-page-agent.apiName.batchUpdate": "Atualizar nós em lote",
96
105
  "builtins.lobe-page-agent.apiName.compareSnapshots": "Comparar versões",
97
106
  "builtins.lobe-page-agent.apiName.convertToList": "Converter em lista",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
30
30
  "jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
31
31
  "lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
32
+ "lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
32
33
  "minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
33
34
  "mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
34
35
  "modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",
@@ -1,4 +1,28 @@
1
1
  {
2
+ "navigation.chat": "Чат",
3
+ "navigation.discover": "Открыть",
4
+ "navigation.discoverAssistants": "Открыть Ассистентов",
5
+ "navigation.discoverMcp": "Открыть MCP",
6
+ "navigation.discoverModels": "Открыть Модели",
7
+ "navigation.discoverProviders": "Открыть Провайдеров",
8
+ "navigation.group": "Группа",
9
+ "navigation.groupChat": "Групповой Чат",
10
+ "navigation.home": "Главная",
11
+ "navigation.image": "Изображение",
12
+ "navigation.knowledgeBase": "База Знаний",
13
+ "navigation.lobehub": "LobeHub",
14
+ "navigation.memory": "Память",
15
+ "navigation.memoryContexts": "Память - Контексты",
16
+ "navigation.memoryExperiences": "Память - Опыт",
17
+ "navigation.memoryIdentities": "Память - Идентичности",
18
+ "navigation.memoryPreferences": "Память - Предпочтения",
19
+ "navigation.onboarding": "Введение",
20
+ "navigation.page": "Страница",
21
+ "navigation.pages": "Страницы",
22
+ "navigation.provider": "Провайдер",
23
+ "navigation.recentView": "Недавние просмотры",
24
+ "navigation.resources": "Ресурсы",
25
+ "navigation.settings": "Настройки",
2
26
  "notification.finishChatGeneration": "Генерация сообщения ИИ завершена",
3
27
  "proxy.auth": "Требуется аутентификация",
4
28
  "proxy.authDesc": "Если прокси-сервер требует имя пользователя и пароль",