@lobehub/lobehub 2.0.0-next.265 → 2.0.0-next.266

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (129) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/chat.json +1 -0
  4. package/locales/ar/modelProvider.json +20 -0
  5. package/locales/ar/models.json +33 -10
  6. package/locales/ar/plugin.json +1 -0
  7. package/locales/ar/providers.json +1 -0
  8. package/locales/ar/setting.json +2 -0
  9. package/locales/bg-BG/chat.json +1 -0
  10. package/locales/bg-BG/modelProvider.json +20 -0
  11. package/locales/bg-BG/models.json +27 -7
  12. package/locales/bg-BG/plugin.json +1 -0
  13. package/locales/bg-BG/providers.json +1 -0
  14. package/locales/bg-BG/setting.json +2 -0
  15. package/locales/de-DE/chat.json +1 -0
  16. package/locales/de-DE/modelProvider.json +20 -0
  17. package/locales/de-DE/models.json +44 -10
  18. package/locales/de-DE/plugin.json +1 -0
  19. package/locales/de-DE/providers.json +1 -0
  20. package/locales/de-DE/setting.json +2 -0
  21. package/locales/en-US/chat.json +1 -0
  22. package/locales/en-US/modelProvider.json +20 -0
  23. package/locales/en-US/models.json +10 -10
  24. package/locales/en-US/providers.json +1 -0
  25. package/locales/en-US/setting.json +2 -1
  26. package/locales/es-ES/chat.json +1 -0
  27. package/locales/es-ES/modelProvider.json +20 -0
  28. package/locales/es-ES/models.json +53 -10
  29. package/locales/es-ES/plugin.json +1 -0
  30. package/locales/es-ES/providers.json +1 -0
  31. package/locales/es-ES/setting.json +2 -0
  32. package/locales/fa-IR/chat.json +1 -0
  33. package/locales/fa-IR/modelProvider.json +20 -0
  34. package/locales/fa-IR/models.json +33 -10
  35. package/locales/fa-IR/plugin.json +1 -0
  36. package/locales/fa-IR/providers.json +1 -0
  37. package/locales/fa-IR/setting.json +2 -0
  38. package/locales/fr-FR/chat.json +1 -0
  39. package/locales/fr-FR/modelProvider.json +20 -0
  40. package/locales/fr-FR/models.json +27 -7
  41. package/locales/fr-FR/plugin.json +1 -0
  42. package/locales/fr-FR/providers.json +1 -0
  43. package/locales/fr-FR/setting.json +2 -0
  44. package/locales/it-IT/chat.json +1 -0
  45. package/locales/it-IT/modelProvider.json +20 -0
  46. package/locales/it-IT/models.json +10 -10
  47. package/locales/it-IT/plugin.json +1 -0
  48. package/locales/it-IT/providers.json +1 -0
  49. package/locales/it-IT/setting.json +2 -0
  50. package/locales/ja-JP/chat.json +1 -0
  51. package/locales/ja-JP/modelProvider.json +20 -0
  52. package/locales/ja-JP/models.json +5 -10
  53. package/locales/ja-JP/plugin.json +1 -0
  54. package/locales/ja-JP/providers.json +1 -0
  55. package/locales/ja-JP/setting.json +2 -0
  56. package/locales/ko-KR/chat.json +1 -0
  57. package/locales/ko-KR/modelProvider.json +20 -0
  58. package/locales/ko-KR/models.json +36 -10
  59. package/locales/ko-KR/plugin.json +1 -0
  60. package/locales/ko-KR/providers.json +1 -0
  61. package/locales/ko-KR/setting.json +2 -0
  62. package/locales/nl-NL/chat.json +1 -0
  63. package/locales/nl-NL/modelProvider.json +20 -0
  64. package/locales/nl-NL/models.json +35 -4
  65. package/locales/nl-NL/plugin.json +1 -0
  66. package/locales/nl-NL/providers.json +1 -0
  67. package/locales/nl-NL/setting.json +2 -0
  68. package/locales/pl-PL/chat.json +1 -0
  69. package/locales/pl-PL/modelProvider.json +20 -0
  70. package/locales/pl-PL/models.json +37 -7
  71. package/locales/pl-PL/plugin.json +1 -0
  72. package/locales/pl-PL/providers.json +1 -0
  73. package/locales/pl-PL/setting.json +2 -0
  74. package/locales/pt-BR/chat.json +1 -0
  75. package/locales/pt-BR/modelProvider.json +20 -0
  76. package/locales/pt-BR/models.json +51 -9
  77. package/locales/pt-BR/plugin.json +1 -0
  78. package/locales/pt-BR/providers.json +1 -0
  79. package/locales/pt-BR/setting.json +2 -0
  80. package/locales/ru-RU/chat.json +1 -0
  81. package/locales/ru-RU/modelProvider.json +20 -0
  82. package/locales/ru-RU/models.json +48 -7
  83. package/locales/ru-RU/plugin.json +1 -0
  84. package/locales/ru-RU/providers.json +1 -0
  85. package/locales/ru-RU/setting.json +2 -0
  86. package/locales/tr-TR/chat.json +1 -0
  87. package/locales/tr-TR/modelProvider.json +20 -0
  88. package/locales/tr-TR/models.json +48 -7
  89. package/locales/tr-TR/plugin.json +1 -0
  90. package/locales/tr-TR/providers.json +1 -0
  91. package/locales/tr-TR/setting.json +2 -0
  92. package/locales/vi-VN/chat.json +1 -0
  93. package/locales/vi-VN/modelProvider.json +20 -0
  94. package/locales/vi-VN/models.json +5 -5
  95. package/locales/vi-VN/plugin.json +1 -0
  96. package/locales/vi-VN/providers.json +1 -0
  97. package/locales/vi-VN/setting.json +2 -0
  98. package/locales/zh-CN/modelProvider.json +20 -20
  99. package/locales/zh-CN/models.json +49 -8
  100. package/locales/zh-CN/providers.json +1 -0
  101. package/locales/zh-CN/setting.json +2 -1
  102. package/locales/zh-TW/chat.json +1 -0
  103. package/locales/zh-TW/modelProvider.json +20 -0
  104. package/locales/zh-TW/models.json +29 -10
  105. package/locales/zh-TW/plugin.json +1 -0
  106. package/locales/zh-TW/providers.json +1 -0
  107. package/locales/zh-TW/setting.json +2 -0
  108. package/package.json +1 -1
  109. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Body.tsx +1 -1
  110. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Cron/CronTopicGroup.tsx +84 -0
  111. package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/CronTopicItem.tsx +1 -1
  112. package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/index.tsx +23 -33
  113. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/Item/Editing.tsx +12 -49
  114. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/index.tsx +3 -1
  115. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Editing.tsx +12 -40
  116. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/hooks/useTopicNavigation.ts +5 -1
  117. package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobCards.tsx +1 -1
  118. package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobForm.tsx +1 -1
  119. package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/AvailableAgentList.tsx +0 -1
  120. package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/index.tsx +5 -1
  121. package/src/components/InlineRename/index.tsx +121 -0
  122. package/src/features/NavPanel/components/NavItem.tsx +1 -1
  123. package/src/locales/default/setting.ts +2 -0
  124. package/src/store/agent/slices/cron/action.ts +108 -0
  125. package/src/store/agent/slices/cron/index.ts +1 -0
  126. package/src/store/agent/store.ts +3 -0
  127. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/CronTopicList/CronTopicGroup.tsx +0 -74
  128. package/src/app/[variants]/(main)/group/features/ChangelogModal.tsx +0 -11
  129. package/src/hooks/useFetchCronTopicsWithJobInfo.ts +0 -56
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
272
272
  "claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
273
273
  "claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku bietet es verbesserte Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic und verbessert sich in zahlreichen Fähigkeiten. Es übertrifft das bisherige Flaggschiff Claude 3 Opus in vielen Benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste hybride Reasoning-Modell auf dem Markt. Es liefert nahezu sofortige Antworten oder nachvollziehbares, schrittweises Denken. Sonnet überzeugt besonders in den Bereichen Programmierung, Data Science, Bildverarbeitung und Agentenaufgaben.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 ist das intelligenteste Modell von Anthropic und das erste Hybrid-Reasoning-Modell auf dem Markt. Es ermöglicht nahezu sofortige Antworten oder tiefgreifendes Denken mit präziser Steuerung.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – blitzschnell und mit erweitertem Denkvermögen.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch exzellente Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch herausragende Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 liefert nahezu sofortige Antworten oder nachvollziehbares, schrittweises Denken mit sichtbarem Denkprozess.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 ist das bisher intelligenteste Modell von Anthropic. Es bietet nahezu sofortige Antworten oder schrittweises Denken mit feiner Steuerung für API-Nutzer.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
289
289
  "codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
358
- "deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Programmierfähigkeiten kombiniert. Es vereint den Dialogfluss eines Chatmodells mit der starken Codierungsleistung eines Coder-Modells und bietet eine bessere Präferenzanpassung. DeepSeek-V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 balanciert logisches Denken und Ausgabelänge für tägliche Frage-Antwort- und Agentenaufgaben. Öffentliche Benchmarks erreichen GPT-5-Niveau. Es ist das erste Modell, das Denken in die Werkzeugnutzung integriert und führt Open-Source-Agentenbewertungen an.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche – kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche – bietet stärkeres Verständnis und bessere Generierung.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
381
- "deepseek-reasoner.description": "Der Denkmodus von DeepSeek V3.2 gibt vor der finalen Antwort eine Gedankenkette aus, um die Genauigkeit zu erhöhen.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking ist ein Modell für tiefes logisches Denken, das vor der Ausgabe eine Gedankenkette generiert, um die Genauigkeit zu erhöhen. Es erzielt Spitzenwerte in Wettbewerben und bietet eine Denkfähigkeit vergleichbar mit Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K ist ein ultra-leichtgewichtiges Modell für einfache Frage-Antwort-Aufgaben, Klassifikation und kostengünstige Inferenz.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Texteingaben und Bildinputs unterstützt und eine hochgradig steuerbare, qualitativ hochwertige Bildgenerierung ermöglicht. Es erstellt Bilder aus Texteingaben.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für hochqualitative, kontrollierbare Bildgenerierung aus Prompts.",
475
475
  "fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
480
480
  "fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.",
482
- "fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen unterstützt, chinesischen und englischen Text präzise editiert und hochwertige Bearbeitungen wie Stilübertragungen und Objektrotationen ermöglicht.",
483
- "fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
482
+ "fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen, präzise Textbearbeitung in Chinesisch/Englisch, Stilübertragungen, Drehungen und mehr unterstützt.",
483
+ "fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit starker chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
484
484
  "flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 1–4 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.",
485
485
  "flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.",
486
486
  "flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
@@ -526,6 +526,40 @@
526
526
  "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
527
527
  "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
528
528
  "gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
529
+ "gemini-3-flash-preview.description": "Gemini 3 Flash ist das intelligenteste Modell, das für Geschwindigkeit entwickelt wurde. Es verbindet modernste Intelligenz mit exzellenter Suchintegration.",
530
+ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell mit Unterstützung für multimodale Dialoge.",
531
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt auch multimodale Chats.",
532
+ "gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.",
533
+ "gemini-flash-latest.description": "Neueste Version von Gemini Flash",
534
+ "gemini-flash-lite-latest.description": "Neueste Version von Gemini Flash-Lite",
535
+ "gemini-pro-latest.description": "Neueste Version von Gemini Pro",
536
+ "gemma-7b-it.description": "Gemma 7B ist kosteneffizient für kleine bis mittelgroße Aufgaben.",
537
+ "gemma2-9b-it.description": "Gemma 2 9B ist für spezifische Aufgaben und die Integration von Tools optimiert.",
538
+ "gemma2.description": "Gemma 2 ist Googles effizientes Modell für Anwendungsfälle von kleinen Apps bis hin zu komplexer Datenverarbeitung.",
539
+ "gemma2:27b.description": "Gemma 2 ist Googles effizientes Modell für Anwendungsfälle von kleinen Apps bis hin zu komplexer Datenverarbeitung.",
540
+ "gemma2:2b.description": "Gemma 2 ist Googles effizientes Modell für Anwendungsfälle von kleinen Apps bis hin zu komplexer Datenverarbeitung.",
541
+ "generalv3.5.description": "Spark Max ist die funktionsreichste Version mit Websuche und vielen integrierten Plugins. Die vollständig optimierten Kernfunktionen, Systemrollen und Funktionsaufrufe sorgen für exzellente Leistung in komplexen Anwendungsszenarien.",
542
+ "generalv3.description": "Spark Pro ist ein leistungsstarkes LLM, das für professionelle Bereiche wie Mathematik, Programmierung, Gesundheitswesen und Bildung optimiert ist. Es bietet Websuche und integrierte Plugins wie Wetter und Datum. Es überzeugt durch starke Leistung und Effizienz bei komplexen Wissensfragen, Sprachverständnis und fortgeschrittener Textgenerierung – ideal für professionelle Anwendungsfälle.",
543
+ "glm-4-0520.description": "GLM-4-0520 ist die neueste Modellversion, entwickelt für hochkomplexe und vielfältige Aufgaben mit exzellenter Leistung.",
544
+ "glm-4-32b-0414.description": "GLM-4 32B 0414 ist ein allgemeines GLM-Modell, das Multi-Task-Textgenerierung und -verständnis unterstützt.",
545
+ "glm-4-9b-chat.description": "GLM-4-9B-Chat überzeugt in Semantik, Mathematik, logischem Denken, Code und Wissen. Es unterstützt auch Web-Browsing, Codeausführung, benutzerdefinierte Tool-Nutzung und Langtext-Reasoning in 26 Sprachen, darunter Japanisch, Koreanisch und Deutsch.",
546
+ "glm-4-air-250414.description": "GLM-4-Air ist eine kosteneffiziente Option mit Leistung nahe GLM-4, hoher Geschwindigkeit und geringeren Kosten.",
547
+ "glm-4-air.description": "GLM-4-Air ist eine kosteneffiziente Option mit Leistung nahe GLM-4, hoher Geschwindigkeit und geringeren Kosten.",
548
+ "glm-4-airx.description": "GLM-4-AirX ist eine effizientere Variante von GLM-4-Air mit bis zu 2,6-fach schnellerem logischen Denken.",
549
+ "glm-4-alltools.description": "GLM-4-AllTools ist ein vielseitiges Agentenmodell, das für komplexe Anweisungsplanung und Tool-Nutzung wie Websuche, Code-Erklärung und Textgenerierung optimiert ist – ideal für Multi-Task-Ausführung.",
550
+ "glm-4-flash-250414.description": "GLM-4-Flash ist ideal für einfache Aufgaben: am schnellsten und kostenlos.",
551
+ "glm-4-flash.description": "GLM-4-Flash ist ideal für einfache Aufgaben: am schnellsten und kostenlos.",
552
+ "glm-4-flashx.description": "GLM-4-FlashX ist eine erweiterte Flash-Version mit ultraschnellem logischen Denken.",
553
+ "glm-4-long.description": "GLM-4-Long unterstützt ultralange Eingaben für speicherähnliche Aufgaben und großflächige Dokumentverarbeitung.",
554
+ "glm-4-plus.description": "GLM-4-Plus ist ein intelligentes Flaggschiffmodell mit starker Langtext- und Komplexaufgabenverarbeitung sowie verbesserter Gesamtleistung.",
555
+ "glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking ist das stärkste bekannte ~10B VLM und deckt SOTA-Aufgaben wie Videoverstehen, Bild-QA, Fachlösungen, OCR, Dokument- und Diagrammlesen, GUI-Agenten, Frontend-Coding und Grounding ab. Es übertrifft sogar das 8-fach größere Qwen2.5-VL-72B in vielen Aufgaben. Mit fortschrittlichem RL nutzt es Chain-of-Thought-Reasoning zur Verbesserung von Genauigkeit und Tiefe und übertrifft traditionelle Nicht-Denk-Modelle sowohl in Ergebnissen als auch in Erklärbarkeit.",
556
+ "glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking ist das stärkste bekannte ~10B VLM und deckt SOTA-Aufgaben wie Videoverstehen, Bild-QA, Fachlösungen, OCR, Dokument- und Diagrammlesen, GUI-Agenten, Frontend-Coding und Grounding ab. Es übertrifft sogar das 8-fach größere Qwen2.5-VL-72B in vielen Aufgaben. Mit fortschrittlichem RL nutzt es Chain-of-Thought-Reasoning zur Verbesserung von Genauigkeit und Tiefe und übertrifft traditionelle Nicht-Denk-Modelle sowohl in Ergebnissen als auch in Erklärbarkeit.",
557
+ "glm-4.5-air.description": "GLM-4.5 Leichtversion, die Leistung und Kosten ausbalanciert, mit flexiblen hybriden Denkmodi.",
558
+ "glm-4.5-airx.description": "GLM-4.5-Air Schnellversion mit schnelleren Antworten für großflächige, hochfrequente Nutzung.",
559
+ "glm-4.5-flash.description": "Kostenlose GLM-4.5-Stufe mit starker Leistung in logischem Denken, Programmierung und Agentenaufgaben.",
560
+ "glm-4.5-x.description": "GLM-4.5 Schnellversion mit starker Leistung und Generierungsgeschwindigkeiten von bis zu 100 Token/Sekunde.",
561
+ "glm-4.5.description": "Zhipus Flaggschiffmodell mit umschaltbarem Denkmodus, bietet Open-Source-SOTA-Leistung und bis zu 128K Kontext.",
562
+ "glm-4.5v.description": "Zhipus nächste Generation eines MoE-Vision-Reasoning-Modells mit 106B Gesamtparametern und 12B aktiven. Es erreicht SOTA unter ähnlich großen Open-Source-Multimodalmodellen in Bild-, Video-, Dokumentenverständnis- und GUI-Aufgaben.",
529
563
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
530
564
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
531
565
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
@@ -92,6 +92,7 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Keine Ergebnisse",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Lokales System",
95
+ "builtins.lobe-notebook.actions.collapse": "Einklappen",
95
96
  "builtins.lobe-notebook.actions.copy": "Kopieren",
96
97
  "builtins.lobe-notebook.actions.creating": "Dokument wird erstellt...",
97
98
  "builtins.lobe-notebook.actions.edit": "Bearbeiten",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle – mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.",
30
30
  "jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
31
31
  "lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
32
+ "lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.",
32
33
  "minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
33
34
  "mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung – inklusive Funktionsaufrufen für individuelle Integrationen.",
34
35
  "modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.",
@@ -33,6 +33,7 @@
33
33
  "agentCronJobs.maxExecutions": "Maximale Ausführungen",
34
34
  "agentCronJobs.name": "Aufgabenname",
35
35
  "agentCronJobs.never": "Nie",
36
+ "agentCronJobs.noExecutionResults": "Keine Ausführungsergebnisse",
36
37
  "agentCronJobs.remainingExecutions": "Verbleibend: {{count}}",
37
38
  "agentCronJobs.save": "Speichern",
38
39
  "agentCronJobs.schedule": "Zeitplan",
@@ -42,6 +43,7 @@
42
43
  "agentCronJobs.timeRange": "Zeitspanne",
43
44
  "agentCronJobs.title": "Geplante Aufgaben",
44
45
  "agentCronJobs.unlimited": "Unbegrenzt",
46
+ "agentCronJobs.unnamedTask": "Unbenannte Aufgabe",
45
47
  "agentCronJobs.updateSuccess": "Geplante Aufgabe erfolgreich aktualisiert",
46
48
  "agentCronJobs.weekdays": "Wochentage",
47
49
  "agentInfoDescription.basic.avatar": "Avatar",
@@ -63,6 +63,7 @@
63
63
  "extendParams.reasoningEffort.title": "Reasoning Intensity",
64
64
  "extendParams.textVerbosity.title": "Output Text Detail Level",
65
65
  "extendParams.thinking.title": "Deep Thinking Switch",
66
+ "extendParams.thinkingBudget.title": "Thinking Budget",
66
67
  "extendParams.thinkingLevel.title": "Level of Thinking",
67
68
  "extendParams.title": "Model Extension Features",
68
69
  "extendParams.urlContext.desc": "When enabled, web links will be automatically parsed to retrieve the actual webpage context content",
@@ -194,6 +194,26 @@
194
194
  "providerModels.item.modelConfig.deployName.title": "Model Deployment Name",
195
195
  "providerModels.item.modelConfig.displayName.placeholder": "Please enter the display name of the model, e.g., ChatGPT, GPT-4, etc.",
196
196
  "providerModels.item.modelConfig.displayName.title": "Model Display Name",
197
+ "providerModels.item.modelConfig.extendParams.extra": "Choose extended parameters supported by the model. Hover an option to preview controls. Incorrect configs may cause request failures.",
198
+ "providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "For Claude models; can lower cost and speed up responses.",
199
+ "providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "For Claude, DeepSeek and other reasoning models; unlock deeper thinking.",
200
+ "providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "For GPT-5 series; controls reasoning intensity.",
201
+ "providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "For GPT-5.1 series; controls reasoning intensity.",
202
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "For GPT-5.2 Pro series; controls reasoning intensity.",
203
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "For GPT-5.2 series; controls reasoning intensity.",
204
+ "providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "For Gemini image generation models; controls aspect ratio of generated images.",
205
+ "providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "For Gemini 3 image generation models; controls resolution of generated images.",
206
+ "providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "For Claude, Qwen3 and similar; controls token budget for reasoning.",
207
+ "providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "For OpenAI and other reasoning-capable models; controls reasoning effort.",
208
+ "providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "For GPT-5+ series; controls output verbosity.",
209
+ "providerModels.item.modelConfig.extendParams.options.thinking.hint": "For some Doubao models; allow model to decide whether to think deeply.",
210
+ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "For Gemini series; controls thinking budget.",
211
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "For Gemini 3 Flash Preview models; controls thinking depth.",
212
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "For Gemini 3 Pro Preview models; controls thinking depth.",
213
+ "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "For Gemini series; supports providing URL context.",
214
+ "providerModels.item.modelConfig.extendParams.placeholder": "Select extended parameters to enable",
215
+ "providerModels.item.modelConfig.extendParams.previewFallback": "Preview unavailable",
216
+ "providerModels.item.modelConfig.extendParams.title": "Extended Parameters",
197
217
  "providerModels.item.modelConfig.files.extra": "The current file upload implementation is just a hack solution, limited to self-experimentation. Please wait for complete file upload capabilities in future implementations.",
198
218
  "providerModels.item.modelConfig.files.title": "File Upload Support",
199
219
  "providerModels.item.modelConfig.functionCall.extra": "This configuration will only enable the model's ability to use tools, allowing for the addition of tool-type skills. However, whether the model can truly use the tools depends entirely on the model itself; please test for usability on your own.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
272
272
  "claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
273
273
  "claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the prior largest model Claude 3 Opus on many intelligence benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model, improving across skills and surpassing the previous flagship Claude 3 Opus on many benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropic’s most intelligent model and the first hybrid reasoning model on the market. It can produce near-instant responses or extended step-by-step reasoning that users can see. Sonnet is especially strong at coding, data science, vision, and agent tasks.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is Anthropic’s most intelligent model and the first hybrid reasoning model on the market, supporting near-instant responses or extended thinking with fine-grained control.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic’s most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
289
289
  "codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
358
- "deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat model’s general dialogue and the coder model’s strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
475
475
  "fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
480
480
  "fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
482
- "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
483
- "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
482
+ "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
483
+ "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
484
484
  "flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
485
485
  "flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
486
486
  "flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
30
30
  "jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
31
31
  "lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
32
+ "lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
32
33
  "minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
33
34
  "mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
34
35
  "modelscope.description": "ModelScope is Alibaba Cloud’s model-as-a-service platform, offering a wide range of AI models and inference services.",
@@ -25,7 +25,6 @@
25
25
  "agentCronJobs.form.validation.nameRequired": "Task name is required",
26
26
  "agentCronJobs.interval.12hours": "Every 12 hours",
27
27
  "agentCronJobs.interval.1hour": "Every hour",
28
- "agentCronJobs.interval.2hours": "Every 2 hours",
29
28
  "agentCronJobs.interval.30min": "Every 30 minutes",
30
29
  "agentCronJobs.interval.6hours": "Every 6 hours",
31
30
  "agentCronJobs.interval.daily": "Daily",
@@ -34,6 +33,7 @@
34
33
  "agentCronJobs.maxExecutions": "Max Executions",
35
34
  "agentCronJobs.name": "Task Name",
36
35
  "agentCronJobs.never": "Never",
36
+ "agentCronJobs.noExecutionResults": "No execution results",
37
37
  "agentCronJobs.remainingExecutions": "Remaining: {{count}}",
38
38
  "agentCronJobs.save": "Save",
39
39
  "agentCronJobs.schedule": "Schedule",
@@ -43,6 +43,7 @@
43
43
  "agentCronJobs.timeRange": "Time Range",
44
44
  "agentCronJobs.title": "Scheduled Tasks",
45
45
  "agentCronJobs.unlimited": "Unlimited",
46
+ "agentCronJobs.unnamedTask": "Unnamed Task",
46
47
  "agentCronJobs.updateSuccess": "Scheduled task updated successfully",
47
48
  "agentCronJobs.weekdays": "Weekdays",
48
49
  "agentInfoDescription.basic.avatar": "Avatar",
@@ -63,6 +63,7 @@
63
63
  "extendParams.reasoningEffort.title": "Intensidad del Razonamiento",
64
64
  "extendParams.textVerbosity.title": "Nivel de detalle del texto de salida",
65
65
  "extendParams.thinking.title": "Interruptor de Pensamiento Profundo",
66
+ "extendParams.thinkingBudget.title": "Presupuesto de Reflexión",
66
67
  "extendParams.thinkingLevel.title": "Nivel de Pensamiento",
67
68
  "extendParams.title": "Funciones de Extensión del Modelo",
68
69
  "extendParams.urlContext.desc": "Cuando está habilitado, los enlaces web se analizarán automáticamente para recuperar el contenido real de la página",
@@ -194,6 +194,26 @@
194
194
  "providerModels.item.modelConfig.deployName.title": "Nombre de despliegue del modelo",
195
195
  "providerModels.item.modelConfig.displayName.placeholder": "Introduce el nombre para mostrar del modelo, por ejemplo, ChatGPT, GPT-4, etc.",
196
196
  "providerModels.item.modelConfig.displayName.title": "Nombre para mostrar del modelo",
197
+ "providerModels.item.modelConfig.extendParams.extra": "Elige los parámetros extendidos compatibles con el modelo. Pasa el cursor sobre una opción para previsualizar los controles. Configuraciones incorrectas pueden causar errores en la solicitud.",
198
+ "providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Para modelos Claude; puede reducir el costo y acelerar las respuestas.",
199
+ "providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Para Claude, DeepSeek y otros modelos de razonamiento; permite un pensamiento más profundo.",
200
+ "providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Para la serie GPT-5; controla la intensidad del razonamiento.",
201
+ "providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Para la serie GPT-5.1; controla la intensidad del razonamiento.",
202
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "Para la serie GPT-5.2 Pro; controla la intensidad del razonamiento.",
203
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "Para la serie GPT-5.2; controla la intensidad del razonamiento.",
204
+ "providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Para modelos de generación de imágenes Gemini; controla la relación de aspecto de las imágenes generadas.",
205
+ "providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Para modelos de generación de imágenes Gemini 3; controla la resolución de las imágenes generadas.",
206
+ "providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Para Claude, Qwen3 y similares; controla el presupuesto de tokens para el razonamiento.",
207
+ "providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "Para OpenAI y otros modelos con capacidad de razonamiento; controla el esfuerzo de razonamiento.",
208
+ "providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "Para la serie GPT-5+; controla la verbosidad del resultado.",
209
+ "providerModels.item.modelConfig.extendParams.options.thinking.hint": "Para algunos modelos Doubao; permite que el modelo decida si debe pensar en profundidad.",
210
+ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Para la serie Gemini; controla el presupuesto de pensamiento.",
211
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Para modelos Gemini 3 Flash Preview; controla la profundidad del pensamiento.",
212
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Para modelos Gemini 3 Pro Preview; controla la profundidad del pensamiento.",
213
+ "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Para la serie Gemini; permite proporcionar contexto mediante URL.",
214
+ "providerModels.item.modelConfig.extendParams.placeholder": "Selecciona los parámetros extendidos a habilitar",
215
+ "providerModels.item.modelConfig.extendParams.previewFallback": "Vista previa no disponible",
216
+ "providerModels.item.modelConfig.extendParams.title": "Parámetros Extendidos",
197
217
  "providerModels.item.modelConfig.files.extra": "La implementación actual de carga de archivos es una solución temporal, limitada a pruebas personales. Espera capacidades completas de carga en futuras versiones.",
198
218
  "providerModels.item.modelConfig.files.title": "Soporte de carga de archivos",
199
219
  "providerModels.item.modelConfig.functionCall.extra": "Esta configuración solo habilita la capacidad del modelo para usar herramientas, permitiendo agregar habilidades tipo herramienta. Sin embargo, si el modelo puede usarlas depende completamente de él; por favor, prueba su funcionalidad.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
273
273
  "claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al modelo anterior más grande, Claude 3 Opus, en muchos indicadores de inteligencia.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior buque insignia Claude 3 Opus en numerosos indicadores.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos paso a paso que los usuarios pueden seguir. Sonnet destaca especialmente en programación, ciencia de datos, visión y tareas de agentes.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado, capaz de ofrecer respuestas casi instantáneas o razonamientos prolongados con control detallado.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y capacidad de razonamiento extendido.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos detallados paso a paso con un proceso visible.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o razonamientos paso a paso con control detallado para usuarios de API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
289
289
  "codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B de parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
358
- "deepseek-chat.description": "Un nuevo modelo de código abierto que combina habilidades generales y de programación. Conserva el diálogo general del modelo conversacional y la sólida capacidad de codificación del modelo de programación, con una mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 equilibra razonamiento y longitud de salida para tareas diarias de preguntas y respuestas y agentes. En benchmarks públicos alcanza niveles de GPT-5, siendo el primero en integrar razonamiento en el uso de herramientas, liderando evaluaciones de agentes de código abierto.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
379
379
  "deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B de parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y tiene un rendimiento comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
381
- "deepseek-reasoner.description": "El modo de pensamiento DeepSeek V3.2 genera una cadena de razonamiento antes de la respuesta final para mejorar la precisión.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking es un modelo de razonamiento profundo que genera cadenas de pensamiento antes de las respuestas para mayor precisión, con resultados destacados en competencias y razonamiento comparable a Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671 mil millones de parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K es un modelo ultraligero para preguntas simples, clasificación e inferencia de bajo costo.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen, con una generación de imágenes altamente controlable y de alta calidad. Genera imágenes a partir de indicaciones de texto.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, admite entradas de texto e imagen para una generación de imágenes de alta calidad y altamente controlable a partir de indicaciones.",
475
475
  "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
480
480
  "fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.",
482
- "fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen que permite ediciones semánticas y de apariencia, edita texto en chino e inglés con precisión y permite ediciones de alta calidad como transferencia de estilo y rotación de objetos.",
483
- "fal-ai/qwen-image.description": "Un potente modelo de generación de imágenes del equipo Qwen con una impresionante representación de texto en chino y estilos visuales diversos.",
482
+ "fal-ai/qwen-image-edit.description": "Modelo profesional de edición de imágenes del equipo Qwen, compatible con ediciones semánticas y de apariencia, edición precisa de texto en chino/inglés, transferencia de estilo, rotación y más.",
483
+ "fal-ai/qwen-image.description": "Modelo potente de generación de imágenes del equipo Qwen con excelente renderizado de texto en chino y estilos visuales diversos.",
484
484
  "flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.",
485
485
  "flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.",
486
486
  "flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
@@ -530,6 +530,49 @@
530
530
  "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google, compatible también con chat multimodal.",
531
531
  "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google, compatible también con chat multimodal.",
532
532
  "gemini-3-pro-preview.description": "Gemini 3 Pro es el agente más potente de Google y modelo de codificación emocional, que ofrece visuales más ricos e interacción más profunda sobre un razonamiento de última generación.",
533
+ "gemini-flash-latest.description": "Última versión de Gemini Flash",
534
+ "gemini-flash-lite-latest.description": "Última versión de Gemini Flash-Lite",
535
+ "gemini-pro-latest.description": "Última versión de Gemini Pro",
536
+ "gemma-7b-it.description": "Gemma 7B es rentable para tareas de pequeña a mediana escala.",
537
+ "gemma2-9b-it.description": "Gemma 2 9B está optimizado para tareas específicas e integración con herramientas.",
538
+ "gemma2.description": "Gemma 2 es el modelo eficiente de Google, adecuado para casos de uso que van desde aplicaciones pequeñas hasta procesamiento de datos complejos.",
539
+ "gemma2:27b.description": "Gemma 2 es el modelo eficiente de Google, adecuado para casos de uso que van desde aplicaciones pequeñas hasta procesamiento de datos complejos.",
540
+ "gemma2:2b.description": "Gemma 2 es el modelo eficiente de Google, adecuado para casos de uso que van desde aplicaciones pequeñas hasta procesamiento de datos complejos.",
541
+ "generalv3.5.description": "Spark Max es la versión más completa, con búsqueda web y numerosos complementos integrados. Sus capacidades centrales optimizadas, roles de sistema y llamadas a funciones ofrecen un rendimiento excelente en escenarios de aplicación complejos.",
542
+ "generalv3.description": "Spark Pro es un modelo LLM de alto rendimiento optimizado para dominios profesionales, centrado en matemáticas, programación, salud y educación, con búsqueda web y complementos integrados como clima y fecha. Ofrece un rendimiento sólido y eficiente en preguntas complejas, comprensión del lenguaje y creación avanzada de texto, siendo ideal para usos profesionales.",
543
+ "glm-4-0520.description": "GLM-4-0520 es la versión más reciente del modelo, diseñado para tareas altamente complejas y diversas con un rendimiento excelente.",
544
+ "glm-4-32b-0414.description": "GLM-4 32B 0414 es un modelo GLM general que admite generación y comprensión de texto multitarea.",
545
+ "glm-4-9b-chat.description": "GLM-4-9B-Chat ofrece un rendimiento sólido en semántica, matemáticas, razonamiento, código y conocimiento. También admite navegación web, ejecución de código, llamadas a herramientas personalizadas y razonamiento de texto largo, con soporte para 26 idiomas, incluidos japonés, coreano y alemán.",
546
+ "glm-4-air-250414.description": "GLM-4-Air es una opción de alto valor con rendimiento cercano a GLM-4, velocidad rápida y menor costo.",
547
+ "glm-4-air.description": "GLM-4-Air es una opción de alto valor con rendimiento cercano a GLM-4, velocidad rápida y menor costo.",
548
+ "glm-4-airx.description": "GLM-4-AirX es una variante más eficiente de GLM-4-Air con razonamiento hasta 2.6 veces más rápido.",
549
+ "glm-4-alltools.description": "GLM-4-AllTools es un modelo de agente versátil optimizado para planificación de instrucciones complejas y uso de herramientas como navegación web, explicación de código y generación de texto, adecuado para ejecución multitarea.",
550
+ "glm-4-flash-250414.description": "GLM-4-Flash es ideal para tareas simples: el más rápido y gratuito.",
551
+ "glm-4-flash.description": "GLM-4-Flash es ideal para tareas simples: el más rápido y gratuito.",
552
+ "glm-4-flashx.description": "GLM-4-FlashX es una versión mejorada de Flash con razonamiento ultrarrápido.",
553
+ "glm-4-long.description": "GLM-4-Long admite entradas ultralargas para tareas de tipo memoria y procesamiento de documentos a gran escala.",
554
+ "glm-4-plus.description": "GLM-4-Plus es un buque insignia de alta inteligencia con manejo sólido de texto largo y tareas complejas, y rendimiento general mejorado.",
555
+ "glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking es el modelo VLM de ~10B más potente conocido, cubriendo tareas SOTA como comprensión de video, preguntas visuales, resolución de materias, OCR, lectura de documentos y gráficos, agentes GUI, codificación frontend y grounding. Supera incluso al Qwen2.5-VL-72B, 8 veces más grande, en muchas tareas. Con aprendizaje por refuerzo avanzado, utiliza razonamiento en cadena para mejorar precisión y riqueza, superando a modelos tradicionales sin razonamiento en resultados y explicabilidad.",
556
+ "glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking es el modelo VLM de ~10B más potente conocido, cubriendo tareas SOTA como comprensión de video, preguntas visuales, resolución de materias, OCR, lectura de documentos y gráficos, agentes GUI, codificación frontend y grounding. Supera incluso al Qwen2.5-VL-72B, 8 veces más grande, en muchas tareas. Con aprendizaje por refuerzo avanzado, utiliza razonamiento en cadena para mejorar precisión y riqueza, superando a modelos tradicionales sin razonamiento en resultados y explicabilidad.",
557
+ "glm-4.5-air.description": "Edición ligera de GLM-4.5 que equilibra rendimiento y costo, con modos de razonamiento híbrido flexibles.",
558
+ "glm-4.5-airx.description": "Edición rápida de GLM-4.5-Air con respuestas más veloces para usos de gran escala y alta velocidad.",
559
+ "glm-4.5-flash.description": "Nivel gratuito de GLM-4.5 con rendimiento sólido en razonamiento, codificación y tareas de agentes.",
560
+ "glm-4.5-x.description": "Edición rápida de GLM-4.5, con rendimiento sólido y velocidades de generación de hasta 100 tokens/segundo.",
561
+ "glm-4.5.description": "Modelo insignia de Zhipu con modo de razonamiento conmutable, ofreciendo SOTA de código abierto y hasta 128K de contexto.",
562
+ "glm-4.5v.description": "Modelo de razonamiento visual de próxima generación de Zhipu con arquitectura MoE, 106B parámetros totales y 12B activos, logrando SOTA entre modelos multimodales de código abierto de tamaño similar en imagen, video, comprensión de documentos y tareas GUI.",
563
+ "glm-4.6.description": "GLM-4.6 (355B), el último modelo insignia de Zhipu, supera ampliamente a su predecesor en codificación avanzada, procesamiento de texto largo, razonamiento y capacidades de agente, especialmente alineado con Claude Sonnet 4 en programación, convirtiéndose en el modelo de codificación líder en China.",
564
+ "glm-4.7.description": "GLM-4.7 es el último modelo insignia de Zhipu, con capacidades reforzadas para codificación agentica, planificación de tareas a largo plazo y colaboración con herramientas. Ha logrado posiciones destacadas en múltiples benchmarks públicos. Mejora la capacidad general, respuestas más naturales y escritura más inmersiva. En tareas complejas de agentes, sigue mejor las instrucciones y mejora la estética de los artefactos y la eficiencia en tareas de largo alcance.",
565
+ "glm-4.description": "GLM-4 es el modelo insignia anterior lanzado en enero de 2024, ahora reemplazado por el más potente GLM-4-0520.",
566
+ "glm-4v-flash.description": "GLM-4V-Flash se centra en la comprensión eficiente de imágenes individuales para análisis rápidos en escenarios como procesamiento de imágenes en tiempo real o por lotes.",
567
+ "glm-4v-plus-0111.description": "GLM-4V-Plus comprende video e imágenes múltiples, adecuado para tareas multimodales.",
568
+ "glm-4v-plus.description": "GLM-4V-Plus comprende video e imágenes múltiples, adecuado para tareas multimodales.",
569
+ "glm-4v.description": "GLM-4V ofrece sólida comprensión y razonamiento visual en tareas visuales.",
570
+ "glm-z1-air.description": "Modelo de razonamiento con gran capacidad de inferencia profunda para tareas complejas.",
571
+ "glm-z1-airx.description": "Razonamiento ultrarrápido con alta calidad de inferencia.",
572
+ "glm-z1-flash.description": "La serie GLM-Z1 ofrece razonamiento complejo sólido, destacando en lógica, matemáticas y programación.",
573
+ "glm-z1-flashx.description": "Rápido y de bajo costo: versión Flash mejorada con razonamiento ultrarrápido y mayor concurrencia.",
574
+ "glm-zero-preview.description": "GLM-Zero-Preview ofrece razonamiento complejo sólido, destacando en lógica, matemáticas y programación.",
575
+ "global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, que combina inteligencia excepcional y rendimiento escalable para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
533
576
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
534
577
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
535
578
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
@@ -92,6 +92,7 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Sin resultados",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Sistema Local",
95
+ "builtins.lobe-notebook.actions.collapse": "Colapsar",
95
96
  "builtins.lobe-notebook.actions.copy": "Copiar",
96
97
  "builtins.lobe-notebook.actions.creating": "Creando documento...",
97
98
  "builtins.lobe-notebook.actions.edit": "Editar",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
30
30
  "jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
31
31
  "lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
32
+ "lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
32
33
  "minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
33
34
  "mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
34
35
  "modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",
@@ -33,6 +33,7 @@
33
33
  "agentCronJobs.maxExecutions": "Máximo de ejecuciones",
34
34
  "agentCronJobs.name": "Nombre de la tarea",
35
35
  "agentCronJobs.never": "Nunca",
36
+ "agentCronJobs.noExecutionResults": "Sin resultados de ejecución",
36
37
  "agentCronJobs.remainingExecutions": "Restantes: {{count}}",
37
38
  "agentCronJobs.save": "Guardar",
38
39
  "agentCronJobs.schedule": "Programar",
@@ -42,6 +43,7 @@
42
43
  "agentCronJobs.timeRange": "Rango de tiempo",
43
44
  "agentCronJobs.title": "Tareas programadas",
44
45
  "agentCronJobs.unlimited": "Ilimitado",
46
+ "agentCronJobs.unnamedTask": "Tarea sin nombre",
45
47
  "agentCronJobs.updateSuccess": "Tarea programada actualizada con éxito",
46
48
  "agentCronJobs.weekdays": "Días laborables",
47
49
  "agentInfoDescription.basic.avatar": "Avatar",
@@ -63,6 +63,7 @@
63
63
  "extendParams.reasoningEffort.title": "شدت تفکر",
64
64
  "extendParams.textVerbosity.title": "سطح جزئیات متن خروجی",
65
65
  "extendParams.thinking.title": "کلید تفکر عمیق",
66
+ "extendParams.thinkingBudget.title": "بودجه تفکری",
66
67
  "extendParams.thinkingLevel.title": "سطح تفکر",
67
68
  "extendParams.title": "ویژگی‌های توسعه مدل",
68
69
  "extendParams.urlContext.desc": "در صورت فعال بودن، پیوندهای وب به‌طور خودکار تجزیه شده و محتوای صفحه بازیابی می‌شود",