@lobehub/lobehub 2.0.0-next.200 → 2.0.0-next.202

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (130) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/chat.json +2 -0
  4. package/locales/ar/models.json +64 -7
  5. package/locales/ar/plugin.json +2 -1
  6. package/locales/ar/providers.json +1 -0
  7. package/locales/bg-BG/chat.json +2 -0
  8. package/locales/bg-BG/models.json +49 -5
  9. package/locales/bg-BG/plugin.json +2 -1
  10. package/locales/bg-BG/providers.json +1 -0
  11. package/locales/de-DE/chat.json +2 -0
  12. package/locales/de-DE/models.json +36 -7
  13. package/locales/de-DE/plugin.json +2 -1
  14. package/locales/de-DE/providers.json +1 -0
  15. package/locales/en-US/chat.json +2 -0
  16. package/locales/en-US/models.json +10 -10
  17. package/locales/en-US/plugin.json +2 -1
  18. package/locales/en-US/providers.json +1 -0
  19. package/locales/es-ES/chat.json +2 -0
  20. package/locales/es-ES/models.json +106 -7
  21. package/locales/es-ES/plugin.json +2 -1
  22. package/locales/es-ES/providers.json +1 -0
  23. package/locales/fa-IR/chat.json +2 -0
  24. package/locales/fa-IR/models.json +83 -5
  25. package/locales/fa-IR/plugin.json +2 -1
  26. package/locales/fa-IR/providers.json +1 -0
  27. package/locales/fr-FR/chat.json +2 -0
  28. package/locales/fr-FR/models.json +38 -7
  29. package/locales/fr-FR/plugin.json +2 -1
  30. package/locales/fr-FR/providers.json +1 -0
  31. package/locales/it-IT/chat.json +2 -0
  32. package/locales/it-IT/models.json +40 -5
  33. package/locales/it-IT/plugin.json +2 -1
  34. package/locales/it-IT/providers.json +1 -0
  35. package/locales/ja-JP/chat.json +2 -0
  36. package/locales/ja-JP/models.json +84 -7
  37. package/locales/ja-JP/plugin.json +2 -1
  38. package/locales/ja-JP/providers.json +1 -0
  39. package/locales/ko-KR/chat.json +2 -0
  40. package/locales/ko-KR/models.json +65 -7
  41. package/locales/ko-KR/plugin.json +2 -1
  42. package/locales/ko-KR/providers.json +1 -0
  43. package/locales/nl-NL/chat.json +2 -0
  44. package/locales/nl-NL/models.json +62 -5
  45. package/locales/nl-NL/plugin.json +2 -1
  46. package/locales/nl-NL/providers.json +1 -0
  47. package/locales/pl-PL/chat.json +2 -0
  48. package/locales/pl-PL/models.json +85 -0
  49. package/locales/pl-PL/plugin.json +2 -1
  50. package/locales/pl-PL/providers.json +1 -0
  51. package/locales/pt-BR/chat.json +2 -0
  52. package/locales/pt-BR/models.json +37 -6
  53. package/locales/pt-BR/plugin.json +2 -1
  54. package/locales/pt-BR/providers.json +1 -0
  55. package/locales/ru-RU/chat.json +2 -0
  56. package/locales/ru-RU/models.json +36 -7
  57. package/locales/ru-RU/plugin.json +2 -1
  58. package/locales/ru-RU/providers.json +1 -0
  59. package/locales/tr-TR/chat.json +2 -0
  60. package/locales/tr-TR/models.json +28 -7
  61. package/locales/tr-TR/plugin.json +2 -1
  62. package/locales/tr-TR/providers.json +1 -0
  63. package/locales/vi-VN/chat.json +2 -0
  64. package/locales/vi-VN/models.json +62 -5
  65. package/locales/vi-VN/plugin.json +2 -1
  66. package/locales/vi-VN/providers.json +1 -0
  67. package/locales/zh-CN/chat.json +2 -0
  68. package/locales/zh-CN/models.json +87 -6
  69. package/locales/zh-CN/plugin.json +2 -1
  70. package/locales/zh-CN/providers.json +1 -0
  71. package/locales/zh-TW/chat.json +2 -0
  72. package/locales/zh-TW/models.json +71 -7
  73. package/locales/zh-TW/plugin.json +2 -1
  74. package/locales/zh-TW/providers.json +1 -0
  75. package/package.json +2 -2
  76. package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +30 -15
  77. package/packages/builtin-tool-gtd/src/manifest.ts +1 -1
  78. package/packages/model-runtime/src/core/ModelRuntime.test.ts +44 -86
  79. package/packages/types/src/aiChat.ts +0 -1
  80. package/packages/types/src/message/ui/chat.ts +1 -1
  81. package/src/app/(backend)/middleware/auth/index.ts +16 -2
  82. package/src/app/(backend)/webapi/chat/[provider]/route.test.ts +30 -15
  83. package/src/app/(backend)/webapi/chat/[provider]/route.ts +44 -40
  84. package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +4 -3
  85. package/src/app/(backend)/webapi/models/[provider]/route.test.ts +36 -13
  86. package/src/app/(backend)/webapi/models/[provider]/route.ts +4 -11
  87. package/src/app/[variants]/(desktop)/desktop-onboarding/index.tsx +8 -2
  88. package/src/features/Conversation/Messages/AssistantGroup/Tool/Render/index.tsx +21 -23
  89. package/src/features/Conversation/Messages/AssistantGroup/components/ContentBlock.tsx +16 -3
  90. package/src/features/Conversation/Messages/Task/TaskDetailPanel/index.tsx +17 -20
  91. package/src/features/Conversation/Messages/Tasks/shared/ErrorState.tsx +16 -11
  92. package/src/features/Conversation/Messages/Tasks/shared/InitializingState.tsx +6 -20
  93. package/src/features/Conversation/Messages/Tasks/shared/ProcessingState.tsx +10 -20
  94. package/src/features/User/DataStatistics.tsx +4 -4
  95. package/src/hooks/useQueryParam.ts +0 -2
  96. package/src/libs/trpc/async/asyncAuth.ts +0 -2
  97. package/src/libs/trpc/async/context.ts +3 -11
  98. package/src/locales/default/chat.ts +2 -0
  99. package/src/locales/default/plugin.ts +2 -1
  100. package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +6 -6
  101. package/src/server/modules/AgentRuntime/__tests__/RuntimeExecutors.test.ts +3 -3
  102. package/src/server/modules/AgentRuntime/factory.ts +39 -20
  103. package/src/server/modules/ModelRuntime/index.ts +138 -1
  104. package/src/server/routers/async/__tests__/caller.test.ts +22 -27
  105. package/src/server/routers/async/caller.ts +4 -6
  106. package/src/server/routers/async/file.ts +10 -5
  107. package/src/server/routers/async/image.ts +5 -4
  108. package/src/server/routers/async/ragEval.ts +7 -5
  109. package/src/server/routers/lambda/__tests__/aiChat.test.ts +8 -37
  110. package/src/server/routers/lambda/aiChat.ts +5 -21
  111. package/src/server/routers/lambda/chunk.ts +9 -28
  112. package/src/server/routers/lambda/image.ts +1 -7
  113. package/src/server/routers/lambda/ragEval.ts +1 -1
  114. package/src/server/routers/lambda/userMemories/reembed.ts +4 -1
  115. package/src/server/routers/lambda/userMemories/search.ts +7 -7
  116. package/src/server/routers/lambda/userMemories/shared.ts +8 -10
  117. package/src/server/routers/lambda/userMemories/tools.ts +140 -118
  118. package/src/server/routers/lambda/userMemories.test.ts +3 -7
  119. package/src/server/routers/lambda/userMemories.ts +44 -29
  120. package/src/server/services/agentRuntime/AgentRuntimeService.test.ts +87 -0
  121. package/src/server/services/agentRuntime/AgentRuntimeService.ts +53 -2
  122. package/src/server/services/agentRuntime/__tests__/executeSync.test.ts +2 -6
  123. package/src/server/services/agentRuntime/__tests__/stepLifecycleCallbacks.test.ts +1 -1
  124. package/src/server/services/chunk/index.ts +6 -5
  125. package/src/server/services/toolExecution/types.ts +1 -2
  126. package/src/services/__tests__/_url.test.ts +0 -1
  127. package/src/services/_url.ts +0 -3
  128. package/src/services/aiChat.ts +5 -12
  129. package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +0 -2
  130. package/src/app/(backend)/webapi/text-to-image/[provider]/route.ts +0 -74
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
272
272
  "claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
273
273
  "claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d'Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences globales et surpasse le précédent plus grand modèle Claude 3 Opus sur de nombreux tests d’intelligence.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide dAnthropic, offrant des améliorations sur de nombreuses compétences et surpassant l’ancien modèle phare Claude 3 Opus sur de nombreux benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d'Anthropic et le premier modèle de raisonnement hybride sur le marché. Il peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l'utilisateur. Sonnet excelle particulièrement en programmation, science des données, vision et tâches d'agents.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent dAnthropic et le premier modèle de raisonnement hybride sur le marché, capable de fournir des réponses quasi instantanées ou une réflexion approfondie avec un contrôle précis.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, combinant vitesse fulgurante et raisonnement approfondi.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, combinant une vitesse fulgurante et une capacité de réflexion étendue.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour les tâches hautement complexes, excellent en performance, intelligence, fluidité et compréhension.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant dAnthropic pour les tâches hautement complexes, excellent en performance, intelligence, fluidité et compréhension.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d’Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion pas à pas approfondie avec un contrôle précis pour les utilisateurs d’API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
289
289
  "codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en questions visuelles, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
358
- "deepseek-chat.description": "Un nouveau modèle open source combinant capacités générales et de codage. Il conserve le dialogue général du modèle de chat et la puissance de codage du modèle de programmeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également la rédaction et le suivi des instructions.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 équilibre raisonnement et longueur de sortie pour les tâches quotidiennes de questions-réponses et d'agents. Il atteint des performances comparables à GPT-5 sur les benchmarks publics et est le premier à intégrer la réflexion dans l'utilisation d'outils, établissant une nouvelle référence pour les évaluations open source d'agents.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
@@ -378,10 +378,41 @@
378
378
  "deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant capacité à l’échelle 671B et réponse rapide.",
379
379
  "deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
381
- "deepseek-reasoner.description": "Le mode de réflexion DeepSeek V3.2 produit une chaîne de pensée avant la réponse finale pour améliorer la précision.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement avancé qui génère une chaîne de pensée avant la réponse finale pour une précision accrue. Il obtient d'excellents résultats en compétition et un raisonnement comparable à Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
385
+ "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus est un modèle LLM optimisé pour les terminaux, conçu par DeepSeek pour les appareils en ligne de commande.",
386
+ "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 est le modèle de raisonnement profond correspondant à la version Terminus, conçu pour des performances élevées en raisonnement.",
387
+ "deepseek-v3.1.description": "DeepSeek-V3.1 est un nouveau modèle hybride de raisonnement de DeepSeek, prenant en charge les modes avec ou sans réflexion, avec une efficacité de raisonnement supérieure à DeepSeek-R1-0528. Les optimisations post-entraînement améliorent considérablement l'utilisation d'outils par les agents et leurs performances. Il prend en charge une fenêtre de contexte de 128k et jusqu'à 64k de jetons en sortie.",
388
+ "deepseek-v3.1:671b.description": "DeepSeek V3.1 est un modèle de raisonnement de nouvelle génération, amélioré pour les raisonnements complexes et les chaînes de pensée, adapté aux tâches nécessitant une analyse approfondie.",
389
+ "deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduit l'attention clairsemée pour améliorer l'efficacité de l'entraînement et de l'inférence sur les textes longs, à un coût inférieur à deepseek-v3.1.",
390
+ "deepseek-v3.2-think.description": "DeepSeek V3.2 Think est un modèle de raisonnement profond complet, doté d'une capacité renforcée pour les chaînes de raisonnement longues.",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2 est le premier modèle hybride de raisonnement de DeepSeek intégrant la réflexion dans l'utilisation d'outils. Il combine une architecture efficace pour économiser les ressources, un apprentissage par renforcement à grande échelle pour améliorer les capacités, et des données synthétiques massives pour une meilleure généralisation. Ses performances rivalisent avec GPT-5-High, tout en réduisant considérablement la longueur des sorties, les coûts de calcul et le temps d'attente des utilisateurs.",
392
+ "deepseek-v3.description": "DeepSeek-V3 est un puissant modèle MoE avec 671 milliards de paramètres au total et 37 milliards actifs par jeton.",
393
+ "deepseek-vl2-small.description": "DeepSeek VL2 Small est une version multimodale légère, conçue pour les environnements à ressources limitées et les cas d'utilisation à forte concurrence.",
394
+ "deepseek-vl2.description": "DeepSeek VL2 est un modèle multimodal pour la compréhension image-texte et les questions-réponses visuelles de précision.",
395
+ "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 est un modèle MoE de 685 milliards de paramètres, dernière itération de la série de chat phare de DeepSeek.\n\nIl s'appuie sur [DeepSeek V3](/deepseek/deepseek-chat-v3) et offre d'excellentes performances sur diverses tâches.",
396
+ "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 est un modèle MoE de 685 milliards de paramètres, dernière itération de la série de chat phare de DeepSeek.\n\nIl s'appuie sur [DeepSeek V3](/deepseek/deepseek-chat-v3) et offre d'excellentes performances sur diverses tâches.",
397
+ "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 est le modèle de raisonnement hybride à long contexte de DeepSeek, prenant en charge les modes avec ou sans réflexion et l'intégration d'outils.",
398
+ "deepseek/deepseek-chat.description": "DeepSeek-V3 est le modèle hybride haute performance de DeepSeek pour les tâches complexes et l'intégration d'outils.",
399
+ "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 est une variante mise à jour axée sur l'ouverture et un raisonnement plus approfondi.",
400
+ "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 améliore considérablement le raisonnement avec un minimum de données annotées et génère une chaîne de pensée avant la réponse finale pour une meilleure précision.",
401
+ "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B est un LLM distillé basé sur Llama 3.3 70B, affiné à partir des sorties de DeepSeek R1 pour atteindre des performances comparables aux grands modèles de pointe.",
402
+ "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B est un LLM distillé basé sur Llama-3.1-8B-Instruct, entraîné à partir des sorties de DeepSeek R1.",
403
+ "deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B est un LLM distillé basé sur Qwen 2.5 14B, entraîné à partir des sorties de DeepSeek R1. Il surpasse OpenAI o1-mini sur plusieurs benchmarks, atteignant des résultats de pointe parmi les modèles denses. Points forts des benchmarks :\nAIME 2024 pass@1 : 69,7\nMATH-500 pass@1 : 93,9\nCodeForces Rating : 1481\nL'affinage sur les sorties de DeepSeek R1 permet des performances compétitives face aux modèles de pointe plus grands.",
404
+ "deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B est un LLM distillé basé sur Qwen 2.5 32B, entraîné à partir des sorties de DeepSeek R1. Il surpasse OpenAI o1-mini sur plusieurs benchmarks, atteignant des résultats de pointe parmi les modèles denses. Points forts des benchmarks :\nAIME 2024 pass@1 : 72,6\nMATH-500 pass@1 : 94,3\nCodeForces Rating : 1691\nL'affinage sur les sorties de DeepSeek R1 permet des performances compétitives face aux modèles de pointe plus grands.",
405
+ "deepseek/deepseek-r1.description": "DeepSeek R1 a été mis à jour vers DeepSeek-R1-0528. Grâce à une puissance de calcul accrue et des optimisations algorithmiques post-entraînement, il améliore considérablement la profondeur et la capacité de raisonnement. Il obtient d'excellents résultats sur les benchmarks de mathématiques, de programmation et de logique générale, rivalisant avec des leaders comme o3 et Gemini 2.5 Pro.",
406
+ "deepseek/deepseek-r1/community.description": "DeepSeek R1 est le dernier modèle open source publié par l'équipe DeepSeek, avec d'excellentes performances en raisonnement, notamment en mathématiques, en programmation et en logique, comparables à OpenAI o1.",
407
+ "deepseek/deepseek-r1:free.description": "DeepSeek-R1 améliore considérablement le raisonnement avec un minimum de données annotées et génère une chaîne de pensée avant la réponse finale pour une meilleure précision.",
408
+ "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) est le modèle expérimental de raisonnement de DeepSeek, adapté aux tâches de raisonnement à haute complexité.",
409
+ "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base est une version améliorée du modèle DeepSeek V3.",
410
+ "deepseek/deepseek-v3.description": "Un LLM polyvalent rapide avec des capacités de raisonnement renforcées.",
411
+ "deepseek/deepseek-v3/community.description": "DeepSeek-V3 marque une avancée majeure en vitesse de raisonnement par rapport aux modèles précédents. Il se classe premier parmi les modèles open source et rivalise avec les modèles fermés les plus avancés. DeepSeek-V3 adopte l'attention latente multi-têtes (MLA) et l'architecture DeepSeekMoE, toutes deux validées dans DeepSeek-V2. Il introduit également une stratégie auxiliaire sans perte pour l'équilibrage de charge et un objectif d'entraînement à prédiction multi-jetons pour des performances accrues.",
412
+ "deepseek_r1.description": "DeepSeek-R1 est un modèle de raisonnement basé sur l'apprentissage par renforcement, conçu pour résoudre les problèmes de répétition et de lisibilité. Avant l'étape RL, il utilise des données de démarrage à froid pour améliorer encore les performances de raisonnement. Il rivalise avec OpenAI-o1 sur les tâches de mathématiques, de codage et de raisonnement, grâce à un entraînement soigneusement conçu qui améliore les résultats globaux.",
413
+ "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B est distillé à partir de Llama-3.3-70B-Instruct. Faisant partie de la série DeepSeek-R1, il est affiné sur des exemples générés par DeepSeek-R1 et offre d'excellentes performances en mathématiques, codage et raisonnement.",
414
+ "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B est distillé à partir de Qwen2.5-14B et affiné sur 800 000 exemples sélectionnés générés par DeepSeek-R1, offrant un raisonnement solide.",
415
+ "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B est distillé à partir de Qwen2.5-32B et affiné sur 800 000 exemples sélectionnés générés par DeepSeek-R1, excellant en mathématiques, codage et raisonnement.",
385
416
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
386
417
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
387
418
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "Plan créé : <goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "Créer des tâches",
65
65
  "builtins.lobe-gtd.apiName.execTask": "Exécuter la tâche",
66
- "builtins.lobe-gtd.apiName.execTask.result": "Exécution : <desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "Tâche créée : ",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "Création de la tâche : ",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "Exécuter les tâches",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "Supprimer les tâches",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "Mettre à jour le plan",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
30
30
  "jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
31
31
  "lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
32
+ "lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation à l'aide de crédits liés aux jetons des modèles.",
32
33
  "minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
33
34
  "mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
34
35
  "modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} sottocompiti in batch",
296
296
  "task.metrics.stepsShort": "passi",
297
297
  "task.metrics.toolCallsShort": "usi strumento",
298
+ "task.status.cancelled": "Attività annullata",
299
+ "task.status.failed": "Attività non riuscita",
298
300
  "task.status.initializing": "Inizializzazione attività...",
299
301
  "task.subtask": "Sottocompito",
300
302
  "thread.divider": "Sottotema",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che combina comprensione e generazione avanzate per casi d'uso su larga scala come assistenza clienti, istruzione e supporto tecnico.",
272
272
  "claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
273
273
  "claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, migliora in tutte le competenze e supera il precedente modello di punta Claude 3 Opus in molti benchmark di intelligenza.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic, con miglioramenti in tutte le competenze e prestazioni superiori rispetto al precedente modello di punta Claude 3 Opus in molti benchmark.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fornisce risposte rapide per attività leggere.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato. È in grado di fornire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo visibili all'utente. Sonnet eccelle in programmazione, data science, visione e compiti per agenti.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato, in grado di fornire risposte quasi istantanee o riflessioni estese con un controllo preciso.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di ragionamento esteso.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e capacità di pensiero prolungato.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellente in prestazioni, intelligenza, fluidità e comprensione.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 può fornire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo con processo visibile.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 è il modello più intelligente mai realizzato da Anthropic, in grado di fornire risposte quasi istantanee o ragionamenti passo-passo estesi con un controllo dettagliato per gli utenti API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi.",
289
289
  "codegeex-4.description": "CodeGeeX-4 è un potente assistente di codifica AI che supporta Q&A multilingue e completamento del codice per aumentare la produttività degli sviluppatori.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B è un modello multilingue di generazione di codice che supporta completamento e generazione di codice, interprete di codice, ricerca web, chiamata di funzioni e Q&A a livello di repository, coprendo un'ampia gamma di scenari di sviluppo software. È un modello di codice di alto livello con meno di 10B parametri.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e catena di pensiero per compiti di analisi approfondita.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e catena di pensiero per compiti di analisi approfondita.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.",
358
- "deepseek-chat.description": "Un nuovo modello open-source che combina capacità generali e di programmazione. Mantiene il dialogo generale del modello di chat e la forte capacità di codifica del modello coder, con un migliore allineamento alle preferenze. DeepSeek-V2.5 migliora anche la scrittura e il rispetto delle istruzioni.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 bilancia ragionamento e lunghezza dell'output per attività quotidiane di domande e risposte e agenti. Nei benchmark pubblici raggiunge livelli paragonabili a GPT-5 ed è il primo modello open-source a integrare il pensiero nell'uso degli strumenti, migliorando le valutazioni degli agenti.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento nel mezzo, offrendo completamento di codice a livello di progetto e riempimento di frammenti.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
@@ -378,6 +378,41 @@
378
378
  "deepseek-r1-fast-online.description": "Versione completa veloce di DeepSeek R1 con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.",
379
379
  "deepseek-r1-online.description": "Versione completa di DeepSeek R1 con 671B parametri e ricerca web in tempo reale, che offre comprensione e generazione potenziate.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking è un modello di ragionamento profondo che genera una catena di pensieri prima dell'output per una maggiore accuratezza, con risultati competitivi ai vertici e capacità di ragionamento comparabili a Gemini-3.0-Pro.",
382
+ "deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.",
383
+ "deepseek-v2:236b.description": "DeepSeek V2 236B è il modello di DeepSeek focalizzato sul codice, con eccellenti capacità di generazione di codice.",
384
+ "deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza eccezionali nella programmazione, nella comprensione del contesto e nella gestione di testi lunghi.",
385
+ "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus è un LLM ottimizzato per terminali, progettato da DeepSeek per dispositivi terminali.",
386
+ "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 è il modello di pensiero profondo corrispondente alla versione Terminus, progettato per un ragionamento ad alte prestazioni.",
387
+ "deepseek-v3.1.description": "DeepSeek-V3.1 è un nuovo modello di ragionamento ibrido di DeepSeek, che supporta modalità con e senza pensiero, offrendo un'efficienza di pensiero superiore rispetto a DeepSeek-R1-0528. Le ottimizzazioni post-addestramento migliorano notevolmente l'uso degli strumenti da parte degli agenti e le prestazioni nei compiti. Supporta una finestra di contesto di 128k e fino a 64k token in output.",
388
+ "deepseek-v3.1:671b.description": "DeepSeek V3.1 è un modello di ragionamento di nuova generazione con capacità migliorate di ragionamento complesso e catena di pensieri, adatto a compiti che richiedono analisi approfondite.",
389
+ "deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduce l'attenzione sparsa per migliorare l'efficienza dell'addestramento e dell'inferenza su testi lunghi, a un costo inferiore rispetto a deepseek-v3.1.",
390
+ "deepseek-v3.2-think.description": "DeepSeek V3.2 Think è un modello completo di pensiero profondo con capacità di ragionamento a catena lunga più avanzate.",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2 è il primo modello di ragionamento ibrido di DeepSeek che integra il pensiero nell'uso degli strumenti. Combina un'architettura efficiente per ridurre il consumo computazionale, un apprendimento per rinforzo su larga scala per potenziare le capacità e dati sintetici su larga scala per una forte generalizzazione. Le sue prestazioni sono paragonabili a GPT-5-High, con una lunghezza dell'output significativamente ridotta, abbattendo i costi computazionali e i tempi di attesa per l'utente.",
392
+ "deepseek-v3.description": "DeepSeek-V3 è un potente modello MoE con 671 miliardi di parametri totali e 37 miliardi attivi per token.",
393
+ "deepseek-vl2-small.description": "DeepSeek VL2 Small è una versione multimodale leggera per ambienti con risorse limitate e alta concorrenza.",
394
+ "deepseek-vl2.description": "DeepSeek VL2 è un modello multimodale per la comprensione immagine-testo e domande visive dettagliate.",
395
+ "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 è un modello MoE con 685 miliardi di parametri e rappresenta l'ultima iterazione della serie di chat di punta di DeepSeek.\n\nSi basa su [DeepSeek V3](/deepseek/deepseek-chat-v3) e offre prestazioni elevate in vari compiti.",
396
+ "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 è un modello MoE con 685 miliardi di parametri e rappresenta l'ultima iterazione della serie di chat di punta di DeepSeek.\n\nSi basa su [DeepSeek V3](/deepseek/deepseek-chat-v3) e offre prestazioni elevate in vari compiti.",
397
+ "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 è il modello di ragionamento ibrido a lungo contesto di DeepSeek, che supporta modalità miste con/senza pensiero e integrazione con strumenti.",
398
+ "deepseek/deepseek-chat.description": "DeepSeek-V3 è il modello di ragionamento ibrido ad alte prestazioni di DeepSeek per compiti complessi e integrazione con strumenti.",
399
+ "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 è una variante aggiornata focalizzata sulla disponibilità open-source e su un ragionamento più profondo.",
400
+ "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 migliora notevolmente il ragionamento con un numero minimo di dati etichettati e genera una catena di pensieri prima della risposta finale per aumentare l'accuratezza.",
401
+ "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B è un LLM distillato basato su Llama 3.3 70B, ottimizzato utilizzando gli output di DeepSeek R1 per raggiungere prestazioni competitive con i modelli di frontiera di grandi dimensioni.",
402
+ "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B è un LLM distillato basato su Llama-3.1-8B-Instruct, addestrato utilizzando gli output di DeepSeek R1.",
403
+ "deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B è un LLM distillato basato su Qwen 2.5 14B, addestrato con gli output di DeepSeek R1. Supera OpenAI o1-mini in diversi benchmark, raggiungendo risultati all'avanguardia tra i modelli densi. Risultati principali:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces Rating: 1481\nIl fine-tuning con gli output di DeepSeek R1 garantisce prestazioni competitive con i modelli di frontiera più grandi.",
404
+ "deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B è un LLM distillato basato su Qwen 2.5 32B, addestrato con gli output di DeepSeek R1. Supera OpenAI o1-mini in diversi benchmark, raggiungendo risultati all'avanguardia tra i modelli densi. Risultati principali:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces Rating: 1691\nIl fine-tuning con gli output di DeepSeek R1 garantisce prestazioni competitive con i modelli di frontiera più grandi.",
405
+ "deepseek/deepseek-r1.description": "DeepSeek R1 è stato aggiornato a DeepSeek-R1-0528. Con maggiore potenza computazionale e ottimizzazioni algoritmiche post-addestramento, migliora significativamente la profondità e la capacità di ragionamento. Ottiene ottimi risultati in matematica, programmazione e logica generale, avvicinandosi a leader come o3 e Gemini 2.5 Pro.",
406
+ "deepseek/deepseek-r1/community.description": "DeepSeek R1 è l'ultimo modello open-source rilasciato dal team DeepSeek, con prestazioni di ragionamento molto elevate, in particolare in matematica, programmazione e compiti logici, comparabili a OpenAI o1.",
407
+ "deepseek/deepseek-r1:free.description": "DeepSeek-R1 migliora notevolmente il ragionamento con un numero minimo di dati etichettati e genera una catena di pensieri prima della risposta finale per aumentare l'accuratezza.",
408
+ "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) è il modello sperimentale di ragionamento di DeepSeek, adatto a compiti di ragionamento ad alta complessità.",
409
+ "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base è una versione migliorata del modello DeepSeek V3.",
410
+ "deepseek/deepseek-v3.description": "Un LLM veloce e generico con capacità di ragionamento potenziate.",
411
+ "deepseek/deepseek-v3/community.description": "DeepSeek-V3 rappresenta un importante passo avanti nella velocità di ragionamento rispetto ai modelli precedenti. È al primo posto tra i modelli open-source e rivaleggia con i modelli chiusi più avanzati. Adotta l'attenzione latente multi-head (MLA) e l'architettura DeepSeekMoE, entrambe validate in DeepSeek-V2. Introduce anche una strategia ausiliaria lossless per il bilanciamento del carico e un obiettivo di addestramento con previsione multi-token per prestazioni più forti.",
412
+ "deepseek_r1.description": "DeepSeek-R1 è un modello di ragionamento basato su apprendimento per rinforzo che affronta problemi di ripetizione e leggibilità. Prima dell'RL, utilizza dati di avvio a freddo per migliorare ulteriormente le prestazioni di ragionamento. È comparabile a OpenAI-o1 in matematica, programmazione e compiti logici, con un addestramento attentamente progettato che migliora i risultati complessivi.",
413
+ "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B è distillato da Llama-3.3-70B-Instruct. Fa parte della serie DeepSeek-R1, ottimizzato su campioni generati da DeepSeek-R1 e offre ottime prestazioni in matematica, programmazione e ragionamento.",
414
+ "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B è distillato da Qwen2.5-14B e ottimizzato su 800.000 campioni curati generati da DeepSeek-R1, offrendo un ragionamento solido.",
415
+ "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B è distillato da Qwen2.5-32B e ottimizzato su 800.000 campioni curati generati da DeepSeek-R1, eccellendo in matematica, programmazione e ragionamento.",
381
416
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dell’ecosistema globale per l’innovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
382
417
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
383
418
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "Creato piano: <goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "Crea attività",
65
65
  "builtins.lobe-gtd.apiName.execTask": "Esegui attività",
66
- "builtins.lobe-gtd.apiName.execTask.result": "Eseguito: <desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "Attività creata: ",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "Creazione dell'attività in corso: ",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "Esegui attività",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "Elimina attività",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "Aggiorna piano",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Un'organizzazione open-source focalizzata sulla ricerca e gli strumenti per modelli di grandi dimensioni, che offre una piattaforma efficiente e facile da usare per rendere accessibili modelli e algoritmi all'avanguardia.",
30
30
  "jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
31
31
  "lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
32
+ "lobehub.description": "LobeHub Cloud utilizza le API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo tramite Crediti legati ai token del modello.",
32
33
  "minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
33
34
  "mistral.description": "Mistral offre modelli avanzati generali, specializzati e di ricerca per ragionamento complesso, compiti multilingue e generazione di codice, con supporto per chiamate di funzione per integrazioni personalizzate.",
34
35
  "modelscope.description": "ModelScope è la piattaforma di modelli-as-a-service di Alibaba Cloud, che offre un'ampia gamma di modelli AI e servizi di inferenza.",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} 件のバッチサブタスク",
296
296
  "task.metrics.stepsShort": "ステップ",
297
297
  "task.metrics.toolCallsShort": "回のスキル呼び出し",
298
+ "task.status.cancelled": "タスクがキャンセルされました",
299
+ "task.status.failed": "タスクが失敗しました",
298
300
  "task.status.initializing": "タスクを起動中…",
299
301
  "task.subtask": "サブタスク",
300
302
  "thread.divider": "サブトピック",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、顧客サポート、教育、技術支援などの大規模ユースケースにおいて、優れた理解力と生成能力を兼ね備えています。",
272
272
  "claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
273
273
  "claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku Anthropic の次世代モデルの中で最も高速なモデルです。Claude 3 Haiku と比較して全体的なスキルが向上しており、以前の最大モデル Claude 3 Opus を多くの知能ベンチマークで上回ります。",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は、Anthropic による次世代モデルの中で最も高速なものであり、さまざまなスキルにおいて向上し、従来のフラッグシップモデル Claude 3 Opus を多くのベンチマークで上回ります。",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haikuは、軽量タスク向けに高速な応答を提供します。",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet は Anthropic の最も知的なモデルで、市場初のハイブリッド推論モデルです。即時応答と、ユーザーが確認できる段階的な推論の両方を生成できます。特にコーディング、データサイエンス、画像処理、エージェントタスクに優れています。",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 は、Anthropic による最も知的なモデルであり、市場初のハイブリッド推論モデルです。即時応答と深い思考の両方をサポートし、きめ細かな制御が可能です。",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnetは、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 Anthropic の最速かつ最も賢い Haiku モデルで、稲妻のようなスピードと高度な推論能力を備えています。",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は、Anthropic による最速かつ最も知的な Haiku モデルであり、驚異的なスピードと深い思考能力を兼ね備えています。",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 Anthropic の最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 は、Anthropic による最も強力なモデルであり、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、即時応答または段階的な思考プロセスを可視化しながら生成できます。",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、Anthropic によるこれまでで最も知的なモデルであり、API ユーザー向けに即時応答または段階的な思考をきめ細かく制御できます。",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropic史上最も知的なモデルです。",
289
289
  "codegeex-4.description": "CodeGeeX-4は、開発者の生産性を向上させる多言語対応のAIコーディングアシスタントで、Q&Aやコード補完をサポートします。",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完、生成、インタープリタ、Web検索、関数呼び出し、リポジトリレベルのQ&Aなど、幅広いソフトウェア開発シナリオに対応します。10B未満のパラメータで最高クラスのコードモデルです。",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。",
358
- "deepseek-chat.description": "汎用能力とコーディング能力を兼ね備えた新しいオープンソースモデルです。チャットモデルの対話能力とコーディングモデルの強力なコーディング能力を維持しつつ、ユーザーの好みによりよく適合します。DeepSeek-V2.5 は文章生成と指示追従性も向上しています。",
358
+ "deepseek-chat.description": "DeepSeek V3.2 は、日常的な質問応答やエージェントタスクにおいて、推論力と出力長のバランスを実現しています。公開ベンチマークでは GPT-5 レベルに達し、ツール使用に思考を統合した初のモデルとして、オープンソースエージェント評価で高評価を得ています。",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%)で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 高速フルバージョンは、リアルタイムのウェブ検索を搭載し、671Bスケールの能力と高速応答を両立します。",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 フルバージョンは、671Bパラメータとリアルタイムのウェブ検索を備え、より強力な理解と生成を提供します。",
380
380
  "deepseek-r1.description": "DeepSeek-R1は、強化学習前にコールドスタートデータを使用し、数学、コーディング、推論においてOpenAI-o1と同等の性能を発揮します。",
381
- "deepseek-reasoner.description": "DeepSeek V3.2の思考モードは、最終的な回答の前に思考の連鎖(Chain-of-Thought)を出力し、精度を向上させます。",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking は、出力前に思考の連鎖(Chain-of-Thought)を生成することで精度を高める深層推論モデルです。競合モデルと比較しても優れた結果を出しており、Gemini-3.0-Pro に匹敵する推論力を持ちます。",
382
382
  "deepseek-v2.description": "DeepSeek V2は、コスト効率の高い処理を実現する効率的なMoEモデルです。",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236Bは、コード生成に特化したDeepSeekのモデルで、強力なコード生成能力を持ちます。",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324は、671BパラメータのMoEモデルで、プログラミングや技術的能力、文脈理解、長文処理において優れた性能を発揮します。",
@@ -414,6 +414,83 @@
414
414
  "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14Bは、Qwen2.5-14Bをベースに、DeepSeek-R1が生成した80万件の厳選サンプルでファインチューニングされた蒸留モデルで、強力な推論能力を持ちます。",
415
415
  "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32Bは、Qwen2.5-32Bをベースに、DeepSeek-R1が生成した80万件の厳選サンプルでファインチューニングされた蒸留モデルで、数学、コーディング、推論において優れた性能を発揮します。",
416
416
  "devstral-2:123b.description": "Devstral 2 123B は、ツールを活用してコードベースを探索し、複数ファイルを編集し、ソフトウェアエンジニアリングエージェントを支援することに優れています。",
417
+ "doubao-1.5-lite-32k.description": "Doubao-1.5-lite は、超高速応答を実現する新しい軽量モデルであり、最高水準の品質と低遅延を提供します。",
418
+ "doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k は、Doubao-1.5-Pro の包括的なアップグレード版で、全体的な性能が 10% 向上しています。256k のコンテキストウィンドウと最大 12k の出力トークンをサポートし、より高い性能と広範な用途に対応する価値を提供します。",
419
+ "doubao-1.5-pro-32k.description": "Doubao-1.5-pro は、知識、コーディング、推論において優れた性能を発揮する新世代のフラッグシップモデルです。",
420
+ "doubao-1.5-thinking-pro-m.description": "Doubao-1.5 は、新しい深層推論モデルであり(m バージョンはネイティブなマルチモーダル深層推論を含む)、数学、コーディング、科学的推論、創作などの一般タスクにおいて卓越した性能を発揮します。AIME 2024、Codeforces、GPQA などのベンチマークでトップレベルの結果を達成または接近しており、128k のコンテキストウィンドウと 16k の出力をサポートします。",
421
+ "doubao-1.5-thinking-pro.description": "Doubao-1.5 は、新しい深層推論モデルであり、数学、コーディング、科学的推論、創作などの一般タスクにおいて卓越した性能を発揮します。AIME 2024、Codeforces、GPQA などのベンチマークでトップレベルの結果を達成または接近しており、128k のコンテキストウィンドウと 16k の出力をサポートします。",
422
+ "doubao-1.5-thinking-vision-pro.description": "新しい視覚的深層推論モデルであり、マルチモーダルの理解と推論能力が強化されており、59 の公開ベンチマーク中 37 で SOTA(最先端)結果を達成しています。",
423
+ "doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS は、ネイティブ GUI に特化したエージェントモデルであり、人間のような知覚、推論、行動を通じてインターフェースとシームレスに対話します。",
424
+ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite は、あらゆる解像度と極端なアスペクト比の画像をサポートするアップグレードされたマルチモーダルモデルであり、視覚的推論、文書認識、詳細理解、指示追従を強化します。128k のコンテキストウィンドウと最大 16k の出力トークンをサポートします。",
425
+ "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro は、あらゆる解像度と極端なアスペクト比の画像をサポートするアップグレードされたマルチモーダルモデルであり、視覚的推論、文書認識、詳細理解、指示追従を強化します。",
426
+ "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro は、あらゆる解像度と極端なアスペクト比の画像をサポートするアップグレードされたマルチモーダルモデルであり、視覚的推論、文書認識、詳細理解、指示追従を強化します。",
427
+ "doubao-lite-128k.description": "超高速応答と優れたコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。128k のコンテキストウィンドウをサポートし、推論とファインチューニングに対応します。",
428
+ "doubao-lite-32k.description": "超高速応答と優れたコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。32k のコンテキストウィンドウをサポートし、推論とファインチューニングに対応します。",
429
+ "doubao-lite-4k.description": "超高速応答と優れたコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。4k のコンテキストウィンドウをサポートし、推論とファインチューニングに対応します。",
430
+ "doubao-pro-256k.description": "複雑なタスクに最適な最高性能のフラッグシップモデルであり、参照型 QA、要約、創作、テキスト分類、ロールプレイにおいて優れた結果を発揮します。256k のコンテキストウィンドウをサポートし、推論とファインチューニングに対応します。",
431
+ "doubao-pro-32k.description": "複雑なタスクに最適な最高性能のフラッグシップモデルであり、参照型 QA、要約、創作、テキスト分類、ロールプレイにおいて優れた結果を発揮します。32k のコンテキストウィンドウをサポートし、推論とファインチューニングに対応します。",
432
+ "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash は、TPOT が 10ms 以下の超高速マルチモーダル深層推論モデルです。テキストと画像の両方をサポートし、テキスト理解では従来の lite モデルを上回り、視覚では競合する pro モデルに匹敵します。256k のコンテキストウィンドウと最大 16k の出力トークンをサポートします。",
433
+ "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite は、推論の強度(最小、低、中、高)を調整可能な新しいマルチモーダル深層推論モデルであり、一般的なタスクにおいて優れたコストパフォーマンスを提供します。最大 256k のコンテキストウィンドウをサポートします。",
434
+ "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking は、Doubao-1.5-thinking-pro に比べて推論力を大幅に強化し、コーディング、数学、論理推論の中核能力をさらに向上させ、視覚理解も追加されています。256k のコンテキストウィンドウと最大 16k の出力トークンをサポートします。",
435
+ "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision は、教育、画像レビュー、検査・セキュリティ、AI 検索 QA などにおいて、より強力なマルチモーダル理解と推論を提供する視覚的深層推論モデルです。256k のコンテキストウィンドウと最大 64k の出力トークンをサポートします。",
436
+ "doubao-seed-1.6.description": "Doubao-Seed-1.6 は、自動、思考あり、思考なしのモードを備えた新しいマルチモーダル深層推論モデルです。思考なしモードでは、Doubao-1.5-pro/250115 を大きく上回る性能を発揮します。256k のコンテキストウィンドウと最大 16k の出力トークンをサポートします。",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8 は、より強力なマルチモーダル理解能力とエージェント能力を備え、テキスト/画像/動画入力とコンテキストキャッシュをサポートし、複雑なタスクにおいて優れた性能を発揮します。",
438
+ "doubao-seed-code.description": "Doubao-Seed-Code は、エージェント型コーディングに最適化されており、マルチモーダル入力(テキスト/画像/動画)と 256k のコンテキストウィンドウをサポートします。Anthropic API に対応し、コーディング、視覚理解、エージェントワークフローに適しています。",
439
+ "doubao-seededit-3-0-i2i-250628.description": "ByteDance Seed による Doubao 画像モデルは、テキストと画像入力をサポートし、高品質かつ高い制御性のある画像生成を実現します。テキストによる画像編集をサポートし、出力サイズは長辺 512〜1536 の範囲で調整可能です。",
440
+ "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 は、ByteDance Seed による画像生成モデルであり、テキストと画像入力をサポートし、高品質かつ高い制御性のある画像生成を実現します。テキストプロンプトから画像を生成します。",
441
+ "doubao-seedream-4-0-250828.description": "Seedream 4.0 は、ByteDance Seed による画像生成モデルであり、テキストと画像入力をサポートし、高品質かつ高い制御性のある画像生成を実現します。テキストプロンプトから画像を生成します。",
442
+ "doubao-vision-lite-32k.description": "Doubao-vision は、Doubao によるマルチモーダルモデルであり、強力な画像理解と推論、正確な指示追従を実現します。画像とテキストの抽出や画像ベースの推論タスクにおいて優れた性能を発揮し、より複雑で広範な視覚 QA シナリオを可能にします。",
443
+ "doubao-vision-pro-32k.description": "Doubao-vision は、Doubao によるマルチモーダルモデルであり、強力な画像理解と推論、正確な指示追従を実現します。画像とテキストの抽出や画像ベースの推論タスクにおいて優れた性能を発揮し、より複雑で広範な視覚 QA シナリオを可能にします。",
444
+ "emohaa.description": "Emohaa は、専門的なカウンセリング能力を備えたメンタルヘルスモデルであり、ユーザーが感情的な問題を理解するのを支援します。",
445
+ "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B は、ローカルおよびカスタマイズされた導入に適したオープンソースの軽量モデルです。",
446
+ "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B は、より高度な理解と生成能力を備えたオープンソースの大規模パラメータモデルです。",
447
+ "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B は、優れた推論能力を持つ Baidu ERNIE の超大規模 MoE モデルです。",
448
+ "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview は、ERNIE 4.5 の評価用に設計された 8K コンテキストのプレビューモデルです。",
449
+ "ernie-4.5-turbo-128k-preview.description": "ERNIE 4.5 Turbo 128K Preview は、リリースレベルの機能を備えた統合およびカナリアテストに適したモデルです。",
450
+ "ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K は、検索拡張とツール呼び出し機能を備えた高性能な汎用モデルで、QA、コーディング、エージェントシナリオに適しています。",
451
+ "ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K は、中程度の長さのコンテキストを持つバージョンで、QA、ナレッジベース検索、マルチターン対話に適しています。",
452
+ "ernie-4.5-turbo-latest.description": "最新の ERNIE 4.5 Turbo は、全体的な性能が最適化されており、主要な本番モデルとして理想的です。",
453
+ "ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview は、長文コンテキストにおける視覚能力を評価するための 32K マルチモーダルプレビューモデルです。",
454
+ "ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K は、長文ドキュメントと画像の理解を組み合わせた中長文マルチモーダルバージョンです。",
455
+ "ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest は、画像とテキストの理解および推論能力が向上した最新のマルチモーダルバージョンです。",
456
+ "ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview は、視覚的 QA やコンテンツ理解に適した画像とテキストの理解・生成を行うマルチモーダルプレビューモデルです。",
457
+ "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL は、画像とテキストの理解および認識において本番環境で使用可能な成熟したマルチモーダルモデルです。",
458
+ "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B は、画像とテキストの理解および推論に対応したオープンソースのマルチモーダルモデルです。",
459
+ "ernie-5.0-thinking-latest.description": "文心 5.0 Thinking は、テキスト・画像・音声・動画を統合的に扱うネイティブなフルモーダルのフラッグシップモデルで、複雑なQA、創作、エージェントシナリオにおける能力を大幅に強化します。",
460
+ "ernie-5.0-thinking-preview.description": "文心 5.0 Thinking Preview は、テキスト・画像・音声・動画を統合的に扱うネイティブなフルモーダルのフラッグシップモデルで、複雑なQA、創作、エージェントシナリオにおける能力を大幅に強化します。",
461
+ "ernie-char-8k.description": "ERNIE Character 8K は、IPキャラクター構築や長期的な対話に適したパーソナリティ対話モデルです。",
462
+ "ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview は、キャラクターおよびプロット創作の機能評価とテスト用のプレビューモデルです。",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K は、小説やプロット創作に適したパーソナリティモデルで、長編ストーリー生成に対応します。",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit は、消去、再描画、バリエーション生成をサポートする画像編集モデルです。",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K は、コスト重視の日常的なQAやコンテンツ生成に適した軽量汎用モデルです。",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K は、レイテンシとコストに敏感なシナリオ向けの軽量高性能モデルです。",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K は、複数キャラクターによる長編小説やIPプロットの生成に特化したモデルです。",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K は、I/Oコスト不要で長文理解や大規模試験に適したモデルです。",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K は、日常会話や軽量なテキストタスクに適した無料かつ高速なモデルです。",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K は、大規模オンラインサービスや企業アプリ向けの高同時接続・高価値モデルです。",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K は、シンプルなQA、分類、低コスト推論に適した超軽量モデルです。",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応する32Kコンテキストの高速思考モデルです。",
473
+ "ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価とテスト用の思考モデルのプレビューバージョンです。",
474
+ "fal-ai/bytedance/seedream/v4.description": "ByteDance Seed によって構築された Seedream 4.0 は、テキストと画像入力をサポートし、プロンプトから高品質で制御可能な画像生成を実現します。",
475
+ "fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力をサポートします。",
476
+ "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] は、テキストと参照画像を入力として受け取り、局所的な編集や複雑なグローバルシーン変換を可能にします。",
477
+ "fal-ai/flux/krea.description": "Flux Krea [dev] は、よりリアルで自然な画像を生成する美的バイアスを持つ画像生成モデルです。",
478
+ "fal-ai/flux/schnell.description": "FLUX.1 [schnell] は、迅速かつ高品質な出力を目的とした 120 億パラメータの画像生成モデルです。",
479
+ "fal-ai/hunyuan-image/v3.description": "強力なネイティブマルチモーダル画像生成モデルです。",
480
+ "fal-ai/imagen4/preview.description": "Google による高品質な画像生成モデルです。",
481
+ "fal-ai/nano-banana.description": "Nano Banana は、Google の最新かつ最速で最も効率的なネイティブマルチモーダルモデルで、会話を通じた画像生成と編集を可能にします。",
482
+ "fal-ai/qwen-image-edit.description": "Qwen チームによるプロフェッショナルな画像編集モデルで、意味や外観の編集、正確な中英テキスト編集、スタイル変換、回転などをサポートします。",
483
+ "fal-ai/qwen-image.description": "Qwen チームによる強力な画像生成モデルで、中国語テキストの描画能力と多様なビジュアルスタイルに優れています。",
484
+ "flux-1-schnell.description": "Black Forest Labs による 120 億パラメータのテキストから画像への変換モデルで、潜在敵対的拡散蒸留を使用して 1~4 ステップで高品質な画像を生成します。Apache-2.0 ライセンスの下で個人、研究、商用利用が可能です。",
485
+ "flux-dev.description": "FLUX.1 [dev] は、非商用利用向けのオープンウェイト蒸留モデルで、プロ品質に近い画像と指示追従性を維持しつつ、同サイズの標準モデルよりも効率的に動作します。",
486
+ "flux-kontext-max.description": "テキストと画像を組み合わせて、精密かつ一貫性のある結果を生成する最先端のコンテキスト画像生成・編集モデルです。",
487
+ "flux-kontext-pro.description": "テキストと画像を組み合わせて、精密かつ一貫性のある結果を生成する最先端のコンテキスト画像生成・編集モデルです。",
488
+ "flux-merged.description": "FLUX.1-merged は、「DEV」で探求された深い特徴と「Schnell」の高速性を融合し、性能の限界を拡張し、応用範囲を広げます。",
489
+ "flux-pro-1.1-ultra.description": "4MP 出力による超高解像度画像生成で、10 秒以内に鮮明な画像を生成します。",
490
+ "flux-pro-1.1.description": "優れた画像品質と正確なプロンプト追従性を備えた、アップグレードされたプロフェッショナルグレードの画像生成モデルです。",
491
+ "flux-pro.description": "比類なき画像品質と多様な出力を誇る、最上級の商用画像生成モデルです。",
492
+ "flux-schnell.description": "FLUX.1 [schnell] は、最も高度なオープンソースの少ステップ画像生成モデルで、Midjourney v6.0 や DALL-E 3 (HD) などの強力な非蒸留モデルをも凌駕します。事前学習の多様性を保持するように微調整されており、視覚品質、指示追従性、サイズ・アスペクト比の変化、フォント処理、出力の多様性が大幅に向上しています。",
493
+ "flux.1-schnell.description": "FLUX.1-schnell は、迅速なマルチスタイル出力に対応する高性能画像生成モデルです。",
417
494
  "gemini-flash-latest.description": "Gemini Flash の最新リリース",
418
495
  "gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース",
419
496
  "gemini-pro-latest.description": "Gemini Pro の最新リリース",
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "プランを作成:<goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "ToDoを作成",
65
65
  "builtins.lobe-gtd.apiName.execTask": "タスクを実行",
66
- "builtins.lobe-gtd.apiName.execTask.result": "実行:<desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "タスクが作成されました:",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "タスクを作成中:",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "タスクを実行",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "ToDoを削除",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "プランを更新",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "InternLMは、大規模モデルの研究とツール開発に特化したオープンソース組織で、最先端のモデルとアルゴリズムを誰でも使いやすく提供します。",
30
30
  "jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
31
31
  "lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
32
+ "lobehub.description": "LobeHub Cloud は、公式 API を使用して AI モデルにアクセスし、モデルのトークンに基づいたクレジットで使用量を計測します。",
32
33
  "minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
33
34
  "mistral.description": "Mistralは、複雑な推論、多言語タスク、コード生成に対応した高度な汎用・専門・研究モデルを提供し、関数呼び出しによるカスタム統合も可能です。",
34
35
  "modelscope.description": "ModelScopeは、Alibaba Cloudが提供するモデル・アズ・ア・サービス(MaaS)プラットフォームで、幅広いAIモデルと推論サービスを提供します。",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}}개의 일괄 하위 작업",
296
296
  "task.metrics.stepsShort": "단계",
297
297
  "task.metrics.toolCallsShort": "회 기능 호출",
298
+ "task.status.cancelled": "작업이 취소되었습니다",
299
+ "task.status.failed": "작업에 실패했습니다",
298
300
  "task.status.initializing": "작업 시작 중…",
299
301
  "task.subtask": "하위 작업",
300
302
  "thread.divider": "하위 주제",