@lobehub/lobehub 2.0.0-next.264 → 2.0.0-next.266
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/workflows/manual-build-desktop.yml +16 -37
- package/CHANGELOG.md +52 -0
- package/apps/desktop/native-deps.config.mjs +19 -3
- package/apps/desktop/src/main/controllers/__tests__/SystemCtr.test.ts +13 -0
- package/apps/desktop/src/main/utils/permissions.ts +86 -22
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +1 -0
- package/locales/ar/modelProvider.json +20 -0
- package/locales/ar/models.json +33 -10
- package/locales/ar/plugin.json +1 -0
- package/locales/ar/providers.json +1 -0
- package/locales/ar/setting.json +2 -0
- package/locales/bg-BG/chat.json +1 -0
- package/locales/bg-BG/modelProvider.json +20 -0
- package/locales/bg-BG/models.json +27 -7
- package/locales/bg-BG/plugin.json +1 -0
- package/locales/bg-BG/providers.json +1 -0
- package/locales/bg-BG/setting.json +2 -0
- package/locales/de-DE/chat.json +1 -0
- package/locales/de-DE/modelProvider.json +20 -0
- package/locales/de-DE/models.json +44 -10
- package/locales/de-DE/plugin.json +1 -0
- package/locales/de-DE/providers.json +1 -0
- package/locales/de-DE/setting.json +2 -0
- package/locales/en-US/chat.json +1 -0
- package/locales/en-US/modelProvider.json +20 -0
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/providers.json +1 -0
- package/locales/en-US/setting.json +2 -1
- package/locales/es-ES/chat.json +1 -0
- package/locales/es-ES/modelProvider.json +20 -0
- package/locales/es-ES/models.json +53 -10
- package/locales/es-ES/plugin.json +1 -0
- package/locales/es-ES/providers.json +1 -0
- package/locales/es-ES/setting.json +2 -0
- package/locales/fa-IR/chat.json +1 -0
- package/locales/fa-IR/modelProvider.json +20 -0
- package/locales/fa-IR/models.json +33 -10
- package/locales/fa-IR/plugin.json +1 -0
- package/locales/fa-IR/providers.json +1 -0
- package/locales/fa-IR/setting.json +2 -0
- package/locales/fr-FR/chat.json +1 -0
- package/locales/fr-FR/modelProvider.json +20 -0
- package/locales/fr-FR/models.json +27 -7
- package/locales/fr-FR/plugin.json +1 -0
- package/locales/fr-FR/providers.json +1 -0
- package/locales/fr-FR/setting.json +2 -0
- package/locales/it-IT/chat.json +1 -0
- package/locales/it-IT/modelProvider.json +20 -0
- package/locales/it-IT/models.json +10 -10
- package/locales/it-IT/plugin.json +1 -0
- package/locales/it-IT/providers.json +1 -0
- package/locales/it-IT/setting.json +2 -0
- package/locales/ja-JP/chat.json +1 -0
- package/locales/ja-JP/modelProvider.json +20 -0
- package/locales/ja-JP/models.json +5 -10
- package/locales/ja-JP/plugin.json +1 -0
- package/locales/ja-JP/providers.json +1 -0
- package/locales/ja-JP/setting.json +2 -0
- package/locales/ko-KR/chat.json +1 -0
- package/locales/ko-KR/modelProvider.json +20 -0
- package/locales/ko-KR/models.json +36 -10
- package/locales/ko-KR/plugin.json +1 -0
- package/locales/ko-KR/providers.json +1 -0
- package/locales/ko-KR/setting.json +2 -0
- package/locales/nl-NL/chat.json +1 -0
- package/locales/nl-NL/modelProvider.json +20 -0
- package/locales/nl-NL/models.json +35 -4
- package/locales/nl-NL/plugin.json +1 -0
- package/locales/nl-NL/providers.json +1 -0
- package/locales/nl-NL/setting.json +2 -0
- package/locales/pl-PL/chat.json +1 -0
- package/locales/pl-PL/modelProvider.json +20 -0
- package/locales/pl-PL/models.json +37 -7
- package/locales/pl-PL/plugin.json +1 -0
- package/locales/pl-PL/providers.json +1 -0
- package/locales/pl-PL/setting.json +2 -0
- package/locales/pt-BR/chat.json +1 -0
- package/locales/pt-BR/modelProvider.json +20 -0
- package/locales/pt-BR/models.json +51 -9
- package/locales/pt-BR/plugin.json +1 -0
- package/locales/pt-BR/providers.json +1 -0
- package/locales/pt-BR/setting.json +2 -0
- package/locales/ru-RU/chat.json +1 -0
- package/locales/ru-RU/modelProvider.json +20 -0
- package/locales/ru-RU/models.json +48 -7
- package/locales/ru-RU/plugin.json +1 -0
- package/locales/ru-RU/providers.json +1 -0
- package/locales/ru-RU/setting.json +2 -0
- package/locales/tr-TR/chat.json +1 -0
- package/locales/tr-TR/modelProvider.json +20 -0
- package/locales/tr-TR/models.json +48 -7
- package/locales/tr-TR/plugin.json +1 -0
- package/locales/tr-TR/providers.json +1 -0
- package/locales/tr-TR/setting.json +2 -0
- package/locales/vi-VN/chat.json +1 -0
- package/locales/vi-VN/modelProvider.json +20 -0
- package/locales/vi-VN/models.json +5 -5
- package/locales/vi-VN/plugin.json +1 -0
- package/locales/vi-VN/providers.json +1 -0
- package/locales/vi-VN/setting.json +2 -0
- package/locales/zh-CN/modelProvider.json +20 -20
- package/locales/zh-CN/models.json +49 -8
- package/locales/zh-CN/providers.json +1 -0
- package/locales/zh-CN/setting.json +2 -1
- package/locales/zh-TW/chat.json +1 -0
- package/locales/zh-TW/modelProvider.json +20 -0
- package/locales/zh-TW/models.json +29 -10
- package/locales/zh-TW/plugin.json +1 -0
- package/locales/zh-TW/providers.json +1 -0
- package/locales/zh-TW/setting.json +2 -0
- package/package.json +2 -2
- package/packages/database/src/models/__tests__/agent.test.ts +165 -4
- package/packages/database/src/models/agent.ts +46 -0
- package/packages/database/src/repositories/agentGroup/index.test.ts +498 -0
- package/packages/database/src/repositories/agentGroup/index.ts +150 -0
- package/packages/database/src/repositories/home/__tests__/index.test.ts +113 -1
- package/packages/database/src/repositories/home/index.ts +48 -67
- package/pnpm-workspace.yaml +1 -0
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Body.tsx +1 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Cron/CronTopicGroup.tsx +84 -0
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/CronTopicItem.tsx +1 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/index.tsx +23 -33
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/Item/Editing.tsx +12 -49
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/index.tsx +3 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Editing.tsx +12 -40
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/hooks/useTopicNavigation.ts +5 -1
- package/src/app/[variants]/(main)/agent/features/Conversation/MainChatInput/index.tsx +2 -2
- package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobCards.tsx +1 -1
- package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobForm.tsx +1 -1
- package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/AvailableAgentList.tsx +0 -1
- package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/index.tsx +5 -1
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentGroupItem/index.tsx +2 -6
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentGroupItem/useDropdownMenu.tsx +100 -0
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentItem/index.tsx +2 -4
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentItem/useDropdownMenu.tsx +149 -0
- package/src/app/[variants]/(main)/home/_layout/hooks/index.ts +0 -1
- package/src/app/[variants]/(main)/home/features/InputArea/index.tsx +1 -1
- package/src/components/InlineRename/index.tsx +121 -0
- package/src/features/ChatInput/InputEditor/index.tsx +1 -0
- package/src/features/EditorCanvas/DiffAllToolbar.tsx +1 -1
- package/src/features/NavPanel/components/NavItem.tsx +1 -1
- package/src/locales/default/setting.ts +2 -0
- package/src/server/routers/lambda/agent.ts +15 -0
- package/src/server/routers/lambda/agentGroup.ts +16 -0
- package/src/services/agent.ts +11 -0
- package/src/services/chatGroup/index.ts +11 -0
- package/src/store/agent/slices/cron/action.ts +108 -0
- package/src/store/agent/slices/cron/index.ts +1 -0
- package/src/store/agent/store.ts +3 -0
- package/src/store/home/slices/sidebarUI/action.test.ts +23 -22
- package/src/store/home/slices/sidebarUI/action.ts +37 -9
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/CronTopicList/CronTopicGroup.tsx +0 -74
- package/src/app/[variants]/(main)/group/features/ChangelogModal.tsx +0 -11
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/Item/useDropdownMenu.tsx +0 -62
- package/src/app/[variants]/(main)/home/_layout/hooks/useSessionItemMenuItems.tsx +0 -238
- package/src/hooks/useFetchCronTopicsWithJobInfo.ts +0 -56
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic, offrant des améliorations sur de nombreuses compétences et surpassant l’ancien modèle phare Claude 3 Opus sur de nombreux benchmarks.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent d’Anthropic et le premier modèle hybride de raisonnement sur le marché, capable de fournir des réponses quasi instantanées ou une réflexion approfondie avec un contrôle précis.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic,
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, combinant une vitesse fulgurante et une capacité de réflexion étendue.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d’Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion pas à pas approfondie avec un contrôle précis pour les utilisateurs d’API.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 équilibre raisonnement et longueur de sortie pour les tâches quotidiennes de questions-réponses et d’agents. Les benchmarks publics atteignent le niveau de GPT-5, et c’est le premier à intégrer la réflexion dans l’utilisation d’outils, menant les évaluations open source d’agents.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à l’échelle de 671B et des réponses plus rapides.",
|
|
379
379
|
"deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement profond qui génère une chaîne de pensée avant les réponses pour une précision accrue, avec des résultats de compétition de haut niveau et un raisonnement comparable à Gemini-3.0-Pro.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
|
|
@@ -471,6 +471,26 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K est un modèle ultra-léger pour la QA simple, la classification et l’inférence à faible coût.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour l’évaluation et les tests.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, développé par ByteDance Seed, prend en charge les entrées texte et image pour une génération d’images de haute qualité et hautement contrôlable à partir d’invites.",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur l’édition d’images, prenant en charge les entrées texte et image.",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepte des textes et des images de référence en entrée, permettant des modifications locales ciblées et des transformations globales complexes de scènes.",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev] est un modèle de génération d’images avec une préférence esthétique pour des images plus réalistes et naturelles.",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] est un modèle de génération d’images à 12 milliards de paramètres conçu pour une sortie rapide et de haute qualité.",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération d’images.",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "Modèle de génération d’images de haute qualité développé par Google.",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images via la conversation.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Modèle professionnel d’édition d’images de l’équipe Qwen, prenant en charge les modifications sémantiques et d’apparence, l’édition précise de texte en chinois/anglais, le transfert de style, la rotation, et plus encore.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Un puissant modèle de génération d’images de l’équipe Qwen avec un excellent rendu du texte chinois et une grande diversité de styles visuels.",
|
|
484
|
+
"flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité d’image proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.",
|
|
486
|
+
"flux-kontext-max.description": "Génération et édition d’images contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
|
|
487
|
+
"flux-kontext-pro.description": "Génération et édition d’images contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged combine les fonctionnalités approfondies explorées dans « DEV » avec les avantages de vitesse de « Schnell », repoussant les limites de performance et élargissant les cas d’usage.",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "Génération d’images ultra haute résolution avec une sortie de 4MP, produisant des images nettes en 10 secondes.",
|
|
490
|
+
"flux-pro-1.1.description": "Modèle de génération d’images de niveau professionnel amélioré avec une excellente qualité d’image et un respect précis des invites.",
|
|
491
|
+
"flux-pro.description": "Modèle de génération d’images commercial haut de gamme avec une qualité d’image inégalée et des sorties variées.",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell] est le modèle open source le plus avancé en génération rapide, surpassant les concurrents similaires et même des modèles non distillés puissants comme Midjourney v6.0 et DALL-E 3 (HD). Il est finement ajusté pour préserver la diversité de l’entraînement initial, améliorant considérablement la qualité visuelle, le suivi des instructions, la variation de taille/aspect, la gestion des polices et la diversité des sorties.",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell est un modèle de génération d’images haute performance pour des sorties rapides et multi-styles.",
|
|
474
494
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
|
|
475
495
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
|
|
476
496
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
|
|
@@ -92,6 +92,7 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "Aucun résultat",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "Système local",
|
|
95
|
+
"builtins.lobe-notebook.actions.collapse": "Réduire",
|
|
95
96
|
"builtins.lobe-notebook.actions.copy": "Copier",
|
|
96
97
|
"builtins.lobe-notebook.actions.creating": "Création du document...",
|
|
97
98
|
"builtins.lobe-notebook.actions.edit": "Modifier",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
|
|
30
30
|
"jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
|
|
31
31
|
"lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation en Crédits liés aux jetons des modèles.",
|
|
32
33
|
"minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
|
|
34
35
|
"modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",
|
|
@@ -33,6 +33,7 @@
|
|
|
33
33
|
"agentCronJobs.maxExecutions": "Exécutions maximales",
|
|
34
34
|
"agentCronJobs.name": "Nom de la tâche",
|
|
35
35
|
"agentCronJobs.never": "Jamais",
|
|
36
|
+
"agentCronJobs.noExecutionResults": "Aucun résultat d'exécution",
|
|
36
37
|
"agentCronJobs.remainingExecutions": "Restant : {{count}}",
|
|
37
38
|
"agentCronJobs.save": "Enregistrer",
|
|
38
39
|
"agentCronJobs.schedule": "Planifier",
|
|
@@ -42,6 +43,7 @@
|
|
|
42
43
|
"agentCronJobs.timeRange": "Plage horaire",
|
|
43
44
|
"agentCronJobs.title": "Tâches planifiées",
|
|
44
45
|
"agentCronJobs.unlimited": "Illimité",
|
|
46
|
+
"agentCronJobs.unnamedTask": "Tâche sans nom",
|
|
45
47
|
"agentCronJobs.updateSuccess": "Tâche planifiée mise à jour avec succès",
|
|
46
48
|
"agentCronJobs.weekdays": "Jours de la semaine",
|
|
47
49
|
"agentInfoDescription.basic.avatar": "Avatar",
|
package/locales/it-IT/chat.json
CHANGED
|
@@ -63,6 +63,7 @@
|
|
|
63
63
|
"extendParams.reasoningEffort.title": "Intensità del Ragionamento",
|
|
64
64
|
"extendParams.textVerbosity.title": "Livello di Dettaglio del Testo",
|
|
65
65
|
"extendParams.thinking.title": "Interruttore Pensiero Profondo",
|
|
66
|
+
"extendParams.thinkingBudget.title": "Budget di Riflessione",
|
|
66
67
|
"extendParams.thinkingLevel.title": "Livello di Pensiero",
|
|
67
68
|
"extendParams.title": "Funzionalità Estese del Modello",
|
|
68
69
|
"extendParams.urlContext.desc": "Se abilitato, i link web verranno automaticamente analizzati per recuperare il contenuto della pagina",
|
|
@@ -194,6 +194,26 @@
|
|
|
194
194
|
"providerModels.item.modelConfig.deployName.title": "Nome distribuzione modello",
|
|
195
195
|
"providerModels.item.modelConfig.displayName.placeholder": "Inserisci il nome visualizzato del modello, ad es. ChatGPT, GPT-4, ecc.",
|
|
196
196
|
"providerModels.item.modelConfig.displayName.title": "Nome visualizzato del modello",
|
|
197
|
+
"providerModels.item.modelConfig.extendParams.extra": "Scegli i parametri estesi supportati dal modello. Passa il mouse su un'opzione per visualizzare l'anteprima dei controlli. Configurazioni errate possono causare errori nella richiesta.",
|
|
198
|
+
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Per i modelli Claude; può ridurre i costi e velocizzare le risposte.",
|
|
199
|
+
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Per Claude, DeepSeek e altri modelli di ragionamento; abilita un pensiero più profondo.",
|
|
200
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Per la serie GPT-5; controlla l'intensità del ragionamento.",
|
|
201
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Per la serie GPT-5.1; controlla l'intensità del ragionamento.",
|
|
202
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "Per la serie GPT-5.2 Pro; controlla l'intensità del ragionamento.",
|
|
203
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "Per la serie GPT-5.2; controlla l'intensità del ragionamento.",
|
|
204
|
+
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Per i modelli di generazione immagini Gemini; controlla il rapporto d'aspetto delle immagini generate.",
|
|
205
|
+
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Per i modelli di generazione immagini Gemini 3; controlla la risoluzione delle immagini generate.",
|
|
206
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Per Claude, Qwen3 e simili; controlla il budget di token per il ragionamento.",
|
|
207
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "Per OpenAI e altri modelli con capacità di ragionamento; controlla lo sforzo di ragionamento.",
|
|
208
|
+
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "Per la serie GPT-5+; controlla la verbosità dell'output.",
|
|
209
|
+
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "Per alcuni modelli Doubao; consente al modello di decidere se pensare in profondità.",
|
|
210
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Per la serie Gemini; controlla il budget di pensiero.",
|
|
211
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Per i modelli Gemini 3 Flash Preview; controlla la profondità del pensiero.",
|
|
212
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Per i modelli Gemini 3 Pro Preview; controlla la profondità del pensiero.",
|
|
213
|
+
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Per la serie Gemini; supporta il contesto tramite URL.",
|
|
214
|
+
"providerModels.item.modelConfig.extendParams.placeholder": "Seleziona i parametri estesi da abilitare",
|
|
215
|
+
"providerModels.item.modelConfig.extendParams.previewFallback": "Anteprima non disponibile",
|
|
216
|
+
"providerModels.item.modelConfig.extendParams.title": "Parametri Estesi",
|
|
197
217
|
"providerModels.item.modelConfig.files.extra": "L'attuale implementazione del caricamento file è una soluzione temporanea, limitata alla sperimentazione personale. Le funzionalità complete saranno disponibili in futuro.",
|
|
198
218
|
"providerModels.item.modelConfig.files.title": "Supporto caricamento file",
|
|
199
219
|
"providerModels.item.modelConfig.functionCall.extra": "Questa configurazione abilita solo la capacità del modello di utilizzare strumenti. L'effettiva usabilità dipende interamente dal modello stesso; testare in autonomia.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che combina comprensione e generazione avanzate per casi d'uso su larga scala come assistenza clienti, istruzione e supporto tecnico.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic, con miglioramenti in tutte le competenze e prestazioni superiori rispetto al precedente modello di punta Claude 3 Opus in molti benchmark.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fornisce risposte rapide per attività leggere.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato, in grado di fornire risposte quasi istantanee o riflessioni estese con un controllo preciso.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e capacità di
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e capacità di pensiero prolungato.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellente in prestazioni, intelligenza, fluidità e comprensione.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è in grado di
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è il modello più intelligente mai realizzato da Anthropic, in grado di offrire risposte quasi istantanee o ragionamenti passo-passo estesi con un controllo dettagliato per gli utenti API.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 è un potente assistente di codifica AI che supporta Q&A multilingue e completamento del codice per aumentare la produttività degli sviluppatori.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B è un modello multilingue di generazione di codice che supporta completamento e generazione di codice, interprete di codice, ricerca web, chiamata di funzioni e Q&A a livello di repository, coprendo un'ampia gamma di scenari di sviluppo software. È un modello di codice di alto livello con meno di 10B parametri.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 bilancia ragionamento e lunghezza dell’output per attività quotidiane di domande e risposte e agenti. I benchmark pubblici raggiungono livelli paragonabili a GPT-5 ed è il primo a integrare il pensiero nell’uso degli strumenti, guidando le valutazioni open-source degli agenti.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 versione completa veloce con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 versione completa con 671 miliardi di parametri e ricerca web in tempo reale, che offre una comprensione e generazione più avanzate.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking è un modello di ragionamento profondo che genera catene di pensiero prima degli output per una maggiore accuratezza, con risultati di alto livello e capacità di ragionamento comparabili a Gemini-3.0-Pro.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B è il modello DeepSeek focalizzato sul codice con forte capacità di generazione.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza nella programmazione, capacità tecnica, comprensione del contesto e gestione di testi lunghi.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K è un modello ultra-leggero per domande semplici, classificazione e inferenza a basso costo.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview è un’anteprima del modello di pensiero per valutazioni e test.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, sviluppato da ByteDance Seed, supporta input di testo e immagini per una generazione di immagini di alta qualità e altamente controllabile a partire da prompt.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sull’editing di immagini, che supporta input di testo e immagini.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accetta testo e immagini di riferimento come input, consentendo modifiche locali mirate e trasformazioni complesse della scena globale.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] è un modello di generazione di immagini con una preferenza estetica per immagini più realistiche e naturali.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "Un potente modello nativo multimodale per la generazione di immagini.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "Modello di generazione di immagini di alta qualità sviluppato da Google.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e l’editing di immagini tramite conversazione.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen che supporta modifiche semantiche e visive,
|
|
483
|
-
"fal-ai/qwen-image.description": "Un potente modello di generazione
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen, che supporta modifiche semantiche e visive, editing preciso di testo in cinese/inglese, trasferimento di stile, rotazione e altro ancora.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Un potente modello di generazione immagini del team Qwen, con eccellente resa del testo cinese e stili visivi diversificati.",
|
|
484
484
|
"flux-1-schnell.description": "Modello testo-immagine da 12 miliardi di parametri di Black Forest Labs che utilizza la distillazione latente avversariale per generare immagini di alta qualità in 1-4 passaggi. Con licenza Apache-2.0 per uso personale, di ricerca e commerciale.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] è un modello distillato a pesi aperti per uso non commerciale. Mantiene una qualità d’immagine quasi professionale e capacità di seguire istruzioni, con maggiore efficienza rispetto ai modelli standard di pari dimensioni.",
|
|
486
486
|
"flux-kontext-max.description": "Generazione ed editing di immagini contestuali all’avanguardia, combinando testo e immagini per risultati precisi e coerenti.",
|
|
@@ -92,6 +92,7 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "Nessun risultato",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "Sistema Locale",
|
|
95
|
+
"builtins.lobe-notebook.actions.collapse": "Comprimi",
|
|
95
96
|
"builtins.lobe-notebook.actions.copy": "Copia",
|
|
96
97
|
"builtins.lobe-notebook.actions.creating": "Creazione del documento in corso...",
|
|
97
98
|
"builtins.lobe-notebook.actions.edit": "Modifica",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Un'organizzazione open-source focalizzata sulla ricerca e gli strumenti per modelli di grandi dimensioni, che offre una piattaforma efficiente e facile da usare per rendere accessibili modelli e algoritmi all'avanguardia.",
|
|
30
30
|
"jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
|
|
31
31
|
"lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud utilizza le API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo tramite Crediti legati ai token del modello.",
|
|
32
33
|
"minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral offre modelli avanzati generali, specializzati e di ricerca per ragionamento complesso, compiti multilingue e generazione di codice, con supporto per chiamate di funzione per integrazioni personalizzate.",
|
|
34
35
|
"modelscope.description": "ModelScope è la piattaforma di modelli-as-a-service di Alibaba Cloud, che offre un'ampia gamma di modelli AI e servizi di inferenza.",
|
|
@@ -33,6 +33,7 @@
|
|
|
33
33
|
"agentCronJobs.maxExecutions": "Esecuzioni massime",
|
|
34
34
|
"agentCronJobs.name": "Nome attività",
|
|
35
35
|
"agentCronJobs.never": "Mai",
|
|
36
|
+
"agentCronJobs.noExecutionResults": "Nessun risultato di esecuzione",
|
|
36
37
|
"agentCronJobs.remainingExecutions": "Rimanenti: {{count}}",
|
|
37
38
|
"agentCronJobs.save": "Salva",
|
|
38
39
|
"agentCronJobs.schedule": "Pianifica",
|
|
@@ -42,6 +43,7 @@
|
|
|
42
43
|
"agentCronJobs.timeRange": "Intervallo di tempo",
|
|
43
44
|
"agentCronJobs.title": "Attività pianificate",
|
|
44
45
|
"agentCronJobs.unlimited": "Illimitato",
|
|
46
|
+
"agentCronJobs.unnamedTask": "Attività senza nome",
|
|
45
47
|
"agentCronJobs.updateSuccess": "Attività pianificata aggiornata con successo",
|
|
46
48
|
"agentCronJobs.weekdays": "Giorni feriali",
|
|
47
49
|
"agentInfoDescription.basic.avatar": "Avatar",
|
package/locales/ja-JP/chat.json
CHANGED
|
@@ -63,6 +63,7 @@
|
|
|
63
63
|
"extendParams.reasoningEffort.title": "推論強度",
|
|
64
64
|
"extendParams.textVerbosity.title": "出力詳細度",
|
|
65
65
|
"extendParams.thinking.title": "深い思考スイッチ",
|
|
66
|
+
"extendParams.thinkingBudget.title": "思考予算",
|
|
66
67
|
"extendParams.thinkingLevel.title": "思考レベル",
|
|
67
68
|
"extendParams.title": "モデル拡張機能",
|
|
68
69
|
"extendParams.urlContext.desc": "有効にすると、ウェブリンクを自動解析し、ウェブページのコンテキストをコンテキストとして抽出します",
|
|
@@ -194,6 +194,26 @@
|
|
|
194
194
|
"providerModels.item.modelConfig.deployName.title": "モデルデプロイ名",
|
|
195
195
|
"providerModels.item.modelConfig.displayName.placeholder": "モデルの表示名を入力してください(例: ChatGPT、GPT-4 など)",
|
|
196
196
|
"providerModels.item.modelConfig.displayName.title": "モデル表示名",
|
|
197
|
+
"providerModels.item.modelConfig.extendParams.extra": "モデルがサポートする拡張パラメータを選択してください。オプションにカーソルを合わせるとコントロールのプレビューが表示されます。不正な設定はリクエストの失敗を引き起こす可能性があります。",
|
|
198
|
+
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Claudeモデル向け;コストを抑え、応答速度を向上させる可能性があります。",
|
|
199
|
+
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Claude、DeepSeekなどの推論モデル向け;より深い思考を可能にします。",
|
|
200
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "GPT-5シリーズ向け;推論の強度を制御します。",
|
|
201
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "GPT-5.1シリーズ向け;推論の強度を制御します。",
|
|
202
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "GPT-5.2 Proシリーズ向け;推論の強度を制御します。",
|
|
203
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "GPT-5.2シリーズ向け;推論の強度を制御します。",
|
|
204
|
+
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Gemini画像生成モデル向け;生成される画像のアスペクト比を制御します。",
|
|
205
|
+
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Gemini 3画像生成モデル向け;生成される画像の解像度を制御します。",
|
|
206
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Claude、Qwen3などのモデル向け;推論に使用するトークンの予算を制御します。",
|
|
207
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "OpenAIなどの推論対応モデル向け;推論の努力度を制御します。",
|
|
208
|
+
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "GPT-5+シリーズ向け;出力の詳細度を制御します。",
|
|
209
|
+
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "一部のDoubaoモデル向け;モデルが深く思考するかどうかを判断させます。",
|
|
210
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Geminiシリーズ向け;思考に使う予算を制御します。",
|
|
211
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Gemini 3 Flash Previewモデル向け;思考の深さを制御します。",
|
|
212
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Gemini 3 Pro Previewモデル向け;思考の深さを制御します。",
|
|
213
|
+
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Geminiシリーズ向け;URLコンテキストの提供をサポートします。",
|
|
214
|
+
"providerModels.item.modelConfig.extendParams.placeholder": "有効にする拡張パラメータを選択",
|
|
215
|
+
"providerModels.item.modelConfig.extendParams.previewFallback": "プレビューを利用できません",
|
|
216
|
+
"providerModels.item.modelConfig.extendParams.title": "拡張パラメータ",
|
|
197
217
|
"providerModels.item.modelConfig.files.extra": "現在のファイルアップロード実装は一つのハック手法に過ぎず、自己責任での試行に限られます。完全なファイルアップロード機能は今後の実装をお待ちください",
|
|
198
218
|
"providerModels.item.modelConfig.files.title": "ファイルアップロードをサポート",
|
|
199
219
|
"providerModels.item.modelConfig.functionCall.extra": "この設定は、モデルがツールを使用する機能を有効にし、モデルにツールタイプのプラグインを追加できるようにします。ただし、実際にツールを使用できるかどうかはモデル自体に依存するため、使用可能性を自分でテストしてください",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、顧客サポート、教育、技術支援などの大規模ユースケースにおいて、優れた理解力と生成能力を兼ね備えています。",
|
|
272
272
|
"claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
|
|
273
273
|
"claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は、Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は、Anthropic による次世代モデルの中で最速のものであり、さまざまなスキルにおいて向上し、従来のフラッグシップモデル Claude 3 Opus を多くのベンチマークで上回ります。",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haikuは、軽量タスク向けに高速な応答を提供します。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 は、Anthropic による最も知的なモデルであり、市場初のハイブリッド推論モデルです。即時応答と拡張的な思考を細かく制御しながら実現します。",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnetは、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は、Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は、Anthropic による最速かつ最も知的な Haiku モデルであり、驚異的なスピードと深い思考能力を兼ね備えています。",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 は、Anthropic
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 は、Anthropic による最も強力なモデルであり、極めて複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、Anthropic によるこれまでで最も知的なモデルであり、API ユーザー向けに即時応答と段階的な思考を細かく制御しながら提供します。",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropic史上最も知的なモデルです。",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4は、開発者の生産性を向上させる多言語対応のAIコーディングアシスタントで、Q&Aやコード補完をサポートします。",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完、生成、インタープリタ、Web検索、関数呼び出し、リポジトリレベルのQ&Aなど、幅広いソフトウェア開発シナリオに対応します。10B未満のパラメータで最高クラスのコードモデルです。",
|
|
@@ -355,7 +355,6 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。",
|
|
358
|
-
"deepseek-chat.description": "一般的な対話能力とコーディング能力を融合した新しいオープンソースモデルです。チャットモデルの自然な対話性と、コーディングモデルの強力なコード生成能力を保持しつつ、ユーザーの好みにより適合するよう調整されています。DeepSeek-V2.5 は、文章作成や指示の理解・実行能力も向上しています。",
|
|
359
358
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%)で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
|
|
360
359
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
|
|
361
360
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
|
|
@@ -378,7 +377,6 @@
|
|
|
378
377
|
"deepseek-r1-fast-online.description": "DeepSeek R1 高速フルバージョンは、リアルタイムのウェブ検索を搭載し、671Bスケールの能力と高速応答を両立します。",
|
|
379
378
|
"deepseek-r1-online.description": "DeepSeek R1 フルバージョンは、671Bパラメータとリアルタイムのウェブ検索を備え、より強力な理解と生成を提供します。",
|
|
380
379
|
"deepseek-r1.description": "DeepSeek-R1は、強化学習前にコールドスタートデータを使用し、数学、コーディング、推論においてOpenAI-o1と同等の性能を発揮します。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2 の思考モードでは、最終的な回答の前に思考の過程(Chain-of-Thought)を出力し、精度を高めます。",
|
|
382
380
|
"deepseek-v2.description": "DeepSeek V2は、コスト効率の高い処理を実現する効率的なMoEモデルです。",
|
|
383
381
|
"deepseek-v2:236b.description": "DeepSeek V2 236Bは、コード生成に特化したDeepSeekのモデルで、強力なコード生成能力を持ちます。",
|
|
384
382
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324は、671BパラメータのMoEモデルで、プログラミングや技術的能力、文脈理解、長文処理において優れた性能を発揮します。",
|
|
@@ -471,7 +469,6 @@
|
|
|
471
469
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K は、シンプルな質問応答、分類、低コスト推論に適した超軽量モデルです。",
|
|
472
470
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応した 32K コンテキストの高速思考モデルです。",
|
|
473
471
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価およびテスト用の思考モデルプレビューです。",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 は ByteDance Seed による画像生成モデルで、テキストと画像の入力に対応し、高い制御性と高品質な画像生成を実現します。テキストプロンプトから画像を生成します。",
|
|
475
472
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力に対応しています。",
|
|
476
473
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] は、テキストと参照画像を入力として受け取り、局所的な編集や複雑なシーン全体の変換を可能にします。",
|
|
477
474
|
"fal-ai/flux/krea.description": "Flux Krea [dev] は、よりリアルで自然な画像を生成する美的バイアスを持つ画像生成モデルです。",
|
|
@@ -479,8 +476,6 @@
|
|
|
479
476
|
"fal-ai/hunyuan-image/v3.description": "強力なネイティブマルチモーダル画像生成モデルです。",
|
|
480
477
|
"fal-ai/imagen4/preview.description": "Google による高品質な画像生成モデルです。",
|
|
481
478
|
"fal-ai/nano-banana.description": "Nano Banana は Google による最新・最速・最も効率的なネイティブマルチモーダルモデルで、会話を通じた画像生成と編集が可能です。",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "Qwen チームによるプロフェッショナルな画像編集モデルで、意味や外観の編集に対応し、中国語・英語のテキストを正確に編集できます。スタイル変換や物体の回転など高品質な編集も可能です。",
|
|
483
|
-
"fal-ai/qwen-image.description": "Qwen チームによる強力な画像生成モデルで、中国語テキストの描画に優れ、多様なビジュアルスタイルに対応します。",
|
|
484
479
|
"flux-1-schnell.description": "Black Forest Labs による 120 億パラメータのテキストから画像への変換モデルで、潜在敵対的拡散蒸留を用いて 1~4 ステップで高品質な画像を生成します。クローズドな代替モデルに匹敵し、Apache-2.0 ライセンスのもと、個人・研究・商用利用が可能です。",
|
|
485
480
|
"flux-dev.description": "FLUX.1 [dev] は、非商用利用向けのオープンウェイト蒸留モデルで、プロレベルに近い画像品質と指示追従性を維持しつつ、同サイズの標準モデルよりも効率的に動作します。",
|
|
486
481
|
"flux-kontext-max.description": "最先端のコンテキスト画像生成・編集モデルで、テキストと画像を組み合わせて精密かつ一貫性のある結果を生成します。",
|
|
@@ -92,6 +92,7 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "結果が見つかりません",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "ローカルシステム",
|
|
95
|
+
"builtins.lobe-notebook.actions.collapse": "折りたたむ",
|
|
95
96
|
"builtins.lobe-notebook.actions.copy": "コピー",
|
|
96
97
|
"builtins.lobe-notebook.actions.creating": "ドキュメントを作成中...",
|
|
97
98
|
"builtins.lobe-notebook.actions.edit": "編集",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "InternLMは、大規模モデルの研究とツール開発に特化したオープンソース組織で、最先端のモデルとアルゴリズムを誰でも使いやすく提供します。",
|
|
30
30
|
"jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
|
|
31
31
|
"lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud は、公式 API を使用して AI モデルにアクセスし、モデルのトークンに基づいたクレジットで使用量を測定します。",
|
|
32
33
|
"minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
|
|
33
34
|
"mistral.description": "Mistralは、複雑な推論、多言語タスク、コード生成に対応した高度な汎用・専門・研究モデルを提供し、関数呼び出しによるカスタム統合も可能です。",
|
|
34
35
|
"modelscope.description": "ModelScopeは、Alibaba Cloudが提供するモデル・アズ・ア・サービス(MaaS)プラットフォームで、幅広いAIモデルと推論サービスを提供します。",
|
|
@@ -33,6 +33,7 @@
|
|
|
33
33
|
"agentCronJobs.maxExecutions": "最大実行回数",
|
|
34
34
|
"agentCronJobs.name": "タスク名",
|
|
35
35
|
"agentCronJobs.never": "未実行",
|
|
36
|
+
"agentCronJobs.noExecutionResults": "実行結果がありません",
|
|
36
37
|
"agentCronJobs.remainingExecutions": "残り:{{count}}",
|
|
37
38
|
"agentCronJobs.save": "保存",
|
|
38
39
|
"agentCronJobs.schedule": "スケジュール",
|
|
@@ -42,6 +43,7 @@
|
|
|
42
43
|
"agentCronJobs.timeRange": "時間範囲",
|
|
43
44
|
"agentCronJobs.title": "スケジュールタスク",
|
|
44
45
|
"agentCronJobs.unlimited": "無制限",
|
|
46
|
+
"agentCronJobs.unnamedTask": "名前のないタスク",
|
|
45
47
|
"agentCronJobs.updateSuccess": "スケジュールタスクが正常に更新されました",
|
|
46
48
|
"agentCronJobs.weekdays": "平日",
|
|
47
49
|
"agentInfoDescription.basic.avatar": "アバター",
|
package/locales/ko-KR/chat.json
CHANGED
|
@@ -63,6 +63,7 @@
|
|
|
63
63
|
"extendParams.reasoningEffort.title": "추론 강도",
|
|
64
64
|
"extendParams.textVerbosity.title": "출력 상세도",
|
|
65
65
|
"extendParams.thinking.title": "심층 사고 스위치",
|
|
66
|
+
"extendParams.thinkingBudget.title": "생각 예산",
|
|
66
67
|
"extendParams.thinkingLevel.title": "사고 수준",
|
|
67
68
|
"extendParams.title": "모델 확장 기능",
|
|
68
69
|
"extendParams.urlContext.desc": "활성화하면 웹 링크를 자동 분석하여 웹페이지 컨텍스트를 추출합니다",
|
|
@@ -194,6 +194,26 @@
|
|
|
194
194
|
"providerModels.item.modelConfig.deployName.title": "모델 배포 이름",
|
|
195
195
|
"providerModels.item.modelConfig.displayName.placeholder": "예: ChatGPT, GPT-4 등 모델의 표시 이름을 입력해 주세요",
|
|
196
196
|
"providerModels.item.modelConfig.displayName.title": "모델 표시 이름",
|
|
197
|
+
"providerModels.item.modelConfig.extendParams.extra": "모델이 지원하는 확장 매개변수를 선택하세요. 옵션 위에 마우스를 올리면 제어 항목을 미리 볼 수 있습니다. 잘못된 설정은 요청 실패를 초래할 수 있습니다.",
|
|
198
|
+
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Claude 모델용; 비용을 줄이고 응답 속도를 높일 수 있습니다.",
|
|
199
|
+
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Claude, DeepSeek 및 기타 추론 모델용; 더 깊은 사고를 활성화합니다.",
|
|
200
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "GPT-5 시리즈용; 추론 강도를 제어합니다.",
|
|
201
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "GPT-5.1 시리즈용; 추론 강도를 제어합니다.",
|
|
202
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "GPT-5.2 Pro 시리즈용; 추론 강도를 제어합니다.",
|
|
203
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "GPT-5.2 시리즈용; 추론 강도를 제어합니다.",
|
|
204
|
+
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Gemini 이미지 생성 모델용; 생성된 이미지의 가로세로 비율을 제어합니다.",
|
|
205
|
+
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Gemini 3 이미지 생성 모델용; 생성된 이미지의 해상도를 제어합니다.",
|
|
206
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Claude, Qwen3 등과 유사한 모델용; 추론에 사용할 토큰 예산을 제어합니다.",
|
|
207
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "OpenAI 및 기타 추론 가능한 모델용; 추론 노력의 정도를 제어합니다.",
|
|
208
|
+
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "GPT-5+ 시리즈용; 출력의 상세 정도를 제어합니다.",
|
|
209
|
+
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "일부 Doubao 모델용; 모델이 깊이 사고할지 여부를 스스로 결정하도록 허용합니다.",
|
|
210
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Gemini 시리즈용; 사고 예산을 제어합니다.",
|
|
211
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Gemini 3 Flash Preview 모델용; 사고의 깊이를 제어합니다.",
|
|
212
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Gemini 3 Pro Preview 모델용; 사고의 깊이를 제어합니다.",
|
|
213
|
+
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Gemini 시리즈용; URL 컨텍스트 제공을 지원합니다.",
|
|
214
|
+
"providerModels.item.modelConfig.extendParams.placeholder": "활성화할 확장 매개변수를 선택하세요",
|
|
215
|
+
"providerModels.item.modelConfig.extendParams.previewFallback": "미리보기를 사용할 수 없습니다",
|
|
216
|
+
"providerModels.item.modelConfig.extendParams.title": "확장 매개변수",
|
|
197
217
|
"providerModels.item.modelConfig.files.extra": "현재 파일 업로드는 임시 방식으로 구현되어 있으며, 실험적으로만 사용 가능합니다. 정식 파일 업로드 기능은 추후 제공될 예정입니다",
|
|
198
218
|
"providerModels.item.modelConfig.files.title": "파일 업로드 지원",
|
|
199
219
|
"providerModels.item.modelConfig.functionCall.extra": "이 설정은 모델의 도구 사용 기능만 활성화합니다. 실제 도구 사용 가능 여부는 모델에 따라 다르므로 직접 테스트해 주세요",
|