@lobehub/lobehub 2.0.0-next.265 → 2.0.0-next.266

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (129) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/chat.json +1 -0
  4. package/locales/ar/modelProvider.json +20 -0
  5. package/locales/ar/models.json +33 -10
  6. package/locales/ar/plugin.json +1 -0
  7. package/locales/ar/providers.json +1 -0
  8. package/locales/ar/setting.json +2 -0
  9. package/locales/bg-BG/chat.json +1 -0
  10. package/locales/bg-BG/modelProvider.json +20 -0
  11. package/locales/bg-BG/models.json +27 -7
  12. package/locales/bg-BG/plugin.json +1 -0
  13. package/locales/bg-BG/providers.json +1 -0
  14. package/locales/bg-BG/setting.json +2 -0
  15. package/locales/de-DE/chat.json +1 -0
  16. package/locales/de-DE/modelProvider.json +20 -0
  17. package/locales/de-DE/models.json +44 -10
  18. package/locales/de-DE/plugin.json +1 -0
  19. package/locales/de-DE/providers.json +1 -0
  20. package/locales/de-DE/setting.json +2 -0
  21. package/locales/en-US/chat.json +1 -0
  22. package/locales/en-US/modelProvider.json +20 -0
  23. package/locales/en-US/models.json +10 -10
  24. package/locales/en-US/providers.json +1 -0
  25. package/locales/en-US/setting.json +2 -1
  26. package/locales/es-ES/chat.json +1 -0
  27. package/locales/es-ES/modelProvider.json +20 -0
  28. package/locales/es-ES/models.json +53 -10
  29. package/locales/es-ES/plugin.json +1 -0
  30. package/locales/es-ES/providers.json +1 -0
  31. package/locales/es-ES/setting.json +2 -0
  32. package/locales/fa-IR/chat.json +1 -0
  33. package/locales/fa-IR/modelProvider.json +20 -0
  34. package/locales/fa-IR/models.json +33 -10
  35. package/locales/fa-IR/plugin.json +1 -0
  36. package/locales/fa-IR/providers.json +1 -0
  37. package/locales/fa-IR/setting.json +2 -0
  38. package/locales/fr-FR/chat.json +1 -0
  39. package/locales/fr-FR/modelProvider.json +20 -0
  40. package/locales/fr-FR/models.json +27 -7
  41. package/locales/fr-FR/plugin.json +1 -0
  42. package/locales/fr-FR/providers.json +1 -0
  43. package/locales/fr-FR/setting.json +2 -0
  44. package/locales/it-IT/chat.json +1 -0
  45. package/locales/it-IT/modelProvider.json +20 -0
  46. package/locales/it-IT/models.json +10 -10
  47. package/locales/it-IT/plugin.json +1 -0
  48. package/locales/it-IT/providers.json +1 -0
  49. package/locales/it-IT/setting.json +2 -0
  50. package/locales/ja-JP/chat.json +1 -0
  51. package/locales/ja-JP/modelProvider.json +20 -0
  52. package/locales/ja-JP/models.json +5 -10
  53. package/locales/ja-JP/plugin.json +1 -0
  54. package/locales/ja-JP/providers.json +1 -0
  55. package/locales/ja-JP/setting.json +2 -0
  56. package/locales/ko-KR/chat.json +1 -0
  57. package/locales/ko-KR/modelProvider.json +20 -0
  58. package/locales/ko-KR/models.json +36 -10
  59. package/locales/ko-KR/plugin.json +1 -0
  60. package/locales/ko-KR/providers.json +1 -0
  61. package/locales/ko-KR/setting.json +2 -0
  62. package/locales/nl-NL/chat.json +1 -0
  63. package/locales/nl-NL/modelProvider.json +20 -0
  64. package/locales/nl-NL/models.json +35 -4
  65. package/locales/nl-NL/plugin.json +1 -0
  66. package/locales/nl-NL/providers.json +1 -0
  67. package/locales/nl-NL/setting.json +2 -0
  68. package/locales/pl-PL/chat.json +1 -0
  69. package/locales/pl-PL/modelProvider.json +20 -0
  70. package/locales/pl-PL/models.json +37 -7
  71. package/locales/pl-PL/plugin.json +1 -0
  72. package/locales/pl-PL/providers.json +1 -0
  73. package/locales/pl-PL/setting.json +2 -0
  74. package/locales/pt-BR/chat.json +1 -0
  75. package/locales/pt-BR/modelProvider.json +20 -0
  76. package/locales/pt-BR/models.json +51 -9
  77. package/locales/pt-BR/plugin.json +1 -0
  78. package/locales/pt-BR/providers.json +1 -0
  79. package/locales/pt-BR/setting.json +2 -0
  80. package/locales/ru-RU/chat.json +1 -0
  81. package/locales/ru-RU/modelProvider.json +20 -0
  82. package/locales/ru-RU/models.json +48 -7
  83. package/locales/ru-RU/plugin.json +1 -0
  84. package/locales/ru-RU/providers.json +1 -0
  85. package/locales/ru-RU/setting.json +2 -0
  86. package/locales/tr-TR/chat.json +1 -0
  87. package/locales/tr-TR/modelProvider.json +20 -0
  88. package/locales/tr-TR/models.json +48 -7
  89. package/locales/tr-TR/plugin.json +1 -0
  90. package/locales/tr-TR/providers.json +1 -0
  91. package/locales/tr-TR/setting.json +2 -0
  92. package/locales/vi-VN/chat.json +1 -0
  93. package/locales/vi-VN/modelProvider.json +20 -0
  94. package/locales/vi-VN/models.json +5 -5
  95. package/locales/vi-VN/plugin.json +1 -0
  96. package/locales/vi-VN/providers.json +1 -0
  97. package/locales/vi-VN/setting.json +2 -0
  98. package/locales/zh-CN/modelProvider.json +20 -20
  99. package/locales/zh-CN/models.json +49 -8
  100. package/locales/zh-CN/providers.json +1 -0
  101. package/locales/zh-CN/setting.json +2 -1
  102. package/locales/zh-TW/chat.json +1 -0
  103. package/locales/zh-TW/modelProvider.json +20 -0
  104. package/locales/zh-TW/models.json +29 -10
  105. package/locales/zh-TW/plugin.json +1 -0
  106. package/locales/zh-TW/providers.json +1 -0
  107. package/locales/zh-TW/setting.json +2 -0
  108. package/package.json +1 -1
  109. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Body.tsx +1 -1
  110. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Cron/CronTopicGroup.tsx +84 -0
  111. package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/CronTopicItem.tsx +1 -1
  112. package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/index.tsx +23 -33
  113. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/Item/Editing.tsx +12 -49
  114. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/index.tsx +3 -1
  115. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Editing.tsx +12 -40
  116. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/hooks/useTopicNavigation.ts +5 -1
  117. package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobCards.tsx +1 -1
  118. package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobForm.tsx +1 -1
  119. package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/AvailableAgentList.tsx +0 -1
  120. package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/index.tsx +5 -1
  121. package/src/components/InlineRename/index.tsx +121 -0
  122. package/src/features/NavPanel/components/NavItem.tsx +1 -1
  123. package/src/locales/default/setting.ts +2 -0
  124. package/src/store/agent/slices/cron/action.ts +108 -0
  125. package/src/store/agent/slices/cron/index.ts +1 -0
  126. package/src/store/agent/store.ts +3 -0
  127. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/CronTopicList/CronTopicGroup.tsx +0 -74
  128. package/src/app/[variants]/(main)/group/features/ChangelogModal.tsx +0 -11
  129. package/src/hooks/useFetchCronTopicsWithJobInfo.ts +0 -56
@@ -194,6 +194,26 @@
194
194
  "providerModels.item.modelConfig.deployName.title": "モデルデプロイ名",
195
195
  "providerModels.item.modelConfig.displayName.placeholder": "モデルの表示名を入力してください(例: ChatGPT、GPT-4 など)",
196
196
  "providerModels.item.modelConfig.displayName.title": "モデル表示名",
197
+ "providerModels.item.modelConfig.extendParams.extra": "モデルがサポートする拡張パラメータを選択してください。オプションにカーソルを合わせるとコントロールのプレビューが表示されます。不正な設定はリクエストの失敗を引き起こす可能性があります。",
198
+ "providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Claudeモデル向け;コストを抑え、応答速度を向上させる可能性があります。",
199
+ "providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Claude、DeepSeekなどの推論モデル向け;より深い思考を可能にします。",
200
+ "providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "GPT-5シリーズ向け;推論の強度を制御します。",
201
+ "providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "GPT-5.1シリーズ向け;推論の強度を制御します。",
202
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "GPT-5.2 Proシリーズ向け;推論の強度を制御します。",
203
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "GPT-5.2シリーズ向け;推論の強度を制御します。",
204
+ "providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Gemini画像生成モデル向け;生成される画像のアスペクト比を制御します。",
205
+ "providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Gemini 3画像生成モデル向け;生成される画像の解像度を制御します。",
206
+ "providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Claude、Qwen3などのモデル向け;推論に使用するトークンの予算を制御します。",
207
+ "providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "OpenAIなどの推論対応モデル向け;推論の努力度を制御します。",
208
+ "providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "GPT-5+シリーズ向け;出力の詳細度を制御します。",
209
+ "providerModels.item.modelConfig.extendParams.options.thinking.hint": "一部のDoubaoモデル向け;モデルが深く思考するかどうかを判断させます。",
210
+ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Geminiシリーズ向け;思考に使う予算を制御します。",
211
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Gemini 3 Flash Previewモデル向け;思考の深さを制御します。",
212
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Gemini 3 Pro Previewモデル向け;思考の深さを制御します。",
213
+ "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Geminiシリーズ向け;URLコンテキストの提供をサポートします。",
214
+ "providerModels.item.modelConfig.extendParams.placeholder": "有効にする拡張パラメータを選択",
215
+ "providerModels.item.modelConfig.extendParams.previewFallback": "プレビューを利用できません",
216
+ "providerModels.item.modelConfig.extendParams.title": "拡張パラメータ",
197
217
  "providerModels.item.modelConfig.files.extra": "現在のファイルアップロード実装は一つのハック手法に過ぎず、自己責任での試行に限られます。完全なファイルアップロード機能は今後の実装をお待ちください",
198
218
  "providerModels.item.modelConfig.files.title": "ファイルアップロードをサポート",
199
219
  "providerModels.item.modelConfig.functionCall.extra": "この設定は、モデルがツールを使用する機能を有効にし、モデルにツールタイプのプラグインを追加できるようにします。ただし、実際にツールを使用できるかどうかはモデル自体に依存するため、使用可能性を自分でテストしてください",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、顧客サポート、教育、技術支援などの大規模ユースケースにおいて、優れた理解力と生成能力を兼ね備えています。",
272
272
  "claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
273
273
  "claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は、Anthropic による次世代モデルの中で最速のモデルです。Claude 3 Haiku と比較してあらゆるスキルが向上しており、従来の最大モデルである Claude 3 Opus を多くの知能ベンチマークで上回ります。",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は、Anthropic による次世代モデルの中で最速のものであり、さまざまなスキルにおいて向上し、従来のフラッグシップモデル Claude 3 Opus を多くのベンチマークで上回ります。",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haikuは、軽量タスク向けに高速な応答を提供します。",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet は、Anthropic による最も知的なモデルであり、市場初のハイブリッド推論モデルです。瞬時の応答から、ユーザーが確認できる段階的な推論まで対応可能です。特にコーディング、データサイエンス、画像認識、エージェントタスクに優れています。",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 は、Anthropic による最も知的なモデルであり、市場初のハイブリッド推論モデルです。即時応答と拡張的な思考を細かく制御しながら実現します。",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnetは、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は、Anthropic による最速かつ最も高性能な Haiku モデルであり、驚異的なスピードと高度な推論能力を備えています。",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は、Anthropic による最速かつ最も知的な Haiku モデルであり、驚異的なスピードと深い思考能力を兼ね備えています。",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 は、Anthropic による最も強力なモデルであり、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 は、Anthropic による最も強力なモデルであり、極めて複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、瞬時の応答と、可視化された段階的な思考プロセスの両方を生成できます。",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、Anthropic によるこれまでで最も知的なモデルであり、API ユーザー向けに即時応答と段階的な思考を細かく制御しながら提供します。",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropic史上最も知的なモデルです。",
289
289
  "codegeex-4.description": "CodeGeeX-4は、開発者の生産性を向上させる多言語対応のAIコーディングアシスタントで、Q&Aやコード補完をサポートします。",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完、生成、インタープリタ、Web検索、関数呼び出し、リポジトリレベルのQ&Aなど、幅広いソフトウェア開発シナリオに対応します。10B未満のパラメータで最高クラスのコードモデルです。",
@@ -355,7 +355,6 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。",
358
- "deepseek-chat.description": "一般的な対話能力とコーディング能力を融合した新しいオープンソースモデルです。チャットモデルの自然な対話性と、コーディングモデルの強力なコード生成能力を保持しつつ、ユーザーの好みにより適合するよう調整されています。DeepSeek-V2.5 は、文章作成や指示の理解・実行能力も向上しています。",
359
358
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%)で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
360
359
  "deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
361
360
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
@@ -378,7 +377,6 @@
378
377
  "deepseek-r1-fast-online.description": "DeepSeek R1 高速フルバージョンは、リアルタイムのウェブ検索を搭載し、671Bスケールの能力と高速応答を両立します。",
379
378
  "deepseek-r1-online.description": "DeepSeek R1 フルバージョンは、671Bパラメータとリアルタイムのウェブ検索を備え、より強力な理解と生成を提供します。",
380
379
  "deepseek-r1.description": "DeepSeek-R1は、強化学習前にコールドスタートデータを使用し、数学、コーディング、推論においてOpenAI-o1と同等の性能を発揮します。",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 の思考モードでは、最終的な回答の前に思考の過程(Chain-of-Thought)を出力し、精度を高めます。",
382
380
  "deepseek-v2.description": "DeepSeek V2は、コスト効率の高い処理を実現する効率的なMoEモデルです。",
383
381
  "deepseek-v2:236b.description": "DeepSeek V2 236Bは、コード生成に特化したDeepSeekのモデルで、強力なコード生成能力を持ちます。",
384
382
  "deepseek-v3-0324.description": "DeepSeek-V3-0324は、671BパラメータのMoEモデルで、プログラミングや技術的能力、文脈理解、長文処理において優れた性能を発揮します。",
@@ -471,7 +469,6 @@
471
469
  "ernie-tiny-8k.description": "ERNIE Tiny 8K は、シンプルな質問応答、分類、低コスト推論に適した超軽量モデルです。",
472
470
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応した 32K コンテキストの高速思考モデルです。",
473
471
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価およびテスト用の思考モデルプレビューです。",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 は ByteDance Seed による画像生成モデルで、テキストと画像の入力に対応し、高い制御性と高品質な画像生成を実現します。テキストプロンプトから画像を生成します。",
475
472
  "fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力に対応しています。",
476
473
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] は、テキストと参照画像を入力として受け取り、局所的な編集や複雑なシーン全体の変換を可能にします。",
477
474
  "fal-ai/flux/krea.description": "Flux Krea [dev] は、よりリアルで自然な画像を生成する美的バイアスを持つ画像生成モデルです。",
@@ -479,8 +476,6 @@
479
476
  "fal-ai/hunyuan-image/v3.description": "強力なネイティブマルチモーダル画像生成モデルです。",
480
477
  "fal-ai/imagen4/preview.description": "Google による高品質な画像生成モデルです。",
481
478
  "fal-ai/nano-banana.description": "Nano Banana は Google による最新・最速・最も効率的なネイティブマルチモーダルモデルで、会話を通じた画像生成と編集が可能です。",
482
- "fal-ai/qwen-image-edit.description": "Qwen チームによるプロフェッショナルな画像編集モデルで、意味や外観の編集に対応し、中国語・英語のテキストを正確に編集できます。スタイル変換や物体の回転など高品質な編集も可能です。",
483
- "fal-ai/qwen-image.description": "Qwen チームによる強力な画像生成モデルで、中国語テキストの描画に優れ、多様なビジュアルスタイルに対応します。",
484
479
  "flux-1-schnell.description": "Black Forest Labs による 120 億パラメータのテキストから画像への変換モデルで、潜在敵対的拡散蒸留を用いて 1~4 ステップで高品質な画像を生成します。クローズドな代替モデルに匹敵し、Apache-2.0 ライセンスのもと、個人・研究・商用利用が可能です。",
485
480
  "flux-dev.description": "FLUX.1 [dev] は、非商用利用向けのオープンウェイト蒸留モデルで、プロレベルに近い画像品質と指示追従性を維持しつつ、同サイズの標準モデルよりも効率的に動作します。",
486
481
  "flux-kontext-max.description": "最先端のコンテキスト画像生成・編集モデルで、テキストと画像を組み合わせて精密かつ一貫性のある結果を生成します。",
@@ -92,6 +92,7 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "結果が見つかりません",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "ローカルシステム",
95
+ "builtins.lobe-notebook.actions.collapse": "折りたたむ",
95
96
  "builtins.lobe-notebook.actions.copy": "コピー",
96
97
  "builtins.lobe-notebook.actions.creating": "ドキュメントを作成中...",
97
98
  "builtins.lobe-notebook.actions.edit": "編集",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "InternLMは、大規模モデルの研究とツール開発に特化したオープンソース組織で、最先端のモデルとアルゴリズムを誰でも使いやすく提供します。",
30
30
  "jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
31
31
  "lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
32
+ "lobehub.description": "LobeHub Cloud は、公式 API を使用して AI モデルにアクセスし、モデルのトークンに基づいたクレジットで使用量を測定します。",
32
33
  "minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
33
34
  "mistral.description": "Mistralは、複雑な推論、多言語タスク、コード生成に対応した高度な汎用・専門・研究モデルを提供し、関数呼び出しによるカスタム統合も可能です。",
34
35
  "modelscope.description": "ModelScopeは、Alibaba Cloudが提供するモデル・アズ・ア・サービス(MaaS)プラットフォームで、幅広いAIモデルと推論サービスを提供します。",
@@ -33,6 +33,7 @@
33
33
  "agentCronJobs.maxExecutions": "最大実行回数",
34
34
  "agentCronJobs.name": "タスク名",
35
35
  "agentCronJobs.never": "未実行",
36
+ "agentCronJobs.noExecutionResults": "実行結果がありません",
36
37
  "agentCronJobs.remainingExecutions": "残り:{{count}}",
37
38
  "agentCronJobs.save": "保存",
38
39
  "agentCronJobs.schedule": "スケジュール",
@@ -42,6 +43,7 @@
42
43
  "agentCronJobs.timeRange": "時間範囲",
43
44
  "agentCronJobs.title": "スケジュールタスク",
44
45
  "agentCronJobs.unlimited": "無制限",
46
+ "agentCronJobs.unnamedTask": "名前のないタスク",
45
47
  "agentCronJobs.updateSuccess": "スケジュールタスクが正常に更新されました",
46
48
  "agentCronJobs.weekdays": "平日",
47
49
  "agentInfoDescription.basic.avatar": "アバター",
@@ -63,6 +63,7 @@
63
63
  "extendParams.reasoningEffort.title": "추론 강도",
64
64
  "extendParams.textVerbosity.title": "출력 상세도",
65
65
  "extendParams.thinking.title": "심층 사고 스위치",
66
+ "extendParams.thinkingBudget.title": "생각 예산",
66
67
  "extendParams.thinkingLevel.title": "사고 수준",
67
68
  "extendParams.title": "모델 확장 기능",
68
69
  "extendParams.urlContext.desc": "활성화하면 웹 링크를 자동 분석하여 웹페이지 컨텍스트를 추출합니다",
@@ -194,6 +194,26 @@
194
194
  "providerModels.item.modelConfig.deployName.title": "모델 배포 이름",
195
195
  "providerModels.item.modelConfig.displayName.placeholder": "예: ChatGPT, GPT-4 등 모델의 표시 이름을 입력해 주세요",
196
196
  "providerModels.item.modelConfig.displayName.title": "모델 표시 이름",
197
+ "providerModels.item.modelConfig.extendParams.extra": "모델이 지원하는 확장 매개변수를 선택하세요. 옵션 위에 마우스를 올리면 제어 항목을 미리 볼 수 있습니다. 잘못된 설정은 요청 실패를 초래할 수 있습니다.",
198
+ "providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Claude 모델용; 비용을 줄이고 응답 속도를 높일 수 있습니다.",
199
+ "providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Claude, DeepSeek 및 기타 추론 모델용; 더 깊은 사고를 활성화합니다.",
200
+ "providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "GPT-5 시리즈용; 추론 강도를 제어합니다.",
201
+ "providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "GPT-5.1 시리즈용; 추론 강도를 제어합니다.",
202
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "GPT-5.2 Pro 시리즈용; 추론 강도를 제어합니다.",
203
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "GPT-5.2 시리즈용; 추론 강도를 제어합니다.",
204
+ "providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Gemini 이미지 생성 모델용; 생성된 이미지의 가로세로 비율을 제어합니다.",
205
+ "providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Gemini 3 이미지 생성 모델용; 생성된 이미지의 해상도를 제어합니다.",
206
+ "providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Claude, Qwen3 등과 유사한 모델용; 추론에 사용할 토큰 예산을 제어합니다.",
207
+ "providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "OpenAI 및 기타 추론 가능한 모델용; 추론 노력의 정도를 제어합니다.",
208
+ "providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "GPT-5+ 시리즈용; 출력의 상세 정도를 제어합니다.",
209
+ "providerModels.item.modelConfig.extendParams.options.thinking.hint": "일부 Doubao 모델용; 모델이 깊이 사고할지 여부를 스스로 결정하도록 허용합니다.",
210
+ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Gemini 시리즈용; 사고 예산을 제어합니다.",
211
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Gemini 3 Flash Preview 모델용; 사고의 깊이를 제어합니다.",
212
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Gemini 3 Pro Preview 모델용; 사고의 깊이를 제어합니다.",
213
+ "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Gemini 시리즈용; URL 컨텍스트 제공을 지원합니다.",
214
+ "providerModels.item.modelConfig.extendParams.placeholder": "활성화할 확장 매개변수를 선택하세요",
215
+ "providerModels.item.modelConfig.extendParams.previewFallback": "미리보기를 사용할 수 없습니다",
216
+ "providerModels.item.modelConfig.extendParams.title": "확장 매개변수",
197
217
  "providerModels.item.modelConfig.files.extra": "현재 파일 업로드는 임시 방식으로 구현되어 있으며, 실험적으로만 사용 가능합니다. 정식 파일 업로드 기능은 추후 제공될 예정입니다",
198
218
  "providerModels.item.modelConfig.files.title": "파일 업로드 지원",
199
219
  "providerModels.item.modelConfig.functionCall.extra": "이 설정은 모델의 도구 사용 기능만 활성화합니다. 실제 도구 사용 가능 여부는 모델에 따라 다르므로 직접 테스트해 주세요",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
272
272
  "claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
273
273
  "claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델입니다. Claude 3 Haiku에 비해 전반적인 능력이 향상되었으며, 지능 벤치마크에서 이전의 최고 모델인 Claude 3 Opus를 능가합니다.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델로, 다양한 기술에서 향상되었으며 이전 플래그십 모델인 Claude 3 Opus를 여러 벤치마크에서 능가합니다.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet은 Anthropic의 가장 지능적인 모델이자 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답은 물론, 사용자가 확인할 있는 단계별 추론도 제공합니다. Sonnet은 특히 코딩, 데이터 과학, 비전, 에이전트 작업에 강점을 보입니다.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7은 Anthropic의 가장 지능적인 모델로, 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답부터 심화 사고까지 세밀한 제어가 가능하며, 다양한 상황에 유연하게 대응합니다.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 갖추고 있습니다.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 심화 사고 기능을 갖추고 있습니다.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을 자랑합니다.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을 발휘합니다.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4는 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 추론을 생성할 있습니다.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4는 지금까지 출시된 Anthropic 모델 가장 지능적인 모델로, API 사용자에게 세밀한 제어를 제공하며 즉각적인 응답 또는 단계별 사고를 지원합니다.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 Anthropic이 지금까지 개발한 가장 지능적인 모델입니다.",
289
289
  "codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 QA, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.",
358
- "deepseek-chat.description": "일반 대화 능력과 코딩 능력을 결합한 새로운 오픈소스 모델입니다. 대화형 모델의 일반적인 대화 능력과 코더 모델의 강력한 코딩 능력을 유지하면서 선호도 정렬이 개선되었습니다. DeepSeek-V2.5는 글쓰기와 지시 따르기 능력도 향상되었습니다.",
358
+ "deepseek-chat.description": "DeepSeek V3.2는 일상적인 질의응답 에이전트 작업을 위해 추론 능력과 출력 길이의 균형을 맞춘 모델입니다. 공개 벤치마크에서 GPT-5 수준에 도달했으며, 도구 사용에 사고 과정을 통합한 최초의 모델로, 오픈소스 에이전트 평가에서 선도적인 성과를 보입니다.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
380
380
  "deepseek-r1.description": "DeepSeek-R1은 강화 학습 전 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론에서 OpenAI-o1과 유사한 성능을 보입니다.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 추론 모드는 최종 답변 전에 사고 과정을 출력하여 정확도를 높입니다.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking은 출력 전에 사고 과정을 생성하여 정확도를 높이는 심화 추론 모델입니다. 주요 대회에서 우수한 성적을 거두었으며, Gemini-3.0-Pro에 필적하는 추론 능력을 보유하고 있습니다.",
382
382
  "deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K는 간단한 질의응답, 분류, 저비용 추론에 적합한 초경량 모델입니다.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed에서 개발한 이미지 생성 모델로, 텍스트와 이미지 입력을 지원하며 고품질의 이미지 생성과 세밀한 제어가 가능합니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
474
+ "fal-ai/bytedance/seedream/v4.description": "ByteDance Seed에서 개발한 Seedream 4.0은 텍스트 이미지 입력을 지원하며, 프롬프트 기반의 고품질 이미지 생성을 정밀하게 제어할 있습니다.",
475
475
  "fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro]는 텍스트와 참조 이미지를 입력으로 받아, 국소 편집과 복잡한 장면 변환을 정밀하게 수행할 수 있습니다.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev]는 보다 사실적이고 자연스러운 이미지 스타일에 중점을 둔 이미지 생성 모델입니다.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "강력한 네이티브 멀티모달 이미지 생성 모델입니다.",
480
480
  "fal-ai/imagen4/preview.description": "Google에서 개발한 고품질 이미지 생성 모델입니다.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
482
- "fal-ai/qwen-image-edit.description": "Qwen 팀에서 개발한 전문 이미지 편집 모델로, 의미 및 외형 편집, 중·영문 텍스트 정밀 편집, 스타일 전환 객체 회전과 같은 고품질 편집을 지원합니다.",
483
- "fal-ai/qwen-image.description": "Qwen 팀에서 개발한 강력한 이미지 생성 모델로, 뛰어난 중국어 텍스트 렌더링과 다양한 시각 스타일을 제공합니다.",
482
+ "fal-ai/qwen-image-edit.description": "Qwen 팀이 개발한 전문 이미지 편집 모델로, 의미 기반 및 외형 편집, 정확한 중/영문 텍스트 편집, 스타일 전환, 회전 다양한 기능을 지원합니다.",
483
+ "fal-ai/qwen-image.description": "Qwen 팀이 개발한 강력한 이미지 생성 모델로, 뛰어난 중국어 텍스트 렌더링과 다양한 시각 스타일을 제공합니다.",
484
484
  "flux-1-schnell.description": "Black Forest Labs에서 개발한 120억 파라미터 텍스트-이미지 모델로, 잠재 적대 확산 증류를 사용하여 1~4단계 내에 고품질 이미지를 생성합니다. Apache-2.0 라이선스로 개인, 연구, 상업적 사용이 가능합니다.",
485
485
  "flux-dev.description": "FLUX.1 [dev]는 오픈 가중치 증류 모델로, 비상업적 사용을 위해 설계되었습니다. 전문가 수준의 이미지 품질과 지시 따르기를 유지하면서도 더 효율적으로 작동하며, 동일 크기의 표준 모델보다 자원을 더 잘 활용합니다.",
486
486
  "flux-kontext-max.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
@@ -512,9 +512,35 @@
512
512
  "gemini-2.0-flash-lite-001.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
513
513
  "gemini-2.0-flash-lite.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
514
514
  "gemini-2.0-flash.description": "Gemini 2.0 Flash는 탁월한 속도, 네이티브 도구 사용, 멀티모달 생성, 100만 토큰 문맥 창 등 차세대 기능을 제공합니다.",
515
+ "gemini-2.5-flash-image-preview.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
516
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
517
+ "gemini-2.5-flash-image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
518
+ "gemini-2.5-flash-image:image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
519
+ "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview는 Google의 가장 작고 가성비 높은 모델로, 대규모 사용을 위해 설계되었습니다.",
520
+ "gemini-2.5-flash-lite-preview-09-2025.description": "Gemini 2.5 Flash-Lite의 2025년 9월 25일자 프리뷰 릴리스입니다.",
521
+ "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite는 Google의 가장 작고 가성비 높은 모델로, 대규모 사용을 위해 설계되었습니다.",
522
+ "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.",
523
+ "gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash의 2025년 9월 25일자 프리뷰 릴리스입니다.",
524
+ "gemini-2.5-flash.description": "Gemini 2.5 Flash는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.",
525
+ "gemini-2.5-flash:image.description": "Gemini 2.5 Flash는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.",
526
+ "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
527
+ "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
528
+ "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
529
+ "gemini-2.5-pro.description": "Gemini 2.5 Pro는 Google의 플래그십 추론 모델로, 복잡한 작업을 위한 장기 문맥 지원을 제공합니다.",
530
+ "gemini-3-flash-preview.description": "Gemini 3 Flash는 속도를 위해 설계된 가장 지능적인 모델로, 최첨단 지능과 뛰어난 검색 기반을 결합합니다.",
531
+ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
532
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
533
+ "gemini-3-pro-preview.description": "Gemini 3 Pro는 Google의 가장 강력한 에이전트 및 바이브 코딩 모델로, 최첨단 추론 위에 풍부한 시각적 표현과 깊은 상호작용을 제공합니다.",
515
534
  "gemini-flash-latest.description": "Gemini Flash 최신 버전",
516
535
  "gemini-flash-lite-latest.description": "Gemini Flash-Lite 최신 버전",
517
536
  "gemini-pro-latest.description": "Gemini Pro 최신 버전",
537
+ "gemma-7b-it.description": "Gemma 7B는 소규모에서 중간 규모 작업에 적합한 비용 효율적인 모델입니다.",
538
+ "gemma2-9b-it.description": "Gemma 2 9B는 특정 작업 및 도구 통합에 최적화된 모델입니다.",
539
+ "gemma2.description": "Gemma 2는 Google의 효율적인 모델로, 소형 앱부터 복잡한 데이터 처리까지 다양한 사용 사례를 지원합니다.",
540
+ "gemma2:27b.description": "Gemma 2는 Google의 효율적인 모델로, 소형 앱부터 복잡한 데이터 처리까지 다양한 사용 사례를 지원합니다.",
541
+ "gemma2:2b.description": "Gemma 2는 Google의 효율적인 모델로, 소형 앱부터 복잡한 데이터 처리까지 다양한 사용 사례를 지원합니다.",
542
+ "generalv3.5.description": "Spark Max는 웹 검색과 다양한 내장 플러그인을 지원하는 가장 완전한 기능의 버전입니다. 최적화된 핵심 기능, 시스템 역할, 함수 호출을 통해 복잡한 애플리케이션 시나리오에서도 뛰어난 성능을 발휘합니다.",
543
+ "generalv3.description": "Spark Pro는 수학, 프로그래밍, 의료, 교육 등 전문 분야에 최적화된 고성능 LLM입니다. 웹 검색과 날씨, 날짜 등 내장 플러그인을 지원하며, 복잡한 지식 질의응답, 언어 이해, 고급 텍스트 생성에서 강력한 성능과 효율성을 제공합니다. 전문가용 사용 사례에 이상적입니다.",
518
544
  "meta/Llama-3.2-90B-Vision-Instruct.description": "시각 이해 에이전트 애플리케이션을 위한 고급 이미지 추론 기능.",
519
545
  "meta/Llama-3.3-70B-Instruct.description": "Llama 3.3은 가장 진보된 다국어 오픈소스 Llama 모델로, 매우 낮은 비용으로 405B에 근접한 성능을 제공합니다. Transformer 기반이며, 유용성과 안전성을 위해 SFT 및 RLHF로 개선되었습니다. 명령어 튜닝 버전은 다국어 채팅에 최적화되어 있으며, 산업 벤치마크에서 많은 오픈 및 클로즈드 채팅 모델을 능가합니다. 지식 기준일: 2023년 12월.",
520
546
  "meta/Meta-Llama-3-70B-Instruct.description": "추론, 코딩, 다양한 언어 작업에 뛰어난 성능을 보이는 강력한 70B 파라미터 모델.",
@@ -92,6 +92,7 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "결과 없음",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "로컬 시스템",
95
+ "builtins.lobe-notebook.actions.collapse": "접기",
95
96
  "builtins.lobe-notebook.actions.copy": "복사",
96
97
  "builtins.lobe-notebook.actions.creating": "문서 생성 중...",
97
98
  "builtins.lobe-notebook.actions.edit": "편집",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
30
30
  "jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
31
31
  "lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
32
+ "lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.",
32
33
  "minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
33
34
  "mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
34
35
  "modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",
@@ -33,6 +33,7 @@
33
33
  "agentCronJobs.maxExecutions": "최대 실행 횟수",
34
34
  "agentCronJobs.name": "작업 이름",
35
35
  "agentCronJobs.never": "없음",
36
+ "agentCronJobs.noExecutionResults": "실행 결과 없음",
36
37
  "agentCronJobs.remainingExecutions": "남은 횟수: {{count}}",
37
38
  "agentCronJobs.save": "저장",
38
39
  "agentCronJobs.schedule": "일정",
@@ -42,6 +43,7 @@
42
43
  "agentCronJobs.timeRange": "시간 범위",
43
44
  "agentCronJobs.title": "예약 작업",
44
45
  "agentCronJobs.unlimited": "무제한",
46
+ "agentCronJobs.unnamedTask": "이름 없는 작업",
45
47
  "agentCronJobs.updateSuccess": "예약 작업이 성공적으로 업데이트되었습니다",
46
48
  "agentCronJobs.weekdays": "평일",
47
49
  "agentInfoDescription.basic.avatar": "아바타",
@@ -63,6 +63,7 @@
63
63
  "extendParams.reasoningEffort.title": "Denkintensiteit",
64
64
  "extendParams.textVerbosity.title": "Detailniveau Tekstoutput",
65
65
  "extendParams.thinking.title": "Schakel Diep Denken in",
66
+ "extendParams.thinkingBudget.title": "Denkbudget",
66
67
  "extendParams.thinkingLevel.title": "Denkniveau",
67
68
  "extendParams.title": "Modeluitbreidingsfuncties",
68
69
  "extendParams.urlContext.desc": "Indien ingeschakeld, worden webkoppelingen automatisch geanalyseerd om de inhoud van de webpagina op te halen",
@@ -194,6 +194,26 @@
194
194
  "providerModels.item.modelConfig.deployName.title": "Modelimplementatienaam",
195
195
  "providerModels.item.modelConfig.displayName.placeholder": "Voer de weergavenaam van het model in, bijv. ChatGPT, GPT-4, enz.",
196
196
  "providerModels.item.modelConfig.displayName.title": "Modelweergavenaam",
197
+ "providerModels.item.modelConfig.extendParams.extra": "Kies uitgebreide parameters die door het model worden ondersteund. Beweeg met de muis over een optie om de instellingen te bekijken. Onjuiste configuraties kunnen leiden tot fouten bij het uitvoeren van verzoeken.",
198
+ "providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Voor Claude-modellen; kan kosten verlagen en reacties versnellen.",
199
+ "providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Voor Claude-, DeepSeek- en andere redeneermodellen; activeert diepgaander denken.",
200
+ "providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Voor GPT-5-serie; regelt de intensiteit van het redeneren.",
201
+ "providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Voor GPT-5.1-serie; regelt de intensiteit van het redeneren.",
202
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "Voor GPT-5.2 Pro-serie; regelt de intensiteit van het redeneren.",
203
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "Voor GPT-5.2-serie; regelt de intensiteit van het redeneren.",
204
+ "providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Voor Gemini-afbeeldingsgeneratiemodellen; regelt de beeldverhouding van gegenereerde afbeeldingen.",
205
+ "providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Voor Gemini 3-afbeeldingsgeneratiemodellen; regelt de resolutie van gegenereerde afbeeldingen.",
206
+ "providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Voor Claude, Qwen3 en vergelijkbare modellen; regelt het tokenbudget voor redeneren.",
207
+ "providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "Voor OpenAI en andere redeneermodellen; regelt de inspanning voor redeneren.",
208
+ "providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "Voor GPT-5+-serie; regelt de uitvoerige aard van de output.",
209
+ "providerModels.item.modelConfig.extendParams.options.thinking.hint": "Voor sommige Doubao-modellen; laat het model beslissen of diep nadenken nodig is.",
210
+ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Voor Gemini-serie; regelt het denkbudget.",
211
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Voor Gemini 3 Flash Preview-modellen; regelt de diepgang van het denken.",
212
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Voor Gemini 3 Pro Preview-modellen; regelt de diepgang van het denken.",
213
+ "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Voor Gemini-serie; ondersteunt het aanleveren van URL-context.",
214
+ "providerModels.item.modelConfig.extendParams.placeholder": "Selecteer uit te schakelen uitgebreide parameters",
215
+ "providerModels.item.modelConfig.extendParams.previewFallback": "Voorbeeld niet beschikbaar",
216
+ "providerModels.item.modelConfig.extendParams.title": "Uitgebreide parameters",
197
217
  "providerModels.item.modelConfig.files.extra": "De huidige bestandsupload is een tijdelijke oplossing, beperkt tot eigen experimenten. Wacht op volledige uploadfunctionaliteit in toekomstige versies.",
198
218
  "providerModels.item.modelConfig.files.title": "Ondersteuning voor bestandsupload",
199
219
  "providerModels.item.modelConfig.functionCall.extra": "Deze configuratie stelt het model in staat om tools te gebruiken. Of het model dit daadwerkelijk kan, hangt volledig af van het model zelf. Test dit zelf.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
272
272
  "claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
273
273
  "claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic. In vergelijking met Claude 3 Haiku biedt het verbeterde vaardigheden en overtreft het het vorige topmodel Claude 3 Opus op veel intelligentietests.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic, met verbeterde vaardigheden en betere prestaties dan de vorige vlaggenschip Claude 3 Opus op veel benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze redeneringen tonen die zichtbaar zijn voor gebruikers. Sonnet blinkt uit in programmeren, datawetenschap, visuele taken en agenttoepassingen.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is het intelligentste model van Anthropic en het eerste hybride redeneermodel op de markt, met ondersteuning voor directe reacties of diepgaand denken met nauwkeurige controle.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle prestaties en uitgebreide redeneercapaciteiten.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle reacties en uitgebreide denkvermogens.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze denkprocessen tonen met een zichtbaar verloop.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is tot nu toe het intelligentste model van Anthropic, met directe reacties of stapsgewijs denken en nauwkeurige controle voor API-gebruikers.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
289
289
  "codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.",
@@ -355,6 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 biedt een evenwicht tussen redeneervermogen en outputlengte voor dagelijkse vraag-en-antwoord- en agenttaken. Publieke benchmarks bereiken GPT-5-niveau, en het is het eerste model dat denken integreert in het gebruik van tools, wat leidt tot toonaangevende prestaties in open-source agentbeoordelingen.",
358
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
359
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
360
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
@@ -377,6 +378,7 @@
377
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
378
379
  "deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
379
380
  "deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking is een geavanceerd redeneermodel dat eerst een denkproces genereert voor hogere nauwkeurigheid. Het behaalt topprestaties in competities en redeneert op het niveau van Gemini-3.0-Pro.",
380
382
  "deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
381
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s codegerichte model met sterke codegeneratie.",
382
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
@@ -440,6 +442,35 @@
440
442
  "doubao-vision-lite-32k.description": "Doubao-vision is een multimodaal model van Doubao met sterk beeldbegrip en redenering, plus nauwkeurige instructieopvolging. Het presteert goed bij beeld-tekstextractie en op beeld gebaseerde redeneertaken, waardoor complexere en bredere visuele vraag-en-antwoordscenario's mogelijk zijn.",
441
443
  "doubao-vision-pro-32k.description": "Doubao-vision is een multimodaal model van Doubao met sterk beeldbegrip en redenering, plus nauwkeurige instructieopvolging. Het presteert goed bij beeld-tekstextractie en op beeld gebaseerde redeneertaken, waardoor complexere en bredere visuele vraag-en-antwoordscenario's mogelijk zijn.",
442
444
  "emohaa.description": "Emohaa is een mentaal gezondheidsmodel met professionele begeleidingsvaardigheden om gebruikers te helpen emotionele problemen te begrijpen.",
445
+ "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B is een lichtgewicht open-source model voor lokale en aangepaste implementatie.",
446
+ "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B is een open-source model met veel parameters en verbeterde begrips- en generatiecapaciteiten.",
447
+ "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B is het ultra-grote MoE-model van Baidu ERNIE met uitstekende redeneercapaciteiten.",
448
+ "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview is een previewmodel met 8K context voor het evalueren van ERNIE 4.5.",
449
+ "ernie-4.5-turbo-128k-preview.description": "ERNIE 4.5 Turbo 128K Preview met capaciteiten op productieniveau, geschikt voor integratie en canary-tests.",
450
+ "ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K is een krachtig algemeen model met zoekverrijking en toolgebruik voor vraag-en-antwoord, codering en agenttoepassingen.",
451
+ "ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K is een versie met middellange context voor vraag-en-antwoord, kennisopvraging en meerstapsdialogen.",
452
+ "ernie-4.5-turbo-latest.description": "De nieuwste ERNIE 4.5 Turbo met geoptimaliseerde algehele prestaties, ideaal als primair productiemodel.",
453
+ "ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview is een multimodale preview met 32K context voor het evalueren van visuele capaciteiten op lange termijn.",
454
+ "ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K is een multimodale versie met middellange context voor gecombineerd begrip van lange documenten en afbeeldingen.",
455
+ "ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest is de nieuwste multimodale versie met verbeterd beeld-tekstbegrip en redeneervermogen.",
456
+ "ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview is een multimodaal previewmodel voor beeld-tekstbegrip en -generatie, geschikt voor visuele vraag-en-antwoord en inhoudsbegrip.",
457
+ "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL is een volwassen multimodaal model voor productiegericht beeld-tekstbegrip en herkenning.",
458
+ "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B is een open-source multimodaal model voor beeld-tekstbegrip en redenatie.",
459
+ "ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking is een native full-modale vlaggenschipmodel met geïntegreerde tekst-, beeld-, audio- en videomodellering. Het biedt brede capaciteitsverbeteringen voor complexe vraag-en-antwoord, creatie en agenttoepassingen.",
460
+ "ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview is een native full-modale vlaggenschipmodel met geïntegreerde tekst-, beeld-, audio- en videomodellering. Het biedt brede capaciteitsverbeteringen voor complexe vraag-en-antwoord, creatie en agenttoepassingen.",
461
+ "ernie-char-8k.description": "ERNIE Character 8K is een persoonlijk dialoogmodel voor het opbouwen van IP-personages en langdurige gezelschapschat.",
462
+ "ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview is een previewmodel voor personage- en plotcreatie, bedoeld voor functietests en evaluatie.",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K is een personagegericht model voor romans en plotontwikkeling, geschikt voor het genereren van lange verhalen.",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit is een afbeeldingsbewerkingsmodel dat wissen, herschilderen en variantgeneratie ondersteunt.",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K is een lichtgewicht algemeen model voor kostengevoelige dagelijkse vraag-en-antwoord en inhoudsgeneratie.",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K is een lichtgewicht model met hoge prestaties voor scenario's met lage latentie en kosten.",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K is ontworpen voor lange romans en IP-verhalen met meerdere personages.",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K is een model zonder I/O-kosten voor begrip van lange teksten en grootschalige tests.",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K is een gratis, snel model voor dagelijkse gesprekken en lichte teksttaken.",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K is een model met hoge gelijktijdigheid en hoge waarde voor grootschalige online diensten en zakelijke toepassingen.",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K is een ultralicht model voor eenvoudige vraag-en-antwoord, classificatie en goedkope inferentie.",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is een snel denkend model met 32K context voor complexe redenatie en meerstapsgesprekken.",
473
+ "ernie-x1.1-preview.description": "ERNIE X1.1 Preview is een preview van een denkmodel voor evaluatie en testen.",
443
474
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
444
475
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
445
476
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
@@ -92,6 +92,7 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Geen resultaten",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Lokaal Systeem",
95
+ "builtins.lobe-notebook.actions.collapse": "Samenvouwen",
95
96
  "builtins.lobe-notebook.actions.copy": "Kopiëren",
96
97
  "builtins.lobe-notebook.actions.creating": "Document wordt aangemaakt...",
97
98
  "builtins.lobe-notebook.actions.edit": "Bewerken",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
30
30
  "jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
31
31
  "lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
32
+ "lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
32
33
  "minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
33
34
  "mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
34
35
  "modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",
@@ -33,6 +33,7 @@
33
33
  "agentCronJobs.maxExecutions": "Maximale Uitvoeringen",
34
34
  "agentCronJobs.name": "Taaknaam",
35
35
  "agentCronJobs.never": "Nooit",
36
+ "agentCronJobs.noExecutionResults": "Geen uitvoeringsresultaten",
36
37
  "agentCronJobs.remainingExecutions": "Resterend: {{count}}",
37
38
  "agentCronJobs.save": "Opslaan",
38
39
  "agentCronJobs.schedule": "Schema",
@@ -42,6 +43,7 @@
42
43
  "agentCronJobs.timeRange": "Tijdspanne",
43
44
  "agentCronJobs.title": "Geplande Taken",
44
45
  "agentCronJobs.unlimited": "Onbeperkt",
46
+ "agentCronJobs.unnamedTask": "Naamloze taak",
45
47
  "agentCronJobs.updateSuccess": "Geplande taak succesvol bijgewerkt",
46
48
  "agentCronJobs.weekdays": "Weekdagen",
47
49
  "agentInfoDescription.basic.avatar": "Avatar",
@@ -63,6 +63,7 @@
63
63
  "extendParams.reasoningEffort.title": "Intensywność rozumowania",
64
64
  "extendParams.textVerbosity.title": "Poziom szczegółowości tekstu",
65
65
  "extendParams.thinking.title": "Przełącznik głębokiego myślenia",
66
+ "extendParams.thinkingBudget.title": "Budżet na przemyślenia",
66
67
  "extendParams.thinkingLevel.title": "Poziom myślenia",
67
68
  "extendParams.title": "Funkcje rozszerzenia modelu",
68
69
  "extendParams.urlContext.desc": "Po włączeniu, linki internetowe będą automatycznie analizowane w celu pobrania treści strony",
@@ -194,6 +194,26 @@
194
194
  "providerModels.item.modelConfig.deployName.title": "Nazwa wdrożenia modelu",
195
195
  "providerModels.item.modelConfig.displayName.placeholder": "Wprowadź nazwę wyświetlaną modelu, np. ChatGPT, GPT-4 itp.",
196
196
  "providerModels.item.modelConfig.displayName.title": "Nazwa wyświetlana modelu",
197
+ "providerModels.item.modelConfig.extendParams.extra": "Wybierz rozszerzone parametry obsługiwane przez model. Najedź kursorem na opcję, aby zobaczyć podgląd ustawień. Nieprawidłowa konfiguracja może spowodować błędy żądania.",
198
+ "providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Dla modeli Claude; może obniżyć koszty i przyspieszyć odpowiedzi.",
199
+ "providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Dla modeli Claude, DeepSeek i innych wspierających rozumowanie; odblokowuje głębsze myślenie.",
200
+ "providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Dla serii GPT-5; kontroluje intensywność rozumowania.",
201
+ "providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Dla serii GPT-5.1; kontroluje intensywność rozumowania.",
202
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "Dla serii GPT-5.2 Pro; kontroluje intensywność rozumowania.",
203
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "Dla serii GPT-5.2; kontroluje intensywność rozumowania.",
204
+ "providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Dla modeli generujących obrazy Gemini; kontroluje proporcje generowanych obrazów.",
205
+ "providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Dla modeli generujących obrazy Gemini 3; kontroluje rozdzielczość generowanych obrazów.",
206
+ "providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Dla modeli Claude, Qwen3 i podobnych; kontroluje budżet tokenów na rozumowanie.",
207
+ "providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "Dla modeli OpenAI i innych wspierających rozumowanie; kontroluje nakład rozumowania.",
208
+ "providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "Dla serii GPT-5+; kontroluje szczegółowość odpowiedzi.",
209
+ "providerModels.item.modelConfig.extendParams.options.thinking.hint": "Dla niektórych modeli Doubao; pozwala modelowi zdecydować, czy myśleć głębiej.",
210
+ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Dla serii Gemini; kontroluje budżet na myślenie.",
211
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Dla modeli Gemini 3 Flash Preview; kontroluje głębokość myślenia.",
212
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Dla modeli Gemini 3 Pro Preview; kontroluje głębokość myślenia.",
213
+ "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Dla serii Gemini; umożliwia podanie kontekstu w postaci adresu URL.",
214
+ "providerModels.item.modelConfig.extendParams.placeholder": "Wybierz parametry rozszerzone do włączenia",
215
+ "providerModels.item.modelConfig.extendParams.previewFallback": "Podgląd niedostępny",
216
+ "providerModels.item.modelConfig.extendParams.title": "Parametry rozszerzone",
197
217
  "providerModels.item.modelConfig.files.extra": "Obecna implementacja przesyłania plików to tymczasowe rozwiązanie, ograniczone do testów własnych. Pełna funkcjonalność zostanie dodana w przyszłości.",
198
218
  "providerModels.item.modelConfig.files.title": "Obsługa przesyłania plików",
199
219
  "providerModels.item.modelConfig.functionCall.extra": "Ta konfiguracja umożliwia modelowi korzystanie z narzędzi. Jednak faktyczna możliwość ich użycia zależy od samego modelu – przetestuj samodzielnie.",