@lobehub/lobehub 2.0.0-next.338 → 2.0.0-next.339

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (257) hide show
  1. package/.gitattributes +35 -0
  2. package/CHANGELOG.md +44 -0
  3. package/changelog/v1.json +15 -0
  4. package/locales/ar/plugin.json +12 -2
  5. package/locales/ar/providers.json +1 -0
  6. package/locales/ar/setting.json +77 -1
  7. package/locales/bg-BG/models.json +5 -10
  8. package/locales/bg-BG/plugin.json +12 -2
  9. package/locales/bg-BG/providers.json +1 -0
  10. package/locales/bg-BG/setting.json +78 -2
  11. package/locales/de-DE/models.json +51 -9
  12. package/locales/de-DE/plugin.json +12 -2
  13. package/locales/de-DE/providers.json +1 -0
  14. package/locales/de-DE/setting.json +78 -2
  15. package/locales/en-US/models.json +11 -10
  16. package/locales/en-US/plugin.json +14 -4
  17. package/locales/en-US/providers.json +1 -0
  18. package/locales/en-US/setting.json +78 -2
  19. package/locales/es-ES/plugin.json +12 -2
  20. package/locales/es-ES/providers.json +1 -0
  21. package/locales/es-ES/setting.json +78 -2
  22. package/locales/fa-IR/plugin.json +12 -2
  23. package/locales/fa-IR/providers.json +1 -0
  24. package/locales/fa-IR/setting.json +78 -2
  25. package/locales/fr-FR/plugin.json +12 -2
  26. package/locales/fr-FR/providers.json +1 -0
  27. package/locales/fr-FR/setting.json +78 -2
  28. package/locales/it-IT/plugin.json +12 -2
  29. package/locales/it-IT/providers.json +1 -0
  30. package/locales/it-IT/setting.json +78 -2
  31. package/locales/ja-JP/plugin.json +12 -2
  32. package/locales/ja-JP/providers.json +1 -0
  33. package/locales/ja-JP/setting.json +78 -2
  34. package/locales/ko-KR/plugin.json +12 -2
  35. package/locales/ko-KR/providers.json +1 -0
  36. package/locales/ko-KR/setting.json +78 -2
  37. package/locales/nl-NL/models.json +4 -9
  38. package/locales/nl-NL/plugin.json +12 -2
  39. package/locales/nl-NL/providers.json +1 -0
  40. package/locales/nl-NL/setting.json +78 -2
  41. package/locales/pl-PL/plugin.json +12 -2
  42. package/locales/pl-PL/providers.json +1 -0
  43. package/locales/pl-PL/setting.json +78 -2
  44. package/locales/pt-BR/plugin.json +12 -2
  45. package/locales/pt-BR/providers.json +1 -0
  46. package/locales/pt-BR/setting.json +78 -2
  47. package/locales/ru-RU/plugin.json +12 -2
  48. package/locales/ru-RU/providers.json +1 -0
  49. package/locales/ru-RU/setting.json +78 -2
  50. package/locales/tr-TR/plugin.json +12 -2
  51. package/locales/tr-TR/providers.json +1 -0
  52. package/locales/tr-TR/setting.json +78 -2
  53. package/locales/vi-VN/plugin.json +12 -2
  54. package/locales/vi-VN/providers.json +1 -0
  55. package/locales/vi-VN/setting.json +77 -1
  56. package/locales/zh-CN/plugin.json +12 -2
  57. package/locales/zh-CN/providers.json +1 -0
  58. package/locales/zh-CN/setting.json +78 -2
  59. package/locales/zh-TW/plugin.json +12 -2
  60. package/locales/zh-TW/providers.json +1 -0
  61. package/locales/zh-TW/setting.json +78 -2
  62. package/package.json +1 -1
  63. package/packages/agent-runtime/src/groupOrchestration/GroupOrchestrationSupervisor.ts +2 -0
  64. package/packages/agent-runtime/src/groupOrchestration/__tests__/GroupOrchestrationSupervisor.test.ts +3 -1
  65. package/packages/agent-runtime/src/groupOrchestration/types.ts +5 -0
  66. package/packages/const/src/index.ts +1 -0
  67. package/packages/const/src/klavis.ts +144 -0
  68. package/packages/const/src/lobehubSkill.ts +34 -0
  69. package/packages/const/src/recommendedSkill.ts +17 -0
  70. package/packages/model-runtime/src/core/contextBuilders/anthropic.test.ts +38 -0
  71. package/packages/model-runtime/src/core/contextBuilders/anthropic.ts +20 -1
  72. package/packages/model-runtime/src/core/contextBuilders/google.test.ts +42 -0
  73. package/packages/model-runtime/src/core/contextBuilders/google.ts +17 -0
  74. package/scripts/electronWorkflow/modifiers/dynamicToStatic.mts +273 -0
  75. package/scripts/electronWorkflow/modifiers/index.mts +10 -0
  76. package/scripts/electronWorkflow/modifiers/nextConfig.mts +1 -0
  77. package/scripts/electronWorkflow/modifiers/nextDynamicToStatic.mts +233 -0
  78. package/scripts/electronWorkflow/modifiers/removeSuspense.mts +124 -0
  79. package/scripts/electronWorkflow/modifiers/routes.mts +14 -2
  80. package/scripts/electronWorkflow/modifiers/settingsContentToStatic.mts +148 -0
  81. package/scripts/electronWorkflow/modifiers/wrapChildrenWithClientOnly.mts +73 -0
  82. package/src/app/[variants]/(main)/home/features/InputArea/SkillInstallBanner.tsx +131 -0
  83. package/src/app/[variants]/(main)/home/features/InputArea/index.tsx +34 -27
  84. package/src/app/[variants]/(main)/settings/features/SettingHeader.tsx +8 -4
  85. package/src/app/[variants]/(main)/settings/features/SettingsContent.tsx +3 -0
  86. package/src/app/[variants]/(main)/settings/hooks/useCategory.tsx +6 -0
  87. package/src/{features/PluginStore/InstalledList/List/Item/Action.tsx → app/[variants]/(main)/settings/skill/features/Actions.tsx} +45 -40
  88. package/src/app/[variants]/(main)/settings/skill/features/KlavisSkillItem.tsx +353 -0
  89. package/src/app/[variants]/(main)/settings/skill/features/LobehubSkillItem.tsx +344 -0
  90. package/src/app/[variants]/(main)/settings/skill/features/McpSkillItem.tsx +116 -0
  91. package/src/app/[variants]/(main)/settings/skill/features/SkillList.tsx +244 -0
  92. package/src/app/[variants]/(main)/settings/skill/index.tsx +35 -0
  93. package/src/components/Plugins/PluginTag.tsx +23 -35
  94. package/src/components/client/ClientOnly.tsx +6 -2
  95. package/src/features/AgentSetting/AgentPlugin/index.tsx +2 -2
  96. package/src/features/ChatInput/ActionBar/Tools/KlavisServerItem.tsx +8 -32
  97. package/src/features/ChatInput/ActionBar/Tools/LobehubSkillServerItem.tsx +8 -30
  98. package/src/features/ChatInput/ActionBar/Tools/PopoverContent.tsx +48 -59
  99. package/src/features/ChatInput/ActionBar/Tools/index.tsx +5 -23
  100. package/src/features/ChatInput/ActionBar/Tools/useControls.tsx +158 -56
  101. package/src/features/IntegrationDetailModal/index.tsx +293 -0
  102. package/src/features/{PluginStore/McpList/Detail → MCP/MCPDetail}/index.tsx +15 -6
  103. package/src/features/MCP/MCPSettings/McpSettingsModal.tsx +58 -0
  104. package/src/features/{PluginStore/McpList/Detail/Settings → MCP/MCPSettings}/index.tsx +39 -27
  105. package/src/features/PluginDetailModal/index.tsx +2 -2
  106. package/src/features/PluginDevModal/index.tsx +16 -40
  107. package/src/features/ProfileEditor/AgentTool.tsx +2 -2
  108. package/src/features/ProtocolUrlHandler/InstallPlugin/OfficialPluginInstallModal/index.tsx +1 -1
  109. package/src/features/{PluginStore/AddPluginButton.tsx → SkillStore/AddSkillButton.tsx} +3 -3
  110. package/src/features/SkillStore/CommunityList/Item.tsx +158 -0
  111. package/src/features/SkillStore/CommunityList/index.tsx +101 -0
  112. package/src/features/SkillStore/Content.tsx +59 -0
  113. package/src/features/{PluginStore/PluginEmpty.tsx → SkillStore/Empty.tsx} +8 -8
  114. package/src/features/SkillStore/LobeHubList/Item.tsx +118 -0
  115. package/src/features/SkillStore/LobeHubList/index.tsx +187 -0
  116. package/src/features/SkillStore/LobeHubList/useSkillConnect.ts +239 -0
  117. package/src/features/SkillStore/Search/index.tsx +43 -0
  118. package/src/features/{PluginStore → SkillStore}/index.tsx +14 -10
  119. package/src/features/SkillStore/style.ts +27 -0
  120. package/src/locales/default/plugin.ts +15 -4
  121. package/src/locales/default/setting.ts +185 -2
  122. package/src/services/chat/mecha/agentConfigResolver.test.ts +197 -0
  123. package/src/services/chat/mecha/agentConfigResolver.ts +44 -17
  124. package/src/store/chat/agents/GroupOrchestration/createGroupOrchestrationExecutors.ts +40 -37
  125. package/src/store/chat/slices/aiChat/actions/__tests__/streamingExecutor.test.ts +78 -0
  126. package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +50 -16
  127. package/src/store/global/initialState.ts +1 -0
  128. package/src/store/tool/slices/lobehubSkillStore/action.test.ts +914 -0
  129. package/src/store/tool/slices/lobehubSkillStore/selectors.test.ts +548 -0
  130. package/.cursor/skills/vercel-react-best-practices/AGENTS.md +0 -2410
  131. package/.cursor/skills/vercel-react-best-practices/SKILL.md +0 -125
  132. package/.cursor/skills/vercel-react-best-practices/rules/advanced-event-handler-refs.md +0 -55
  133. package/.cursor/skills/vercel-react-best-practices/rules/advanced-use-latest.md +0 -49
  134. package/.cursor/skills/vercel-react-best-practices/rules/async-api-routes.md +0 -38
  135. package/.cursor/skills/vercel-react-best-practices/rules/async-defer-await.md +0 -80
  136. package/.cursor/skills/vercel-react-best-practices/rules/async-dependencies.md +0 -36
  137. package/.cursor/skills/vercel-react-best-practices/rules/async-parallel.md +0 -28
  138. package/.cursor/skills/vercel-react-best-practices/rules/async-suspense-boundaries.md +0 -99
  139. package/.cursor/skills/vercel-react-best-practices/rules/bundle-barrel-imports.md +0 -59
  140. package/.cursor/skills/vercel-react-best-practices/rules/bundle-conditional.md +0 -31
  141. package/.cursor/skills/vercel-react-best-practices/rules/bundle-defer-third-party.md +0 -49
  142. package/.cursor/skills/vercel-react-best-practices/rules/bundle-dynamic-imports.md +0 -35
  143. package/.cursor/skills/vercel-react-best-practices/rules/bundle-preload.md +0 -50
  144. package/.cursor/skills/vercel-react-best-practices/rules/client-event-listeners.md +0 -74
  145. package/.cursor/skills/vercel-react-best-practices/rules/client-localstorage-schema.md +0 -71
  146. package/.cursor/skills/vercel-react-best-practices/rules/client-passive-event-listeners.md +0 -48
  147. package/.cursor/skills/vercel-react-best-practices/rules/client-swr-dedup.md +0 -56
  148. package/.cursor/skills/vercel-react-best-practices/rules/js-batch-dom-css.md +0 -57
  149. package/.cursor/skills/vercel-react-best-practices/rules/js-cache-function-results.md +0 -80
  150. package/.cursor/skills/vercel-react-best-practices/rules/js-cache-property-access.md +0 -28
  151. package/.cursor/skills/vercel-react-best-practices/rules/js-cache-storage.md +0 -70
  152. package/.cursor/skills/vercel-react-best-practices/rules/js-combine-iterations.md +0 -32
  153. package/.cursor/skills/vercel-react-best-practices/rules/js-early-exit.md +0 -50
  154. package/.cursor/skills/vercel-react-best-practices/rules/js-hoist-regexp.md +0 -45
  155. package/.cursor/skills/vercel-react-best-practices/rules/js-index-maps.md +0 -37
  156. package/.cursor/skills/vercel-react-best-practices/rules/js-length-check-first.md +0 -49
  157. package/.cursor/skills/vercel-react-best-practices/rules/js-min-max-loop.md +0 -82
  158. package/.cursor/skills/vercel-react-best-practices/rules/js-set-map-lookups.md +0 -24
  159. package/.cursor/skills/vercel-react-best-practices/rules/js-tosorted-immutable.md +0 -57
  160. package/.cursor/skills/vercel-react-best-practices/rules/rendering-activity.md +0 -26
  161. package/.cursor/skills/vercel-react-best-practices/rules/rendering-animate-svg-wrapper.md +0 -47
  162. package/.cursor/skills/vercel-react-best-practices/rules/rendering-conditional-render.md +0 -40
  163. package/.cursor/skills/vercel-react-best-practices/rules/rendering-content-visibility.md +0 -38
  164. package/.cursor/skills/vercel-react-best-practices/rules/rendering-hoist-jsx.md +0 -46
  165. package/.cursor/skills/vercel-react-best-practices/rules/rendering-hydration-no-flicker.md +0 -82
  166. package/.cursor/skills/vercel-react-best-practices/rules/rendering-svg-precision.md +0 -28
  167. package/.cursor/skills/vercel-react-best-practices/rules/rerender-defer-reads.md +0 -39
  168. package/.cursor/skills/vercel-react-best-practices/rules/rerender-dependencies.md +0 -45
  169. package/.cursor/skills/vercel-react-best-practices/rules/rerender-derived-state.md +0 -29
  170. package/.cursor/skills/vercel-react-best-practices/rules/rerender-functional-setstate.md +0 -74
  171. package/.cursor/skills/vercel-react-best-practices/rules/rerender-lazy-state-init.md +0 -58
  172. package/.cursor/skills/vercel-react-best-practices/rules/rerender-memo.md +0 -44
  173. package/.cursor/skills/vercel-react-best-practices/rules/rerender-transitions.md +0 -40
  174. package/.cursor/skills/vercel-react-best-practices/rules/server-after-nonblocking.md +0 -73
  175. package/.cursor/skills/vercel-react-best-practices/rules/server-cache-lru.md +0 -41
  176. package/.cursor/skills/vercel-react-best-practices/rules/server-cache-react.md +0 -76
  177. package/.cursor/skills/vercel-react-best-practices/rules/server-parallel-fetching.md +0 -83
  178. package/.cursor/skills/vercel-react-best-practices/rules/server-serialization.md +0 -38
  179. package/src/features/PluginStore/Content.tsx +0 -54
  180. package/src/features/PluginStore/InstalledList/Detail/CustomPluginEmptyState.tsx +0 -79
  181. package/src/features/PluginStore/InstalledList/Detail/index.tsx +0 -21
  182. package/src/features/PluginStore/InstalledList/List/Item/index.tsx +0 -61
  183. package/src/features/PluginStore/InstalledList/List/index.tsx +0 -72
  184. package/src/features/PluginStore/InstalledList/index.tsx +0 -90
  185. package/src/features/PluginStore/McpList/List/Action.tsx +0 -119
  186. package/src/features/PluginStore/McpList/List/Item.tsx +0 -83
  187. package/src/features/PluginStore/McpList/List/index.tsx +0 -93
  188. package/src/features/PluginStore/McpList/index.tsx +0 -58
  189. package/src/features/PluginStore/PluginList/Detail/DetailProvider.tsx +0 -19
  190. package/src/features/PluginStore/PluginList/Detail/EmptyState.tsx +0 -56
  191. package/src/features/PluginStore/PluginList/Detail/Header.tsx +0 -130
  192. package/src/features/PluginStore/PluginList/Detail/InstallDetail/Nav.tsx +0 -73
  193. package/src/features/PluginStore/PluginList/Detail/InstallDetail/Settings.tsx +0 -19
  194. package/src/features/PluginStore/PluginList/Detail/InstallDetail/Tools.tsx +0 -111
  195. package/src/features/PluginStore/PluginList/Detail/InstallDetail/index.tsx +0 -24
  196. package/src/features/PluginStore/PluginList/Detail/Loading.tsx +0 -42
  197. package/src/features/PluginStore/PluginList/Detail/TagList.tsx +0 -35
  198. package/src/features/PluginStore/PluginList/Detail/index.tsx +0 -39
  199. package/src/features/PluginStore/PluginList/Detail/useCategory.tsx +0 -76
  200. package/src/features/PluginStore/PluginList/List/Action.tsx +0 -78
  201. package/src/features/PluginStore/PluginList/List/Item.tsx +0 -92
  202. package/src/features/PluginStore/PluginList/List/index.tsx +0 -94
  203. package/src/features/PluginStore/PluginList/index.tsx +0 -46
  204. package/src/features/PluginStore/Search/index.tsx +0 -40
  205. /package/{.codex/skills → .agents}/vercel-react-best-practices/AGENTS.md +0 -0
  206. /package/{.codex/skills → .agents}/vercel-react-best-practices/SKILL.md +0 -0
  207. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/advanced-event-handler-refs.md +0 -0
  208. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/advanced-use-latest.md +0 -0
  209. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/async-api-routes.md +0 -0
  210. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/async-defer-await.md +0 -0
  211. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/async-dependencies.md +0 -0
  212. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/async-parallel.md +0 -0
  213. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/async-suspense-boundaries.md +0 -0
  214. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/bundle-barrel-imports.md +0 -0
  215. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/bundle-conditional.md +0 -0
  216. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/bundle-defer-third-party.md +0 -0
  217. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/bundle-dynamic-imports.md +0 -0
  218. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/bundle-preload.md +0 -0
  219. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/client-event-listeners.md +0 -0
  220. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/client-localstorage-schema.md +0 -0
  221. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/client-passive-event-listeners.md +0 -0
  222. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/client-swr-dedup.md +0 -0
  223. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/js-batch-dom-css.md +0 -0
  224. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/js-cache-function-results.md +0 -0
  225. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/js-cache-property-access.md +0 -0
  226. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/js-cache-storage.md +0 -0
  227. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/js-combine-iterations.md +0 -0
  228. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/js-early-exit.md +0 -0
  229. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/js-hoist-regexp.md +0 -0
  230. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/js-index-maps.md +0 -0
  231. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/js-length-check-first.md +0 -0
  232. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/js-min-max-loop.md +0 -0
  233. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/js-set-map-lookups.md +0 -0
  234. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/js-tosorted-immutable.md +0 -0
  235. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/rendering-activity.md +0 -0
  236. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/rendering-animate-svg-wrapper.md +0 -0
  237. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/rendering-conditional-render.md +0 -0
  238. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/rendering-content-visibility.md +0 -0
  239. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/rendering-hoist-jsx.md +0 -0
  240. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/rendering-hydration-no-flicker.md +0 -0
  241. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/rendering-svg-precision.md +0 -0
  242. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/rerender-defer-reads.md +0 -0
  243. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/rerender-dependencies.md +0 -0
  244. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/rerender-derived-state.md +0 -0
  245. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/rerender-functional-setstate.md +0 -0
  246. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/rerender-lazy-state-init.md +0 -0
  247. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/rerender-memo.md +0 -0
  248. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/rerender-transitions.md +0 -0
  249. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/server-after-nonblocking.md +0 -0
  250. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/server-cache-lru.md +0 -0
  251. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/server-cache-react.md +0 -0
  252. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/server-parallel-fetching.md +0 -0
  253. /package/{.codex/skills → .agents}/vercel-react-best-practices/rules/server-serialization.md +0 -0
  254. /package/src/{features/PluginStore/InstalledList → app/[variants]/(main)/settings/skill/features}/EditCustomPlugin.tsx +0 -0
  255. /package/src/features/{PluginStore/McpList/Detail → MCP/MCPDetail}/Loading.tsx +0 -0
  256. /package/src/features/{PluginStore → SkillStore}/Loading.tsx +0 -0
  257. /package/src/features/{PluginStore → SkillStore}/VirtuosoLoading.tsx +0 -0
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
272
272
  "claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
273
273
  "claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku bietet es verbesserte Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic und verbessert sich in vielen Bereichen, wobei es das bisherige Flaggschiff Claude 3 Opus in zahlreichen Benchmarks übertrifft.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste hybride Reasoning-Modell auf dem Markt. Es liefert nahezu sofortige Antworten oder schrittweise Denkprozesse, die für Nutzer sichtbar sind. Sonnet ist besonders stark in den Bereichen Programmierung, Data Science, Bildverarbeitung und Agentenaufgaben.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 ist das intelligenteste Modell von Anthropic und das erste Hybrid-Reasoning-Modell auf dem Markt. Es ermöglicht nahezu sofortige Antworten oder tiefgreifendes Denken mit präziser Steuerung.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – blitzschnell und mit erweitertem Denkvermögen.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch herausragende Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 liefert nahezu sofortige Antworten oder nachvollziehbares, schrittweises Denken mit sichtbarem Denkprozess.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 ist das bisher intelligenteste Modell von Anthropic. Es bietet nahezu sofortige Antworten oder schrittweises Denken mit feingranularer Steuerung für API-Nutzer.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
289
289
  "codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
358
- "deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Programmierfähigkeiten kombiniert. Es bewahrt den Dialogstil des Chat-Modells und die starke Codierungsleistung des Coder-Modells mit besserer Präferenzanpassung. DeepSeek-V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 balanciert logisches Denken und Ausgabelänge für tägliche Frage-Antwort- und Agentenaufgaben. Öffentliche Benchmarks erreichen GPT-5-Niveau. Es ist das erste Modell, das Denken in die Werkzeugnutzung integriert und führt Open-Source-Agentenbewertungen an.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche – kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche – bietet stärkeres Verständnis und bessere Generierung.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
381
- "deepseek-reasoner.description": "Der Denkmodus DeepSeek V3.2 gibt vor der finalen Antwort eine Gedankenkette aus, um die Genauigkeit zu erhöhen.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking ist ein Modell für tiefes logisches Denken, das vor der Ausgabe eine Gedankenkette generiert, um die Genauigkeit zu erhöhen. Es erzielt Spitzenwerte im Wettbewerb und bietet ein Denkvermögen vergleichbar mit Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
@@ -472,7 +472,8 @@
472
472
  "ernie-tiny-8k.description": "ERNIE Tiny 8K ist ein ultra-leichtgewichtiges Modell für einfache Frage-Antwort-Aufgaben, Klassifikation und kostengünstige Inferenz.",
473
473
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
474
474
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
475
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig steuerbare, qualitativ hochwertige Bildgenerierung ermöglicht. Es erstellt Bilder aus Texteingaben.",
475
+ "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, entwickelt vom Seed-Team von ByteDance, unterstützt die Bearbeitung und Komposition mehrerer Bilder. Es bietet verbesserte Subjektkonsistenz, präzise Befolgung von Anweisungen, räumliches Logikverständnis, ästhetischen Ausdruck, Poster-Layout und Logo-Design mit hochpräziser Text-Bild-Darstellung.",
476
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für eine hochgradig kontrollierbare, qualitativ hochwertige Bildgenerierung aus Prompts.",
476
477
  "fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
477
478
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
478
479
  "fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.",
@@ -480,8 +481,8 @@
480
481
  "fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
481
482
  "fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
482
483
  "fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.",
483
- "fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen unterstützt, chinesischen und englischen Text präzise editiert und hochwertige Bearbeitungen wie Stilübertragungen und Objektrotationen ermöglicht.",
484
- "fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
484
+ "fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen, präzise Textbearbeitung in Chinesisch/Englisch, Stilübertragungen, Drehungen und mehr unterstützt.",
485
+ "fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit starker chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
485
486
  "flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 1–4 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.",
486
487
  "flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.",
487
488
  "flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
@@ -732,6 +733,47 @@
732
733
  "meta/llama-3.3-70b.description": "Ein perfektes Gleichgewicht zwischen Leistung und Effizienz. Entwickelt für leistungsstarke Konversations-KI in der Inhaltserstellung, Unternehmensanwendungen und Forschung – mit starker Sprachverarbeitung für Zusammenfassungen, Klassifikation, Sentimentanalyse und Codegenerierung.",
733
734
  "meta/llama-4-maverick.description": "Die Llama-4-Familie ist eine native multimodale KI-Modellreihe, die Text- und Multimodalerlebnisse unterstützt. Sie nutzt MoE für führendes Text- und Bildverständnis. Llama 4 Maverick ist ein 17B-Modell mit 128 Experten, bereitgestellt von DeepInfra.",
734
735
  "meta/llama-4-scout.description": "Die Llama-4-Familie ist eine native multimodale KI-Modellreihe, die Text- und Multimodalerlebnisse unterstützt. Sie nutzt MoE für führendes Text- und Bildverständnis. Llama 4 Scout ist ein 17B-Modell mit 16 Experten, bereitgestellt von DeepInfra.",
736
+ "microsoft/Phi-3-medium-128k-instruct.description": "Dasselbe Phi-3-medium-Modell mit erweitertem Kontextfenster für RAG- oder Few-Shot-Prompts.",
737
+ "microsoft/Phi-3-medium-4k-instruct.description": "Ein Modell mit 14 Milliarden Parametern, das qualitativ hochwertiger ist als Phi-3-mini und sich auf datenintensive Aufgaben mit starkem logischen Denken konzentriert.",
738
+ "microsoft/Phi-3-mini-128k-instruct.description": "Dasselbe Phi-3-mini-Modell mit erweitertem Kontextfenster für RAG- oder Few-Shot-Prompts.",
739
+ "microsoft/Phi-3-mini-4k-instruct.description": "Das kleinste Mitglied der Phi-3-Familie, optimiert für Qualität und geringe Latenz.",
740
+ "microsoft/Phi-3-small-128k-instruct.description": "Dasselbe Phi-3-small-Modell mit erweitertem Kontextfenster für RAG- oder Few-Shot-Prompts.",
741
+ "microsoft/Phi-3-small-8k-instruct.description": "Ein Modell mit 7 Milliarden Parametern, das qualitativ hochwertiger ist als Phi-3-mini und sich auf datenintensive Aufgaben mit starkem logischen Denken konzentriert.",
742
+ "microsoft/Phi-3.5-mini-instruct.description": "Eine aktualisierte Version des Phi-3-mini-Modells.",
743
+ "microsoft/Phi-3.5-vision-instruct.description": "Eine aktualisierte Version des Phi-3-vision-Modells.",
744
+ "microsoft/WizardLM-2-8x22B.description": "WizardLM 2 ist ein Sprachmodell von Microsoft AI, das sich durch komplexe Dialoge, mehrsprachige Aufgaben, logisches Denken und Assistenzfunktionen auszeichnet.",
745
+ "microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B ist das fortschrittlichste Wizard-Modell von Microsoft AI mit hochkompetitiver Leistung.",
746
+ "mimo-v2-flash.description": "MiMo-V2-Flash: Ein effizientes Modell für logisches Denken, Programmierung und Agenten-Grundlagen.",
747
+ "minicpm-v.description": "MiniCPM-V ist das nächste multimodale Modell von OpenBMB mit exzellenter OCR- und multimodaler Verständnisleistung für vielfältige Anwendungsfälle.",
748
+ "minimax-m2.1.description": "MiniMax-M2.1 ist die neueste Version der MiniMax-Serie, optimiert für mehrsprachige Programmierung und komplexe Aufgaben in der realen Welt. Als AI-natives Modell bietet es deutliche Verbesserungen in der Modellleistung, Unterstützung von Agenten-Frameworks und Anpassung an verschiedene Szenarien – mit dem Ziel, Unternehmen und Einzelpersonen schneller zu einem AI-nativen Arbeits- und Lebensstil zu verhelfen.",
749
+ "minimax-m2.description": "MiniMax M2 ist ein effizientes großes Sprachmodell, das speziell für Programmierung und Agenten-Workflows entwickelt wurde.",
750
+ "minimax/minimax-m2.1.description": "MiniMax-M2.1 ist ein leichtgewichtiges, hochmodernes großes Sprachmodell, optimiert für Programmierung, Proxy-Workflows und moderne Anwendungsentwicklung. Es liefert klarere, prägnantere Ausgaben und schnellere Reaktionszeiten.",
751
+ "minimax/minimax-m2.description": "MiniMax-M2 ist ein leistungsstarkes Modell, das sich in vielen technischen Szenarien bei Programmier- und Agentenaufgaben bewährt.",
752
+ "minimaxai/minimax-m2.description": "MiniMax-M2 ist ein kompaktes, schnelles und kosteneffizientes MoE-Modell (230B gesamt, 10B aktiv), das für erstklassige Programmier- und Agentenleistung entwickelt wurde und gleichzeitig starke allgemeine Intelligenz beibehält. Es glänzt bei Mehrdatei-Bearbeitungen, Code-Ausführen-Korrigieren-Schleifen, Testvalidierung und komplexen Toolchains.",
753
+ "ministral-3b-latest.description": "Ministral 3B ist das Spitzenmodell von Mistral für Edge-Anwendungen.",
754
+ "ministral-8b-latest.description": "Ministral 8B ist ein äußerst kosteneffizientes Edge-Modell von Mistral.",
755
+ "mistral-ai/Mistral-Large-2411.description": "Das Flaggschiffmodell von Mistral für komplexe Aufgaben, die groß angelegtes logisches Denken oder Spezialisierung erfordern (synthetische Textgenerierung, Codegenerierung, RAG oder Agenten).",
756
+ "mistral-ai/Mistral-Nemo.description": "Mistral Nemo ist ein hochmodernes LLM mit erstklassigem logischen Denken, Weltwissen und Programmierfähigkeiten für seine Modellgröße.",
757
+ "mistral-ai/mistral-small-2503.description": "Mistral Small eignet sich für alle sprachbasierten Aufgaben, die hohe Effizienz und geringe Latenz erfordern.",
758
+ "mistral-large-instruct.description": "Mistral-Large-Instruct-2407 ist ein fortschrittliches dichtes LLM mit 123 Milliarden Parametern und modernstem logischen Denken, Wissen und Programmierfähigkeiten.",
759
+ "mistral-large-latest.description": "Mistral Large ist das Flaggschiffmodell, stark in mehrsprachigen Aufgaben, komplexem logischen Denken und Codegenerierung – ideal für anspruchsvolle Anwendungen.",
760
+ "mistral-large.description": "Mixtral Large ist das Flaggschiffmodell von Mistral, das Codegenerierung, Mathematik und logisches Denken mit einem Kontextfenster von 128K kombiniert.",
761
+ "mistral-medium-latest.description": "Mistral Medium 3 bietet modernste Leistung bei achtfach geringeren Kosten und vereinfacht die Unternehmensbereitstellung.",
762
+ "mistral-nemo-instruct.description": "Mistral-Nemo-Instruct-2407 ist die instruktionstaugliche Version von Mistral-Nemo-Base-2407.",
763
+ "mistral-nemo.description": "Mistral Nemo ist ein hocheffizientes 12B-Modell von Mistral AI und NVIDIA.",
764
+ "mistral-small-latest.description": "Mistral Small ist eine kosteneffiziente, schnelle und zuverlässige Option für Übersetzung, Zusammenfassung und Sentimentanalyse.",
765
+ "mistral-small.description": "Mistral Small eignet sich für alle sprachbasierten Aufgaben, die hohe Effizienz und geringe Latenz erfordern.",
766
+ "mistral.description": "Mistral ist das 7B-Modell von Mistral AI, geeignet für vielfältige Sprachaufgaben.",
767
+ "mistral/codestral-embed.description": "Ein Code-Embedding-Modell zur Einbettung von Codebasen und Repositories zur Unterstützung von Programmierassistenten.",
768
+ "mistral/codestral.description": "Mistral Codestral 25.01 ist ein hochmodernes Programmiermodell, optimiert für geringe Latenz und häufige Nutzung. Es unterstützt über 80 Sprachen und glänzt bei FIM, Codekorrektur und Testgenerierung.",
769
+ "mistral/devstral-small.description": "Devstral ist ein agentenbasiertes LLM für Softwareentwicklungsaufgaben und eine starke Wahl für Software-Engineering-Agenten.",
770
+ "mistral/magistral-medium.description": "Komplexes Denken unterstützt durch tiefes Verständnis mit nachvollziehbarem logischen Denken. Es bewahrt hochpräzises logisches Denken über Sprachgrenzen hinweg, selbst mitten in Aufgaben.",
771
+ "mistral/magistral-small.description": "Komplexes Denken unterstützt durch tiefes Verständnis mit nachvollziehbarem logischen Denken. Es bewahrt hochpräzises logisches Denken über Sprachgrenzen hinweg, selbst mitten in Aufgaben.",
772
+ "mistral/ministral-3b.description": "Ein kompaktes, effizientes Modell für On-Device-Aufgaben wie Assistenten und lokale Analysen mit geringer Latenz.",
773
+ "mistral/ministral-8b.description": "Ein leistungsstärkeres Modell mit schneller, speichereffizienter Inferenz – ideal für komplexe Workflows und anspruchsvolle Edge-Anwendungen.",
774
+ "mistral/mistral-embed.description": "Ein allgemeines Text-Embedding-Modell für semantische Suche, Ähnlichkeitsanalyse, Clustering und RAG-Workflows.",
775
+ "mistral/mistral-large.description": "Mistral Large ist ideal für komplexe Aufgaben, die starkes logisches Denken oder Spezialisierung erfordern – etwa synthetische Textgenerierung, Codegenerierung, RAG oder Agenten.",
776
+ "mistral/mistral-small.description": "Mistral Small ist ideal für einfache, stapelbare Aufgaben wie Klassifikation, Kundensupport oder Textgenerierung und bietet starke Leistung zu einem erschwinglichen Preis.",
735
777
  "moonshot-v1-128k-vision-preview.description": "Kimi Vision-Modelle (einschließlich moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) können Bildinhalte wie Text, Farben und Objektformen verstehen.",
736
778
  "moonshot-v1-128k.description": "Moonshot V1 128K bietet einen extrem langen Kontext für die Generierung sehr langer Texte und verarbeitet bis zu 128.000 Tokens – ideal für Forschung, akademische Arbeiten und Szenarien mit umfangreichen Dokumenten.",
737
779
  "moonshot-v1-32k-vision-preview.description": "Kimi Vision-Modelle (einschließlich moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) können Bildinhalte wie Text, Farben und Objektformen verstehen.",
@@ -210,9 +210,9 @@
210
210
  "dev.deleteSuccess": "Skill gelöscht",
211
211
  "dev.manifest.identifier.desc": "Eindeutige Kennung für den Skill",
212
212
  "dev.manifest.identifier.label": "Kennung",
213
+ "dev.manifest.mode.claude": "Claude-Funktion",
214
+ "dev.manifest.mode.claudeWip": "Demnächst verfügbar",
213
215
  "dev.manifest.mode.mcp": "MCP",
214
- "dev.manifest.mode.mcpExp": "Experimentell",
215
- "dev.manifest.mode.url": "Online-URL",
216
216
  "dev.manifest.name.desc": "Skill-Titel",
217
217
  "dev.manifest.name.label": "Titel",
218
218
  "dev.manifest.name.placeholder": "Suchmaschine",
@@ -319,6 +319,9 @@
319
319
  "dev.tabs.meta": "Metadaten",
320
320
  "dev.title.create": "Benutzerdefinierten Skill hinzufügen",
321
321
  "dev.title.edit": "Benutzerdefinierten Skill bearbeiten",
322
+ "dev.title.editCommunity": "Community-Funktion bearbeiten",
323
+ "dev.title.skillDetails": "Funktionsdetails",
324
+ "dev.title.skillSettings": "Funktionseinstellungen",
322
325
  "dev.type.lobe": "{{appName}} Skill",
323
326
  "dev.type.openai": "OpenAI Skill",
324
327
  "dev.update": "Aktualisieren",
@@ -341,6 +344,11 @@
341
344
  "inspector.delete": "Aufruf löschen",
342
345
  "inspector.orphanedToolCall": "Verwaister Skill-Aufruf erkannt, kann die Agentenausführung beeinträchtigen. Entfernen.",
343
346
  "inspector.pluginRender": "Skill-UI anzeigen",
347
+ "integrationDetail.author": "Autor",
348
+ "integrationDetail.details": "Einzelheiten",
349
+ "integrationDetail.developedBy": "Entwickelt von",
350
+ "integrationDetail.tools": "Werkzeuge",
351
+ "integrationDetail.trustWarning": "Verwenden Sie nur Konnektoren von Entwicklern, denen Sie vertrauen. LobeHub kontrolliert nicht, welche Werkzeuge von Entwicklern bereitgestellt werden, und kann nicht garantieren, dass diese wie beabsichtigt funktionieren oder sich nicht ändern.",
344
352
  "list.item.deprecated.title": "Gelöscht",
345
353
  "list.item.local.config": "Konfiguration",
346
354
  "list.item.local.title": "Benutzerdefiniert",
@@ -480,7 +488,9 @@
480
488
  "settings.saveSettings": "Speichern",
481
489
  "settings.title": "Skill-Community-Einstellungen",
482
490
  "showInPortal": "Details im Workspace anzeigen",
491
+ "skillInstallBanner.title": "Funktionen zu Lobe AI hinzufügen",
483
492
  "store.actions.cancel": "Abbrechen",
493
+ "store.actions.configure": "Konfigurieren",
484
494
  "store.actions.confirmUninstall": "Durch Deinstallation wird die Skill-Konfiguration gelöscht. Fortfahren?",
485
495
  "store.actions.detail": "Details",
486
496
  "store.actions.install": "Installieren",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle – mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.",
30
30
  "jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
31
31
  "lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
32
+ "lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.",
32
33
  "minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
33
34
  "mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung – inklusive Funktionsaufrufen für individuelle Integrationen.",
34
35
  "modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.",
@@ -96,7 +96,7 @@
96
96
  "defaultAgent.model.desc": "Standardmodell beim Erstellen eines neuen Agenten",
97
97
  "defaultAgent.model.title": "Modell",
98
98
  "defaultAgent.title": "Standard-Agenteneinstellungen",
99
- "group.aiConfig": "Modell",
99
+ "group.aiConfig": "Agent",
100
100
  "group.common": "Allgemein",
101
101
  "group.profile": "Konto",
102
102
  "group.subscription": "Abonnement",
@@ -471,6 +471,14 @@
471
471
  "settingTTS.voice.desc": "Stimme für den aktuellen Agenten auswählen – je nach Dienst unterschiedlich",
472
472
  "settingTTS.voice.preview": "Stimmvorschau",
473
473
  "settingTTS.voice.title": "Text-zu-Sprache-Stimme",
474
+ "skillStore.button": "Skill-Store",
475
+ "skillStore.empty": "Durchstöbern Sie den Skill-Store. Installieren Sie einen Skill, um loszulegen – weitere können später hinzugefügt werden.",
476
+ "skillStore.emptySearch": "Keine passenden Skills gefunden",
477
+ "skillStore.networkError": "Netzwerkfehler, bitte versuchen Sie es erneut",
478
+ "skillStore.search": "Skills nach Name oder Stichwort suchen, drücken Sie Enter zum Suchen…",
479
+ "skillStore.tabs.community": "Community",
480
+ "skillStore.tabs.lobehub": "LobeHub",
481
+ "skillStore.title": "Skill-Store",
474
482
  "startConversation": "Konversation starten",
475
483
  "storage.actions.export.button": "Exportieren",
476
484
  "storage.actions.export.exportType.agent": "Agenteneinstellungen exportieren",
@@ -543,6 +551,7 @@
543
551
  "systemAgent.translation.modelDesc": "Modell zur Übersetzung",
544
552
  "systemAgent.translation.title": "Übersetzungsagent",
545
553
  "tab.about": "Über",
554
+ "tab.addCustomSkill": "Benutzerdefinierten Skill hinzufügen",
546
555
  "tab.agent": "Agentendienst",
547
556
  "tab.apikey": "API-Schlüsselverwaltung",
548
557
  "tab.chatAppearance": "Chat-Darstellung",
@@ -556,6 +565,12 @@
556
565
  "tab.provider": "KI-Dienstanbieter",
557
566
  "tab.proxy": "Netzwerk-Proxy",
558
567
  "tab.security": "Sicherheit",
568
+ "tab.skill": "Fähigkeitenverwaltung",
569
+ "tab.skillDesc": "Verwalten Sie Ihre verbundenen Fähigkeiten und Integrationen",
570
+ "tab.skillDetail": "Fähigkeitsdetails",
571
+ "tab.skillEmpty": "Noch keine Fähigkeiten verbunden",
572
+ "tab.skillInstalled": "Installierte Fähigkeiten",
573
+ "tab.skillIntegration": "Integration",
559
574
  "tab.stats": "Analytik",
560
575
  "tab.storage": "Datenspeicherung",
561
576
  "tab.sync": "Cloud-Synchronisation",
@@ -568,7 +583,10 @@
568
583
  "tools.klavis.authCompleted": "Authentifizierung abgeschlossen",
569
584
  "tools.klavis.authFailed": "Authentifizierung fehlgeschlagen",
570
585
  "tools.klavis.authRequired": "Authentifizierung erforderlich",
586
+ "tools.klavis.connect": "Verbinden",
571
587
  "tools.klavis.connected": "Verbunden",
588
+ "tools.klavis.disconnect": "Trennen",
589
+ "tools.klavis.disconnected": "Getrennt",
572
590
  "tools.klavis.error": "Fehler",
573
591
  "tools.klavis.groupName": "Klavis-Werkzeuge",
574
592
  "tools.klavis.manage": "Klavis verwalten",
@@ -581,17 +599,75 @@
581
599
  "tools.klavis.serverCreatedFailed": "Servererstellung fehlgeschlagen",
582
600
  "tools.klavis.serverRemoved": "Server entfernt",
583
601
  "tools.klavis.servers": "Server",
602
+ "tools.klavis.servers.airtable.description": "Airtable ist eine cloudbasierte Datenbank- und Tabellenplattform, die die Flexibilität einer Tabelle mit der Leistungsfähigkeit einer Datenbank kombiniert. Teams können damit Projekte organisieren, verfolgen und gemeinsam bearbeiten – mit anpassbaren Ansichten und leistungsstarken Automatisierungsfunktionen.",
603
+ "tools.klavis.servers.airtable.introduction": "Integrieren Sie Airtable, um Ihre Datenbanken und Workflows zu verwalten. Abfragen durchführen, Einträge erstellen, Daten aktualisieren und Abläufe automatisieren – mit anpassbaren Ansichten und leistungsstarkem Tracking.",
604
+ "tools.klavis.servers.cal-com.description": "Cal.com ist eine Open-Source-Terminplanungsplattform, die es ermöglicht, Meetings ohne lästigen E-Mail-Austausch zu vereinbaren. Verwalten Sie Ereignistypen, Buchungen, Verfügbarkeiten und integrieren Sie Kalender für eine nahtlose Terminplanung.",
605
+ "tools.klavis.servers.cal-com.introduction": "Verbinden Sie sich mit Cal.com, um Ihre Terminplanung zu verwalten. Verfügbarkeit anzeigen, Meetings buchen, Ereignistypen verwalten und Ihren Kalender per natürlicher Sprache automatisieren.",
606
+ "tools.klavis.servers.clickup.description": "ClickUp ist eine umfassende Plattform für Projektmanagement und Produktivität, die Teams hilft, Aufgaben zu organisieren, Projekte zu verwalten und effektiv zusammenzuarbeiten – mit anpassbaren Workflows und leistungsstarkem Tracking.",
607
+ "tools.klavis.servers.clickup.introduction": "Verbinden Sie sich mit ClickUp, um Aufgaben zu verwalten, Projekte zu verfolgen und Ihre Arbeit zu organisieren. Aufgaben erstellen, Status aktualisieren, Workflows anpassen und im Team per natürlicher Sprache zusammenarbeiten.",
608
+ "tools.klavis.servers.confluence.description": "Confluence ist ein Teamarbeitsbereich, in dem Wissen und Zusammenarbeit zusammenkommen.",
609
+ "tools.klavis.servers.confluence.introduction": "Verbinden Sie sich mit Confluence, um Teamdokumentationen zu verwalten. Seiten durchsuchen, Inhalte erstellen, Bereiche organisieren und Ihre Wissensdatenbank mit KI-Unterstützung aufbauen.",
610
+ "tools.klavis.servers.dropbox.description": "Umfassende Dateiverwaltungslösung für Dropbox-Cloudspeicher. Dateien und Ordner hochladen, herunterladen, organisieren, Freigaben verwalten, Versionen kontrollieren, Dateianfragen erstellen und Massenoperationen durchführen.",
611
+ "tools.klavis.servers.dropbox.introduction": "Integrieren Sie Dropbox, um auf Ihre Dateien zuzugreifen und sie zu verwalten. Dateien hochladen, herunterladen, teilen, Ordner organisieren, Versionen verwalten – alles per KI-gestützter Konversation.",
612
+ "tools.klavis.servers.figma.description": "Figma ist ein kollaboratives Design-Tool für Web- und Mobile-Anwendungen.",
613
+ "tools.klavis.servers.figma.introduction": "Verbinden Sie sich mit Figma, um auf Design-Dateien zuzugreifen und gemeinsam an Projekten zu arbeiten. Designs anzeigen, Assets exportieren, Komponenten durchsuchen und Ihren Design-Workflow per natürlicher Sprache steuern.",
614
+ "tools.klavis.servers.github.description": "Erweiterter GitHub-MCP-Server",
615
+ "tools.klavis.servers.github.introduction": "Verbinden Sie sich mit GitHub, um Repositories, Issues, Pull Requests und Code zu verwalten. Code durchsuchen, Änderungen prüfen, Branches erstellen und Softwareprojekte per Konversation entwickeln.",
616
+ "tools.klavis.servers.gmail.description": "Gmail ist ein kostenloser E-Mail-Dienst von Google.",
617
+ "tools.klavis.servers.gmail.introduction": "Nutzen Sie die Funktionen von Gmail direkt in Ihrem KI-Assistenten. E-Mails lesen, verfassen und senden, Posteingang durchsuchen, Labels verwalten und Ihre Kommunikation per natürlicher Sprache organisieren.",
618
+ "tools.klavis.servers.google-calendar.description": "Google Kalender ist ein Dienst zur Zeitplanung und Terminverwaltung.",
619
+ "tools.klavis.servers.google-calendar.introduction": "Integrieren Sie Google Kalender, um Ihre Termine nahtlos zu verwalten. Meetings planen, Erinnerungen setzen, Verfügbarkeiten prüfen und Ihre Zeit per Sprachbefehl koordinieren.",
620
+ "tools.klavis.servers.google-docs.description": "Google Docs ist ein Textverarbeitungsprogramm, das Teil der kostenlosen, webbasierten Google Docs Editors Suite ist.",
621
+ "tools.klavis.servers.google-docs.introduction": "Integrieren Sie Google Docs, um Dokumente zu erstellen, zu bearbeiten und zu verwalten. Inhalte schreiben, Text formatieren, in Echtzeit zusammenarbeiten und per Konversation auf Ihre Dokumente zugreifen.",
622
+ "tools.klavis.servers.google-drive.description": "Google Drive ist ein Cloud-Speicherdienst.",
623
+ "tools.klavis.servers.google-drive.introduction": "Verbinden Sie sich mit Google Drive, um Ihre Dateien zu verwalten. Dokumente durchsuchen, Dateien hochladen, Inhalte teilen und Ihre Cloud effizient per KI organisieren.",
624
+ "tools.klavis.servers.google-sheets.description": "Google Sheets ist eine webbasierte Tabellenkalkulation, mit der Nutzer Tabellen online erstellen, bearbeiten und gemeinsam nutzen können.",
625
+ "tools.klavis.servers.google-sheets.introduction": "Verbinden Sie sich mit Google Sheets, um Daten zu lesen, zu schreiben und zu analysieren. Berechnungen durchführen, Berichte erstellen, Diagramme generieren und Tabellen gemeinsam mit KI verwalten.",
626
+ "tools.klavis.servers.hubspot.description": "HubSpot entwickelt Softwareprodukte für Inbound-Marketing, Vertrieb und Kundenservice.",
627
+ "tools.klavis.servers.hubspot.introduction": "Integrieren Sie HubSpot, um Kontakte, Deals und Marketingkampagnen zu verwalten. Auf CRM-Daten zugreifen, Pipelines verfolgen, Workflows automatisieren und Ihre Vertriebs- und Marketingprozesse optimieren.",
628
+ "tools.klavis.servers.jira.description": "Jira ist ein Projektmanagement- und Issue-Tracking-Tool von Atlassian.",
629
+ "tools.klavis.servers.jira.introduction": "Integrieren Sie Jira, um Aufgaben zu verwalten, Fortschritte zu verfolgen und Sprints zu organisieren. Tickets erstellen, Status aktualisieren, Projektdaten abfragen und Ihre Entwicklung per Konversation steuern.",
630
+ "tools.klavis.servers.notion.description": "Notion ist eine kollaborative Produktivitäts- und Notiz-App.",
631
+ "tools.klavis.servers.notion.introduction": "Verbinden Sie sich mit Notion, um Ihren Arbeitsbereich zu verwalten. Seiten erstellen, Inhalte durchsuchen, Datenbanken aktualisieren und Ihr Wissen per KI organisieren.",
632
+ "tools.klavis.servers.onedrive.description": "OneDrive ist ein Datei-Hosting- und Synchronisierungsdienst von Microsoft.",
633
+ "tools.klavis.servers.onedrive.introduction": "Verbinden Sie sich mit OneDrive, um auf Ihre Microsoft-Cloud-Dateien zuzugreifen. Dateien hochladen, herunterladen, teilen, Ordner organisieren und Dokumente per KI bearbeiten.",
634
+ "tools.klavis.servers.outlook-mail.description": "Outlook Mail ist eine webbasierte Suite für E-Mail, Kontakte, Aufgaben und Kalenderdienste von Microsoft.",
635
+ "tools.klavis.servers.outlook-mail.introduction": "Integrieren Sie Outlook Mail, um Ihre Microsoft-E-Mails zu lesen, zu senden und zu verwalten. Nachrichten durchsuchen, E-Mails verfassen, Ordner verwalten und Ihr Postfach per Konversation organisieren.",
636
+ "tools.klavis.servers.salesforce.description": "Salesforce ist die weltweit führende CRM-Plattform, die Unternehmen hilft, mit Kunden, Partnern und Interessenten in Kontakt zu treten.",
637
+ "tools.klavis.servers.salesforce.introduction": "Verbinden Sie sich mit Salesforce, um Kundenbeziehungen und Vertriebsdaten zu verwalten. Datensätze abfragen, Chancen aktualisieren, Leads verfolgen und Ihre CRM-Prozesse per Sprachbefehl automatisieren.",
638
+ "tools.klavis.servers.slack.description": "Slack ist eine Business-Messaging-App, die Menschen mit den Informationen verbindet, die sie benötigen.",
639
+ "tools.klavis.servers.slack.introduction": "Integrieren Sie Slack, um Nachrichten zu senden, Konversationen zu durchsuchen und Kanäle zu verwalten. Mit Ihrem Team kommunizieren, Workflows automatisieren und Informationen per natürlicher Sprache abrufen.",
640
+ "tools.klavis.servers.supabase.description": "Offizieller Supabase-MCP-Server",
641
+ "tools.klavis.servers.supabase.introduction": "Integrieren Sie Supabase, um Ihre Datenbank- und Backend-Dienste zu verwalten. Daten abfragen, Authentifizierung verwalten, Speicher nutzen und mit Ihrem Backend per Konversation interagieren.",
642
+ "tools.klavis.servers.whatsapp.description": "WhatsApp Business API-Integration zum Versenden von Textnachrichten, Medien und zur Verwaltung von Kundengesprächen. Ideal für Kundenservice, Marketingkampagnen und automatisierte Nachrichtenabläufe über die offizielle WhatsApp Business-Plattform.",
643
+ "tools.klavis.servers.whatsapp.introduction": "Integrieren Sie WhatsApp Business, um Nachrichten zu senden, Gespräche zu verwalten und mit Kunden zu interagieren. Nachrichtenabläufe automatisieren und Kommunikation per KI steuern.",
644
+ "tools.klavis.servers.youtube.description": "YouTube ist eine Video-Plattform, auf der Nutzer Inhalte hochladen, teilen und entdecken können. Greifen Sie programmatisch auf Videoinformationen, Transkripte und Metadaten zu.",
645
+ "tools.klavis.servers.youtube.introduction": "Verbinden Sie sich mit YouTube, um Videos zu suchen, Transkripte abzurufen und Informationen zu analysieren. Inhalte analysieren, Metadaten extrahieren und Videos per Konversation entdecken.",
646
+ "tools.klavis.servers.zendesk.description": "Zendesk ist ein Unternehmen für Kundenservice-Software.",
647
+ "tools.klavis.servers.zendesk.introduction": "Integrieren Sie Zendesk, um Support-Tickets und Kundeninteraktionen zu verwalten. Anfragen erstellen, aktualisieren, verfolgen, Kundendaten abrufen und Ihren Support optimieren.",
584
648
  "tools.klavis.tools": "Werkzeuge",
585
649
  "tools.klavis.verifyAuth": "Ich habe die Authentifizierung abgeschlossen",
586
650
  "tools.lobehubSkill.authorize": "Autorisieren",
587
651
  "tools.lobehubSkill.connect": "Verbinden",
652
+ "tools.lobehubSkill.connected": "Verbunden",
653
+ "tools.lobehubSkill.disconnect": "Trennen",
654
+ "tools.lobehubSkill.disconnectConfirm.desc": "Sie können weiterhin frühere Chats mit Inhalten von {{name}} fortsetzen. Der Assistent hat jedoch keinen Zugriff mehr auf neue Inhalte oder kann keine neuen Aufgaben ausführen.",
655
+ "tools.lobehubSkill.disconnectConfirm.title": "{{name}} trennen?",
656
+ "tools.lobehubSkill.disconnected": "Getrennt",
588
657
  "tools.lobehubSkill.error": "Fehler",
658
+ "tools.lobehubSkill.providers.linear.description": "Linear ist ein modernes Tool zur Aufgabenverfolgung und Projektverwaltung, das für leistungsstarke Teams entwickelt wurde, um bessere Software schneller zu entwickeln.",
659
+ "tools.lobehubSkill.providers.linear.introduction": "Nutzen Sie die Funktionen von Linear direkt in Ihrem KI-Assistenten. Aufgaben erstellen und aktualisieren, Sprints verwalten, Projektfortschritte verfolgen und Ihre Entwicklung per Konversation optimieren.",
660
+ "tools.lobehubSkill.providers.microsoft.description": "Outlook Kalender ist ein integriertes Planungstool in Microsoft Outlook, mit dem Nutzer Termine erstellen, Meetings organisieren und ihre Zeit effektiv verwalten können.",
661
+ "tools.lobehubSkill.providers.microsoft.introduction": "Integrieren Sie Outlook Kalender, um Ihre Termine nahtlos zu verwalten. Meetings planen, Verfügbarkeiten prüfen, Erinnerungen setzen und Ihre Zeit per Sprachbefehl koordinieren.",
662
+ "tools.lobehubSkill.providers.twitter.description": "X (ehemals Twitter) ist eine Social-Media-Plattform für Echtzeit-Updates, Nachrichten und Interaktion mit Ihrem Publikum über Beiträge, Antworten und Direktnachrichten.",
663
+ "tools.lobehubSkill.providers.twitter.introduction": "Verbinden Sie sich mit X (Twitter), um Tweets zu posten, Ihre Timeline zu verwalten und mit Ihrem Publikum zu interagieren. Inhalte erstellen, Beiträge planen, Erwähnungen überwachen und Ihre Social-Media-Präsenz per Konversation aufbauen.",
589
664
  "tools.notInstalled": "Nicht installiert",
590
665
  "tools.notInstalledWarning": "Diese Fähigkeit ist derzeit nicht installiert, was die Funktionalität des Agenten beeinträchtigen kann.",
591
666
  "tools.plugins.enabled": "Aktiviert: {{num}}",
592
667
  "tools.plugins.groupName": "Fähigkeiten",
668
+ "tools.plugins.management": "Fähigkeitenverwaltung",
593
669
  "tools.plugins.noEnabled": "Keine Fähigkeiten aktiviert",
594
- "tools.plugins.store": "Fähigkeiten-Store",
670
+ "tools.plugins.store": "Fähigkeit hinzufügen",
595
671
  "tools.tabs.all": "Alle",
596
672
  "tools.tabs.installed": "Aktiviert",
597
673
  "tools.title": "Erweiterungswerkzeuge"
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
272
272
  "claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
273
273
  "claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the prior largest model Claude 3 Opus on many intelligence benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model, improving across skills and surpassing the previous flagship Claude 3 Opus on many benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropic’s most intelligent model and the first hybrid reasoning model on the market. It can produce near-instant responses or extended step-by-step reasoning that users can see. Sonnet is especially strong at coding, data science, vision, and agent tasks.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is Anthropic’s most intelligent model and the first hybrid reasoning model on the market, supporting near-instant responses or extended thinking with fine-grained control.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic’s most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
289
289
  "codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
358
- "deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat model’s general dialogue and the coder model’s strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
@@ -472,7 +472,8 @@
472
472
  "ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
473
473
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
474
474
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
475
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
475
+ "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, built by ByteDance Seed team, supports multi-image editing and composition. Features enhanced subject consistency, precise instruction following, spatial logic understanding, aesthetic expression, poster layout and logo design with high-precision text-image rendering.",
476
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
476
477
  "fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
477
478
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
478
479
  "fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
@@ -480,8 +481,8 @@
480
481
  "fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
481
482
  "fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
482
483
  "fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
483
- "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
484
- "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
484
+ "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
485
+ "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
485
486
  "flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
486
487
  "flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
487
488
  "flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
@@ -210,9 +210,9 @@
210
210
  "dev.deleteSuccess": "Skill deleted",
211
211
  "dev.manifest.identifier.desc": "Unique identifier for the Skill",
212
212
  "dev.manifest.identifier.label": "Identifier",
213
+ "dev.manifest.mode.claude": "Claude Skill",
214
+ "dev.manifest.mode.claudeWip": "Coming Soon",
213
215
  "dev.manifest.mode.mcp": "MCP",
214
- "dev.manifest.mode.mcpExp": "Experimental",
215
- "dev.manifest.mode.url": "Online URL",
216
216
  "dev.manifest.name.desc": "Skill title",
217
217
  "dev.manifest.name.label": "Title",
218
218
  "dev.manifest.name.placeholder": "Search engine",
@@ -317,8 +317,11 @@
317
317
  "dev.saveSuccess": "Settings saved",
318
318
  "dev.tabs.manifest": "Manifest",
319
319
  "dev.tabs.meta": "Meta info",
320
- "dev.title.create": "Add custom Skill",
321
- "dev.title.edit": "Edit custom Skill",
320
+ "dev.title.create": "Add Custom Skill",
321
+ "dev.title.edit": "Edit Custom Skill",
322
+ "dev.title.editCommunity": "Edit Community Skill",
323
+ "dev.title.skillDetails": "Skill Details",
324
+ "dev.title.skillSettings": "Skill Settings",
322
325
  "dev.type.lobe": "{{appName}} Skill",
323
326
  "dev.type.openai": "OpenAI Skill",
324
327
  "dev.update": "Update",
@@ -341,6 +344,11 @@
341
344
  "inspector.delete": "Delete call",
342
345
  "inspector.orphanedToolCall": "Orphaned Skill call detected, may affect Agent execution. Remove it.",
343
346
  "inspector.pluginRender": "View Skill UI",
347
+ "integrationDetail.author": "Author",
348
+ "integrationDetail.details": "Details",
349
+ "integrationDetail.developedBy": "Developed by",
350
+ "integrationDetail.tools": "Tools",
351
+ "integrationDetail.trustWarning": "Only use connectors from developers you trust. LobeHub does not control which tools developers make available and cannot verify that they will work as intended or that they won't change.",
344
352
  "list.item.deprecated.title": "Deleted",
345
353
  "list.item.local.config": "Config",
346
354
  "list.item.local.title": "Custom",
@@ -480,7 +488,9 @@
480
488
  "settings.saveSettings": "Save",
481
489
  "settings.title": "Skill community settings",
482
490
  "showInPortal": "View details in Workspace",
491
+ "skillInstallBanner.title": "Add skills to Lobe AI",
483
492
  "store.actions.cancel": "Cancel",
493
+ "store.actions.configure": "Configure",
484
494
  "store.actions.confirmUninstall": "Uninstalling will clear Skill config. Continue?",
485
495
  "store.actions.detail": "Details",
486
496
  "store.actions.install": "Install",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
30
30
  "jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
31
31
  "lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
32
+ "lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
32
33
  "minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
33
34
  "mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
34
35
  "modelscope.description": "ModelScope is Alibaba Cloud’s model-as-a-service platform, offering a wide range of AI models and inference services.",