@lobehub/lobehub 2.0.0-next.187 → 2.0.0-next.189
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/e2e/CLAUDE.md +109 -2
- package/e2e/docs/llm-mock.md +68 -0
- package/e2e/docs/local-setup.md +354 -0
- package/e2e/docs/testing-tips.md +94 -0
- package/e2e/src/features/journeys/agent/agent-conversation.feature +0 -32
- package/e2e/src/mocks/llm/index.ts +6 -6
- package/e2e/src/steps/agent/conversation.steps.ts +3 -471
- package/locales/ar/models.json +89 -5
- package/locales/ar/plugin.json +5 -0
- package/locales/ar/providers.json +1 -0
- package/locales/bg-BG/models.json +68 -0
- package/locales/bg-BG/plugin.json +5 -0
- package/locales/bg-BG/providers.json +1 -0
- package/locales/de-DE/models.json +85 -0
- package/locales/de-DE/plugin.json +5 -0
- package/locales/de-DE/providers.json +1 -0
- package/locales/en-US/models.json +11 -10
- package/locales/en-US/plugin.json +5 -0
- package/locales/en-US/providers.json +1 -0
- package/locales/es-ES/models.json +72 -0
- package/locales/es-ES/plugin.json +5 -0
- package/locales/es-ES/providers.json +1 -0
- package/locales/fa-IR/models.json +86 -0
- package/locales/fa-IR/plugin.json +5 -0
- package/locales/fa-IR/providers.json +1 -0
- package/locales/fr-FR/models.json +49 -0
- package/locales/fr-FR/plugin.json +5 -0
- package/locales/fr-FR/providers.json +1 -0
- package/locales/it-IT/models.json +82 -0
- package/locales/it-IT/plugin.json +5 -0
- package/locales/it-IT/providers.json +1 -0
- package/locales/ja-JP/models.json +42 -5
- package/locales/ja-JP/plugin.json +5 -0
- package/locales/ja-JP/providers.json +1 -0
- package/locales/ko-KR/models.json +54 -0
- package/locales/ko-KR/plugin.json +5 -0
- package/locales/ko-KR/providers.json +1 -0
- package/locales/nl-NL/models.json +12 -1
- package/locales/nl-NL/plugin.json +5 -0
- package/locales/nl-NL/providers.json +1 -0
- package/locales/pl-PL/models.json +46 -0
- package/locales/pl-PL/plugin.json +5 -0
- package/locales/pl-PL/providers.json +1 -0
- package/locales/pt-BR/models.json +59 -0
- package/locales/pt-BR/plugin.json +5 -0
- package/locales/pt-BR/providers.json +1 -0
- package/locales/ru-RU/models.json +85 -0
- package/locales/ru-RU/plugin.json +5 -0
- package/locales/ru-RU/providers.json +1 -0
- package/locales/tr-TR/models.json +81 -0
- package/locales/tr-TR/plugin.json +5 -0
- package/locales/tr-TR/providers.json +1 -0
- package/locales/vi-VN/models.json +54 -0
- package/locales/vi-VN/plugin.json +5 -0
- package/locales/vi-VN/providers.json +1 -0
- package/locales/zh-CN/models.json +42 -5
- package/locales/zh-CN/plugin.json +5 -0
- package/locales/zh-CN/providers.json +1 -0
- package/locales/zh-TW/models.json +85 -0
- package/locales/zh-TW/plugin.json +5 -0
- package/locales/zh-TW/providers.json +1 -0
- package/package.json +2 -2
- package/packages/builtin-tool-gtd/src/manifest.ts +13 -8
- package/packages/builtin-tool-gtd/src/systemRole.ts +54 -19
- package/packages/builtin-tool-knowledge-base/package.json +1 -0
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/ReadKnowledge/index.tsx +97 -0
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/SearchKnowledgeBase/index.tsx +75 -0
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/index.ts +11 -0
- package/packages/builtin-tool-knowledge-base/src/client/Render/ReadKnowledge/FileCard.tsx +12 -12
- package/packages/builtin-tool-knowledge-base/src/client/Render/ReadKnowledge/index.tsx +16 -25
- package/packages/builtin-tool-knowledge-base/src/client/Render/SearchKnowledgeBase/Item/index.tsx +21 -47
- package/packages/builtin-tool-knowledge-base/src/client/Render/SearchKnowledgeBase/index.tsx +19 -31
- package/packages/builtin-tool-knowledge-base/src/client/Render/index.ts +0 -5
- package/packages/builtin-tool-knowledge-base/src/client/index.ts +5 -1
- package/packages/builtin-tool-knowledge-base/src/executor/index.ts +119 -0
- package/packages/builtin-tool-local-system/package.json +1 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/EditLocalFile/index.tsx +44 -29
- package/packages/builtin-tool-local-system/src/client/Inspector/GrepContent/index.tsx +20 -18
- package/packages/builtin-tool-local-system/src/client/Inspector/ListLocalFiles/index.tsx +76 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/ReadLocalFile/index.tsx +8 -32
- package/packages/builtin-tool-local-system/src/client/Inspector/RenameLocalFile/index.tsx +62 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/SearchLocalFiles/index.tsx +17 -11
- package/packages/builtin-tool-local-system/src/client/Inspector/WriteLocalFile/index.tsx +61 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/index.ts +6 -0
- package/packages/builtin-tool-local-system/src/client/Render/EditLocalFile/index.tsx +6 -1
- package/packages/builtin-tool-local-system/src/client/Render/SearchFiles/SearchQuery/SearchView.tsx +19 -31
- package/packages/builtin-tool-local-system/src/client/Render/SearchFiles/SearchQuery/index.tsx +2 -42
- package/packages/builtin-tool-local-system/src/client/Render/index.ts +0 -2
- package/packages/builtin-tool-local-system/src/client/components/FilePathDisplay.tsx +56 -0
- package/packages/builtin-tool-local-system/src/client/components/index.ts +2 -0
- package/packages/builtin-tool-local-system/src/executor/index.ts +435 -0
- package/packages/builtin-tool-web-browsing/src/client/Inspector/Search/index.tsx +32 -5
- package/packages/model-runtime/src/core/contextBuilders/google.test.ts +84 -0
- package/packages/model-runtime/src/core/contextBuilders/google.ts +37 -1
- package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/List/Item/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/List/Item/index.tsx +23 -29
- package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/List/Item/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/index.tsx +10 -18
- package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/community/(detail)/assistant/features/Sidebar/ActionButton/AddAgent.tsx +47 -27
- package/src/app/[variants]/(main)/community/(detail)/user/features/UserAgentCard.tsx +4 -3
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/List/Item/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/List/Item/index.tsx +23 -29
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/List/Item/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/index.tsx +10 -18
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/TopicSelector.tsx +18 -20
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentGroupItem/index.tsx +19 -25
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentItem/index.tsx +21 -26
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/Item/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/Item/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/home/_layout/Body/Project/List/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/home/_layout/Body/Project/List/Item.tsx +8 -15
- package/src/app/[variants]/(main)/home/_layout/Body/Project/List/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/home/_layout/Header/components/AddButton.tsx +3 -4
- package/src/app/[variants]/(main)/page/_layout/Body/List/Item/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/page/_layout/Body/List/Item/index.tsx +13 -20
- package/src/app/[variants]/(main)/page/_layout/Body/List/Item/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/resource/(home)/_layout/Body/LibraryList/List/Item/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/resource/(home)/_layout/Body/LibraryList/List/Item/index.tsx +16 -23
- package/src/app/[variants]/(main)/resource/(home)/_layout/Body/LibraryList/List/Item/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/resource/library/_layout/Header/LibraryHead.tsx +4 -6
- package/src/features/AgentBuilder/TopicSelector.tsx +18 -17
- package/src/features/Conversation/ChatItem/style.ts +7 -0
- package/src/features/Conversation/Messages/Assistant/Actions/Error.tsx +1 -3
- package/src/features/Conversation/Messages/Assistant/Actions/index.tsx +37 -16
- package/src/features/Conversation/Messages/AssistantGroup/Actions/index.tsx +36 -17
- package/src/features/Conversation/Messages/Supervisor/Actions/index.tsx +36 -17
- package/src/features/Conversation/Messages/Task/Actions/Error.tsx +1 -3
- package/src/features/Conversation/Messages/Task/Actions/index.tsx +31 -15
- package/src/features/Conversation/Messages/User/Actions/index.tsx +1 -1
- package/src/features/Conversation/Messages/index.tsx +8 -59
- package/src/features/Conversation/components/ShareMessageModal/index.tsx +1 -1
- package/src/features/Conversation/hooks/useChatItemContextMenu.tsx +313 -83
- package/src/features/NavPanel/components/NavItem.tsx +33 -3
- package/src/features/PageEditor/Copilot/TopicSelector/Actions.tsx +6 -14
- package/src/features/PageEditor/Copilot/TopicSelector/TopicItem.tsx +1 -0
- package/src/features/PageEditor/Copilot/TopicSelector/useDropdownMenu.tsx +6 -3
- package/src/features/ResourceManager/components/Explorer/ItemDropdown/DropdownMenu.tsx +12 -35
- package/src/features/ResourceManager/components/Explorer/ItemDropdown/useFileItemDropdown.tsx +4 -8
- package/src/features/ResourceManager/components/Explorer/ListView/ListItem/index.tsx +162 -160
- package/src/features/ResourceManager/components/Explorer/MasonryView/MasonryFileItem/index.tsx +16 -8
- package/src/features/ResourceManager/components/Explorer/ToolBar/ActionIconWithChevron.tsx +4 -3
- package/src/features/ResourceManager/components/Explorer/ToolBar/BatchActionsDropdown.tsx +6 -12
- package/src/features/ResourceManager/components/Explorer/ToolBar/SortDropdown.tsx +8 -8
- package/src/features/ResourceManager/components/Explorer/ToolBar/ViewSwitcher.tsx +8 -11
- package/src/features/ResourceManager/components/Tree/index.tsx +121 -122
- package/src/helpers/toolEngineering/index.ts +1 -1
- package/src/layout/GlobalProvider/index.tsx +5 -2
- package/src/locales/default/plugin.ts +6 -0
- package/src/server/modules/Mecha/AgentToolsEngine/__tests__/index.test.ts +1 -1
- package/src/server/modules/Mecha/AgentToolsEngine/index.ts +1 -1
- package/src/store/chat/slices/builtinTool/actions/index.ts +1 -11
- package/src/store/tool/slices/builtin/executors/index.ts +4 -0
- package/src/styles/global.ts +6 -0
- package/src/styles/text.ts +1 -1
- package/src/tools/executionRuntimes.ts +3 -8
- package/src/tools/identifiers.ts +1 -1
- package/src/tools/index.ts +1 -1
- package/src/tools/inspectors.ts +5 -0
- package/src/tools/renders.ts +6 -12
- package/packages/builtin-tool-local-system/src/client/Render/RenameLocalFile/index.tsx +0 -37
- package/src/features/Conversation/components/ContextMenu.tsx +0 -418
- package/src/store/chat/slices/builtinTool/actions/__tests__/localSystem.test.ts +0 -201
- package/src/store/chat/slices/builtinTool/actions/knowledgeBase.ts +0 -163
- package/src/store/chat/slices/builtinTool/actions/localSystem.ts +0 -241
- package/src/tools/knowledge-base/ExecutionRuntime/index.ts +0 -25
- package/src/tools/knowledge-base/Render/ReadKnowledge/index.tsx +0 -29
- package/src/tools/knowledge-base/Render/SearchKnowledgeBase/index.tsx +0 -29
- package/src/tools/knowledge-base/Render/index.ts +0 -7
- package/src/tools/knowledge-base/index.ts +0 -12
- package/src/tools/local-system/ExecutionRuntime/index.ts +0 -9
- package/src/tools/local-system/systemRole.ts +0 -1
package/locales/ar/models.json
CHANGED
|
@@ -268,20 +268,20 @@
|
|
|
268
268
|
"chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي، يجمع بين الفهم العميق والقدرة على التوليد لتلبية احتياجات الاستخدام الواسعة مثل دعم العملاء والتعليم والدعم الفني.",
|
|
269
269
|
"claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
|
|
270
270
|
"claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
|
|
271
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic
|
|
271
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic، مع تحسينات في المهارات وتفوق على النموذج الرائد السابق Claude 3 Opus في العديد من المعايير.",
|
|
272
272
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku يقدم استجابات سريعة للمهام الخفيفة.",
|
|
273
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
273
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هو أذكى نموذج من Anthropic وأول نموذج هجيني للاستدلال في السوق، يدعم الاستجابات الفورية أو التفكير المطول مع تحكم دقيق.",
|
|
274
274
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
|
|
275
275
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
|
|
276
276
|
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
|
|
277
277
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
|
|
278
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع
|
|
278
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأكثر نماذج Haiku ذكاءً من Anthropic، يتميز بسرعة البرق وقدرة على التفكير المطول.",
|
|
279
279
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
|
|
280
280
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
|
|
281
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام
|
|
281
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
|
|
282
282
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
|
|
283
283
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
|
|
284
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
284
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هو أذكى نموذج من Anthropic حتى الآن، يوفر استجابات شبه فورية أو تفكير متسلسل خطوة بخطوة مع تحكم دقيق لمستخدمي واجهة البرمجة.",
|
|
285
285
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
|
|
286
286
|
"codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
|
|
287
287
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
|
|
@@ -295,6 +295,90 @@
|
|
|
295
295
|
"codeqwen.description": "CodeQwen1.5 هو نموذج لغوي كبير مدرب على بيانات شيفرة واسعة النطاق، مصمم للمهام البرمجية المعقدة.",
|
|
296
296
|
"codestral-latest.description": "Codestral هو أحدث نموذج برمجة لدينا؛ الإصدار v2 (يناير 2025) يستهدف المهام منخفضة التأخير وعالية التكرار مثل FIM، تصحيح الشيفرة، وتوليد الاختبارات.",
|
|
297
297
|
"codestral.description": "Codestral هو أول نموذج شيفرة من Mistral AI، يقدم دعمًا قويًا لتوليد الشيفرة.",
|
|
298
|
+
"codex-mini-latest.description": "codex-mini-latest هو نموذج o4-mini محسّن لواجهة سطر أوامر Codex. للاستخدام المباشر عبر API، نوصي بالبدء بـ gpt-4.1.",
|
|
299
|
+
"cogito-2.1:671b.description": "Cogito v2.1 671B هو نموذج مفتوح المصدر من الولايات المتحدة للاستخدام التجاري، يتمتع بأداء ينافس النماذج الرائدة، وكفاءة أعلى في الاستدلال على الرموز، وسياق طويل يصل إلى 128 ألف رمز، وقدرات قوية بشكل عام.",
|
|
300
|
+
"cogview-4.description": "CogView-4 هو أول نموذج مفتوح المصدر لتحويل النص إلى صورة من Zhipu يدعم توليد الحروف الصينية. يعزز الفهم الدلالي، جودة الصور، وعرض النصوص الصينية/الإنجليزية، ويدعم مطالبات ثنائية اللغة بأي طول، ويمكنه توليد صور بأي دقة ضمن النطاقات المحددة.",
|
|
301
|
+
"cohere-command-r-plus.description": "Command R+ هو نموذج متقدم محسّن لاسترجاع المعرفة (RAG) مصمم لأعباء العمل المؤسسية.",
|
|
302
|
+
"cohere-command-r.description": "Command R هو نموذج توليدي قابل للتوسع مصمم لاستخدام أدوات واسترجاع المعرفة، مما يتيح ذكاءً اصطناعيًا بجودة الإنتاج.",
|
|
303
|
+
"cohere/Cohere-command-r-plus.description": "Command R+ هو نموذج متقدم محسّن لاسترجاع المعرفة (RAG) مصمم لأعباء العمل المؤسسية.",
|
|
304
|
+
"cohere/Cohere-command-r.description": "Command R هو نموذج توليدي قابل للتوسع مصمم لاستخدام أدوات واسترجاع المعرفة، مما يتيح ذكاءً اصطناعيًا بجودة الإنتاج.",
|
|
305
|
+
"cohere/command-a.description": "Command A هو أقوى نموذج من Cohere حتى الآن، يتفوق في استخدام الأدوات، الوكلاء، استرجاع المعرفة، وحالات الاستخدام متعددة اللغات. يتمتع بسياق بطول 256 ألف رمز، ويعمل على وحدتي GPU فقط، ويوفر إنتاجية أعلى بنسبة 150٪ مقارنة بـ Command R+ 08-2024.",
|
|
306
|
+
"cohere/command-r-plus.description": "Command R+ هو أحدث نموذج LLM من Cohere محسّن للدردشة والسياق الطويل، يهدف إلى أداء استثنائي لتمكين الشركات من الانتقال من النماذج الأولية إلى الإنتاج.",
|
|
307
|
+
"cohere/command-r.description": "Command R محسّن لمهام الدردشة والسياق الطويل، ويُعد نموذجًا \"قابلًا للتوسع\" يوازن بين الأداء العالي والدقة، مما يمكّن الشركات من تجاوز النماذج الأولية إلى الإنتاج.",
|
|
308
|
+
"cohere/embed-v4.0.description": "نموذج يصنف أو يحول النصوص، الصور، أو المحتوى المختلط إلى تمثيلات مضمنة (embeddings).",
|
|
309
|
+
"comfyui/flux-dev.description": "FLUX.1 Dev هو نموذج تحويل النص إلى صورة عالي الجودة (10–50 خطوة)، مثالي للإنتاج الإبداعي والفني المتميز.",
|
|
310
|
+
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev هو نموذج لتحرير الصور يدعم التعديلات الموجهة بالنص، بما في ذلك التعديلات المحلية ونقل الأسلوب.",
|
|
311
|
+
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev هو نموذج تحويل نص إلى صورة معزز بالأمان تم تطويره بالتعاون مع Krea، ويحتوي على مرشحات أمان مدمجة.",
|
|
312
|
+
"comfyui/flux-schnell.description": "FLUX.1 Schnell هو نموذج تحويل نص إلى صورة فائق السرعة يولد صورًا عالية الجودة في 1-4 خطوات، مثالي للاستخدام في الوقت الحقيقي والنماذج الأولية السريعة.",
|
|
313
|
+
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 هو نموذج تحويل نص إلى صورة كلاسيكي بدقة 512x512، مثالي للنماذج الأولية السريعة والتجارب الإبداعية.",
|
|
314
|
+
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 مع مشفرات CLIP/T5 مدمجة لا يحتاج إلى ملفات مشفر خارجية، مناسب لنماذج مثل sd3.5_medium_incl_clips مع استخدام موارد أقل.",
|
|
315
|
+
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 هو نموذج تحويل نص إلى صورة من الجيل التالي مع نسخ كبيرة ومتوسطة. يتطلب ملفات مشفر CLIP خارجية ويوفر جودة صور ممتازة والتزامًا قويًا بالمطالبات.",
|
|
316
|
+
"comfyui/stable-diffusion-custom-refiner.description": "نموذج تحويل صورة إلى صورة مخصص لـ SDXL. استخدم custom_sd_lobe.safetensors كاسم ملف النموذج؛ إذا كان لديك VAE، استخدم custom_sd_vae_lobe.safetensors. ضع ملفات النموذج في المجلدات المطلوبة لـ Comfy.",
|
|
317
|
+
"comfyui/stable-diffusion-custom.description": "نموذج تحويل نص إلى صورة مخصص لـ SD. استخدم custom_sd_lobe.safetensors كاسم ملف النموذج؛ إذا كان لديك VAE، استخدم custom_sd_vae_lobe.safetensors. ضع ملفات النموذج في المجلدات المطلوبة لـ Comfy.",
|
|
318
|
+
"comfyui/stable-diffusion-refiner.description": "نموذج تحويل صورة إلى صورة لـ SDXL ينفذ تحويلات عالية الجودة من الصور المدخلة، ويدعم نقل الأسلوب، الاستعادة، والتنوع الإبداعي.",
|
|
319
|
+
"comfyui/stable-diffusion-xl.description": "SDXL هو نموذج تحويل نص إلى صورة يدعم التوليد عالي الدقة 1024x1024 مع جودة صور وتفاصيل محسّنة.",
|
|
320
|
+
"command-a-03-2025.description": "Command A هو أقوى نموذج لدينا حتى الآن، يتفوق في استخدام الأدوات، الوكلاء، استرجاع المعرفة، والسيناريوهات متعددة اللغات. يتمتع بسياق بطول 256 ألف رمز، ويعمل على وحدتي GPU فقط، ويوفر إنتاجية أعلى بنسبة 150٪ مقارنة بـ Command R+ 08-2024.",
|
|
321
|
+
"command-light-nightly.description": "لتقليل الفجوة بين الإصدارات الرئيسية، نقدم إصدارات Command الليلية. لسلسلة command-light، يُطلق عليها command-light-nightly. إنها النسخة الأحدث والأكثر تجريبية (وقد تكون غير مستقرة)، ويتم تحديثها بانتظام دون إشعار، لذا لا يُنصح باستخدامها في الإنتاج.",
|
|
322
|
+
"command-light.description": "نسخة أصغر وأسرع من Command تتمتع بقدرات شبه مماثلة ولكن بسرعة أعلى.",
|
|
323
|
+
"command-nightly.description": "لتقليل الفجوة بين الإصدارات الرئيسية، نقدم إصدارات Command الليلية. لسلسلة Command، يُطلق عليها command-nightly. إنها النسخة الأحدث والأكثر تجريبية (وقد تكون غير مستقرة)، ويتم تحديثها بانتظام دون إشعار، لذا لا يُنصح باستخدامها في الإنتاج.",
|
|
324
|
+
"command-r-03-2024.description": "Command R هو نموذج دردشة يتبع التعليمات بجودة أعلى، موثوقية أكبر، وسياق أطول من النماذج السابقة. يدعم سير العمل المعقد مثل توليد الشيفرة، استرجاع المعرفة، استخدام الأدوات، والوكلاء.",
|
|
325
|
+
"command-r-08-2024.description": "command-r-08-2024 هو إصدار محدث من نموذج Command R تم إطلاقه في أغسطس 2024.",
|
|
326
|
+
"command-r-plus-04-2024.description": "command-r-plus هو اسم مستعار لـ command-r-plus-04-2024، لذا فإن استخدام command-r-plus في API يشير إلى هذا النموذج.",
|
|
327
|
+
"command-r-plus-08-2024.description": "Command R+ هو نموذج دردشة يتبع التعليمات بجودة أعلى، موثوقية أكبر، وسياق أطول من النماذج السابقة. مثالي لسير العمل المعقد في استرجاع المعرفة واستخدام الأدوات متعددة الخطوات.",
|
|
328
|
+
"command-r-plus.description": "Command R+ هو نموذج LLM عالي الأداء مصمم لسيناريوهات مؤسسية حقيقية وتطبيقات معقدة.",
|
|
329
|
+
"command-r.description": "Command R هو نموذج LLM محسّن لمهام الدردشة والسياق الطويل، مثالي للتفاعل الديناميكي وإدارة المعرفة.",
|
|
330
|
+
"command-r7b-12-2024.description": "command-r7b-12-2024 هو تحديث صغير وفعال تم إصداره في ديسمبر 2024. يتفوق في استرجاع المعرفة، استخدام الأدوات، ومهام الوكلاء التي تتطلب استدلالًا معقدًا متعدد الخطوات.",
|
|
331
|
+
"command.description": "نموذج دردشة يتبع التعليمات يوفر جودة وموثوقية أعلى في مهام اللغة، مع سياق أطول من نماذجنا التوليدية الأساسية.",
|
|
332
|
+
"computer-use-preview.description": "computer-use-preview هو نموذج متخصص لأداة \"استخدام الحاسوب\"، مدرب لفهم وتنفيذ المهام المتعلقة بالحاسوب.",
|
|
333
|
+
"dall-e-2.description": "الجيل الثاني من نموذج DALL·E لتوليد صور أكثر واقعية ودقة، بدقة أعلى أربع مرات من الجيل الأول.",
|
|
334
|
+
"dall-e-3.description": "أحدث إصدار من نموذج DALL·E، تم إطلاقه في نوفمبر 2023، يدعم توليد صور أكثر واقعية ودقة مع تفاصيل أقوى.",
|
|
335
|
+
"databricks/dbrx-instruct.description": "يوفر DBRX Instruct معالجة موثوقة للتعليمات عبر مختلف الصناعات.",
|
|
336
|
+
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR هو نموذج رؤية-لغة من DeepSeek AI يركز على التعرف البصري على الحروف (OCR) و\"الضغط البصري السياقي\". يستكشف ضغط السياق من الصور، ويعالج المستندات بكفاءة، ويحولها إلى نص منظم (مثل Markdown). يتعرف بدقة على النصوص في الصور، مما يجعله مناسبًا لتحويل المستندات إلى صيغة رقمية، واستخراج النصوص، والمعالجة المنظمة.",
|
|
337
|
+
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "يستخلص DeepSeek-R1-0528-Qwen3-8B سلسلة التفكير من DeepSeek-R1-0528 ويطبقها على Qwen3 8B Base. يحقق أداءً رائدًا بين النماذج المفتوحة، متفوقًا على Qwen3 8B بنسبة 10٪ في AIME 2024 ويضاهي أداء Qwen3-235B-thinking. يتميز في اختبارات التفكير الرياضي، والبرمجة، والمنطق العام. يستخدم نفس بنية Qwen3-8B ولكن مع محول الرموز الخاص بـ DeepSeek-R1-0528.",
|
|
338
|
+
"deepseek-ai/DeepSeek-R1-0528.description": "يستفيد DeepSeek R1 من قدرات حوسبة إضافية وتحسينات خوارزمية بعد التدريب لتعزيز قدرات التفكير. يحقق أداءً قويًا في اختبارات الرياضيات، والبرمجة، والمنطق العام، ويقترب من نماذج رائدة مثل o3 وGemini 2.5 Pro.",
|
|
339
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "تستخدم نماذج DeepSeek-R1 المستخلصة التعلم المعزز وبيانات البداية الباردة لتحسين التفكير وتحديد معايير جديدة للنماذج المفتوحة متعددة المهام.",
|
|
340
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "تستخدم نماذج DeepSeek-R1 المستخلصة التعلم المعزز وبيانات البداية الباردة لتحسين التفكير وتحديد معايير جديدة للنماذج المفتوحة متعددة المهام.",
|
|
341
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "تستخدم نماذج DeepSeek-R1 المستخلصة التعلم المعزز وبيانات البداية الباردة لتحسين التفكير وتحديد معايير جديدة للنماذج المفتوحة متعددة المهام.",
|
|
342
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "تم استخلاص DeepSeek-R1-Distill-Qwen-32B من Qwen2.5-32B وتم تحسينه باستخدام 800 ألف عينة مختارة من DeepSeek-R1. يتميز في الرياضيات، والبرمجة، والتفكير، ويحقق نتائج قوية في AIME 2024، وMATH-500 (بدقة 94.3٪)، وGPQA Diamond.",
|
|
343
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "تم استخلاص DeepSeek-R1-Distill-Qwen-7B من Qwen2.5-Math-7B وتم تحسينه باستخدام 800 ألف عينة مختارة من DeepSeek-R1. يحقق أداءً قويًا بنسبة 92.8٪ في MATH-500، و55.5٪ في AIME 2024، وتصنيف 1189 في CodeForces لنموذج بحجم 7B.",
|
|
344
|
+
"deepseek-ai/DeepSeek-R1.description": "يعزز DeepSeek-R1 قدرات التفكير باستخدام التعلم المعزز وبيانات البداية الباردة، ويحدد معايير جديدة للنماذج المفتوحة متعددة المهام متفوقًا على OpenAI-o1-mini.",
|
|
345
|
+
"deepseek-ai/DeepSeek-V2.5.description": "يعمل DeepSeek-V2.5 على ترقية DeepSeek-V2-Chat وDeepSeek-Coder-V2-Instruct، ويمزج بين القدرات العامة والبرمجية. يحسن الكتابة واتباع التعليمات لمواءمة التفضيلات بشكل أفضل، ويظهر تحسنًا ملحوظًا في AlpacaEval 2.0 وArenaHard وAlignBench وMT-Bench.",
|
|
346
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus هو إصدار محدث من V3.1 كنموذج وكيل هجين. يعالج المشكلات التي أبلغ عنها المستخدمون ويحسن الاستقرار واتساق اللغة ويقلل من الخلط بين الصينية/الإنجليزية والرموز غير الطبيعية. يدمج أوضاع التفكير وغير التفكير مع قوالب المحادثة للتبديل المرن. كما يعزز أداء وكلاء الكود والبحث لاستخدام الأدوات بشكل أكثر موثوقية وتنفيذ المهام متعددة الخطوات.",
|
|
347
|
+
"deepseek-ai/DeepSeek-V3.1.description": "يستخدم DeepSeek V3.1 بنية تفكير هجينة ويدعم أوضاع التفكير وغير التفكير.",
|
|
348
|
+
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp هو إصدار تجريبي من V3.2 يربط بالهيكلية القادمة. يضيف انتباهًا متفرقًا (DSA) إلى V3.1-Terminus لتحسين كفاءة التدريب والاستدلال في السياقات الطويلة، مع تحسينات لاستخدام الأدوات، وفهم المستندات الطويلة، والتفكير متعدد الخطوات. مثالي لاستكشاف كفاءة تفكير أعلى بميزانيات سياق كبيرة.",
|
|
349
|
+
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 هو نموذج MoE يحتوي على 671 مليار معلمة، يستخدم MLA وDeepSeekMoE مع توازن تحميل خالٍ من الفقدان لتدريب واستدلال فعال. تم تدريبه مسبقًا على 14.8 تريليون رمز عالي الجودة مع SFT وRL، ويتفوق على النماذج المفتوحة الأخرى ويقترب من النماذج المغلقة الرائدة.",
|
|
350
|
+
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) هو نموذج مبتكر يوفر فهمًا عميقًا للغة وتفاعلًا ذكيًا.",
|
|
351
|
+
"deepseek-ai/deepseek-r1.description": "نموذج لغة كبير فعال وحديث يتميز بقوة في التفكير، والرياضيات، والبرمجة.",
|
|
352
|
+
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
|
|
353
|
+
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
|
|
354
|
+
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
|
|
355
|
+
"deepseek-chat.description": "يوفر DeepSeek V3.2 توازنًا بين التفكير وطول المخرجات لمهام الأسئلة اليومية ووكلاء الذكاء الاصطناعي. تصل معاييره العامة إلى مستوى GPT-5، وهو أول من يدمج التفكير في استخدام الأدوات، متصدرًا تقييمات الوكلاء مفتوحة المصدر.",
|
|
356
|
+
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
|
|
357
|
+
"deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
|
|
358
|
+
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
|
|
359
|
+
"deepseek-ocr.description": "DeepSeek-OCR هو نموذج رؤية-لغة من DeepSeek AI يركز على OCR و\"الضغط البصري السياقي\". يستكشف ضغط المعلومات السياقية من الصور، ويعالج المستندات بكفاءة، ويحولها إلى تنسيقات نصية منظمة مثل Markdown. يتعرف بدقة على النصوص في الصور، مما يجعله مثاليًا لتحويل المستندات إلى صيغة رقمية، واستخراج النصوص، والمعالجة المنظمة.",
|
|
360
|
+
"deepseek-r1-0528.description": "نموذج كامل بسعة 685 مليار تم إصداره في 28 مايو 2025. يستخدم DeepSeek-R1 التعلم المعزز واسع النطاق بعد التدريب، مما يعزز التفكير بشكل كبير باستخدام بيانات معنونة قليلة، ويؤدي أداءً قويًا في الرياضيات، والبرمجة، والتفكير باللغة الطبيعية.",
|
|
361
|
+
"deepseek-r1-250528.description": "DeepSeek R1 250528 هو النموذج الكامل للتفكير من DeepSeek-R1 للمهام الرياضية والمنطقية الصعبة.",
|
|
362
|
+
"deepseek-r1-70b-fast-online.description": "إصدار سريع من DeepSeek R1 70B مع بحث ويب في الوقت الحقيقي، يوفر استجابات أسرع مع الحفاظ على الأداء.",
|
|
363
|
+
"deepseek-r1-70b-online.description": "الإصدار القياسي من DeepSeek R1 70B مع بحث ويب في الوقت الحقيقي، مناسب للدردشة والمهام النصية المحدثة.",
|
|
364
|
+
"deepseek-r1-distill-llama-70b.description": "يجمع DeepSeek R1 Distill Llama 70B بين تفكير R1 ونظام Llama البيئي.",
|
|
365
|
+
"deepseek-r1-distill-llama-8b.description": "تم استخلاص DeepSeek-R1-Distill-Llama-8B من Llama-3.1-8B باستخدام مخرجات DeepSeek R1.",
|
|
366
|
+
"deepseek-r1-distill-llama.description": "تم استخلاص deepseek-r1-distill-llama من DeepSeek-R1 على Llama.",
|
|
367
|
+
"deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B هو نموذج مستخلص من R1 يعتمد على Qianfan-70B بقيمة عالية.",
|
|
368
|
+
"deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B هو نموذج مستخلص من R1 يعتمد على Qianfan-8B للتطبيقات الصغيرة والمتوسطة.",
|
|
369
|
+
"deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B هو نموذج مستخلص من R1 يعتمد على Llama-70B.",
|
|
370
|
+
"deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B هو نموذج مستخلص فائق الخفة للبيئات ذات الموارد المنخفضة جدًا.",
|
|
371
|
+
"deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B هو نموذج مستخلص متوسط الحجم للنشر في سيناريوهات متعددة.",
|
|
372
|
+
"deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B هو نموذج مستخلص من R1 يعتمد على Qwen-32B، يوازن بين الأداء والتكلفة.",
|
|
373
|
+
"deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B هو نموذج مستخلص خفيف الوزن للبيئات الطرفية والمؤسسات الخاصة.",
|
|
374
|
+
"deepseek-r1-distill-qwen.description": "تم استخلاص deepseek-r1-distill-qwen من DeepSeek-R1 على Qwen.",
|
|
375
|
+
"deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
|
|
376
|
+
"deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
|
|
377
|
+
"deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
|
|
378
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking هو نموذج تفكير عميق يولد سلسلة تفكير قبل المخرجات لتحقيق دقة أعلى، مع نتائج تنافسية وأداء تفكير مماثل لـ Gemini-3.0-Pro.",
|
|
379
|
+
"deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
|
|
380
|
+
"deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
|
|
381
|
+
"deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
|
|
298
382
|
"meta.llama3-8b-instruct-v1:0.description": "ميتا لاما 3 هو نموذج لغوي مفتوح المصدر مخصص للمطورين والباحثين والشركات، صُمم لمساعدتهم في بناء أفكار الذكاء الاصطناعي التوليدي، وتجربتها، وتوسيع نطاقها بشكل مسؤول. يُعد جزءًا من البنية التحتية للابتكار المجتمعي العالمي، وهو مناسب للبيئات ذات الموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع.",
|
|
299
383
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "قدرات قوية في الاستدلال الصوري على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري.",
|
|
300
384
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال صوري متقدم لتطبيقات الوكلاء المعتمدين على الفهم البصري.",
|
package/locales/ar/plugin.json
CHANGED
|
@@ -73,6 +73,8 @@
|
|
|
73
73
|
"builtins.lobe-gtd.title": "أدوات المهام",
|
|
74
74
|
"builtins.lobe-knowledge-base.apiName.readKnowledge": "قراءة محتوى المكتبة",
|
|
75
75
|
"builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "البحث في المكتبة",
|
|
76
|
+
"builtins.lobe-knowledge-base.inspector.andMoreFiles": "و{{count}} ملفًا آخر",
|
|
77
|
+
"builtins.lobe-knowledge-base.inspector.noResults": "لا توجد نتائج",
|
|
76
78
|
"builtins.lobe-knowledge-base.title": "المكتبة",
|
|
77
79
|
"builtins.lobe-local-system.apiName.editLocalFile": "تعديل الملف",
|
|
78
80
|
"builtins.lobe-local-system.apiName.getCommandOutput": "الحصول على ناتج الأمر",
|
|
@@ -86,6 +88,8 @@
|
|
|
86
88
|
"builtins.lobe-local-system.apiName.runCommand": "تشغيل الأمر",
|
|
87
89
|
"builtins.lobe-local-system.apiName.searchLocalFiles": "البحث في الملفات",
|
|
88
90
|
"builtins.lobe-local-system.apiName.writeLocalFile": "كتابة الملف",
|
|
91
|
+
"builtins.lobe-local-system.inspector.noResults": "لا توجد نتائج",
|
|
92
|
+
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
89
93
|
"builtins.lobe-local-system.title": "النظام المحلي",
|
|
90
94
|
"builtins.lobe-page-agent.apiName.batchUpdate": "تحديث جماعي للعقد",
|
|
91
95
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "مقارنة اللقطات",
|
|
@@ -143,6 +147,7 @@
|
|
|
143
147
|
"builtins.lobe-web-browsing.apiName.crawlMultiPages": "قراءة صفحات متعددة",
|
|
144
148
|
"builtins.lobe-web-browsing.apiName.crawlSinglePage": "قراءة محتوى الصفحة",
|
|
145
149
|
"builtins.lobe-web-browsing.apiName.search": "البحث في الصفحات",
|
|
150
|
+
"builtins.lobe-web-browsing.inspector.noResults": "لا توجد نتائج",
|
|
146
151
|
"builtins.lobe-web-browsing.title": "بحث الويب",
|
|
147
152
|
"confirm": "تأكيد",
|
|
148
153
|
"debug.arguments": "المعلمات",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "منظمة مفتوحة المصدر تركز على أبحاث النماذج الكبيرة والأدوات، وتوفر منصة فعالة وسهلة الاستخدام تتيح الوصول إلى أحدث النماذج والخوارزميات.",
|
|
30
30
|
"jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
|
|
31
31
|
"lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
|
|
32
|
+
"lobehub.description": "تستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي، وتقيس الاستخدام من خلال الأرصدة المرتبطة برموز النماذج.",
|
|
32
33
|
"minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
|
|
33
34
|
"mistral.description": "تقدم Mistral نماذج متقدمة عامة ومتخصصة وبحثية للتفكير المعقد، والمهام متعددة اللغات، وتوليد الأكواد، مع دعم استدعاء الوظائف للتكامل المخصص.",
|
|
34
35
|
"modelscope.description": "ModelScope هي منصة نماذج كخدمة من Alibaba Cloud، تقدم مجموعة واسعة من النماذج وخدمات الاستدلال.",
|
|
@@ -215,6 +215,74 @@
|
|
|
215
215
|
"accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5 е серия LLM само с декодер, разработена от екипа на Qwen и Alibaba Cloud, предлагаща размери 0.5B, 1.5B, 3B, 7B, 14B, 32B и 72B, с базови и фино настроени за инструкции варианти.",
|
|
216
216
|
"accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder е най-новият LLM от Qwen, проектиран за програмиране (преди CodeQwen). Забележка: този модел се предоставя експериментално като безсървърен модел. За производствена употреба имайте предвид, че Fireworks може да прекрати разполагането без предизвестие.",
|
|
217
217
|
"accounts/yi-01-ai/models/yi-large.description": "Yi-Large е LLM от най-висок клас, който се нарежда непосредствено под GPT-4, Gemini 1.5 Pro и Claude 3 Opus в класацията LMSYS. Отличава се с многоезични възможности, особено на испански, китайски, японски, немски и френски. Yi-Large е също така удобен за разработчици, използвайки същата API схема като OpenAI за лесна интеграция.",
|
|
218
|
+
"ai21-jamba-1.5-large.description": "Многоезичен модел с 398 милиарда параметъра (94 милиарда активни), с прозорец на контекста от 256 хиляди токена, поддръжка на извикване на функции, структурирани изходи и обосновано генериране.",
|
|
219
|
+
"ai21-jamba-1.5-mini.description": "Многоезичен модел с 52 милиарда параметъра (12 милиарда активни), с прозорец на контекста от 256 хиляди токена, поддръжка на извикване на функции, структурирани изходи и обосновано генериране.",
|
|
220
|
+
"ai21-labs/AI21-Jamba-1.5-Large.description": "Многоезичен модел с 398 милиарда параметъра (94 милиарда активни), с прозорец на контекста от 256 хиляди токена, поддръжка на извикване на функции, структурирани изходи и обосновано генериране.",
|
|
221
|
+
"ai21-labs/AI21-Jamba-1.5-Mini.description": "Многоезичен модел с 52 милиарда параметъра (12 милиарда активни), с прозорец на контекста от 256 хиляди токена, поддръжка на извикване на функции, структурирани изходи и обосновано генериране.",
|
|
222
|
+
"alibaba/qwen-3-14b.description": "Qwen3 е най-новото поколение от серията Qwen, предлагащо пълен набор от плътни и MoE модели. Обучен върху обширни данни, той постига пробиви в логическото мислене, следване на инструкции, агентни способности и многоезична поддръжка.",
|
|
223
|
+
"alibaba/qwen-3-235b.description": "Qwen3 е най-новото поколение от серията Qwen, предлагащо пълен набор от плътни и MoE модели. Обучен върху обширни данни, той постига пробиви в логическото мислене, следване на инструкции, агентни способности и многоезична поддръжка.",
|
|
224
|
+
"alibaba/qwen-3-30b.description": "Qwen3 е най-новото поколение от серията Qwen, предлагащо пълен набор от плътни и MoE модели. Обучен върху обширни данни, той постига пробиви в логическото мислене, следване на инструкции, агентни способности и многоезична поддръжка.",
|
|
225
|
+
"alibaba/qwen-3-32b.description": "Qwen3 е най-новото поколение от серията Qwen, предлагащо пълен набор от плътни и MoE модели. Обучен върху обширни данни, той постига пробиви в логическото мислене, следване на инструкции, агентни способности и многоезична поддръжка.",
|
|
226
|
+
"alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct е най-агентният кодов модел на Qwen, с отлични резултати при агентно програмиране, използване на браузър и други основни задачи, съпоставим с Claude Sonnet.",
|
|
227
|
+
"amazon/nova-lite.description": "Многофункционален модел с изключително ниска цена и много бърза обработка на изображения, видео и текст.",
|
|
228
|
+
"amazon/nova-micro.description": "Само текстов модел с ултраниска латентност и много ниска цена.",
|
|
229
|
+
"amazon/nova-pro.description": "Многофункционален модел с отличен баланс между точност, скорост и цена за широк спектър от задачи.",
|
|
230
|
+
"amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 е лек и ефективен многоезичен embedding модел, поддържащ 1024, 512 и 256 измерения.",
|
|
231
|
+
"anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet поставя нов стандарт в индустрията, надминавайки конкурентите и Claude 3 Opus в широки оценки, като същевременно запазва средно ниво на скорост и цена.",
|
|
232
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet поставя нов стандарт в индустрията, надминавайки конкурентите и Claude 3 Opus в широки оценки, като същевременно запазва средно ниво на скорост и цена.",
|
|
233
|
+
"anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, осигуряващ почти мигновени отговори на прости заявки. Поддържа вход от изображения и прозорец на контекста от 200 хиляди токена.",
|
|
234
|
+
"anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus е най-мощният AI модел на Anthropic с водеща производителност при сложни задачи. Обработва отворени заявки и нови сценарии с изключителна плавност и човешко разбиране, поддържа вход от изображения и прозорец на контекста от 200 хиляди токена.",
|
|
235
|
+
"anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, предлага висока стойност при по-ниска цена. Поддържа вход от изображения и прозорец на контекста от 200 хиляди токена.",
|
|
236
|
+
"anthropic.claude-instant-v1.description": "Бърз, икономичен и способен модел за ежедневен чат, анализ на текст, обобщение и въпроси по документи.",
|
|
237
|
+
"anthropic.claude-v2.description": "Много способен модел за задачи от сложен диалог и творческо генериране до точно следване на инструкции.",
|
|
238
|
+
"anthropic.claude-v2:1.description": "Обновен Claude 2 с удвоен прозорец на контекста и подобрена надеждност, по-ниска честота на халюцинации и по-точни отговори, базирани на доказателства, за дълги документи и RAG.",
|
|
239
|
+
"anthropic/claude-3-haiku.description": "Claude 3 Haiku е най-бързият модел на Anthropic, проектиран за корпоративни натоварвания с по-дълги заявки. Бързо анализира големи документи като тримесечни отчети, договори или правни случаи на половин цена спрямо конкурентите.",
|
|
240
|
+
"anthropic/claude-3-opus.description": "Claude 3 Opus е най-интелигентният модел на Anthropic с водеща производителност при сложни задачи, обработва отворени заявки и нови сценарии с изключителна плавност и човешко разбиране.",
|
|
241
|
+
"anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku предлага подобрена скорост, точност при програмиране и използване на инструменти, подходящ за сценарии с високи изисквания към скорост и взаимодействие с инструменти.",
|
|
242
|
+
"anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet е бърз и ефективен модел от семейството Sonnet, с подобрена производителност при програмиране и логическо мислене. Някои версии постепенно се заменят от Sonnet 3.7 и по-нови.",
|
|
243
|
+
"anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet е подобрен модел от серията Sonnet с по-силно логическо мислене и програмиране, подходящ за сложни корпоративни задачи.",
|
|
244
|
+
"anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 е високопроизводителен и бърз модел на Anthropic, осигуряващ много ниска латентност при запазване на висока точност.",
|
|
245
|
+
"anthropic/claude-opus-4.1.description": "Opus 4.1 е висок клас модел на Anthropic, оптимизиран за програмиране, сложно логическо мислене и дълготрайни задачи.",
|
|
246
|
+
"anthropic/claude-opus-4.5.description": "Claude Opus 4.5 е флагманският модел на Anthropic, съчетаващ върхова интелигентност с мащабируема производителност за сложни задачи с високо качество на разсъждение.",
|
|
247
|
+
"anthropic/claude-opus-4.description": "Opus 4 е флагманският модел на Anthropic, проектиран за сложни задачи и корпоративни приложения.",
|
|
248
|
+
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 е най-новият хибриден модел за логическо мислене на Anthropic, оптимизиран за сложни разсъждения и програмиране.",
|
|
249
|
+
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 е хибриден модел за логическо мислене на Anthropic с комбинирани способности за мислене и бързи отговори.",
|
|
250
|
+
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B е разреден LLM с общо 72 милиарда и 16 милиарда активни параметри, базиран на групирана MoE (MoGE) архитектура. Групира експерти при избора и ограничава токените да активират равен брой експерти на група, което балансира натоварването и подобрява ефективността на внедряване върху Ascend.",
|
|
251
|
+
"aya.description": "Aya 23 е многоезичен модел на Cohere, поддържащ 23 езика за разнообразни приложения.",
|
|
252
|
+
"aya:35b.description": "Aya 23 е многоезичен модел на Cohere, поддържащ 23 езика за разнообразни приложения.",
|
|
253
|
+
"azure-DeepSeek-R1-0528.description": "Разположен от Microsoft; DeepSeek R1 е надграден до DeepSeek-R1-0528. Актуализацията увеличава изчислителната мощ и оптимизациите след обучение, значително подобрявайки дълбочината на разсъждение и извеждането. Представя се отлично в тестове по математика, програмиране и логика, доближавайки се до водещи модели като O3 и Gemini 2.5 Pro.",
|
|
254
|
+
"baichuan-m2-32b.description": "Baichuan M2 32B е MoE модел от Baichuan Intelligence със силни способности за разсъждение.",
|
|
255
|
+
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B е отворен, търговски използваем LLM с 13 милиарда параметри от Baichuan, постигайки водещи резултати за своя размер в авторитетни китайски и английски тестове.",
|
|
256
|
+
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B е MoE LLM на Baidu с общо 300 милиарда параметри и 47 милиарда активни на токен, балансирайки висока производителност и изчислителна ефективност. Като основен модел от серията ERNIE 4.5, той се отличава в разбиране, генериране, разсъждение и програмиране. Използва мултимодален хетерогенен MoE метод за предварително обучение с комбинирано текстово и визуално обучение за повишаване на цялостните способности, особено при следване на инструкции и световни знания.",
|
|
257
|
+
"baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview е следващото поколение нативен мултимодален модел на Baidu, силен в мултимодално разбиране, следване на инструкции, създаване, фактологични въпроси и отговори и използване на инструменти.",
|
|
258
|
+
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro е по-бърза, подобрена версия на FLUX Pro с отлично качество на изображенията и спазване на подканите.",
|
|
259
|
+
"black-forest-labs/flux-dev.description": "FLUX Dev е развойната версия на FLUX за нетърговска употреба.",
|
|
260
|
+
"black-forest-labs/flux-pro.description": "FLUX Pro е професионалният модел FLUX за висококачествено генериране на изображения.",
|
|
261
|
+
"black-forest-labs/flux-schnell.description": "FLUX Schnell е бърз модел за генериране на изображения, оптимизиран за скорост.",
|
|
262
|
+
"c4ai-aya-expanse-32b.description": "Aya Expanse е високопроизводителен многоезичен модел с 32 милиарда параметри, използващ обучение по инструкции, арбитраж на данни, обучение по предпочитания и сливане на модели, за да се конкурира с едноезични модели. Поддържа 23 езика.",
|
|
263
|
+
"c4ai-aya-expanse-8b.description": "Aya Expanse е високопроизводителен многоезичен модел с 8 милиарда параметри, използващ обучение по инструкции, арбитраж на данни, обучение по предпочитания и сливане на модели, за да се конкурира с едноезични модели. Поддържа 23 езика.",
|
|
264
|
+
"c4ai-aya-vision-32b.description": "Aya Vision е авангарден мултимодален модел, който се представя отлично в ключови езикови, текстови и визуални тестове. Поддържа 23 езика. Тази версия с 32 милиарда параметри е фокусирана върху най-високо ниво на многоезична производителност.",
|
|
265
|
+
"c4ai-aya-vision-8b.description": "Aya Vision е авангарден мултимодален модел, който се представя отлично в ключови езикови, текстови и визуални тестове. Тази версия с 8 милиарда параметри е фокусирана върху ниска латентност и силна производителност.",
|
|
266
|
+
"charglm-3.description": "CharGLM-3 е създаден за ролеви игри и емоционално общуване, поддържа ултра-дълга многозавойна памет и персонализиран диалог.",
|
|
267
|
+
"charglm-4.description": "CharGLM-4 е създаден за ролеви игри и емоционално общуване, поддържа ултра-дълга многозавойна памет и персонализиран диалог.",
|
|
268
|
+
"chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
|
|
269
|
+
"claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
|
|
270
|
+
"claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
|
|
271
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от следващо поколение на Anthropic, подобрен във всички умения и надминаващ предишния флагман Claude 3 Opus в много тестове.",
|
|
272
|
+
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
|
|
273
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара, поддържащ почти мигновени отговори или разширено мислене с прецизен контрол.",
|
|
274
|
+
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
275
|
+
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
|
|
276
|
+
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
277
|
+
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
|
|
278
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено мислене.",
|
|
279
|
+
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
|
|
280
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
281
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
282
|
+
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
|
|
283
|
+
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
|
|
284
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 е най-интелигентният модел на Anthropic досега, предлагащ почти мигновени отговори или разширено стъпково мислене с прецизен контрол за API потребители.",
|
|
285
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
|
|
218
286
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
|
|
219
287
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
|
|
220
288
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
|
|
@@ -73,6 +73,8 @@
|
|
|
73
73
|
"builtins.lobe-gtd.title": "Инструменти за задачи",
|
|
74
74
|
"builtins.lobe-knowledge-base.apiName.readKnowledge": "Прочитане на съдържание от библиотеката",
|
|
75
75
|
"builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "Търсене в библиотеката",
|
|
76
|
+
"builtins.lobe-knowledge-base.inspector.andMoreFiles": "и още {{count}}",
|
|
77
|
+
"builtins.lobe-knowledge-base.inspector.noResults": "Няма резултати",
|
|
76
78
|
"builtins.lobe-knowledge-base.title": "Библиотека",
|
|
77
79
|
"builtins.lobe-local-system.apiName.editLocalFile": "Редактиране на файл",
|
|
78
80
|
"builtins.lobe-local-system.apiName.getCommandOutput": "Извличане на изход от команда",
|
|
@@ -86,6 +88,8 @@
|
|
|
86
88
|
"builtins.lobe-local-system.apiName.runCommand": "Изпълнение на команда",
|
|
87
89
|
"builtins.lobe-local-system.apiName.searchLocalFiles": "Търсене на файлове",
|
|
88
90
|
"builtins.lobe-local-system.apiName.writeLocalFile": "Запис на файл",
|
|
91
|
+
"builtins.lobe-local-system.inspector.noResults": "Няма резултати",
|
|
92
|
+
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
89
93
|
"builtins.lobe-local-system.title": "Локална система",
|
|
90
94
|
"builtins.lobe-page-agent.apiName.batchUpdate": "Масова актуализация на възли",
|
|
91
95
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "Сравняване на моментни снимки",
|
|
@@ -143,6 +147,7 @@
|
|
|
143
147
|
"builtins.lobe-web-browsing.apiName.crawlMultiPages": "Прочитане на множество страници",
|
|
144
148
|
"builtins.lobe-web-browsing.apiName.crawlSinglePage": "Прочитане на съдържание на страница",
|
|
145
149
|
"builtins.lobe-web-browsing.apiName.search": "Търсене на страници",
|
|
150
|
+
"builtins.lobe-web-browsing.inspector.noResults": "Няма резултати",
|
|
146
151
|
"builtins.lobe-web-browsing.title": "Уеб търсене",
|
|
147
152
|
"confirm": "Потвърди",
|
|
148
153
|
"debug.arguments": "Аргументи",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Open-source организация, фокусирана върху изследвания и инструменти за големи модели, предоставяща ефективна и лесна за използване платформа за достъп до водещи модели и алгоритми.",
|
|
30
30
|
"jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
|
|
31
31
|
"lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud използва официални API интерфейси за достъп до AI модели и измерва използването чрез Кредити, обвързани с токени на модела.",
|
|
32
33
|
"minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral предлага усъвършенствани универсални, специализирани и изследователски модели за сложни разсъждения, многоезични задачи и генериране на код, с извикване на функции за персонализирани интеграции.",
|
|
34
35
|
"modelscope.description": "ModelScope е платформа на Alibaba Cloud за модели като услуга, предлагаща широка гама от AI модели и услуги за инференция.",
|
|
@@ -247,6 +247,91 @@
|
|
|
247
247
|
"anthropic/claude-opus-4.description": "Opus 4 ist das Flaggschiffmodell von Anthropic, entwickelt für komplexe Aufgaben und Unternehmensanwendungen.",
|
|
248
248
|
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 ist das neueste hybride Modell von Anthropic, optimiert für komplexes logisches Denken und Programmierung.",
|
|
249
249
|
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 ist ein hybrides Modell von Anthropic mit gemischten Denk- und Nicht-Denkfähigkeiten.",
|
|
250
|
+
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B ist ein sparsames LLM mit insgesamt 72 Milliarden und 16 Milliarden aktiven Parametern, basierend auf einer gruppierten MoE-Architektur (MoGE). Es gruppiert Experten bei der Auswahl und erzwingt, dass Token pro Gruppe gleich viele Experten aktivieren, was die Lastverteilung verbessert und die Bereitstellungseffizienz auf Ascend erhöht.",
|
|
251
|
+
"aya.description": "Aya 23 ist das mehrsprachige Modell von Cohere, das 23 Sprachen für vielfältige Anwendungsfälle unterstützt.",
|
|
252
|
+
"aya:35b.description": "Aya 23 ist das mehrsprachige Modell von Cohere, das 23 Sprachen für vielfältige Anwendungsfälle unterstützt.",
|
|
253
|
+
"azure-DeepSeek-R1-0528.description": "Bereitgestellt von Microsoft: DeepSeek R1 wurde auf DeepSeek-R1-0528 aktualisiert. Dieses Update erhöht die Rechenleistung und optimiert die Algorithmen nach dem Training, was die Tiefe des logischen Denkens und die Inferenzleistung deutlich verbessert. Es erzielt starke Ergebnisse in Mathematik, Programmierung und allgemeiner Logik und nähert sich führenden Modellen wie O3 und Gemini 2.5 Pro an.",
|
|
254
|
+
"baichuan-m2-32b.description": "Baichuan M2 32B ist ein MoE-Modell von Baichuan Intelligence mit starker logischer Denkfähigkeit.",
|
|
255
|
+
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B ist ein quelloffenes, kommerziell nutzbares LLM mit 13 Milliarden Parametern von Baichuan, das in chinesischen und englischen Benchmarks seiner Größenklasse führende Ergebnisse erzielt.",
|
|
256
|
+
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B ist ein MoE-LLM von Baidu mit insgesamt 300 Milliarden Parametern und 47 Milliarden aktiven Parametern pro Token. Es bietet eine ausgewogene Kombination aus starker Leistung und Recheneffizienz. Als zentrales Modell der ERNIE 4.5-Reihe überzeugt es in den Bereichen Verständnis, Textgenerierung, logisches Denken und Programmierung. Es nutzt ein multimodales, heterogenes MoE-Vortraining mit gemeinsamer Text-Bild-Trainierung, um insbesondere die Befolgung von Anweisungen und das Weltwissen zu verbessern.",
|
|
257
|
+
"baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview ist das nächste native multimodale Modell von Baidu mit starken Fähigkeiten in multimodalem Verständnis, Anweisungsbefolgung, kreativer Textgenerierung, faktenbasierten Antworten und Tool-Nutzung.",
|
|
258
|
+
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro ist eine schnellere, verbesserte Version von FLUX Pro mit exzellenter Bildqualität und präziser Umsetzung von Eingabeaufforderungen.",
|
|
259
|
+
"black-forest-labs/flux-dev.description": "FLUX Dev ist die Entwicklungsvariante von FLUX für nicht-kommerzielle Nutzung.",
|
|
260
|
+
"black-forest-labs/flux-pro.description": "FLUX Pro ist das professionelle FLUX-Modell für hochwertige Bildausgabe.",
|
|
261
|
+
"black-forest-labs/flux-schnell.description": "FLUX Schnell ist ein schnelles Bildgenerierungsmodell, das auf Geschwindigkeit optimiert ist.",
|
|
262
|
+
"c4ai-aya-expanse-32b.description": "Aya Expanse ist ein leistungsstarkes mehrsprachiges Modell mit 32 Milliarden Parametern. Es nutzt Instruction Tuning, Datenabgleich, Präferenztraining und Modellfusion, um mit einsprachigen Modellen zu konkurrieren. Es unterstützt 23 Sprachen.",
|
|
263
|
+
"c4ai-aya-expanse-8b.description": "Aya Expanse ist ein leistungsstarkes mehrsprachiges Modell mit 8 Milliarden Parametern. Es nutzt Instruction Tuning, Datenabgleich, Präferenztraining und Modellfusion, um mit einsprachigen Modellen zu konkurrieren. Es unterstützt 23 Sprachen.",
|
|
264
|
+
"c4ai-aya-vision-32b.description": "Aya Vision ist ein hochmodernes multimodales Modell mit starker Leistung in Sprach-, Text- und Bildbenchmarks. Diese 32B-Version ist auf erstklassige mehrsprachige Leistung ausgelegt und unterstützt 23 Sprachen.",
|
|
265
|
+
"c4ai-aya-vision-8b.description": "Aya Vision ist ein hochmodernes multimodales Modell mit starker Leistung in Sprach-, Text- und Bildbenchmarks. Diese 8B-Version ist auf geringe Latenz und starke Leistung ausgelegt.",
|
|
266
|
+
"charglm-3.description": "CharGLM-3 wurde für Rollenspiele und emotionale Begleitung entwickelt. Es unterstützt extrem lange Dialogverläufe und personalisierte Gespräche.",
|
|
267
|
+
"charglm-4.description": "CharGLM-4 wurde für Rollenspiele und emotionale Begleitung entwickelt. Es unterstützt extrem lange Dialogverläufe und personalisierte Gespräche.",
|
|
268
|
+
"chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
|
|
269
|
+
"claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
|
|
270
|
+
"claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
|
|
271
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic mit verbesserten Fähigkeiten, das das bisherige Flaggschiff Claude 3 Opus in vielen Benchmarks übertrifft.",
|
|
272
|
+
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
|
|
273
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 ist das intelligenteste Modell von Anthropic und das erste hybride Denkmodell auf dem Markt. Es unterstützt nahezu sofortige Antworten oder erweitertes Denken mit feiner Steuerung.",
|
|
274
|
+
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
275
|
+
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
|
|
276
|
+
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
277
|
+
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
|
|
278
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic mit blitzschneller Reaktion und erweitertem Denkvermögen.",
|
|
279
|
+
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
|
|
280
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
281
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
282
|
+
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
|
|
283
|
+
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
|
|
284
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 ist das bisher intelligenteste Modell von Anthropic. Es bietet nahezu sofortige Antworten oder schrittweises Denken mit feiner Steuerung für API-Nutzer.",
|
|
285
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
|
|
286
|
+
"codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
|
|
287
|
+
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
|
|
288
|
+
"codegemma.description": "CodeGemma ist ein leichtgewichtiges Modell für verschiedene Programmieraufgaben, das schnelle Iteration und Integration ermöglicht.",
|
|
289
|
+
"codegemma:2b.description": "CodeGemma ist ein leichtgewichtiges Modell für verschiedene Programmieraufgaben, das schnelle Iteration und Integration ermöglicht.",
|
|
290
|
+
"codellama.description": "Code Llama ist ein LLM, das sich auf Codegenerierung und -diskussion konzentriert und eine breite Sprachunterstützung für Entwickler-Workflows bietet.",
|
|
291
|
+
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama ist ein LLM, das sich auf Codegenerierung und -diskussion konzentriert und eine breite Sprachunterstützung für Entwickler-Workflows bietet.",
|
|
292
|
+
"codellama:13b.description": "Code Llama ist ein LLM, das sich auf Codegenerierung und -diskussion konzentriert und eine breite Sprachunterstützung für Entwickler-Workflows bietet.",
|
|
293
|
+
"codellama:34b.description": "Code Llama ist ein LLM, das sich auf Codegenerierung und -diskussion konzentriert und eine breite Sprachunterstützung für Entwickler-Workflows bietet.",
|
|
294
|
+
"codellama:70b.description": "Code Llama ist ein LLM, das sich auf Codegenerierung und -diskussion konzentriert und eine breite Sprachunterstützung für Entwickler-Workflows bietet.",
|
|
295
|
+
"codeqwen.description": "CodeQwen1.5 ist ein großes Sprachmodell, das auf umfangreichen Code-Daten trainiert wurde und für komplexe Programmieraufgaben entwickelt wurde.",
|
|
296
|
+
"codestral-latest.description": "Codestral ist unser fortschrittlichstes Codierungsmodell; Version 2 (Jan. 2025) ist auf Aufgaben mit niedriger Latenz und hoher Frequenz wie FIM, Codekorrektur und Testgenerierung ausgelegt.",
|
|
297
|
+
"codestral.description": "Codestral ist das erste Codierungsmodell von Mistral AI und bietet leistungsstarke Unterstützung bei der Codegenerierung.",
|
|
298
|
+
"codex-mini-latest.description": "codex-mini-latest ist ein feinabgestimmtes o4-mini-Modell für die Codex-CLI. Für die direkte API-Nutzung empfehlen wir den Einstieg mit gpt-4.1.",
|
|
299
|
+
"cogito-2.1:671b.description": "Cogito v2.1 671B ist ein quelloffenes US-LLM zur freien kommerziellen Nutzung mit einer Leistung, die mit Spitzenmodellen konkurriert. Es bietet eine höhere Effizienz beim Token-Reasoning, einen 128k-Kontext und starke Gesamtfähigkeiten.",
|
|
300
|
+
"cogview-4.description": "CogView-4 ist Zhipus erstes quelloffenes Text-zu-Bild-Modell, das chinesische Schriftzeichen generieren kann. Es verbessert das semantische Verständnis, die Bildqualität und die Textdarstellung in Chinesisch/Englisch, unterstützt beliebig lange zweisprachige Eingaben und kann Bilder in jeder Auflösung innerhalb definierter Bereiche erzeugen.",
|
|
301
|
+
"cohere-command-r-plus.description": "Command R+ ist ein fortschrittliches, für RAG optimiertes Modell, das für Unternehmensanwendungen entwickelt wurde.",
|
|
302
|
+
"cohere-command-r.description": "Command R ist ein skalierbares generatives Modell, das für RAG und Tool-Nutzung konzipiert ist und produktionsreife KI ermöglicht.",
|
|
303
|
+
"cohere/Cohere-command-r-plus.description": "Command R+ ist ein fortschrittliches, für RAG optimiertes Modell, das für Unternehmensanwendungen entwickelt wurde.",
|
|
304
|
+
"cohere/Cohere-command-r.description": "Command R ist ein skalierbares generatives Modell, das für RAG und Tool-Nutzung konzipiert ist und produktionsreife KI ermöglicht.",
|
|
305
|
+
"cohere/command-a.description": "Command A ist Cohere’s leistungsstärkstes Modell, das sich durch Tool-Nutzung, Agenten, RAG und mehrsprachige Anwendungsfälle auszeichnet. Es unterstützt einen Kontext von 256K, läuft auf nur zwei GPUs und bietet 150 % höheren Durchsatz als Command R+ 08-2024.",
|
|
306
|
+
"cohere/command-r-plus.description": "Command R+ ist Cohere’s neuestes LLM, optimiert für Chat und lange Kontexte, mit dem Ziel, Unternehmen den Übergang von Prototypen zur Produktion zu ermöglichen.",
|
|
307
|
+
"cohere/command-r.description": "Command R ist für Chat- und Langkontextaufgaben optimiert und als „skalierbares“ Modell positioniert, das hohe Leistung und Genauigkeit vereint, um Unternehmen den Übergang von Prototypen zur Produktion zu erleichtern.",
|
|
308
|
+
"cohere/embed-v4.0.description": "Ein Modell, das Text, Bilder oder gemischte Inhalte klassifiziert oder in Embeddings umwandelt.",
|
|
309
|
+
"comfyui/flux-dev.description": "FLUX.1 Dev ist ein hochwertiges Text-zu-Bild-Modell (10–50 Schritte), ideal für kreative und künstlerische Premium-Ausgaben.",
|
|
310
|
+
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev ist ein Bildbearbeitungsmodell, das textgesteuerte Bearbeitungen unterstützt, einschließlich lokaler Änderungen und Stilübertragungen.",
|
|
311
|
+
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev ist ein sicherheitsoptimiertes Text-zu-Bild-Modell, das gemeinsam mit Krea entwickelt wurde und integrierte Sicherheitsfilter enthält.",
|
|
312
|
+
"comfyui/flux-schnell.description": "FLUX.1 Schnell ist ein ultraschnelles Text-zu-Bild-Modell, das hochwertige Bilder in 1–4 Schritten generiert – ideal für Echtzeitanwendungen und schnelles Prototyping.",
|
|
313
|
+
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 ist ein klassisches 512x512 Text-zu-Bild-Modell, ideal für schnelles Prototyping und kreative Experimente.",
|
|
314
|
+
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 mit integrierten CLIP/T5-Encodern benötigt keine externen Encoder-Dateien und eignet sich für Modelle wie sd3.5_medium_incl_clips mit geringem Ressourcenverbrauch.",
|
|
315
|
+
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 ist ein Text-zu-Bild-Modell der nächsten Generation mit Varianten in Large und Medium. Es benötigt externe CLIP-Encoder-Dateien und liefert hervorragende Bildqualität und Prompt-Treue.",
|
|
316
|
+
"comfyui/stable-diffusion-custom-refiner.description": "Benutzerdefiniertes SDXL Bild-zu-Bild-Modell. Verwenden Sie custom_sd_lobe.safetensors als Modell-Dateinamen; bei VAE verwenden Sie custom_sd_vae_lobe.safetensors. Platzieren Sie die Modell-Dateien in den erforderlichen Comfy-Ordnern.",
|
|
317
|
+
"comfyui/stable-diffusion-custom.description": "Benutzerdefiniertes SD Text-zu-Bild-Modell. Verwenden Sie custom_sd_lobe.safetensors als Modell-Dateinamen; bei VAE verwenden Sie custom_sd_vae_lobe.safetensors. Platzieren Sie die Modell-Dateien in den erforderlichen Comfy-Ordnern.",
|
|
318
|
+
"comfyui/stable-diffusion-refiner.description": "SDXL Bild-zu-Bild-Modell für hochwertige Transformationen von Eingabebildern, unterstützt Stilübertragungen, Restaurierung und kreative Variationen.",
|
|
319
|
+
"comfyui/stable-diffusion-xl.description": "SDXL ist ein Text-zu-Bild-Modell mit Unterstützung für hochauflösende 1024x1024-Bilder und verbesserter Bildqualität und Detailtreue.",
|
|
320
|
+
"command-a-03-2025.description": "Command A ist unser bisher leistungsfähigstes Modell, das sich durch Tool-Nutzung, Agenten, RAG und mehrsprachige Szenarien auszeichnet. Es unterstützt ein Kontextfenster von 256K, läuft auf nur zwei GPUs und bietet 150 % höheren Durchsatz als Command R+ 08-2024.",
|
|
321
|
+
"command-light-nightly.description": "Um die Zeit zwischen Hauptveröffentlichungen zu verkürzen, bieten wir nächtliche Command-Builds an. Für die command-light-Serie heißt dies command-light-nightly. Es handelt sich um die neueste, experimentellste (und potenziell instabile) Version, die regelmäßig ohne Ankündigung aktualisiert wird – daher nicht für den Produktionseinsatz empfohlen.",
|
|
322
|
+
"command-light.description": "Eine kleinere, schnellere Command-Variante, die nahezu gleich leistungsfähig, aber schneller ist.",
|
|
323
|
+
"command-nightly.description": "Um die Zeit zwischen Hauptveröffentlichungen zu verkürzen, bieten wir nächtliche Command-Builds an. Für die Command-Serie heißt dies command-nightly. Es handelt sich um die neueste, experimentellste (und potenziell instabile) Version, die regelmäßig ohne Ankündigung aktualisiert wird – daher nicht für den Produktionseinsatz empfohlen.",
|
|
324
|
+
"command-r-03-2024.description": "Command R ist ein Chatmodell zur Befolgung von Anweisungen mit höherer Qualität, größerer Zuverlässigkeit und einem längeren Kontextfenster als frühere Modelle. Es unterstützt komplexe Workflows wie Codegenerierung, RAG, Tool-Nutzung und Agenten.",
|
|
325
|
+
"command-r-08-2024.description": "command-r-08-2024 ist ein aktualisiertes Command R-Modell, das im August 2024 veröffentlicht wurde.",
|
|
326
|
+
"command-r-plus-04-2024.description": "command-r-plus ist ein Alias für command-r-plus-04-2024. Die Verwendung von command-r-plus in der API verweist auf dieses Modell.",
|
|
327
|
+
"command-r-plus-08-2024.description": "Command R+ ist ein Chatmodell zur Befolgung von Anweisungen mit höherer Qualität, größerer Zuverlässigkeit und einem längeren Kontextfenster als frühere Modelle. Es eignet sich besonders für komplexe RAG-Workflows und mehrstufige Tool-Nutzung.",
|
|
328
|
+
"command-r-plus.description": "Command R+ ist ein leistungsstarkes LLM, das für reale Unternehmensszenarien und komplexe Anwendungen entwickelt wurde.",
|
|
329
|
+
"command-r.description": "Command R ist ein LLM, das für Chat- und Langkontextaufgaben optimiert ist – ideal für dynamische Interaktionen und Wissensmanagement.",
|
|
330
|
+
"command-r7b-12-2024.description": "command-r7b-12-2024 ist ein kleines, effizientes Update, das im Dezember 2024 veröffentlicht wurde. Es ist besonders stark bei RAG, Tool-Nutzung und Agentenaufgaben, die komplexes, mehrstufiges Denken erfordern.",
|
|
331
|
+
"command.description": "Ein Chatmodell zur Befolgung von Anweisungen, das bei Sprachaufgaben höhere Qualität und Zuverlässigkeit liefert und ein längeres Kontextfenster als unsere Basis-Generativmodelle bietet.",
|
|
332
|
+
"computer-use-preview.description": "computer-use-preview ist ein spezialisiertes Modell für das Tool „Computer Use“, das darauf trainiert ist, computerbezogene Aufgaben zu verstehen und auszuführen.",
|
|
333
|
+
"dall-e-2.description": "Zweite Generation des DALL·E-Modells mit realistischeren, genaueren Bildgenerierungen und vierfacher Auflösung im Vergleich zur ersten Generation.",
|
|
334
|
+
"dall-e-3.description": "Das neueste DALL·E-Modell, veröffentlicht im November 2023, bietet realistischere, genauere Bildgenerierung mit höherem Detailgrad.",
|
|
250
335
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
|
|
251
336
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
|
|
252
337
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
|
|
@@ -73,6 +73,8 @@
|
|
|
73
73
|
"builtins.lobe-gtd.title": "Aufgaben-Tools",
|
|
74
74
|
"builtins.lobe-knowledge-base.apiName.readKnowledge": "Bibliotheksinhalte lesen",
|
|
75
75
|
"builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "Bibliothek durchsuchen",
|
|
76
|
+
"builtins.lobe-knowledge-base.inspector.andMoreFiles": "und {{count}} weitere",
|
|
77
|
+
"builtins.lobe-knowledge-base.inspector.noResults": "Keine Ergebnisse",
|
|
76
78
|
"builtins.lobe-knowledge-base.title": "Bibliothek",
|
|
77
79
|
"builtins.lobe-local-system.apiName.editLocalFile": "Datei bearbeiten",
|
|
78
80
|
"builtins.lobe-local-system.apiName.getCommandOutput": "Befehlsausgabe abrufen",
|
|
@@ -86,6 +88,8 @@
|
|
|
86
88
|
"builtins.lobe-local-system.apiName.runCommand": "Befehl ausführen",
|
|
87
89
|
"builtins.lobe-local-system.apiName.searchLocalFiles": "Dateien suchen",
|
|
88
90
|
"builtins.lobe-local-system.apiName.writeLocalFile": "Datei schreiben",
|
|
91
|
+
"builtins.lobe-local-system.inspector.noResults": "Keine Ergebnisse",
|
|
92
|
+
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
89
93
|
"builtins.lobe-local-system.title": "Lokales System",
|
|
90
94
|
"builtins.lobe-page-agent.apiName.batchUpdate": "Knoten stapelweise aktualisieren",
|
|
91
95
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "Schnappschüsse vergleichen",
|
|
@@ -143,6 +147,7 @@
|
|
|
143
147
|
"builtins.lobe-web-browsing.apiName.crawlMultiPages": "Mehrere Seiten lesen",
|
|
144
148
|
"builtins.lobe-web-browsing.apiName.crawlSinglePage": "Seiteninhalt lesen",
|
|
145
149
|
"builtins.lobe-web-browsing.apiName.search": "Seiten durchsuchen",
|
|
150
|
+
"builtins.lobe-web-browsing.inspector.noResults": "Keine Ergebnisse",
|
|
146
151
|
"builtins.lobe-web-browsing.title": "Websuche",
|
|
147
152
|
"confirm": "Bestätigen",
|
|
148
153
|
"debug.arguments": "Argumente",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle – mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.",
|
|
30
30
|
"jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
|
|
31
31
|
"lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.",
|
|
32
33
|
"minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung – inklusive Funktionsaufrufen für individuelle Integrationen.",
|
|
34
35
|
"modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.",
|