@lobehub/lobehub 2.0.0-next.187 → 2.0.0-next.189
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/e2e/CLAUDE.md +109 -2
- package/e2e/docs/llm-mock.md +68 -0
- package/e2e/docs/local-setup.md +354 -0
- package/e2e/docs/testing-tips.md +94 -0
- package/e2e/src/features/journeys/agent/agent-conversation.feature +0 -32
- package/e2e/src/mocks/llm/index.ts +6 -6
- package/e2e/src/steps/agent/conversation.steps.ts +3 -471
- package/locales/ar/models.json +89 -5
- package/locales/ar/plugin.json +5 -0
- package/locales/ar/providers.json +1 -0
- package/locales/bg-BG/models.json +68 -0
- package/locales/bg-BG/plugin.json +5 -0
- package/locales/bg-BG/providers.json +1 -0
- package/locales/de-DE/models.json +85 -0
- package/locales/de-DE/plugin.json +5 -0
- package/locales/de-DE/providers.json +1 -0
- package/locales/en-US/models.json +11 -10
- package/locales/en-US/plugin.json +5 -0
- package/locales/en-US/providers.json +1 -0
- package/locales/es-ES/models.json +72 -0
- package/locales/es-ES/plugin.json +5 -0
- package/locales/es-ES/providers.json +1 -0
- package/locales/fa-IR/models.json +86 -0
- package/locales/fa-IR/plugin.json +5 -0
- package/locales/fa-IR/providers.json +1 -0
- package/locales/fr-FR/models.json +49 -0
- package/locales/fr-FR/plugin.json +5 -0
- package/locales/fr-FR/providers.json +1 -0
- package/locales/it-IT/models.json +82 -0
- package/locales/it-IT/plugin.json +5 -0
- package/locales/it-IT/providers.json +1 -0
- package/locales/ja-JP/models.json +42 -5
- package/locales/ja-JP/plugin.json +5 -0
- package/locales/ja-JP/providers.json +1 -0
- package/locales/ko-KR/models.json +54 -0
- package/locales/ko-KR/plugin.json +5 -0
- package/locales/ko-KR/providers.json +1 -0
- package/locales/nl-NL/models.json +12 -1
- package/locales/nl-NL/plugin.json +5 -0
- package/locales/nl-NL/providers.json +1 -0
- package/locales/pl-PL/models.json +46 -0
- package/locales/pl-PL/plugin.json +5 -0
- package/locales/pl-PL/providers.json +1 -0
- package/locales/pt-BR/models.json +59 -0
- package/locales/pt-BR/plugin.json +5 -0
- package/locales/pt-BR/providers.json +1 -0
- package/locales/ru-RU/models.json +85 -0
- package/locales/ru-RU/plugin.json +5 -0
- package/locales/ru-RU/providers.json +1 -0
- package/locales/tr-TR/models.json +81 -0
- package/locales/tr-TR/plugin.json +5 -0
- package/locales/tr-TR/providers.json +1 -0
- package/locales/vi-VN/models.json +54 -0
- package/locales/vi-VN/plugin.json +5 -0
- package/locales/vi-VN/providers.json +1 -0
- package/locales/zh-CN/models.json +42 -5
- package/locales/zh-CN/plugin.json +5 -0
- package/locales/zh-CN/providers.json +1 -0
- package/locales/zh-TW/models.json +85 -0
- package/locales/zh-TW/plugin.json +5 -0
- package/locales/zh-TW/providers.json +1 -0
- package/package.json +2 -2
- package/packages/builtin-tool-gtd/src/manifest.ts +13 -8
- package/packages/builtin-tool-gtd/src/systemRole.ts +54 -19
- package/packages/builtin-tool-knowledge-base/package.json +1 -0
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/ReadKnowledge/index.tsx +97 -0
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/SearchKnowledgeBase/index.tsx +75 -0
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/index.ts +11 -0
- package/packages/builtin-tool-knowledge-base/src/client/Render/ReadKnowledge/FileCard.tsx +12 -12
- package/packages/builtin-tool-knowledge-base/src/client/Render/ReadKnowledge/index.tsx +16 -25
- package/packages/builtin-tool-knowledge-base/src/client/Render/SearchKnowledgeBase/Item/index.tsx +21 -47
- package/packages/builtin-tool-knowledge-base/src/client/Render/SearchKnowledgeBase/index.tsx +19 -31
- package/packages/builtin-tool-knowledge-base/src/client/Render/index.ts +0 -5
- package/packages/builtin-tool-knowledge-base/src/client/index.ts +5 -1
- package/packages/builtin-tool-knowledge-base/src/executor/index.ts +119 -0
- package/packages/builtin-tool-local-system/package.json +1 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/EditLocalFile/index.tsx +44 -29
- package/packages/builtin-tool-local-system/src/client/Inspector/GrepContent/index.tsx +20 -18
- package/packages/builtin-tool-local-system/src/client/Inspector/ListLocalFiles/index.tsx +76 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/ReadLocalFile/index.tsx +8 -32
- package/packages/builtin-tool-local-system/src/client/Inspector/RenameLocalFile/index.tsx +62 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/SearchLocalFiles/index.tsx +17 -11
- package/packages/builtin-tool-local-system/src/client/Inspector/WriteLocalFile/index.tsx +61 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/index.ts +6 -0
- package/packages/builtin-tool-local-system/src/client/Render/EditLocalFile/index.tsx +6 -1
- package/packages/builtin-tool-local-system/src/client/Render/SearchFiles/SearchQuery/SearchView.tsx +19 -31
- package/packages/builtin-tool-local-system/src/client/Render/SearchFiles/SearchQuery/index.tsx +2 -42
- package/packages/builtin-tool-local-system/src/client/Render/index.ts +0 -2
- package/packages/builtin-tool-local-system/src/client/components/FilePathDisplay.tsx +56 -0
- package/packages/builtin-tool-local-system/src/client/components/index.ts +2 -0
- package/packages/builtin-tool-local-system/src/executor/index.ts +435 -0
- package/packages/builtin-tool-web-browsing/src/client/Inspector/Search/index.tsx +32 -5
- package/packages/model-runtime/src/core/contextBuilders/google.test.ts +84 -0
- package/packages/model-runtime/src/core/contextBuilders/google.ts +37 -1
- package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/List/Item/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/List/Item/index.tsx +23 -29
- package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/List/Item/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/index.tsx +10 -18
- package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/community/(detail)/assistant/features/Sidebar/ActionButton/AddAgent.tsx +47 -27
- package/src/app/[variants]/(main)/community/(detail)/user/features/UserAgentCard.tsx +4 -3
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/List/Item/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/List/Item/index.tsx +23 -29
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/List/Item/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/index.tsx +10 -18
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/TopicSelector.tsx +18 -20
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentGroupItem/index.tsx +19 -25
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentItem/index.tsx +21 -26
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/Item/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/Item/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/home/_layout/Body/Project/List/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/home/_layout/Body/Project/List/Item.tsx +8 -15
- package/src/app/[variants]/(main)/home/_layout/Body/Project/List/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/home/_layout/Header/components/AddButton.tsx +3 -4
- package/src/app/[variants]/(main)/page/_layout/Body/List/Item/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/page/_layout/Body/List/Item/index.tsx +13 -20
- package/src/app/[variants]/(main)/page/_layout/Body/List/Item/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/resource/(home)/_layout/Body/LibraryList/List/Item/Actions.tsx +4 -13
- package/src/app/[variants]/(main)/resource/(home)/_layout/Body/LibraryList/List/Item/index.tsx +16 -23
- package/src/app/[variants]/(main)/resource/(home)/_layout/Body/LibraryList/List/Item/useDropdownMenu.tsx +3 -3
- package/src/app/[variants]/(main)/resource/library/_layout/Header/LibraryHead.tsx +4 -6
- package/src/features/AgentBuilder/TopicSelector.tsx +18 -17
- package/src/features/Conversation/ChatItem/style.ts +7 -0
- package/src/features/Conversation/Messages/Assistant/Actions/Error.tsx +1 -3
- package/src/features/Conversation/Messages/Assistant/Actions/index.tsx +37 -16
- package/src/features/Conversation/Messages/AssistantGroup/Actions/index.tsx +36 -17
- package/src/features/Conversation/Messages/Supervisor/Actions/index.tsx +36 -17
- package/src/features/Conversation/Messages/Task/Actions/Error.tsx +1 -3
- package/src/features/Conversation/Messages/Task/Actions/index.tsx +31 -15
- package/src/features/Conversation/Messages/User/Actions/index.tsx +1 -1
- package/src/features/Conversation/Messages/index.tsx +8 -59
- package/src/features/Conversation/components/ShareMessageModal/index.tsx +1 -1
- package/src/features/Conversation/hooks/useChatItemContextMenu.tsx +313 -83
- package/src/features/NavPanel/components/NavItem.tsx +33 -3
- package/src/features/PageEditor/Copilot/TopicSelector/Actions.tsx +6 -14
- package/src/features/PageEditor/Copilot/TopicSelector/TopicItem.tsx +1 -0
- package/src/features/PageEditor/Copilot/TopicSelector/useDropdownMenu.tsx +6 -3
- package/src/features/ResourceManager/components/Explorer/ItemDropdown/DropdownMenu.tsx +12 -35
- package/src/features/ResourceManager/components/Explorer/ItemDropdown/useFileItemDropdown.tsx +4 -8
- package/src/features/ResourceManager/components/Explorer/ListView/ListItem/index.tsx +162 -160
- package/src/features/ResourceManager/components/Explorer/MasonryView/MasonryFileItem/index.tsx +16 -8
- package/src/features/ResourceManager/components/Explorer/ToolBar/ActionIconWithChevron.tsx +4 -3
- package/src/features/ResourceManager/components/Explorer/ToolBar/BatchActionsDropdown.tsx +6 -12
- package/src/features/ResourceManager/components/Explorer/ToolBar/SortDropdown.tsx +8 -8
- package/src/features/ResourceManager/components/Explorer/ToolBar/ViewSwitcher.tsx +8 -11
- package/src/features/ResourceManager/components/Tree/index.tsx +121 -122
- package/src/helpers/toolEngineering/index.ts +1 -1
- package/src/layout/GlobalProvider/index.tsx +5 -2
- package/src/locales/default/plugin.ts +6 -0
- package/src/server/modules/Mecha/AgentToolsEngine/__tests__/index.test.ts +1 -1
- package/src/server/modules/Mecha/AgentToolsEngine/index.ts +1 -1
- package/src/store/chat/slices/builtinTool/actions/index.ts +1 -11
- package/src/store/tool/slices/builtin/executors/index.ts +4 -0
- package/src/styles/global.ts +6 -0
- package/src/styles/text.ts +1 -1
- package/src/tools/executionRuntimes.ts +3 -8
- package/src/tools/identifiers.ts +1 -1
- package/src/tools/index.ts +1 -1
- package/src/tools/inspectors.ts +5 -0
- package/src/tools/renders.ts +6 -12
- package/packages/builtin-tool-local-system/src/client/Render/RenameLocalFile/index.tsx +0 -37
- package/src/features/Conversation/components/ContextMenu.tsx +0 -418
- package/src/store/chat/slices/builtinTool/actions/__tests__/localSystem.test.ts +0 -201
- package/src/store/chat/slices/builtinTool/actions/knowledgeBase.ts +0 -163
- package/src/store/chat/slices/builtinTool/actions/localSystem.ts +0 -241
- package/src/tools/knowledge-base/ExecutionRuntime/index.ts +0 -25
- package/src/tools/knowledge-base/Render/ReadKnowledge/index.tsx +0 -29
- package/src/tools/knowledge-base/Render/SearchKnowledgeBase/index.tsx +0 -29
- package/src/tools/knowledge-base/Render/index.ts +0 -7
- package/src/tools/knowledge-base/index.ts +0 -12
- package/src/tools/local-system/ExecutionRuntime/index.ts +0 -9
- package/src/tools/local-system/systemRole.ts +0 -1
|
@@ -224,6 +224,88 @@
|
|
|
224
224
|
"alibaba/qwen-3-30b.description": "Qwen3 è l'ultima generazione della serie Qwen, che offre una gamma completa di modelli densi e MoE. Basato su un addestramento esteso, introduce innovazioni nel ragionamento, nella comprensione delle istruzioni, nelle capacità agentiche e nel supporto multilingue.",
|
|
225
225
|
"alibaba/qwen-3-32b.description": "Qwen3 è l'ultima generazione della serie Qwen, che offre una gamma completa di modelli densi e MoE. Basato su un addestramento esteso, introduce innovazioni nel ragionamento, nella comprensione delle istruzioni, nelle capacità agentiche e nel supporto multilingue.",
|
|
226
226
|
"alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct è il modello Qwen più avanzato per la programmazione, con ottime prestazioni in attività agentiche di codifica, uso del browser e altri compiti fondamentali, raggiungendo risultati comparabili a Claude Sonnet.",
|
|
227
|
+
"amazon/nova-lite.description": "Un modello multimodale a bassissimo costo con elaborazione estremamente rapida di input immagine, video e testo.",
|
|
228
|
+
"amazon/nova-micro.description": "Un modello solo testuale che offre una latenza ultra-bassa a un costo molto contenuto.",
|
|
229
|
+
"amazon/nova-pro.description": "Un modello multimodale altamente performante con il miglior equilibrio tra accuratezza, velocità e costo per un'ampia gamma di compiti.",
|
|
230
|
+
"amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 è un modello di embedding multilingue leggero ed efficiente che supporta dimensioni di 1024, 512 e 256.",
|
|
231
|
+
"anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet alza lo standard del settore, superando i concorrenti e Claude 3 Opus in valutazioni ampie, mantenendo velocità e costi di fascia media.",
|
|
232
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet alza lo standard del settore, superando i concorrenti e Claude 3 Opus in valutazioni ampie, mantenendo velocità e costi di fascia media.",
|
|
233
|
+
"anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee a domande semplici. Offre esperienze AI fluide e simili a quelle umane e supporta input immagine con una finestra di contesto di 200K.",
|
|
234
|
+
"anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus è il modello AI più potente di Anthropic, con prestazioni all'avanguardia in compiti altamente complessi. Gestisce prompt aperti e scenari inediti con eccezionale fluidità e comprensione simile a quella umana, e supporta input immagine con una finestra di contesto di 200K.",
|
|
235
|
+
"anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo un ottimo valore a costi contenuti. È progettato come un modello affidabile per implementazioni AI su larga scala e supporta input immagine con una finestra di contesto di 200K.",
|
|
236
|
+
"anthropic.claude-instant-v1.description": "Un modello veloce, economico ma capace per chat quotidiane, analisi testuale, riassunti e domande su documenti.",
|
|
237
|
+
"anthropic.claude-v2.description": "Un modello altamente capace per compiti che vanno dal dialogo complesso alla generazione creativa fino al rispetto dettagliato delle istruzioni.",
|
|
238
|
+
"anthropic.claude-v2:1.description": "Una versione aggiornata di Claude 2 con il doppio della finestra di contesto e miglioramenti in affidabilità, riduzione delle allucinazioni e accuratezza basata su prove per documenti lunghi e RAG.",
|
|
239
|
+
"anthropic/claude-3-haiku.description": "Claude 3 Haiku è il modello più veloce di Anthropic, progettato per carichi di lavoro aziendali con prompt lunghi. Può analizzare rapidamente documenti estesi come report trimestrali, contratti o casi legali a metà del costo dei concorrenti.",
|
|
240
|
+
"anthropic/claude-3-opus.description": "Claude 3 Opus è il modello più intelligente di Anthropic, con prestazioni leader di mercato in compiti altamente complessi, gestendo prompt aperti e scenari inediti con eccezionale fluidità e comprensione simile a quella umana.",
|
|
241
|
+
"anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku offre velocità migliorata, accuratezza nel codice e uso degli strumenti, adatto a scenari con requisiti elevati di velocità e interazione con strumenti.",
|
|
242
|
+
"anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet è il modello veloce ed efficiente della famiglia Sonnet, con migliori prestazioni in codifica e ragionamento; alcune versioni sono gradualmente sostituite da Sonnet 3.7 e successivi.",
|
|
243
|
+
"anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet è un modello Sonnet aggiornato con ragionamento e codifica potenziati, adatto a compiti complessi di livello aziendale.",
|
|
244
|
+
"anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 è il modello veloce ad alte prestazioni di Anthropic, con latenza molto bassa e alta accuratezza.",
|
|
245
|
+
"anthropic/claude-opus-4.1.description": "Opus 4.1 è il modello di fascia alta di Anthropic, ottimizzato per programmazione, ragionamento complesso e compiti di lunga durata.",
|
|
246
|
+
"anthropic/claude-opus-4.5.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza di alto livello con prestazioni scalabili per compiti complessi e ragionamento di alta qualità.",
|
|
247
|
+
"anthropic/claude-opus-4.description": "Opus 4 è il modello di punta di Anthropic, progettato per compiti complessi e applicazioni aziendali.",
|
|
248
|
+
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 è l'ultimo modello di ragionamento ibrido di Anthropic, ottimizzato per ragionamento complesso e codifica.",
|
|
249
|
+
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 è il modello di ragionamento ibrido di Anthropic con capacità miste di pensiero e non-pensiero.",
|
|
250
|
+
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B è un LLM sparso con 72 miliardi di parametri totali e 16 miliardi attivi, basato su un'architettura MoE raggruppata (MoGE). Raggruppa gli esperti durante la selezione e vincola i token ad attivare un numero uguale di esperti per gruppo, bilanciando il carico e migliorando l'efficienza di distribuzione su Ascend.",
|
|
251
|
+
"aya.description": "Aya 23 è il modello multilingue di Cohere che supporta 23 lingue per casi d'uso diversificati.",
|
|
252
|
+
"aya:35b.description": "Aya 23 è il modello multilingue di Cohere che supporta 23 lingue per casi d'uso diversificati.",
|
|
253
|
+
"azure-DeepSeek-R1-0528.description": "Distribuito da Microsoft; DeepSeek R1 è stato aggiornato a DeepSeek-R1-0528. L'aggiornamento aumenta la potenza di calcolo e le ottimizzazioni post-addestramento, migliorando significativamente la profondità di ragionamento e l'inferenza. Ottiene ottimi risultati in matematica, programmazione e logica generale, avvicinandosi a modelli leader come O3 e Gemini 2.5 Pro.",
|
|
254
|
+
"baichuan-m2-32b.description": "Baichuan M2 32B è un modello MoE di Baichuan Intelligence con forte capacità di ragionamento.",
|
|
255
|
+
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B è un LLM open-source e commercialmente utilizzabile con 13 miliardi di parametri, che ottiene risultati di riferimento eccellenti per la sua dimensione su benchmark autorevoli in cinese e inglese.",
|
|
256
|
+
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B è un LLM MoE di Baidu con 300 miliardi di parametri totali e 47 miliardi attivi per token, che bilancia prestazioni elevate ed efficienza computazionale. Come modello centrale di ERNIE 4.5, eccelle in comprensione, generazione, ragionamento e programmazione. Utilizza un metodo di pre-addestramento multimodale eterogeneo MoE con addestramento congiunto testo-visione per potenziare le capacità generali, in particolare nel seguire istruzioni e nella conoscenza del mondo.",
|
|
257
|
+
"baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview è il modello ERNIE multimodale nativo di nuova generazione di Baidu, forte nella comprensione multimodale, nel seguire istruzioni, nella creazione, nelle domande e risposte fattuali e nell'uso di strumenti.",
|
|
258
|
+
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro è una versione più veloce e migliorata di FLUX Pro con eccellente qualità delle immagini e aderenza ai prompt.",
|
|
259
|
+
"black-forest-labs/flux-dev.description": "FLUX Dev è la versione di sviluppo di FLUX per uso non commerciale.",
|
|
260
|
+
"black-forest-labs/flux-pro.description": "FLUX Pro è il modello FLUX professionale per output di immagini di alta qualità.",
|
|
261
|
+
"black-forest-labs/flux-schnell.description": "FLUX Schnell è un modello di generazione immagini veloce ottimizzato per la rapidità.",
|
|
262
|
+
"c4ai-aya-expanse-32b.description": "Aya Expanse è un modello multilingue ad alte prestazioni da 32B che utilizza l'istruction tuning, l'arbitraggio dei dati, l'addestramento basato sulle preferenze e la fusione di modelli per competere con i modelli monolingue. Supporta 23 lingue.",
|
|
263
|
+
"c4ai-aya-expanse-8b.description": "Aya Expanse è un modello multilingue ad alte prestazioni da 8B che utilizza l'istruction tuning, l'arbitraggio dei dati, l'addestramento basato sulle preferenze e la fusione di modelli per competere con i modelli monolingue. Supporta 23 lingue.",
|
|
264
|
+
"c4ai-aya-vision-32b.description": "Aya Vision è un modello multimodale all'avanguardia che offre prestazioni eccellenti nei principali benchmark di linguaggio, testo e visione. Supporta 23 lingue. Questa versione da 32B è focalizzata su prestazioni multilingue di livello superiore.",
|
|
265
|
+
"c4ai-aya-vision-8b.description": "Aya Vision è un modello multimodale all'avanguardia che offre prestazioni eccellenti nei principali benchmark di linguaggio, testo e visione. Questa versione da 8B è ottimizzata per bassa latenza e prestazioni elevate.",
|
|
266
|
+
"charglm-3.description": "CharGLM-3 è progettato per il gioco di ruolo e la compagnia emotiva, supportando una memoria multi-turno ultra-lunga e dialoghi personalizzati.",
|
|
267
|
+
"charglm-4.description": "CharGLM-4 è progettato per il gioco di ruolo e la compagnia emotiva, supportando una memoria multi-turno ultra-lunga e dialoghi personalizzati.",
|
|
268
|
+
"chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che combina comprensione e generazione avanzate per casi d'uso su larga scala come assistenza clienti, istruzione e supporto tecnico.",
|
|
269
|
+
"claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
|
|
270
|
+
"claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
|
|
271
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic, con miglioramenti in tutte le competenze e prestazioni superiori rispetto al precedente modello di punta Claude 3 Opus in molti benchmark.",
|
|
272
|
+
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fornisce risposte rapide per attività leggere.",
|
|
273
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato, in grado di fornire risposte quasi istantanee o riflessioni estese con controllo dettagliato.",
|
|
274
|
+
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
275
|
+
"claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
|
|
276
|
+
"claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
277
|
+
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
|
|
278
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di pensiero esteso.",
|
|
279
|
+
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
|
|
280
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
281
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
282
|
+
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
|
|
283
|
+
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
|
|
284
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è il modello più intelligente di Anthropic fino ad oggi, offrendo risposte quasi istantanee o riflessioni estese passo dopo passo con controllo dettagliato per gli utenti API.",
|
|
285
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi.",
|
|
286
|
+
"codegeex-4.description": "CodeGeeX-4 è un potente assistente di codifica AI che supporta Q&A multilingue e completamento del codice per aumentare la produttività degli sviluppatori.",
|
|
287
|
+
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B è un modello multilingue di generazione di codice che supporta completamento e generazione di codice, interprete di codice, ricerca web, chiamata di funzioni e Q&A a livello di repository, coprendo un'ampia gamma di scenari di sviluppo software. È un modello di codice di alto livello con meno di 10B parametri.",
|
|
288
|
+
"codegemma.description": "CodeGemma è un modello leggero per compiti di programmazione vari, che consente iterazioni rapide e facile integrazione.",
|
|
289
|
+
"codegemma:2b.description": "CodeGemma è un modello leggero per compiti di programmazione vari, che consente iterazioni rapide e facile integrazione.",
|
|
290
|
+
"codellama.description": "Code Llama è un LLM focalizzato sulla generazione e discussione di codice, con ampio supporto linguistico per i flussi di lavoro degli sviluppatori.",
|
|
291
|
+
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama è un LLM focalizzato sulla generazione e discussione di codice, con ampio supporto linguistico per i flussi di lavoro degli sviluppatori.",
|
|
292
|
+
"codellama:13b.description": "Code Llama è un LLM focalizzato sulla generazione e discussione di codice, con ampio supporto linguistico per i flussi di lavoro degli sviluppatori.",
|
|
293
|
+
"codellama:34b.description": "Code Llama è un LLM focalizzato sulla generazione e discussione di codice, con ampio supporto linguistico per i flussi di lavoro degli sviluppatori.",
|
|
294
|
+
"codellama:70b.description": "Code Llama è un LLM focalizzato sulla generazione e discussione di codice, con ampio supporto linguistico per i flussi di lavoro degli sviluppatori.",
|
|
295
|
+
"codeqwen.description": "CodeQwen1.5 è un modello linguistico di grandi dimensioni addestrato su un ampio set di dati di codice, progettato per compiti di programmazione complessi.",
|
|
296
|
+
"codestral-latest.description": "Codestral è il nostro modello di codifica più avanzato; la versione v2 (gennaio 2025) è pensata per compiti a bassa latenza e alta frequenza come FIM, correzione del codice e generazione di test.",
|
|
297
|
+
"codestral.description": "Codestral è il primo modello di codice di Mistral AI, che offre un forte supporto alla generazione di codice.",
|
|
298
|
+
"codex-mini-latest.description": "codex-mini-latest è un modello o4-mini ottimizzato per Codex CLI. Per l'uso diretto via API, si consiglia di iniziare con gpt-4.1.",
|
|
299
|
+
"cogito-2.1:671b.description": "Cogito v2.1 671B è un LLM open-source statunitense gratuito per uso commerciale, con prestazioni paragonabili ai modelli di punta, maggiore efficienza nel ragionamento sui token, contesto lungo da 128k e capacità complessive elevate.",
|
|
300
|
+
"cogview-4.description": "CogView-4 è il primo modello open-source di testo-immagine di Zhipu in grado di generare caratteri cinesi. Migliora la comprensione semantica, la qualità delle immagini e la resa del testo in cinese/inglese, supporta prompt bilingue di lunghezza arbitraria e può generare immagini a qualsiasi risoluzione entro intervalli specificati.",
|
|
301
|
+
"cohere-command-r-plus.description": "Command R+ è un modello avanzato ottimizzato per RAG, progettato per carichi di lavoro aziendali.",
|
|
302
|
+
"cohere-command-r.description": "Command R è un modello generativo scalabile progettato per RAG e l'uso di strumenti, abilitando AI di livello produttivo.",
|
|
303
|
+
"cohere/Cohere-command-r-plus.description": "Command R+ è un modello avanzato ottimizzato per RAG, progettato per carichi di lavoro aziendali.",
|
|
304
|
+
"cohere/Cohere-command-r.description": "Command R è un modello generativo scalabile progettato per RAG e l'uso di strumenti, abilitando AI di livello produttivo.",
|
|
305
|
+
"cohere/command-a.description": "Command A è il modello più potente di Cohere, eccellente nell'uso di strumenti, agenti, RAG e scenari multilingue. Ha una finestra di contesto da 256K, funziona con solo due GPU e offre una produttività superiore del 150% rispetto a Command R+ 08-2024.",
|
|
306
|
+
"cohere/command-r-plus.description": "Command R+ è l'ultimo LLM di Cohere ottimizzato per chat e contesto lungo, con prestazioni eccezionali per passare dai prototipi alla produzione.",
|
|
307
|
+
"cohere/command-r.description": "Command R è ottimizzato per chat e compiti a contesto lungo, posizionato come modello \"scalabile\" che bilancia alte prestazioni e precisione per passare dai prototipi alla produzione.",
|
|
308
|
+
"cohere/embed-v4.0.description": "Un modello che classifica o converte testo, immagini o contenuti misti in embedding.",
|
|
227
309
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dell’ecosistema globale per l’innovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
|
|
228
310
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
|
|
229
311
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
|
|
@@ -73,6 +73,8 @@
|
|
|
73
73
|
"builtins.lobe-gtd.title": "Strumenti per Attività",
|
|
74
74
|
"builtins.lobe-knowledge-base.apiName.readKnowledge": "Leggi contenuto della Libreria",
|
|
75
75
|
"builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "Cerca nella Libreria",
|
|
76
|
+
"builtins.lobe-knowledge-base.inspector.andMoreFiles": "e altri {{count}}",
|
|
77
|
+
"builtins.lobe-knowledge-base.inspector.noResults": "Nessun risultato",
|
|
76
78
|
"builtins.lobe-knowledge-base.title": "Libreria",
|
|
77
79
|
"builtins.lobe-local-system.apiName.editLocalFile": "Modifica file",
|
|
78
80
|
"builtins.lobe-local-system.apiName.getCommandOutput": "Ottieni output comando",
|
|
@@ -86,6 +88,8 @@
|
|
|
86
88
|
"builtins.lobe-local-system.apiName.runCommand": "Esegui comando",
|
|
87
89
|
"builtins.lobe-local-system.apiName.searchLocalFiles": "Cerca file",
|
|
88
90
|
"builtins.lobe-local-system.apiName.writeLocalFile": "Scrivi file",
|
|
91
|
+
"builtins.lobe-local-system.inspector.noResults": "Nessun risultato",
|
|
92
|
+
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
89
93
|
"builtins.lobe-local-system.title": "Sistema Locale",
|
|
90
94
|
"builtins.lobe-page-agent.apiName.batchUpdate": "Aggiorna nodi in blocco",
|
|
91
95
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "Confronta istantanee",
|
|
@@ -143,6 +147,7 @@
|
|
|
143
147
|
"builtins.lobe-web-browsing.apiName.crawlMultiPages": "Leggi più pagine",
|
|
144
148
|
"builtins.lobe-web-browsing.apiName.crawlSinglePage": "Leggi contenuto pagina",
|
|
145
149
|
"builtins.lobe-web-browsing.apiName.search": "Cerca pagine",
|
|
150
|
+
"builtins.lobe-web-browsing.inspector.noResults": "Nessun risultato",
|
|
146
151
|
"builtins.lobe-web-browsing.title": "Ricerca Web",
|
|
147
152
|
"confirm": "Conferma",
|
|
148
153
|
"debug.arguments": "Argomenti",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Un'organizzazione open-source focalizzata sulla ricerca e gli strumenti per modelli di grandi dimensioni, che offre una piattaforma efficiente e facile da usare per rendere accessibili modelli e algoritmi all'avanguardia.",
|
|
30
30
|
"jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
|
|
31
31
|
"lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud utilizza le API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo tramite Crediti legati ai token del modello.",
|
|
32
33
|
"minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral offre modelli avanzati generali, specializzati e di ricerca per ragionamento complesso, compiti multilingue e generazione di codice, con supporto per chiamate di funzione per integrazioni personalizzate.",
|
|
34
35
|
"modelscope.description": "ModelScope è la piattaforma di modelli-as-a-service di Alibaba Cloud, che offre un'ampia gamma di modelli AI e servizi di inferenza.",
|
|
@@ -268,20 +268,20 @@
|
|
|
268
268
|
"chatgpt-4o-latest.description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、顧客サポート、教育、技術支援などの大規模ユースケースにおいて、優れた理解力と生成能力を兼ね備えています。",
|
|
269
269
|
"claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
|
|
270
270
|
"claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
|
|
271
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku
|
|
271
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 HaikuはAnthropicの次世代モデルの中で最も高速なモデルであり、さまざまなスキルにおいて向上し、従来のフラッグシップモデルClaude 3 Opusを多くのベンチマークで上回ります。",
|
|
272
272
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haikuは、軽量タスク向けに高速な応答を提供します。",
|
|
273
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
273
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7はAnthropicの最も知的なモデルであり、市場初のハイブリッド推論モデルです。即時応答と深い思考の両方をサポートし、きめ細かな制御が可能です。",
|
|
274
274
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnetは、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
275
275
|
"claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
|
|
276
276
|
"claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
277
277
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
|
|
278
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5
|
|
278
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5はAnthropicの中で最も高速かつ高知能なHaikuモデルであり、驚異的なスピードと深い思考能力を兼ね備えています。",
|
|
279
279
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
|
|
280
280
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
281
|
-
"claude-opus-4-20250514.description": "Claude Opus 4
|
|
281
|
+
"claude-opus-4-20250514.description": "Claude Opus 4はAnthropicの中で最も高性能なモデルであり、極めて複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
|
|
282
282
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
|
|
283
283
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
|
|
284
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
284
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4はAnthropic史上最も知的なモデルであり、APIユーザー向けに即時応答と段階的な思考をきめ細かく制御できます。",
|
|
285
285
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropic史上最も知的なモデルです。",
|
|
286
286
|
"codegeex-4.description": "CodeGeeX-4は、開発者の生産性を向上させる多言語対応のAIコーディングアシスタントで、Q&Aやコード補完をサポートします。",
|
|
287
287
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完、生成、インタープリタ、Web検索、関数呼び出し、リポジトリレベルのQ&Aなど、幅広いソフトウェア開発シナリオに対応します。10B未満のパラメータで最高クラスのコードモデルです。",
|
|
@@ -296,6 +296,43 @@
|
|
|
296
296
|
"codestral-latest.description": "Codestralは、最も高度なコーディングモデルで、v2(2025年1月)はFIM、コード修正、テスト生成などの低レイテンシ・高頻度タスクに最適化されています。",
|
|
297
297
|
"codestral.description": "Codestralは、Mistral AIによる初のコードモデルで、強力なコード生成をサポートします。",
|
|
298
298
|
"codex-mini-latest.description": "codex-mini-latest は Codex CLI 用にファインチューニングされた o4-mini モデルです。API を直接使用する場合は、gpt-4.1 から始めることを推奨します。",
|
|
299
|
+
"cogito-2.1:671b.description": "Cogito v2.1 671Bは商用利用が可能な米国発のオープンソースLLMであり、主要モデルに匹敵する性能を持ち、トークン推論効率が高く、128kの長文コンテキストに対応し、全体的な能力も優れています。",
|
|
300
|
+
"cogview-4.description": "CogView-4はZhipuが開発した初のオープンソースのテキストから画像への生成モデルであり、中国語の文字生成に対応しています。意味理解、画像品質、中英テキストの描画能力が向上し、任意の長さのバイリンガルプロンプトをサポートし、指定範囲内で任意の解像度の画像を生成できます。",
|
|
301
|
+
"cohere-command-r-plus.description": "Command R+は、エンタープライズ向けのワークロードに最適化された高度なRAG対応モデルです。",
|
|
302
|
+
"cohere-command-r.description": "Command Rは、RAGやツール使用に対応したスケーラブルな生成モデルであり、実運用レベルのAIを実現します。",
|
|
303
|
+
"cohere/Cohere-command-r-plus.description": "Command R+は、エンタープライズ向けのワークロードに最適化された高度なRAG対応モデルです。",
|
|
304
|
+
"cohere/Cohere-command-r.description": "Command Rは、RAGやツール使用に対応したスケーラブルな生成モデルであり、実運用レベルのAIを実現します。",
|
|
305
|
+
"cohere/command-a.description": "Command AはCohere史上最も強力なモデルであり、ツール使用、エージェント、RAG、多言語ユースケースに優れています。256Kのコンテキスト長を持ち、わずか2つのGPUで動作し、Command R+(2024年8月版)と比べて150%のスループット向上を実現します。",
|
|
306
|
+
"cohere/command-r-plus.description": "Command R+は、チャットと長文コンテキストに最適化されたCohereの最新LLMであり、企業がプロトタイプから本番運用へと移行できるよう設計されています。",
|
|
307
|
+
"cohere/command-r.description": "Command Rは、チャットと長文コンテキストタスクに最適化されたスケーラブルなモデルであり、高性能と精度のバランスを取りながら、企業がプロトタイプから本番運用へと移行できるよう支援します。",
|
|
308
|
+
"cohere/embed-v4.0.description": "テキスト、画像、または混合コンテンツを分類または埋め込みに変換するモデルです。",
|
|
309
|
+
"comfyui/flux-dev.description": "FLUX.1 Devは高品質なテキストから画像への生成モデル(10~50ステップ)であり、創造的かつ芸術的な出力に最適です。",
|
|
310
|
+
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-devは、テキストによる編集指示に対応した画像編集モデルであり、局所的な編集やスタイル転送をサポートします。",
|
|
311
|
+
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-devはKreaと共同開発された安全性強化型のテキストから画像への生成モデルであり、安全フィルターを内蔵しています。",
|
|
312
|
+
"comfyui/flux-schnell.description": "FLUX.1 Schnellは、1~4ステップで高品質な画像を生成する超高速テキストから画像への生成モデルであり、リアルタイム利用や迅速なプロトタイピングに最適です。",
|
|
313
|
+
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5は、512x512のテキストから画像への生成に対応したクラシックモデルであり、迅速なプロトタイピングや創造的な実験に適しています。",
|
|
314
|
+
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5はCLIP/T5エンコーダーを内蔵しており、外部エンコーダーファイルが不要です。リソース使用量の少ないsd3.5_medium_incl_clipsのようなモデルに適しています。",
|
|
315
|
+
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5は次世代のテキストから画像への生成モデルであり、LargeおよびMediumのバリアントがあります。外部CLIPエンコーダーファイルが必要ですが、優れた画像品質とプロンプトの忠実性を実現します。",
|
|
316
|
+
"comfyui/stable-diffusion-custom-refiner.description": "カスタムSDXL画像変換モデルです。モデルファイル名にはcustom_sd_lobe.safetensorsを使用してください。VAEがある場合はcustom_sd_vae_lobe.safetensorsを使用し、必要なComfyフォルダに配置してください。",
|
|
317
|
+
"comfyui/stable-diffusion-custom.description": "カスタムSDテキストから画像への生成モデルです。モデルファイル名にはcustom_sd_lobe.safetensorsを使用してください。VAEがある場合はcustom_sd_vae_lobe.safetensorsを使用し、必要なComfyフォルダに配置してください。",
|
|
318
|
+
"comfyui/stable-diffusion-refiner.description": "SDXL画像変換モデルは、入力画像から高品質な変換を行い、スタイル転送、修復、創造的なバリエーションをサポートします。",
|
|
319
|
+
"comfyui/stable-diffusion-xl.description": "SDXLは1024x1024の高解像度生成に対応したテキストから画像への生成モデルであり、画像品質とディテールが向上しています。",
|
|
320
|
+
"command-a-03-2025.description": "Command Aはこれまでで最も高性能なモデルであり、ツール使用、エージェント、RAG、多言語シナリオに優れています。256Kのコンテキストウィンドウを持ち、わずか2つのGPUで動作し、Command R+(2024年8月版)と比べて150%のスループット向上を実現します。",
|
|
321
|
+
"command-light-nightly.description": "主要リリース間のギャップを短縮するため、Commandのナイトリービルドを提供しています。command-lightシリーズではこれをcommand-light-nightlyと呼びます。これは最新かつ最も実験的(かつ不安定な可能性がある)バージョンであり、予告なく定期的に更新されるため、本番環境での使用は推奨されません。",
|
|
322
|
+
"command-light.description": "Commandの小型かつ高速なバリアントであり、ほぼ同等の能力を持ちながらも高速です。",
|
|
323
|
+
"command-nightly.description": "主要リリース間のギャップを短縮するため、Commandのナイトリービルドを提供しています。Commandシリーズではこれをcommand-nightlyと呼びます。これは最新かつ最も実験的(かつ不安定な可能性がある)バージョンであり、予告なく定期的に更新されるため、本番環境での使用は推奨されません。",
|
|
324
|
+
"command-r-03-2024.description": "Command Rは、従来モデルよりも高品質で信頼性が高く、長いコンテキストウィンドウを持つ命令追従型チャットモデルです。コード生成、RAG、ツール使用、エージェントなどの複雑なワークフローをサポートします。",
|
|
325
|
+
"command-r-08-2024.description": "command-r-08-2024は、2024年8月にリリースされたCommand Rの更新版です。",
|
|
326
|
+
"command-r-plus-04-2024.description": "command-r-plusはcommand-r-plus-04-2024の別名であり、APIでcommand-r-plusを使用するとこのモデルが指定されます。",
|
|
327
|
+
"command-r-plus-08-2024.description": "Command R+は、従来モデルよりも高品質で信頼性が高く、長いコンテキストウィンドウを持つ命令追従型チャットモデルです。複雑なRAGワークフローや多段階のツール使用に最適です。",
|
|
328
|
+
"command-r-plus.description": "Command R+は、実際のエンタープライズシナリオや複雑なアプリケーションに対応する高性能LLMです。",
|
|
329
|
+
"command-r.description": "Command Rは、チャットや長文コンテキストタスクに最適化されたLLMであり、動的な対話や知識管理に適しています。",
|
|
330
|
+
"command-r7b-12-2024.description": "command-r7b-12-2024は、2024年12月にリリースされた小型かつ効率的なアップデートであり、複雑な多段階推論を必要とするRAG、ツール使用、エージェントタスクに優れています。",
|
|
331
|
+
"command.description": "命令に従うチャットモデルであり、言語タスクにおいて高品質かつ信頼性の高い出力を提供し、ベースの生成モデルよりも長いコンテキストウィンドウを持ちます。",
|
|
332
|
+
"computer-use-preview.description": "computer-use-previewは「コンピュータ使用ツール」専用に訓練されたモデルであり、コンピュータ関連のタスクを理解し実行する能力を持ちます。",
|
|
333
|
+
"dall-e-2.description": "第2世代のDALL·Eモデルであり、より現実的かつ正確な画像生成が可能で、初代の4倍の解像度を実現します。",
|
|
334
|
+
"dall-e-3.description": "2023年11月にリリースされた最新のDALL·Eモデルであり、より現実的かつ正確な画像生成と高いディテール表現をサポートします。",
|
|
335
|
+
"databricks/dbrx-instruct.description": "DBRX Instruct は、業界を問わず高い信頼性のある指示処理を提供します。",
|
|
299
336
|
"gemini-flash-latest.description": "Gemini Flash の最新リリース",
|
|
300
337
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース",
|
|
301
338
|
"gemini-pro-latest.description": "Gemini Pro の最新リリース",
|
|
@@ -73,6 +73,8 @@
|
|
|
73
73
|
"builtins.lobe-gtd.title": "GTDツール",
|
|
74
74
|
"builtins.lobe-knowledge-base.apiName.readKnowledge": "ナレッジベースの内容を読み取る",
|
|
75
75
|
"builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "ナレッジベースを検索する",
|
|
76
|
+
"builtins.lobe-knowledge-base.inspector.andMoreFiles": "さらに{{count}}件",
|
|
77
|
+
"builtins.lobe-knowledge-base.inspector.noResults": "結果が見つかりません",
|
|
76
78
|
"builtins.lobe-knowledge-base.title": "ナレッジベース",
|
|
77
79
|
"builtins.lobe-local-system.apiName.editLocalFile": "ファイルを編集する",
|
|
78
80
|
"builtins.lobe-local-system.apiName.getCommandOutput": "コードの出力を取得する",
|
|
@@ -86,6 +88,8 @@
|
|
|
86
88
|
"builtins.lobe-local-system.apiName.runCommand": "コードを実行する",
|
|
87
89
|
"builtins.lobe-local-system.apiName.searchLocalFiles": "ファイルを検索する",
|
|
88
90
|
"builtins.lobe-local-system.apiName.writeLocalFile": "ファイルに書き込む",
|
|
91
|
+
"builtins.lobe-local-system.inspector.noResults": "結果が見つかりません",
|
|
92
|
+
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
89
93
|
"builtins.lobe-local-system.title": "ローカルシステム",
|
|
90
94
|
"builtins.lobe-page-agent.apiName.batchUpdate": "ノードを一括更新",
|
|
91
95
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "スナップショットを比較",
|
|
@@ -143,6 +147,7 @@
|
|
|
143
147
|
"builtins.lobe-web-browsing.apiName.crawlMultiPages": "複数のページの内容を読み取る",
|
|
144
148
|
"builtins.lobe-web-browsing.apiName.crawlSinglePage": "ページの内容を読み取る",
|
|
145
149
|
"builtins.lobe-web-browsing.apiName.search": "ページを検索する",
|
|
150
|
+
"builtins.lobe-web-browsing.inspector.noResults": "結果が見つかりません",
|
|
146
151
|
"builtins.lobe-web-browsing.title": "ウェブ検索",
|
|
147
152
|
"confirm": "確定",
|
|
148
153
|
"debug.arguments": "呼び出しパラメータ",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "InternLMは、大規模モデルの研究とツール開発に特化したオープンソース組織で、最先端のモデルとアルゴリズムを誰でも使いやすく提供します。",
|
|
30
30
|
"jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
|
|
31
31
|
"lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud は、公式 API を使用して AI モデルにアクセスし、モデルのトークンに基づいたクレジットで使用量を計測します。",
|
|
32
33
|
"minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
|
|
33
34
|
"mistral.description": "Mistralは、複雑な推論、多言語タスク、コード生成に対応した高度な汎用・専門・研究モデルを提供し、関数呼び出しによるカスタム統合も可能です。",
|
|
34
35
|
"modelscope.description": "ModelScopeは、Alibaba Cloudが提供するモデル・アズ・ア・サービス(MaaS)プラットフォームで、幅広いAIモデルと推論サービスを提供します。",
|
|
@@ -263,6 +263,60 @@
|
|
|
263
263
|
"c4ai-aya-expanse-8b.description": "Aya Expanse는 8B 규모의 고성능 다국어 모델로, 지시 튜닝, 데이터 중재, 선호도 학습, 모델 병합을 통해 단일 언어 모델과 경쟁합니다. 23개 언어를 지원합니다.",
|
|
264
264
|
"c4ai-aya-vision-32b.description": "Aya Vision은 언어, 텍스트, 비전 벤치마크에서 강력한 성능을 보이는 최첨단 멀티모달 모델입니다. 23개 언어를 지원하며, 이 32B 버전은 최고 수준의 다국어 성능에 중점을 둡니다.",
|
|
265
265
|
"c4ai-aya-vision-8b.description": "Aya Vision은 언어, 텍스트, 비전 벤치마크에서 강력한 성능을 보이는 최첨단 멀티모달 모델입니다. 이 8B 버전은 낮은 지연 시간과 강력한 성능에 중점을 둡니다.",
|
|
266
|
+
"charglm-3.description": "CharGLM-3는 롤플레이와 감정적 교감을 위해 설계된 모델로, 초장기 다중 턴 기억과 개인화된 대화를 지원합니다.",
|
|
267
|
+
"charglm-4.description": "CharGLM-4는 롤플레이와 감정적 교감을 위해 설계된 모델로, 초장기 다중 턴 기억과 개인화된 대화를 지원합니다.",
|
|
268
|
+
"chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
|
|
269
|
+
"claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
270
|
+
"claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
271
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델로, 다양한 기술에서 향상된 성능을 보이며 이전 플래그십 모델인 Claude 3 Opus를 여러 벤치마크에서 능가합니다.",
|
|
272
|
+
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.",
|
|
273
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7은 Anthropic의 가장 지능적인 모델로, 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답 또는 정교한 사고 과정을 세밀하게 제어할 수 있습니다.",
|
|
274
|
+
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
275
|
+
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
|
|
276
|
+
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
277
|
+
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
|
|
278
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 사고 능력을 갖추고 있습니다.",
|
|
279
|
+
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
|
|
280
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
281
|
+
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
282
|
+
"claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
|
|
283
|
+
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
|
|
284
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 Anthropic이 지금까지 개발한 가장 지능적인 모델로, API 사용자에게 세밀한 제어를 제공하며 즉각적인 응답 또는 단계별 사고를 지원합니다.",
|
|
285
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 Anthropic이 지금까지 개발한 가장 지능적인 모델입니다.",
|
|
286
|
+
"codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
|
|
287
|
+
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
|
|
288
|
+
"codegemma.description": "CodeGemma는 다양한 프로그래밍 작업을 위한 경량 모델로, 빠른 반복과 통합을 가능하게 합니다.",
|
|
289
|
+
"codegemma:2b.description": "CodeGemma는 다양한 프로그래밍 작업을 위한 경량 모델로, 빠른 반복과 통합을 가능하게 합니다.",
|
|
290
|
+
"codellama.description": "Code Llama는 코드 생성 및 토론에 중점을 둔 대형 언어 모델로, 개발자 워크플로우를 위한 폭넓은 언어 지원을 제공합니다.",
|
|
291
|
+
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama는 코드 생성 및 토론에 중점을 둔 대형 언어 모델로, 개발자 워크플로우를 위한 폭넓은 언어 지원을 제공합니다.",
|
|
292
|
+
"codellama:13b.description": "Code Llama는 코드 생성 및 토론에 중점을 둔 대형 언어 모델로, 개발자 워크플로우를 위한 폭넓은 언어 지원을 제공합니다.",
|
|
293
|
+
"codellama:34b.description": "Code Llama는 코드 생성 및 토론에 중점을 둔 대형 언어 모델로, 개발자 워크플로우를 위한 폭넓은 언어 지원을 제공합니다.",
|
|
294
|
+
"codellama:70b.description": "Code Llama는 코드 생성 및 토론에 중점을 둔 대형 언어 모델로, 개발자 워크플로우를 위한 폭넓은 언어 지원을 제공합니다.",
|
|
295
|
+
"codeqwen.description": "CodeQwen1.5는 방대한 코드 데이터를 기반으로 학습된 대형 언어 모델로, 복잡한 프로그래밍 작업을 위해 설계되었습니다.",
|
|
296
|
+
"codestral-latest.description": "Codestral은 가장 진보된 코딩 모델로, v2(2025년 1월)는 FIM, 코드 수정, 테스트 생성과 같은 저지연 고빈도 작업을 목표로 합니다.",
|
|
297
|
+
"codestral.description": "Codestral은 Mistral AI의 첫 번째 코드 모델로, 강력한 코드 생성 지원을 제공합니다.",
|
|
298
|
+
"codex-mini-latest.description": "codex-mini-latest는 Codex CLI용으로 미세 조정된 o4-mini 모델입니다. API 직접 사용 시 gpt-4.1을 시작점으로 권장합니다.",
|
|
299
|
+
"cogito-2.1:671b.description": "Cogito v2.1 671B는 상업적 사용이 가능한 미국 오픈소스 LLM으로, 최고 수준의 모델과 견줄 수 있는 성능, 높은 토큰 추론 효율성, 128k 긴 컨텍스트, 전반적인 강력한 기능을 갖추고 있습니다.",
|
|
300
|
+
"cogview-4.description": "CogView-4는 중국어 문자를 생성할 수 있는 Zhipu의 첫 오픈소스 텍스트-투-이미지 모델입니다. 의미 이해, 이미지 품질, 중영문 텍스트 렌더링이 향상되었으며, 길이 제한 없는 이중 언어 프롬프트를 지원하고, 지정된 범위 내에서 해상도에 맞는 이미지 생성을 지원합니다.",
|
|
301
|
+
"cohere-command-r-plus.description": "Command R+는 엔터프라이즈 워크로드를 위해 구축된 고급 RAG 최적화 모델입니다.",
|
|
302
|
+
"cohere-command-r.description": "Command R은 RAG 및 도구 사용을 위해 설계된 확장 가능한 생성 모델로, 프로덕션 수준의 AI를 가능하게 합니다.",
|
|
303
|
+
"cohere/Cohere-command-r-plus.description": "Command R+는 엔터프라이즈 워크로드를 위해 구축된 고급 RAG 최적화 모델입니다.",
|
|
304
|
+
"cohere/Cohere-command-r.description": "Command R은 RAG 및 도구 사용을 위해 설계된 확장 가능한 생성 모델로, 프로덕션 수준의 AI를 가능하게 합니다.",
|
|
305
|
+
"cohere/command-a.description": "Command A는 Cohere의 가장 강력한 모델로, 도구 사용, 에이전트, RAG, 다국어 활용 사례에서 뛰어난 성능을 발휘합니다. 256K 컨텍스트 길이를 지원하며, 단 2개의 GPU로 실행 가능하고 Command R+ 08-2024 대비 150% 높은 처리량을 제공합니다.",
|
|
306
|
+
"cohere/command-r-plus.description": "Command R+는 채팅 및 장문 컨텍스트에 최적화된 Cohere의 최신 LLM으로, 기업이 프로토타입을 넘어 실제 프로덕션으로 나아갈 수 있도록 뛰어난 성능을 목표로 합니다.",
|
|
307
|
+
"cohere/command-r.description": "Command R은 채팅 및 장문 컨텍스트 작업에 최적화된 모델로, 높은 성능과 정확성의 균형을 이루며 기업이 프로토타입을 넘어 프로덕션으로 진입할 수 있도록 설계되었습니다.",
|
|
308
|
+
"cohere/embed-v4.0.description": "텍스트, 이미지 또는 혼합 콘텐츠를 임베딩으로 분류하거나 변환하는 모델입니다.",
|
|
309
|
+
"comfyui/flux-dev.description": "FLUX.1 Dev는 고품질의 텍스트-이미지 생성 모델로, 10~50단계 내에서 프리미엄 창작 및 예술적 결과물에 적합합니다.",
|
|
310
|
+
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev는 텍스트 기반 편집을 지원하는 이미지 편집 모델로, 국소 편집 및 스타일 전환 기능을 포함합니다.",
|
|
311
|
+
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev는 Krea와 공동 개발한 안전성이 강화된 텍스트-이미지 생성 모델로, 내장된 안전 필터를 제공합니다.",
|
|
312
|
+
"comfyui/flux-schnell.description": "FLUX.1 Schnell은 1~4단계 내에서 고품질 이미지를 초고속으로 생성하는 텍스트-이미지 모델로, 실시간 사용 및 빠른 프로토타이핑에 이상적입니다.",
|
|
313
|
+
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5는 512x512 해상도의 클래식 텍스트-이미지 생성 모델로, 빠른 프로토타이핑 및 창의적 실험에 적합합니다.",
|
|
314
|
+
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5는 내장된 CLIP/T5 인코더를 포함하여 외부 인코더 파일이 필요 없는 모델로, sd3.5_medium_incl_clips와 같은 저자원 모델에 적합합니다.",
|
|
315
|
+
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5는 차세대 텍스트-이미지 생성 모델로, Large 및 Medium 버전이 있으며 외부 CLIP 인코더 파일이 필요합니다. 뛰어난 이미지 품질과 프롬프트 반응성을 제공합니다.",
|
|
316
|
+
"comfyui/stable-diffusion-custom-refiner.description": "사용자 정의 SDXL 이미지-이미지 모델입니다. 모델 파일명은 custom_sd_lobe.safetensors를 사용하고, VAE가 있다면 custom_sd_vae_lobe.safetensors를 사용하세요. 모델 파일은 Comfy의 지정된 폴더에 배치해야 합니다.",
|
|
317
|
+
"comfyui/stable-diffusion-custom.description": "사용자 정의 SD 텍스트-이미지 생성 모델입니다. 모델 파일명은 custom_sd_lobe.safetensors를 사용하고, VAE가 있다면 custom_sd_vae_lobe.safetensors를 사용하세요. 모델 파일은 Comfy의 지정된 폴더에 배치해야 합니다.",
|
|
318
|
+
"comfyui/stable-diffusion-refiner.description": "SDXL 이미지-이미지 모델로, 입력 이미지를 고품질로 변환하며 스타일 전환, 복원, 창의적 변형을 지원합니다.",
|
|
319
|
+
"comfyui/stable-diffusion-xl.description": "SDXL은 1024x1024 고해상도 생성을 지원하는 텍스트-이미지 모델로, 향상된 이미지 품질과 세부 묘사를 제공합니다.",
|
|
266
320
|
"gemini-flash-latest.description": "Gemini Flash 최신 버전",
|
|
267
321
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite 최신 버전",
|
|
268
322
|
"gemini-pro-latest.description": "Gemini Pro 최신 버전",
|
|
@@ -73,6 +73,8 @@
|
|
|
73
73
|
"builtins.lobe-gtd.title": "GTD 도구",
|
|
74
74
|
"builtins.lobe-knowledge-base.apiName.readKnowledge": "지식 베이스 내용 읽기",
|
|
75
75
|
"builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "지식 베이스 검색",
|
|
76
|
+
"builtins.lobe-knowledge-base.inspector.andMoreFiles": "외에 {{count}}개 더",
|
|
77
|
+
"builtins.lobe-knowledge-base.inspector.noResults": "결과 없음",
|
|
76
78
|
"builtins.lobe-knowledge-base.title": "지식 베이스",
|
|
77
79
|
"builtins.lobe-local-system.apiName.editLocalFile": "파일 편집",
|
|
78
80
|
"builtins.lobe-local-system.apiName.getCommandOutput": "코드 출력 가져오기",
|
|
@@ -86,6 +88,8 @@
|
|
|
86
88
|
"builtins.lobe-local-system.apiName.runCommand": "코드 실행",
|
|
87
89
|
"builtins.lobe-local-system.apiName.searchLocalFiles": "파일 검색",
|
|
88
90
|
"builtins.lobe-local-system.apiName.writeLocalFile": "파일 쓰기",
|
|
91
|
+
"builtins.lobe-local-system.inspector.noResults": "결과 없음",
|
|
92
|
+
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
89
93
|
"builtins.lobe-local-system.title": "로컬 시스템",
|
|
90
94
|
"builtins.lobe-page-agent.apiName.batchUpdate": "노드 일괄 업데이트",
|
|
91
95
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "스냅샷 비교",
|
|
@@ -143,6 +147,7 @@
|
|
|
143
147
|
"builtins.lobe-web-browsing.apiName.crawlMultiPages": "여러 페이지 내용 읽기",
|
|
144
148
|
"builtins.lobe-web-browsing.apiName.crawlSinglePage": "페이지 내용 읽기",
|
|
145
149
|
"builtins.lobe-web-browsing.apiName.search": "웹 페이지 검색",
|
|
150
|
+
"builtins.lobe-web-browsing.inspector.noResults": "결과 없음",
|
|
146
151
|
"builtins.lobe-web-browsing.title": "인터넷 검색",
|
|
147
152
|
"confirm": "확인",
|
|
148
153
|
"debug.arguments": "호출 인자",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
|
|
30
30
|
"jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
|
|
31
31
|
"lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.",
|
|
32
33
|
"minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
|
|
33
34
|
"mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
|
|
34
35
|
"modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",
|
|
@@ -205,7 +205,7 @@
|
|
|
205
205
|
"accounts/fireworks/models/llama-v3p2-3b-instruct.description": "Llama 3.2 3B Instruct is een lichtgewicht meertalig model van Meta, ontworpen voor efficiënte uitvoering met aanzienlijke voordelen in snelheid en kosten ten opzichte van grotere modellen. Typische toepassingen zijn het herschrijven van zoekopdrachten/prompts en hulp bij schrijven.",
|
|
206
206
|
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct.description": "Een op instructies afgestemd visueel redeneermodel van Meta met 90 miljard parameters, geoptimaliseerd voor visuele herkenning, beeldredenering, ondertiteling en beeldgerelateerde vraag-en-antwoordtaken. Het begrijpt visuele gegevens zoals grafieken en diagrammen en slaat een brug tussen beeld en taal door tekstuele beschrijvingen van beeldinhoud te genereren. Opmerking: dit model wordt momenteel experimenteel aangeboden als serverless model. Voor productiegebruik geldt dat Fireworks de implementatie mogelijk op korte termijn beëindigt.",
|
|
207
207
|
"accounts/fireworks/models/llama-v3p3-70b-instruct.description": "Llama 3.3 70B Instruct is de decemberupdate van Llama 3.1 70B. Het verbetert het gebruik van tools, meertalige tekstondersteuning, wiskunde en programmeren ten opzichte van de release van juli 2024. Het behaalt toonaangevende prestaties op het gebied van redeneren, wiskunde en het volgen van instructies, en biedt prestaties vergelijkbaar met 3.1 405B met aanzienlijke voordelen in snelheid en kosten.",
|
|
208
|
-
"accounts/fireworks/models/mistral-small-24b-instruct.description": "Een model met 24 miljard parameters
|
|
208
|
+
"accounts/fireworks/models/mistral-small-24b-instruct-2501.description": "Een model met 24 miljard parameters dat prestaties levert op topniveau, vergelijkbaar met grotere modellen.",
|
|
209
209
|
"accounts/fireworks/models/mixtral-8x22b-instruct.description": "Mixtral MoE 8x22B Instruct v0.1 is de op instructies afgestemde versie van Mixtral MoE 8x22B v0.1, met ondersteuning voor de chat completion API.",
|
|
210
210
|
"accounts/fireworks/models/mixtral-8x7b-instruct.description": "Mixtral MoE 8x7B Instruct is de op instructies afgestemde versie van Mixtral MoE 8x7B, met ondersteuning voor de chat completion API.",
|
|
211
211
|
"accounts/fireworks/models/mythomax-l2-13b.description": "Een verbeterde variant van MythoMix, mogelijk een verfijndere vorm, die MythoLogic-L2 en Huginn samenvoegt met een experimentele tensor-merge techniek. Door zijn unieke karakter is het uitermate geschikt voor verhalen vertellen en rollenspel.",
|
|
@@ -236,6 +236,17 @@
|
|
|
236
236
|
"anthropic.claude-instant-v1.description": "Een snel, voordelig en toch capabel model voor dagelijks chatten, tekstanalyse, samenvattingen en documentvragen.",
|
|
237
237
|
"anthropic.claude-v2.description": "Een zeer capabel model voor uiteenlopende taken, van complexe dialogen en creatieve generatie tot gedetailleerde instructieopvolging.",
|
|
238
238
|
"anthropic.claude-v2:1.description": "Een bijgewerkte versie van Claude 2 met een verdubbeld contextvenster en verbeterde betrouwbaarheid, lagere hallucinatiegraad en nauwkeurigheid op basis van bewijs voor lange documenten en RAG.",
|
|
239
|
+
"anthropic/claude-3-haiku.description": "Claude 3 Haiku is het snelste model van Anthropic, ontworpen voor zakelijke toepassingen met langere prompts. Het kan snel grote documenten analyseren zoals kwartaalrapporten, contracten of juridische dossiers, tegen de helft van de kosten van vergelijkbare modellen.",
|
|
240
|
+
"anthropic/claude-3-opus.description": "Claude 3 Opus is het meest intelligente model van Anthropic met toonaangevende prestaties bij zeer complexe taken. Het verwerkt open vragen en nieuwe scenario’s met uitzonderlijke vloeiendheid en mensachtig begrip.",
|
|
241
|
+
"anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku biedt verbeterde snelheid, nauwkeurigheid bij programmeren en interactie met tools, geschikt voor scenario’s met hoge eisen aan snelheid en hulpmiddelengebruik.",
|
|
242
|
+
"anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet is het snelle, efficiënte model binnen de Sonnet-familie, met betere prestaties op het gebied van programmeren en redeneren. Sommige versies worden geleidelijk vervangen door Sonnet 3.7 en latere modellen.",
|
|
243
|
+
"anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet is een geüpgraded Sonnet-model met sterkere redeneervermogen en programmeercapaciteiten, geschikt voor complexe taken op ondernemingsniveau.",
|
|
244
|
+
"anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 is het krachtige, snelle model van Anthropic, met zeer lage latentie en tegelijkertijd hoge nauwkeurigheid.",
|
|
245
|
+
"anthropic/claude-opus-4.1.description": "Opus 4.1 is het high-end model van Anthropic, geoptimaliseerd voor programmeren, complexe redenering en langdurige taken.",
|
|
246
|
+
"anthropic/claude-opus-4.5.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat topintelligentie combineert met schaalbare prestaties voor complexe taken die hoogwaardige redenering vereisen.",
|
|
247
|
+
"anthropic/claude-opus-4.description": "Opus 4 is het vlaggenschipmodel van Anthropic, ontworpen voor complexe taken en zakelijke toepassingen.",
|
|
248
|
+
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 is het nieuwste hybride redeneermodel van Anthropic, geoptimaliseerd voor complexe redenering en programmeren.",
|
|
249
|
+
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 is het hybride redeneermodel van Anthropic met een combinatie van denk- en niet-denkvermogen.",
|
|
239
250
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
|
|
240
251
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
|
|
241
252
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
|
|
@@ -73,6 +73,8 @@
|
|
|
73
73
|
"builtins.lobe-gtd.title": "Taakhulpmiddelen",
|
|
74
74
|
"builtins.lobe-knowledge-base.apiName.readKnowledge": "Bibliotheekinhoud lezen",
|
|
75
75
|
"builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "Bibliotheek doorzoeken",
|
|
76
|
+
"builtins.lobe-knowledge-base.inspector.andMoreFiles": "en nog {{count}}",
|
|
77
|
+
"builtins.lobe-knowledge-base.inspector.noResults": "Geen resultaten",
|
|
76
78
|
"builtins.lobe-knowledge-base.title": "Bibliotheek",
|
|
77
79
|
"builtins.lobe-local-system.apiName.editLocalFile": "Bestand bewerken",
|
|
78
80
|
"builtins.lobe-local-system.apiName.getCommandOutput": "Opdrachtuitvoer ophalen",
|
|
@@ -86,6 +88,8 @@
|
|
|
86
88
|
"builtins.lobe-local-system.apiName.runCommand": "Opdracht uitvoeren",
|
|
87
89
|
"builtins.lobe-local-system.apiName.searchLocalFiles": "Bestanden doorzoeken",
|
|
88
90
|
"builtins.lobe-local-system.apiName.writeLocalFile": "Bestand schrijven",
|
|
91
|
+
"builtins.lobe-local-system.inspector.noResults": "Geen resultaten",
|
|
92
|
+
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
89
93
|
"builtins.lobe-local-system.title": "Lokaal Systeem",
|
|
90
94
|
"builtins.lobe-page-agent.apiName.batchUpdate": "Meerdere knooppunten bijwerken",
|
|
91
95
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "Momentopnamen vergelijken",
|
|
@@ -143,6 +147,7 @@
|
|
|
143
147
|
"builtins.lobe-web-browsing.apiName.crawlMultiPages": "Meerdere pagina's lezen",
|
|
144
148
|
"builtins.lobe-web-browsing.apiName.crawlSinglePage": "Paginainhoud lezen",
|
|
145
149
|
"builtins.lobe-web-browsing.apiName.search": "Webpagina's doorzoeken",
|
|
150
|
+
"builtins.lobe-web-browsing.inspector.noResults": "Geen resultaten",
|
|
146
151
|
"builtins.lobe-web-browsing.title": "Webzoekopdracht",
|
|
147
152
|
"confirm": "Bevestigen",
|
|
148
153
|
"debug.arguments": "Argumenten",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
|
|
30
30
|
"jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
|
|
31
31
|
"lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
|
|
32
33
|
"minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
|
|
34
35
|
"modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",
|
|
@@ -169,6 +169,52 @@
|
|
|
169
169
|
"SenseChat-Turbo.description": "Odpowiedni do szybkich pytań i odpowiedzi oraz scenariuszy dostrajania modeli.",
|
|
170
170
|
"SenseChat-Vision.description": "Najnowsza wersja V5.5 z obsługą wielu obrazów i szerokimi ulepszeniami w rozpoznawaniu atrybutów, relacjach przestrzennych, wykrywaniu działań/zdarzeń, rozumieniu scen, rozpoznawaniu emocji, rozumowaniu zdroworozsądkowemu oraz rozumieniu/generowaniu tekstu.",
|
|
171
171
|
"SenseChat.description": "Wersja bazowa V4 z kontekstem 4K i silnymi ogólnymi możliwościami.",
|
|
172
|
+
"SenseNova-V6-5-Pro.description": "Dzięki kompleksowym aktualizacjom danych multimodalnych, językowych i logicznych oraz optymalizacji strategii treningowej, nowy model znacząco poprawia rozumowanie multimodalne i ogólne podążanie za instrukcjami, obsługuje kontekst do 128 tys. tokenów i wyróżnia się w zadaniach OCR oraz rozpoznawania IP w turystyce kulturowej.",
|
|
173
|
+
"SenseNova-V6-5-Turbo.description": "Dzięki kompleksowym aktualizacjom danych multimodalnych, językowych i logicznych oraz optymalizacji strategii treningowej, nowy model znacząco poprawia rozumowanie multimodalne i ogólne podążanie za instrukcjami, obsługuje kontekst do 128 tys. tokenów i wyróżnia się w zadaniach OCR oraz rozpoznawania IP w turystyce kulturowej.",
|
|
174
|
+
"SenseNova-V6-Pro.description": "Model natywnie integruje obraz, tekst i wideo, przełamując tradycyjne bariery multimodalne; zdobywa czołowe miejsca w rankingach OpenCompass i SuperCLUE.",
|
|
175
|
+
"SenseNova-V6-Reasoner.description": "Łączy głębokie rozumowanie wizualne i językowe, wspierając powolne myślenie i pełny łańcuch rozumowania.",
|
|
176
|
+
"SenseNova-V6-Turbo.description": "Model natywnie integruje obraz, tekst i wideo, przełamując tradycyjne bariery multimodalne. Przoduje w kluczowych możliwościach multimodalnych i językowych, zajmując czołowe miejsca w wielu ocenach.",
|
|
177
|
+
"Skylark2-lite-8k.description": "Model drugiej generacji Skylark. Skylark2-lite zapewnia szybkie odpowiedzi w scenariuszach czasu rzeczywistego i wrażliwych na koszty, gdzie wymagana jest mniejsza dokładność, z kontekstem do 8 tys. tokenów.",
|
|
178
|
+
"Skylark2-pro-32k.description": "Model drugiej generacji Skylark. Skylark2-pro oferuje wyższą dokładność w złożonym generowaniu tekstu, takim jak profesjonalne copywriting, pisanie powieści i wysokiej jakości tłumaczenia, z kontekstem do 32 tys. tokenów.",
|
|
179
|
+
"Skylark2-pro-4k.description": "Model drugiej generacji Skylark. Skylark2-pro oferuje wyższą dokładność w złożonym generowaniu tekstu, takim jak profesjonalne copywriting, pisanie powieści i wysokiej jakości tłumaczenia, z kontekstem do 4 tys. tokenów.",
|
|
180
|
+
"Skylark2-pro-character-4k.description": "Model drugiej generacji Skylark. Skylark2-pro-character doskonale sprawdza się w odgrywaniu ról i rozmowach, dopasowując odpowiedzi do unikalnych stylów osobowości i naturalnego dialogu — idealny dla chatbotów, wirtualnych asystentów i obsługi klienta, z szybkimi odpowiedziami.",
|
|
181
|
+
"Skylark2-pro-turbo-8k.description": "Model drugiej generacji Skylark. Skylark2-pro-turbo-8k oferuje szybsze wnioskowanie przy niższych kosztach, z kontekstem do 8 tys. tokenów.",
|
|
182
|
+
"THUDM/GLM-4-32B-0414.description": "GLM-4-32B-0414 to nowej generacji otwarty model GLM z 32 miliardami parametrów, porównywalny pod względem wydajności z OpenAI GPT i serią DeepSeek V3/R1.",
|
|
183
|
+
"THUDM/GLM-4-9B-0414.description": "GLM-4-9B-0414 to model GLM z 9 miliardami parametrów, który dziedziczy techniki GLM-4-32B, oferując jednocześnie lżejsze wdrożenie. Sprawdza się w generowaniu kodu, projektowaniu stron internetowych, tworzeniu grafiki SVG i pisaniu opartym na wyszukiwaniu.",
|
|
184
|
+
"THUDM/GLM-4.1V-9B-Thinking.description": "GLM-4.1V-9B-Thinking to otwartoźródłowy model VLM od Zhipu AI i laboratorium KEG Uniwersytetu Tsinghua, zaprojektowany do złożonego poznania multimodalnego. Bazując na GLM-4-9B-0414, dodaje rozumowanie łańcuchowe i uczenie przez wzmocnienie (RL), znacząco poprawiając rozumowanie między modalnościami i stabilność.",
|
|
185
|
+
"THUDM/GLM-Z1-32B-0414.description": "GLM-Z1-32B-0414 to model głębokiego rozumowania oparty na GLM-4-32B-0414, wzbogacony o dane cold-start i rozszerzone RL, dodatkowo trenowany na matematyce, kodzie i logice. Znacząco poprawia zdolności matematyczne i rozwiązywanie złożonych zadań w porównaniu z modelem bazowym.",
|
|
186
|
+
"THUDM/GLM-Z1-9B-0414.description": "GLM-Z1-9B-0414 to kompaktowy model GLM z 9 miliardami parametrów, który zachowuje zalety otwartego źródła, oferując jednocześnie imponujące możliwości. Wyróżnia się w rozumowaniu matematycznym i zadaniach ogólnych, przewodząc w swojej klasie rozmiarowej wśród modeli otwartych.",
|
|
187
|
+
"THUDM/GLM-Z1-Rumination-32B-0414.description": "GLM-Z1-Rumination-32B-0414 to model głębokiego rozumowania z funkcją refleksji (porównywany z OpenAI Deep Research). W przeciwieństwie do typowych modeli głębokiego myślenia, poświęca więcej czasu na rozważania, aby rozwiązywać bardziej otwarte i złożone problemy.",
|
|
188
|
+
"THUDM/glm-4-9b-chat.description": "GLM-4-9B-Chat to otwartoźródłowy model GLM-4 od Zhipu AI. Wyróżnia się w semantyce, matematyce, rozumowaniu, kodzie i wiedzy. Poza wieloetapową rozmową obsługuje przeglądanie stron internetowych, wykonywanie kodu, wywoływanie niestandardowych narzędzi i rozumowanie długich tekstów. Obsługuje 26 języków (w tym chiński, angielski, japoński, koreański, niemiecki). Osiąga dobre wyniki w AlignBench-v2, MT-Bench, MMLU i C-Eval oraz obsługuje kontekst do 128 tys. tokenów do zastosowań akademickich i biznesowych.",
|
|
189
|
+
"Tongyi-Zhiwen/QwenLong-L1-32B.description": "QwenLong-L1-32B to pierwszy model rozumowania z długim kontekstem (LRM) trenowany z użyciem RL, zoptymalizowany pod kątem rozumowania długich tekstów. Jego progresywne RL rozszerzające kontekst umożliwia stabilne przejście od krótkiego do długiego kontekstu. Przewyższa OpenAI-o3-mini i Qwen3-235B-A22B w siedmiu benchmarkach QA dokumentów z długim kontekstem, dorównując Claude-3.7-Sonnet-Thinking. Szczególnie dobrze radzi sobie z matematyką, logiką i rozumowaniem wieloetapowym.",
|
|
190
|
+
"Yi-34B-Chat.description": "Yi-1.5-34B zachowuje silne ogólne zdolności językowe serii, a dzięki inkrementalnemu treningowi na 500 miliardach wysokiej jakości tokenów znacząco poprawia logikę matematyczną i kodowanie.",
|
|
191
|
+
"abab5.5-chat.description": "Zaprojektowany do scenariuszy zwiększających produktywność, obsługuje złożone zadania i efektywne generowanie tekstu do zastosowań profesjonalnych.",
|
|
192
|
+
"abab5.5s-chat.description": "Zaprojektowany do rozmów z chińską osobowością, zapewnia wysokiej jakości dialogi w języku chińskim do różnych zastosowań.",
|
|
193
|
+
"abab6.5g-chat.description": "Zaprojektowany do wielojęzycznych rozmów z osobowością, wspiera generowanie wysokiej jakości dialogów w języku angielskim i innych językach.",
|
|
194
|
+
"abab6.5s-chat.description": "Odpowiedni do szerokiego zakresu zadań NLP, w tym generowania tekstu i systemów dialogowych.",
|
|
195
|
+
"abab6.5t-chat.description": "Zoptymalizowany do rozmów z chińską osobowością, zapewnia płynny dialog zgodny z chińskimi zwyczajami językowymi.",
|
|
196
|
+
"accounts/fireworks/models/deepseek-r1.description": "DeepSeek-R1 to nowoczesny model językowy zoptymalizowany za pomocą uczenia przez wzmocnienie i danych cold-start, oferujący doskonałe rozumowanie, matematykę i wydajność kodowania.",
|
|
197
|
+
"accounts/fireworks/models/deepseek-v3.description": "Potężny model językowy typu Mixture-of-Experts (MoE) od DeepSeek z 671 miliardami parametrów ogółem i 37 miliardami aktywnymi na token.",
|
|
198
|
+
"accounts/fireworks/models/llama-v3-70b-instruct.description": "Meta opracowała i udostępniła serię modeli językowych Meta Llama 3, obejmującą modele do generowania tekstu w wersjach wstępnie wytrenowanych i dostrojonych do instrukcji o rozmiarach 8B i 70B. Modele Llama 3 dostrojone do instrukcji są zoptymalizowane pod kątem zastosowań konwersacyjnych i przewyższają wiele istniejących otwartych modeli czatu w powszechnie stosowanych branżowych testach porównawczych.",
|
|
199
|
+
"accounts/fireworks/models/llama-v3-8b-instruct-hf.description": "Modele Llama 3 dostrojone do instrukcji są zoptymalizowane pod kątem zastosowań konwersacyjnych i przewyższają wiele istniejących otwartych modeli czatu w powszechnie stosowanych branżowych testach porównawczych. Llama 3 8B Instruct (wersja HF) to oryginalna wersja FP16 modelu Llama 3 8B Instruct, której wyniki odpowiadają oficjalnej implementacji Hugging Face.",
|
|
200
|
+
"accounts/fireworks/models/llama-v3-8b-instruct.description": "Meta opracowała i udostępniła serię modeli językowych Meta Llama 3, obejmującą modele do generowania tekstu w wersjach wstępnie wytrenowanych i dostrojonych do instrukcji o rozmiarach 8B i 70B. Modele Llama 3 dostrojone do instrukcji są zoptymalizowane pod kątem zastosowań konwersacyjnych i przewyższają wiele istniejących otwartych modeli czatu w powszechnie stosowanych branżowych testach porównawczych.",
|
|
201
|
+
"accounts/fireworks/models/llama-v3p1-405b-instruct.description": "Meta Llama 3.1 to wielojęzyczna rodzina modeli językowych z modelami do generowania tekstu w wersjach wstępnie wytrenowanych i dostrojonych do instrukcji o rozmiarach 8B, 70B i 405B. Modele dostrojone do instrukcji są zoptymalizowane pod kątem wielojęzycznego dialogu i przewyższają wiele istniejących otwartych i zamkniętych modeli czatu w powszechnie stosowanych testach branżowych. Model 405B to najbardziej zaawansowany model z rodziny Llama 3.1, wykorzystujący wnioskowanie FP8, które ściśle odpowiada implementacji referencyjnej.",
|
|
202
|
+
"accounts/fireworks/models/llama-v3p1-70b-instruct.description": "Meta Llama 3.1 to wielojęzyczna rodzina modeli językowych z modelami do generowania tekstu w wersjach wstępnie wytrenowanych i dostrojonych do instrukcji o rozmiarach 8B, 70B i 405B. Modele dostrojone do instrukcji są zoptymalizowane pod kątem wielojęzycznego dialogu i przewyższają wiele istniejących otwartych i zamkniętych modeli czatu w powszechnie stosowanych testach branżowych.",
|
|
203
|
+
"accounts/fireworks/models/llama-v3p1-8b-instruct.description": "Meta Llama 3.1 to wielojęzyczna rodzina modeli językowych z modelami do generowania tekstu w wersjach wstępnie wytrenowanych i dostrojonych do instrukcji o rozmiarach 8B, 70B i 405B. Modele dostrojone do instrukcji są zoptymalizowane pod kątem wielojęzycznego dialogu i przewyższają wiele istniejących otwartych i zamkniętych modeli czatu w powszechnie stosowanych testach branżowych.",
|
|
204
|
+
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct.description": "Model do rozumowania wizualnego dostrojony do instrukcji od Meta, zawierający 11 miliardów parametrów, zoptymalizowany pod kątem rozpoznawania obrazów, rozumowania wizualnego, opisywania obrazów i pytań związanych z obrazami. Rozumie dane wizualne, takie jak wykresy i diagramy, i łączy wizję z językiem, generując tekstowe opisy szczegółów obrazu.",
|
|
205
|
+
"accounts/fireworks/models/llama-v3p2-3b-instruct.description": "Llama 3.2 3B Instruct to lekki, wielojęzyczny model od Meta, zaprojektowany z myślą o wydajnym działaniu, oferujący znaczące korzyści w zakresie opóźnień i kosztów w porównaniu do większych modeli. Typowe zastosowania obejmują przekształcanie zapytań/poleceń oraz pomoc w pisaniu.",
|
|
206
|
+
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct.description": "Model do rozumowania wizualnego dostrojony do instrukcji od Meta, zawierający 90 miliardów parametrów, zoptymalizowany pod kątem rozpoznawania obrazów, rozumowania wizualnego, opisywania obrazów i pytań związanych z obrazami. Rozumie dane wizualne, takie jak wykresy i diagramy, i łączy wizję z językiem, generując tekstowe opisy szczegółów obrazu. Uwaga: model ten jest obecnie udostępniany eksperymentalnie jako model bezserwerowy. W przypadku zastosowań produkcyjnych należy pamiętać, że Fireworks może wycofać wdrożenie w krótkim czasie.",
|
|
207
|
+
"accounts/fireworks/models/llama-v3p3-70b-instruct.description": "Llama 3.3 70B Instruct to grudniowa aktualizacja modelu Llama 3.1 70B. Ulepsza korzystanie z narzędzi, obsługę tekstu wielojęzycznego, matematykę i programowanie w porównaniu do wersji z lipca 2024. Osiąga wiodącą w branży wydajność w zakresie rozumowania, matematyki i podążania za instrukcjami, oferując wydajność porównywalną z modelem 3.1 405B przy znacznie większej szybkości i niższych kosztach.",
|
|
208
|
+
"accounts/fireworks/models/mistral-small-24b-instruct-2501.description": "Model o 24 miliardach parametrów, oferujący najnowocześniejsze możliwości porównywalne z większymi modelami.",
|
|
209
|
+
"accounts/fireworks/models/mixtral-8x22b-instruct.description": "Mixtral MoE 8x22B Instruct v0.1 to wersja modelu Mixtral MoE 8x22B v0.1 dostrojona do instrukcji, z włączonym interfejsem API do uzupełniania czatu.",
|
|
210
|
+
"accounts/fireworks/models/mixtral-8x7b-instruct.description": "Mixtral MoE 8x7B Instruct to wersja modelu Mixtral MoE 8x7B dostrojona do instrukcji, z włączonym interfejsem API do uzupełniania czatu.",
|
|
211
|
+
"accounts/fireworks/models/mythomax-l2-13b.description": "Ulepszona wersja MythoMix, prawdopodobnie jego bardziej dopracowana forma, łącząca MythoLogic-L2 i Huginn za pomocą wysoce eksperymentalnej techniki łączenia typów tensorów. Dzięki swojej unikalnej naturze doskonale nadaje się do opowiadania historii i odgrywania ról.",
|
|
212
|
+
"accounts/fireworks/models/phi-3-vision-128k-instruct.description": "Phi-3-Vision-128K-Instruct to lekki, nowoczesny otwarty model multimodalny zbudowany na danych syntetycznych i starannie dobranych publicznych zbiorach danych z sieci, koncentrujący się na wysokiej jakości danych tekstowych i wizualnych wymagających rozumowania. Należy do rodziny Phi-3 i obsługuje multimodalność z długością kontekstu do 128K tokenów. Model przechodzi rygorystyczne ulepszenia, w tym nadzorowane dostrajanie i bezpośrednią optymalizację preferencji, aby zapewnić dokładne podążanie za instrukcjami i silne środki bezpieczeństwa.",
|
|
213
|
+
"accounts/fireworks/models/qwen-qwq-32b-preview.description": "Model Qwen QwQ koncentruje się na rozwoju rozumowania AI, pokazując, że otwarte modele mogą dorównywać zamkniętym modelom czołowym w zakresie rozumowania. QwQ-32B-Preview to wersja eksperymentalna, która dorównuje o1 i przewyższa GPT-4o oraz Claude 3.5 Sonnet w zakresie rozumowania i analizy w testach GPQA, AIME, MATH-500 i LiveCodeBench. Uwaga: model ten jest obecnie udostępniany eksperymentalnie jako model bezserwerowy. W przypadku zastosowań produkcyjnych należy pamiętać, że Fireworks może wycofać wdrożenie w krótkim czasie.",
|
|
214
|
+
"accounts/fireworks/models/qwen2-vl-72b-instruct.description": "Model Qwen-VL 72B to najnowsza wersja modelu od Alibaba, odzwierciedlająca niemal rok innowacji.",
|
|
215
|
+
"accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5 to seria modeli językowych typu decoder-only opracowana przez zespół Qwen i Alibaba Cloud, dostępna w rozmiarach 0.5B, 1.5B, 3B, 7B, 14B, 32B i 72B, zarówno w wersjach bazowych, jak i dostrojonych do instrukcji.",
|
|
216
|
+
"accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder to najnowszy model językowy Qwen zaprojektowany do programowania (wcześniej CodeQwen). Uwaga: model ten jest obecnie udostępniany eksperymentalnie jako model bezserwerowy. W przypadku zastosowań produkcyjnych należy pamiętać, że Fireworks może wycofać wdrożenie w krótkim czasie.",
|
|
217
|
+
"accounts/yi-01-ai/models/yi-large.description": "Yi-Large to najwyższej klasy model językowy, który plasuje się tuż za GPT-4, Gemini 1.5 Pro i Claude 3 Opus w rankingu LMSYS. Wyróżnia się zdolnościami wielojęzycznymi, szczególnie w językach hiszpańskim, chińskim, japońskim, niemieckim i francuskim. Yi-Large jest również przyjazny dla programistów, korzystając z tego samego schematu API co OpenAI, co ułatwia integrację.",
|
|
172
218
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
|
|
173
219
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
|
|
174
220
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
|
|
@@ -73,6 +73,8 @@
|
|
|
73
73
|
"builtins.lobe-gtd.title": "Narzędzia Zadaniowe",
|
|
74
74
|
"builtins.lobe-knowledge-base.apiName.readKnowledge": "Odczytaj zawartość Biblioteki",
|
|
75
75
|
"builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "Przeszukaj Bibliotekę",
|
|
76
|
+
"builtins.lobe-knowledge-base.inspector.andMoreFiles": "i jeszcze {{count}}",
|
|
77
|
+
"builtins.lobe-knowledge-base.inspector.noResults": "Brak wyników",
|
|
76
78
|
"builtins.lobe-knowledge-base.title": "Biblioteka",
|
|
77
79
|
"builtins.lobe-local-system.apiName.editLocalFile": "Edytuj plik",
|
|
78
80
|
"builtins.lobe-local-system.apiName.getCommandOutput": "Pobierz wynik polecenia",
|
|
@@ -86,6 +88,8 @@
|
|
|
86
88
|
"builtins.lobe-local-system.apiName.runCommand": "Uruchom polecenie",
|
|
87
89
|
"builtins.lobe-local-system.apiName.searchLocalFiles": "Przeszukaj pliki",
|
|
88
90
|
"builtins.lobe-local-system.apiName.writeLocalFile": "Zapisz plik",
|
|
91
|
+
"builtins.lobe-local-system.inspector.noResults": "Brak wyników",
|
|
92
|
+
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
89
93
|
"builtins.lobe-local-system.title": "System Lokalny",
|
|
90
94
|
"builtins.lobe-page-agent.apiName.batchUpdate": "Zbiorcza aktualizacja węzłów",
|
|
91
95
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "Porównaj migawki",
|
|
@@ -143,6 +147,7 @@
|
|
|
143
147
|
"builtins.lobe-web-browsing.apiName.crawlMultiPages": "Odczytaj wiele stron",
|
|
144
148
|
"builtins.lobe-web-browsing.apiName.crawlSinglePage": "Odczytaj zawartość strony",
|
|
145
149
|
"builtins.lobe-web-browsing.apiName.search": "Przeszukaj strony",
|
|
150
|
+
"builtins.lobe-web-browsing.inspector.noResults": "Brak wyników",
|
|
146
151
|
"builtins.lobe-web-browsing.title": "Wyszukiwanie w Sieci",
|
|
147
152
|
"confirm": "Potwierdź",
|
|
148
153
|
"debug.arguments": "Argumenty",
|