@lobehub/chat 1.98.1 → 1.99.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.cursor/rules/backend-architecture.mdc +93 -17
- package/.cursor/rules/cursor-ux.mdc +45 -35
- package/.cursor/rules/project-introduce.mdc +72 -6
- package/.cursor/rules/rules-attach.mdc +16 -7
- package/.eslintrc.js +10 -0
- package/CHANGELOG.md +52 -0
- package/apps/desktop/README.md +7 -0
- package/apps/desktop/electron-builder.js +5 -0
- package/apps/desktop/package.json +2 -1
- package/apps/desktop/src/main/const/dir.ts +3 -0
- package/apps/desktop/src/main/controllers/UploadFileCtr.ts +13 -8
- package/apps/desktop/src/main/core/App.ts +8 -0
- package/apps/desktop/src/main/core/StaticFileServerManager.ts +221 -0
- package/apps/desktop/src/main/services/fileSrv.ts +231 -44
- package/apps/desktop/src/main/utils/next-electron-rsc.ts +36 -5
- package/changelog/v1.json +18 -0
- package/docs/development/database-schema.dbml +70 -0
- package/locales/ar/common.json +2 -0
- package/locales/ar/components.json +35 -0
- package/locales/ar/error.json +2 -0
- package/locales/ar/image.json +100 -0
- package/locales/ar/metadata.json +4 -0
- package/locales/ar/modelProvider.json +1 -0
- package/locales/ar/models.json +51 -9
- package/locales/ar/plugin.json +22 -0
- package/locales/ar/providers.json +3 -0
- package/locales/ar/setting.json +5 -0
- package/locales/bg-BG/common.json +2 -0
- package/locales/bg-BG/components.json +35 -0
- package/locales/bg-BG/error.json +2 -0
- package/locales/bg-BG/image.json +100 -0
- package/locales/bg-BG/metadata.json +4 -0
- package/locales/bg-BG/modelProvider.json +1 -0
- package/locales/bg-BG/models.json +51 -9
- package/locales/bg-BG/plugin.json +22 -0
- package/locales/bg-BG/providers.json +3 -0
- package/locales/bg-BG/setting.json +5 -0
- package/locales/de-DE/common.json +2 -0
- package/locales/de-DE/components.json +35 -0
- package/locales/de-DE/error.json +2 -0
- package/locales/de-DE/image.json +100 -0
- package/locales/de-DE/metadata.json +4 -0
- package/locales/de-DE/modelProvider.json +1 -0
- package/locales/de-DE/models.json +51 -9
- package/locales/de-DE/plugin.json +22 -0
- package/locales/de-DE/providers.json +3 -0
- package/locales/de-DE/setting.json +5 -0
- package/locales/en-US/common.json +2 -0
- package/locales/en-US/components.json +35 -0
- package/locales/en-US/error.json +2 -0
- package/locales/en-US/image.json +100 -0
- package/locales/en-US/metadata.json +4 -0
- package/locales/en-US/modelProvider.json +1 -0
- package/locales/en-US/models.json +51 -9
- package/locales/en-US/plugin.json +22 -0
- package/locales/en-US/providers.json +3 -0
- package/locales/en-US/setting.json +5 -0
- package/locales/es-ES/common.json +2 -0
- package/locales/es-ES/components.json +35 -0
- package/locales/es-ES/error.json +2 -0
- package/locales/es-ES/image.json +100 -0
- package/locales/es-ES/metadata.json +4 -0
- package/locales/es-ES/modelProvider.json +1 -0
- package/locales/es-ES/models.json +51 -9
- package/locales/es-ES/plugin.json +22 -0
- package/locales/es-ES/providers.json +3 -0
- package/locales/es-ES/setting.json +5 -0
- package/locales/fa-IR/common.json +2 -0
- package/locales/fa-IR/components.json +35 -0
- package/locales/fa-IR/error.json +2 -0
- package/locales/fa-IR/image.json +100 -0
- package/locales/fa-IR/metadata.json +4 -0
- package/locales/fa-IR/modelProvider.json +1 -0
- package/locales/fa-IR/models.json +51 -9
- package/locales/fa-IR/plugin.json +22 -0
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fa-IR/setting.json +5 -0
- package/locales/fr-FR/common.json +2 -0
- package/locales/fr-FR/components.json +35 -0
- package/locales/fr-FR/error.json +2 -0
- package/locales/fr-FR/image.json +100 -0
- package/locales/fr-FR/metadata.json +4 -0
- package/locales/fr-FR/modelProvider.json +1 -0
- package/locales/fr-FR/models.json +51 -9
- package/locales/fr-FR/plugin.json +22 -0
- package/locales/fr-FR/providers.json +3 -0
- package/locales/fr-FR/setting.json +5 -0
- package/locales/it-IT/common.json +2 -0
- package/locales/it-IT/components.json +35 -0
- package/locales/it-IT/error.json +2 -0
- package/locales/it-IT/image.json +100 -0
- package/locales/it-IT/metadata.json +4 -0
- package/locales/it-IT/modelProvider.json +1 -0
- package/locales/it-IT/models.json +51 -9
- package/locales/it-IT/plugin.json +22 -0
- package/locales/it-IT/providers.json +3 -0
- package/locales/it-IT/setting.json +5 -0
- package/locales/ja-JP/common.json +2 -0
- package/locales/ja-JP/components.json +35 -0
- package/locales/ja-JP/error.json +2 -0
- package/locales/ja-JP/image.json +100 -0
- package/locales/ja-JP/metadata.json +4 -0
- package/locales/ja-JP/modelProvider.json +1 -0
- package/locales/ja-JP/models.json +51 -9
- package/locales/ja-JP/plugin.json +22 -0
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ja-JP/setting.json +5 -0
- package/locales/ko-KR/common.json +2 -0
- package/locales/ko-KR/components.json +35 -0
- package/locales/ko-KR/error.json +2 -0
- package/locales/ko-KR/image.json +100 -0
- package/locales/ko-KR/metadata.json +4 -0
- package/locales/ko-KR/modelProvider.json +1 -0
- package/locales/ko-KR/models.json +51 -9
- package/locales/ko-KR/plugin.json +22 -0
- package/locales/ko-KR/providers.json +3 -0
- package/locales/ko-KR/setting.json +5 -0
- package/locales/nl-NL/common.json +2 -0
- package/locales/nl-NL/components.json +35 -0
- package/locales/nl-NL/error.json +2 -0
- package/locales/nl-NL/image.json +100 -0
- package/locales/nl-NL/metadata.json +4 -0
- package/locales/nl-NL/modelProvider.json +1 -0
- package/locales/nl-NL/models.json +51 -9
- package/locales/nl-NL/plugin.json +22 -0
- package/locales/nl-NL/providers.json +3 -0
- package/locales/nl-NL/setting.json +5 -0
- package/locales/pl-PL/common.json +2 -0
- package/locales/pl-PL/components.json +35 -0
- package/locales/pl-PL/error.json +2 -0
- package/locales/pl-PL/image.json +100 -0
- package/locales/pl-PL/metadata.json +4 -0
- package/locales/pl-PL/modelProvider.json +1 -0
- package/locales/pl-PL/models.json +51 -9
- package/locales/pl-PL/plugin.json +22 -0
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pl-PL/setting.json +5 -0
- package/locales/pt-BR/common.json +2 -0
- package/locales/pt-BR/components.json +35 -0
- package/locales/pt-BR/error.json +2 -0
- package/locales/pt-BR/image.json +100 -0
- package/locales/pt-BR/metadata.json +4 -0
- package/locales/pt-BR/modelProvider.json +1 -0
- package/locales/pt-BR/models.json +51 -9
- package/locales/pt-BR/plugin.json +22 -0
- package/locales/pt-BR/providers.json +3 -0
- package/locales/pt-BR/setting.json +5 -0
- package/locales/ru-RU/common.json +2 -0
- package/locales/ru-RU/components.json +35 -0
- package/locales/ru-RU/error.json +2 -0
- package/locales/ru-RU/image.json +100 -0
- package/locales/ru-RU/metadata.json +4 -0
- package/locales/ru-RU/modelProvider.json +1 -0
- package/locales/ru-RU/models.json +51 -9
- package/locales/ru-RU/plugin.json +22 -0
- package/locales/ru-RU/providers.json +3 -0
- package/locales/ru-RU/setting.json +5 -0
- package/locales/tr-TR/common.json +2 -0
- package/locales/tr-TR/components.json +35 -0
- package/locales/tr-TR/error.json +2 -0
- package/locales/tr-TR/image.json +100 -0
- package/locales/tr-TR/metadata.json +4 -0
- package/locales/tr-TR/modelProvider.json +1 -0
- package/locales/tr-TR/models.json +51 -9
- package/locales/tr-TR/plugin.json +22 -0
- package/locales/tr-TR/providers.json +3 -0
- package/locales/tr-TR/setting.json +5 -0
- package/locales/vi-VN/common.json +2 -0
- package/locales/vi-VN/components.json +35 -0
- package/locales/vi-VN/error.json +2 -0
- package/locales/vi-VN/image.json +100 -0
- package/locales/vi-VN/metadata.json +4 -0
- package/locales/vi-VN/modelProvider.json +1 -0
- package/locales/vi-VN/models.json +51 -9
- package/locales/vi-VN/plugin.json +22 -0
- package/locales/vi-VN/providers.json +3 -0
- package/locales/vi-VN/setting.json +5 -0
- package/locales/zh-CN/common.json +2 -0
- package/locales/zh-CN/components.json +35 -0
- package/locales/zh-CN/error.json +2 -0
- package/locales/zh-CN/image.json +100 -0
- package/locales/zh-CN/metadata.json +4 -0
- package/locales/zh-CN/modelProvider.json +1 -0
- package/locales/zh-CN/models.json +51 -9
- package/locales/zh-CN/plugin.json +22 -0
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-CN/setting.json +5 -0
- package/locales/zh-TW/common.json +2 -0
- package/locales/zh-TW/components.json +35 -0
- package/locales/zh-TW/error.json +2 -0
- package/locales/zh-TW/image.json +100 -0
- package/locales/zh-TW/metadata.json +4 -0
- package/locales/zh-TW/modelProvider.json +1 -0
- package/locales/zh-TW/models.json +51 -9
- package/locales/zh-TW/plugin.json +22 -0
- package/locales/zh-TW/providers.json +3 -0
- package/locales/zh-TW/setting.json +5 -0
- package/package.json +11 -4
- package/packages/electron-server-ipc/src/events/file.ts +3 -1
- package/packages/electron-server-ipc/src/types/file.ts +15 -0
- package/src/app/[variants]/(main)/_layout/Desktop/SideBar/TopActions.tsx +11 -1
- package/src/app/[variants]/(main)/image/@menu/components/AspectRatioSelect/index.tsx +73 -0
- package/src/app/[variants]/(main)/image/@menu/components/SeedNumberInput/index.tsx +39 -0
- package/src/app/[variants]/(main)/image/@menu/components/SizeSelect/index.tsx +89 -0
- package/src/app/[variants]/(main)/image/@menu/default.tsx +11 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/AspectRatioSelect.tsx +24 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/DimensionControlGroup.tsx +107 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/ImageNum.tsx +290 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/ImageUpload.tsx +504 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/ImageUrl.tsx +18 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/ImageUrlsUpload.tsx +19 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/ModelSelect.tsx +155 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/MultiImagesUpload/ImageManageModal.tsx +415 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/MultiImagesUpload/index.tsx +732 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/SeedNumberInput.tsx +24 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/SizeSelect.tsx +17 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/SizeSliderInput.tsx +15 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/StepsSliderInput.tsx +11 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/constants.ts +1 -0
- package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/index.tsx +93 -0
- package/src/app/[variants]/(main)/image/@topic/default.tsx +17 -0
- package/src/app/[variants]/(main)/image/@topic/features/Topics/NewTopicButton.tsx +64 -0
- package/src/app/[variants]/(main)/image/@topic/features/Topics/SkeletonList.tsx +34 -0
- package/src/app/[variants]/(main)/image/@topic/features/Topics/TopicItem.tsx +136 -0
- package/src/app/[variants]/(main)/image/@topic/features/Topics/TopicItemContainer.tsx +91 -0
- package/src/app/[variants]/(main)/image/@topic/features/Topics/TopicList.tsx +57 -0
- package/src/app/[variants]/(main)/image/@topic/features/Topics/TopicUrlSync.tsx +37 -0
- package/src/app/[variants]/(main)/image/@topic/features/Topics/index.tsx +19 -0
- package/src/app/[variants]/(main)/image/NotSupportClient.tsx +153 -0
- package/src/app/[variants]/(main)/image/_layout/Desktop/Container.tsx +35 -0
- package/src/app/[variants]/(main)/image/_layout/Desktop/RegisterHotkeys.tsx +10 -0
- package/src/app/[variants]/(main)/image/_layout/Desktop/index.tsx +30 -0
- package/src/app/[variants]/(main)/image/_layout/Mobile/index.tsx +14 -0
- package/src/app/[variants]/(main)/image/_layout/type.ts +7 -0
- package/src/app/[variants]/(main)/image/features/GenerationFeed/BatchItem.tsx +196 -0
- package/src/app/[variants]/(main)/image/features/GenerationFeed/GenerationItem/ActionButtons.tsx +60 -0
- package/src/app/[variants]/(main)/image/features/GenerationFeed/GenerationItem/ElapsedTime.tsx +90 -0
- package/src/app/[variants]/(main)/image/features/GenerationFeed/GenerationItem/ErrorState.tsx +65 -0
- package/src/app/[variants]/(main)/image/features/GenerationFeed/GenerationItem/LoadingState.tsx +43 -0
- package/src/app/[variants]/(main)/image/features/GenerationFeed/GenerationItem/SuccessState.tsx +49 -0
- package/src/app/[variants]/(main)/image/features/GenerationFeed/GenerationItem/index.tsx +156 -0
- package/src/app/[variants]/(main)/image/features/GenerationFeed/GenerationItem/styles.ts +51 -0
- package/src/app/[variants]/(main)/image/features/GenerationFeed/GenerationItem/types.ts +39 -0
- package/src/app/[variants]/(main)/image/features/GenerationFeed/GenerationItem/utils.ts +11 -0
- package/src/app/[variants]/(main)/image/features/GenerationFeed/index.tsx +97 -0
- package/src/app/[variants]/(main)/image/features/ImageWorkspace/Content.tsx +48 -0
- package/src/app/[variants]/(main)/image/features/ImageWorkspace/EmptyState.tsx +37 -0
- package/src/app/[variants]/(main)/image/features/ImageWorkspace/SkeletonList.tsx +50 -0
- package/src/app/[variants]/(main)/image/features/ImageWorkspace/index.tsx +23 -0
- package/src/app/[variants]/(main)/image/features/PromptInput/Title.tsx +38 -0
- package/src/app/[variants]/(main)/image/features/PromptInput/index.tsx +114 -0
- package/src/app/[variants]/(main)/image/layout.tsx +19 -0
- package/src/app/[variants]/(main)/image/loading.tsx +3 -0
- package/src/app/[variants]/(main)/image/page.tsx +47 -0
- package/src/app/[variants]/(main)/settings/system-agent/index.tsx +2 -1
- package/src/chains/summaryGenerationTitle.ts +25 -0
- package/src/components/ImageItem/index.tsx +9 -6
- package/src/{features/Conversation/Error → components/InvalidAPIKey}/APIKeyForm/Bedrock.tsx +3 -4
- package/src/{features/Conversation/Error → components/InvalidAPIKey}/APIKeyForm/ProviderApiKeyForm.tsx +5 -4
- package/src/components/InvalidAPIKey/APIKeyForm/index.tsx +108 -0
- package/src/{features/Conversation/Error → components/InvalidAPIKey}/APIKeyForm/useApiKey.ts +2 -1
- package/src/components/InvalidAPIKey/index.tsx +30 -0
- package/src/components/KeyValueEditor/index.tsx +203 -0
- package/src/components/KeyValueEditor/utils.ts +42 -0
- package/src/config/aiModels/fal.ts +52 -0
- package/src/config/aiModels/index.ts +3 -0
- package/src/config/aiModels/openai.ts +20 -6
- package/src/config/llm.ts +6 -0
- package/src/config/modelProviders/fal.ts +21 -0
- package/src/config/modelProviders/index.ts +3 -0
- package/src/config/paramsSchemas/fal/flux-kontext-dev.ts +8 -0
- package/src/config/paramsSchemas/fal/flux-pro-kontext.ts +11 -0
- package/src/config/paramsSchemas/fal/flux-schnell.ts +9 -0
- package/src/config/paramsSchemas/fal/imagen4.ts +10 -0
- package/src/config/paramsSchemas/openai/gpt-image-1.ts +10 -0
- package/src/const/hotkeys.ts +2 -2
- package/src/const/image.ts +6 -0
- package/src/const/settings/systemAgent.ts +1 -0
- package/src/database/client/migrations.json +27 -0
- package/src/database/migrations/0026_add_autovacuum_tuning.sql +2 -0
- package/src/database/migrations/0027_ai_image.sql +47 -0
- package/src/database/migrations/meta/0027_snapshot.json +6003 -0
- package/src/database/migrations/meta/_journal.json +7 -0
- package/src/database/models/__tests__/asyncTask.test.ts +7 -5
- package/src/database/models/__tests__/file.test.ts +287 -0
- package/src/database/models/__tests__/generation.test.ts +786 -0
- package/src/database/models/__tests__/generationBatch.test.ts +614 -0
- package/src/database/models/__tests__/generationTopic.test.ts +411 -0
- package/src/database/models/aiModel.ts +2 -0
- package/src/database/models/asyncTask.ts +1 -1
- package/src/database/models/file.ts +28 -20
- package/src/database/models/generation.ts +197 -0
- package/src/database/models/generationBatch.ts +212 -0
- package/src/database/models/generationTopic.ts +131 -0
- package/src/database/repositories/aiInfra/index.test.ts +151 -1
- package/src/database/repositories/aiInfra/index.ts +28 -19
- package/src/database/repositories/tableViewer/index.test.ts +1 -1
- package/src/database/schemas/file.ts +8 -0
- package/src/database/schemas/generation.ts +127 -0
- package/src/database/schemas/index.ts +1 -0
- package/src/database/schemas/relations.ts +45 -1
- package/src/database/type.ts +2 -0
- package/src/database/utils/idGenerator.ts +3 -0
- package/src/features/Conversation/Error/ChatInvalidApiKey.tsx +39 -0
- package/src/features/Conversation/Error/InvalidAccessCode.tsx +2 -2
- package/src/features/Conversation/Error/index.tsx +3 -3
- package/src/features/ImageSidePanel/index.tsx +83 -0
- package/src/features/ImageTopicPanel/index.tsx +79 -0
- package/src/features/PluginDevModal/MCPManifestForm/CollapsibleSection.tsx +62 -0
- package/src/features/PluginDevModal/MCPManifestForm/QuickImportSection.tsx +158 -0
- package/src/features/PluginDevModal/MCPManifestForm/index.tsx +99 -155
- package/src/features/PluginStore/McpList/Detail/Settings/index.tsx +5 -2
- package/src/hooks/useDownloadImage.ts +31 -0
- package/src/hooks/useFetchGenerationTopics.ts +13 -0
- package/src/hooks/useHotkeys/imageScope.ts +48 -0
- package/src/libs/mcp/client.ts +55 -22
- package/src/libs/mcp/types.ts +42 -6
- package/src/libs/model-runtime/BaseAI.ts +3 -1
- package/src/libs/model-runtime/ModelRuntime.test.ts +80 -0
- package/src/libs/model-runtime/ModelRuntime.ts +15 -1
- package/src/libs/model-runtime/UniformRuntime/index.ts +4 -1
- package/src/libs/model-runtime/fal/index.test.ts +442 -0
- package/src/libs/model-runtime/fal/index.ts +88 -0
- package/src/libs/model-runtime/openai/index.test.ts +396 -2
- package/src/libs/model-runtime/openai/index.ts +129 -3
- package/src/libs/model-runtime/runtimeMap.ts +2 -0
- package/src/libs/model-runtime/types/image.ts +25 -0
- package/src/libs/model-runtime/types/type.ts +1 -0
- package/src/libs/model-runtime/utils/openaiCompatibleFactory/index.ts +10 -0
- package/src/libs/standard-parameters/index.ts +1 -0
- package/src/libs/standard-parameters/meta-schema.test.ts +214 -0
- package/src/libs/standard-parameters/meta-schema.ts +147 -0
- package/src/libs/swr/index.ts +1 -0
- package/src/libs/trpc/async/asyncAuth.ts +29 -8
- package/src/libs/trpc/async/context.ts +42 -4
- package/src/libs/trpc/async/index.ts +17 -4
- package/src/libs/trpc/async/init.ts +8 -0
- package/src/libs/trpc/client/lambda.ts +19 -2
- package/src/locales/default/common.ts +2 -0
- package/src/locales/default/components.ts +35 -0
- package/src/locales/default/error.ts +2 -0
- package/src/locales/default/image.ts +100 -0
- package/src/locales/default/index.ts +2 -0
- package/src/locales/default/metadata.ts +4 -0
- package/src/locales/default/modelProvider.ts +2 -0
- package/src/locales/default/plugin.ts +22 -0
- package/src/locales/default/setting.ts +5 -0
- package/src/middleware.ts +1 -0
- package/src/server/modules/ElectronIPCClient/index.ts +9 -1
- package/src/server/modules/S3/index.ts +15 -0
- package/src/server/routers/async/caller.ts +9 -1
- package/src/server/routers/async/image.ts +253 -0
- package/src/server/routers/async/index.ts +2 -0
- package/src/server/routers/lambda/aiProvider.test.ts +1 -0
- package/src/server/routers/lambda/generation.test.ts +267 -0
- package/src/server/routers/lambda/generation.ts +86 -0
- package/src/server/routers/lambda/generationBatch.test.ts +376 -0
- package/src/server/routers/lambda/generationBatch.ts +56 -0
- package/src/server/routers/lambda/generationTopic.test.ts +508 -0
- package/src/server/routers/lambda/generationTopic.ts +93 -0
- package/src/server/routers/lambda/image.ts +248 -0
- package/src/server/routers/lambda/index.ts +8 -0
- package/src/server/routers/tools/mcp.ts +15 -0
- package/src/server/services/file/__tests__/index.test.ts +135 -0
- package/src/server/services/file/impls/local.test.ts +153 -52
- package/src/server/services/file/impls/local.ts +70 -46
- package/src/server/services/file/impls/s3.test.ts +114 -0
- package/src/server/services/file/impls/s3.ts +40 -0
- package/src/server/services/file/impls/type.ts +10 -0
- package/src/server/services/file/index.ts +14 -0
- package/src/server/services/generation/index.ts +239 -0
- package/src/server/services/mcp/index.ts +20 -2
- package/src/services/__tests__/generation.test.ts +40 -0
- package/src/services/__tests__/generationBatch.test.ts +36 -0
- package/src/services/__tests__/generationTopic.test.ts +72 -0
- package/src/services/electron/file.ts +3 -1
- package/src/services/generation.ts +16 -0
- package/src/services/generationBatch.ts +25 -0
- package/src/services/generationTopic.ts +28 -0
- package/src/services/image.ts +33 -0
- package/src/services/mcp.ts +12 -7
- package/src/services/upload.ts +43 -9
- package/src/store/aiInfra/slices/aiProvider/action.ts +25 -5
- package/src/store/aiInfra/slices/aiProvider/initialState.ts +1 -0
- package/src/store/aiInfra/slices/aiProvider/selectors.ts +3 -0
- package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +5 -5
- package/src/store/chat/slices/message/action.ts +2 -2
- package/src/store/chat/slices/translate/action.ts +1 -1
- package/src/store/global/initialState.ts +9 -0
- package/src/store/global/selectors/systemStatus.ts +8 -0
- package/src/store/image/index.ts +2 -0
- package/src/store/image/initialState.ts +25 -0
- package/src/store/image/selectors.ts +4 -0
- package/src/store/image/slices/createImage/action.test.ts +330 -0
- package/src/store/image/slices/createImage/action.ts +134 -0
- package/src/store/image/slices/createImage/initialState.ts +9 -0
- package/src/store/image/slices/createImage/selectors.test.ts +114 -0
- package/src/store/image/slices/createImage/selectors.ts +9 -0
- package/src/store/image/slices/generationBatch/action.test.ts +495 -0
- package/src/store/image/slices/generationBatch/action.ts +303 -0
- package/src/store/image/slices/generationBatch/initialState.ts +13 -0
- package/src/store/image/slices/generationBatch/reducer.test.ts +568 -0
- package/src/store/image/slices/generationBatch/reducer.ts +101 -0
- package/src/store/image/slices/generationBatch/selectors.test.ts +307 -0
- package/src/store/image/slices/generationBatch/selectors.ts +36 -0
- package/src/store/image/slices/generationConfig/action.test.ts +351 -0
- package/src/store/image/slices/generationConfig/action.ts +295 -0
- package/src/store/image/slices/generationConfig/hooks.test.ts +304 -0
- package/src/store/image/slices/generationConfig/hooks.ts +118 -0
- package/src/store/image/slices/generationConfig/index.ts +1 -0
- package/src/store/image/slices/generationConfig/initialState.ts +37 -0
- package/src/store/image/slices/generationConfig/selectors.test.ts +204 -0
- package/src/store/image/slices/generationConfig/selectors.ts +25 -0
- package/src/store/image/slices/generationTopic/action.test.ts +687 -0
- package/src/store/image/slices/generationTopic/action.ts +319 -0
- package/src/store/image/slices/generationTopic/index.ts +2 -0
- package/src/store/image/slices/generationTopic/initialState.ts +14 -0
- package/src/store/image/slices/generationTopic/reducer.test.ts +198 -0
- package/src/store/image/slices/generationTopic/reducer.ts +66 -0
- package/src/store/image/slices/generationTopic/selectors.test.ts +103 -0
- package/src/store/image/slices/generationTopic/selectors.ts +15 -0
- package/src/store/image/store.ts +42 -0
- package/src/store/image/utils/size.ts +51 -0
- package/src/store/tool/slices/customPlugin/action.ts +10 -1
- package/src/store/tool/slices/mcpStore/action.ts +6 -4
- package/src/store/user/slices/settings/selectors/__snapshots__/settings.test.ts.snap +4 -0
- package/src/store/user/slices/settings/selectors/systemAgent.ts +2 -0
- package/src/types/aiModel.ts +8 -3
- package/src/types/aiProvider.ts +1 -0
- package/src/types/asyncTask.ts +2 -0
- package/src/types/files/index.ts +5 -0
- package/src/types/generation/index.ts +80 -0
- package/src/types/hotkey.ts +2 -0
- package/src/types/plugins/mcp.ts +2 -6
- package/src/types/tool/plugin.ts +8 -0
- package/src/types/user/settings/keyVaults.ts +5 -0
- package/src/types/user/settings/systemAgent.ts +1 -0
- package/src/utils/client/downloadFile.ts +33 -4
- package/src/utils/number.test.ts +105 -0
- package/src/utils/number.ts +25 -0
- package/src/utils/server/__tests__/geo.test.ts +6 -3
- package/src/utils/storeDebug.test.ts +152 -0
- package/src/utils/storeDebug.ts +16 -7
- package/src/utils/time.test.ts +259 -0
- package/src/utils/time.ts +18 -0
- package/src/utils/units.ts +61 -0
- package/src/utils/url.test.ts +358 -9
- package/src/utils/url.ts +105 -3
- package/{vitest.server.config.ts → vitest.config.server.ts} +3 -0
- package/.cursor/rules/i18n/i18n-auto-attached.mdc +0 -6
- package/src/features/Conversation/Error/APIKeyForm/index.tsx +0 -105
- package/src/features/Conversation/Error/InvalidAPIKey.tsx +0 -16
- package/src/features/PluginDevModal/MCPManifestForm/EnvEditor.tsx +0 -227
- /package/.cursor/rules/{i18n/i18n.mdc → i18n.mdc} +0 -0
- /package/src/app/[variants]/(main)/settings/system-agent/features/{createForm.tsx → SystemAgentForm.tsx} +0 -0
- /package/src/{features/Conversation/Error → components/InvalidAPIKey}/APIKeyForm/LoadingContext.ts +0 -0
@@ -203,24 +203,21 @@
|
|
203
203
|
"Pro/Qwen/Qwen2.5-VL-7B-Instruct": {
|
204
204
|
"description": "Qwen2.5-VL è il nuovo membro della serie Qwen, dotato di potenti capacità di comprensione visiva. È in grado di analizzare il testo, i grafici e il layout all'interno delle immagini, nonché di comprendere video lunghi e catturare eventi. Può effettuare ragionamenti, manipolare strumenti, supportare la localizzazione di oggetti in diversi formati e generare output strutturati. Inoltre, è stato ottimizzato per la formazione dinamica di risoluzione e frame rate nella comprensione video, migliorando l'efficienza dell'encoder visivo."
|
205
205
|
},
|
206
|
+
"Pro/THUDM/GLM-4.1V-9B-Thinking": {
|
207
|
+
"description": "GLM-4.1V-9B-Thinking è un modello di linguaggio visivo open source (VLM) rilasciato congiuntamente da Zhipu AI e dal laboratorio KEG dell'Università di Tsinghua, progettato specificamente per gestire compiti cognitivi multimodali complessi. Basato sul modello di base GLM-4-9B-0414, il modello introduce il meccanismo di ragionamento \"Catena di Pensiero\" (Chain-of-Thought) e utilizza strategie di apprendimento rinforzato, migliorando significativamente la capacità di ragionamento cross-modale e la stabilità."
|
208
|
+
},
|
206
209
|
"Pro/THUDM/glm-4-9b-chat": {
|
207
210
|
"description": "GLM-4-9B-Chat è la versione open source del modello pre-addestrato GLM-4 della serie sviluppata da Zhipu AI. Questo modello ha dimostrato prestazioni eccellenti in vari aspetti, tra cui semantica, matematica, ragionamento, codice e conoscenza. Oltre a supportare conversazioni multi-turno, GLM-4-9B-Chat offre anche funzionalità avanzate come navigazione web, esecuzione di codice, chiamate a strumenti personalizzati (Function Call) e ragionamento su testi lunghi. Il modello supporta 26 lingue, tra cui cinese, inglese, giapponese, coreano e tedesco. Ha mostrato prestazioni eccellenti in vari benchmark, come AlignBench-v2, MT-Bench, MMLU e C-Eval. Questo modello supporta una lunghezza di contesto massima di 128K, rendendolo adatto per ricerche accademiche e applicazioni commerciali."
|
208
211
|
},
|
209
212
|
"Pro/deepseek-ai/DeepSeek-R1": {
|
210
213
|
"description": "DeepSeek-R1 è un modello di inferenza guidato dall'apprendimento per rinforzo (RL) che affronta i problemi di ripetitività e leggibilità nel modello. Prima dell'RL, DeepSeek-R1 ha introdotto dati di cold start, ottimizzando ulteriormente le prestazioni di inferenza. Si comporta in modo comparabile a OpenAI-o1 in compiti matematici, di codifica e di inferenza, e migliora l'efficacia complessiva grazie a metodi di addestramento ben progettati."
|
211
214
|
},
|
212
|
-
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
213
|
-
"description": "DeepSeek-R1 è un modello di ragionamento guidato da apprendimento rinforzato (RL) che risolve problemi di ripetitività e leggibilità. Prima del RL, ha introdotto dati di cold start per ottimizzare ulteriormente le prestazioni di ragionamento. Le sue prestazioni in matematica, codice e ragionamento sono comparabili a OpenAI-o1, con miglioramenti complessivi grazie a metodi di addestramento accuratamente progettati."
|
214
|
-
},
|
215
215
|
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
216
216
|
"description": "DeepSeek-R1-Distill-Qwen-7B è un modello ottenuto attraverso il distillamento del knowledge da Qwen2.5-Math-7B. Questo modello è stato fine-tunato utilizzando 800.000 campioni selezionati generati da DeepSeek-R1, dimostrando un'ottima capacità di inferenza. Ha ottenuto risultati eccellenti in diversi benchmark, raggiungendo una precisione del 92,8% su MATH-500, un tasso di passaggio del 55,5% su AIME 2024 e una valutazione di 1189 su CodeForces, dimostrando una forte capacità matematica e di programmazione per un modello di 7B."
|
217
217
|
},
|
218
218
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
219
219
|
"description": "DeepSeek-V3 è un modello di linguaggio con 6710 miliardi di parametri, basato su un'architettura di esperti misti (MoE) che utilizza attenzione multilivello (MLA) e la strategia di bilanciamento del carico senza perdite ausiliarie, ottimizzando l'efficienza di inferenza e addestramento. Pre-addestrato su 14,8 trilioni di token di alta qualità e successivamente affinato tramite supervisione e apprendimento per rinforzo, DeepSeek-V3 supera altri modelli open source, avvicinandosi ai modelli chiusi di punta."
|
220
220
|
},
|
221
|
-
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
222
|
-
"description": "DeepSeek-V3 è un modello linguistico ibrido esperto (MoE) con 6710 miliardi di parametri, che utilizza l'attenzione multilivello (MLA) e l'architettura DeepSeekMoE, combinando strategie di bilanciamento del carico senza perdite ausiliarie per ottimizzare l'efficienza di inferenza e addestramento. Pre-addestrato su 14,8 trilioni di token di alta qualità e successivamente affinato supervisionato e tramite apprendimento rinforzato, DeepSeek-V3 supera le prestazioni di altri modelli open source, avvicinandosi ai modelli closed source leader."
|
223
|
-
},
|
224
221
|
"QwQ-32B-Preview": {
|
225
222
|
"description": "QwQ-32B-Preview è un modello di elaborazione del linguaggio naturale innovativo, in grado di gestire in modo efficiente compiti complessi di generazione di dialoghi e comprensione del contesto."
|
226
223
|
},
|
@@ -383,6 +380,9 @@
|
|
383
380
|
"THUDM/GLM-4-9B-0414": {
|
384
381
|
"description": "GLM-4-9B-0414 è un modello di piccole dimensioni della serie GLM, con 9 miliardi di parametri. Questo modello eredita le caratteristiche tecniche della serie GLM-4-32B, ma offre opzioni di distribuzione più leggere. Nonostante le dimensioni ridotte, GLM-4-9B-0414 mostra ancora capacità eccezionali in generazione di codice, progettazione di pagine web, generazione di grafica SVG e scrittura basata su ricerca."
|
385
382
|
},
|
383
|
+
"THUDM/GLM-4.1V-9B-Thinking": {
|
384
|
+
"description": "GLM-4.1V-9B-Thinking è un modello di linguaggio visivo open source (VLM) rilasciato congiuntamente da Zhipu AI e dal laboratorio KEG dell'Università di Tsinghua, progettato specificamente per gestire compiti cognitivi multimodali complessi. Basato sul modello di base GLM-4-9B-0414, il modello introduce il meccanismo di ragionamento \"Catena di Pensiero\" (Chain-of-Thought) e utilizza strategie di apprendimento rinforzato, migliorando significativamente la capacità di ragionamento cross-modale e la stabilità."
|
385
|
+
},
|
386
386
|
"THUDM/GLM-Z1-32B-0414": {
|
387
387
|
"description": "GLM-Z1-32B-0414 è un modello di inferenza con capacità di pensiero profondo. Questo modello è stato sviluppato sulla base di GLM-4-32B-0414 attraverso un avvio a freddo e un apprendimento rinforzato esteso, ed è stato ulteriormente addestrato in compiti di matematica, codice e logica. Rispetto al modello di base, GLM-Z1-32B-0414 ha migliorato significativamente le capacità matematiche e la capacità di risolvere compiti complessi."
|
388
388
|
},
|
@@ -539,6 +539,9 @@
|
|
539
539
|
"anthropic/claude-sonnet-4": {
|
540
540
|
"description": "Claude Sonnet 4 può generare risposte quasi istantanee o un ragionamento esteso e graduale, che gli utenti possono osservare chiaramente. Gli utenti API possono anche controllare con precisione il tempo di riflessione del modello."
|
541
541
|
},
|
542
|
+
"ascend-tribe/pangu-pro-moe": {
|
543
|
+
"description": "Pangu-Pro-MoE 72B-A16B è un modello linguistico di grandi dimensioni a parametri sparsi con 72 miliardi di parametri totali e 16 miliardi di parametri attivati, basato sull'architettura Mixture of Group Experts (MoGE). Durante la fase di selezione degli esperti, gli esperti sono raggruppati e il token attiva un numero uguale di esperti all'interno di ogni gruppo, garantendo un bilanciamento del carico degli esperti e migliorando significativamente l'efficienza di distribuzione del modello sulla piattaforma Ascend."
|
544
|
+
},
|
542
545
|
"aya": {
|
543
546
|
"description": "Aya 23 è un modello multilingue lanciato da Cohere, supporta 23 lingue, facilitando applicazioni linguistiche diversificate."
|
544
547
|
},
|
@@ -548,6 +551,9 @@
|
|
548
551
|
"baichuan/baichuan2-13b-chat": {
|
549
552
|
"description": "Baichuan-13B è un modello di linguaggio open source sviluppato da Baichuan Intelligence, con 13 miliardi di parametri, che ha ottenuto i migliori risultati nella sua categoria in benchmark autorevoli sia in cinese che in inglese."
|
550
553
|
},
|
554
|
+
"baidu/ERNIE-4.5-300B-A47B": {
|
555
|
+
"description": "ERNIE-4.5-300B-A47B è un modello linguistico di grandi dimensioni sviluppato da Baidu basato sull'architettura Mixture of Experts (MoE). Il modello ha un totale di 300 miliardi di parametri, ma durante l'inferenza attiva solo 47 miliardi di parametri per token, garantendo così un equilibrio tra prestazioni elevate ed efficienza computazionale. Come uno dei modelli principali della serie ERNIE 4.5, eccelle in compiti di comprensione del testo, generazione, ragionamento e programmazione. Il modello utilizza un innovativo metodo di pre-addestramento multimodale eterogeneo MoE, addestrando congiuntamente testo e modalità visive, migliorando efficacemente le capacità complessive, con risultati particolarmente evidenti nell'aderenza alle istruzioni e nella memoria della conoscenza mondiale."
|
556
|
+
},
|
551
557
|
"c4ai-aya-expanse-32b": {
|
552
558
|
"description": "Aya Expanse è un modello multilingue ad alte prestazioni da 32B, progettato per sfidare le prestazioni dei modelli monolingue attraverso innovazioni in ottimizzazione delle istruzioni, arbitraggio dei dati, addestramento delle preferenze e fusione dei modelli. Supporta 23 lingue."
|
553
559
|
},
|
@@ -1013,6 +1019,15 @@
|
|
1013
1019
|
"ernie-x1-turbo-32k": {
|
1014
1020
|
"description": "Rispetto a ERNIE-X1-32K, il modello offre prestazioni e risultati migliori."
|
1015
1021
|
},
|
1022
|
+
"flux-kontext/dev": {
|
1023
|
+
"description": "Modello di editing immagini Frontier."
|
1024
|
+
},
|
1025
|
+
"flux-pro/kontext": {
|
1026
|
+
"description": "FLUX.1 Kontext [pro] è in grado di elaborare testo e immagini di riferimento come input, realizzando senza soluzione di continuità modifiche locali mirate e complesse trasformazioni dell'intera scena."
|
1027
|
+
},
|
1028
|
+
"flux/schnell": {
|
1029
|
+
"description": "FLUX.1 [schnell] è un modello trasformatore a flusso con 12 miliardi di parametri, capace di generare immagini di alta qualità da testo in 1-4 passaggi, adatto per uso personale e commerciale."
|
1030
|
+
},
|
1016
1031
|
"gemini-1.0-pro-001": {
|
1017
1032
|
"description": "Gemini 1.0 Pro 001 (Tuning) offre prestazioni stabili e ottimizzabili, è la scelta ideale per soluzioni a compiti complessi."
|
1018
1033
|
},
|
@@ -1097,9 +1112,6 @@
|
|
1097
1112
|
"gemini-2.5-pro": {
|
1098
1113
|
"description": "Gemini 2.5 Pro è il modello di pensiero più avanzato di Google, capace di ragionare su codice, matematica e problemi complessi nei campi STEM, oltre a utilizzare contesti lunghi per analizzare grandi dataset, codebase e documenti."
|
1099
1114
|
},
|
1100
|
-
"gemini-2.5-pro-exp-03-25": {
|
1101
|
-
"description": "Gemini 2.5 Pro Experimental è il modello di pensiero più avanzato di Google, in grado di ragionare su problemi complessi in codice, matematica e nei campi STEM, e di analizzare grandi set di dati, codebase e documenti utilizzando contesti lunghi."
|
1102
|
-
},
|
1103
1115
|
"gemini-2.5-pro-preview-03-25": {
|
1104
1116
|
"description": "Gemini 2.5 Pro Preview è il modello di pensiero più avanzato di Google, in grado di ragionare su problemi complessi in codice, matematica e nei campi STEM, oltre a utilizzare analisi di lungo contesto per grandi set di dati, codici sorgente e documenti."
|
1105
1117
|
},
|
@@ -1166,6 +1178,12 @@
|
|
1166
1178
|
"glm-4-plus": {
|
1167
1179
|
"description": "GLM-4-Plus, come flagship ad alta intelligenza, ha potenti capacità di elaborazione di testi lunghi e compiti complessi, con prestazioni complessive migliorate."
|
1168
1180
|
},
|
1181
|
+
"glm-4.1v-thinking-flash": {
|
1182
|
+
"description": "La serie GLM-4.1V-Thinking è attualmente il modello visivo più performante tra i modelli VLM di livello 10 miliardi di parametri noti, integrando le migliori prestazioni SOTA nelle attività di linguaggio visivo di pari livello, tra cui comprensione video, domande sulle immagini, risoluzione di problemi disciplinari, riconoscimento OCR, interpretazione di documenti e grafici, agent GUI, coding front-end web, grounding e altro. Le capacità in molteplici compiti superano persino il modello Qwen2.5-VL-72B con 8 volte più parametri. Grazie a tecniche avanzate di apprendimento rinforzato, il modello padroneggia il ragionamento tramite catena di pensiero per migliorare accuratezza e ricchezza delle risposte, superando significativamente i modelli tradizionali non-thinking in termini di risultati finali e interpretabilità."
|
1183
|
+
},
|
1184
|
+
"glm-4.1v-thinking-flashx": {
|
1185
|
+
"description": "La serie GLM-4.1V-Thinking è attualmente il modello visivo più performante tra i modelli VLM di livello 10 miliardi di parametri noti, integrando le migliori prestazioni SOTA nelle attività di linguaggio visivo di pari livello, tra cui comprensione video, domande sulle immagini, risoluzione di problemi disciplinari, riconoscimento OCR, interpretazione di documenti e grafici, agent GUI, coding front-end web, grounding e altro. Le capacità in molteplici compiti superano persino il modello Qwen2.5-VL-72B con 8 volte più parametri. Grazie a tecniche avanzate di apprendimento rinforzato, il modello padroneggia il ragionamento tramite catena di pensiero per migliorare accuratezza e ricchezza delle risposte, superando significativamente i modelli tradizionali non-thinking in termini di risultati finali e interpretabilità."
|
1186
|
+
},
|
1169
1187
|
"glm-4v": {
|
1170
1188
|
"description": "GLM-4V offre potenti capacità di comprensione e ragionamento visivo, supportando vari compiti visivi."
|
1171
1189
|
},
|
@@ -1187,6 +1205,9 @@
|
|
1187
1205
|
"glm-z1-flash": {
|
1188
1206
|
"description": "La serie GLM-Z1 possiede potenti capacità di ragionamento complesso, eccellendo in logica, matematica e programmazione. La lunghezza massima del contesto è di 32K."
|
1189
1207
|
},
|
1208
|
+
"glm-z1-flashx": {
|
1209
|
+
"description": "Alta velocità e basso costo: versione potenziata Flash, con velocità di inferenza ultra-rapida e migliore garanzia di concorrenza."
|
1210
|
+
},
|
1190
1211
|
"glm-zero-preview": {
|
1191
1212
|
"description": "GLM-Zero-Preview possiede potenti capacità di ragionamento complesso, eccellendo nei campi del ragionamento logico, della matematica e della programmazione."
|
1192
1213
|
},
|
@@ -1238,6 +1259,9 @@
|
|
1238
1259
|
"google/gemma-2b-it": {
|
1239
1260
|
"description": "Gemma Instruct (2B) offre capacità di elaborazione di istruzioni di base, adatta per applicazioni leggere."
|
1240
1261
|
},
|
1262
|
+
"google/gemma-3-1b-it": {
|
1263
|
+
"description": "Gemma 3 1B è un modello linguistico open source di Google che ha stabilito nuovi standard in termini di efficienza e prestazioni."
|
1264
|
+
},
|
1241
1265
|
"google/gemma-3-27b-it": {
|
1242
1266
|
"description": "Gemma 3 27B è un modello linguistico open source di Google, che ha stabilito nuovi standard in termini di efficienza e prestazioni."
|
1243
1267
|
},
|
@@ -1349,6 +1373,9 @@
|
|
1349
1373
|
"gpt-4o-transcribe": {
|
1350
1374
|
"description": "GPT-4o Transcribe è un modello di trascrizione vocale che utilizza GPT-4o per convertire audio in testo. Rispetto al modello Whisper originale, migliora il tasso di errore delle parole e la precisione nel riconoscimento linguistico. Usalo per ottenere trascrizioni più accurate."
|
1351
1375
|
},
|
1376
|
+
"gpt-image-1": {
|
1377
|
+
"description": "Modello nativo multimodale di generazione immagini di ChatGPT"
|
1378
|
+
},
|
1352
1379
|
"grok-2-1212": {
|
1353
1380
|
"description": "Questo modello ha migliorato l'accuratezza, il rispetto delle istruzioni e le capacità multilingue."
|
1354
1381
|
},
|
@@ -1373,6 +1400,9 @@
|
|
1373
1400
|
"gryphe/mythomax-l2-13b": {
|
1374
1401
|
"description": "MythoMax l2 13B è un modello linguistico che combina creatività e intelligenza, unendo diversi modelli di punta."
|
1375
1402
|
},
|
1403
|
+
"hunyuan-a13b": {
|
1404
|
+
"description": "Hunyuan è il primo modello di ragionamento ibrido, versione aggiornata di hunyuan-standard-256K, con 80 miliardi di parametri totali e 13 miliardi attivati. Di default opera in modalità pensiero lento, ma supporta il passaggio tra modalità pensiero lento e veloce tramite parametri o istruzioni, con il cambio che avviene aggiungendo / no_think prima della query. Le capacità complessive sono migliorate rispetto alla generazione precedente, con miglioramenti significativi in matematica, scienze, comprensione di testi lunghi e capacità agent."
|
1405
|
+
},
|
1376
1406
|
"hunyuan-code": {
|
1377
1407
|
"description": "Ultimo modello di generazione di codice di Hunyuan, addestrato su un modello di base con 200B di dati di codice di alta qualità, con sei mesi di addestramento su dati SFT di alta qualità, la lunghezza della finestra di contesto è aumentata a 8K, e si posiziona tra i primi in cinque indicatori di valutazione automatica della generazione di codice; nelle valutazioni di alta qualità su dieci aspetti di codice in cinque lingue, le prestazioni sono nella prima fascia."
|
1378
1408
|
},
|
@@ -1424,6 +1454,9 @@
|
|
1424
1454
|
"hunyuan-t1-vision": {
|
1425
1455
|
"description": "Modello di comprensione multimodale profonda Hunyuan, supporta catene di pensiero native multimodali, eccelle in vari scenari di ragionamento visivo e migliora significativamente rispetto ai modelli di pensiero rapido nei problemi scientifici."
|
1426
1456
|
},
|
1457
|
+
"hunyuan-t1-vision-20250619": {
|
1458
|
+
"description": "L'ultima versione del modello di pensiero profondo multimodale t1-vision di Hunyuan, supporta catene di pensiero native multimodali e presenta miglioramenti completi rispetto alla versione predefinita della generazione precedente."
|
1459
|
+
},
|
1427
1460
|
"hunyuan-turbo": {
|
1428
1461
|
"description": "Anteprima della nuova generazione di modelli di linguaggio di Hunyuan, utilizza una nuova struttura di modello ibrido di esperti (MoE), con una maggiore efficienza di inferenza e prestazioni superiori rispetto a hunyuan-pro."
|
1429
1462
|
},
|
@@ -1454,9 +1487,18 @@
|
|
1454
1487
|
"hunyuan-turbos-role-plus": {
|
1455
1488
|
"description": "Ultima versione del modello di role-playing di Hunyuan, finemente addestrato ufficialmente, basato sul modello Hunyuan e ulteriormente addestrato con dataset specifici per scenari di role-playing, offrendo migliori prestazioni di base in tali contesti."
|
1456
1489
|
},
|
1490
|
+
"hunyuan-turbos-vision": {
|
1491
|
+
"description": "Questo modello è adatto per scenari di comprensione testo-immagine ed è basato sulla più recente versione turbos di Hunyuan, una nuova generazione di modello linguistico visivo di punta focalizzato su compiti di comprensione testo-immagine, inclusi riconoscimento di entità basato su immagini, domande di conoscenza, creazione di testi e risoluzione di problemi tramite foto, con miglioramenti completi rispetto alla generazione precedente."
|
1492
|
+
},
|
1493
|
+
"hunyuan-turbos-vision-20250619": {
|
1494
|
+
"description": "L'ultima versione del modello linguistico visivo di punta turbos-vision di Hunyuan, con miglioramenti completi rispetto alla versione predefinita della generazione precedente in compiti di comprensione testo-immagine, inclusi riconoscimento di entità basato su immagini, domande di conoscenza, creazione di testi e risoluzione di problemi tramite foto."
|
1495
|
+
},
|
1457
1496
|
"hunyuan-vision": {
|
1458
1497
|
"description": "Ultimo modello multimodale di Hunyuan, supporta l'input di immagini e testo per generare contenuti testuali."
|
1459
1498
|
},
|
1499
|
+
"imagen4/preview": {
|
1500
|
+
"description": "Il modello di generazione immagini di massima qualità di Google"
|
1501
|
+
},
|
1460
1502
|
"internlm/internlm2_5-7b-chat": {
|
1461
1503
|
"description": "InternLM2.5 offre soluzioni di dialogo intelligente in vari scenari."
|
1462
1504
|
},
|
@@ -57,12 +57,28 @@
|
|
57
57
|
}
|
58
58
|
},
|
59
59
|
"mcp": {
|
60
|
+
"advanced": {
|
61
|
+
"title": "Impostazioni avanzate"
|
62
|
+
},
|
60
63
|
"args": {
|
61
64
|
"desc": "Elenco di parametri da passare al comando di esecuzione, di solito qui si inserisce il nome del server MCP o il percorso dello script di avvio",
|
62
65
|
"label": "Parametri del comando",
|
63
66
|
"placeholder": "Ad esempio: --port 8080 --debug",
|
64
67
|
"required": "Inserisci i parametri di avvio"
|
65
68
|
},
|
69
|
+
"auth": {
|
70
|
+
"bear": "API Key",
|
71
|
+
"desc": "Seleziona il metodo di autenticazione del server MCP",
|
72
|
+
"label": "Tipo di autenticazione",
|
73
|
+
"none": "Nessuna autenticazione richiesta",
|
74
|
+
"placeholder": "Seleziona il tipo di autenticazione",
|
75
|
+
"token": {
|
76
|
+
"desc": "Inserisci la tua API Key o Bearer Token",
|
77
|
+
"label": "API Key",
|
78
|
+
"placeholder": "sk-xxxxx",
|
79
|
+
"required": "Inserisci il token di autenticazione"
|
80
|
+
}
|
81
|
+
},
|
66
82
|
"avatar": {
|
67
83
|
"label": "Icona del plugin"
|
68
84
|
},
|
@@ -90,6 +106,11 @@
|
|
90
106
|
"label": "Variabili d'ambiente del server MCP",
|
91
107
|
"stringifyError": "Impossibile serializzare i parametri, controlla il formato dei parametri"
|
92
108
|
},
|
109
|
+
"headers": {
|
110
|
+
"add": "Aggiungi una riga",
|
111
|
+
"desc": "Inserisci le intestazioni della richiesta",
|
112
|
+
"label": "Intestazioni HTTP"
|
113
|
+
},
|
93
114
|
"identifier": {
|
94
115
|
"desc": "Assegna un nome al tuo plugin MCP, deve utilizzare caratteri inglesi",
|
95
116
|
"invalid": "Puoi inserire solo caratteri inglesi, numeri, e i simboli - e _",
|
@@ -269,6 +290,7 @@
|
|
269
290
|
"showDetails": "Mostra dettagli"
|
270
291
|
},
|
271
292
|
"errorTypes": {
|
293
|
+
"AUTHORIZATION_ERROR": "Errore di autorizzazione",
|
272
294
|
"CONNECTION_FAILED": "Connessione fallita",
|
273
295
|
"INITIALIZATION_TIMEOUT": "Timeout di inizializzazione",
|
274
296
|
"PROCESS_SPAWN_ERROR": "Errore nell'avvio del processo",
|
@@ -29,6 +29,9 @@
|
|
29
29
|
"deepseek": {
|
30
30
|
"description": "DeepSeek è un'azienda focalizzata sulla ricerca e applicazione della tecnologia AI, il cui ultimo modello DeepSeek-V2.5 combina capacità di dialogo generico e elaborazione del codice, realizzando miglioramenti significativi nell'allineamento delle preferenze umane, nei compiti di scrittura e nel rispetto delle istruzioni."
|
31
31
|
},
|
32
|
+
"fal": {
|
33
|
+
"description": "Piattaforma di media generativi rivolta agli sviluppatori"
|
34
|
+
},
|
32
35
|
"fireworksai": {
|
33
36
|
"description": "Fireworks AI è un fornitore leader di servizi di modelli linguistici avanzati, focalizzato su chiamate funzionali e elaborazione multimodale. Il suo ultimo modello Firefunction V2, basato su Llama-3, è ottimizzato per chiamate di funzione, dialogo e rispetto delle istruzioni. Il modello di linguaggio visivo FireLLaVA-13B supporta input misti di immagini e testo. Altri modelli notevoli includono la serie Llama e la serie Mixtral, offrendo supporto efficiente per il rispetto e la generazione di istruzioni multilingue."
|
34
37
|
},
|
@@ -484,6 +484,11 @@
|
|
484
484
|
"placeholder": "Inserisci il suggerimento personalizzato",
|
485
485
|
"title": "Suggerimento personalizzato"
|
486
486
|
},
|
487
|
+
"generationTopic": {
|
488
|
+
"label": "Modello di denominazione argomenti per disegno AI",
|
489
|
+
"modelDesc": "Modello specificato per la denominazione automatica degli argomenti nel disegno AI",
|
490
|
+
"title": "Denominazione automatica argomenti per disegno AI"
|
491
|
+
},
|
487
492
|
"helpInfo": "Quando crei un nuovo assistente, verranno utilizzate le impostazioni predefinite dell'assistente come valori predefiniti.",
|
488
493
|
"historyCompress": {
|
489
494
|
"label": "Modello di storia delle conversazioni",
|
@@ -183,6 +183,7 @@
|
|
183
183
|
},
|
184
184
|
"fullscreen": "フルスクリーンモード",
|
185
185
|
"historyRange": "履歴範囲",
|
186
|
+
"import": "インポート",
|
186
187
|
"importData": "データをインポートする",
|
187
188
|
"importModal": {
|
188
189
|
"error": {
|
@@ -324,6 +325,7 @@
|
|
324
325
|
}
|
325
326
|
},
|
326
327
|
"tab": {
|
328
|
+
"aiImage": "AI 画像生成",
|
327
329
|
"chat": "チャット",
|
328
330
|
"discover": "発見",
|
329
331
|
"files": "ファイル",
|
@@ -68,6 +68,22 @@
|
|
68
68
|
"GoBack": {
|
69
69
|
"back": "戻る"
|
70
70
|
},
|
71
|
+
"ImageUpload": {
|
72
|
+
"actions": {
|
73
|
+
"changeImage": "クリックして画像を変更"
|
74
|
+
},
|
75
|
+
"placeholder": {
|
76
|
+
"primary": "画像を追加",
|
77
|
+
"secondary": "クリックしてアップロード"
|
78
|
+
}
|
79
|
+
},
|
80
|
+
"KeyValueEditor": {
|
81
|
+
"addButton": "新しい行を追加",
|
82
|
+
"deleteTooltip": "削除",
|
83
|
+
"duplicateKeyError": "キー名は一意でなければなりません",
|
84
|
+
"keyPlaceholder": "キー",
|
85
|
+
"valuePlaceholder": "値"
|
86
|
+
},
|
71
87
|
"MaxTokenSlider": {
|
72
88
|
"unlimited": "無制限"
|
73
89
|
},
|
@@ -91,6 +107,25 @@
|
|
91
107
|
"provider": "プロバイダー",
|
92
108
|
"title": "モデル"
|
93
109
|
},
|
110
|
+
"MultiImagesUpload": {
|
111
|
+
"actions": {
|
112
|
+
"uploadMore": "さらにアップロード"
|
113
|
+
},
|
114
|
+
"modal": {
|
115
|
+
"complete": "完了",
|
116
|
+
"newFileIndicator": "新規追加",
|
117
|
+
"selectImageToPreview": "プレビューする画像を選択してください",
|
118
|
+
"title": "画像管理 ({{count}})",
|
119
|
+
"upload": "画像をアップロード"
|
120
|
+
},
|
121
|
+
"placeholder": {
|
122
|
+
"primary": "クリックして画像をアップロード",
|
123
|
+
"secondary": "複数の画像を選択可能"
|
124
|
+
},
|
125
|
+
"progress": {
|
126
|
+
"uploadingWithCount": "{{completed}}/{{total}} アップロード済み"
|
127
|
+
}
|
128
|
+
},
|
94
129
|
"OllamaSetupGuide": {
|
95
130
|
"action": {
|
96
131
|
"close": "ヒントを閉じる",
|
package/locales/ja-JP/error.json
CHANGED
@@ -123,6 +123,7 @@
|
|
123
123
|
"stt": {
|
124
124
|
"responseError": "サービスリクエストが失敗しました。設定を確認するか、もう一度お試しください"
|
125
125
|
},
|
126
|
+
"testConnectionFailed": "接続テストに失敗しました:{{error}}",
|
126
127
|
"tts": {
|
127
128
|
"responseError": "サービスリクエストが失敗しました。設定を確認するか、もう一度お試しください"
|
128
129
|
},
|
@@ -130,6 +131,7 @@
|
|
130
131
|
"addProxyUrl": "OpenAI 代理アドレスを追加する(オプション)",
|
131
132
|
"apiKey": {
|
132
133
|
"description": "{{name}} APIキーを入力してセッションを開始します。",
|
134
|
+
"imageGenerationDescription": "{{name}} の API キーを入力すると、生成を開始できます",
|
133
135
|
"title": "カスタム{{name}} APIキーを使用"
|
134
136
|
},
|
135
137
|
"closeMessage": "ヒントを閉じる",
|
@@ -0,0 +1,100 @@
|
|
1
|
+
{
|
2
|
+
"config": {
|
3
|
+
"aspectRatio": {
|
4
|
+
"label": "比率",
|
5
|
+
"lock": "アスペクト比を固定する",
|
6
|
+
"unlock": "アスペクト比の固定を解除する"
|
7
|
+
},
|
8
|
+
"header": {
|
9
|
+
"desc": "簡単な説明、すぐに創作",
|
10
|
+
"title": "絵画"
|
11
|
+
},
|
12
|
+
"height": {
|
13
|
+
"label": "高さ"
|
14
|
+
},
|
15
|
+
"imageNum": {
|
16
|
+
"label": "画像数"
|
17
|
+
},
|
18
|
+
"imageUrl": {
|
19
|
+
"label": "参考画像"
|
20
|
+
},
|
21
|
+
"imageUrls": {
|
22
|
+
"label": "参考画像"
|
23
|
+
},
|
24
|
+
"model": {
|
25
|
+
"label": "モデル"
|
26
|
+
},
|
27
|
+
"prompt": {
|
28
|
+
"placeholder": "生成したい内容を記述してください"
|
29
|
+
},
|
30
|
+
"seed": {
|
31
|
+
"label": "シード",
|
32
|
+
"random": "ランダムシード"
|
33
|
+
},
|
34
|
+
"size": {
|
35
|
+
"label": "サイズ"
|
36
|
+
},
|
37
|
+
"steps": {
|
38
|
+
"label": "ステップ数"
|
39
|
+
},
|
40
|
+
"title": "AI 絵画",
|
41
|
+
"width": {
|
42
|
+
"label": "幅"
|
43
|
+
}
|
44
|
+
},
|
45
|
+
"generation": {
|
46
|
+
"actions": {
|
47
|
+
"applySeed": "シードを適用する",
|
48
|
+
"copyError": "エラー情報をコピー",
|
49
|
+
"copyPrompt": "プロンプトをコピー",
|
50
|
+
"copySeed": "シードをコピー",
|
51
|
+
"delete": "削除",
|
52
|
+
"deleteBatch": "バッチを削除",
|
53
|
+
"download": "ダウンロード",
|
54
|
+
"downloadFailed": "画像のダウンロードに失敗しました",
|
55
|
+
"errorCopied": "エラー情報がクリップボードにコピーされました",
|
56
|
+
"errorCopyFailed": "エラー情報のコピーに失敗しました",
|
57
|
+
"generate": "生成",
|
58
|
+
"promptCopied": "プロンプトがクリップボードにコピーされました",
|
59
|
+
"promptCopyFailed": "プロンプトのコピーに失敗しました",
|
60
|
+
"reuseSettings": "設定を再利用",
|
61
|
+
"seedApplied": "シードが設定に適用されました",
|
62
|
+
"seedApplyFailed": "シードの適用に失敗しました",
|
63
|
+
"seedCopied": "シードがクリップボードにコピーされました",
|
64
|
+
"seedCopyFailed": "シードのコピーに失敗しました"
|
65
|
+
},
|
66
|
+
"metadata": {
|
67
|
+
"count": "{{count}} 枚の画像"
|
68
|
+
},
|
69
|
+
"status": {
|
70
|
+
"failed": "生成失敗",
|
71
|
+
"generating": "生成中..."
|
72
|
+
}
|
73
|
+
},
|
74
|
+
"notSupportGuide": {
|
75
|
+
"desc": "現在のデプロイはクライアントデータベースモードのため、AI画像生成機能は使用できません。<1>サーバーデータベースデプロイモード</1>に切り替えるか、直接 <3>LobeChat Cloud</3> をご利用ください。",
|
76
|
+
"features": {
|
77
|
+
"fileIntegration": {
|
78
|
+
"desc": "ファイル管理システムと深く統合され、生成された画像は自動的にファイルシステムに保存され、統一的な管理と整理が可能です",
|
79
|
+
"title": "ファイルシステム連携"
|
80
|
+
},
|
81
|
+
"llmAssisted": {
|
82
|
+
"desc": "大規模言語モデルの能力を活用し、プロンプトの最適化と拡張を行い、画像生成の品質を向上させます(近日公開予定)",
|
83
|
+
"title": "LLM支援生成"
|
84
|
+
},
|
85
|
+
"multiProviders": {
|
86
|
+
"desc": "OpenAI gpt-image-1、Google Imagen、FAL.ai など複数のAI絵画サービスプロバイダーをサポートし、多彩なモデル選択を提供します",
|
87
|
+
"title": "複数プロバイダー対応"
|
88
|
+
}
|
89
|
+
},
|
90
|
+
"title": "現在のデプロイモードはAI絵画をサポートしていません"
|
91
|
+
},
|
92
|
+
"topic": {
|
93
|
+
"createNew": "新しいテーマを作成",
|
94
|
+
"deleteConfirm": "生成テーマを削除",
|
95
|
+
"deleteConfirmDesc": "この生成テーマを削除すると復元できません。慎重に操作してください。",
|
96
|
+
"empty": "生成されたテーマはありません",
|
97
|
+
"title": "絵画のテーマ",
|
98
|
+
"untitled": "デフォルトテーマ"
|
99
|
+
}
|
100
|
+
}
|
@@ -32,6 +32,10 @@
|
|
32
32
|
"search": "検索",
|
33
33
|
"title": "発見"
|
34
34
|
},
|
35
|
+
"image": {
|
36
|
+
"description": "{{appName}} が最高の GPT 画像、Flux、Midjourney、Stable Diffusion の使用体験をお届けします",
|
37
|
+
"title": "AI 絵画"
|
38
|
+
},
|
35
39
|
"plugins": {
|
36
40
|
"description": "検索、グラフ生成、学術、画像生成、動画生成、音声生成、自動化ワークフロー、ChatGPT / Claude専用のToolCallプラグイン機能をカスタマイズ",
|
37
41
|
"title": "プラグインマーケット"
|
@@ -66,6 +66,7 @@
|
|
66
66
|
"customRegion": "カスタムサービスリージョン",
|
67
67
|
"customSessionToken": "カスタムセッショントークン",
|
68
68
|
"description": "AWS AccessKeyId / SecretAccessKey を入力するとセッションを開始できます。アプリは認証情報を記録しません",
|
69
|
+
"imageGenerationDescription": "AWSのAccessKeyId / SecretAccessKeyを入力すると、生成を開始できます。アプリは認証情報を記録しません。",
|
69
70
|
"title": "使用カスタム Bedrock 認証情報"
|
70
71
|
}
|
71
72
|
},
|
@@ -203,24 +203,21 @@
|
|
203
203
|
"Pro/Qwen/Qwen2.5-VL-7B-Instruct": {
|
204
204
|
"description": "Qwen2.5-VLはQwenシリーズの新メンバーで、強力な視覚理解能力を備えています。画像内のテキスト、チャート、レイアウトを分析でき、長い動画の理解やイベントの捕捉が可能です。推論やツール操作が行え、多様な形式の物体位置特定や構造化された出力生成をサポートします。動画理解のための動的解像度とフレームレートのトレーニングが最適化され、視覚エンコーダーの効率も向上しています。"
|
205
205
|
},
|
206
|
+
"Pro/THUDM/GLM-4.1V-9B-Thinking": {
|
207
|
+
"description": "GLM-4.1V-9B-Thinking は、智譜AIと清華大学KEG研究室が共同で発表したオープンソースの視覚言語モデル(VLM)であり、複雑なマルチモーダル認知タスクの処理に特化して設計されています。本モデルはGLM-4-9B-0414の基礎モデルをベースに、「思考の連鎖(Chain-of-Thought)」推論メカニズムを導入し、強化学習戦略を採用することで、マルチモーダル間の推論能力と安定性を大幅に向上させています。"
|
208
|
+
},
|
206
209
|
"Pro/THUDM/glm-4-9b-chat": {
|
207
210
|
"description": "GLM-4-9B-Chatは智譜AIが提供するGLM-4シリーズの事前訓練モデルのオープンバージョンです。このモデルは意味、数学、推論、コード、知識などの複数の側面で優れたパフォーマンスを示します。多輪対話をサポートするだけでなく、GLM-4-9B-Chatはウェブブラウジング、コード実行、カスタムツール呼び出し(Function Call)、長文推論などの高度な機能も備えています。モデルは中国語、英語、日本語、韓国語、ドイツ語など26の言語をサポートしています。多くのベンチマークテストで、GLM-4-9B-Chatは優れた性能を示し、AlignBench-v2、MT-Bench、MMLU、C-Evalなどでの評価が行われています。このモデルは最大128Kのコンテキスト長をサポートし、学術研究や商業アプリケーションに適しています。"
|
208
211
|
},
|
209
212
|
"Pro/deepseek-ai/DeepSeek-R1": {
|
210
213
|
"description": "DeepSeek-R1は、強化学習(RL)駆動の推論モデルで、モデル内の繰り返しと可読性の問題を解決します。RLの前に、DeepSeek-R1はコールドスタートデータを導入し、推論性能をさらに最適化しました。数学、コード、推論タスクにおいてOpenAI-o1と同等の性能を発揮し、精巧に設計されたトレーニング手法によって全体的な効果を向上させています。"
|
211
214
|
},
|
212
|
-
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
213
|
-
"description": "DeepSeek-R1は強化学習(RL)駆動の推論モデルで、モデルの反復性と可読性の問題を解決しました。RL導入前にコールドスタートデータを導入し、推論性能をさらに最適化。数学、コード、推論タスクにおいてOpenAI-o1と同等の性能を示し、精緻に設計された訓練手法により全体的な効果を向上させています。"
|
214
|
-
},
|
215
215
|
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
216
216
|
"description": "DeepSeek-R1-Distill-Qwen-7B は、Qwen2.5-Math-7B を基に知識蒸留によって得られたモデルです。このモデルは、DeepSeek-R1 によって生成された80万の精選されたサンプルを使用して微調整されており、優れた推論能力を発揮します。複数のベンチマークテストで優れた性能を示し、MATH-500では92.8%の精度、AIME 2024では55.5%の合格率、CodeForcesでは1189のスコアを達成し、7B規模のモデルとして強力な数学およびプログラミング能力を実証しています。"
|
217
217
|
},
|
218
218
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
219
219
|
"description": "DeepSeek-V3は、6710億パラメータを持つ混合専門家(MoE)言語モデルで、多頭潜在注意力(MLA)とDeepSeekMoEアーキテクチャを採用し、無補助損失の負荷バランス戦略を組み合わせて推論とトレーニングの効率を最適化しています。14.8兆の高品質トークンで事前トレーニングを行い、監視付き微調整と強化学習を経て、DeepSeek-V3は他のオープンソースモデルを超え、先進的なクローズドモデルに近づいています。"
|
220
220
|
},
|
221
|
-
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
222
|
-
"description": "DeepSeek-V3は、6710億のパラメータを持つ混合専門家(MoE)言語モデルであり、マルチヘッド潜在注意(MLA)とDeepSeekMoEアーキテクチャを採用し、補助損失なしの負荷バランス戦略を組み合わせて、推論とトレーニングの効率を最適化しています。14.8兆の高品質トークンで事前トレーニングを行い、監視付き微調整と強化学習を経て、DeepSeek-V3は他のオープンソースモデルを超え、先進的なクローズドソースモデルに近づいています。"
|
223
|
-
},
|
224
221
|
"QwQ-32B-Preview": {
|
225
222
|
"description": "QwQ-32B-Previewは、複雑な対話生成と文脈理解タスクを効率的に処理できる革新的な自然言語処理モデルです。"
|
226
223
|
},
|
@@ -383,6 +380,9 @@
|
|
383
380
|
"THUDM/GLM-4-9B-0414": {
|
384
381
|
"description": "GLM-4-9B-0414はGLMシリーズの小型モデルで、90億パラメータを持ちます。このモデルはGLM-4-32Bシリーズの技術的特徴を継承しつつ、より軽量なデプロイメントオプションを提供します。規模は小さいものの、GLM-4-9B-0414はコード生成、ウェブデザイン、SVGグラフィック生成、検索ベースの執筆などのタスクで優れた能力を示しています。"
|
385
382
|
},
|
383
|
+
"THUDM/GLM-4.1V-9B-Thinking": {
|
384
|
+
"description": "GLM-4.1V-9B-Thinking は、智譜AIと清華大学KEG研究室が共同で発表したオープンソースの視覚言語モデル(VLM)であり、複雑なマルチモーダル認知タスクの処理に特化して設計されています。本モデルはGLM-4-9B-0414の基礎モデルをベースに、「思考の連鎖(Chain-of-Thought)」推論メカニズムを導入し、強化学習戦略を採用することで、マルチモーダル間の推論能力と安定性を大幅に向上させています。"
|
385
|
+
},
|
386
386
|
"THUDM/GLM-Z1-32B-0414": {
|
387
387
|
"description": "GLM-Z1-32B-0414は深い思考能力を持つ推論モデルです。このモデルはGLM-4-32B-0414に基づき、コールドスタートと拡張強化学習を通じて開発され、数学、コード、論理タスクにおいてさらに訓練されています。基礎モデルと比較して、GLM-Z1-32B-0414は数学能力と複雑なタスクの解決能力を大幅に向上させています。"
|
388
388
|
},
|
@@ -539,6 +539,9 @@
|
|
539
539
|
"anthropic/claude-sonnet-4": {
|
540
540
|
"description": "Claude Sonnet 4 はほぼ即時の応答や段階的な思考の延長を生成でき、ユーザーはこれらのプロセスを明確に確認できます。API ユーザーはモデルの思考時間を細かく制御することも可能です。"
|
541
541
|
},
|
542
|
+
"ascend-tribe/pangu-pro-moe": {
|
543
|
+
"description": "Pangu-Pro-MoE 72B-A16B は、720億パラメータ、160億アクティベーションパラメータのスパース大規模言語モデルであり、グループ化された混合エキスパート(MoGE)アーキテクチャに基づいています。エキスパート選択段階でエキスパートをグループ化し、各グループ内でトークンが均等にエキスパートをアクティベートするよう制約を設けることで、エキスパートの負荷バランスを実現し、昇騰プラットフォーム上でのモデル展開効率を大幅に向上させています。"
|
544
|
+
},
|
542
545
|
"aya": {
|
543
546
|
"description": "Aya 23は、Cohereが提供する多言語モデルであり、23の言語をサポートし、多様な言語アプリケーションを便利にします。"
|
544
547
|
},
|
@@ -548,6 +551,9 @@
|
|
548
551
|
"baichuan/baichuan2-13b-chat": {
|
549
552
|
"description": "Baichuan-13Bは百川智能が開発した130億パラメータを持つオープンソースの商用大規模言語モデルで、権威ある中国語と英語のベンチマークで同サイズの中で最良の結果を達成しています。"
|
550
553
|
},
|
554
|
+
"baidu/ERNIE-4.5-300B-A47B": {
|
555
|
+
"description": "ERNIE-4.5-300B-A47B は、百度(Baidu)が開発した混合エキスパート(MoE)アーキテクチャに基づく大規模言語モデルです。総パラメータ数は3000億ですが、推論時には各トークンで470億パラメータのみをアクティベートし、強力な性能を維持しつつ計算効率も両立しています。ERNIE 4.5シリーズの中核モデルの一つとして、テキスト理解、生成、推論、プログラミングなどのタスクで卓越した能力を発揮します。本モデルは革新的なマルチモーダル異種MoE事前学習手法を採用し、テキストと視覚モダリティの共同学習により、特に指示遵守と世界知識の記憶において優れた効果を発揮しています。"
|
556
|
+
},
|
551
557
|
"c4ai-aya-expanse-32b": {
|
552
558
|
"description": "Aya Expanseは、高性能な32B多言語モデルで、指示調整、データアービトラージ、好みのトレーニング、モデル統合の革新を通じて、単一言語モデルのパフォーマンスに挑戦します。23の言語をサポートしています。"
|
553
559
|
},
|
@@ -1013,6 +1019,15 @@
|
|
1013
1019
|
"ernie-x1-turbo-32k": {
|
1014
1020
|
"description": "ERNIE-X1-32Kと比較して、モデルの効果と性能が向上しています。"
|
1015
1021
|
},
|
1022
|
+
"flux-kontext/dev": {
|
1023
|
+
"description": "フロンティアイメージ編集モデル。"
|
1024
|
+
},
|
1025
|
+
"flux-pro/kontext": {
|
1026
|
+
"description": "FLUX.1 Kontext [pro] はテキストと参照画像を入力として処理し、目的に応じた局所編集や複雑な全体シーンの変換をシームレスに実現します。"
|
1027
|
+
},
|
1028
|
+
"flux/schnell": {
|
1029
|
+
"description": "FLUX.1 [schnell] は120億パラメータを持つストリーミングトランスフォーマーモデルで、1〜4ステップでテキストから高品質な画像を生成し、個人および商用利用に適しています。"
|
1030
|
+
},
|
1016
1031
|
"gemini-1.0-pro-001": {
|
1017
1032
|
"description": "Gemini 1.0 Pro 001(チューニング)は、安定した調整可能な性能を提供し、複雑なタスクのソリューションに理想的な選択肢です。"
|
1018
1033
|
},
|
@@ -1097,9 +1112,6 @@
|
|
1097
1112
|
"gemini-2.5-pro": {
|
1098
1113
|
"description": "Gemini 2.5 ProはGoogleの最先端思考モデルで、コード、数学、STEM分野の複雑な問題の推論が可能であり、長文コンテキストを用いて大規模データセット、コードベース、ドキュメントの分析を行います。"
|
1099
1114
|
},
|
1100
|
-
"gemini-2.5-pro-exp-03-25": {
|
1101
|
-
"description": "Gemini 2.5 Pro Experimentalは、Googleの最先端の思考モデルであり、コード、数学、STEM分野の複雑な問題に対して推論を行うことができ、長いコンテキストを利用して大規模なデータセット、コードベース、文書を分析します。"
|
1102
|
-
},
|
1103
1115
|
"gemini-2.5-pro-preview-03-25": {
|
1104
1116
|
"description": "Gemini 2.5 Pro Previewは、Googleの最先端の思考モデルであり、コード、数学、STEM分野の複雑な問題に対して推論を行い、長いコンテキストを使用して大規模なデータセット、コードベース、文書を分析することができます。"
|
1105
1117
|
},
|
@@ -1166,6 +1178,12 @@
|
|
1166
1178
|
"glm-4-plus": {
|
1167
1179
|
"description": "GLM-4-Plusは高い知能を持つフラッグシップモデルで、長文や複雑なタスクを処理する能力が強化され、全体的なパフォーマンスが向上しています。"
|
1168
1180
|
},
|
1181
|
+
"glm-4.1v-thinking-flash": {
|
1182
|
+
"description": "GLM-4.1V-Thinking シリーズモデルは、現時点で知られている10BクラスのVLMモデルの中で最も性能の高い視覚モデルであり、同クラスのSOTAの各種視覚言語タスクを統合しています。これには動画理解、画像質問応答、学科問題解決、OCR文字認識、文書およびグラフ解析、GUIエージェント、フロントエンドウェブコーディング、グラウンディングなどが含まれ、多くのタスク能力は8倍のパラメータを持つQwen2.5-VL-72Bをも上回ります。先進的な強化学習技術により、思考の連鎖推論を通じて回答の正確性と豊かさを向上させ、最終的な成果と説明可能性の両面で従来の非thinkingモデルを大きく凌駕しています。"
|
1183
|
+
},
|
1184
|
+
"glm-4.1v-thinking-flashx": {
|
1185
|
+
"description": "GLM-4.1V-Thinking シリーズモデルは、現時点で知られている10BクラスのVLMモデルの中で最も性能の高い視覚モデルであり、同クラスのSOTAの各種視覚言語タスクを統合しています。これには動画理解、画像質問応答、学科問題解決、OCR文字認識、文書およびグラフ解析、GUIエージェント、フロントエンドウェブコーディング、グラウンディングなどが含まれ、多くのタスク能力は8倍のパラメータを持つQwen2.5-VL-72Bをも上回ります。先進的な強化学習技術により、思考の連鎖推論を通じて回答の正確性と豊かさを向上させ、最終的な成果と説明可能性の両面で従来の非thinkingモデルを大きく凌駕しています。"
|
1186
|
+
},
|
1169
1187
|
"glm-4v": {
|
1170
1188
|
"description": "GLM-4Vは強力な画像理解と推論能力を提供し、さまざまな視覚タスクをサポートします。"
|
1171
1189
|
},
|
@@ -1187,6 +1205,9 @@
|
|
1187
1205
|
"glm-z1-flash": {
|
1188
1206
|
"description": "GLM-Z1シリーズは強力な複雑推論能力を持ち、論理推論、数学、プログラミングなどの分野で優れたパフォーマンスを発揮します。最大コンテキスト長は32Kです。"
|
1189
1207
|
},
|
1208
|
+
"glm-z1-flashx": {
|
1209
|
+
"description": "高速かつ低価格:Flash強化版で、超高速推論速度とより速い同時処理を保証します。"
|
1210
|
+
},
|
1190
1211
|
"glm-zero-preview": {
|
1191
1212
|
"description": "GLM-Zero-Previewは、強力な複雑な推論能力を備え、論理推論、数学、プログラミングなどの分野で優れたパフォーマンスを発揮します。"
|
1192
1213
|
},
|
@@ -1238,6 +1259,9 @@
|
|
1238
1259
|
"google/gemma-2b-it": {
|
1239
1260
|
"description": "Gemma Instruct (2B)は、基本的な指示処理能力を提供し、軽量アプリケーションに適しています。"
|
1240
1261
|
},
|
1262
|
+
"google/gemma-3-1b-it": {
|
1263
|
+
"description": "Gemma 3 1B はGoogleのオープンソース言語モデルであり、効率と性能の面で新たな基準を打ち立てました。"
|
1264
|
+
},
|
1241
1265
|
"google/gemma-3-27b-it": {
|
1242
1266
|
"description": "Gemma 3 27Bは、Googleのオープンソース言語モデルで、効率と性能の面で新たな基準を打ち立てました。"
|
1243
1267
|
},
|
@@ -1349,6 +1373,9 @@
|
|
1349
1373
|
"gpt-4o-transcribe": {
|
1350
1374
|
"description": "GPT-4o TranscribeはGPT-4oを使用した音声からテキストへの転写モデルです。元のWhisperモデルと比較して単語誤り率が改善され、言語認識と精度が向上しています。より正確な転写を得るためにご利用ください。"
|
1351
1375
|
},
|
1376
|
+
"gpt-image-1": {
|
1377
|
+
"description": "ChatGPT ネイティブのマルチモーダル画像生成モデル"
|
1378
|
+
},
|
1352
1379
|
"grok-2-1212": {
|
1353
1380
|
"description": "このモデルは、精度、指示の遵守、そして多言語能力において改善されています。"
|
1354
1381
|
},
|
@@ -1373,6 +1400,9 @@
|
|
1373
1400
|
"gryphe/mythomax-l2-13b": {
|
1374
1401
|
"description": "MythoMax l2 13Bは複数のトップモデルを統合した創造性と知性を兼ね備えた言語モデルです。"
|
1375
1402
|
},
|
1403
|
+
"hunyuan-a13b": {
|
1404
|
+
"description": "混元の初のハイブリッド推論モデルであるhunyuan-standard-256Kのアップグレード版で、総パラメータ80B、アクティベーション13Bを持ちます。デフォルトはスロースルーモードで、パラメータまたは指示によって高速・低速思考モードの切り替えが可能です。切り替え方法はクエリの前に「/」または「no_think」を付加します。全体的な能力は前世代に比べて大幅に向上しており、特に数学、科学、長文理解、エージェント能力が顕著に強化されています。"
|
1405
|
+
},
|
1376
1406
|
"hunyuan-code": {
|
1377
1407
|
"description": "混元の最新のコード生成モデルで、200Bの高品質コードデータで基盤モデルを増強し、半年間の高品質SFTデータトレーニングを経て、コンテキストウィンドウの長さが8Kに増加しました。5つの主要言語のコード生成自動評価指標で上位に位置し、5つの言語における10項目の総合コードタスクの人工高品質評価で、パフォーマンスは第一梯隊にあります。"
|
1378
1408
|
},
|
@@ -1424,6 +1454,9 @@
|
|
1424
1454
|
"hunyuan-t1-vision": {
|
1425
1455
|
"description": "混元多モーダル理解の深層思考モデルで、多モーダルのネイティブ長思考チェーンをサポートし、さまざまな画像推論シナリオに優れています。理系の難問においては速思考モデルよりも包括的に向上しています。"
|
1426
1456
|
},
|
1457
|
+
"hunyuan-t1-vision-20250619": {
|
1458
|
+
"description": "混元の最新バージョンt1-vision多モーダル理解深層思考モデルで、マルチモーダルのネイティブな長い思考の連鎖をサポートし、前世代のデフォルトモデルに比べて全体的に性能が向上しています。"
|
1459
|
+
},
|
1427
1460
|
"hunyuan-turbo": {
|
1428
1461
|
"description": "混元の新世代大規模言語モデルのプレビュー版で、全く新しい混合専門家モデル(MoE)構造を採用し、hunyuan-proに比べて推論効率が向上し、パフォーマンスも強化されています。"
|
1429
1462
|
},
|
@@ -1454,9 +1487,18 @@
|
|
1454
1487
|
"hunyuan-turbos-role-plus": {
|
1455
1488
|
"description": "混元の最新ロールプレイングモデルで、混元公式による精調整訓練を経たロールプレイングモデルです。混元モデルを基にロールプレイングシナリオのデータセットで追加訓練されており、ロールプレイングシナリオでより良い基礎性能を持ちます。"
|
1456
1489
|
},
|
1490
|
+
"hunyuan-turbos-vision": {
|
1491
|
+
"description": "本モデルは画像と言語の理解シーンに適しており、混元の最新turbosに基づく次世代の視覚言語フラッグシップ大規模モデルです。画像に基づく実体認識、知識質問応答、コピーライティング、写真による問題解決などのタスクに焦点を当てており、前世代モデルに比べて全体的に性能が向上しています。"
|
1492
|
+
},
|
1493
|
+
"hunyuan-turbos-vision-20250619": {
|
1494
|
+
"description": "混元の最新バージョンturbos-vision視覚言語フラッグシップ大規模モデルであり、画像に基づく実体認識、知識質問応答、コピーライティング、写真による問題解決などの画像と言語の理解関連タスクにおいて、前世代のデフォルトモデルに比べて全体的に性能が向上しています。"
|
1495
|
+
},
|
1457
1496
|
"hunyuan-vision": {
|
1458
1497
|
"description": "混元の最新のマルチモーダルモデルで、画像とテキストの入力をサポートし、テキストコンテンツを生成します。"
|
1459
1498
|
},
|
1499
|
+
"imagen4/preview": {
|
1500
|
+
"description": "Google の最高品質の画像生成モデル"
|
1501
|
+
},
|
1460
1502
|
"internlm/internlm2_5-7b-chat": {
|
1461
1503
|
"description": "InternLM2.5は多様なシーンでのインテリジェントな対話ソリューションを提供します。"
|
1462
1504
|
},
|