@lobehub/lobehub 2.1.2 → 2.1.4
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.env.example +4 -6
- package/.env.example.development +0 -3
- package/.github/workflows/release-desktop-stable.yml +1 -1
- package/CHANGELOG.md +59 -0
- package/Dockerfile +6 -4
- package/README.md +2 -3
- package/README.zh-CN.md +2 -3
- package/changelog/v2.json +14 -0
- package/docker-compose/deploy/.env.example +3 -1
- package/docker-compose/deploy/.env.zh-CN.example +4 -1
- package/docker-compose/local/.env.example +0 -1
- package/docker-compose/local/.env.zh-CN.example +0 -1
- package/docker-compose/local/grafana/.env.example +0 -1
- package/docker-compose/local/grafana/.env.zh-CN.example +0 -1
- package/docker-compose/local/logto/docker-compose.yml +0 -1
- package/docker-compose/local/zitadel/.env.example +1 -2
- package/docker-compose/local/zitadel/.env.zh-CN.example +1 -2
- package/docker-compose/production/grafana/.env.example +0 -1
- package/docker-compose/production/grafana/.env.zh-CN.example +0 -1
- package/docker-compose/production/logto/.env.example +0 -2
- package/docker-compose/production/logto/.env.zh-CN.example +0 -2
- package/docker-compose/production/zitadel/.env.example +0 -2
- package/docker-compose/production/zitadel/.env.zh-CN.example +0 -2
- package/docker-compose/setup.sh +16 -2
- package/docs/development/basic/folder-structure.mdx +23 -14
- package/docs/development/basic/folder-structure.zh-CN.mdx +23 -14
- package/docs/development/basic/work-with-server-side-database.mdx +0 -1
- package/docs/development/basic/work-with-server-side-database.zh-CN.mdx +0 -1
- package/docs/development/start.mdx +19 -12
- package/docs/development/start.zh-CN.mdx +19 -12
- package/docs/self-hosting/advanced/s3/cloudflare-r2.mdx +0 -5
- package/docs/self-hosting/advanced/s3/cloudflare-r2.zh-CN.mdx +0 -5
- package/docs/self-hosting/advanced/s3/rustfs.mdx +0 -2
- package/docs/self-hosting/advanced/s3/rustfs.zh-CN.mdx +0 -2
- package/docs/self-hosting/advanced/s3/tencent-cloud.mdx +0 -1
- package/docs/self-hosting/advanced/s3/tencent-cloud.zh-CN.mdx +0 -2
- package/docs/self-hosting/advanced/s3.mdx +0 -9
- package/docs/self-hosting/advanced/s3.zh-CN.mdx +0 -8
- package/docs/self-hosting/auth/providers/password.mdx +112 -0
- package/docs/self-hosting/auth/providers/password.zh-CN.mdx +103 -0
- package/docs/self-hosting/auth.mdx +12 -0
- package/docs/self-hosting/auth.zh-CN.mdx +12 -0
- package/docs/self-hosting/environment-variables/auth.mdx +7 -0
- package/docs/self-hosting/environment-variables/auth.zh-CN.mdx +7 -0
- package/docs/self-hosting/environment-variables/basic.mdx +0 -7
- package/docs/self-hosting/environment-variables/basic.zh-CN.mdx +0 -7
- package/docs/self-hosting/environment-variables/s3.mdx +0 -7
- package/docs/self-hosting/environment-variables/s3.zh-CN.mdx +0 -7
- package/docs/self-hosting/examples/azure-openai.mdx +0 -1
- package/docs/self-hosting/examples/azure-openai.zh-CN.mdx +0 -1
- package/docs/self-hosting/platform/docker-compose.mdx +0 -1
- package/docs/self-hosting/platform/docker-compose.zh-CN.mdx +0 -1
- package/docs/self-hosting/platform/docker.mdx +5 -3
- package/docs/self-hosting/platform/docker.zh-CN.mdx +5 -4
- package/docs/self-hosting/platform/dokploy.mdx +0 -2
- package/docs/self-hosting/platform/dokploy.zh-CN.mdx +0 -2
- package/docs/self-hosting/platform/vercel.mdx +0 -7
- package/docs/self-hosting/platform/vercel.zh-CN.mdx +0 -7
- package/e2e/src/steps/home/sidebarAgent.steps.ts +56 -24
- package/locales/ar/authError.json +1 -0
- package/locales/ar/models.json +25 -22
- package/locales/ar/providers.json +0 -1
- package/locales/ar/setting.json +16 -0
- package/locales/bg-BG/authError.json +1 -0
- package/locales/bg-BG/models.json +18 -21
- package/locales/bg-BG/providers.json +0 -1
- package/locales/bg-BG/setting.json +16 -0
- package/locales/de-DE/authError.json +1 -0
- package/locales/de-DE/models.json +20 -20
- package/locales/de-DE/providers.json +0 -1
- package/locales/de-DE/setting.json +16 -0
- package/locales/en-US/auth.json +1 -0
- package/locales/en-US/models.json +22 -22
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/authError.json +1 -0
- package/locales/es-ES/models.json +84 -20
- package/locales/es-ES/providers.json +0 -1
- package/locales/es-ES/setting.json +16 -0
- package/locales/fa-IR/authError.json +1 -0
- package/locales/fa-IR/models.json +43 -20
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fa-IR/setting.json +16 -0
- package/locales/fr-FR/authError.json +1 -0
- package/locales/fr-FR/models.json +19 -21
- package/locales/fr-FR/providers.json +0 -1
- package/locales/fr-FR/setting.json +16 -0
- package/locales/it-IT/authError.json +1 -0
- package/locales/it-IT/models.json +17 -19
- package/locales/it-IT/providers.json +0 -1
- package/locales/it-IT/setting.json +16 -0
- package/locales/ja-JP/authError.json +1 -0
- package/locales/ja-JP/models.json +43 -22
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ja-JP/setting.json +16 -0
- package/locales/ko-KR/authError.json +1 -0
- package/locales/ko-KR/models.json +41 -20
- package/locales/ko-KR/providers.json +0 -1
- package/locales/ko-KR/setting.json +16 -0
- package/locales/nl-NL/authError.json +1 -0
- package/locales/nl-NL/models.json +48 -20
- package/locales/nl-NL/providers.json +0 -1
- package/locales/nl-NL/setting.json +16 -0
- package/locales/pl-PL/authError.json +1 -0
- package/locales/pl-PL/models.json +19 -22
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pl-PL/setting.json +16 -0
- package/locales/pt-BR/authError.json +1 -0
- package/locales/pt-BR/models.json +21 -21
- package/locales/pt-BR/providers.json +0 -1
- package/locales/pt-BR/setting.json +16 -0
- package/locales/ru-RU/authError.json +1 -0
- package/locales/ru-RU/models.json +23 -20
- package/locales/ru-RU/providers.json +0 -1
- package/locales/ru-RU/setting.json +16 -0
- package/locales/tr-TR/authError.json +1 -0
- package/locales/tr-TR/models.json +37 -20
- package/locales/tr-TR/providers.json +0 -1
- package/locales/tr-TR/setting.json +16 -0
- package/locales/vi-VN/authError.json +1 -0
- package/locales/vi-VN/models.json +15 -19
- package/locales/vi-VN/providers.json +0 -1
- package/locales/vi-VN/setting.json +16 -0
- package/locales/zh-CN/auth.json +1 -0
- package/locales/zh-CN/models.json +20 -20
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/authError.json +1 -0
- package/locales/zh-TW/models.json +20 -20
- package/locales/zh-TW/providers.json +0 -1
- package/locales/zh-TW/setting.json +16 -0
- package/netlify.toml +0 -1
- package/package.json +1 -1
- package/packages/model-bank/src/aiModels/google.ts +0 -19
- package/packages/model-bank/src/aiModels/moonshot.ts +56 -5
- package/packages/model-bank/src/aiModels/ollamacloud.ts +14 -0
- package/packages/model-bank/src/aiModels/openrouter.ts +0 -14
- package/packages/model-bank/src/aiModels/qwen.ts +105 -4
- package/packages/model-bank/src/aiModels/siliconcloud.ts +39 -0
- package/packages/model-bank/src/aiModels/wenxin.ts +0 -99
- package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +24 -0
- package/packages/model-runtime/src/core/contextBuilders/openai.ts +22 -5
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +10 -3
- package/packages/model-runtime/src/core/streams/google/google-ai.test.ts +54 -13
- package/packages/model-runtime/src/core/streams/google/index.ts +1 -4
- package/packages/model-runtime/src/providers/moonshot/index.ts +24 -2
- package/packages/model-runtime/src/providers/qwen/index.ts +16 -15
- package/packages/types/src/serverConfig.ts +1 -0
- package/src/app/[variants]/(auth)/signin/SignInEmailStep.tsx +56 -49
- package/src/app/[variants]/(auth)/signin/page.tsx +2 -0
- package/src/app/[variants]/(auth)/signin/useSignIn.ts +2 -0
- package/src/app/[variants]/(auth)/signup/[[...signup]]/page.tsx +7 -0
- package/src/envs/app.ts +0 -2
- package/src/envs/auth.ts +3 -0
- package/src/libs/better-auth/define-config.ts +1 -1
- package/src/libs/next/proxy/define-config.ts +0 -1
- package/src/locales/default/auth.ts +2 -0
- package/src/server/globalConfig/index.ts +1 -0
- package/src/server/routers/lambda/__tests__/integration/aiAgent/execAgent.integration.test.ts +3 -2
- package/src/store/chat/slices/topic/action.ts +1 -1
- package/src/store/electron/actions/settings.ts +7 -7
- package/src/store/electron/actions/sync.ts +11 -11
- package/src/store/global/actions/general.ts +12 -12
- package/src/store/global/initialState.ts +11 -11
- package/src/store/global/selectors/clientDB.ts +1 -1
- package/src/store/global/selectors/systemStatus.ts +1 -1
- package/src/store/image/slices/generationConfig/action.ts +12 -12
- package/src/store/image/utils/size.ts +11 -11
- package/src/store/library/slices/ragEval/actions/dataset.ts +1 -1
- package/src/store/serverConfig/selectors.ts +1 -0
- package/src/store/session/slices/session/initialState.ts +6 -6
- package/src/store/session/slices/session/reducers.ts +1 -1
- package/src/store/session/slices/sessionGroup/initialState.ts +2 -2
- package/src/store/tool/slices/customPlugin/action.ts +2 -2
- package/src/store/tool/slices/oldStore/action.ts +5 -5
- package/src/store/userMemory/slices/preference/action.ts +6 -6
|
@@ -90,6 +90,7 @@
|
|
|
90
90
|
"Phi-3-small-8k-instruct.description": "Un modello da 7B parametri con qualità superiore rispetto a Phi-3-mini, focalizzato su dati di alta qualità e ad alta intensità di ragionamento.",
|
|
91
91
|
"Phi-3.5-mini-instruct.description": "Una versione aggiornata del modello Phi-3-mini.",
|
|
92
92
|
"Phi-3.5-vision-instrust.description": "Una versione aggiornata del modello Phi-3-vision.",
|
|
93
|
+
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 è un modello linguistico di grandi dimensioni open-source ottimizzato per capacità agentiche, eccellente nella programmazione, nell'uso di strumenti, nel seguire istruzioni e nella pianificazione a lungo termine. Supporta lo sviluppo software multilingue e l'esecuzione di flussi di lavoro complessi a più fasi, ottenendo un punteggio di 74,0 su SWE-bench Verified e superando Claude Sonnet 4.5 in scenari multilingue.",
|
|
93
94
|
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct è un LLM da 7B parametri ottimizzato per istruzioni nella serie Qwen2. Utilizza un'architettura Transformer con SwiGLU, bias QKV per l'attenzione e grouped-query attention, ed è in grado di gestire input di grandi dimensioni. Eccelle in comprensione linguistica, generazione, compiti multilingue, programmazione, matematica e ragionamento, superando la maggior parte dei modelli open-source e competendo con quelli proprietari. Supera Qwen1.5-7B-Chat in diversi benchmark.",
|
|
94
95
|
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct fa parte della nuova serie LLM di Alibaba Cloud. Il modello da 7B offre miglioramenti significativi in programmazione e matematica, supporta oltre 29 lingue e migliora il rispetto delle istruzioni, la comprensione dei dati strutturati e la generazione di output strutturati (in particolare JSON).",
|
|
95
96
|
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct è l'ultimo LLM di Alibaba Cloud focalizzato sul codice. Basato su Qwen2.5 e addestrato su 5,5T token, migliora notevolmente la generazione, il ragionamento e la correzione del codice, mantenendo al contempo le capacità matematiche e generali, fornendo una solida base per agenti di programmazione.",
|
|
@@ -271,20 +272,20 @@
|
|
|
271
272
|
"chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che combina comprensione e generazione avanzate per casi d'uso su larga scala come assistenza clienti, istruzione e supporto tecnico.",
|
|
272
273
|
"claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
|
|
273
274
|
"claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic,
|
|
275
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, migliora in tutte le competenze e supera il precedente modello di punta Claude 3 Opus in numerosi benchmark di intelligenza.",
|
|
275
276
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fornisce risposte rapide per attività leggere.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
277
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato. È in grado di fornire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo visibili all'utente. Sonnet è particolarmente forte nella programmazione, data science, visione e compiti agentici.",
|
|
277
278
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
278
279
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
|
|
279
280
|
"claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
280
281
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con
|
|
282
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di ragionamento esteso.",
|
|
282
283
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
|
|
283
|
-
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è
|
|
284
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellente in prestazioni, intelligenza, fluidità e comprensione.",
|
|
284
285
|
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellente in prestazioni, intelligenza, fluidità e comprensione.",
|
|
285
286
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
|
|
286
287
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è
|
|
288
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è in grado di fornire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo con processo visibile.",
|
|
288
289
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente mai realizzato da Anthropic.",
|
|
289
290
|
"codegeex-4.description": "CodeGeeX-4 è un potente assistente di codifica AI che supporta Q&A multilingue e completamento del codice per aumentare la produttività degli sviluppatori.",
|
|
290
291
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B è un modello multilingue di generazione di codice che supporta completamento e generazione di codice, interprete di codice, ricerca web, chiamata di funzioni e Q&A a livello di repository, coprendo un'ampia gamma di scenari di sviluppo software. È un modello di codice di alto livello con meno di 10B parametri.",
|
|
@@ -351,11 +352,10 @@
|
|
|
351
352
|
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp è una versione sperimentale della serie V3.2 che fa da ponte verso la prossima architettura. Aggiunge DeepSeek Sparse Attention (DSA) sopra V3.1-Terminus per migliorare l'efficienza nell'addestramento e inferenza su contesti lunghi, con ottimizzazioni per l'uso di strumenti, comprensione di documenti lunghi e ragionamento multi-step. Ideale per esplorare una maggiore efficienza di ragionamento con budget di contesto estesi.",
|
|
352
353
|
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 è un modello MoE con 671 miliardi di parametri che utilizza MLA e DeepSeekMoE con bilanciamento del carico senza perdite per un addestramento e inferenza efficienti. Preaddestrato su 14,8 trilioni di token di alta qualità con SFT e RL, supera altri modelli open-source e si avvicina ai modelli chiusi leader.",
|
|
353
354
|
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) è un modello innovativo che offre una profonda comprensione linguistica e interazione.",
|
|
354
|
-
"deepseek-ai/deepseek-r1.description": "Un modello LLM all'avanguardia, efficiente e potente nel ragionamento, matematica e programmazione.",
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Un nuovo modello open-source che combina capacità generali e di programmazione. Mantiene il dialogo generale del modello conversazionale e la forte capacità di codifica del modello per programmatori, con un migliore allineamento alle preferenze. DeepSeek-V2.5 migliora anche la scrittura e il rispetto delle istruzioni.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 versione completa veloce con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 versione completa con 671 miliardi di parametri e ricerca web in tempo reale, che offre una comprensione e generazione più avanzate.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "La modalità di pensiero DeepSeek V3.2 produce una catena di pensieri prima della risposta finale per migliorare l'accuratezza.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B è il modello DeepSeek focalizzato sul codice con forte capacità di generazione.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza nella programmazione, capacità tecnica, comprensione del contesto e gestione di testi lunghi.",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K è un modello ultra-leggero per domande semplici, classificazione e inferenza a basso costo.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview è un’anteprima del modello di pensiero per valutazioni e test.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, sviluppato da ByteDance Seed, supporta input testuali e visivi per una generazione di immagini di alta qualità e altamente controllabile a partire da prompt.",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input testuali e visivi con generazione di immagini di alta qualità e altamente controllabile. Genera immagini a partire da prompt testuali.",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sull’editing di immagini, che supporta input di testo e immagini.",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accetta testo e immagini di riferimento come input, consentendo modifiche locali mirate e trasformazioni complesse della scena globale.",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] è un modello di generazione di immagini con una preferenza estetica per immagini più realistiche e naturali.",
|
|
@@ -481,8 +480,8 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "Un potente modello nativo multimodale per la generazione di immagini.",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "Modello di generazione di immagini di alta qualità sviluppato da Google.",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e l’editing di immagini tramite conversazione.",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen
|
|
485
|
-
"fal-ai/qwen-image.description": "Un potente modello di generazione immagini del team Qwen
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen che supporta modifiche semantiche e visive, modifica con precisione testi in cinese e inglese, e consente modifiche di alta qualità come trasferimento di stile e rotazione di oggetti.",
|
|
484
|
+
"fal-ai/qwen-image.description": "Un potente modello di generazione di immagini del team Qwen con eccellente resa del testo cinese e stili visivi diversificati.",
|
|
486
485
|
"flux-1-schnell.description": "Modello testo-immagine da 12 miliardi di parametri di Black Forest Labs che utilizza la distillazione latente avversariale per generare immagini di alta qualità in 1-4 passaggi. Con licenza Apache-2.0 per uso personale, di ricerca e commerciale.",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev] è un modello distillato a pesi aperti per uso non commerciale. Mantiene una qualità d’immagine quasi professionale e capacità di seguire istruzioni, con maggiore efficienza rispetto ai modelli standard di pari dimensioni.",
|
|
488
487
|
"flux-kontext-max.description": "Generazione ed editing di immagini contestuali all’avanguardia, combinando testo e immagini per risultati precisi e coerenti.",
|
|
@@ -514,8 +513,6 @@
|
|
|
514
513
|
"gemini-2.0-flash-lite-001.description": "Una variante di Gemini 2.0 Flash ottimizzata per efficienza dei costi e bassa latenza.",
|
|
515
514
|
"gemini-2.0-flash-lite.description": "Una variante di Gemini 2.0 Flash ottimizzata per efficienza dei costi e bassa latenza.",
|
|
516
515
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash offre funzionalità di nuova generazione tra cui velocità eccezionale, uso nativo di strumenti, generazione multimodale e una finestra di contesto da 1 milione di token.",
|
|
517
|
-
"gemini-2.5-flash-image-preview.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e l’editing di immagini in conversazione.",
|
|
518
|
-
"gemini-2.5-flash-image-preview:image.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e l’editing di immagini in conversazione.",
|
|
519
516
|
"gemini-2.5-flash-image.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e modifica di immagini in conversazione.",
|
|
520
517
|
"gemini-2.5-flash-image:image.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e modifica di immagini in conversazione.",
|
|
521
518
|
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview è il modello più piccolo e conveniente di Google, progettato per l’uso su larga scala.",
|
|
@@ -530,7 +527,7 @@
|
|
|
530
527
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
|
|
531
528
|
"gemini-3-flash-preview.description": "Gemini 3 Flash è il modello più intelligente progettato per la velocità, che combina intelligenza all'avanguardia con un eccellente ancoraggio alla ricerca.",
|
|
532
529
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google, che supporta anche la conversazione multimodale.",
|
|
533
|
-
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione immagini di Google e supporta anche
|
|
530
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione immagini di Google e supporta anche chat multimodale.",
|
|
534
531
|
"gemini-3-pro-preview.description": "Gemini 3 Pro è il modello più potente di Google per agenti e codifica creativa, offrendo visuali più ricche e interazioni più profonde grazie a un ragionamento all'avanguardia.",
|
|
535
532
|
"gemini-flash-latest.description": "Ultima versione di Gemini Flash",
|
|
536
533
|
"gemini-flash-lite-latest.description": "Ultima versione di Gemini Flash-Lite",
|
|
@@ -543,7 +540,7 @@
|
|
|
543
540
|
"generalv3.5.description": "Spark Max è la versione più completa, con supporto alla ricerca web e numerosi plugin integrati. Le sue capacità ottimizzate, i ruoli di sistema e le chiamate di funzione offrono prestazioni eccellenti in scenari applicativi complessi.",
|
|
544
541
|
"generalv3.description": "Spark Pro è un LLM ad alte prestazioni ottimizzato per ambiti professionali, con focus su matematica, programmazione, sanità ed educazione. Supporta la ricerca web e plugin integrati come meteo e data. Offre prestazioni elevate e grande efficienza in Q&A complessi, comprensione linguistica e creazione avanzata di testi, rendendolo ideale per usi professionali.",
|
|
545
542
|
"glm-4-0520.description": "GLM-4-0520 è l'ultima versione del modello, progettata per compiti altamente complessi e diversificati con prestazioni eccellenti.",
|
|
546
|
-
"glm-4-
|
|
543
|
+
"glm-4-7.description": "GLM-4.7 è il modello di punta più recente di Zhipu AI. Migliora le capacità di programmazione, la pianificazione di compiti a lungo termine e la collaborazione con strumenti per scenari di Agentic Coding, raggiungendo prestazioni leader tra i modelli open-source in numerosi benchmark pubblici. Le capacità generali sono migliorate, con risposte più concise e naturali e una scrittura più immersiva. Nei compiti agentici complessi, il rispetto delle istruzioni durante le chiamate agli strumenti è più forte, e l'estetica del frontend di Artifacts e Agentic Coding, così come l'efficienza nel completamento di compiti a lungo termine, sono ulteriormente migliorate. • Capacità di programmazione potenziate: miglioramenti significativi nella codifica multilingue e nelle prestazioni degli agenti terminali; GLM-4.7 può ora implementare meccanismi \"pensare prima, agire poi\" in framework di programmazione come Claude Code, Kilo Code, TRAE, Cline e Roo Code, con prestazioni più stabili nei compiti complessi. • Miglioramento dell'estetica del frontend: GLM-4.7 mostra progressi significativi nella qualità della generazione frontend, in grado di creare siti web, presentazioni e poster con maggiore impatto visivo. • Capacità di chiamata strumenti potenziate: GLM-4.7 migliora le capacità di chiamata strumenti, ottenendo 67 nel test BrowseComp e 84,7 nel benchmark interattivo τ²-Bench, superando Claude Sonnet 4.5 come SOTA open-source. • Miglioramento del ragionamento: capacità matematiche e di ragionamento notevolmente migliorate, con un punteggio del 42,8% nel benchmark HLE (\"Humanity's Last Exam\"), un miglioramento del 41% rispetto a GLM-4.6, superando GPT-5.1. • Potenziamento generale: le conversazioni con GLM-4.7 sono più concise, intelligenti e umane; la scrittura e il role-playing sono più letterari e immersivi.",
|
|
547
544
|
"glm-4-9b-chat.description": "GLM-4-9B-Chat offre prestazioni elevate in semantica, matematica, ragionamento, codice e conoscenza. Supporta anche navigazione web, esecuzione di codice, chiamate a strumenti personalizzati e ragionamento su testi lunghi, con supporto per 26 lingue tra cui giapponese, coreano e tedesco.",
|
|
548
545
|
"glm-4-air-250414.description": "GLM-4-Air è un'opzione ad alto valore con prestazioni vicine a GLM-4, velocità elevata e costi ridotti.",
|
|
549
546
|
"glm-4-air.description": "GLM-4-Air è un'opzione ad alto valore con prestazioni vicine a GLM-4, velocità elevata e costi ridotti.",
|
|
@@ -558,11 +555,12 @@
|
|
|
558
555
|
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking è il più potente VLM da ~10B noto, coprendo compiti SOTA come comprensione video, QA su immagini, risoluzione di problemi, OCR, lettura di documenti e grafici, agenti GUI, codifica frontend e grounding. Supera persino Qwen2.5-VL-72B, 8 volte più grande, in molti compiti. Con RL avanzato, utilizza il ragionamento a catena per migliorare accuratezza e ricchezza, superando i modelli tradizionali non pensanti sia nei risultati che nella spiegabilità.",
|
|
559
556
|
"glm-4.5-air.description": "Edizione leggera di GLM-4.5 che bilancia prestazioni e costi, con modalità di pensiero ibride flessibili.",
|
|
560
557
|
"glm-4.5-airx.description": "Edizione veloce di GLM-4.5-Air con risposte più rapide per usi ad alta scala e velocità.",
|
|
561
|
-
"glm-4.5-flash.description": "Livello gratuito di GLM-4.5 con prestazioni elevate in ragionamento, programmazione e compiti da agente.",
|
|
562
558
|
"glm-4.5-x.description": "Edizione veloce di GLM-4.5, con prestazioni elevate e velocità di generazione fino a 100 token/sec.",
|
|
563
559
|
"glm-4.5.description": "Modello di punta di Zhipu con modalità di pensiero commutabile, che offre SOTA open-source complessivo e fino a 128K di contesto.",
|
|
564
560
|
"glm-4.5v.description": "Il modello di ragionamento visivo di nuova generazione MoE di Zhipu ha 106B parametri totali con 12B attivi, raggiungendo SOTA tra i modelli multimodali open-source di dimensioni simili in compiti su immagini, video, documenti e GUI.",
|
|
565
561
|
"glm-4.6.description": "GLM-4.6 (355B), il nuovo modello di punta di Zhipu, supera completamente i suoi predecessori in codifica avanzata, elaborazione di testi lunghi, ragionamento e capacità agentiche. Si distingue in particolare per le sue abilità di programmazione, comparabili a quelle di Claude Sonnet 4, affermandosi come il miglior modello di codifica in Cina.",
|
|
562
|
+
"glm-4.7-flash.description": "GLM-4.7-Flash, come modello SOTA da 30B, offre una nuova opzione che bilancia prestazioni ed efficienza. Migliora le capacità di programmazione, la pianificazione di compiti a lungo termine e la collaborazione con strumenti per scenari di Agentic Coding, raggiungendo prestazioni leader tra i modelli open-source della stessa dimensione in numerosi benchmark attuali. Nell'esecuzione di compiti agentici complessi, mostra maggiore aderenza alle istruzioni durante le chiamate agli strumenti e migliora ulteriormente l'estetica del frontend e l'efficienza nel completamento di compiti a lungo termine per Artifacts e Agentic Coding.",
|
|
563
|
+
"glm-4.7-flashx.description": "GLM-4.7-Flash, come modello SOTA da 30B, offre una nuova opzione che bilancia prestazioni ed efficienza. Migliora le capacità di programmazione, la pianificazione di compiti a lungo termine e la collaborazione con strumenti per scenari di Agentic Coding, raggiungendo prestazioni leader tra i modelli open-source della stessa dimensione in numerosi benchmark attuali. Nell'esecuzione di compiti agentici complessi, mostra maggiore aderenza alle istruzioni durante le chiamate agli strumenti e migliora ulteriormente l'estetica del frontend e l'efficienza nel completamento di compiti a lungo termine per Artifacts e Agentic Coding.",
|
|
566
564
|
"glm-4.7.description": "GLM-4.7 è il nuovo modello di punta di Zhipu, ottimizzato per scenari di codifica agentica con capacità migliorate nella programmazione, pianificazione di compiti a lungo termine e collaborazione con strumenti. Raggiunge prestazioni leader tra i modelli open-source su numerosi benchmark pubblici. Le capacità generali sono state potenziate con risposte più concise e naturali e una scrittura più coinvolgente. Per compiti agentici complessi, il modello segue meglio le istruzioni durante l'uso degli strumenti, e l'estetica del frontend e l'efficienza nel completamento di compiti a lungo termine in Artifacts e Agentic Coding sono ulteriormente migliorate.",
|
|
567
565
|
"glm-4.description": "GLM-4 è il precedente modello di punta rilasciato a gennaio 2024, ora sostituito dal più potente GLM-4-0520.",
|
|
568
566
|
"glm-4v-flash.description": "GLM-4V-Flash è focalizzato sulla comprensione efficiente di immagini singole per scenari di analisi rapida come l'elaborazione di immagini in tempo reale o in batch.",
|
|
@@ -654,7 +652,7 @@
|
|
|
654
652
|
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: una variante Codex più piccola ed economica ottimizzata per compiti di programmazione agentica.",
|
|
655
653
|
"gpt-5.1-codex.description": "GPT-5.1 Codex: una variante di GPT-5.1 ottimizzata per compiti di programmazione agentica, per flussi di lavoro complessi di codice/agent nella Responses API.",
|
|
656
654
|
"gpt-5.1.description": "GPT-5.1 — un modello di punta ottimizzato per compiti di programmazione e agent con sforzo di ragionamento configurabile e contesto esteso.",
|
|
657
|
-
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat è la variante ChatGPT (chat-latest)
|
|
655
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat è la variante ChatGPT (chat-latest) con i più recenti miglioramenti nella conversazione.",
|
|
658
656
|
"gpt-5.2-pro.description": "GPT-5.2 Pro: una variante GPT-5.2 più intelligente e precisa (solo API Responses), adatta a problemi complessi e ragionamenti multi-turno estesi.",
|
|
659
657
|
"gpt-5.2.description": "GPT-5.2 è un modello di punta per flussi di lavoro di programmazione e agent con ragionamento potenziato e prestazioni su contesti lunghi.",
|
|
660
658
|
"gpt-5.description": "Il miglior modello per compiti di programmazione e agent cross-domain. GPT-5 rappresenta un salto in accuratezza, velocità, ragionamento, consapevolezza del contesto, pensiero strutturato e risoluzione dei problemi.",
|
|
@@ -822,6 +820,7 @@
|
|
|
822
820
|
"meta-llama/llama-3.2-90b-vision-instruct.description": "LLaMA 3.2 è progettato per compiti che combinano visione e testo. Eccelle in didascalie di immagini e domande e risposte visive, unendo generazione linguistica e ragionamento visivo.",
|
|
823
821
|
"meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3 è il modello Llama open source multilingue più avanzato, con prestazioni vicine a quelle dei modelli da 405B a costi molto contenuti. Basato su Transformer, è migliorato con SFT e RLHF per utilità e sicurezza. La versione ottimizzata per istruzioni è pensata per chat multilingue e supera molti modelli open e closed nei benchmark di settore. Data di cutoff: dicembre 2023.",
|
|
824
822
|
"meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3 è il modello Llama open source multilingue più avanzato, con prestazioni vicine a quelle dei modelli da 405B a costi molto contenuti. Basato su Transformer, è migliorato con SFT e RLHF per utilità e sicurezza. La versione ottimizzata per istruzioni è pensata per chat multilingue e supera molti modelli open e closed nei benchmark di settore. Data di cutoff: dicembre 2023.",
|
|
823
|
+
"meta.llama3-1-405b-instruct-v1:0.description": "Meta Llama 3.1 405B Instruct è il modello Llama 3.1 Instruct più grande e potente, altamente avanzato per il ragionamento dialogico e la generazione di dati sintetici, e una solida base per pretraining o fine-tuning specifici per dominio. I LLM multilingue Llama 3.1 sono una serie di modelli di generazione preaddestrati e ottimizzati per le istruzioni in versioni da 8B, 70B e 405B (input/output testuale). I modelli ottimizzati per le istruzioni sono progettati per dialoghi multilingue e superano molti modelli open chat disponibili nei benchmark industriali. Llama 3.1 è pensato per l'uso commerciale e di ricerca in più lingue. I modelli ottimizzati per le istruzioni sono adatti a chat in stile assistente, mentre i modelli preaddestrati si adattano a compiti più generali di generazione linguistica. Gli output di Llama 3.1 possono anche essere utilizzati per migliorare altri modelli, inclusa la generazione e il perfezionamento di dati sintetici. Llama 3.1 è un modello Transformer autoregressivo con architettura ottimizzata. Le versioni ottimizzate utilizzano fine-tuning supervisionato (SFT) e apprendimento per rinforzo con feedback umano (RLHF) per allinearsi alle preferenze umane in termini di utilità e sicurezza.",
|
|
825
824
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dell’ecosistema globale per l’innovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
|
|
826
825
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
|
|
827
826
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
|
|
@@ -1049,7 +1048,6 @@
|
|
|
1049
1048
|
"z-ai/glm-4.5-air.description": "GLM 4.5 Air è una variante leggera di GLM 4.5 per scenari sensibili ai costi, mantenendo forti capacità di ragionamento.",
|
|
1050
1049
|
"z-ai/glm-4.5.description": "GLM 4.5 è il modello di punta di Z.AI con ragionamento ibrido ottimizzato per compiti ingegneristici e contesti lunghi.",
|
|
1051
1050
|
"z-ai/glm-4.6.description": "GLM 4.6 è il modello di punta di Z.AI con contesto esteso e capacità di programmazione.",
|
|
1052
|
-
"zai-glm-4.6.description": "Eccelle in compiti di programmazione e ragionamento, supporta lo streaming e le chiamate a strumenti, ed è adatto alla programmazione agentica e al ragionamento complesso.",
|
|
1053
1051
|
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air è un modello base per applicazioni agentiche con architettura Mixture-of-Experts. Ottimizzato per l'uso di strumenti, navigazione web, ingegneria software e programmazione frontend, si integra con agenti di codice come Claude Code e Roo Code. Utilizza ragionamento ibrido per gestire sia scenari complessi che quotidiani.",
|
|
1054
1052
|
"zai-org/GLM-4.5.description": "GLM-4.5 è un modello base progettato per applicazioni agentiche con architettura Mixture-of-Experts. Ottimizzato per l'uso di strumenti, navigazione web, ingegneria software e programmazione frontend, si integra con agenti di codice come Claude Code e Roo Code. Utilizza ragionamento ibrido per gestire sia scenari complessi che quotidiani.",
|
|
1055
1053
|
"zai-org/GLM-4.5V.description": "GLM-4.5V è il più recente VLM di Zhipu AI, basato sul modello testuale di punta GLM-4.5-Air (106B totali, 12B attivi) con architettura MoE per prestazioni elevate a costi ridotti. Segue il percorso GLM-4.1V-Thinking e aggiunge 3D-RoPE per migliorare il ragionamento spaziale 3D. Ottimizzato tramite pretraining, SFT e RL, gestisce immagini, video e documenti lunghi, classificandosi tra i migliori modelli open source su 41 benchmark multimodali pubblici. Una modalità Thinking consente di bilanciare velocità e profondità.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Un'organizzazione open-source focalizzata sulla ricerca e gli strumenti per modelli di grandi dimensioni, che offre una piattaforma efficiente e facile da usare per rendere accessibili modelli e algoritmi all'avanguardia.",
|
|
30
30
|
"jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
|
|
31
31
|
"lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud utilizza le API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo tramite Crediti legati ai token del modello.",
|
|
33
32
|
"minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral offre modelli avanzati generali, specializzati e di ricerca per ragionamento complesso, compiti multilingue e generazione di codice, con supporto per chiamate di funzione per integrazioni personalizzate.",
|
|
35
34
|
"modelscope.description": "ModelScope è la piattaforma di modelli-as-a-service di Alibaba Cloud, che offre un'ampia gamma di modelli AI e servizi di inferenza.",
|
|
@@ -34,11 +34,20 @@
|
|
|
34
34
|
"agentCronJobs.empty.description": "Crea la tua prima attività pianificata per automatizzare il tuo agente",
|
|
35
35
|
"agentCronJobs.empty.title": "Nessuna attività pianificata",
|
|
36
36
|
"agentCronJobs.enable": "Attiva",
|
|
37
|
+
"agentCronJobs.form.at": "alle",
|
|
37
38
|
"agentCronJobs.form.content.placeholder": "Inserisci il prompt o l'istruzione per l'agente",
|
|
39
|
+
"agentCronJobs.form.every": "Ogni",
|
|
40
|
+
"agentCronJobs.form.frequency": "Frequenza",
|
|
41
|
+
"agentCronJobs.form.hours": "ora(e)",
|
|
42
|
+
"agentCronJobs.form.maxExecutions": "Interrompi dopo",
|
|
38
43
|
"agentCronJobs.form.maxExecutions.placeholder": "Lascia vuoto per illimitato",
|
|
39
44
|
"agentCronJobs.form.name.placeholder": "Inserisci il nome dell'attività",
|
|
45
|
+
"agentCronJobs.form.time": "Orario",
|
|
40
46
|
"agentCronJobs.form.timeRange.end": "Ora di fine",
|
|
41
47
|
"agentCronJobs.form.timeRange.start": "Ora di inizio",
|
|
48
|
+
"agentCronJobs.form.times": "volte",
|
|
49
|
+
"agentCronJobs.form.timezone": "Fuso orario",
|
|
50
|
+
"agentCronJobs.form.unlimited": "Esegui continuamente",
|
|
42
51
|
"agentCronJobs.form.validation.contentRequired": "Il contenuto dell'attività è obbligatorio",
|
|
43
52
|
"agentCronJobs.form.validation.invalidTimeRange": "L'ora di inizio deve precedere l'ora di fine",
|
|
44
53
|
"agentCronJobs.form.validation.nameRequired": "Il nome dell'attività è obbligatorio",
|
|
@@ -83,6 +92,13 @@
|
|
|
83
92
|
"agentCronJobs.weekday.tuesday": "Martedì",
|
|
84
93
|
"agentCronJobs.weekday.wednesday": "Mercoledì",
|
|
85
94
|
"agentCronJobs.weekdays": "Giorni feriali",
|
|
95
|
+
"agentCronJobs.weekdays.fri": "Ven",
|
|
96
|
+
"agentCronJobs.weekdays.mon": "Lun",
|
|
97
|
+
"agentCronJobs.weekdays.sat": "Sab",
|
|
98
|
+
"agentCronJobs.weekdays.sun": "Dom",
|
|
99
|
+
"agentCronJobs.weekdays.thu": "Gio",
|
|
100
|
+
"agentCronJobs.weekdays.tue": "Mar",
|
|
101
|
+
"agentCronJobs.weekdays.wed": "Mer",
|
|
86
102
|
"agentInfoDescription.basic.avatar": "Avatar",
|
|
87
103
|
"agentInfoDescription.basic.description": "Descrizione",
|
|
88
104
|
"agentInfoDescription.basic.name": "Nome",
|
|
@@ -8,6 +8,7 @@
|
|
|
8
8
|
"codes.DELETED_ACCOUNT_EMAIL": "このメールアドレスは削除されたアカウントに関連付けられており、登録には使用できません",
|
|
9
9
|
"codes.EMAIL_CAN_NOT_BE_UPDATED": "このアカウントのメールアドレスは変更できません",
|
|
10
10
|
"codes.EMAIL_NOT_ALLOWED": "このメールアドレスでは登録できません",
|
|
11
|
+
"codes.EMAIL_NOT_FOUND": "このアカウントにはメールアドレスが登録されていません。アカウントにメールアドレスが紐付けられているかご確認ください。",
|
|
11
12
|
"codes.EMAIL_NOT_VERIFIED": "メールアドレスの確認を完了してください",
|
|
12
13
|
"codes.FAILED_TO_CREATE_SESSION": "セッションの作成に失敗しました",
|
|
13
14
|
"codes.FAILED_TO_CREATE_USER": "ユーザーの作成に失敗しました",
|
|
@@ -90,6 +90,7 @@
|
|
|
90
90
|
"Phi-3-small-8k-instruct.description": "Phi-3-miniよりも高品質で、推論重視のデータに特化した70億パラメータのモデルです。",
|
|
91
91
|
"Phi-3.5-mini-instruct.description": "Phi-3-miniモデルのアップデート版です。",
|
|
92
92
|
"Phi-3.5-vision-instrust.description": "Phi-3-visionモデルのアップデート版です。",
|
|
93
|
+
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1は、エージェント機能に最適化されたオープンソースの大規模言語モデルであり、プログラミング、ツールの活用、指示の遵守、長期的な計画に優れています。このモデルは多言語でのソフトウェア開発や複雑なマルチステップのワークフロー実行をサポートし、SWE-bench Verifiedで74.0のスコアを達成し、多言語シナリオにおいてClaude Sonnet 4.5を上回る性能を示しています。",
|
|
93
94
|
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instructは、Qwen2シリーズの7B命令調整済みLLMです。TransformerアーキテクチャにSwiGLU、QKVバイアス、グループ化クエリアテンションを採用し、大規模入力に対応。言語理解、生成、多言語、コーディング、数学、推論において優れた性能を発揮し、多くのオープンモデルを上回り、プロプライエタリモデルと競合します。Qwen1.5-7B-Chatを複数のベンチマークで上回ります。",
|
|
94
95
|
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instructは、Alibaba Cloudの最新LLMシリーズの一部です。7Bモデルは、コーディングと数学で顕著な向上を示し、29以上の言語をサポート。命令追従、構造化データの理解、構造化出力(特にJSON)を改善しています。",
|
|
95
96
|
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instructは、Alibaba Cloudの最新コード特化型LLMです。Qwen2.5をベースに5.5兆トークンで訓練され、コード生成、推論、修復を大幅に改善。数学や汎用能力も維持し、コーディングエージェントの強力な基盤を提供します。",
|
|
@@ -271,21 +272,21 @@
|
|
|
271
272
|
"chatgpt-4o-latest.description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、顧客サポート、教育、技術支援などの大規模ユースケースにおいて、優れた理解力と生成能力を兼ね備えています。",
|
|
272
273
|
"claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
|
|
273
274
|
"claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku
|
|
275
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haikuは、Anthropicが提供する次世代モデルの中で最も高速なモデルです。Claude 3 Haikuと比較して全体的なスキルが向上しており、従来の最大モデルであるClaude 3 Opusを多くの知能ベンチマークで上回っています。",
|
|
275
276
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haikuは、軽量タスク向けに高速な応答を提供します。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
277
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnetは、Anthropicが開発した最も知的なモデルであり、市場初のハイブリッド推論モデルです。即時応答と段階的な思考プロセスの両方を提供でき、ユーザーはその思考過程を視覚的に確認できます。特にコーディング、データサイエンス、画像認識、エージェントタスクに強みを持ちます。",
|
|
277
278
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnetは、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
278
279
|
"claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
|
|
279
280
|
"claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
280
281
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5
|
|
282
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5は、AnthropicのHaikuモデルの中で最も高速かつ高性能なモデルであり、驚異的なスピードと高度な推論能力を兼ね備えています。",
|
|
282
283
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
|
|
283
|
-
"claude-opus-4-1-20250805.description": "Claude Opus 4.1
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4
|
|
284
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicが提供する最新かつ最も高性能なモデルであり、極めて複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
|
|
285
|
+
"claude-opus-4-20250514.description": "Claude Opus 4は、Anthropicの中で最も強力なモデルであり、非常に複雑なタスクにおいて優れたパフォーマンス、知性、流暢さ、理解力を示します。",
|
|
285
286
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
|
|
286
287
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
288
|
-
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5
|
|
288
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4は、即時応答と段階的な思考プロセスの両方を提供でき、その過程を可視化することが可能です。",
|
|
289
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropicがこれまでに開発した中で最も知的なモデルです。",
|
|
289
290
|
"codegeex-4.description": "CodeGeeX-4は、開発者の生産性を向上させる多言語対応のAIコーディングアシスタントで、Q&Aやコード補完をサポートします。",
|
|
290
291
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完、生成、インタープリタ、Web検索、関数呼び出し、リポジトリレベルのQ&Aなど、幅広いソフトウェア開発シナリオに対応します。10B未満のパラメータで最高クラスのコードモデルです。",
|
|
291
292
|
"codegemma.description": "CodeGemmaは、さまざまなプログラミングタスクに対応する軽量モデルで、迅速な反復と統合を可能にします。",
|
|
@@ -351,11 +352,10 @@
|
|
|
351
352
|
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp は次世代アーキテクチャへの橋渡しとなる実験的な V3.2 リリースです。V3.1-Terminus をベースに DeepSeek Sparse Attention(DSA)を追加し、長文コンテキストの学習と推論効率を向上させています。ツール使用、長文理解、マルチステップ推論に最適化されており、大規模コンテキストでの高効率推論の探求に理想的です。",
|
|
352
353
|
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 は 671B パラメータの MoE モデルで、MLA と DeepSeekMoE を使用し、損失のない負荷分散により効率的な学習と推論を実現しています。14.8T の高品質トークンで事前学習され、SFT と RL により他のオープンモデルを上回り、クローズドモデルに迫る性能を発揮します。",
|
|
353
354
|
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat(67B)は、深い言語理解と対話能力を提供する革新的なモデルです。",
|
|
354
|
-
"deepseek-ai/deepseek-r1.description": "最先端の効率的な LLM で、推論、数学、プログラミングに強みを持ちます。",
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek
|
|
358
|
+
"deepseek-chat.description": "DeepSeek-V2.5は、一般的な対話能力と強力なコーディング能力を兼ね備えた新しいオープンソースモデルです。チャットモデルの自然な対話性とコーディングモデルの技術力を融合し、ユーザーの好みにより適合した応答を実現します。さらに、文章生成や指示の理解にも優れています。",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%)で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 高速フルバージョンは、リアルタイムのウェブ検索を搭載し、671Bスケールの能力と高速応答を両立します。",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 フルバージョンは、671Bパラメータとリアルタイムのウェブ検索を備え、より強力な理解と生成を提供します。",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1は、強化学習前にコールドスタートデータを使用し、数学、コーディング、推論においてOpenAI-o1と同等の性能を発揮します。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2の思考モードでは、最終的な回答の前に思考の過程(Chain-of-Thought)を出力することで、精度を向上させます。",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2は、コスト効率の高い処理を実現する効率的なMoEモデルです。",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236Bは、コード生成に特化したDeepSeekのモデルで、強力なコード生成能力を持ちます。",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324は、671BパラメータのMoEモデルで、プログラミングや技術的能力、文脈理解、長文処理において優れた性能を発揮します。",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K は、シンプルな質問応答、分類、低コスト推論に適した超軽量モデルです。",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応した 32K コンテキストの高速思考モデルです。",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価およびテスト用の思考モデルプレビューです。",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0はByteDance Seedによって開発され、テキストと画像の入力をサポートし、プロンプトから高品質で制御可能な画像生成を実現します。",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0は、ByteDance Seedが開発した画像生成モデルであり、テキストおよび画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストプロンプトから画像を生成可能です。",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力に対応しています。",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] は、テキストと参照画像を入力として受け取り、局所的な編集や複雑なシーン全体の変換を可能にします。",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] は、よりリアルで自然な画像を生成する美的バイアスを持つ画像生成モデルです。",
|
|
@@ -481,8 +480,8 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "強力なネイティブマルチモーダル画像生成モデルです。",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "Google による高品質な画像生成モデルです。",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana は Google による最新・最速・最も効率的なネイティブマルチモーダルモデルで、会話を通じた画像生成と編集が可能です。",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "Qwen
|
|
485
|
-
"fal-ai/qwen-image.description": "Qwen
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Qwenチームが開発したプロフェッショナルな画像編集モデルで、意味や外観の編集、中文・英文テキストの精密な編集、スタイル変換やオブジェクトの回転など高品質な編集が可能です。",
|
|
484
|
+
"fal-ai/qwen-image.description": "Qwenチームによる強力な画像生成モデルで、中国語テキストの描画に優れ、多様なビジュアルスタイルに対応します。",
|
|
486
485
|
"flux-1-schnell.description": "Black Forest Labs による 120 億パラメータのテキストから画像への変換モデルで、潜在敵対的拡散蒸留を用いて 1~4 ステップで高品質な画像を生成します。クローズドな代替モデルに匹敵し、Apache-2.0 ライセンスのもと、個人・研究・商用利用が可能です。",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev] は、非商用利用向けのオープンウェイト蒸留モデルで、プロレベルに近い画像品質と指示追従性を維持しつつ、同サイズの標準モデルよりも効率的に動作します。",
|
|
488
487
|
"flux-kontext-max.description": "最先端のコンテキスト画像生成・編集モデルで、テキストと画像を組み合わせて精密かつ一貫性のある結果を生成します。",
|
|
@@ -514,8 +513,6 @@
|
|
|
514
513
|
"gemini-2.0-flash-lite-001.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。",
|
|
515
514
|
"gemini-2.0-flash-lite.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。",
|
|
516
515
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash は、次世代の機能を提供するモデルで、卓越したスピード、ネイティブツールの使用、マルチモーダル生成、100万トークンのコンテキストウィンドウを備えています。",
|
|
517
|
-
"gemini-2.5-flash-image-preview.description": "Nano BananaはGoogleの最新かつ最速で最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集を可能にします。",
|
|
518
|
-
"gemini-2.5-flash-image-preview:image.description": "Nano BananaはGoogleの最新かつ最速で最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集を可能にします。",
|
|
519
516
|
"gemini-2.5-flash-image.description": "Nano Banana は、Google による最新かつ最速、最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集が可能です。",
|
|
520
517
|
"gemini-2.5-flash-image:image.description": "Nano Banana は、Google による最新かつ最速、最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集が可能です。",
|
|
521
518
|
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview は、Google による最小かつ最もコストパフォーマンスに優れたモデルで、大規模利用に適しています。",
|
|
@@ -530,7 +527,7 @@
|
|
|
530
527
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。",
|
|
531
528
|
"gemini-3-flash-preview.description": "Gemini 3 Flash は、最先端の知能と優れた検索基盤を融合し、スピードに特化した最もスマートなモデルです。",
|
|
532
529
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)は、Google による画像生成モデルで、マルチモーダル対話にも対応しています。",
|
|
533
|
-
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro
|
|
530
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)は、Googleの画像生成モデルであり、マルチモーダルチャットにも対応しています。",
|
|
534
531
|
"gemini-3-pro-preview.description": "Gemini 3 Pro は、Google による最も強力なエージェントおよびバイブコーディングモデルで、最先端の推論に加え、より豊かなビジュアルと深い対話を実現します。",
|
|
535
532
|
"gemini-flash-latest.description": "Gemini Flash の最新リリース",
|
|
536
533
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース",
|
|
@@ -543,7 +540,7 @@
|
|
|
543
540
|
"generalv3.5.description": "Spark Max は最も多機能なバージョンで、ウェブ検索や多数の内蔵プラグインをサポートします。最適化されたコア機能、システムロール、関数呼び出しにより、複雑なアプリケーションシナリオでも優れたパフォーマンスを発揮します。",
|
|
544
541
|
"generalv3.description": "Spark Pro は、数学、プログラミング、医療、教育などの専門分野に最適化された高性能LLMです。ウェブ検索や天気・日付などの内蔵プラグインを備え、複雑な知識Q&A、言語理解、高度なテキスト生成において高い性能と効率を実現し、プロフェッショナルなユースケースに最適です。",
|
|
545
542
|
"glm-4-0520.description": "GLM-4-0520 は最新バージョンのモデルで、非常に複雑かつ多様なタスクに対応し、優れた性能を発揮します。",
|
|
546
|
-
"glm-4-
|
|
543
|
+
"glm-4-7.description": "GLM-4.7はZhipu AIの最新フラッグシップモデルであり、コーディング能力、長期タスクの計画、ツール連携において大幅な向上を実現し、Agentic Codingシナリオにおいてオープンソースモデルの中でトップクラスの性能を発揮します。応答はより簡潔で自然になり、文章生成はより没入感のあるものとなっています。複雑なエージェントタスクにおいては、ツール呼び出し時の指示遵守が強化され、フロントエンドの美的品質や長期タスクの完了効率も向上しています。 • プログラミング能力の強化:多言語コーディングとターミナルエージェントの性能が大幅に向上し、Claude Code、Kilo Code、TRAE、Cline、Roo Codeなどのフレームワークで「まず考え、次に行動する」メカニズムを実装可能。 • フロントエンドの美的品質向上:ウェブサイト、PPT、ポスターなどの生成品質が向上。 • ツール呼び出し能力の強化:BrowseCompで67点、τ²-Benchで84.7点を記録し、Claude Sonnet 4.5を上回るオープンソースSOTAを達成。 • 推論能力の向上:HLE(人類最後の試験)で42.8%を記録し、GLM-4.6比で41%向上、GPT-5.1を超える性能。 • 一般能力の向上:会話はより簡潔で知的かつ人間らしく、文章生成やロールプレイもより文学的で没入感のあるものに。",
|
|
547
544
|
"glm-4-9b-chat.description": "GLM-4-9B-Chat は、意味理解、数学、推論、コード、知識において高い性能を発揮します。ウェブ閲覧、コード実行、カスタムツール呼び出し、長文推論をサポートし、日本語、韓国語、ドイツ語を含む26言語に対応しています。",
|
|
548
545
|
"glm-4-air-250414.description": "GLM-4-Air は、GLM-4 に近い性能を持ちながら、高速かつ低コストで利用できる高コストパフォーマンスモデルです。",
|
|
549
546
|
"glm-4-air.description": "GLM-4-Air は、GLM-4 に近い性能を持ちながら、高速かつ低コストで利用できる高コストパフォーマンスモデルです。",
|
|
@@ -558,11 +555,12 @@
|
|
|
558
555
|
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking は、既知の中で最も強力な約10Bの視覚言語モデル(VLM)で、動画理解、画像Q&A、科目解答、OCR、文書・チャート読解、GUIエージェント、フロントエンドコーディング、グラウンディングなどの最先端タスクに対応します。Qwen2.5-VL-72B(8倍のサイズ)を多くのタスクで上回ります。高度な強化学習(RL)により、思考の連鎖(Chain-of-Thought)推論を活用し、精度と情報の豊かさを向上させ、従来の非思考モデルを成果と説明性の両面で凌駕します。",
|
|
559
556
|
"glm-4.5-air.description": "GLM-4.5 の軽量版で、性能とコストのバランスを取り、柔軟なハイブリッド思考モードを備えています。",
|
|
560
557
|
"glm-4.5-airx.description": "GLM-4.5-Air の高速版で、大規模かつ高速な利用に対応する迅速な応答を実現します。",
|
|
561
|
-
"glm-4.5-flash.description": "GLM-4.5 の無料ティアで、推論、コーディング、エージェントタスクにおいて高い性能を発揮します。",
|
|
562
558
|
"glm-4.5-x.description": "GLM-4.5 の高速版で、最大100トークン/秒の生成速度で高性能を実現します。",
|
|
563
559
|
"glm-4.5.description": "智谱のフラッグシップモデルで、思考モードの切り替えが可能。オープンソースの中で最先端の性能を誇り、最大128Kのコンテキストに対応します。",
|
|
564
560
|
"glm-4.5v.description": "智谱の次世代MoE視覚推論モデルで、総パラメータ数106B、アクティブ12B。画像、動画、文書理解、GUIタスクにおいて同規模のオープンソースマルチモーダルモデルの中で最先端の性能を実現します。",
|
|
565
561
|
"glm-4.6.description": "Zhipuの最新フラッグシップモデルGLM-4.6(355B)は、先進的なコーディング、長文処理、推論、エージェント機能において前世代を完全に上回ります。特にClaude Sonnet 4と同等のプログラミング能力を持ち、中国国内で最高のコーディングモデルとなっています。",
|
|
562
|
+
"glm-4.7-flash.description": "GLM-4.7-Flashは、30BクラスのSOTAモデルとして、性能と効率のバランスを実現する新たな選択肢です。Agentic Codingシナリオにおけるコーディング能力、長期タスク計画、ツール連携を強化し、同規模のオープンソースモデルの中でベンチマーク上位の性能を発揮します。複雑なインテリジェントエージェントタスクの実行時には、ツール呼び出し時の指示遵守が強化され、フロントエンドの美的品質や長期タスク完了効率も向上しています。",
|
|
563
|
+
"glm-4.7-flashx.description": "GLM-4.7-Flashは、30BクラスのSOTAモデルとして、性能と効率のバランスを実現する新たな選択肢です。Agentic Codingシナリオにおけるコーディング能力、長期タスク計画、ツール連携を強化し、同規模のオープンソースモデルの中でベンチマーク上位の性能を発揮します。複雑なインテリジェントエージェントタスクの実行時には、ツール呼び出し時の指示遵守が強化され、フロントエンドの美的品質や長期タスク完了効率も向上しています。",
|
|
566
564
|
"glm-4.7.description": "GLM-4.7はZhipuの最新フラッグシップモデルで、エージェント型コーディングシナリオに最適化されています。コーディング能力、長期タスクの計画、ツールとの連携が強化されており、複数の公開ベンチマークでオープンソースモデルの中でもトップクラスの性能を発揮します。全体的な能力も向上し、より簡潔で自然な応答、没入感のある文章生成が可能です。複雑なエージェントタスクにおいては、ツール呼び出し時の指示追従性が強化され、ArtifactsやAgentic Codingのフロントエンドの美しさや長期タスクの完遂効率も向上しています。",
|
|
567
565
|
"glm-4.description": "GLM-4 は2024年1月にリリースされた旧フラッグシップモデルで、現在はより強力な GLM-4-0520 に置き換えられています。",
|
|
568
566
|
"glm-4v-flash.description": "GLM-4V-Flash は、リアルタイムやバッチ画像処理などの高速分析シナリオに適した、単一画像理解に特化したモデルです。",
|
|
@@ -654,8 +652,8 @@
|
|
|
654
652
|
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini:小型で低コストな Codex バリアントで、エージェント型コーディングタスクに最適化されています。",
|
|
655
653
|
"gpt-5.1-codex.description": "GPT-5.1 Codex:GPT-5.1 をベースにした、複雑なコードやエージェントワークフローに対応するコーディング特化モデルです(Responses API 対応)。",
|
|
656
654
|
"gpt-5.1.description": "GPT-5.1 — コーディングやエージェントタスクに最適化されたフラッグシップモデルで、推論の深さを調整可能で長文コンテキストにも対応します。",
|
|
657
|
-
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat
|
|
658
|
-
"gpt-5.2-pro.description": "GPT-5.2 Pro
|
|
655
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chatは、最新の会話機能を備えたChatGPTバリアント(chat-latest)です。",
|
|
656
|
+
"gpt-5.2-pro.description": "GPT-5.2 Proは、より賢く精密なGPT-5.2バリアント(Responses API専用)であり、難解な問題や長い多段階推論に適しています。",
|
|
659
657
|
"gpt-5.2.description": "GPT-5.2 は、コーディングやエージェントワークフローに対応するフラッグシップモデルで、強力な推論力と長文コンテキスト処理能力を備えています。",
|
|
660
658
|
"gpt-5.description": "GPT-5 は、分野横断的なコーディングやエージェントタスクに最適なモデルで、精度、速度、推論力、文脈理解、構造的思考、問題解決能力において飛躍的な進化を遂げています。",
|
|
661
659
|
"gpt-audio.description": "GPT Audio は、音声の入出力に対応した汎用チャットモデルで、Chat Completions API に対応しています。",
|
|
@@ -906,6 +904,12 @@
|
|
|
906
904
|
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct(46.7B)は、大規模データ処理に対応する高容量モデルです。",
|
|
907
905
|
"mistralai/Mixtral-8x7B-v0.1.description": "Mixtral 8x7Bは、推論速度を向上させるスパースMoEモデルで、多言語およびコード生成タスクに適しています。",
|
|
908
906
|
"mistralai/mistral-nemo.description": "Mistral Nemoは、マルチリンガル対応と優れたコーディング性能を備えた7.3Bモデルです。",
|
|
907
|
+
"mixtral-8x7b-32768.description": "Mixtral 8x7Bは、複雑なタスクに対してフォールトトレラントな並列計算を提供します。",
|
|
908
|
+
"mixtral.description": "Mixtralは、Mistral AIが提供するMoEモデルで、オープンウェイトでコード生成と言語理解をサポートします。",
|
|
909
|
+
"mixtral:8x22b.description": "Mixtralは、Mistral AIが提供するMoEモデルで、オープンウェイトでコード生成と言語理解をサポートします。",
|
|
910
|
+
"moonshot-v1-128k-vision-preview.description": "Kimi Visionモデル(moonshot-v1-8k-vision-preview / moonshot-v1-32k-vision-preview / moonshot-v1-128k-vision-preview)は、テキスト、色、物体の形状などの画像内容を理解できます。",
|
|
911
|
+
"moonshot-v1-128k.description": "Moonshot V1 128Kは、最大128,000トークンの超長文コンテキストに対応し、研究、学術、大規模文書の生成に最適です。",
|
|
912
|
+
"moonshot-v1-32k-vision-preview.description": "Kimi Visionモデル(moonshot-v1-8k-vision-preview / moonshot-v1-32k-vision-preview / moonshot-v1-128k-vision-preview)は、テキスト、色、物体の形状などの画像内容を理解できます。",
|
|
909
913
|
"moonshot-v1-32k.description": "Moonshot V1 32Kは、32,768トークンの中程度の長さのコンテキストをサポートし、長文ドキュメントや複雑な対話に最適で、コンテンツ制作、レポート、チャットシステムに適しています。",
|
|
910
914
|
"moonshot-v1-8k-vision-preview.description": "Kimi Visionモデル(moonshot-v1-8k-vision-preview、moonshot-v1-32k-vision-preview、moonshot-v1-128k-vision-previewを含む)は、テキスト、色、物体の形状などの画像内容を理解できます。",
|
|
911
915
|
"moonshot-v1-8k.description": "Moonshot V1 8Kは、短文生成に最適化されており、効率的なパフォーマンスで8,192トークンを処理し、短いチャット、メモ、迅速なコンテンツ作成に適しています。",
|
|
@@ -938,6 +942,24 @@
|
|
|
938
942
|
"o4-mini-2025-04-16.description": "o4-miniは、OpenAIの推論モデルで、テキスト+画像入力とテキスト出力に対応し、幅広い知識を必要とする複雑なタスクに適しており、200Kのコンテキストウィンドウを備えています。",
|
|
939
943
|
"o4-mini-deep-research.description": "o4-mini-deep-researchは、複雑な多段階リサーチ向けの高速かつ低コストなモデルで、ウェブ検索やMCPコネクタを通じたデータアクセスが可能です。",
|
|
940
944
|
"o4-mini.description": "o4-miniは、oシリーズの最新小型モデルで、コーディングや視覚タスクにおいて高効率な推論を実現するよう最適化されています。",
|
|
945
|
+
"open-codestral-mamba.description": "Codestral Mambaは、コード生成に特化したMamba 2言語モデルであり、高度なコーディングおよび推論タスクをサポートします。",
|
|
946
|
+
"open-mistral-7b.description": "Mistral 7Bはコンパクトながら高性能であり、バッチ処理や分類、テキスト生成などのシンプルなタスクに強く、堅実な推論能力を備えています。",
|
|
947
|
+
"open-mistral-nemo.description": "Mistral Nemoは、Nvidiaと共同開発された12Bモデルで、優れた推論およびコーディング性能を持ち、統合も容易です。",
|
|
948
|
+
"open-mixtral-8x22b.description": "Mixtral 8x22Bは、複雑なタスクに対応する大型MoEモデルで、強力な推論能力と高いスループットを提供します。",
|
|
949
|
+
"open-mixtral-8x7b.description": "Mixtral 8x7Bは、推論速度を向上させるスパースMoEモデルであり、多言語およびコード生成タスクに適しています。",
|
|
950
|
+
"openai/gpt-3.5-turbo-instruct.description": "GPT-3時代のモデルと同様の機能を持ち、チャットではなく従来の補完エンドポイントに対応しています。",
|
|
951
|
+
"openai/gpt-3.5-turbo.description": "OpenAIの最も高性能かつコスト効率の高いGPT-3.5モデルで、チャットに最適化されている一方で、従来の補完にも強みを持ちます。",
|
|
952
|
+
"openai/gpt-4-turbo.description": "OpenAIのgpt-4-turboは、幅広い一般知識と専門知識を持ち、複雑な自然言語指示に従い、難解な問題を正確に解決します。知識のカットオフは2023年4月で、128Kのコンテキストウィンドウに対応しています。",
|
|
953
|
+
"openai/gpt-4.1-mini.description": "GPT-4.1 Miniは、中程度のコンテキスト処理において低レイテンシーと高コストパフォーマンスを提供します。",
|
|
954
|
+
"openai/gpt-4.1-nano.description": "GPT-4.1 Nanoは、超低コスト・低レイテンシーで高頻度の短いチャットや分類タスクに最適なモデルです。",
|
|
955
|
+
"openai/gpt-4.1.description": "GPT-4.1シリーズは、より大きなコンテキストウィンドウと強化されたエンジニアリングおよび推論能力を提供します。",
|
|
956
|
+
"openai/gpt-4o-mini.description": "GPT-4o-miniは、低レイテンシーのマルチモーダル用途に適した高速・小型のGPT-4oバリアントです。",
|
|
957
|
+
"openai/gpt-4o.description": "GPT-4oファミリーは、テキスト+画像入力とテキスト出力に対応するOpenAIのOmniモデルです。",
|
|
958
|
+
"openai/gpt-5-chat.description": "GPT-5 Chatは、対話に最適化されたGPT-5バリアントで、低レイテンシーでよりインタラクティブな会話を実現します。",
|
|
959
|
+
"openai/gpt-5-codex.description": "GPT-5-Codexは、コーディングおよび大規模なコードワークフローに最適化されたGPT-5バリアントです。",
|
|
960
|
+
"openai/gpt-5-mini.description": "GPT-5 Miniは、低レイテンシー・低コストのシナリオ向けに設計された小型のGPT-5バリアントです。",
|
|
961
|
+
"openai/gpt-5-nano.description": "GPT-5 Nanoは、コストとレイテンシーに厳しい制約があるシナリオ向けの超小型バリアントです。",
|
|
962
|
+
"openai/gpt-5-pro.description": "GPT-5 Proは、OpenAIのフラッグシップモデルであり、強力な推論、コード生成、エンタープライズ向け機能を提供し、テスト時のルーティングや厳格な安全ポリシーに対応しています。",
|
|
941
963
|
"qianfan-llama-vl-8b.description": "Qianfan Llama VL 8Bは、Llamaをベースにしたマルチモーダルモデルで、一般的な画像と言語の理解に対応します。",
|
|
942
964
|
"qianfan-multipicocr.description": "Qianfan MultiPicOCRは、複数画像に対応したOCRモデルで、画像間のテキスト検出と認識を行います。",
|
|
943
965
|
"qianfan-qi-vl.description": "Qianfan QI VLは、複雑な画像と言語のシナリオにおける高精度な検索と質問応答に対応するマルチモーダルQAモデルです。",
|
|
@@ -1086,7 +1108,6 @@
|
|
|
1086
1108
|
"z-ai/glm-4.5-air.description": "GLM 4.5 Airは、コスト重視のシナリオ向けに設計された軽量GLM 4.5バリアントで、強力な推論能力を維持しています。",
|
|
1087
1109
|
"z-ai/glm-4.5.description": "GLM 4.5は、エンジニアリングおよび長文コンテキストタスクに最適化されたZ.AIのフラッグシップモデルで、ハイブリッド推論を採用しています。",
|
|
1088
1110
|
"z-ai/glm-4.6.description": "GLM 4.6は、Z.AIのフラッグシップモデルで、コンテキスト長とコーディング能力が強化されています。",
|
|
1089
|
-
"zai-glm-4.6.description": "コーディングおよび推論タスクで高い性能を発揮し、ストリーミングやツール呼び出しをサポート。エージェント型コーディングや複雑な推論に適しています。",
|
|
1090
1111
|
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Airは、Mixture-of-Expertsアーキテクチャを採用したエージェントアプリケーション向けのベースモデルです。ツール使用、Webブラウジング、ソフトウェア開発、フロントエンドコーディングに最適化されており、Claude CodeやRoo Codeなどのコードエージェントと統合可能です。ハイブリッド推論により、複雑な推論と日常的なシナリオの両方に対応します。",
|
|
1091
1112
|
"zai-org/GLM-4.5.description": "GLM-4.5は、Mixture-of-Expertsアーキテクチャを採用したエージェントアプリケーション向けのベースモデルで、ツール使用、Webブラウジング、ソフトウェア開発、フロントエンドコーディングに深く最適化されています。Claude CodeやRoo Codeなどのコードエージェントと統合可能で、ハイブリッド推論により複雑な推論と日常的なシナリオの両方に対応します。",
|
|
1092
1113
|
"zai-org/GLM-4.5V.description": "GLM-4.5Vは、GLM-4.5-AirをベースにしたZhipu AIの最新VLMで、106B総パラメータ(12Bアクティブ)のMoEアーキテクチャを採用し、低コストで高性能を実現しています。GLM-4.1V-Thinkingの系譜を継承し、3D-RoPEにより3D空間推論を強化。事前学習、SFT、RLを通じて最適化され、画像、動画、長文文書を処理可能。41の公開マルチモーダルベンチマークでトップクラスの評価を獲得。Thinkingモードの切り替えにより、速度と深さのバランスを調整可能です。",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "InternLMは、大規模モデルの研究とツール開発に特化したオープンソース組織で、最先端のモデルとアルゴリズムを誰でも使いやすく提供します。",
|
|
30
30
|
"jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
|
|
31
31
|
"lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud は、公式 API を使用して AI モデルにアクセスし、モデルのトークンに基づいたクレジットで使用量を測定します。",
|
|
33
32
|
"minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
|
|
34
33
|
"mistral.description": "Mistralは、複雑な推論、多言語タスク、コード生成に対応した高度な汎用・専門・研究モデルを提供し、関数呼び出しによるカスタム統合も可能です。",
|
|
35
34
|
"modelscope.description": "ModelScopeは、Alibaba Cloudが提供するモデル・アズ・ア・サービス(MaaS)プラットフォームで、幅広いAIモデルと推論サービスを提供します。",
|
|
@@ -34,11 +34,20 @@
|
|
|
34
34
|
"agentCronJobs.empty.description": "最初のスケジュールタスクを作成してエージェントを自動化しましょう",
|
|
35
35
|
"agentCronJobs.empty.title": "スケジュールタスクがありません",
|
|
36
36
|
"agentCronJobs.enable": "有効化",
|
|
37
|
+
"agentCronJobs.form.at": "指定時刻",
|
|
37
38
|
"agentCronJobs.form.content.placeholder": "エージェントへのプロンプトまたは指示を入力してください",
|
|
39
|
+
"agentCronJobs.form.every": "毎",
|
|
40
|
+
"agentCronJobs.form.frequency": "頻度",
|
|
41
|
+
"agentCronJobs.form.hours": "時間ごと",
|
|
42
|
+
"agentCronJobs.form.maxExecutions": "最大実行回数",
|
|
38
43
|
"agentCronJobs.form.maxExecutions.placeholder": "無制限にするには空欄のままにしてください",
|
|
39
44
|
"agentCronJobs.form.name.placeholder": "タスク名を入力してください",
|
|
45
|
+
"agentCronJobs.form.time": "時刻",
|
|
40
46
|
"agentCronJobs.form.timeRange.end": "終了時間",
|
|
41
47
|
"agentCronJobs.form.timeRange.start": "開始時間",
|
|
48
|
+
"agentCronJobs.form.times": "回",
|
|
49
|
+
"agentCronJobs.form.timezone": "タイムゾーン",
|
|
50
|
+
"agentCronJobs.form.unlimited": "継続的に実行",
|
|
42
51
|
"agentCronJobs.form.validation.contentRequired": "タスク内容は必須です",
|
|
43
52
|
"agentCronJobs.form.validation.invalidTimeRange": "開始時間は終了時間より前でなければなりません",
|
|
44
53
|
"agentCronJobs.form.validation.nameRequired": "タスク名は必須です",
|
|
@@ -83,6 +92,13 @@
|
|
|
83
92
|
"agentCronJobs.weekday.tuesday": "火曜日",
|
|
84
93
|
"agentCronJobs.weekday.wednesday": "水曜日",
|
|
85
94
|
"agentCronJobs.weekdays": "平日",
|
|
95
|
+
"agentCronJobs.weekdays.fri": "金",
|
|
96
|
+
"agentCronJobs.weekdays.mon": "月",
|
|
97
|
+
"agentCronJobs.weekdays.sat": "土",
|
|
98
|
+
"agentCronJobs.weekdays.sun": "日",
|
|
99
|
+
"agentCronJobs.weekdays.thu": "木",
|
|
100
|
+
"agentCronJobs.weekdays.tue": "火",
|
|
101
|
+
"agentCronJobs.weekdays.wed": "水",
|
|
86
102
|
"agentInfoDescription.basic.avatar": "アバター",
|
|
87
103
|
"agentInfoDescription.basic.description": "説明",
|
|
88
104
|
"agentInfoDescription.basic.name": "名前",
|
|
@@ -8,6 +8,7 @@
|
|
|
8
8
|
"codes.DELETED_ACCOUNT_EMAIL": "이 이메일은 삭제된 계정과 연결되어 있어 회원가입에 사용할 수 없습니다",
|
|
9
9
|
"codes.EMAIL_CAN_NOT_BE_UPDATED": "현재 계정의 이메일은 수정할 수 없습니다",
|
|
10
10
|
"codes.EMAIL_NOT_ALLOWED": "이 이메일은 회원가입에 사용할 수 없습니다",
|
|
11
|
+
"codes.EMAIL_NOT_FOUND": "이 계정에 연결된 이메일이 없습니다. 계정에 이메일이 등록되어 있는지 확인해 주세요.",
|
|
11
12
|
"codes.EMAIL_NOT_VERIFIED": "이메일 인증을 먼저 완료해 주세요",
|
|
12
13
|
"codes.FAILED_TO_CREATE_SESSION": "세션 생성에 실패했습니다",
|
|
13
14
|
"codes.FAILED_TO_CREATE_USER": "사용자 생성에 실패했습니다",
|