@lobehub/lobehub 2.0.0-next.265 → 2.0.0-next.266
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/chat.json +1 -0
- package/locales/ar/modelProvider.json +20 -0
- package/locales/ar/models.json +33 -10
- package/locales/ar/plugin.json +1 -0
- package/locales/ar/providers.json +1 -0
- package/locales/ar/setting.json +2 -0
- package/locales/bg-BG/chat.json +1 -0
- package/locales/bg-BG/modelProvider.json +20 -0
- package/locales/bg-BG/models.json +27 -7
- package/locales/bg-BG/plugin.json +1 -0
- package/locales/bg-BG/providers.json +1 -0
- package/locales/bg-BG/setting.json +2 -0
- package/locales/de-DE/chat.json +1 -0
- package/locales/de-DE/modelProvider.json +20 -0
- package/locales/de-DE/models.json +44 -10
- package/locales/de-DE/plugin.json +1 -0
- package/locales/de-DE/providers.json +1 -0
- package/locales/de-DE/setting.json +2 -0
- package/locales/en-US/chat.json +1 -0
- package/locales/en-US/modelProvider.json +20 -0
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/providers.json +1 -0
- package/locales/en-US/setting.json +2 -1
- package/locales/es-ES/chat.json +1 -0
- package/locales/es-ES/modelProvider.json +20 -0
- package/locales/es-ES/models.json +53 -10
- package/locales/es-ES/plugin.json +1 -0
- package/locales/es-ES/providers.json +1 -0
- package/locales/es-ES/setting.json +2 -0
- package/locales/fa-IR/chat.json +1 -0
- package/locales/fa-IR/modelProvider.json +20 -0
- package/locales/fa-IR/models.json +33 -10
- package/locales/fa-IR/plugin.json +1 -0
- package/locales/fa-IR/providers.json +1 -0
- package/locales/fa-IR/setting.json +2 -0
- package/locales/fr-FR/chat.json +1 -0
- package/locales/fr-FR/modelProvider.json +20 -0
- package/locales/fr-FR/models.json +27 -7
- package/locales/fr-FR/plugin.json +1 -0
- package/locales/fr-FR/providers.json +1 -0
- package/locales/fr-FR/setting.json +2 -0
- package/locales/it-IT/chat.json +1 -0
- package/locales/it-IT/modelProvider.json +20 -0
- package/locales/it-IT/models.json +10 -10
- package/locales/it-IT/plugin.json +1 -0
- package/locales/it-IT/providers.json +1 -0
- package/locales/it-IT/setting.json +2 -0
- package/locales/ja-JP/chat.json +1 -0
- package/locales/ja-JP/modelProvider.json +20 -0
- package/locales/ja-JP/models.json +5 -10
- package/locales/ja-JP/plugin.json +1 -0
- package/locales/ja-JP/providers.json +1 -0
- package/locales/ja-JP/setting.json +2 -0
- package/locales/ko-KR/chat.json +1 -0
- package/locales/ko-KR/modelProvider.json +20 -0
- package/locales/ko-KR/models.json +36 -10
- package/locales/ko-KR/plugin.json +1 -0
- package/locales/ko-KR/providers.json +1 -0
- package/locales/ko-KR/setting.json +2 -0
- package/locales/nl-NL/chat.json +1 -0
- package/locales/nl-NL/modelProvider.json +20 -0
- package/locales/nl-NL/models.json +35 -4
- package/locales/nl-NL/plugin.json +1 -0
- package/locales/nl-NL/providers.json +1 -0
- package/locales/nl-NL/setting.json +2 -0
- package/locales/pl-PL/chat.json +1 -0
- package/locales/pl-PL/modelProvider.json +20 -0
- package/locales/pl-PL/models.json +37 -7
- package/locales/pl-PL/plugin.json +1 -0
- package/locales/pl-PL/providers.json +1 -0
- package/locales/pl-PL/setting.json +2 -0
- package/locales/pt-BR/chat.json +1 -0
- package/locales/pt-BR/modelProvider.json +20 -0
- package/locales/pt-BR/models.json +51 -9
- package/locales/pt-BR/plugin.json +1 -0
- package/locales/pt-BR/providers.json +1 -0
- package/locales/pt-BR/setting.json +2 -0
- package/locales/ru-RU/chat.json +1 -0
- package/locales/ru-RU/modelProvider.json +20 -0
- package/locales/ru-RU/models.json +48 -7
- package/locales/ru-RU/plugin.json +1 -0
- package/locales/ru-RU/providers.json +1 -0
- package/locales/ru-RU/setting.json +2 -0
- package/locales/tr-TR/chat.json +1 -0
- package/locales/tr-TR/modelProvider.json +20 -0
- package/locales/tr-TR/models.json +48 -7
- package/locales/tr-TR/plugin.json +1 -0
- package/locales/tr-TR/providers.json +1 -0
- package/locales/tr-TR/setting.json +2 -0
- package/locales/vi-VN/chat.json +1 -0
- package/locales/vi-VN/modelProvider.json +20 -0
- package/locales/vi-VN/models.json +5 -5
- package/locales/vi-VN/plugin.json +1 -0
- package/locales/vi-VN/providers.json +1 -0
- package/locales/vi-VN/setting.json +2 -0
- package/locales/zh-CN/modelProvider.json +20 -20
- package/locales/zh-CN/models.json +49 -8
- package/locales/zh-CN/providers.json +1 -0
- package/locales/zh-CN/setting.json +2 -1
- package/locales/zh-TW/chat.json +1 -0
- package/locales/zh-TW/modelProvider.json +20 -0
- package/locales/zh-TW/models.json +29 -10
- package/locales/zh-TW/plugin.json +1 -0
- package/locales/zh-TW/providers.json +1 -0
- package/locales/zh-TW/setting.json +2 -0
- package/package.json +1 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Body.tsx +1 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Cron/CronTopicGroup.tsx +84 -0
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/CronTopicItem.tsx +1 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/index.tsx +23 -33
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/Item/Editing.tsx +12 -49
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/index.tsx +3 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Editing.tsx +12 -40
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/hooks/useTopicNavigation.ts +5 -1
- package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobCards.tsx +1 -1
- package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobForm.tsx +1 -1
- package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/AvailableAgentList.tsx +0 -1
- package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/index.tsx +5 -1
- package/src/components/InlineRename/index.tsx +121 -0
- package/src/features/NavPanel/components/NavItem.tsx +1 -1
- package/src/locales/default/setting.ts +2 -0
- package/src/store/agent/slices/cron/action.ts +108 -0
- package/src/store/agent/slices/cron/index.ts +1 -0
- package/src/store/agent/store.ts +3 -0
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/CronTopicList/CronTopicGroup.tsx +0 -74
- package/src/app/[variants]/(main)/group/features/ChangelogModal.tsx +0 -11
- package/src/hooks/useFetchCronTopicsWithJobInfo.ts +0 -56
package/locales/tr-TR/chat.json
CHANGED
|
@@ -63,6 +63,7 @@
|
|
|
63
63
|
"extendParams.reasoningEffort.title": "Düşünme Yoğunluğu",
|
|
64
64
|
"extendParams.textVerbosity.title": "Çıktı Metni Ayrıntı Düzeyi",
|
|
65
65
|
"extendParams.thinking.title": "Derin Düşünme Anahtarı",
|
|
66
|
+
"extendParams.thinkingBudget.title": "Düşünme Bütçesi",
|
|
66
67
|
"extendParams.thinkingLevel.title": "Düşünme Seviyesi",
|
|
67
68
|
"extendParams.title": "Model Genişletme Özellikleri",
|
|
68
69
|
"extendParams.urlContext.desc": "Etkinleştirildiğinde, web bağlantıları otomatik olarak çözülerek gerçek sayfa içeriği alınır",
|
|
@@ -194,6 +194,26 @@
|
|
|
194
194
|
"providerModels.item.modelConfig.deployName.title": "Model Dağıtım Adı",
|
|
195
195
|
"providerModels.item.modelConfig.displayName.placeholder": "Modelin görünen adını girin, örn. ChatGPT, GPT-4 vb.",
|
|
196
196
|
"providerModels.item.modelConfig.displayName.title": "Model Görünen Adı",
|
|
197
|
+
"providerModels.item.modelConfig.extendParams.extra": "Model tarafından desteklenen gelişmiş parametreleri seçin. Kontrolleri önizlemek için bir seçeneğin üzerine gelin. Hatalı yapılandırmalar istek hatalarına neden olabilir.",
|
|
198
|
+
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Claude modelleri için; maliyeti azaltabilir ve yanıtları hızlandırabilir.",
|
|
199
|
+
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Claude, DeepSeek ve diğer akıl yürütme modelleri için; daha derin düşünmeyi etkinleştirir.",
|
|
200
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "GPT-5 serisi için; akıl yürütme yoğunluğunu kontrol eder.",
|
|
201
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "GPT-5.1 serisi için; akıl yürütme yoğunluğunu kontrol eder.",
|
|
202
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "GPT-5.2 Pro serisi için; akıl yürütme yoğunluğunu kontrol eder.",
|
|
203
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "GPT-5.2 serisi için; akıl yürütme yoğunluğunu kontrol eder.",
|
|
204
|
+
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Gemini görsel üretim modelleri için; oluşturulan görsellerin en-boy oranını kontrol eder.",
|
|
205
|
+
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Gemini 3 görsel üretim modelleri için; oluşturulan görsellerin çözünürlüğünü kontrol eder.",
|
|
206
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Claude, Qwen3 ve benzeri modeller için; akıl yürütme için ayrılan token bütçesini kontrol eder.",
|
|
207
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "OpenAI ve akıl yürütme yeteneğine sahip diğer modeller için; akıl yürütme çabasını kontrol eder.",
|
|
208
|
+
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "GPT-5+ serisi için; çıktıdaki ayrıntı düzeyini kontrol eder.",
|
|
209
|
+
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "Bazı Doubao modelleri için; modelin derin düşünme gerekip gerekmediğine karar vermesine izin verir.",
|
|
210
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Gemini serisi için; düşünme bütçesini kontrol eder.",
|
|
211
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Gemini 3 Flash Önizleme modelleri için; düşünme derinliğini kontrol eder.",
|
|
212
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Gemini 3 Pro Önizleme modelleri için; düşünme derinliğini kontrol eder.",
|
|
213
|
+
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Gemini serisi için; URL bağlamı sağlamayı destekler.",
|
|
214
|
+
"providerModels.item.modelConfig.extendParams.placeholder": "Etkinleştirilecek gelişmiş parametreleri seçin",
|
|
215
|
+
"providerModels.item.modelConfig.extendParams.previewFallback": "Önizleme kullanılamıyor",
|
|
216
|
+
"providerModels.item.modelConfig.extendParams.title": "Gelişmiş Parametreler",
|
|
197
217
|
"providerModels.item.modelConfig.files.extra": "Mevcut dosya yükleme uygulaması geçici bir çözümdür, yalnızca kişisel denemeler için uygundur. Gelecekteki sürümlerde tam dosya yükleme desteği gelecektir.",
|
|
198
218
|
"providerModels.item.modelConfig.files.title": "Dosya Yükleme Desteği",
|
|
199
219
|
"providerModels.item.modelConfig.functionCall.extra": "Bu yapılandırma yalnızca modelin araç kullanma yeteneğini etkinleştirir. Ancak modelin araçları gerçekten kullanıp kullanamayacağı tamamen modele bağlıdır; lütfen kendiniz test edin.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o, gerçek zamanlı olarak güncellenen dinamik bir modeldir. Müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştirir.",
|
|
272
272
|
"claude-2.0.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
|
|
273
273
|
"claude-2.1.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic'in en hızlı yeni nesil
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic'in en hızlı yeni nesil modeli olup, yeteneklerde gelişme sağlar ve birçok ölçüt açısından önceki amiral gemisi Claude 3 Opus'u geride bırakır.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku, hafif görevler için hızlı yanıtlar sunar.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7, Anthropic'in en zeki modeli olup, pazardaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar veya ayrıntılı düşünme süreçleri için ince ayarlı kontrol sunar.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku, Anthropic’in en hızlı ve en kompakt modelidir; anında yanıtlar için hızlı ve doğru performans sunar.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus, karmaşık görevler için Anthropic’in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet, kurumsal iş yükleri için zeka ve hızı dengeler; düşük maliyetle yüksek fayda ve güvenilir büyük ölçekli dağıtım sunar.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en zeki Haiku modelidir; yıldırım hızında çalışır ve derinlemesine düşünme yeteneğine sahiptir.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking, akıl yürütme sürecini görünür şekilde ortaya koyabilen gelişmiş bir varyanttır.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4, Anthropic'in en güçlü modelidir;
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4, karmaşık görevler için Anthropic'in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstünlük sağlar.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5, Anthropic’in amiral gemisi modelidir; olağanüstü zeka ile ölçeklenebilir performansı birleştirir. En yüksek kaliteli yanıtlar ve akıl yürütme gerektiren karmaşık görevler için idealdir.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking, anında yanıtlar veya adım adım düşünme süreçleri üretebilir.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4, anında yanıtlar veya adım adım düşünme
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4, Anthropic'in bugüne kadarki en zeki modelidir. API kullanıcıları için ince ayarlı kontrolle anında yanıtlar veya adım adım düşünme sunar.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic’in bugüne kadarki en zeki modelidir.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4, geliştirici verimliliğini artırmak için çok dilli Soru-Cevap ve kod tamamlama desteği sunan güçlü bir yapay zeka kodlama asistanıdır.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B, çok dilli kod üretimi, kod tamamlama, yorumlama, web arama, fonksiyon çağırma ve depo düzeyinde kod Soru-Cevap gibi geniş yazılım geliştirme senaryolarını kapsayan bir modeldir. 10B parametrenin altındaki en üst düzey kod modellerinden biridir.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2, DeepSeekMoE-27B tabanlı, seyrek etkinleştirme kullanan bir MoE görsel-dil modelidir. Sadece 4.5B aktif parametreyle güçlü performans sunar. Görsel Soru-Cevap, OCR, belge/tablo/grafik anlama ve görsel eşleme konularında öne çıkar.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2, günlük Soru-Cevap ve ajan görevleri için akıl yürütme ve çıktı uzunluğu arasında denge kurar. Kamuya açık ölçütlerde GPT-5 seviyelerine ulaşır ve araç kullanımına düşünmeyi entegre eden ilk modeldir. Açık kaynaklı ajan değerlendirmelerinde öne çıkar.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B, 2T token (%%87 kod, %%13 Çince/İngilizce metin) ile eğitilmiş bir kodlama dil modelidir. 16K bağlam penceresi ve ortadan doldurma görevleri sunar; proje düzeyinde kod tamamlama ve kod parçacığı doldurma sağlar.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Gerçek zamanlı web aramasıyla 671B ölçekli yetenek ve hızlı yanıtları birleştiren DeepSeek R1 hızlı tam sürüm.",
|
|
379
379
|
"deepseek-r1-online.description": "671B parametreli ve gerçek zamanlı web aramasına sahip DeepSeek R1 tam sürüm; güçlü anlama ve üretim sunar.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1, RL öncesi soğuk başlangıç verileri kullanır ve matematik, kodlama ve akıl yürütmede OpenAI-o1 ile karşılaştırılabilir performans sunar.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking, çıktılardan önce düşünce zinciri oluşturarak daha yüksek doğruluk sağlayan derin akıl yürütme modelidir. En iyi yarışma sonuçlarına sahiptir ve akıl yürütme yeteneği Gemini-3.0-Pro ile karşılaştırılabilir düzeydedir.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2, maliyet etkin işlem için verimli bir MoE modelidir.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B, güçlü kod üretimi sunan DeepSeek’in kod odaklı modelidir.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324, programlama ve teknik yetenek, bağlam anlama ve uzun metin işleme konularında öne çıkan 671B parametreli bir MoE modelidir.",
|
|
@@ -471,6 +471,47 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K, basit QA, sınıflandırma ve düşük maliyetli çıkarım için ultra hafif bir modeldir.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K, karmaşık akıl yürütme ve çoklu dönüşlü sohbetler için 32K bağlamlı hızlı düşünme modelidir.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Önizleme, değerlendirme ve test için bir düşünme modeli önizlemesidir.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "ByteDance Seed tarafından geliştirilen Seedream 4.0, metin ve görsel girdileri destekleyerek istemlerden yüksek kaliteli ve kontrol edilebilir görseller üretir.",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "FLUX.1 modeli, metin ve görsel girdileri destekleyen görsel düzenleme odaklı bir modeldir.",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro], metin ve referans görselleri girdi olarak alarak hedefe yönelik yerel düzenlemeler ve karmaşık sahne dönüşümleri sağlar.",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev], daha gerçekçi ve doğal görseller üretmeye eğilimli estetik önyargıya sahip bir görsel üretim modelidir.",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell], hızlı ve yüksek kaliteli çıktı için tasarlanmış 12 milyar parametreli bir görsel üretim modelidir.",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "Güçlü bir yerel çok modlu görsel üretim modelidir.",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "Google tarafından geliştirilen yüksek kaliteli görsel üretim modeli.",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma yoluyla görsel üretim ve düzenleme sağlar.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Qwen ekibi tarafından geliştirilen profesyonel bir görsel düzenleme modelidir. Anlamsal ve görünüm düzenlemeleri, hassas Çince/İngilizce metin düzenleme, stil aktarımı, döndürme ve daha fazlasını destekler.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Qwen ekibinden güçlü bir görsel üretim modeli; Çince metin işleme ve çeşitli görsel stillerde başarılıdır.",
|
|
484
|
+
"flux-1-schnell.description": "Black Forest Labs tarafından geliştirilen 12 milyar parametreli metinden görsele model. Latent adversarial diffusion distillation yöntemiyle 1-4 adımda yüksek kaliteli görseller üretir. Kapalı kaynaklı alternatiflerle rekabet eder ve kişisel, araştırma ve ticari kullanım için Apache-2.0 lisansı ile sunulur.",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [dev], açık ağırlıklı ve ticari olmayan kullanım için damıtılmış bir modeldir. Neredeyse profesyonel görsel kalitesini ve yönerge takibini korurken daha verimli çalışır ve aynı boyuttaki standart modellere göre kaynakları daha iyi kullanır.",
|
|
486
|
+
"flux-kontext-max.description": "Metin ve görselleri birleştirerek hassas ve tutarlı sonuçlar sunan son teknoloji bağlamsal görsel üretim ve düzenleme.",
|
|
487
|
+
"flux-kontext-pro.description": "Metin ve görselleri birleştirerek hassas ve tutarlı sonuçlar sunan son teknoloji bağlamsal görsel üretim ve düzenleme.",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged, \"DEV\" sürümündeki derin özellikleri \"Schnell\" sürümünün yüksek hız avantajlarıyla birleştirerek performans sınırlarını genişletir ve uygulama alanlarını artırır.",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "10 saniyede net 4MP çözünürlükte ultra yüksek çözünürlüklü görsel üretimi.",
|
|
490
|
+
"flux-pro-1.1.description": "Mükemmel görsel kalitesi ve hassas istem uyumu sunan yükseltilmiş profesyonel seviye görsel üretim modeli.",
|
|
491
|
+
"flux-pro.description": "Eşsiz görsel kalitesi ve çeşitli çıktılar sunan üst düzey ticari görsel üretim modeli.",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell], en gelişmiş açık kaynaklı az adımlı modeldir. Midjourney v6.0 ve DALL-E 3 (HD) gibi güçlü damıtılmamış modelleri bile geride bırakır. Ön eğitim çeşitliliğini koruyacak şekilde hassas ayarlanmıştır ve görsel kalite, yönerge takibi, boyut/oran çeşitliliği, yazı tipi işleme ve çıktı çeşitliliğinde önemli gelişmeler sağlar.",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell, hızlı çok stilli çıktılar için yüksek performanslı bir görsel üretim modelidir.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Ayarlı), karmaşık görevler için istikrarlı ve ayarlanabilir performans sunar.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Ayarlı), karmaşık görevler için güçlü çok modlu destek sağlar.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro, geniş görev ölçeklendirmesi için tasarlanmış Google’ın yüksek performanslı yapay zeka modelidir.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001, geniş uygulama ölçeklendirmesi için verimli bir çok modlu modeldir.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002, geniş dağıtım için tasarlanmış verimli bir çok modlu modeldir.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924, metin ve çok modlu kullanım senaryolarında önemli kazanımlar sağlayan en yeni deneysel modeldir.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B, geniş dağıtım için tasarlanmış verimli bir çok modlu modeldir.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B, geniş uygulama ölçeklendirmesi için verimli bir çok modlu modeldir.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827, karmaşık görevler için optimize edilmiş çok modlu işlem sunar.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash, Google’ın en yeni çok modlu yapay zeka modelidir. Metin, görsel ve video girdilerini destekleyerek görevler arasında verimli ölçeklendirme sağlar.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001, karmaşık görevler için ölçeklenebilir çok modlu yapay zeka çözümüdür.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002, özellikle matematik, uzun bağlam ve görsel görevlerde daha yüksek kaliteli çıktı sunan en yeni üretime hazır modeldir.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801, uygulama geliştirme için daha fazla esneklikle güçlü çok modlu işlem sunar.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827, daha verimli çok modlu işlem için en son optimizasyonları uygular.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro, 2 milyon token'a kadar destek sunar ve karmaşık görevler için ideal orta boyutlu çok modlu modeldir.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash, olağanüstü hız, yerel araç kullanımı, çok modlu üretim ve 1M-token bağlam penceresi gibi yeni nesil özellikler sunar.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "Görsel üretim desteği sunan deneysel Gemini 2.0 Flash modeli.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "Maliyet verimliliği ve düşük gecikme için optimize edilmiş bir Gemini 2.0 Flash varyantı.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "Maliyet verimliliği ve düşük gecikme için optimize edilmiş bir Gemini 2.0 Flash varyantı.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "Maliyet verimliliği ve düşük gecikme için optimize edilmiş bir Gemini 2.0 Flash varyantı.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash, olağanüstü hız, yerel araç kullanımı, çok modlu üretim ve 1M-token bağlam penceresi gibi yeni nesil özellikler sunar.",
|
|
474
515
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modeli (LLM) olup, üretken yapay zeka fikirlerini oluşturma, deneme ve sorumlu bir şekilde ölçeklendirme süreçlerinde yardımcı olmak üzere tasarlanmıştır. Küresel topluluk inovasyonunun temel taşlarından biri olarak, sınırlı bilgi işlem gücü ve kaynaklara sahip ortamlar, uç cihazlar ve daha hızlı eğitim süreleri için uygundur.",
|
|
475
516
|
"mistral-small-latest.description": "Mistral Small, çeviri, özetleme ve duygu analizi için uygun maliyetli, hızlı ve güvenilir bir seçenektir.",
|
|
476
517
|
"mistral-small.description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her türlü dil tabanlı görev için uygundur.",
|
|
@@ -92,6 +92,7 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "Sonuç yok",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "Yerel Sistem",
|
|
95
|
+
"builtins.lobe-notebook.actions.collapse": "Daralt",
|
|
95
96
|
"builtins.lobe-notebook.actions.copy": "Kopyala",
|
|
96
97
|
"builtins.lobe-notebook.actions.creating": "Belge oluşturuluyor...",
|
|
97
98
|
"builtins.lobe-notebook.actions.edit": "Düzenle",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Büyük model araştırmaları ve araçları üzerine odaklanan açık kaynaklı bir organizasyon. En son modelleri ve algoritmaları erişilebilir kılan verimli ve kullanıcı dostu bir platform sağlar.",
|
|
30
30
|
"jina.description": "2020 yılında kurulan Jina AI, önde gelen bir arama yapay zekası şirketidir. Vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içeren arama yığını ile güvenilir ve yüksek kaliteli üretken ve çok modlu arama uygulamaları geliştirir.",
|
|
31
31
|
"lmstudio.description": "LM Studio, bilgisayarınızda büyük dil modelleriyle geliştirme ve denemeler yapmanızı sağlayan bir masaüstü uygulamasıdır.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud, yapay zeka modellerine erişmek için resmi API'leri kullanır ve kullanım miktarını model jetonlarına bağlı Krediler ile ölçer.",
|
|
32
33
|
"minimax.description": "2021 yılında kurulan MiniMax, çok modlu temel modellerle genel amaçlı yapay zeka geliştirir. Trilyon parametreli MoE metin modelleri, ses ve görsel modellerin yanı sıra Hailuo AI gibi uygulamalar sunar.",
|
|
33
34
|
"mistral.description": "Mistral, karmaşık akıl yürütme, çok dilli görevler ve kod üretimi için gelişmiş genel, özel ve araştırma modelleri sunar. Özelleştirilmiş entegrasyonlar için işlev çağrısını destekler.",
|
|
34
35
|
"modelscope.description": "ModelScope, Alibaba Cloud’un model-hizmet olarak sunduğu platformudur. Geniş bir yapay zeka modeli ve çıkarım hizmeti yelpazesi sunar.",
|
|
@@ -33,6 +33,7 @@
|
|
|
33
33
|
"agentCronJobs.maxExecutions": "Maksimum Çalıştırma",
|
|
34
34
|
"agentCronJobs.name": "Görev Adı",
|
|
35
35
|
"agentCronJobs.never": "Hiçbir Zaman",
|
|
36
|
+
"agentCronJobs.noExecutionResults": "Çalıştırma sonucu yok",
|
|
36
37
|
"agentCronJobs.remainingExecutions": "Kalan: {{count}}",
|
|
37
38
|
"agentCronJobs.save": "Kaydet",
|
|
38
39
|
"agentCronJobs.schedule": "Zamanla",
|
|
@@ -42,6 +43,7 @@
|
|
|
42
43
|
"agentCronJobs.timeRange": "Zaman Aralığı",
|
|
43
44
|
"agentCronJobs.title": "Zamanlanmış Görevler",
|
|
44
45
|
"agentCronJobs.unlimited": "Sınırsız",
|
|
46
|
+
"agentCronJobs.unnamedTask": "İsimsiz Görev",
|
|
45
47
|
"agentCronJobs.updateSuccess": "Zamanlanmış görev başarıyla güncellendi",
|
|
46
48
|
"agentCronJobs.weekdays": "Haftaiçi Günleri",
|
|
47
49
|
"agentInfoDescription.basic.avatar": "Avatar",
|
package/locales/vi-VN/chat.json
CHANGED
|
@@ -63,6 +63,7 @@
|
|
|
63
63
|
"extendParams.reasoningEffort.title": "Cường độ suy nghĩ",
|
|
64
64
|
"extendParams.textVerbosity.title": "Mức độ chi tiết văn bản đầu ra",
|
|
65
65
|
"extendParams.thinking.title": "Công tắc Suy nghĩ sâu",
|
|
66
|
+
"extendParams.thinkingBudget.title": "Ngân sách Dự tính",
|
|
66
67
|
"extendParams.thinkingLevel.title": "Mức độ suy nghĩ",
|
|
67
68
|
"extendParams.title": "Tính năng mở rộng mô hình",
|
|
68
69
|
"extendParams.urlContext.desc": "Khi bật, các liên kết web sẽ được tự động phân tích để lấy nội dung thực tế của trang",
|
|
@@ -194,6 +194,26 @@
|
|
|
194
194
|
"providerModels.item.modelConfig.deployName.title": "Tên triển khai mô hình",
|
|
195
195
|
"providerModels.item.modelConfig.displayName.placeholder": "Vui lòng nhập tên hiển thị của mô hình, ví dụ: ChatGPT, GPT-4, v.v.",
|
|
196
196
|
"providerModels.item.modelConfig.displayName.title": "Tên hiển thị mô hình",
|
|
197
|
+
"providerModels.item.modelConfig.extendParams.extra": "Chọn các tham số mở rộng được hỗ trợ bởi mô hình. Di chuột vào một tùy chọn để xem trước điều khiển. Cấu hình sai có thể khiến yêu cầu thất bại.",
|
|
198
|
+
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Dành cho các mô hình Claude; có thể giảm chi phí và tăng tốc độ phản hồi.",
|
|
199
|
+
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Dành cho Claude, DeepSeek và các mô hình suy luận khác; mở khóa khả năng tư duy sâu hơn.",
|
|
200
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Dành cho dòng GPT-5; điều chỉnh cường độ suy luận.",
|
|
201
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Dành cho dòng GPT-5.1; điều chỉnh cường độ suy luận.",
|
|
202
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "Dành cho dòng GPT-5.2 Pro; điều chỉnh cường độ suy luận.",
|
|
203
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "Dành cho dòng GPT-5.2; điều chỉnh cường độ suy luận.",
|
|
204
|
+
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Dành cho các mô hình tạo ảnh Gemini; điều chỉnh tỷ lệ khung hình của ảnh được tạo.",
|
|
205
|
+
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Dành cho các mô hình tạo ảnh Gemini 3; điều chỉnh độ phân giải của ảnh được tạo.",
|
|
206
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Dành cho Claude, Qwen3 và các mô hình tương tự; điều chỉnh ngân sách token cho suy luận.",
|
|
207
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "Dành cho OpenAI và các mô hình có khả năng suy luận khác; điều chỉnh mức độ suy luận.",
|
|
208
|
+
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "Dành cho dòng GPT-5+; điều chỉnh độ dài và chi tiết của đầu ra.",
|
|
209
|
+
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "Dành cho một số mô hình Doubao; cho phép mô hình quyết định có nên suy nghĩ sâu hay không.",
|
|
210
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Dành cho dòng Gemini; điều chỉnh ngân sách suy nghĩ.",
|
|
211
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Dành cho các mô hình Gemini 3 Flash Preview; điều chỉnh độ sâu suy nghĩ.",
|
|
212
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Dành cho các mô hình Gemini 3 Pro Preview; điều chỉnh độ sâu suy nghĩ.",
|
|
213
|
+
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Dành cho dòng Gemini; hỗ trợ cung cấp ngữ cảnh từ URL.",
|
|
214
|
+
"providerModels.item.modelConfig.extendParams.placeholder": "Chọn các tham số mở rộng để kích hoạt",
|
|
215
|
+
"providerModels.item.modelConfig.extendParams.previewFallback": "Không thể xem trước",
|
|
216
|
+
"providerModels.item.modelConfig.extendParams.title": "Tham Số Mở Rộng",
|
|
197
217
|
"providerModels.item.modelConfig.files.extra": "Việc tải tệp hiện tại chỉ là giải pháp tạm thời, chỉ dùng cho thử nghiệm cá nhân. Vui lòng chờ tính năng tải tệp đầy đủ trong các bản cập nhật sau.",
|
|
198
218
|
"providerModels.item.modelConfig.files.title": "Hỗ trợ tải tệp",
|
|
199
219
|
"providerModels.item.modelConfig.functionCall.extra": "Cấu hình này chỉ bật khả năng sử dụng công cụ của mô hình, cho phép thêm kỹ năng dạng công cụ. Tuy nhiên, việc mô hình có thực sự sử dụng được công cụ hay không phụ thuộc hoàn toàn vào chính mô hình; vui lòng tự kiểm tra.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o là mô hình động được cập nhật theo thời gian thực, kết hợp khả năng hiểu và sinh văn bản mạnh mẽ cho các tình huống sử dụng quy mô lớn như hỗ trợ khách hàng, giáo dục và hỗ trợ kỹ thuật.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ mới nhanh nhất của Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ mới nhanh nhất của Anthropic, cải thiện toàn diện các kỹ năng và vượt qua mô hình hàng đầu trước đó Claude 3 Opus trên nhiều tiêu chuẩn đánh giá.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku cung cấp phản hồi nhanh cho các tác vụ nhẹ.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 là mô hình thông minh nhất của Anthropic và là mô hình lai đầu tiên trên thị trường có khả năng suy luận, hỗ trợ phản hồi gần như tức thì hoặc tư duy mở rộng với khả năng kiểm soát chi tiết.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế cho phản hồi gần như tức thì với hiệu suất nhanh và chính xác.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet cân bằng giữa trí tuệ và tốc độ cho khối lượng công việc doanh nghiệp, mang lại giá trị cao với chi phí thấp hơn và triển khai quy mô lớn đáng tin cậy.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic,
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, kết hợp tốc độ chớp nhoáng với khả năng tư duy sâu.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking là biến thể nâng cao có thể hiển thị quá trình suy luận của nó.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu ngôn ngữ.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 là mô hình hàng đầu của Anthropic, kết hợp trí tuệ vượt trội với hiệu suất có thể mở rộng, lý tưởng cho các tác vụ phức tạp đòi hỏi phản hồi và suy luận chất lượng cao nhất.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 là mô hình thông minh nhất của Anthropic tính đến hiện tại, cung cấp phản hồi gần như tức thì hoặc tư duy từng bước với khả năng kiểm soát chi tiết dành cho người dùng API.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic cho đến nay.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ hỗ trợ hỏi đáp đa ngôn ngữ và hoàn thành mã để tăng năng suất lập trình viên.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B là mô hình tạo mã đa ngôn ngữ hỗ trợ hoàn thành và sinh mã, thông dịch mã, tìm kiếm web, gọi hàm và hỏi đáp mã ở cấp độ kho lưu trữ, bao phủ nhiều tình huống phát triển phần mềm. Đây là mô hình mã hàng đầu dưới 10 tỷ tham số.",
|
|
@@ -92,6 +92,7 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "Không có kết quả",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "Hệ thống Cục bộ",
|
|
95
|
+
"builtins.lobe-notebook.actions.collapse": "Thu gọn",
|
|
95
96
|
"builtins.lobe-notebook.actions.copy": "Sao chép",
|
|
96
97
|
"builtins.lobe-notebook.actions.creating": "Đang tạo tài liệu...",
|
|
97
98
|
"builtins.lobe-notebook.actions.edit": "Chỉnh sửa",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Tổ chức mã nguồn mở tập trung vào nghiên cứu mô hình lớn và công cụ, cung cấp nền tảng hiệu quả, dễ sử dụng để tiếp cận các mô hình và thuật toán tiên tiến.",
|
|
30
30
|
"jina.description": "Thành lập năm 2020, Jina AI là công ty hàng đầu về AI tìm kiếm. Bộ công cụ tìm kiếm của họ bao gồm mô hình vector, bộ xếp hạng lại và mô hình ngôn ngữ nhỏ để xây dựng ứng dụng tìm kiếm sinh và đa phương thức chất lượng cao.",
|
|
31
31
|
"lmstudio.description": "LM Studio là ứng dụng máy tính để phát triển và thử nghiệm LLM ngay trên máy của bạn.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud sử dụng API chính thức để truy cập các mô hình AI và tính mức sử dụng bằng Tín dụng dựa trên số lượng token của mô hình.",
|
|
32
33
|
"minimax.description": "Thành lập năm 2021, MiniMax xây dựng AI đa năng với các mô hình nền tảng đa phương thức, bao gồm mô hình văn bản MoE hàng nghìn tỷ tham số, mô hình giọng nói và thị giác, cùng các ứng dụng như Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral cung cấp các mô hình tổng quát, chuyên biệt và nghiên cứu tiên tiến cho suy luận phức tạp, tác vụ đa ngôn ngữ và tạo mã, với khả năng gọi hàm cho tích hợp tùy chỉnh.",
|
|
34
35
|
"modelscope.description": "ModelScope là nền tảng mô hình dưới dạng dịch vụ của Alibaba Cloud, cung cấp nhiều mô hình AI và dịch vụ suy luận.",
|
|
@@ -33,6 +33,7 @@
|
|
|
33
33
|
"agentCronJobs.maxExecutions": "Số Lần Thực Thi Tối Đa",
|
|
34
34
|
"agentCronJobs.name": "Tên Tác Vụ",
|
|
35
35
|
"agentCronJobs.never": "Chưa Bao Giờ",
|
|
36
|
+
"agentCronJobs.noExecutionResults": "Không có kết quả thực thi",
|
|
36
37
|
"agentCronJobs.remainingExecutions": "Còn lại: {{count}}",
|
|
37
38
|
"agentCronJobs.save": "Lưu",
|
|
38
39
|
"agentCronJobs.schedule": "Lịch Trình",
|
|
@@ -42,6 +43,7 @@
|
|
|
42
43
|
"agentCronJobs.timeRange": "Khoảng Thời Gian",
|
|
43
44
|
"agentCronJobs.title": "Tác Vụ Định Kỳ",
|
|
44
45
|
"agentCronJobs.unlimited": "Không Giới Hạn",
|
|
46
|
+
"agentCronJobs.unnamedTask": "Tác vụ chưa đặt tên",
|
|
45
47
|
"agentCronJobs.updateSuccess": "Cập nhật tác vụ định kỳ thành công",
|
|
46
48
|
"agentCronJobs.weekdays": "Các Ngày Trong Tuần",
|
|
47
49
|
"agentInfoDescription.basic.avatar": "Ảnh đại diện",
|
|
@@ -194,26 +194,26 @@
|
|
|
194
194
|
"providerModels.item.modelConfig.deployName.title": "模型部署名称",
|
|
195
195
|
"providerModels.item.modelConfig.displayName.placeholder": "请输入模型的展示名称,例如 ChatGPT、GPT-4 等",
|
|
196
196
|
"providerModels.item.modelConfig.displayName.title": "模型展示名称",
|
|
197
|
-
"providerModels.item.modelConfig.extendParams.extra": "
|
|
198
|
-
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "适用于 Claude
|
|
199
|
-
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "适用于 Claude、DeepSeek
|
|
200
|
-
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "适用于 GPT-5
|
|
201
|
-
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "适用于 GPT-5.1
|
|
202
|
-
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "适用于 GPT-5.2 Pro
|
|
203
|
-
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "适用于 GPT-5.2
|
|
204
|
-
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "适用于 Gemini
|
|
205
|
-
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "适用于 Gemini 3
|
|
206
|
-
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "适用于 Claude、Qwen3
|
|
207
|
-
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "适用于 OpenAI
|
|
208
|
-
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "适用于 GPT-5
|
|
209
|
-
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "
|
|
210
|
-
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "适用于 Gemini
|
|
211
|
-
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "适用于 Gemini 3 Flash
|
|
212
|
-
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "适用于 Gemini 3 Pro
|
|
213
|
-
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "适用于 Gemini
|
|
214
|
-
"providerModels.item.modelConfig.extendParams.placeholder": "
|
|
215
|
-
"providerModels.item.modelConfig.extendParams.previewFallback": "
|
|
216
|
-
"providerModels.item.modelConfig.extendParams.title": "
|
|
197
|
+
"providerModels.item.modelConfig.extendParams.extra": "选择模型支持的扩展参数。将鼠标悬停在选项上可预览控制项。配置错误可能导致请求失败。",
|
|
198
|
+
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "适用于 Claude 模型;可降低成本并加快响应速度。",
|
|
199
|
+
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "适用于 Claude、DeepSeek 及其他推理模型;可启用更深层次的思考能力。",
|
|
200
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "适用于 GPT-5 系列;控制推理强度。",
|
|
201
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "适用于 GPT-5.1 系列;控制推理强度。",
|
|
202
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "适用于 GPT-5.2 Pro 系列;控制推理强度。",
|
|
203
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "适用于 GPT-5.2 系列;控制推理强度。",
|
|
204
|
+
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "适用于 Gemini 图像生成模型;控制生成图像的宽高比。",
|
|
205
|
+
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "适用于 Gemini 3 图像生成模型;控制生成图像的分辨率。",
|
|
206
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "适用于 Claude、Qwen3 等模型;控制用于推理的 Token 预算。",
|
|
207
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "适用于 OpenAI 及其他具备推理能力的模型;控制推理力度。",
|
|
208
|
+
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "适用于 GPT-5+ 系列;控制输出内容的详尽程度。",
|
|
209
|
+
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "适用于部分豆包模型;允许模型自行决定是否进行深度思考。",
|
|
210
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "适用于 Gemini 系列;控制思考预算。",
|
|
211
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "适用于 Gemini 3 Flash 预览模型;控制思考深度。",
|
|
212
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "适用于 Gemini 3 Pro 预览模型;控制思考深度。",
|
|
213
|
+
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "适用于 Gemini 系列;支持提供 URL 上下文。",
|
|
214
|
+
"providerModels.item.modelConfig.extendParams.placeholder": "选择要启用的扩展参数",
|
|
215
|
+
"providerModels.item.modelConfig.extendParams.previewFallback": "无法预览",
|
|
216
|
+
"providerModels.item.modelConfig.extendParams.title": "扩展参数",
|
|
217
217
|
"providerModels.item.modelConfig.files.extra": "当前文件上传实现仅为一种 Hack 方案,仅限自行尝试。完整文件上传能力请等待后续实现",
|
|
218
218
|
"providerModels.item.modelConfig.files.title": "支持文件上传",
|
|
219
219
|
"providerModels.item.modelConfig.functionCall.extra": "此配置将仅开启模型使用技能的能力,进而可以为模型添加技能。但是否支持真正使用技能完全取决于模型本身,请自行测试的可用性",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育和技术支持等大规模应用场景。",
|
|
272
272
|
"claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
|
|
273
273
|
"claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型,在多项技能上实现提升,并在多个基准测试中超越前旗舰 Claude 3 Opus。",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速响应,适用于轻量级任务。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智能的模型,也是市场上首个混合推理模型,支持近乎即时响应或细致的深度思考,具备精细控制能力。",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快且最智能的 Haiku 模型,兼具闪电般的速度与深度思考能力。",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今为止最智能的模型,支持近乎即时响应或逐步深入思考,API 用户可实现精细控制。",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是基于 DeepSeekMoE-27B 的 MoE 视觉语言模型,采用稀疏激活,仅使用 4.5B 激活参数即可实现强大性能。擅长视觉问答、OCR、文档/表格/图表理解和视觉定位。",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 在推理能力与输出长度之间实现平衡,适用于日常问答与智能体任务。在公开基准测试中达到 GPT-5 水平,并首创将思考过程融入工具使用,在开源智能体评估中表现领先。",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款代码语言模型,训练于 2T 数据(87% 代码,13% 中英文文本)。支持 16K 上下文窗口与中间填充任务,提供项目级代码补全与片段填充。",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版本,支持实时网页搜索,结合 671B 规模能力与更快响应。",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 全量版本,具备 671B 参数与实时网页搜索,提供更强理解与生成能力。",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 在强化学习前使用冷启动数据,在数学、编程和推理任务中表现可与 OpenAI-o1 相媲美。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking 是一款深度推理模型,在输出前生成思维链以提升准确性,在多个竞赛中取得优异成绩,其推理能力可媲美 Gemini-3.0-Pro。",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,适用于成本敏感型处理任务。",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 推出的代码专用模型,具备强大代码生成能力。",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款拥有 671B 参数的 MoE 模型,在编程与技术能力、上下文理解和长文本处理方面表现突出。",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超轻量模型,适用于简单问答、分类与低成本推理。",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具备 32K 上下文能力,适合复杂推理与多轮对话。",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview 是一款用于评估与测试的思考模型预览版。",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 由字节跳动 Seed 团队打造,支持文本与图像输入,可根据提示生成高质量、可控性强的图像。",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 模型专注于图像编辑,支持文本与图像输入。",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文本与参考图像输入,支持局部精准编辑与复杂全局场景变换。",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] 是一款图像生成模型,偏好更真实自然的美学风格。",
|
|
@@ -479,7 +479,7 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "一款强大的原生多模态图像生成模型。",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "来自 Google 的高质量图像生成模型。",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持通过对话生成与编辑图像。",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "Qwen
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Qwen 团队推出的专业图像编辑模型,支持语义与外观编辑、中英文文本精修、风格迁移、旋转等多种功能。",
|
|
483
483
|
"fal-ai/qwen-image.description": "Qwen 团队推出的强大图像生成模型,具备出色的中文文本渲染能力与多样化视觉风格。",
|
|
484
484
|
"flux-1-schnell.description": "来自 Black Forest Labs 的 120 亿参数文本转图像模型,采用潜在对抗扩散蒸馏技术,可在 1-4 步内生成高质量图像。性能媲美闭源模型,采用 Apache-2.0 许可,适用于个人、研究与商业用途。",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] 是一款开源权重蒸馏模型,仅限非商业用途。保持接近专业图像质量与指令遵循能力,同时运行更高效,资源利用优于同等规模标准模型。",
|
|
@@ -533,6 +533,47 @@
|
|
|
533
533
|
"gemini-flash-latest.description": "Latest release of Gemini Flash",
|
|
534
534
|
"gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite",
|
|
535
535
|
"gemini-pro-latest.description": "Latest release of Gemini Pro",
|
|
536
|
+
"gemma-7b-it.description": "Gemma 7B 是一款适用于中小规模任务的高性价比模型。",
|
|
537
|
+
"gemma2-9b-it.description": "Gemma 2 9B 针对特定任务与工具集成进行了优化。",
|
|
538
|
+
"gemma2.description": "Gemma 2 是 Google 推出的高效模型,适用于从小型应用到复杂数据处理的多种场景。",
|
|
539
|
+
"gemma2:27b.description": "Gemma 2 是 Google 推出的高效模型,适用于从小型应用到复杂数据处理的多种场景。",
|
|
540
|
+
"gemma2:2b.description": "Gemma 2 是 Google 推出的高效模型,适用于从小型应用到复杂数据处理的多种场景。",
|
|
541
|
+
"generalv3.5.description": "讯飞星火 Max 是功能最全面的版本,支持网页搜索与多种内置插件。其核心能力、系统角色与函数调用均经过全面优化,适用于复杂应用场景,表现卓越。",
|
|
542
|
+
"generalv3.description": "讯飞星火 Pro 是一款面向专业领域优化的大模型,专注于数学、编程、医疗与教育,支持网页搜索与天气、日期等内置插件。在复杂知识问答、语言理解与高级文本创作方面表现出色,是专业场景的理想选择。",
|
|
543
|
+
"glm-4-0520.description": "GLM-4-0520 是最新版本模型,专为处理高度复杂与多样化任务而设计,性能卓越。",
|
|
544
|
+
"glm-4-32b-0414.description": "GLM-4 32B 0414 是一款通用 GLM 模型,支持多任务文本生成与理解。",
|
|
545
|
+
"glm-4-9b-chat.description": "GLM-4-9B-Chat 在语义、数学、推理、编程与知识方面表现强劲,支持网页浏览、代码执行、自定义工具调用与长文本推理,支持包括日语、韩语、德语在内的 26 种语言。",
|
|
546
|
+
"glm-4-air-250414.description": "GLM-4-Air 是一款高性价比模型,性能接近 GLM-4,速度快、成本低。",
|
|
547
|
+
"glm-4-air.description": "GLM-4-Air 是一款高性价比模型,性能接近 GLM-4,速度快、成本低。",
|
|
548
|
+
"glm-4-airx.description": "GLM-4-AirX 是 GLM-4-Air 的高效变体,推理速度提升至 2.6 倍。",
|
|
549
|
+
"glm-4-alltools.description": "GLM-4-AllTools 是一款多功能智能体模型,优化用于复杂指令规划与工具使用,如网页浏览、代码解释与文本生成,适合多任务执行。",
|
|
550
|
+
"glm-4-flash-250414.description": "GLM-4-Flash 适用于简单任务:速度最快且免费。",
|
|
551
|
+
"glm-4-flash.description": "GLM-4-Flash 适用于简单任务:速度最快且免费。",
|
|
552
|
+
"glm-4-flashx.description": "GLM-4-FlashX 是 Flash 的增强版,具备超快推理能力。",
|
|
553
|
+
"glm-4-long.description": "GLM-4-Long 支持超长输入,适用于记忆类任务与大规模文档处理。",
|
|
554
|
+
"glm-4-plus.description": "GLM-4-Plus 是一款高智能旗舰模型,具备强大的长文本与复杂任务处理能力,整体性能全面升级。",
|
|
555
|
+
"glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking 是目前已知最强的约 100 亿参数视觉语言模型,覆盖视频理解、图像问答、学科解题、OCR、文档与图表阅读、GUI 智能体、前端编程与视觉定位等 SOTA 任务。通过先进的强化学习,采用思维链推理提升准确性与丰富性,在结果与可解释性方面均优于传统非思考模型。",
|
|
556
|
+
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking 是目前已知最强的约 100 亿参数视觉语言模型,覆盖视频理解、图像问答、学科解题、OCR、文档与图表阅读、GUI 智能体、前端编程与视觉定位等 SOTA 任务。通过先进的强化学习,采用思维链推理提升准确性与丰富性,在结果与可解释性方面均优于传统非思考模型。",
|
|
557
|
+
"glm-4.5-air.description": "GLM-4.5 轻量版,兼顾性能与成本,支持灵活的混合思维模式。",
|
|
558
|
+
"glm-4.5-airx.description": "GLM-4.5-Air 快速版,响应更快,适用于大规模高速使用场景。",
|
|
559
|
+
"glm-4.5-flash.description": "GLM-4.5 免费版,在推理、编程与智能体任务中表现强劲。",
|
|
560
|
+
"glm-4.5-x.description": "GLM-4.5 快速版,生成速度高达每秒 100 个 token,性能强劲。",
|
|
561
|
+
"glm-4.5.description": "智谱旗舰模型,支持可切换思维模式,整体性能达开源 SOTA,支持最长 128K 上下文。",
|
|
562
|
+
"glm-4.5v.description": "智谱下一代 MoE 视觉推理模型,总参数 106B,激活参数 12B,在图像、视频、文档理解与 GUI 任务中,在同规模开源多模态模型中表现领先。",
|
|
563
|
+
"glm-4.6.description": "智谱最新旗舰模型 GLM-4.6(355B)在高级编程、长文本处理、推理与智能体能力方面全面超越前代,尤其在编程能力上对齐 Claude Sonnet 4,成为国内顶尖的编程模型。",
|
|
564
|
+
"glm-4.7.description": "GLM-4.7 是智谱最新旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的领先表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。",
|
|
565
|
+
"glm-4.description": "GLM-4 是 2024 年 1 月发布的旧版旗舰模型,现已由更强的 GLM-4-0520 替代。",
|
|
566
|
+
"glm-4v-flash.description": "GLM-4V-Flash 专注于高效的单图像理解,适用于实时或批量图像处理等快速分析场景。",
|
|
567
|
+
"glm-4v-plus-0111.description": "GLM-4V-Plus 支持视频与多图像理解,适用于多模态任务。",
|
|
568
|
+
"glm-4v-plus.description": "GLM-4V-Plus 支持视频与多图像理解,适用于多模态任务。",
|
|
569
|
+
"glm-4v.description": "GLM-4V 在视觉任务中具备强大的图像理解与推理能力。",
|
|
570
|
+
"glm-z1-air.description": "具备强大推理能力的模型,适用于需要深度推理的任务。",
|
|
571
|
+
"glm-z1-airx.description": "超快推理,兼具高质量推理表现。",
|
|
572
|
+
"glm-z1-flash.description": "GLM-Z1 系列具备强大的复杂推理能力,在逻辑、数学与编程方面表现出色。",
|
|
573
|
+
"glm-z1-flashx.description": "快速且低成本:Flash 增强版,具备超快推理与更高并发能力。",
|
|
574
|
+
"glm-zero-preview.description": "GLM-Zero-Preview 具备强大的复杂推理能力,在逻辑、数学与编程方面表现出色。",
|
|
575
|
+
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要高质量响应与推理的复杂任务。",
|
|
576
|
+
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash 提供下一代能力,包括卓越速度、原生工具使用、多模态生成与 100 万 token 上下文窗口支持。",
|
|
536
577
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "适用于视觉理解代理应用的高级图像推理模型。",
|
|
537
578
|
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先进的多语言开源 Llama 模型,在极低成本下实现接近 405B 的性能。该模型基于 Transformer 架构,并通过 SFT 和 RLHF 提升实用性与安全性。其指令微调版本专为多语言对话优化,在行业基准测试中超越众多开源与闭源聊天模型。知识截止时间:2023 年 12 月。",
|
|
538
579
|
"meta/Meta-Llama-3-70B-Instruct.description": "一款功能强大的 700 亿参数模型,擅长推理、编程和广泛的语言任务。",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "一个专注于大模型研究与工具链的开源组织,提供高效、易用的平台,让前沿模型与算法触手可及。",
|
|
30
30
|
"jina.description": "Jina AI 成立于 2020 年,是领先的搜索 AI 公司,其搜索技术栈包括向量模型、重排序器与小型语言模型,支持构建高质量的生成式与多模态搜索应用。",
|
|
31
31
|
"lmstudio.description": "LM Studio 是一款桌面应用,支持在本地开发与实验大语言模型。",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud 使用官方 API 访问 AI 模型,并通过与模型令牌相关的积分来计量使用情况。",
|
|
32
33
|
"minimax.description": "MiniMax 成立于 2021 年,致力于构建通用 AI,拥有多模态基础模型,包括万亿参数的 MoE 文本模型、语音模型与视觉模型,并推出海螺 AI 等应用。",
|
|
33
34
|
"mistral.description": "Mistral 提供先进的通用、专业与研究型模型,支持复杂推理、多语言任务与代码生成,具备函数调用能力以实现定制集成。",
|
|
34
35
|
"modelscope.description": "ModelScope 是阿里云的模型即服务平台,提供丰富的 AI 模型与推理服务。",
|
|
@@ -25,7 +25,6 @@
|
|
|
25
25
|
"agentCronJobs.form.validation.nameRequired": "任务名称不能为空",
|
|
26
26
|
"agentCronJobs.interval.12hours": "每12小时",
|
|
27
27
|
"agentCronJobs.interval.1hour": "每小时",
|
|
28
|
-
"agentCronJobs.interval.2hours": "每2小时",
|
|
29
28
|
"agentCronJobs.interval.30min": "每30分钟",
|
|
30
29
|
"agentCronJobs.interval.6hours": "每6小时",
|
|
31
30
|
"agentCronJobs.interval.daily": "每日",
|
|
@@ -34,6 +33,7 @@
|
|
|
34
33
|
"agentCronJobs.maxExecutions": "最大执行次数",
|
|
35
34
|
"agentCronJobs.name": "任务名称",
|
|
36
35
|
"agentCronJobs.never": "从未",
|
|
36
|
+
"agentCronJobs.noExecutionResults": "无执行结果",
|
|
37
37
|
"agentCronJobs.remainingExecutions": "剩余:{{count}}",
|
|
38
38
|
"agentCronJobs.save": "保存",
|
|
39
39
|
"agentCronJobs.schedule": "计划",
|
|
@@ -43,6 +43,7 @@
|
|
|
43
43
|
"agentCronJobs.timeRange": "时间范围",
|
|
44
44
|
"agentCronJobs.title": "定时任务",
|
|
45
45
|
"agentCronJobs.unlimited": "无限",
|
|
46
|
+
"agentCronJobs.unnamedTask": "未命名任务",
|
|
46
47
|
"agentCronJobs.updateSuccess": "定时任务更新成功",
|
|
47
48
|
"agentCronJobs.weekdays": "工作日",
|
|
48
49
|
"agentInfoDescription.basic.avatar": "头像",
|
package/locales/zh-TW/chat.json
CHANGED
|
@@ -63,6 +63,7 @@
|
|
|
63
63
|
"extendParams.reasoningEffort.title": "推理強度",
|
|
64
64
|
"extendParams.textVerbosity.title": "輸出文本詳細程度",
|
|
65
65
|
"extendParams.thinking.title": "深度思考開關",
|
|
66
|
+
"extendParams.thinkingBudget.title": "思考預算",
|
|
66
67
|
"extendParams.thinkingLevel.title": "思考層級",
|
|
67
68
|
"extendParams.title": "模型擴展功能",
|
|
68
69
|
"extendParams.urlContext.desc": "開啟後將自動解析網頁連結,以取得實際網頁上下文內容",
|
|
@@ -194,6 +194,26 @@
|
|
|
194
194
|
"providerModels.item.modelConfig.deployName.title": "模型部署名稱",
|
|
195
195
|
"providerModels.item.modelConfig.displayName.placeholder": "請輸入模型的展示名稱,例如 ChatGPT、GPT-4 等",
|
|
196
196
|
"providerModels.item.modelConfig.displayName.title": "模型展示名稱",
|
|
197
|
+
"providerModels.item.modelConfig.extendParams.extra": "選擇模型支援的擴充參數。將滑鼠懸停於選項上可預覽控制項。設定錯誤可能導致請求失敗。",
|
|
198
|
+
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "適用於 Claude 模型;可降低成本並加快回應速度。",
|
|
199
|
+
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "適用於 Claude、DeepSeek 及其他推理模型;啟用更深入的思考能力。",
|
|
200
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "適用於 GPT-5 系列;控制推理強度。",
|
|
201
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "適用於 GPT-5.1 系列;控制推理強度。",
|
|
202
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "適用於 GPT-5.2 Pro 系列;控制推理強度。",
|
|
203
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "適用於 GPT-5.2 系列;控制推理強度。",
|
|
204
|
+
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "適用於 Gemini 圖像生成模型;控制生成圖像的長寬比。",
|
|
205
|
+
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "適用於 Gemini 3 圖像生成模型;控制生成圖像的解析度。",
|
|
206
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "適用於 Claude、Qwen3 等模型;控制推理所用的 Token 預算。",
|
|
207
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "適用於 OpenAI 及其他具推理能力的模型;控制推理程度。",
|
|
208
|
+
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "適用於 GPT-5+ 系列;控制輸出內容的詳盡程度。",
|
|
209
|
+
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "適用於部分豆包模型;允許模型自行決定是否進行深入思考。",
|
|
210
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "適用於 Gemini 系列;控制思考預算。",
|
|
211
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "適用於 Gemini 3 Flash Preview 模型;控制思考深度。",
|
|
212
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "適用於 Gemini 3 Pro Preview 模型;控制思考深度。",
|
|
213
|
+
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "適用於 Gemini 系列;支援提供 URL 作為上下文。",
|
|
214
|
+
"providerModels.item.modelConfig.extendParams.placeholder": "選擇要啟用的擴充參數",
|
|
215
|
+
"providerModels.item.modelConfig.extendParams.previewFallback": "無法預覽",
|
|
216
|
+
"providerModels.item.modelConfig.extendParams.title": "擴充參數",
|
|
197
217
|
"providerModels.item.modelConfig.files.extra": "當前文件上傳實現僅為一種 Hack 方案,僅限自行嘗試。完整文件上傳能力請等待後續實現",
|
|
198
218
|
"providerModels.item.modelConfig.files.title": "支持文件上傳",
|
|
199
219
|
"providerModels.item.modelConfig.functionCall.extra": "此配置將僅開啟模型使用工具的能力,進而可以為模型添加工具類的插件。但是否支持真正使用工具完全取決於模型本身,請自行測試其可用性",
|