@lobehub/lobehub 2.0.0-next.253 → 2.0.0-next.254
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/discover.json +3 -0
- package/locales/ar/file.json +2 -0
- package/locales/ar/models.json +38 -10
- package/locales/ar/providers.json +0 -1
- package/locales/ar/setting.json +42 -0
- package/locales/bg-BG/discover.json +3 -0
- package/locales/bg-BG/file.json +2 -0
- package/locales/bg-BG/models.json +36 -7
- package/locales/bg-BG/providers.json +0 -1
- package/locales/bg-BG/setting.json +43 -1
- package/locales/de-DE/discover.json +3 -0
- package/locales/de-DE/file.json +2 -0
- package/locales/de-DE/models.json +45 -10
- package/locales/de-DE/providers.json +0 -1
- package/locales/de-DE/setting.json +43 -1
- package/locales/en-US/discover.json +3 -0
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/providers.json +0 -1
- package/locales/en-US/setting.json +43 -1
- package/locales/es-ES/discover.json +3 -0
- package/locales/es-ES/file.json +2 -0
- package/locales/es-ES/models.json +49 -10
- package/locales/es-ES/providers.json +0 -1
- package/locales/es-ES/setting.json +43 -1
- package/locales/fa-IR/discover.json +3 -0
- package/locales/fa-IR/file.json +2 -0
- package/locales/fa-IR/models.json +39 -10
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fa-IR/setting.json +43 -1
- package/locales/fr-FR/discover.json +3 -0
- package/locales/fr-FR/file.json +2 -0
- package/locales/fr-FR/models.json +36 -7
- package/locales/fr-FR/providers.json +0 -1
- package/locales/fr-FR/setting.json +42 -0
- package/locales/it-IT/discover.json +3 -0
- package/locales/it-IT/file.json +2 -0
- package/locales/it-IT/models.json +45 -10
- package/locales/it-IT/providers.json +0 -1
- package/locales/it-IT/setting.json +42 -0
- package/locales/ja-JP/discover.json +3 -0
- package/locales/ja-JP/file.json +2 -0
- package/locales/ja-JP/models.json +42 -7
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ja-JP/setting.json +42 -0
- package/locales/ko-KR/discover.json +3 -0
- package/locales/ko-KR/file.json +2 -0
- package/locales/ko-KR/models.json +48 -7
- package/locales/ko-KR/providers.json +0 -1
- package/locales/ko-KR/setting.json +42 -0
- package/locales/nl-NL/discover.json +3 -0
- package/locales/nl-NL/file.json +2 -0
- package/locales/nl-NL/models.json +4 -6
- package/locales/nl-NL/providers.json +0 -1
- package/locales/nl-NL/setting.json +42 -0
- package/locales/pl-PL/discover.json +3 -0
- package/locales/pl-PL/file.json +2 -0
- package/locales/pl-PL/models.json +36 -7
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pl-PL/setting.json +43 -1
- package/locales/pt-BR/discover.json +3 -0
- package/locales/pt-BR/file.json +2 -0
- package/locales/pt-BR/models.json +47 -6
- package/locales/pt-BR/providers.json +0 -1
- package/locales/pt-BR/setting.json +42 -0
- package/locales/ru-RU/discover.json +3 -0
- package/locales/ru-RU/file.json +2 -0
- package/locales/ru-RU/models.json +36 -7
- package/locales/ru-RU/providers.json +0 -1
- package/locales/ru-RU/setting.json +42 -0
- package/locales/tr-TR/discover.json +3 -0
- package/locales/tr-TR/file.json +2 -0
- package/locales/tr-TR/models.json +36 -5
- package/locales/tr-TR/providers.json +0 -1
- package/locales/tr-TR/setting.json +43 -1
- package/locales/vi-VN/discover.json +3 -0
- package/locales/vi-VN/file.json +2 -0
- package/locales/vi-VN/models.json +5 -5
- package/locales/vi-VN/providers.json +0 -1
- package/locales/vi-VN/setting.json +42 -0
- package/locales/zh-CN/discover.json +3 -3
- package/locales/zh-CN/models.json +38 -9
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-CN/setting.json +42 -0
- package/locales/zh-TW/discover.json +3 -0
- package/locales/zh-TW/file.json +2 -0
- package/locales/zh-TW/models.json +54 -10
- package/locales/zh-TW/providers.json +0 -1
- package/locales/zh-TW/setting.json +42 -0
- package/package.json +1 -1
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku bietet es verbesserte Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste hybride Reasoning-Modell auf dem Markt. Es liefert nahezu sofortige Antworten oder nachvollziehbares, schrittweises Denken. Sonnet überzeugt besonders in den Bereichen Programmierung, Data Science, Bildverarbeitung und Agentenaufgaben.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic –
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch exzellente Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 liefert nahezu sofortige Antworten oder nachvollziehbares, schrittweises Denken mit sichtbarem Denkprozess.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Programmierfähigkeiten kombiniert. Es vereint den Dialogfluss eines Chatmodells mit der starken Codierungsleistung eines Coder-Modells und bietet eine bessere Präferenzanpassung. DeepSeek-V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche – kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche – bietet stärkeres Verständnis und bessere Generierung.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "Der Denkmodus von DeepSeek V3.2 gibt vor der finalen Antwort eine Gedankenkette aus, um die Genauigkeit zu erhöhen.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K ist ein ultra-leichtgewichtiges Modell für einfache Frage-Antwort-Aufgaben, Klassifikation und kostengünstige Inferenz.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Texteingaben und Bildinputs unterstützt und eine hochgradig steuerbare, qualitativ hochwertige Bildgenerierung ermöglicht. Es erstellt Bilder aus Texteingaben.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen, präzise
|
|
483
|
-
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen unterstützt, chinesischen und englischen Text präzise editiert und hochwertige Bearbeitungen wie Stilübertragungen und Objektrotationen ermöglicht.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
|
|
484
484
|
"flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 1–4 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.",
|
|
486
486
|
"flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
|
|
@@ -491,6 +491,41 @@
|
|
|
491
491
|
"flux-pro.description": "Hochwertiges kommerzielles Bildgenerierungsmodell mit unübertroffener Bildqualität und vielfältigen Ausgaben.",
|
|
492
492
|
"flux-schnell.description": "FLUX.1 [schnell] ist das fortschrittlichste Open-Source-Modell mit wenigen Schritten, übertrifft vergleichbare Konkurrenten und sogar starke nicht-destillierte Modelle wie Midjourney v6.0 und DALL-E 3 (HD). Feinabgestimmt zur Erhaltung der Vielfalt aus dem Pretraining, verbessert es visuelle Qualität, Anweisungsbefolgung, Größen-/Seitenverhältnisvariation, Schriftverarbeitung und Ausgabediversität erheblich.",
|
|
493
493
|
"flux.1-schnell.description": "FLUX.1-schnell ist ein leistungsstarkes Bildgenerierungsmodell für schnelle Ausgaben in mehreren Stilen.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) bietet stabile, anpassbare Leistung für komplexe Aufgaben.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) bietet starke multimodale Unterstützung für komplexe Aufgaben.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro ist Googles leistungsstarkes KI-Modell für skalierbare Aufgabenlösungen.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 ist ein effizientes multimodales Modell für breit gefächerte Anwendungen.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 ist ein effizientes multimodales Modell für großflächige Einsätze.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 ist das neueste experimentelle Modell mit deutlichen Fortschritten in Text- und Multimodalanwendungen.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B ist ein effizientes multimodales Modell für großflächige Einsätze.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B ist ein effizientes multimodales Modell für breit gefächerte Anwendungen.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 bietet optimierte multimodale Verarbeitung für komplexe Aufgaben.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash ist Googles neuestes multimodales KI-Modell mit schneller Verarbeitung und Unterstützung für Text-, Bild- und Videoeingaben zur effizienten Skalierung über verschiedene Aufgaben hinweg.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 ist eine skalierbare multimodale KI-Lösung für komplexe Aufgaben.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 ist das neueste produktionsreife Modell mit höherer Ausgabequalität, insbesondere bei Mathematik, langen Kontexten und visuellen Aufgaben.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 bietet starke multimodale Verarbeitung mit größerer Flexibilität für App-Entwicklung.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 nutzt neueste Optimierungen für effizientere multimodale Verarbeitung.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro unterstützt bis zu 2 Millionen Tokens – ein ideales mittelgroßes multimodales Modell für komplexe Aufgaben.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash bietet Next-Gen-Funktionen wie außergewöhnliche Geschwindigkeit, native Tool-Nutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "Experimentelles Gemini 2.0 Flash-Modell mit Unterstützung für Bildgenerierung.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash bietet Next-Gen-Funktionen wie außergewöhnliche Geschwindigkeit, native Tool-Nutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
|
|
515
|
+
"gemini-2.5-flash-image-preview.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
|
|
516
|
+
"gemini-2.5-flash-image-preview:image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
|
|
517
|
+
"gemini-2.5-flash-image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
|
|
518
|
+
"gemini-2.5-flash-image:image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
|
|
519
|
+
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview ist Googles kleinstes und kosteneffizientestes Modell für großflächige Nutzung.",
|
|
520
|
+
"gemini-2.5-flash-lite-preview-09-2025.description": "Vorschauversion (25. September 2025) von Gemini 2.5 Flash-Lite",
|
|
521
|
+
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite ist Googles kleinstes und kosteneffizientestes Modell für großflächige Nutzung.",
|
|
522
|
+
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview ist Googles kosteneffizientestes Modell mit vollem Funktionsumfang.",
|
|
523
|
+
"gemini-2.5-flash-preview-09-2025.description": "Vorschauversion (25. September 2025) von Gemini 2.5 Flash",
|
|
524
|
+
"gemini-2.5-flash.description": "Gemini 2.5 Flash ist Googles kosteneffizientestes Modell mit vollem Funktionsumfang.",
|
|
525
|
+
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
|
|
526
|
+
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
|
|
527
|
+
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
|
|
528
|
+
"gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
|
|
494
529
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
|
|
495
530
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
|
|
496
531
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle – mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.",
|
|
30
30
|
"jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
|
|
31
31
|
"lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.",
|
|
33
32
|
"minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung – inklusive Funktionsaufrufen für individuelle Integrationen.",
|
|
35
34
|
"modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.",
|
|
@@ -2,6 +2,48 @@
|
|
|
2
2
|
"_cloud.officialProvider": "{{name}} Offizieller Modelldienst",
|
|
3
3
|
"about.title": "Über",
|
|
4
4
|
"advancedSettings": "Erweiterte Einstellungen",
|
|
5
|
+
"agentCronJobs.addJob": "Geplante Aufgabe hinzufügen",
|
|
6
|
+
"agentCronJobs.confirmDelete": "Möchten Sie diese geplante Aufgabe wirklich löschen?",
|
|
7
|
+
"agentCronJobs.content": "Aufgabeninhalt",
|
|
8
|
+
"agentCronJobs.create": "Erstellen",
|
|
9
|
+
"agentCronJobs.createSuccess": "Geplante Aufgabe erfolgreich erstellt",
|
|
10
|
+
"agentCronJobs.deleteJob": "Aufgabe löschen",
|
|
11
|
+
"agentCronJobs.deleteSuccess": "Geplante Aufgabe erfolgreich gelöscht",
|
|
12
|
+
"agentCronJobs.description": "Automatisieren Sie Ihren Agenten mit geplanten Ausführungen",
|
|
13
|
+
"agentCronJobs.disable": "Deaktivieren",
|
|
14
|
+
"agentCronJobs.editJob": "Geplante Aufgabe bearbeiten",
|
|
15
|
+
"agentCronJobs.empty.description": "Erstellen Sie Ihre erste geplante Aufgabe, um Ihren Agenten zu automatisieren",
|
|
16
|
+
"agentCronJobs.empty.title": "Noch keine geplanten Aufgaben",
|
|
17
|
+
"agentCronJobs.enable": "Aktivieren",
|
|
18
|
+
"agentCronJobs.form.content.placeholder": "Geben Sie die Eingabeaufforderung oder Anweisung für den Agenten ein",
|
|
19
|
+
"agentCronJobs.form.maxExecutions.placeholder": "Leer lassen für unbegrenzt",
|
|
20
|
+
"agentCronJobs.form.name.placeholder": "Aufgabennamen eingeben",
|
|
21
|
+
"agentCronJobs.form.timeRange.end": "Endzeit",
|
|
22
|
+
"agentCronJobs.form.timeRange.start": "Startzeit",
|
|
23
|
+
"agentCronJobs.form.validation.contentRequired": "Aufgabeninhalt ist erforderlich",
|
|
24
|
+
"agentCronJobs.form.validation.invalidTimeRange": "Die Startzeit muss vor der Endzeit liegen",
|
|
25
|
+
"agentCronJobs.form.validation.nameRequired": "Aufgabenname ist erforderlich",
|
|
26
|
+
"agentCronJobs.interval.12hours": "Alle 12 Stunden",
|
|
27
|
+
"agentCronJobs.interval.1hour": "Stündlich",
|
|
28
|
+
"agentCronJobs.interval.30min": "Alle 30 Minuten",
|
|
29
|
+
"agentCronJobs.interval.6hours": "Alle 6 Stunden",
|
|
30
|
+
"agentCronJobs.interval.daily": "Täglich",
|
|
31
|
+
"agentCronJobs.interval.weekly": "Wöchentlich",
|
|
32
|
+
"agentCronJobs.lastExecuted": "Zuletzt ausgeführt",
|
|
33
|
+
"agentCronJobs.maxExecutions": "Maximale Ausführungen",
|
|
34
|
+
"agentCronJobs.name": "Aufgabenname",
|
|
35
|
+
"agentCronJobs.never": "Nie",
|
|
36
|
+
"agentCronJobs.remainingExecutions": "Verbleibend: {{count}}",
|
|
37
|
+
"agentCronJobs.save": "Speichern",
|
|
38
|
+
"agentCronJobs.schedule": "Zeitplan",
|
|
39
|
+
"agentCronJobs.status.depleted": "Erschöpft",
|
|
40
|
+
"agentCronJobs.status.disabled": "Deaktiviert",
|
|
41
|
+
"agentCronJobs.status.enabled": "Aktiviert",
|
|
42
|
+
"agentCronJobs.timeRange": "Zeitspanne",
|
|
43
|
+
"agentCronJobs.title": "Geplante Aufgaben",
|
|
44
|
+
"agentCronJobs.unlimited": "Unbegrenzt",
|
|
45
|
+
"agentCronJobs.updateSuccess": "Geplante Aufgabe erfolgreich aktualisiert",
|
|
46
|
+
"agentCronJobs.weekdays": "Wochentage",
|
|
5
47
|
"agentInfoDescription.basic.avatar": "Avatar",
|
|
6
48
|
"agentInfoDescription.basic.description": "Beschreibung",
|
|
7
49
|
"agentInfoDescription.basic.name": "Name",
|
|
@@ -46,7 +88,7 @@
|
|
|
46
88
|
"danger.reset.action": "Jetzt zurücksetzen",
|
|
47
89
|
"danger.reset.confirm": "Alle Einstellungen zurücksetzen?",
|
|
48
90
|
"danger.reset.currentVersion": "Aktuelle Version",
|
|
49
|
-
"danger.reset.desc": "Alle Einstellungen auf
|
|
91
|
+
"danger.reset.desc": "Alle Einstellungen auf Standard zurücksetzen. Ihre Daten werden nicht gelöscht.",
|
|
50
92
|
"danger.reset.success": "Alle Einstellungen wurden zurückgesetzt",
|
|
51
93
|
"danger.reset.title": "Alle Einstellungen zurücksetzen",
|
|
52
94
|
"defaultAgent.model.desc": "Standardmodell beim Erstellen eines neuen Agenten",
|
|
@@ -156,6 +156,8 @@
|
|
|
156
156
|
"mcp.categories.business.name": "Business Services",
|
|
157
157
|
"mcp.categories.developer.description": "Developer-related Tools and Services",
|
|
158
158
|
"mcp.categories.developer.name": "Developer Tools",
|
|
159
|
+
"mcp.categories.discover.description": "Recommended and trending MCP servers",
|
|
160
|
+
"mcp.categories.discover.name": "Discover",
|
|
159
161
|
"mcp.categories.gaming-entertainment.description": "Games, Entertainment, and Leisure Activities",
|
|
160
162
|
"mcp.categories.gaming-entertainment.name": "Gaming & Entertainment",
|
|
161
163
|
"mcp.categories.health-wellness.description": "Health, Fitness, and Wellness",
|
|
@@ -343,6 +345,7 @@
|
|
|
343
345
|
"mcp.sorts.isValidated": "Validated Skills",
|
|
344
346
|
"mcp.sorts.promptsCount": "Number of Prompts",
|
|
345
347
|
"mcp.sorts.ratingCount": "Number of Ratings",
|
|
348
|
+
"mcp.sorts.recommended": "Recommended",
|
|
346
349
|
"mcp.sorts.resourcesCount": "Number of Resources",
|
|
347
350
|
"mcp.sorts.toolsCount": "Number of Tools",
|
|
348
351
|
"mcp.sorts.updatedAt": "Recently Updated",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model,
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the prior largest model Claude 3 Opus on many intelligence benchmarks.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropic’s most intelligent model and the first hybrid reasoning model on the market. It can produce near-instant responses or extended step-by-step reasoning that users can see. Sonnet is especially strong at coding, data science, vision, and agent tasks.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat model’s general dialogue and the coder model’s strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team
|
|
483
|
-
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
|
|
483
|
+
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
|
|
484
484
|
"flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
|
|
486
486
|
"flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
|
|
30
30
|
"jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
|
|
31
31
|
"lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
|
|
33
32
|
"minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
|
|
35
34
|
"modelscope.description": "ModelScope is Alibaba Cloud’s model-as-a-service platform, offering a wide range of AI models and inference services.",
|
|
@@ -2,6 +2,48 @@
|
|
|
2
2
|
"_cloud.officialProvider": "{{name}} Official Model Service",
|
|
3
3
|
"about.title": "About",
|
|
4
4
|
"advancedSettings": "Advanced Settings",
|
|
5
|
+
"agentCronJobs.addJob": "Add Scheduled Task",
|
|
6
|
+
"agentCronJobs.confirmDelete": "Are you sure you want to delete this scheduled task?",
|
|
7
|
+
"agentCronJobs.content": "Task Content",
|
|
8
|
+
"agentCronJobs.create": "Create",
|
|
9
|
+
"agentCronJobs.createSuccess": "Scheduled task created successfully",
|
|
10
|
+
"agentCronJobs.deleteJob": "Delete Task",
|
|
11
|
+
"agentCronJobs.deleteSuccess": "Scheduled task deleted successfully",
|
|
12
|
+
"agentCronJobs.description": "Automate your agent with scheduled executions",
|
|
13
|
+
"agentCronJobs.disable": "Disable",
|
|
14
|
+
"agentCronJobs.editJob": "Edit Scheduled Task",
|
|
15
|
+
"agentCronJobs.empty.description": "Create your first scheduled task to automate your agent",
|
|
16
|
+
"agentCronJobs.empty.title": "No scheduled tasks yet",
|
|
17
|
+
"agentCronJobs.enable": "Enable",
|
|
18
|
+
"agentCronJobs.form.content.placeholder": "Enter the prompt or instruction for the agent",
|
|
19
|
+
"agentCronJobs.form.maxExecutions.placeholder": "Leave empty for unlimited",
|
|
20
|
+
"agentCronJobs.form.name.placeholder": "Enter task name",
|
|
21
|
+
"agentCronJobs.form.timeRange.end": "End Time",
|
|
22
|
+
"agentCronJobs.form.timeRange.start": "Start Time",
|
|
23
|
+
"agentCronJobs.form.validation.contentRequired": "Task content is required",
|
|
24
|
+
"agentCronJobs.form.validation.invalidTimeRange": "Start time must be before end time",
|
|
25
|
+
"agentCronJobs.form.validation.nameRequired": "Task name is required",
|
|
26
|
+
"agentCronJobs.interval.12hours": "Every 12 hours",
|
|
27
|
+
"agentCronJobs.interval.1hour": "Every hour",
|
|
28
|
+
"agentCronJobs.interval.30min": "Every 30 minutes",
|
|
29
|
+
"agentCronJobs.interval.6hours": "Every 6 hours",
|
|
30
|
+
"agentCronJobs.interval.daily": "Daily",
|
|
31
|
+
"agentCronJobs.interval.weekly": "Weekly",
|
|
32
|
+
"agentCronJobs.lastExecuted": "Last Executed",
|
|
33
|
+
"agentCronJobs.maxExecutions": "Max Executions",
|
|
34
|
+
"agentCronJobs.name": "Task Name",
|
|
35
|
+
"agentCronJobs.never": "Never",
|
|
36
|
+
"agentCronJobs.remainingExecutions": "Remaining: {{count}}",
|
|
37
|
+
"agentCronJobs.save": "Save",
|
|
38
|
+
"agentCronJobs.schedule": "Schedule",
|
|
39
|
+
"agentCronJobs.status.depleted": "Depleted",
|
|
40
|
+
"agentCronJobs.status.disabled": "Disabled",
|
|
41
|
+
"agentCronJobs.status.enabled": "Enabled",
|
|
42
|
+
"agentCronJobs.timeRange": "Time Range",
|
|
43
|
+
"agentCronJobs.title": "Scheduled Tasks",
|
|
44
|
+
"agentCronJobs.unlimited": "Unlimited",
|
|
45
|
+
"agentCronJobs.updateSuccess": "Scheduled task updated successfully",
|
|
46
|
+
"agentCronJobs.weekdays": "Weekdays",
|
|
5
47
|
"agentInfoDescription.basic.avatar": "Avatar",
|
|
6
48
|
"agentInfoDescription.basic.description": "Description",
|
|
7
49
|
"agentInfoDescription.basic.name": "Name",
|
|
@@ -46,7 +88,7 @@
|
|
|
46
88
|
"danger.reset.action": "Reset Now",
|
|
47
89
|
"danger.reset.confirm": "Reset all settings?",
|
|
48
90
|
"danger.reset.currentVersion": "Current Version",
|
|
49
|
-
"danger.reset.desc": "Restore all settings to defaults. Your data
|
|
91
|
+
"danger.reset.desc": "Restore all settings to defaults. Your data wont be deleted.",
|
|
50
92
|
"danger.reset.success": "All settings have been reset",
|
|
51
93
|
"danger.reset.title": "Reset All Settings",
|
|
52
94
|
"defaultAgent.model.desc": "Default model used when creating a new Agent",
|
|
@@ -156,6 +156,8 @@
|
|
|
156
156
|
"mcp.categories.business.name": "Servicios empresariales",
|
|
157
157
|
"mcp.categories.developer.description": "Herramientas y servicios para desarrolladores",
|
|
158
158
|
"mcp.categories.developer.name": "Herramientas para desarrolladores",
|
|
159
|
+
"mcp.categories.discover.description": "Servidores MCP recomendados y populares",
|
|
160
|
+
"mcp.categories.discover.name": "Descubrir",
|
|
159
161
|
"mcp.categories.gaming-entertainment.description": "Juegos, entretenimiento y actividades recreativas",
|
|
160
162
|
"mcp.categories.gaming-entertainment.name": "Juegos y entretenimiento",
|
|
161
163
|
"mcp.categories.health-wellness.description": "Salud, ejercicio y bienestar",
|
|
@@ -343,6 +345,7 @@
|
|
|
343
345
|
"mcp.sorts.isValidated": "Habilidades Validadas",
|
|
344
346
|
"mcp.sorts.promptsCount": "Número de Indicaciones",
|
|
345
347
|
"mcp.sorts.ratingCount": "Número de Calificaciones",
|
|
348
|
+
"mcp.sorts.recommended": "Recomendado",
|
|
346
349
|
"mcp.sorts.resourcesCount": "Número de Recursos",
|
|
347
350
|
"mcp.sorts.toolsCount": "Número de Herramientas",
|
|
348
351
|
"mcp.sorts.updatedAt": "Recientemente Actualizados",
|
package/locales/es-ES/file.json
CHANGED
|
@@ -18,6 +18,8 @@
|
|
|
18
18
|
"empty": "Aún no se han subido archivos ni carpetas.",
|
|
19
19
|
"header.actions.builtInBlockList.filtered": "{{ignored}} archivos filtrados (de un total de {{total}})",
|
|
20
20
|
"header.actions.connect": "Conectar...",
|
|
21
|
+
"header.actions.createFolderError": "No se pudo crear la carpeta",
|
|
22
|
+
"header.actions.creatingFolder": "Creando carpeta...",
|
|
21
23
|
"header.actions.gitignore.apply": "Aplicar reglas",
|
|
22
24
|
"header.actions.gitignore.cancel": "Ignorar reglas",
|
|
23
25
|
"header.actions.gitignore.content": "Se detectó un archivo .gitignore ({{count}} archivos en total). ¿Deseas aplicar las reglas de exclusión?",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al modelo anterior más grande, Claude 3 Opus, en muchos indicadores de inteligencia.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos paso a paso que los usuarios pueden seguir. Sonnet destaca especialmente en programación, ciencia de datos, visión y tareas de agentes.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos detallados paso a paso con un proceso visible.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B de parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Un nuevo modelo de código abierto que combina habilidades generales y de programación. Conserva el diálogo general del modelo conversacional y la sólida capacidad de codificación del modelo de programación, con una mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
|
|
379
379
|
"deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B de parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y tiene un rendimiento comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "El modo de pensamiento DeepSeek V3.2 genera una cadena de razonamiento antes de la respuesta final para mejorar la precisión.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671 mil millones de parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K es un modelo ultraligero para preguntas simples, clasificación e inferencia de bajo costo.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen, con una generación de imágenes altamente controlable y de alta calidad. Genera imágenes a partir de indicaciones de texto.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "
|
|
483
|
-
"fal-ai/qwen-image.description": "
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen que permite ediciones semánticas y de apariencia, edita texto en chino e inglés con precisión y permite ediciones de alta calidad como transferencia de estilo y rotación de objetos.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Un potente modelo de generación de imágenes del equipo Qwen con una impresionante representación de texto en chino y estilos visuales diversos.",
|
|
484
484
|
"flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.",
|
|
486
486
|
"flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
|
|
@@ -491,6 +491,45 @@
|
|
|
491
491
|
"flux-pro.description": "Modelo comercial de generación de imágenes de primer nivel con calidad de imagen inigualable y salidas diversas.",
|
|
492
492
|
"flux-schnell.description": "FLUX.1 [schnell] es el modelo de pocos pasos más avanzado de código abierto, superando a competidores similares e incluso a modelos no destilados como Midjourney v6.0 y DALL-E 3 (HD). Está finamente ajustado para preservar la diversidad del preentrenamiento, mejorando significativamente la calidad visual, el seguimiento de instrucciones, la variación de tamaño/aspecto, el manejo de fuentes y la diversidad de salida.",
|
|
493
493
|
"flux.1-schnell.description": "FLUX.1-schnell es un modelo de generación de imágenes de alto rendimiento para salidas rápidas y de múltiples estilos.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) ofrece un rendimiento estable y ajustable para tareas complejas.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) proporciona un sólido soporte multimodal para tareas complejas.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro es el modelo de IA de alto rendimiento de Google diseñado para escalar tareas de forma amplia.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 es un modelo multimodal eficiente para escalar aplicaciones de forma amplia.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 es un modelo multimodal eficiente diseñado para implementaciones a gran escala.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 es el modelo experimental más reciente con mejoras notables en casos de uso de texto y multimodales.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B es un modelo multimodal eficiente diseñado para implementaciones a gran escala.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B es un modelo multimodal eficiente para escalar aplicaciones de forma amplia.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 ofrece procesamiento multimodal optimizado para tareas complejas.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash es el modelo de IA multimodal más reciente de Google con procesamiento rápido, compatible con entradas de texto, imagen y video para escalar tareas de manera eficiente.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 es una solución de IA multimodal escalable para tareas complejas.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 es el modelo más reciente listo para producción con salida de mayor calidad, especialmente en matemáticas, contexto largo y tareas visuales.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 ofrece procesamiento multimodal sólido con mayor flexibilidad para el desarrollo de aplicaciones.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 aplica las últimas optimizaciones para un procesamiento multimodal más eficiente.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro admite hasta 2 millones de tokens, siendo un modelo multimodal de tamaño medio ideal para tareas complejas.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash ofrece funciones de nueva generación como velocidad excepcional, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "Modelo experimental Gemini 2.0 Flash con soporte para generación de imágenes.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash ofrece funciones de nueva generación como velocidad excepcional, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
|
|
515
|
+
"gemini-2.5-flash-image-preview.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.",
|
|
516
|
+
"gemini-2.5-flash-image-preview:image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.",
|
|
517
|
+
"gemini-2.5-flash-image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.",
|
|
518
|
+
"gemini-2.5-flash-image:image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.",
|
|
519
|
+
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview es el modelo más pequeño y rentable de Google, diseñado para uso a gran escala.",
|
|
520
|
+
"gemini-2.5-flash-lite-preview-09-2025.description": "Versión preliminar (25 de septiembre de 2025) de Gemini 2.5 Flash-Lite",
|
|
521
|
+
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite es el modelo más pequeño y rentable de Google, diseñado para uso a gran escala.",
|
|
522
|
+
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview es el modelo más rentable de Google con capacidades completas.",
|
|
523
|
+
"gemini-2.5-flash-preview-09-2025.description": "Versión preliminar (25 de septiembre de 2025) de Gemini 2.5 Flash",
|
|
524
|
+
"gemini-2.5-flash.description": "Gemini 2.5 Flash es el modelo más rentable de Google con capacidades completas.",
|
|
525
|
+
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
|
|
526
|
+
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
|
|
527
|
+
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
|
|
528
|
+
"gemini-2.5-pro.description": "Gemini 2.5 Pro es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
|
|
529
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash es el modelo más inteligente diseñado para la velocidad, combinando inteligencia de vanguardia con una integración excepcional con la búsqueda.",
|
|
530
|
+
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google, compatible también con chat multimodal.",
|
|
531
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google, compatible también con chat multimodal.",
|
|
532
|
+
"gemini-3-pro-preview.description": "Gemini 3 Pro es el agente más potente de Google y modelo de codificación emocional, que ofrece visuales más ricos e interacción más profunda sobre un razonamiento de última generación.",
|
|
494
533
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
|
|
495
534
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
|
|
496
535
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
|
|
30
30
|
"jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
|
|
31
31
|
"lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
|
|
33
32
|
"minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
|
|
35
34
|
"modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",
|