@lobehub/lobehub 2.0.0-next.330 → 2.0.0-next.332
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/e2e/src/support/webServer.ts +95 -43
- package/locales/ar/chat.json +5 -0
- package/locales/ar/desktop-onboarding.json +5 -0
- package/locales/ar/discover.json +15 -0
- package/locales/ar/models.json +35 -0
- package/locales/bg-BG/chat.json +5 -0
- package/locales/bg-BG/desktop-onboarding.json +5 -0
- package/locales/bg-BG/discover.json +15 -0
- package/locales/bg-BG/models.json +30 -0
- package/locales/de-DE/chat.json +5 -0
- package/locales/de-DE/desktop-onboarding.json +5 -0
- package/locales/de-DE/discover.json +15 -0
- package/locales/de-DE/models.json +38 -0
- package/locales/en-US/desktop-onboarding.json +5 -0
- package/locales/en-US/discover.json +14 -0
- package/locales/es-ES/chat.json +5 -0
- package/locales/es-ES/desktop-onboarding.json +5 -0
- package/locales/es-ES/discover.json +15 -0
- package/locales/es-ES/models.json +38 -0
- package/locales/fa-IR/chat.json +5 -0
- package/locales/fa-IR/desktop-onboarding.json +5 -0
- package/locales/fa-IR/discover.json +15 -0
- package/locales/fa-IR/models.json +11 -0
- package/locales/fr-FR/chat.json +5 -0
- package/locales/fr-FR/desktop-onboarding.json +5 -0
- package/locales/fr-FR/discover.json +15 -0
- package/locales/fr-FR/models.json +36 -0
- package/locales/it-IT/chat.json +5 -0
- package/locales/it-IT/desktop-onboarding.json +5 -0
- package/locales/it-IT/discover.json +15 -0
- package/locales/it-IT/models.json +32 -0
- package/locales/ja-JP/chat.json +5 -0
- package/locales/ja-JP/desktop-onboarding.json +5 -0
- package/locales/ja-JP/discover.json +15 -0
- package/locales/ja-JP/models.json +42 -0
- package/locales/ko-KR/chat.json +5 -0
- package/locales/ko-KR/desktop-onboarding.json +5 -0
- package/locales/ko-KR/discover.json +15 -0
- package/locales/ko-KR/models.json +55 -0
- package/locales/nl-NL/chat.json +5 -0
- package/locales/nl-NL/desktop-onboarding.json +5 -0
- package/locales/nl-NL/discover.json +15 -0
- package/locales/nl-NL/models.json +34 -0
- package/locales/pl-PL/chat.json +5 -0
- package/locales/pl-PL/desktop-onboarding.json +5 -0
- package/locales/pl-PL/discover.json +15 -0
- package/locales/pl-PL/models.json +31 -0
- package/locales/pt-BR/chat.json +5 -0
- package/locales/pt-BR/desktop-onboarding.json +5 -0
- package/locales/pt-BR/discover.json +15 -0
- package/locales/pt-BR/models.json +42 -0
- package/locales/ru-RU/chat.json +5 -0
- package/locales/ru-RU/desktop-onboarding.json +5 -0
- package/locales/ru-RU/discover.json +15 -0
- package/locales/ru-RU/models.json +32 -0
- package/locales/tr-TR/chat.json +5 -0
- package/locales/tr-TR/desktop-onboarding.json +5 -0
- package/locales/tr-TR/discover.json +15 -0
- package/locales/tr-TR/models.json +48 -0
- package/locales/vi-VN/chat.json +5 -0
- package/locales/vi-VN/desktop-onboarding.json +5 -0
- package/locales/vi-VN/discover.json +15 -0
- package/locales/vi-VN/models.json +36 -0
- package/locales/zh-CN/desktop-onboarding.json +3 -3
- package/locales/zh-CN/discover.json +14 -0
- package/locales/zh-CN/models.json +1 -0
- package/locales/zh-TW/chat.json +5 -0
- package/locales/zh-TW/desktop-onboarding.json +5 -0
- package/locales/zh-TW/discover.json +15 -0
- package/locales/zh-TW/models.json +42 -0
- package/package.json +1 -1
- package/src/app/[variants]/(main)/group/profile/features/GroupProfile/index.tsx +12 -6
- package/src/app/[variants]/(main)/group/profile/features/MemberProfile/index.tsx +13 -7
- package/src/features/EditorCanvas/EditorCanvas.tsx +10 -2
- package/src/features/EditorCanvas/EditorDataMode.tsx +27 -18
- package/src/store/agentGroup/action.ts +13 -2
|
@@ -666,6 +666,44 @@
|
|
|
666
666
|
"gpt-oss:120b.description": "GPT-OSS 120B ist OpenAIs großes Open-Source-LLM mit MXFP4-Quantisierung und als Flaggschiffmodell positioniert. Es erfordert Multi-GPU- oder High-End-Workstation-Umgebungen und bietet exzellente Leistung bei komplexem Denken, Codegenerierung und mehrsprachiger Verarbeitung mit fortschrittlichem Funktionsaufruf und Tool-Integration.",
|
|
667
667
|
"gpt-oss:20b.description": "GPT-OSS 20B ist ein Open-Source-LLM von OpenAI mit MXFP4-Quantisierung, geeignet für High-End-Consumer-GPUs oder Apple Silicon Macs. Es überzeugt bei Dialoggenerierung, Programmierung und Denkaufgaben und unterstützt Funktionsaufrufe und Tool-Nutzung.",
|
|
668
668
|
"gpt-realtime.description": "Ein allgemeines Echtzeitmodell mit Unterstützung für Text- und Audio-Ein-/Ausgabe sowie Bildeingabe.",
|
|
669
|
+
"grok-2-image-1212.description": "Unser neuestes Bildgenerierungsmodell erstellt lebendige, realistische Bilder aus Eingabeaufforderungen und eignet sich hervorragend für Marketing, soziale Medien und Unterhaltungsanwendungen.",
|
|
670
|
+
"grok-2-vision-1212.description": "Verbesserte Genauigkeit, Befolgung von Anweisungen und mehrsprachige Fähigkeiten.",
|
|
671
|
+
"grok-3-mini.description": "Ein leichtgewichtiges Modell, das vor der Antwort nachdenkt. Es ist schnell und intelligent bei logischen Aufgaben, die kein tiefes Fachwissen erfordern, mit Zugriff auf rohe Denkspuren.",
|
|
672
|
+
"grok-3.description": "Ein Flaggschiffmodell, das sich für Unternehmensanwendungen wie Datenextraktion, Programmierung und Zusammenfassungen eignet, mit tiefem Fachwissen in Finanzen, Gesundheitswesen, Recht und Wissenschaft.",
|
|
673
|
+
"grok-4-0709.description": "xAIs Grok 4 mit starker Fähigkeit zum logischen Denken.",
|
|
674
|
+
"grok-4-1-fast-non-reasoning.description": "Ein fortschrittliches multimodales Modell, optimiert für leistungsstarke Agenten-Tools.",
|
|
675
|
+
"grok-4-1-fast-reasoning.description": "Ein fortschrittliches multimodales Modell, optimiert für leistungsstarke Agenten-Tools.",
|
|
676
|
+
"grok-4-fast-non-reasoning.description": "Wir freuen uns, Grok 4 Fast vorzustellen – unser neuester Fortschritt bei kosteneffizienten Denkmodellen.",
|
|
677
|
+
"grok-4-fast-reasoning.description": "Wir freuen uns, Grok 4 Fast vorzustellen – unser neuester Fortschritt bei kosteneffizienten Denkmodellen.",
|
|
678
|
+
"grok-4.description": "Unser neuestes und leistungsstärkstes Flaggschiffmodell, das in NLP, Mathematik und logischem Denken herausragt – ein idealer Allrounder.",
|
|
679
|
+
"grok-code-fast-1.description": "Wir freuen uns, grok-code-fast-1 vorzustellen – ein schnelles und kosteneffizientes Denkmodell, das sich besonders für agentenbasiertes Programmieren eignet.",
|
|
680
|
+
"groq/compound-mini.description": "Compound-mini ist ein zusammengesetztes KI-System, das auf öffentlich verfügbaren Modellen basiert und auf GroqCloud unterstützt wird. Es nutzt intelligent und selektiv Tools zur Beantwortung von Nutzeranfragen.",
|
|
681
|
+
"groq/compound.description": "Compound ist ein zusammengesetztes KI-System, das auf mehreren öffentlich verfügbaren Modellen basiert und auf GroqCloud unterstützt wird. Es nutzt intelligent und selektiv Tools zur Beantwortung von Nutzeranfragen.",
|
|
682
|
+
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B ist ein kreatives, intelligentes Sprachmodell, das aus mehreren Spitzenmodellen zusammengeführt wurde.",
|
|
683
|
+
"hunyuan-a13b.description": "Das erste hybride Denkmodell von Hunyuan, aufgerüstet von hunyuan-standard-256K (80B gesamt, 13B aktiv). Standardmäßig im langsamen Denkmodus, unterstützt Umschaltung zwischen schnell/langsam über Parameter oder Präfix /no_think. Insgesamt verbesserte Fähigkeiten gegenüber der vorherigen Generation, insbesondere in Mathematik, Wissenschaft, Langtextverständnis und Agentenaufgaben.",
|
|
684
|
+
"hunyuan-code.description": "Neuestes Codegenerierungsmodell, trainiert mit 200B hochwertigem Code und sechs Monaten SFT; Kontext erweitert auf 8K. Führend in automatisierten Benchmarks für fünf Programmiersprachen und in menschlichen Bewertungen nach zehn Kriterien.",
|
|
685
|
+
"hunyuan-functioncall.description": "Neuestes MoE FunctionCall-Modell, trainiert mit hochwertigen Funktionsaufrufdaten, mit 32K Kontextfenster und führenden Benchmark-Ergebnissen in mehreren Dimensionen.",
|
|
686
|
+
"hunyuan-large-longcontext.description": "Hervorragend bei Langdokumentaufgaben wie Zusammenfassungen und Fragenbeantwortung, bewältigt aber auch allgemeine Generierung. Starke Analyse und Generierung von langen, komplexen Inhalten.",
|
|
687
|
+
"hunyuan-large-vision.description": "Ein visuell-sprachliches Modell, trainiert auf Basis von Hunyuan Large für Bild-Text-Verständnis. Unterstützt Multi-Bild- + Texteingaben in beliebiger Auflösung und verbessert das mehrsprachige visuelle Verständnis.",
|
|
688
|
+
"hunyuan-large.description": "Hunyuan-large verfügt über ~389B Gesamtparameter und ~52B aktive – das größte und leistungsstärkste offene MoE-Modell in einer Transformer-Architektur.",
|
|
689
|
+
"hunyuan-lite-vision.description": "Neuestes 7B multimodales Modell mit 32K Kontextfenster, unterstützt chinesisch/englischen multimodalen Chat, Objekterkennung, Dokumenttabellenverständnis und multimodale Mathematik, übertrifft 7B-Konkurrenzmodelle in mehreren Benchmarks.",
|
|
690
|
+
"hunyuan-lite.description": "Aufgerüstet auf eine MoE-Architektur mit 256K Kontextfenster, führend gegenüber vielen offenen Modellen in NLP, Code, Mathematik und Branchenbenchmarks.",
|
|
691
|
+
"hunyuan-pro.description": "MoE-Modell mit Billionenparametern und 32K Kontext, führend in Benchmarks, stark bei komplexen Anweisungen und logischem Denken, fortgeschrittener Mathematik, Funktionsaufrufen und optimiert für mehrsprachige Übersetzung, Finanzen, Recht und Medizin.",
|
|
692
|
+
"hunyuan-role.description": "Neuestes Rollenspielmodell, offiziell auf Rollenspieldatensätzen feinabgestimmt, mit verbesserter Basisleistung für Rollenspielszenarien.",
|
|
693
|
+
"hunyuan-standard-256K.description": "Verwendet verbessertes Routing zur Minderung von Lastverteilung und Expertenkollaps. Erreicht 99,9 % Trefferquote bei Nadel-im-Heuhaufen-Aufgaben im langen Kontext. MOE-256K erweitert Kontextlänge und -qualität weiter.",
|
|
694
|
+
"hunyuan-standard-vision.description": "Neuestes multimodales Modell mit mehrsprachigen Antworten und ausgewogener chinesisch/englischer Fähigkeit.",
|
|
695
|
+
"hunyuan-standard.description": "Verwendet verbessertes Routing zur Minderung von Lastverteilung und Expertenkollaps. Erreicht 99,9 % Trefferquote bei Nadel-im-Heuhaufen-Aufgaben im langen Kontext. MOE-32K bietet starken Mehrwert bei der Verarbeitung langer Eingaben.",
|
|
696
|
+
"hunyuan-t1-20250321.description": "Vereint künstlerische und MINT-Fähigkeiten mit starkem Langtextverständnis. Unterstützt logische Antworten für Mathematik-, Logik-, Wissenschafts- und Programmierprobleme auf verschiedenen Schwierigkeitsstufen.",
|
|
697
|
+
"hunyuan-t1-20250403.description": "Verbessert die Codegenerierung auf Projektebene und die Schreibqualität, stärkt das Verständnis mehrerer Gesprächsrunden und die Befolgung von ToB-Anweisungen, verbessert das Wortverständnis und reduziert Probleme mit gemischter vereinfachter/traditioneller und chinesisch/englischer Ausgabe.",
|
|
698
|
+
"hunyuan-t1-20250529.description": "Verbessert kreatives Schreiben und Komposition, stärkt Frontend-Programmierung, Mathematik und logisches Denken sowie die Befolgung von Anweisungen.",
|
|
699
|
+
"hunyuan-t1-20250711.description": "Verbessert stark schwierige Mathematik-, Logik- und Programmierfähigkeiten, erhöht die Ausgabestabilität und stärkt die Langtextverarbeitung.",
|
|
700
|
+
"hunyuan-t1-latest.description": "Verbessert das langsame Denkmodell deutlich bei schwieriger Mathematik, komplexem logischen Denken, anspruchsvoller Programmierung, Befolgung von Anweisungen und kreativer Schreibqualität.",
|
|
701
|
+
"hunyuan-t1-vision-20250619.description": "Neuestes t1-vision multimodales Modell mit tiefem logischen Denken und nativer Kettenlogik, deutlich verbessert gegenüber der vorherigen Standardversion.",
|
|
702
|
+
"hunyuan-t1-vision-20250916.description": "Neuestes t1-vision Modell mit großen Fortschritten in VQA, visueller Verankerung, OCR, Diagrammen, Lösung fotografierter Aufgaben und bildbasierter Kreation sowie stärkerem Englisch und Unterstützung für ressourcenschwache Sprachen.",
|
|
703
|
+
"hunyuan-turbo-20241223.description": "Diese Version verbessert die Skalierung von Anweisungen für bessere Generalisierung, stärkt Mathematik-/Code-/Logikdenken, verbessert das Wortverständnis und die Schreibqualität.",
|
|
704
|
+
"hunyuan-turbo-latest.description": "Allgemeine Verbesserungen in NLP-Verständnis, Schreiben, Chat, QA, Übersetzung und Fachgebieten; menschlichere Antworten, bessere Klärung bei unklarer Absicht, verbessertes Wortverständnis, höhere kreative Qualität und Interaktivität sowie stärkere Mehrfachdialoge.",
|
|
705
|
+
"hunyuan-turbo-vision.description": "Flaggschiff der nächsten Generation im Bereich Vision-Language mit neuer MoE-Architektur, umfassenden Verbesserungen in Erkennung, Inhaltserstellung, Wissens-QA und analytischem Denken.",
|
|
706
|
+
"hunyuan-turbo.description": "Vorschau auf Hunyuan’s LLM der nächsten Generation mit neuer MoE-Architektur, liefert schnelleres Denken und bessere Ergebnisse als hunyuan-pro.",
|
|
669
707
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
|
|
670
708
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
|
|
671
709
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
|
|
@@ -58,6 +58,7 @@
|
|
|
58
58
|
"screen4.title": "How would you like to share data?",
|
|
59
59
|
"screen4.title2": "Your choice helps us improve",
|
|
60
60
|
"screen4.title3": "You can change this anytime in settings",
|
|
61
|
+
"screen5.actions.cancel": "Cancel",
|
|
61
62
|
"screen5.actions.connectToServer": "Connect to Server",
|
|
62
63
|
"screen5.actions.connecting": "Connecting...",
|
|
63
64
|
"screen5.actions.signInCloud": "Sign in to LobeHub Cloud",
|
|
@@ -65,6 +66,10 @@
|
|
|
65
66
|
"screen5.actions.signingIn": "Signing in...",
|
|
66
67
|
"screen5.actions.signingOut": "Signing out...",
|
|
67
68
|
"screen5.actions.tryAgain": "Try Again",
|
|
69
|
+
"screen5.auth.phase.browserOpened": "Browser opened, please sign in...",
|
|
70
|
+
"screen5.auth.phase.verifying": "Verifying credentials...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "Waiting for authorization...",
|
|
72
|
+
"screen5.auth.remaining": "Remaining: {{time}}s",
|
|
68
73
|
"screen5.badge": "Sign in",
|
|
69
74
|
"screen5.description": "Sign in to sync Agents, Groups, settings, and Context across all devices.",
|
|
70
75
|
"screen5.errors.desktopOnlyOidc": "OIDC authorization is only available in the desktop app runtime.",
|
|
@@ -141,6 +141,15 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "Last Year",
|
|
142
142
|
"footer.desc": "Evolve with AI users worldwide. Become a creator to submit your agents and skills to the LobeHub Community.",
|
|
143
143
|
"footer.title": "Share your creation on LobeHub Community today",
|
|
144
|
+
"fork.alreadyForked": "You have already forked this agent. Navigating to your fork...",
|
|
145
|
+
"fork.failed": "Fork failed. Please try again.",
|
|
146
|
+
"fork.forkAndChat": "Fork & Chat",
|
|
147
|
+
"fork.forkedFrom": "Forked from",
|
|
148
|
+
"fork.forks": "forks",
|
|
149
|
+
"fork.forksCount": "{{count}} fork",
|
|
150
|
+
"fork.forksCount_other": "{{count}} forks",
|
|
151
|
+
"fork.success": "Forked successfully!",
|
|
152
|
+
"fork.viewAllForks": "View all forks",
|
|
144
153
|
"groupAgents.tag": "Group",
|
|
145
154
|
"home.communityAgents": "Community Agents",
|
|
146
155
|
"home.featuredAssistants": "Featured Agents",
|
|
@@ -472,14 +481,19 @@
|
|
|
472
481
|
"user.follow": "Follow",
|
|
473
482
|
"user.followers": "Followers",
|
|
474
483
|
"user.following": "Following",
|
|
484
|
+
"user.forkedAgentGroups": "Forked Agent Groups",
|
|
485
|
+
"user.forkedAgents": "Forked Agents",
|
|
475
486
|
"user.login": "Become a Creator",
|
|
476
487
|
"user.logout": "Logout",
|
|
477
488
|
"user.myProfile": "My Profile",
|
|
478
489
|
"user.noAgents": "This user hasn’t published any Agents yet",
|
|
479
490
|
"user.noFavoriteAgents": "No saved Agents yet",
|
|
480
491
|
"user.noFavoritePlugins": "No saved Skills yet",
|
|
492
|
+
"user.noForkedAgentGroups": "No forked Agent Groups yet",
|
|
493
|
+
"user.noForkedAgents": "No forked Agents yet",
|
|
481
494
|
"user.publishedAgents": "Created Agents",
|
|
482
495
|
"user.tabs.favorites": "Favorites",
|
|
496
|
+
"user.tabs.forkedAgents": "Forked",
|
|
483
497
|
"user.tabs.publishedAgents": "Created",
|
|
484
498
|
"user.unfavorite": "Unsave",
|
|
485
499
|
"user.unfavoriteFailed": "Failed to unsave",
|
package/locales/es-ES/chat.json
CHANGED
|
@@ -204,6 +204,7 @@
|
|
|
204
204
|
"noSelectedAgents": "Aún no se han seleccionado miembros",
|
|
205
205
|
"openInNewWindow": "Abrir en una nueva ventana",
|
|
206
206
|
"operation.execAgentRuntime": "Preparando respuesta",
|
|
207
|
+
"operation.execClientTask": "Ejecutando tarea",
|
|
207
208
|
"operation.sendMessage": "Enviando mensaje",
|
|
208
209
|
"owner": "Propietario del grupo",
|
|
209
210
|
"pageCopilot.title": "Agente de página",
|
|
@@ -322,11 +323,15 @@
|
|
|
322
323
|
"tab.profile": "Perfil del agente",
|
|
323
324
|
"tab.search": "Buscar",
|
|
324
325
|
"task.activity.calling": "Llamando habilidad...",
|
|
326
|
+
"task.activity.clientExecuting": "Ejecutando localmente...",
|
|
325
327
|
"task.activity.generating": "Generando respuesta...",
|
|
326
328
|
"task.activity.gotResult": "Resultado de herramienta recibido",
|
|
327
329
|
"task.activity.toolCalling": "Llamando a {{toolName}}...",
|
|
328
330
|
"task.activity.toolResult": "Resultado de {{toolName}} recibido",
|
|
329
331
|
"task.batchTasks": "{{count}} subtareas en lote",
|
|
332
|
+
"task.instruction": "Instrucciones de la tarea",
|
|
333
|
+
"task.intermediateSteps": "{{count}} pasos intermedios",
|
|
334
|
+
"task.metrics.duration": "(duró {{duration}})",
|
|
330
335
|
"task.metrics.stepsShort": "pasos",
|
|
331
336
|
"task.metrics.toolCallsShort": "usos de herramientas",
|
|
332
337
|
"task.status.cancelled": "Tarea cancelada",
|
|
@@ -58,6 +58,7 @@
|
|
|
58
58
|
"screen4.title": "¿Cómo te gustaría compartir tus datos?",
|
|
59
59
|
"screen4.title2": "Tu elección nos ayuda a mejorar",
|
|
60
60
|
"screen4.title3": "Puedes cambiar esto en cualquier momento desde la configuración",
|
|
61
|
+
"screen5.actions.cancel": "Cancelar",
|
|
61
62
|
"screen5.actions.connectToServer": "Conectar al servidor",
|
|
62
63
|
"screen5.actions.connecting": "Conectando...",
|
|
63
64
|
"screen5.actions.signInCloud": "Iniciar sesión en LobeHub Cloud",
|
|
@@ -65,6 +66,10 @@
|
|
|
65
66
|
"screen5.actions.signingIn": "Iniciando sesión...",
|
|
66
67
|
"screen5.actions.signingOut": "Cerrando sesión...",
|
|
67
68
|
"screen5.actions.tryAgain": "Intentar de nuevo",
|
|
69
|
+
"screen5.auth.phase.browserOpened": "Navegador abierto, por favor inicia sesión...",
|
|
70
|
+
"screen5.auth.phase.verifying": "Verificando credenciales...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "Esperando autorización...",
|
|
72
|
+
"screen5.auth.remaining": "Restante: {{time}}s",
|
|
68
73
|
"screen5.badge": "Iniciar sesión",
|
|
69
74
|
"screen5.description": "Inicia sesión para sincronizar Agentes, Grupos, configuración y Contexto en todos tus dispositivos.",
|
|
70
75
|
"screen5.errors.desktopOnlyOidc": "La autorización OIDC solo está disponible en la aplicación de escritorio.",
|
|
@@ -141,6 +141,16 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "Último Año",
|
|
142
142
|
"footer.desc": "Evoluciona con usuarios de IA de todo el mundo. Conviértete en creador y publica tus agentes y habilidades en la Comunidad LobeHub.",
|
|
143
143
|
"footer.title": "Comparte tu creación hoy en la Comunidad LobeHub",
|
|
144
|
+
"fork.alreadyForked": "Ya has bifurcado este agente. Redirigiendo a tu bifurcación...",
|
|
145
|
+
"fork.failed": "La bifurcación ha fallado. Por favor, inténtalo de nuevo.",
|
|
146
|
+
"fork.forkAndChat": "Bifurcar y chatear",
|
|
147
|
+
"fork.forkedFrom": "Bifurcado de",
|
|
148
|
+
"fork.forks": "bifurcaciones",
|
|
149
|
+
"fork.forksCount": "{{count}} bifurcación",
|
|
150
|
+
"fork.forksCount_other": "{{count}} bifurcaciones",
|
|
151
|
+
"fork.success": "¡Bifurcación realizada con éxito!",
|
|
152
|
+
"fork.viewAllForks": "Ver todas las bifurcaciones",
|
|
153
|
+
"groupAgents.tag": "Grupo",
|
|
144
154
|
"home.communityAgents": "Agentes de la Comunidad",
|
|
145
155
|
"home.featuredAssistants": "Agentes Destacados",
|
|
146
156
|
"home.featuredModels": "Modelos Destacados",
|
|
@@ -471,14 +481,19 @@
|
|
|
471
481
|
"user.follow": "Seguir",
|
|
472
482
|
"user.followers": "Seguidores",
|
|
473
483
|
"user.following": "Siguiendo",
|
|
484
|
+
"user.forkedAgentGroups": "Grupos de agentes bifurcados",
|
|
485
|
+
"user.forkedAgents": "Agentes bifurcados",
|
|
474
486
|
"user.login": "Conviértete en Creador",
|
|
475
487
|
"user.logout": "Cerrar Sesión",
|
|
476
488
|
"user.myProfile": "Mi Perfil",
|
|
477
489
|
"user.noAgents": "Este usuario aún no ha publicado ningún Agente",
|
|
478
490
|
"user.noFavoriteAgents": "Aún no hay Agentes guardados",
|
|
479
491
|
"user.noFavoritePlugins": "Aún no hay Habilidades guardadas",
|
|
492
|
+
"user.noForkedAgentGroups": "Aún no hay grupos de agentes bifurcados",
|
|
493
|
+
"user.noForkedAgents": "Aún no hay agentes bifurcados",
|
|
480
494
|
"user.publishedAgents": "Agentes Creados",
|
|
481
495
|
"user.tabs.favorites": "Favoritos",
|
|
496
|
+
"user.tabs.forkedAgents": "Bifurcados",
|
|
482
497
|
"user.tabs.publishedAgents": "Creados",
|
|
483
498
|
"user.unfavorite": "Eliminar de Favoritos",
|
|
484
499
|
"user.unfavoriteFailed": "No se pudo eliminar de favoritos",
|
|
@@ -677,6 +677,44 @@
|
|
|
677
677
|
"grok-4-fast-reasoning.description": "Nos complace lanzar Grok 4 Fast, nuestro último avance en modelos de razonamiento rentables.",
|
|
678
678
|
"grok-4.description": "Nuestro modelo insignia más nuevo y potente, que destaca en PLN, matemáticas y razonamiento: un todoterreno ideal.",
|
|
679
679
|
"grok-code-fast-1.description": "Nos complace lanzar grok-code-fast-1, un modelo de razonamiento rápido y rentable que destaca en codificación agente.",
|
|
680
|
+
"groq/compound-mini.description": "Compound-mini es un sistema de IA compuesto impulsado por modelos públicos disponibles en GroqCloud, que utiliza herramientas de forma inteligente y selectiva para responder a las consultas de los usuarios.",
|
|
681
|
+
"groq/compound.description": "Compound es un sistema de IA compuesto impulsado por múltiples modelos públicos disponibles en GroqCloud, que utiliza herramientas de forma inteligente y selectiva para responder a las consultas de los usuarios.",
|
|
682
|
+
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B es un modelo de lenguaje creativo e inteligente, resultado de la fusión de varios modelos de alto nivel.",
|
|
683
|
+
"hunyuan-a13b.description": "El primer modelo de razonamiento híbrido de Hunyuan, mejorado a partir del hunyuan-standard-256K (80B en total, 13B activos). Por defecto utiliza pensamiento lento y permite cambiar entre pensamiento rápido/lento mediante parámetros o el prefijo /no_think. Su capacidad general ha mejorado respecto a la generación anterior, especialmente en matemáticas, ciencia, comprensión de textos largos y tareas de agentes.",
|
|
684
|
+
"hunyuan-code.description": "Último modelo de generación de código entrenado con 200B de código de alta calidad y seis meses de SFT; contexto ampliado a 8K. Ocupa los primeros puestos en benchmarks automatizados para cinco lenguajes y en evaluaciones humanas según diez criterios.",
|
|
685
|
+
"hunyuan-functioncall.description": "Último modelo MoE FunctionCall entrenado con datos de llamadas a funciones de alta calidad, con una ventana de contexto de 32K y resultados líderes en benchmarks en múltiples dimensiones.",
|
|
686
|
+
"hunyuan-large-longcontext.description": "Destaca en tareas con documentos largos como resúmenes y preguntas/respuestas, además de generación general. Fuerte en análisis y generación de textos extensos y complejos.",
|
|
687
|
+
"hunyuan-large-vision.description": "Modelo visión-lenguaje entrenado a partir de Hunyuan Large para comprensión imagen-texto. Admite entrada de múltiples imágenes + texto en cualquier resolución y mejora la comprensión visual multilingüe.",
|
|
688
|
+
"hunyuan-large.description": "Hunyuan-large cuenta con ~389B de parámetros totales y ~52B activados, siendo el modelo MoE abierto más grande y potente con arquitectura Transformer.",
|
|
689
|
+
"hunyuan-lite-vision.description": "Modelo multimodal de 7B más reciente con ventana de contexto de 32K, compatible con chat multimodal en chino/inglés, reconocimiento de objetos, comprensión de tablas en documentos y matemáticas multimodales, superando a sus pares de 7B en múltiples benchmarks.",
|
|
690
|
+
"hunyuan-lite.description": "Actualizado a una arquitectura MoE con ventana de contexto de 256K, liderando muchos modelos abiertos en benchmarks de NLP, código, matemáticas e industria.",
|
|
691
|
+
"hunyuan-pro.description": "Modelo MoE de un billón de parámetros con contexto largo de 32K, líder en benchmarks, fuerte en instrucciones complejas y razonamiento, matemáticas avanzadas, llamadas a funciones y optimizado para traducción multilingüe, finanzas, derecho y medicina.",
|
|
692
|
+
"hunyuan-role.description": "Último modelo de rol, ajustado oficialmente con conjuntos de datos de rol, ofreciendo un rendimiento base más sólido para escenarios de interpretación de personajes.",
|
|
693
|
+
"hunyuan-standard-256K.description": "Utiliza enrutamiento mejorado para mitigar el desequilibrio de carga y el colapso de expertos. Logra un 99.9% en la prueba de aguja en un pajar en contexto largo. MOE-256K amplía aún más la longitud y calidad del contexto.",
|
|
694
|
+
"hunyuan-standard-vision.description": "Último modelo multimodal con respuestas multilingües y capacidad equilibrada en chino/inglés.",
|
|
695
|
+
"hunyuan-standard.description": "Utiliza enrutamiento mejorado para mitigar el desequilibrio de carga y el colapso de expertos. Logra un 99.9% en la prueba de aguja en un pajar en contexto largo. MOE-32K ofrece gran valor al manejar entradas extensas.",
|
|
696
|
+
"hunyuan-t1-20250321.description": "Desarrolla capacidades equilibradas en artes y STEM con fuerte captura de información en textos largos. Soporta razonamiento en matemáticas, lógica, ciencia y problemas de código en distintos niveles de dificultad.",
|
|
697
|
+
"hunyuan-t1-20250403.description": "Mejora la generación de código a nivel de proyecto y la calidad de redacción, refuerza la comprensión de temas en múltiples turnos y el seguimiento de instrucciones ToB, mejora la comprensión a nivel de palabra y reduce problemas de mezcla entre chino simplificado/tradicional e inglés.",
|
|
698
|
+
"hunyuan-t1-20250529.description": "Mejora la escritura creativa y la composición, refuerza la codificación frontend, el razonamiento matemático y lógico, y mejora el seguimiento de instrucciones.",
|
|
699
|
+
"hunyuan-t1-20250711.description": "Mejora significativamente en matemáticas complejas, lógica y codificación, aumenta la estabilidad de salida y mejora la capacidad en textos largos.",
|
|
700
|
+
"hunyuan-t1-latest.description": "Mejora significativamente el modelo de pensamiento lento en matemáticas complejas, razonamiento avanzado, codificación difícil, seguimiento de instrucciones y calidad de escritura creativa.",
|
|
701
|
+
"hunyuan-t1-vision-20250619.description": "Último modelo multimodal de razonamiento profundo t1-vision con cadena de pensamiento nativa larga, significativamente mejorado respecto a la versión predeterminada anterior.",
|
|
702
|
+
"hunyuan-t1-vision-20250916.description": "Último modelo de razonamiento profundo t1-vision con grandes mejoras en VQA, anclaje visual, OCR, gráficos, resolución de problemas fotografiados y creación basada en imágenes, además de mayor rendimiento en inglés y lenguas de bajos recursos.",
|
|
703
|
+
"hunyuan-turbo-20241223.description": "Esta versión mejora la escalabilidad de instrucciones para una mejor generalización, mejora significativamente el razonamiento en matemáticas/código/lógica, refuerza la comprensión a nivel de palabra y mejora la calidad de redacción.",
|
|
704
|
+
"hunyuan-turbo-latest.description": "Mejoras generales en la experiencia en comprensión de NLP, redacción, chat, QA, traducción y dominios; respuestas más humanas, mejor aclaración de intenciones ambiguas, mejor análisis de palabras, mayor calidad creativa e interactividad, y conversaciones de múltiples turnos más sólidas.",
|
|
705
|
+
"hunyuan-turbo-vision.description": "Modelo insignia visión-lenguaje de próxima generación con nueva arquitectura MoE, con amplias mejoras en reconocimiento, creación de contenido, QA de conocimiento y razonamiento analítico.",
|
|
706
|
+
"hunyuan-turbo.description": "Vista previa del LLM de próxima generación de Hunyuan con nueva arquitectura MoE, que ofrece razonamiento más rápido y mejores resultados que hunyuan-pro.",
|
|
707
|
+
"hunyuan-turbos-20250313.description": "Unifica el estilo de solución matemática y refuerza el QA matemático en múltiples turnos. El estilo de redacción se refina para reducir el tono artificial y añadir elegancia.",
|
|
708
|
+
"hunyuan-turbos-20250416.description": "Base de preentrenamiento mejorada para mejorar la comprensión y seguimiento de instrucciones; la alineación mejora matemáticas, código, lógica y ciencia; mejora la calidad de redacción, comprensión, precisión de traducción y QA de conocimiento; refuerza habilidades de agente, especialmente en comprensión de múltiples turnos.",
|
|
709
|
+
"hunyuan-turbos-20250604.description": "Base de preentrenamiento mejorada con mejor redacción y comprensión lectora, avances significativos en código y STEM, y mejor seguimiento de instrucciones complejas.",
|
|
710
|
+
"hunyuan-turbos-20250926.description": "Mejora en la calidad de datos de preentrenamiento y estrategia de postentrenamiento, mejorando agentes, idiomas de bajos recursos/inglés, seguimiento de instrucciones, código y capacidades STEM.",
|
|
711
|
+
"hunyuan-turbos-latest.description": "El último modelo insignia Hunyuan TurboS con razonamiento más sólido y mejor experiencia general.",
|
|
712
|
+
"hunyuan-turbos-longtext-128k-20250325.description": "Destaca en tareas con documentos largos como resúmenes y QA, además de generación general. Fuerte en análisis y generación de textos extensos y complejos.",
|
|
713
|
+
"hunyuan-turbos-role-plus.description": "Último modelo de rol, ajustado oficialmente con conjuntos de datos de rol, ofreciendo un rendimiento base más sólido para escenarios de interpretación de personajes.",
|
|
714
|
+
"hunyuan-turbos-vision-20250619.description": "Último modelo insignia visión-lenguaje TurboS con grandes avances en tareas imagen-texto como reconocimiento de entidades, QA de conocimiento, redacción publicitaria y resolución de problemas basados en fotos.",
|
|
715
|
+
"hunyuan-turbos-vision.description": "Modelo insignia visión-lenguaje de próxima generación basado en el último TurboS, centrado en tareas de comprensión imagen-texto como reconocimiento de entidades, QA de conocimiento, redacción publicitaria y resolución de problemas basados en fotos.",
|
|
716
|
+
"hunyuan-vision-1.5-instruct.description": "Modelo de pensamiento rápido para generación de texto a partir de imágenes basado en TurboS, con mejoras notables respecto a la versión anterior en reconocimiento básico de imágenes y razonamiento visual.",
|
|
717
|
+
"hunyuan-vision.description": "Último modelo multimodal que admite entrada de imagen + texto para generar texto.",
|
|
680
718
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
|
|
681
719
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
|
|
682
720
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
|
package/locales/fa-IR/chat.json
CHANGED
|
@@ -204,6 +204,7 @@
|
|
|
204
204
|
"noSelectedAgents": "هنوز عضوی انتخاب نشده است",
|
|
205
205
|
"openInNewWindow": "باز کردن در پنجره جدید",
|
|
206
206
|
"operation.execAgentRuntime": "در حال آمادهسازی پاسخ",
|
|
207
|
+
"operation.execClientTask": "در حال اجرای وظیفه",
|
|
207
208
|
"operation.sendMessage": "در حال ارسال پیام",
|
|
208
209
|
"owner": "مالک گروه",
|
|
209
210
|
"pageCopilot.title": "نماینده صفحه",
|
|
@@ -322,11 +323,15 @@
|
|
|
322
323
|
"tab.profile": "پروفایل نماینده",
|
|
323
324
|
"tab.search": "جستجو",
|
|
324
325
|
"task.activity.calling": "در حال فراخوانی مهارت...",
|
|
326
|
+
"task.activity.clientExecuting": "در حال اجرا بهصورت محلی...",
|
|
325
327
|
"task.activity.generating": "در حال تولید پاسخ...",
|
|
326
328
|
"task.activity.gotResult": "نتیجه ابزار دریافت شد",
|
|
327
329
|
"task.activity.toolCalling": "در حال فراخوانی {{toolName}}...",
|
|
328
330
|
"task.activity.toolResult": "نتیجه {{toolName}} دریافت شد",
|
|
329
331
|
"task.batchTasks": "{{count}} زیرکار گروهی",
|
|
332
|
+
"task.instruction": "دستورالعمل وظیفه",
|
|
333
|
+
"task.intermediateSteps": "{{count}} مرحله میانی",
|
|
334
|
+
"task.metrics.duration": "(مدت زمان: {{duration}})",
|
|
330
335
|
"task.metrics.stepsShort": "گام",
|
|
331
336
|
"task.metrics.toolCallsShort": "استفاده از ابزار",
|
|
332
337
|
"task.status.cancelled": "وظیفه لغو شد",
|
|
@@ -58,6 +58,7 @@
|
|
|
58
58
|
"screen4.title": "چگونه میخواهید دادهها را به اشتراک بگذارید؟",
|
|
59
59
|
"screen4.title2": "انتخاب شما به ما در بهبود کمک میکند",
|
|
60
60
|
"screen4.title3": "شما میتوانید هر زمان از طریق تنظیمات آن را تغییر دهید",
|
|
61
|
+
"screen5.actions.cancel": "لغو",
|
|
61
62
|
"screen5.actions.connectToServer": "اتصال به سرور",
|
|
62
63
|
"screen5.actions.connecting": "در حال اتصال...",
|
|
63
64
|
"screen5.actions.signInCloud": "ورود به LobeHub Cloud",
|
|
@@ -65,6 +66,10 @@
|
|
|
65
66
|
"screen5.actions.signingIn": "در حال ورود...",
|
|
66
67
|
"screen5.actions.signingOut": "در حال خروج...",
|
|
67
68
|
"screen5.actions.tryAgain": "دوباره تلاش کنید",
|
|
69
|
+
"screen5.auth.phase.browserOpened": "مرورگر باز شد، لطفاً وارد شوید...",
|
|
70
|
+
"screen5.auth.phase.verifying": "در حال بررسی اطلاعات ورود...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "در انتظار تأیید هویت...",
|
|
72
|
+
"screen5.auth.remaining": "زمان باقیمانده: {{time}} ثانیه",
|
|
68
73
|
"screen5.badge": "ورود",
|
|
69
74
|
"screen5.description": "برای همگامسازی عوامل، گروهها، تنظیمات و زمینهها در تمام دستگاهها وارد شوید.",
|
|
70
75
|
"screen5.errors.desktopOnlyOidc": "احراز هویت OIDC فقط در نسخه دسکتاپ در دسترس است.",
|
|
@@ -141,6 +141,16 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "سال گذشته",
|
|
142
142
|
"footer.desc": "با کاربران هوش مصنوعی در سراسر جهان رشد کنید. با ارسال عوامل و مهارتهای خود به جامعه LobeHub، خالق شوید.",
|
|
143
143
|
"footer.title": "امروز خلاقیت خود را در جامعه LobeHub به اشتراک بگذارید",
|
|
144
|
+
"fork.alreadyForked": "شما قبلاً این عامل را فورک کردهاید. در حال انتقال به فورک شما...",
|
|
145
|
+
"fork.failed": "فورک ناموفق بود. لطفاً دوباره تلاش کنید.",
|
|
146
|
+
"fork.forkAndChat": "فورک و گفتگو",
|
|
147
|
+
"fork.forkedFrom": "فورک شده از",
|
|
148
|
+
"fork.forks": "فورکها",
|
|
149
|
+
"fork.forksCount": "{{count}} فورک",
|
|
150
|
+
"fork.forksCount_other": "{{count}} فورک",
|
|
151
|
+
"fork.success": "با موفقیت فورک شد!",
|
|
152
|
+
"fork.viewAllForks": "مشاهده همه فورکها",
|
|
153
|
+
"groupAgents.tag": "گروه",
|
|
144
154
|
"home.communityAgents": "عوامل جامعه",
|
|
145
155
|
"home.featuredAssistants": "عوامل ویژه",
|
|
146
156
|
"home.featuredModels": "مدلهای ویژه",
|
|
@@ -471,14 +481,19 @@
|
|
|
471
481
|
"user.follow": "دنبال کردن",
|
|
472
482
|
"user.followers": "دنبالکنندگان",
|
|
473
483
|
"user.following": "دنبالشدهها",
|
|
484
|
+
"user.forkedAgentGroups": "گروههای عامل فورکشده",
|
|
485
|
+
"user.forkedAgents": "عاملهای فورکشده",
|
|
474
486
|
"user.login": "تبدیل به سازنده",
|
|
475
487
|
"user.logout": "خروج",
|
|
476
488
|
"user.myProfile": "پروفایل من",
|
|
477
489
|
"user.noAgents": "این کاربر هنوز عاملی منتشر نکرده است",
|
|
478
490
|
"user.noFavoriteAgents": "هیچ عامل ذخیرهشدهای وجود ندارد",
|
|
479
491
|
"user.noFavoritePlugins": "هیچ مهارت ذخیرهشدهای وجود ندارد",
|
|
492
|
+
"user.noForkedAgentGroups": "هنوز هیچ گروه عامل فورکشدهای وجود ندارد",
|
|
493
|
+
"user.noForkedAgents": "هنوز هیچ عامل فورکشدهای وجود ندارد",
|
|
480
494
|
"user.publishedAgents": "عوامل ایجادشده",
|
|
481
495
|
"user.tabs.favorites": "علاقهمندیها",
|
|
496
|
+
"user.tabs.forkedAgents": "فورکشدهها",
|
|
482
497
|
"user.tabs.publishedAgents": "ایجادشده",
|
|
483
498
|
"user.unfavorite": "لغو ذخیره",
|
|
484
499
|
"user.unfavoriteFailed": "لغو ذخیره ناموفق بود",
|
|
@@ -704,6 +704,17 @@
|
|
|
704
704
|
"hunyuan-turbo-latest.description": "بهبودهای کلی در تجربه کاربری در درک NLP، نوشتار، چت، پرسشوپاسخ، ترجمه و حوزههای تخصصی؛ پاسخهایی شبیهتر به انسان، وضوح بهتر در نیتهای مبهم، تجزیه واژهای بهتر، کیفیت خلاقانه بالاتر و تعاملپذیری بیشتر، و مکالمات چندمرحلهای قویتر.",
|
|
705
705
|
"hunyuan-turbo-vision.description": "مدل پرچمدار نسل بعدی زبان-بینایی با استفاده از معماری جدید MoE، با بهبودهای گسترده در شناسایی، تولید محتوا، پرسشوپاسخ دانشی و استدلال تحلیلی.",
|
|
706
706
|
"hunyuan-turbo.description": "پیشنمایشی از مدل LLM نسل بعدی Hunyuan با معماری جدید MoE، ارائهدهنده استدلال سریعتر و نتایج قویتر نسبت به hunyuan-pro.",
|
|
707
|
+
"hunyuan-turbos-20250313.description": "سبک حل مسائل ریاضی را یکپارچه کرده و توانایی پاسخگویی چندمرحلهای در ریاضی را تقویت میکند. سبک نگارش بهبود یافته تا لحن مصنوعی کاهش یابد و متن صیقلخوردهتری ارائه شود.",
|
|
708
|
+
"hunyuan-turbos-20250416.description": "پایه پیشآموزشی ارتقاء یافته برای درک بهتر دستورالعملها و پیروی از آنها؛ همراستایی بهبود یافته در ریاضی، کدنویسی، منطق و علوم؛ بهبود کیفیت نگارش، درک مطلب، دقت ترجمه و پاسخگویی به سؤالات دانشی؛ تقویت تواناییهای عامل، بهویژه درک چندمرحلهای.",
|
|
709
|
+
"hunyuan-turbos-20250604.description": "پایه پیشآموزشی ارتقاء یافته با بهبود در نگارش و درک مطلب، پیشرفت چشمگیر در کدنویسی و علوم پایه، و پیروی بهتر از دستورالعملهای پیچیده.",
|
|
710
|
+
"hunyuan-turbos-20250926.description": "کیفیت دادههای پیشآموزشی و استراتژی پسآموزشی ارتقاء یافته، با بهبود در عملکرد عاملها، زبان انگلیسی و زبانهای کممنبع، پیروی از دستورالعملها، کدنویسی و تواناییهای STEM.",
|
|
711
|
+
"hunyuan-turbos-latest.description": "جدیدترین مدل پرچمدار Hunyuan TurboS با استدلال قویتر و تجربهای کلی بهتر.",
|
|
712
|
+
"hunyuan-turbos-longtext-128k-20250325.description": "در انجام وظایف متنی طولانی مانند خلاصهسازی و پاسخ به سؤالات عملکرد عالی دارد و همچنین در تولید محتوای عمومی توانمند است. در تحلیل و تولید متون بلند و پیچیده بسیار قوی است.",
|
|
713
|
+
"hunyuan-turbos-role-plus.description": "جدیدترین مدل نقشآفرینی، بهطور رسمی با دادههای نقشآفرینی تنظیم دقیق شده و عملکرد پایهای قویتری در سناریوهای نقشآفرینی ارائه میدهد.",
|
|
714
|
+
"hunyuan-turbos-vision-20250619.description": "جدیدترین مدل پرچمدار TurboS در حوزه بینایی-زبان با پیشرفتهای چشمگیر در وظایف تصویر-متن مانند شناسایی موجودیتها، پاسخ به سؤالات دانشی، نگارش تبلیغاتی و حل مسائل مبتنی بر عکس.",
|
|
715
|
+
"hunyuan-turbos-vision.description": "مدل پرچمدار نسل جدید بینایی-زبان مبتنی بر TurboS جدید، متمرکز بر درک وظایف تصویر-متن مانند شناسایی موجودیتها، پاسخ به سؤالات دانشی، نگارش تبلیغاتی و حل مسائل تصویری.",
|
|
716
|
+
"hunyuan-vision-1.5-instruct.description": "مدلی برای تولید متن از تصویر با تفکر سریع، مبتنی بر پایه TurboS متنی، که نسبت به نسخه قبلی در شناسایی پایهای تصویر و استدلال تحلیلی تصویری بهبود قابلتوجهی دارد.",
|
|
717
|
+
"hunyuan-vision.description": "جدیدترین مدل چندوجهی با پشتیبانی از ورودی تصویر + متن برای تولید متن.",
|
|
707
718
|
"meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعهدهندگان، پژوهشگران و شرکتها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایدههای هوش مصنوعی مولد طراحی شده است. این مدل بهعنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیطهایی با منابع محدود، دستگاههای لبه و زمانهای آموزش سریع مناسب است.",
|
|
708
719
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری.",
|
|
709
720
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامههای عامل با قابلیت درک بصری.",
|
package/locales/fr-FR/chat.json
CHANGED
|
@@ -204,6 +204,7 @@
|
|
|
204
204
|
"noSelectedAgents": "Aucun membre sélectionné pour le moment",
|
|
205
205
|
"openInNewWindow": "Ouvrir dans une nouvelle fenêtre",
|
|
206
206
|
"operation.execAgentRuntime": "Préparation de la réponse",
|
|
207
|
+
"operation.execClientTask": "Exécution de la tâche",
|
|
207
208
|
"operation.sendMessage": "Envoi du message",
|
|
208
209
|
"owner": "Propriétaire du groupe",
|
|
209
210
|
"pageCopilot.title": "Agent de page",
|
|
@@ -322,11 +323,15 @@
|
|
|
322
323
|
"tab.profile": "Profil de l'agent",
|
|
323
324
|
"tab.search": "Recherche",
|
|
324
325
|
"task.activity.calling": "Appel de compétence...",
|
|
326
|
+
"task.activity.clientExecuting": "Exécution en local...",
|
|
325
327
|
"task.activity.generating": "Génération de la réponse...",
|
|
326
328
|
"task.activity.gotResult": "Résultat de l'outil reçu",
|
|
327
329
|
"task.activity.toolCalling": "Appel de {{toolName}}...",
|
|
328
330
|
"task.activity.toolResult": "Résultat de {{toolName}} reçu",
|
|
329
331
|
"task.batchTasks": "{{count}} sous-tâches groupées",
|
|
332
|
+
"task.instruction": "Instruction de la tâche",
|
|
333
|
+
"task.intermediateSteps": "{{count}} étapes intermédiaires",
|
|
334
|
+
"task.metrics.duration": "(durée : {{duration}})",
|
|
330
335
|
"task.metrics.stepsShort": "étapes",
|
|
331
336
|
"task.metrics.toolCallsShort": "utilisations d'outil",
|
|
332
337
|
"task.status.cancelled": "Tâche annulée",
|
|
@@ -58,6 +58,7 @@
|
|
|
58
58
|
"screen4.title": "Comment souhaitez-vous partager vos données ?",
|
|
59
59
|
"screen4.title2": "Votre choix nous aide à nous améliorer",
|
|
60
60
|
"screen4.title3": "Vous pouvez modifier cela à tout moment dans les paramètres",
|
|
61
|
+
"screen5.actions.cancel": "Annuler",
|
|
61
62
|
"screen5.actions.connectToServer": "Se connecter au serveur",
|
|
62
63
|
"screen5.actions.connecting": "Connexion en cours...",
|
|
63
64
|
"screen5.actions.signInCloud": "Se connecter à LobeHub Cloud",
|
|
@@ -65,6 +66,10 @@
|
|
|
65
66
|
"screen5.actions.signingIn": "Connexion en cours...",
|
|
66
67
|
"screen5.actions.signingOut": "Déconnexion en cours...",
|
|
67
68
|
"screen5.actions.tryAgain": "Réessayer",
|
|
69
|
+
"screen5.auth.phase.browserOpened": "Navigateur ouvert, veuillez vous connecter...",
|
|
70
|
+
"screen5.auth.phase.verifying": "Vérification des identifiants...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "En attente de l'autorisation...",
|
|
72
|
+
"screen5.auth.remaining": "Temps restant : {{time}}s",
|
|
68
73
|
"screen5.badge": "Connexion",
|
|
69
74
|
"screen5.description": "Connectez-vous pour synchroniser Agents, Groupes, paramètres et Contexte sur tous vos appareils.",
|
|
70
75
|
"screen5.errors.desktopOnlyOidc": "L'autorisation OIDC est uniquement disponible dans l'application de bureau.",
|
|
@@ -141,6 +141,16 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "Année dernière",
|
|
142
142
|
"footer.desc": "Évoluez avec les utilisateurs d'IA du monde entier. Devenez créateur pour soumettre vos agents et compétences à la communauté LobeHub.",
|
|
143
143
|
"footer.title": "Partagez votre création sur la communauté LobeHub dès aujourd'hui",
|
|
144
|
+
"fork.alreadyForked": "Vous avez déjà forké cet agent. Redirection vers votre fork...",
|
|
145
|
+
"fork.failed": "Échec du fork. Veuillez réessayer.",
|
|
146
|
+
"fork.forkAndChat": "Forker et discuter",
|
|
147
|
+
"fork.forkedFrom": "Forké depuis",
|
|
148
|
+
"fork.forks": "forks",
|
|
149
|
+
"fork.forksCount": "{{count}} fork",
|
|
150
|
+
"fork.forksCount_other": "{{count}} forks",
|
|
151
|
+
"fork.success": "Fork effectué avec succès !",
|
|
152
|
+
"fork.viewAllForks": "Voir tous les forks",
|
|
153
|
+
"groupAgents.tag": "Groupe",
|
|
144
154
|
"home.communityAgents": "Agents de la communauté",
|
|
145
155
|
"home.featuredAssistants": "Agents en vedette",
|
|
146
156
|
"home.featuredModels": "Modèles en vedette",
|
|
@@ -471,14 +481,19 @@
|
|
|
471
481
|
"user.follow": "Suivre",
|
|
472
482
|
"user.followers": "Abonnés",
|
|
473
483
|
"user.following": "Abonnements",
|
|
484
|
+
"user.forkedAgentGroups": "Groupes d’agents forkés",
|
|
485
|
+
"user.forkedAgents": "Agents forkés",
|
|
474
486
|
"user.login": "Devenir créateur",
|
|
475
487
|
"user.logout": "Se déconnecter",
|
|
476
488
|
"user.myProfile": "Mon profil",
|
|
477
489
|
"user.noAgents": "Cet utilisateur n’a pas encore publié d’Agents",
|
|
478
490
|
"user.noFavoriteAgents": "Aucun Agent enregistré pour le moment",
|
|
479
491
|
"user.noFavoritePlugins": "Aucune compétence enregistrée pour le moment",
|
|
492
|
+
"user.noForkedAgentGroups": "Aucun groupe d’agents forkés pour le moment",
|
|
493
|
+
"user.noForkedAgents": "Aucun agent forké pour le moment",
|
|
480
494
|
"user.publishedAgents": "Agents créés",
|
|
481
495
|
"user.tabs.favorites": "Favoris",
|
|
496
|
+
"user.tabs.forkedAgents": "Forkés",
|
|
482
497
|
"user.tabs.publishedAgents": "Créés",
|
|
483
498
|
"user.unfavorite": "Retirer l'enregistrement",
|
|
484
499
|
"user.unfavoriteFailed": "Échec du retrait de l'enregistrement",
|
|
@@ -613,6 +613,42 @@
|
|
|
613
613
|
"gpt-3.5-turbo.description": "GPT 3.5 Turbo pour la génération et la compréhension de texte ; actuellement lié à gpt-3.5-turbo-0125.",
|
|
614
614
|
"gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k est un modèle de génération de texte à haute capacité pour les tâches complexes.",
|
|
615
615
|
"gpt-35-turbo.description": "GPT-3.5 Turbo est le modèle efficace d’OpenAI pour le chat et la génération de texte, avec prise en charge de l’appel de fonctions en parallèle.",
|
|
616
|
+
"gpt-4-0125-preview.description": "Le dernier GPT-4 Turbo intègre la vision. Les requêtes visuelles prennent en charge le mode JSON et l’appel de fonctions. C’est un modèle multimodal économique qui équilibre précision et efficacité pour les applications en temps réel.",
|
|
617
|
+
"gpt-4-0613.description": "GPT-4 offre une fenêtre de contexte étendue pour gérer des entrées plus longues, idéal pour la synthèse d’informations et l’analyse de données à grande échelle.",
|
|
618
|
+
"gpt-4-1106-preview.description": "Le dernier GPT-4 Turbo intègre la vision. Les requêtes visuelles prennent en charge le mode JSON et l’appel de fonctions. C’est un modèle multimodal économique qui équilibre précision et efficacité pour les applications en temps réel.",
|
|
619
|
+
"gpt-4-32k-0613.description": "GPT-4 offre une fenêtre de contexte étendue pour gérer des entrées plus longues, adapté aux scénarios nécessitant une intégration large d’informations et une analyse de données.",
|
|
620
|
+
"gpt-4-32k.description": "GPT-4 offre une fenêtre de contexte étendue pour gérer des entrées plus longues, adapté aux scénarios nécessitant une intégration large d’informations et une analyse de données.",
|
|
621
|
+
"gpt-4-turbo-2024-04-09.description": "Le dernier GPT-4 Turbo intègre la vision. Les requêtes visuelles prennent en charge le mode JSON et l’appel de fonctions. C’est un modèle multimodal économique qui équilibre précision et efficacité pour les applications en temps réel.",
|
|
622
|
+
"gpt-4-turbo-preview.description": "Le dernier GPT-4 Turbo intègre la vision. Les requêtes visuelles prennent en charge le mode JSON et l’appel de fonctions. C’est un modèle multimodal économique qui équilibre précision et efficacité pour les applications en temps réel.",
|
|
623
|
+
"gpt-4-turbo.description": "Le dernier GPT-4 Turbo intègre la vision. Les requêtes visuelles prennent en charge le mode JSON et l’appel de fonctions. C’est un modèle multimodal économique qui équilibre précision et efficacité pour les applications en temps réel.",
|
|
624
|
+
"gpt-4-vision-preview.description": "Aperçu de GPT-4 Vision, conçu pour les tâches d’analyse et de traitement d’images.",
|
|
625
|
+
"gpt-4.1-mini.description": "GPT-4.1 mini équilibre intelligence, rapidité et coût, ce qui le rend attractif pour de nombreux cas d’usage.",
|
|
626
|
+
"gpt-4.1-nano.description": "GPT-4.1 nano est le modèle GPT-4.1 le plus rapide et le plus économique.",
|
|
627
|
+
"gpt-4.1.description": "GPT-4.1 est notre modèle phare pour les tâches complexes et la résolution de problèmes interdomaines.",
|
|
628
|
+
"gpt-4.5-preview.description": "GPT-4.5-preview est le dernier modèle polyvalent avec une connaissance approfondie du monde et une meilleure compréhension des intentions, performant en créativité et en planification d’agents. Sa date limite de connaissance est octobre 2023.",
|
|
629
|
+
"gpt-4.description": "GPT-4 offre une fenêtre de contexte étendue pour gérer des entrées plus longues, idéal pour la synthèse d’informations et l’analyse de données à grande échelle.",
|
|
630
|
+
"gpt-4o-2024-05-13.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
|
|
631
|
+
"gpt-4o-2024-08-06.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel. Il combine une compréhension et une génération linguistiques avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
|
|
632
|
+
"gpt-4o-2024-11-20.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
|
|
633
|
+
"gpt-4o-audio-preview.description": "Aperçu audio de GPT-4o avec entrée et sortie audio.",
|
|
634
|
+
"gpt-4o-mini-audio-preview.description": "Modèle audio GPT-4o mini avec entrée et sortie audio.",
|
|
635
|
+
"gpt-4o-mini-realtime-preview.description": "Variante GPT-4o-mini en temps réel avec E/S audio et texte en temps réel.",
|
|
636
|
+
"gpt-4o-mini-search-preview.description": "Aperçu de recherche GPT-4o mini, entraîné pour comprendre et exécuter des requêtes de recherche web via l’API Chat Completions. La recherche web est facturée par appel d’outil en plus du coût des jetons.",
|
|
637
|
+
"gpt-4o-mini-transcribe.description": "GPT-4o Mini Transcribe est un modèle de transcription vocale qui convertit l’audio en texte avec GPT-4o, améliorant le taux d’erreur de mots, l’identification de la langue et la précision par rapport au modèle Whisper d’origine.",
|
|
638
|
+
"gpt-4o-mini-tts.description": "GPT-4o mini TTS est un modèle de synthèse vocale basé sur GPT-4o mini, convertissant le texte en parole naturelle avec une entrée maximale de 2000 jetons.",
|
|
639
|
+
"gpt-4o-mini.description": "GPT-4o mini est le dernier modèle d’OpenAI après GPT-4 Omni, prenant en charge l’entrée texte+image avec une sortie texte. C’est leur modèle compact le plus avancé, bien moins cher que les modèles de pointe récents et plus de 60 % moins cher que GPT-3.5 Turbo, tout en conservant une intelligence de haut niveau (82 % MMLU).",
|
|
640
|
+
"gpt-4o-realtime-preview-2024-10-01.description": "Variante GPT-4o en temps réel avec E/S audio et texte en temps réel.",
|
|
641
|
+
"gpt-4o-realtime-preview-2025-06-03.description": "Variante GPT-4o en temps réel avec E/S audio et texte en temps réel.",
|
|
642
|
+
"gpt-4o-realtime-preview.description": "Variante GPT-4o en temps réel avec E/S audio et texte en temps réel.",
|
|
643
|
+
"gpt-4o-search-preview.description": "Aperçu de recherche GPT-4o, entraîné pour comprendre et exécuter des requêtes de recherche web via l’API Chat Completions. La recherche web est facturée par appel d’outil en plus du coût des jetons.",
|
|
644
|
+
"gpt-4o-transcribe.description": "GPT-4o Transcribe est un modèle de transcription vocale qui convertit l’audio en texte avec GPT-4o, améliorant le taux d’erreur de mots, l’identification de la langue et la précision par rapport au modèle Whisper d’origine.",
|
|
645
|
+
"gpt-4o.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
|
|
646
|
+
"gpt-5-chat-latest.description": "Le modèle GPT-5 utilisé dans ChatGPT, combinant compréhension et génération avancées pour les applications conversationnelles.",
|
|
647
|
+
"gpt-5-chat.description": "GPT-5 Chat est un modèle en aperçu optimisé pour les scénarios conversationnels. Il prend en charge l’entrée texte et image, produit uniquement du texte, et convient aux chatbots et à l’IA conversationnelle.",
|
|
648
|
+
"gpt-5-codex.description": "GPT-5 Codex est une variante de GPT-5 optimisée pour les tâches de codage agentique dans des environnements de type Codex.",
|
|
649
|
+
"gpt-5-mini.description": "Une variante GPT-5 plus rapide et plus économique pour les tâches bien définies, offrant des réponses rapides tout en maintenant la qualité.",
|
|
650
|
+
"gpt-5-nano.description": "La variante GPT-5 la plus rapide et la plus économique, idéale pour les applications sensibles à la latence et au coût.",
|
|
651
|
+
"gpt-5-pro.description": "GPT-5 pro utilise davantage de ressources pour réfléchir plus en profondeur et fournir des réponses de meilleure qualité de manière constante.",
|
|
616
652
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
|
|
617
653
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
|
|
618
654
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
|
package/locales/it-IT/chat.json
CHANGED
|
@@ -204,6 +204,7 @@
|
|
|
204
204
|
"noSelectedAgents": "Nessun membro selezionato",
|
|
205
205
|
"openInNewWindow": "Apri in una nuova finestra",
|
|
206
206
|
"operation.execAgentRuntime": "Preparazione della risposta",
|
|
207
|
+
"operation.execClientTask": "Esecuzione attività",
|
|
207
208
|
"operation.sendMessage": "Invio del messaggio",
|
|
208
209
|
"owner": "Proprietario del gruppo",
|
|
209
210
|
"pageCopilot.title": "Agente di pagina",
|
|
@@ -322,11 +323,15 @@
|
|
|
322
323
|
"tab.profile": "Profilo agente",
|
|
323
324
|
"tab.search": "Cerca",
|
|
324
325
|
"task.activity.calling": "Chiamata Skill...",
|
|
326
|
+
"task.activity.clientExecuting": "Esecuzione in locale...",
|
|
325
327
|
"task.activity.generating": "Generazione risposta...",
|
|
326
328
|
"task.activity.gotResult": "Risultato strumento ricevuto",
|
|
327
329
|
"task.activity.toolCalling": "Chiamata {{toolName}}...",
|
|
328
330
|
"task.activity.toolResult": "Risultato {{toolName}} ricevuto",
|
|
329
331
|
"task.batchTasks": "{{count}} sottocompiti in batch",
|
|
332
|
+
"task.instruction": "Istruzioni dell'attività",
|
|
333
|
+
"task.intermediateSteps": "{{count}} passaggi intermedi",
|
|
334
|
+
"task.metrics.duration": "(durata: {{duration}})",
|
|
330
335
|
"task.metrics.stepsShort": "passi",
|
|
331
336
|
"task.metrics.toolCallsShort": "usi strumento",
|
|
332
337
|
"task.status.cancelled": "Attività annullata",
|
|
@@ -58,6 +58,7 @@
|
|
|
58
58
|
"screen4.title": "Come desideri condividere i dati?",
|
|
59
59
|
"screen4.title2": "La tua scelta ci aiuta a migliorare",
|
|
60
60
|
"screen4.title3": "Puoi modificarla in qualsiasi momento nelle impostazioni",
|
|
61
|
+
"screen5.actions.cancel": "Annulla",
|
|
61
62
|
"screen5.actions.connectToServer": "Connetti al Server",
|
|
62
63
|
"screen5.actions.connecting": "Connessione in corso...",
|
|
63
64
|
"screen5.actions.signInCloud": "Accedi a LobeHub Cloud",
|
|
@@ -65,6 +66,10 @@
|
|
|
65
66
|
"screen5.actions.signingIn": "Accesso in corso...",
|
|
66
67
|
"screen5.actions.signingOut": "Disconnessione in corso...",
|
|
67
68
|
"screen5.actions.tryAgain": "Riprova",
|
|
69
|
+
"screen5.auth.phase.browserOpened": "Browser aperto, effettua l'accesso...",
|
|
70
|
+
"screen5.auth.phase.verifying": "Verifica delle credenziali in corso...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "In attesa di autorizzazione...",
|
|
72
|
+
"screen5.auth.remaining": "Tempo rimanente: {{time}}s",
|
|
68
73
|
"screen5.badge": "Accesso",
|
|
69
74
|
"screen5.description": "Accedi per sincronizzare Agenti, Gruppi, impostazioni e Contesto su tutti i dispositivi.",
|
|
70
75
|
"screen5.errors.desktopOnlyOidc": "L'autorizzazione OIDC è disponibile solo nell'app desktop.",
|
|
@@ -141,6 +141,16 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "Ultimo Anno",
|
|
142
142
|
"footer.desc": "Evolvi con gli utenti AI di tutto il mondo. Diventa un creatore per inviare i tuoi agenti e abilità alla Community di LobeHub.",
|
|
143
143
|
"footer.title": "Condividi oggi la tua creazione nella Community di LobeHub",
|
|
144
|
+
"fork.alreadyForked": "Hai già forkato questo agente. Reindirizzamento al tuo fork...",
|
|
145
|
+
"fork.failed": "Fork non riuscito. Riprova.",
|
|
146
|
+
"fork.forkAndChat": "Fork e Chat",
|
|
147
|
+
"fork.forkedFrom": "Forkato da",
|
|
148
|
+
"fork.forks": "fork",
|
|
149
|
+
"fork.forksCount": "{{count}} fork",
|
|
150
|
+
"fork.forksCount_other": "{{count}} fork",
|
|
151
|
+
"fork.success": "Fork eseguito con successo!",
|
|
152
|
+
"fork.viewAllForks": "Visualizza tutti i fork",
|
|
153
|
+
"groupAgents.tag": "Gruppo",
|
|
144
154
|
"home.communityAgents": "Agenti della Community",
|
|
145
155
|
"home.featuredAssistants": "Agenti in Evidenza",
|
|
146
156
|
"home.featuredModels": "Modelli in Evidenza",
|
|
@@ -471,14 +481,19 @@
|
|
|
471
481
|
"user.follow": "Segui",
|
|
472
482
|
"user.followers": "Follower",
|
|
473
483
|
"user.following": "Seguiti",
|
|
484
|
+
"user.forkedAgentGroups": "Gruppi di agenti forkati",
|
|
485
|
+
"user.forkedAgents": "Agenti forkati",
|
|
474
486
|
"user.login": "Diventa un Creatore",
|
|
475
487
|
"user.logout": "Esci",
|
|
476
488
|
"user.myProfile": "Il Mio Profilo",
|
|
477
489
|
"user.noAgents": "Questo utente non ha ancora pubblicato Agenti",
|
|
478
490
|
"user.noFavoriteAgents": "Nessun Agente salvato",
|
|
479
491
|
"user.noFavoritePlugins": "Nessuna Abilità salvata",
|
|
492
|
+
"user.noForkedAgentGroups": "Nessun gruppo di agenti forkati",
|
|
493
|
+
"user.noForkedAgents": "Nessun agente forkato",
|
|
480
494
|
"user.publishedAgents": "Agenti Creati",
|
|
481
495
|
"user.tabs.favorites": "Preferiti",
|
|
496
|
+
"user.tabs.forkedAgents": "Forkati",
|
|
482
497
|
"user.tabs.publishedAgents": "Creati",
|
|
483
498
|
"user.unfavorite": "Rimuovi dai salvati",
|
|
484
499
|
"user.unfavoriteFailed": "Impossibile rimuovere dai salvati",
|