@lobehub/lobehub 2.0.0-next.330 → 2.0.0-next.332

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (78) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/e2e/src/support/webServer.ts +95 -43
  4. package/locales/ar/chat.json +5 -0
  5. package/locales/ar/desktop-onboarding.json +5 -0
  6. package/locales/ar/discover.json +15 -0
  7. package/locales/ar/models.json +35 -0
  8. package/locales/bg-BG/chat.json +5 -0
  9. package/locales/bg-BG/desktop-onboarding.json +5 -0
  10. package/locales/bg-BG/discover.json +15 -0
  11. package/locales/bg-BG/models.json +30 -0
  12. package/locales/de-DE/chat.json +5 -0
  13. package/locales/de-DE/desktop-onboarding.json +5 -0
  14. package/locales/de-DE/discover.json +15 -0
  15. package/locales/de-DE/models.json +38 -0
  16. package/locales/en-US/desktop-onboarding.json +5 -0
  17. package/locales/en-US/discover.json +14 -0
  18. package/locales/es-ES/chat.json +5 -0
  19. package/locales/es-ES/desktop-onboarding.json +5 -0
  20. package/locales/es-ES/discover.json +15 -0
  21. package/locales/es-ES/models.json +38 -0
  22. package/locales/fa-IR/chat.json +5 -0
  23. package/locales/fa-IR/desktop-onboarding.json +5 -0
  24. package/locales/fa-IR/discover.json +15 -0
  25. package/locales/fa-IR/models.json +11 -0
  26. package/locales/fr-FR/chat.json +5 -0
  27. package/locales/fr-FR/desktop-onboarding.json +5 -0
  28. package/locales/fr-FR/discover.json +15 -0
  29. package/locales/fr-FR/models.json +36 -0
  30. package/locales/it-IT/chat.json +5 -0
  31. package/locales/it-IT/desktop-onboarding.json +5 -0
  32. package/locales/it-IT/discover.json +15 -0
  33. package/locales/it-IT/models.json +32 -0
  34. package/locales/ja-JP/chat.json +5 -0
  35. package/locales/ja-JP/desktop-onboarding.json +5 -0
  36. package/locales/ja-JP/discover.json +15 -0
  37. package/locales/ja-JP/models.json +42 -0
  38. package/locales/ko-KR/chat.json +5 -0
  39. package/locales/ko-KR/desktop-onboarding.json +5 -0
  40. package/locales/ko-KR/discover.json +15 -0
  41. package/locales/ko-KR/models.json +55 -0
  42. package/locales/nl-NL/chat.json +5 -0
  43. package/locales/nl-NL/desktop-onboarding.json +5 -0
  44. package/locales/nl-NL/discover.json +15 -0
  45. package/locales/nl-NL/models.json +34 -0
  46. package/locales/pl-PL/chat.json +5 -0
  47. package/locales/pl-PL/desktop-onboarding.json +5 -0
  48. package/locales/pl-PL/discover.json +15 -0
  49. package/locales/pl-PL/models.json +31 -0
  50. package/locales/pt-BR/chat.json +5 -0
  51. package/locales/pt-BR/desktop-onboarding.json +5 -0
  52. package/locales/pt-BR/discover.json +15 -0
  53. package/locales/pt-BR/models.json +42 -0
  54. package/locales/ru-RU/chat.json +5 -0
  55. package/locales/ru-RU/desktop-onboarding.json +5 -0
  56. package/locales/ru-RU/discover.json +15 -0
  57. package/locales/ru-RU/models.json +32 -0
  58. package/locales/tr-TR/chat.json +5 -0
  59. package/locales/tr-TR/desktop-onboarding.json +5 -0
  60. package/locales/tr-TR/discover.json +15 -0
  61. package/locales/tr-TR/models.json +48 -0
  62. package/locales/vi-VN/chat.json +5 -0
  63. package/locales/vi-VN/desktop-onboarding.json +5 -0
  64. package/locales/vi-VN/discover.json +15 -0
  65. package/locales/vi-VN/models.json +36 -0
  66. package/locales/zh-CN/desktop-onboarding.json +3 -3
  67. package/locales/zh-CN/discover.json +14 -0
  68. package/locales/zh-CN/models.json +1 -0
  69. package/locales/zh-TW/chat.json +5 -0
  70. package/locales/zh-TW/desktop-onboarding.json +5 -0
  71. package/locales/zh-TW/discover.json +15 -0
  72. package/locales/zh-TW/models.json +42 -0
  73. package/package.json +1 -1
  74. package/src/app/[variants]/(main)/group/profile/features/GroupProfile/index.tsx +12 -6
  75. package/src/app/[variants]/(main)/group/profile/features/MemberProfile/index.tsx +13 -7
  76. package/src/features/EditorCanvas/EditorCanvas.tsx +10 -2
  77. package/src/features/EditorCanvas/EditorDataMode.tsx +27 -18
  78. package/src/store/agentGroup/action.ts +13 -2
@@ -565,6 +565,37 @@
565
565
  "glm-4.7.description": "GLM-4.7 to najnowszy flagowy model Zhipu, ulepszony pod kątem scenariuszy Agentic Coding z lepszymi możliwościami kodowania, planowaniem długoterminowym i współpracą z narzędziami. Osiąga czołowe wyniki wśród modeli open-source w wielu publicznych benchmarkach. Ogólne możliwości zostały ulepszone dzięki bardziej zwięzłym i naturalnym odpowiedziom oraz bardziej wciągającemu stylowi pisania. W przypadku złożonych zadań agenta, przestrzeganie instrukcji podczas wywołań narzędzi jest silniejsze, a estetyka interfejsu i efektywność realizacji zadań długoterminowych w Artifacts i Agentic Coding zostały dodatkowo ulepszone.",
566
566
  "glm-4.description": "GLM-4 to starszy flagowy model wydany w styczniu 2024 r., obecnie zastąpiony przez silniejszy GLM-4-0520.",
567
567
  "glm-4v-flash.description": "GLM-4V-Flash koncentruje się na efektywnym rozumieniu pojedynczych obrazów w scenariuszach szybkiej analizy, takich jak przetwarzanie obrazów w czasie rzeczywistym lub wsadowo.",
568
+ "glm-4v-plus-0111.description": "GLM-4V-Plus rozumie wideo i wiele obrazów, idealny do zadań multimodalnych.",
569
+ "glm-4v-plus.description": "GLM-4V-Plus rozumie wideo i wiele obrazów, idealny do zadań multimodalnych.",
570
+ "glm-4v.description": "GLM-4V zapewnia zaawansowane rozumienie obrazów i wnioskowanie w zadaniach wizualnych.",
571
+ "glm-z1-air.description": "Model wnioskowania o wysokiej zdolności do głębokiej analizy i dedukcji.",
572
+ "glm-z1-airx.description": "Ultraszybkie wnioskowanie przy zachowaniu wysokiej jakości rozumowania.",
573
+ "glm-z1-flash.description": "Seria GLM-Z1 oferuje zaawansowane wnioskowanie z naciskiem na logikę, matematykę i programowanie.",
574
+ "glm-z1-flashx.description": "Szybki i ekonomiczny: ulepszony Flash z ultraszybkim wnioskowaniem i wyższą równoległością.",
575
+ "glm-zero-preview.description": "GLM-Zero-Preview zapewnia zaawansowane wnioskowanie, wyróżniając się w logice, matematyce i programowaniu.",
576
+ "global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję i skalowalną wydajność w złożonych zadaniach wymagających najwyższej jakości odpowiedzi i rozumowania.",
577
+ "google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash oferuje nowej generacji możliwości, w tym doskonałą szybkość, natywne użycie narzędzi, generację multimodalną i kontekst do 1 miliona tokenów.",
578
+ "google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental to najnowszy eksperymentalny model multimodalny Google z poprawioną jakością względem poprzednich wersji, szczególnie w zakresie wiedzy o świecie, kodu i długiego kontekstu.",
579
+ "google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite to lekka wersja Gemini z domyślnie wyłączonym myśleniem, co poprawia opóźnienia i koszty; można je włączyć za pomocą parametrów.",
580
+ "google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite oferuje funkcje nowej generacji, w tym wyjątkową szybkość, wbudowane narzędzia, generację multimodalną i kontekst do 1 miliona tokenów.",
581
+ "google/gemini-2.0-flash.description": "Gemini 2.0 Flash to wysokowydajny model wnioskowania Google do zaawansowanych zadań multimodalnych.",
582
+ "google/gemini-2.5-flash-image-free.description": "Gemini 2.5 Flash Image – darmowy poziom z ograniczonym limitem generacji multimodalnej.",
583
+ "google/gemini-2.5-flash-image-preview.description": "Eksperymentalny model Gemini 2.5 Flash z obsługą generowania obrazów.",
584
+ "google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) to model generowania obrazów Google z obsługą konwersacji multimodalnych.",
585
+ "google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite to lekka wersja Gemini 2.5 zoptymalizowana pod kątem opóźnień i kosztów, odpowiednia do scenariuszy o dużym przepływie danych.",
586
+ "google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash to najbardziej zaawansowany flagowy model Google, stworzony do zaawansowanego wnioskowania, kodowania, matematyki i nauk ścisłych. Zawiera wbudowane „myślenie” dla dokładniejszych odpowiedzi i lepszego przetwarzania kontekstu.\n\nUwaga: model ma dwie wersje — z myśleniem i bez. Ceny różnią się w zależności od wybranej wersji. Wybierając standardową wersję (bez sufiksu „:thinking”), model unika generowania tokenów myślenia.\n\nAby korzystać z myślenia i otrzymywać tokeny myślenia, należy wybrać wariant „:thinking”, który wiąże się z wyższymi kosztami.\n\nGemini 2.5 Flash można również skonfigurować za pomocą parametru „max reasoning tokens” zgodnie z dokumentacją (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
587
+ "google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash to najbardziej zaawansowany flagowy model Google, stworzony do zaawansowanego wnioskowania, kodowania, matematyki i nauk ścisłych. Zawiera wbudowane „myślenie” dla dokładniejszych odpowiedzi i lepszego przetwarzania kontekstu.\n\nUwaga: model ma dwie wersje — z myśleniem i bez. Ceny różnią się w zależności od wybranej wersji. Wybierając standardową wersję (bez sufiksu „:thinking”), model unika generowania tokenów myślenia.\n\nAby korzystać z myślenia i otrzymywać tokeny myślenia, należy wybrać wariant „:thinking”, który wiąże się z wyższymi kosztami.\n\nGemini 2.5 Flash można również skonfigurować za pomocą parametru „max reasoning tokens” zgodnie z dokumentacją (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
588
+ "google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) to rodzina modeli Google obejmująca od niskich opóźnień po wysokowydajne wnioskowanie.",
589
+ "google/gemini-2.5-pro-free.description": "Darmowa wersja Gemini 2.5 Pro z ograniczonym limitem multimodalnego długiego kontekstu, odpowiednia do testów i lekkich zadań.",
590
+ "google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview to najbardziej zaawansowany model myślący Google do rozwiązywania złożonych problemów w kodzie, matematyce i naukach ścisłych oraz do analizy dużych zbiorów danych, baz kodu i dokumentów z długim kontekstem.",
591
+ "google/gemini-2.5-pro.description": "Gemini 2.5 Pro to flagowy model wnioskowania Google z obsługą długiego kontekstu do złożonych zadań.",
592
+ "google/gemini-3-pro-image-preview-free.description": "Gemini 3 Pro Image – darmowy poziom z ograniczonym limitem generacji multimodalnej.",
593
+ "google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów Google z obsługą konwersacji multimodalnych.",
594
+ "google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free oferuje te same możliwości rozumienia i wnioskowania multimodalnego co wersja standardowa, ale z limitami, co czyni go odpowiednim do testów i rzadkich zastosowań.",
595
+ "google/gemini-3-pro-preview.description": "Gemini 3 Pro to model nowej generacji do wnioskowania multimodalnego w rodzinie Gemini, rozumiejący tekst, dźwięk, obrazy i wideo, obsługujący złożone zadania i duże bazy kodu.",
596
+ "google/gemini-embedding-001.description": "Nowoczesny model osadzania tekstu o wysokiej wydajności w języku angielskim, wielojęzycznym i kodzie.",
597
+ "google/gemini-flash-1.5.description": "Gemini 1.5 Flash zapewnia zoptymalizowane przetwarzanie multimodalne dla szerokiego zakresu złożonych zadań.",
598
+ "google/gemini-pro-1.5.description": "Gemini 1.5 Pro łączy najnowsze optymalizacje dla bardziej efektywnego przetwarzania danych multimodalnych.",
568
599
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
569
600
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
570
601
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
@@ -204,6 +204,7 @@
204
204
  "noSelectedAgents": "Nenhum membro selecionado ainda",
205
205
  "openInNewWindow": "Abrir em Nova Janela",
206
206
  "operation.execAgentRuntime": "Preparando resposta",
207
+ "operation.execClientTask": "Executando tarefa",
207
208
  "operation.sendMessage": "Enviando mensagem",
208
209
  "owner": "Proprietário do Grupo",
209
210
  "pageCopilot.title": "Agente da Página",
@@ -322,11 +323,15 @@
322
323
  "tab.profile": "Perfil do Agente",
323
324
  "tab.search": "Buscar",
324
325
  "task.activity.calling": "Chamando Habilidade...",
326
+ "task.activity.clientExecuting": "Executando localmente...",
325
327
  "task.activity.generating": "Gerando resposta...",
326
328
  "task.activity.gotResult": "Resultado da ferramenta recebido",
327
329
  "task.activity.toolCalling": "Chamando {{toolName}}...",
328
330
  "task.activity.toolResult": "Resultado de {{toolName}} recebido",
329
331
  "task.batchTasks": "{{count}} Subtarefas em Lote",
332
+ "task.instruction": "Instruções da Tarefa",
333
+ "task.intermediateSteps": "{{count}} etapas intermediárias",
334
+ "task.metrics.duration": "(levou {{duration}})",
330
335
  "task.metrics.stepsShort": "etapas",
331
336
  "task.metrics.toolCallsShort": "usos de ferramenta",
332
337
  "task.status.cancelled": "Tarefa Cancelada",
@@ -58,6 +58,7 @@
58
58
  "screen4.title": "Como você gostaria de compartilhar os dados?",
59
59
  "screen4.title2": "Sua escolha nos ajuda a melhorar",
60
60
  "screen4.title3": "Você pode alterar isso a qualquer momento nas configurações",
61
+ "screen5.actions.cancel": "Cancelar",
61
62
  "screen5.actions.connectToServer": "Conectar ao Servidor",
62
63
  "screen5.actions.connecting": "Conectando...",
63
64
  "screen5.actions.signInCloud": "Entrar no LobeHub Cloud",
@@ -65,6 +66,10 @@
65
66
  "screen5.actions.signingIn": "Entrando...",
66
67
  "screen5.actions.signingOut": "Saindo...",
67
68
  "screen5.actions.tryAgain": "Tentar Novamente",
69
+ "screen5.auth.phase.browserOpened": "Navegador aberto, faça login...",
70
+ "screen5.auth.phase.verifying": "Verificando credenciais...",
71
+ "screen5.auth.phase.waitingForAuth": "Aguardando autorização...",
72
+ "screen5.auth.remaining": "Restante: {{time}}s",
68
73
  "screen5.badge": "Entrar",
69
74
  "screen5.description": "Entre para sincronizar Agentes, Grupos, configurações e Contexto em todos os dispositivos.",
70
75
  "screen5.errors.desktopOnlyOidc": "A autorização OIDC está disponível apenas no aplicativo desktop.",
@@ -141,6 +141,16 @@
141
141
  "filterBy.timePeriod.year": "Último Ano",
142
142
  "footer.desc": "Evolua com usuários de IA do mundo todo. Torne-se um criador e envie seus agentes e habilidades para a Comunidade LobeHub.",
143
143
  "footer.title": "Compartilhe sua criação na Comunidade LobeHub hoje",
144
+ "fork.alreadyForked": "Você já fez um fork deste agente. Redirecionando para o seu fork...",
145
+ "fork.failed": "Falha ao fazer o fork. Por favor, tente novamente.",
146
+ "fork.forkAndChat": "Fazer Fork e Conversar",
147
+ "fork.forkedFrom": "Fork feito de",
148
+ "fork.forks": "forks",
149
+ "fork.forksCount": "{{count}} fork",
150
+ "fork.forksCount_other": "{{count}} forks",
151
+ "fork.success": "Fork realizado com sucesso!",
152
+ "fork.viewAllForks": "Ver todos os forks",
153
+ "groupAgents.tag": "Grupo",
144
154
  "home.communityAgents": "Agentes da Comunidade",
145
155
  "home.featuredAssistants": "Agentes em Destaque",
146
156
  "home.featuredModels": "Modelos em Destaque",
@@ -471,14 +481,19 @@
471
481
  "user.follow": "Seguir",
472
482
  "user.followers": "Seguidores",
473
483
  "user.following": "Seguindo",
484
+ "user.forkedAgentGroups": "Grupos de Agentes Forkados",
485
+ "user.forkedAgents": "Agentes Forkados",
474
486
  "user.login": "Torne-se um Criador",
475
487
  "user.logout": "Sair",
476
488
  "user.myProfile": "Meu Perfil",
477
489
  "user.noAgents": "Este usuário ainda não publicou nenhum agente",
478
490
  "user.noFavoriteAgents": "Nenhum agente salvo ainda",
479
491
  "user.noFavoritePlugins": "Nenhuma habilidade salva ainda",
492
+ "user.noForkedAgentGroups": "Nenhum grupo de agentes forkado ainda",
493
+ "user.noForkedAgents": "Nenhum agente forkado ainda",
480
494
  "user.publishedAgents": "Agentes Criados",
481
495
  "user.tabs.favorites": "Favoritos",
496
+ "user.tabs.forkedAgents": "Forkados",
482
497
  "user.tabs.publishedAgents": "Criados",
483
498
  "user.unfavorite": "Remover dos Favoritos",
484
499
  "user.unfavoriteFailed": "Falha ao remover dos favoritos",
@@ -680,6 +680,48 @@
680
680
  "groq/compound-mini.description": "Compound-mini é um sistema de IA composto alimentado por modelos públicos disponíveis no GroqCloud, utilizando ferramentas de forma inteligente e seletiva para responder às perguntas dos usuários.",
681
681
  "groq/compound.description": "Compound é um sistema de IA composto alimentado por múltiplos modelos públicos disponíveis no GroqCloud, utilizando ferramentas de forma inteligente e seletiva para responder às perguntas dos usuários.",
682
682
  "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B é um modelo de linguagem criativo e inteligente, fundido a partir de diversos modelos de ponta.",
683
+ "hunyuan-a13b.description": "O primeiro modelo de raciocínio híbrido da Hunyuan, atualizado a partir do hunyuan-standard-256K (80B no total, 13B ativos). Opera por padrão em modo de pensamento lento e permite alternância entre rápido/lento via parâmetros ou prefixo /no_think. A capacidade geral foi aprimorada em relação à geração anterior, especialmente em matemática, ciências, compreensão de textos longos e tarefas de agentes.",
684
+ "hunyuan-code.description": "Modelo mais recente de geração de código, treinado com 200B de código de alta qualidade e seis meses de SFT; contexto expandido para 8K. Classificado entre os melhores em benchmarks automatizados para cinco linguagens e em avaliações humanas em dez critérios.",
685
+ "hunyuan-functioncall.description": "Modelo FunctionCall MoE mais recente, treinado com dados de chamadas de função de alta qualidade, com janela de contexto de 32K e resultados líderes em benchmarks em diversas dimensões.",
686
+ "hunyuan-large-longcontext.description": "Excelente em tarefas com documentos longos, como resumo e perguntas e respostas, além de lidar com geração geral. Forte em análise e geração de textos longos e complexos.",
687
+ "hunyuan-large-vision.description": "Modelo de linguagem e visão treinado a partir do Hunyuan Large para compreensão de imagem e texto. Suporta entrada de múltiplas imagens + texto em qualquer resolução e melhora a compreensão visual multilíngue.",
688
+ "hunyuan-large.description": "O hunyuan-large possui ~389B de parâmetros totais e ~52B ativados, sendo o maior e mais poderoso modelo MoE aberto com arquitetura Transformer.",
689
+ "hunyuan-lite-vision.description": "Modelo multimodal mais recente de 7B com janela de contexto de 32K, compatível com chat multimodal em chinês/inglês, reconhecimento de objetos, compreensão de tabelas em documentos e matemática multimodal, superando outros modelos de 7B em vários benchmarks.",
690
+ "hunyuan-lite.description": "Atualizado para uma arquitetura MoE com janela de contexto de 256K, liderando muitos modelos abertos em benchmarks de NLP, código, matemática e indústria.",
691
+ "hunyuan-pro.description": "Modelo MoE com trilhões de parâmetros e contexto longo de 32K, líder em benchmarks, excelente em instruções complexas e raciocínio, matemática avançada, chamadas de função e otimizado para tradução multilíngue, finanças, direito e medicina.",
692
+ "hunyuan-role.description": "Modelo de interpretação de papéis mais recente, ajustado oficialmente com conjuntos de dados específicos, oferecendo desempenho base mais forte para cenários de roleplay.",
693
+ "hunyuan-standard-256K.description": "Utiliza roteamento aprimorado para mitigar desequilíbrio de carga e colapso de especialistas. Alcança 99,9% em 'agulha no palheiro' com contexto longo. O MOE-256K expande ainda mais o comprimento e a qualidade do contexto.",
694
+ "hunyuan-standard-vision.description": "Modelo multimodal mais recente com respostas multilíngues e equilíbrio entre habilidades em chinês e inglês.",
695
+ "hunyuan-standard.description": "Utiliza roteamento aprimorado para mitigar desequilíbrio de carga e colapso de especialistas. Alcança 99,9% em 'agulha no palheiro' com contexto longo. O MOE-32K oferece ótimo custo-benefício ao lidar com entradas extensas.",
696
+ "hunyuan-t1-20250321.description": "Desenvolve capacidades equilibradas em artes e STEM com forte captura de informações em textos longos. Suporta respostas com raciocínio para problemas de matemática, lógica, ciência e programação em diversos níveis de dificuldade.",
697
+ "hunyuan-t1-20250403.description": "Melhora a geração de código em nível de projeto e a qualidade da escrita, fortalece a compreensão de tópicos em múltiplas interações e o seguimento de instruções ToB, aprimora a compreensão lexical e reduz problemas de mistura entre chinês simplificado/tradicional e chinês/inglês.",
698
+ "hunyuan-t1-20250529.description": "Aprimora a escrita criativa e composição, fortalece a programação frontend, raciocínio matemático e lógico, e melhora o seguimento de instruções.",
699
+ "hunyuan-t1-20250711.description": "Melhora significativamente matemática avançada, lógica e programação, aumenta a estabilidade das respostas e aprimora a capacidade com textos longos.",
700
+ "hunyuan-t1-latest.description": "Melhora significativamente o modelo de pensamento lento em matemática avançada, raciocínio complexo, programação difícil, seguimento de instruções e qualidade da escrita criativa.",
701
+ "hunyuan-t1-vision-20250619.description": "Modelo multimodal de raciocínio profundo t1-vision mais recente com cadeia de pensamento nativa longa, significativamente melhorado em relação à versão padrão anterior.",
702
+ "hunyuan-t1-vision-20250916.description": "Modelo de raciocínio profundo t1-vision mais recente com grandes avanços em VQA, ancoragem visual, OCR, gráficos, resolução de problemas fotografados e criação baseada em imagem, além de melhor desempenho em inglês e idiomas de poucos recursos.",
703
+ "hunyuan-turbo-20241223.description": "Esta versão amplia a escalabilidade de instruções para melhor generalização, melhora significativamente o raciocínio em matemática/código/lógica, aprimora a compreensão lexical e eleva a qualidade da escrita.",
704
+ "hunyuan-turbo-latest.description": "Melhorias gerais na experiência em compreensão de NLP, escrita, chat, perguntas e respostas, tradução e domínios; respostas mais humanas, melhor esclarecimento de intenções ambíguas, análise lexical aprimorada, maior criatividade e interatividade, e conversas multi-turno mais robustas.",
705
+ "hunyuan-turbo-vision.description": "Modelo de linguagem e visão de próxima geração com nova arquitetura MoE, com amplas melhorias em reconhecimento, criação de conteúdo, perguntas e respostas baseadas em conhecimento e raciocínio analítico.",
706
+ "hunyuan-turbo.description": "Prévia do LLM de próxima geração da Hunyuan com nova arquitetura MoE, oferecendo raciocínio mais rápido e resultados superiores ao hunyuan-pro.",
707
+ "hunyuan-turbos-20250313.description": "Unifica o estilo de resolução de problemas matemáticos e fortalece perguntas e respostas matemáticas em múltiplas interações. O estilo de escrita foi refinado para reduzir o tom artificial e adicionar sofisticação.",
708
+ "hunyuan-turbos-20250416.description": "Base de pré-treinamento atualizada para melhorar a compreensão e seguimento de instruções; alinhamento aprimora matemática, código, lógica e ciência; melhora a qualidade da escrita, compreensão, precisão de tradução e perguntas e respostas baseadas em conhecimento; fortalece habilidades de agente, especialmente em múltiplas interações.",
709
+ "hunyuan-turbos-20250604.description": "Base de pré-treinamento atualizada com melhorias na escrita e compreensão de leitura, avanços significativos em código e STEM, e melhor seguimento de instruções complexas.",
710
+ "hunyuan-turbos-20250926.description": "Melhoria na qualidade dos dados de pré-treinamento e estratégia de pós-treinamento, aprimorando agentes, idiomas de poucos recursos/inglês, seguimento de instruções, código e capacidades STEM.",
711
+ "hunyuan-turbos-latest.description": "O mais recente modelo principal Hunyuan TurboS com raciocínio mais forte e melhor experiência geral.",
712
+ "hunyuan-turbos-longtext-128k-20250325.description": "Excelente em tarefas com documentos longos, como resumo e perguntas e respostas, além de lidar com geração geral. Forte em análise e geração de textos longos e complexos.",
713
+ "hunyuan-turbos-role-plus.description": "Modelo de interpretação de papéis mais recente, ajustado oficialmente com conjuntos de dados específicos, oferecendo desempenho base mais forte para cenários de roleplay.",
714
+ "hunyuan-turbos-vision-20250619.description": "Modelo principal TurboS de linguagem e visão mais recente com grandes avanços em tarefas imagem-texto como reconhecimento de entidades, perguntas e respostas baseadas em conhecimento, redação publicitária e resolução de problemas com fotos.",
715
+ "hunyuan-turbos-vision.description": "Modelo principal de linguagem e visão de próxima geração baseado no mais recente TurboS, focado em tarefas de compreensão imagem-texto como reconhecimento de entidades, perguntas e respostas baseadas em conhecimento, redação publicitária e resolução de problemas com fotos.",
716
+ "hunyuan-vision-1.5-instruct.description": "Modelo de pensamento rápido para geração de texto a partir de imagem baseado no TurboS textual. Em comparação com a versão anterior, apresenta melhorias significativas em reconhecimento básico de imagem e raciocínio analítico visual.",
717
+ "hunyuan-vision.description": "Modelo multimodal mais recente com suporte a entrada de imagem + texto para geração de texto.",
718
+ "image-01-live.description": "Modelo de geração de imagem com detalhes refinados, suportando geração de imagem a partir de texto e estilos controláveis.",
719
+ "image-01.description": "Novo modelo de geração de imagem com detalhes refinados, suportando geração de imagem a partir de texto e de imagem para imagem.",
720
+ "imagen-4.0-fast-generate-001.description": "Versão rápida da série de modelos de geração de imagem a partir de texto Imagen de quarta geração.",
721
+ "imagen-4.0-generate-001.description": "Série de modelos de geração de imagem a partir de texto Imagen de quarta geração.",
722
+ "imagen-4.0-generate-preview-06-06.description": "Família de modelos de geração de imagem a partir de texto da quarta geração Imagen.",
723
+ "imagen-4.0-ultra-generate-001.description": "Versão Ultra da série de modelos de geração de imagem a partir de texto Imagen de quarta geração.",
724
+ "imagen-4.0-ultra-generate-preview-06-06.description": "Variante Ultra da quarta geração de modelos de geração de imagem a partir de texto Imagen.",
683
725
  "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
684
726
  "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
685
727
  "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
@@ -204,6 +204,7 @@
204
204
  "noSelectedAgents": "Участники ещё не выбраны",
205
205
  "openInNewWindow": "Открыть в новом окне",
206
206
  "operation.execAgentRuntime": "Подготовка ответа",
207
+ "operation.execClientTask": "Выполнение задачи",
207
208
  "operation.sendMessage": "Отправка сообщения",
208
209
  "owner": "Владелец группы",
209
210
  "pageCopilot.title": "Агент страницы",
@@ -322,11 +323,15 @@
322
323
  "tab.profile": "Профиль агента",
323
324
  "tab.search": "Поиск",
324
325
  "task.activity.calling": "Вызов навыка...",
326
+ "task.activity.clientExecuting": "Выполняется локально...",
325
327
  "task.activity.generating": "Генерация ответа...",
326
328
  "task.activity.gotResult": "Результат инструмента получен",
327
329
  "task.activity.toolCalling": "Вызов {{toolName}}...",
328
330
  "task.activity.toolResult": "Результат {{toolName}} получен",
329
331
  "task.batchTasks": "{{count}} пакетных подзадач",
332
+ "task.instruction": "Инструкция к задаче",
333
+ "task.intermediateSteps": "{{count}} промежуточных этапов",
334
+ "task.metrics.duration": "(заняло {{duration}})",
330
335
  "task.metrics.stepsShort": "шагов",
331
336
  "task.metrics.toolCallsShort": "вызовов",
332
337
  "task.status.cancelled": "Задача отменена",
@@ -58,6 +58,7 @@
58
58
  "screen4.title": "Как вы хотите делиться данными?",
59
59
  "screen4.title2": "Ваш выбор помогает нам становиться лучше",
60
60
  "screen4.title3": "Вы можете изменить это в любое время в настройках",
61
+ "screen5.actions.cancel": "Отмена",
61
62
  "screen5.actions.connectToServer": "Подключиться к серверу",
62
63
  "screen5.actions.connecting": "Подключение...",
63
64
  "screen5.actions.signInCloud": "Войти в LobeHub Cloud",
@@ -65,6 +66,10 @@
65
66
  "screen5.actions.signingIn": "Вход...",
66
67
  "screen5.actions.signingOut": "Выход...",
67
68
  "screen5.actions.tryAgain": "Попробовать снова",
69
+ "screen5.auth.phase.browserOpened": "Браузер открыт, пожалуйста, выполните вход...",
70
+ "screen5.auth.phase.verifying": "Проверка учетных данных...",
71
+ "screen5.auth.phase.waitingForAuth": "Ожидание авторизации...",
72
+ "screen5.auth.remaining": "Осталось: {{time}} с",
68
73
  "screen5.badge": "Вход",
69
74
  "screen5.description": "Войдите, чтобы синхронизировать Агентов, Группы, настройки и Контекст на всех устройствах.",
70
75
  "screen5.errors.desktopOnlyOidc": "Авторизация OIDC доступна только в настольной версии приложения.",
@@ -141,6 +141,16 @@
141
141
  "filterBy.timePeriod.year": "Последний год",
142
142
  "footer.desc": "Развивайтесь вместе с пользователями ИИ по всему миру. Станьте создателем и публикуйте своих агентов и навыки в сообществе LobeHub.",
143
143
  "footer.title": "Поделитесь своим творением в сообществе LobeHub уже сегодня",
144
+ "fork.alreadyForked": "Вы уже сделали форк этого агента. Переход к вашему форку...",
145
+ "fork.failed": "Не удалось сделать форк. Пожалуйста, попробуйте снова.",
146
+ "fork.forkAndChat": "Форк и чат",
147
+ "fork.forkedFrom": "Форк сделан из",
148
+ "fork.forks": "форки",
149
+ "fork.forksCount": "{{count}} форк",
150
+ "fork.forksCount_other": "{{count}} форков",
151
+ "fork.success": "Форк успешно создан!",
152
+ "fork.viewAllForks": "Посмотреть все форки",
153
+ "groupAgents.tag": "Группа",
144
154
  "home.communityAgents": "Агенты сообщества",
145
155
  "home.featuredAssistants": "Избранные агенты",
146
156
  "home.featuredModels": "Избранные модели",
@@ -471,14 +481,19 @@
471
481
  "user.follow": "Подписаться",
472
482
  "user.followers": "Подписчики",
473
483
  "user.following": "Подписки",
484
+ "user.forkedAgentGroups": "Группы агентов с форками",
485
+ "user.forkedAgents": "Агенты с форками",
474
486
  "user.login": "Стать создателем",
475
487
  "user.logout": "Выйти",
476
488
  "user.myProfile": "Мой профиль",
477
489
  "user.noAgents": "Этот пользователь ещё не опубликовал агентов",
478
490
  "user.noFavoriteAgents": "Нет сохранённых агентов",
479
491
  "user.noFavoritePlugins": "Нет сохранённых навыков",
492
+ "user.noForkedAgentGroups": "Пока нет групп агентов с форками",
493
+ "user.noForkedAgents": "Пока нет агентов с форками",
480
494
  "user.publishedAgents": "Созданные агенты",
481
495
  "user.tabs.favorites": "Избранное",
496
+ "user.tabs.forkedAgents": "С форками",
482
497
  "user.tabs.publishedAgents": "Созданные",
483
498
  "user.unfavorite": "Удалить из избранного",
484
499
  "user.unfavoriteFailed": "Не удалось удалить из избранного",
@@ -613,6 +613,38 @@
613
613
  "gpt-3.5-turbo.description": "GPT 3.5 Turbo для генерации и понимания текста; в настоящее время указывает на gpt-3.5-turbo-0125.",
614
614
  "gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k — высокоёмкая модель генерации текста для сложных задач.",
615
615
  "gpt-35-turbo.description": "GPT-3.5 Turbo — эффективная модель от OpenAI для чатов и генерации текста с поддержкой параллельного вызова функций.",
616
+ "gpt-4-0125-preview.description": "Последняя версия GPT-4 Turbo теперь поддерживает обработку изображений. Визуальные запросы поддерживают режим JSON и вызов функций. Это экономичный мультимодальный ИИ, сочетающий точность и эффективность для приложений в реальном времени.",
617
+ "gpt-4-0613.description": "GPT-4 предоставляет расширенное контекстное окно для обработки длинных входных данных, что делает его подходящим для комплексного анализа информации и синтеза данных.",
618
+ "gpt-4-1106-preview.description": "Последняя версия GPT-4 Turbo теперь поддерживает обработку изображений. Визуальные запросы поддерживают режим JSON и вызов функций. Это экономичный мультимодальный ИИ, сочетающий точность и эффективность для приложений в реальном времени.",
619
+ "gpt-4-32k-0613.description": "GPT-4 предоставляет расширенное контекстное окно для обработки длинных входных данных, что делает его подходящим для интеграции информации и анализа данных в сложных сценариях.",
620
+ "gpt-4-32k.description": "GPT-4 предоставляет расширенное контекстное окно для обработки длинных входных данных, что делает его подходящим для интеграции информации и анализа данных в сложных сценариях.",
621
+ "gpt-4-turbo-2024-04-09.description": "Последняя версия GPT-4 Turbo теперь поддерживает обработку изображений. Визуальные запросы поддерживают режим JSON и вызов функций. Это экономичный мультимодальный ИИ, сочетающий точность и эффективность для приложений в реальном времени.",
622
+ "gpt-4-turbo-preview.description": "Последняя версия GPT-4 Turbo теперь поддерживает обработку изображений. Визуальные запросы поддерживают режим JSON и вызов функций. Это экономичный мультимодальный ИИ, сочетающий точность и эффективность для приложений в реальном времени.",
623
+ "gpt-4-turbo.description": "Последняя версия GPT-4 Turbo теперь поддерживает обработку изображений. Визуальные запросы поддерживают режим JSON и вызов функций. Это экономичный мультимодальный ИИ, сочетающий точность и эффективность для приложений в реальном времени.",
624
+ "gpt-4-vision-preview.description": "Предварительная версия GPT-4 Vision, предназначенная для анализа и обработки изображений.",
625
+ "gpt-4.1-mini.description": "GPT-4.1 mini сочетает интеллект, скорость и экономичность, что делает его привлекательным для множества сценариев использования.",
626
+ "gpt-4.1-nano.description": "GPT-4.1 nano — самая быстрая и экономичная модель в линейке GPT-4.1.",
627
+ "gpt-4.1.description": "GPT-4.1 — наша флагманская модель для решения сложных задач и междисциплинарных проблем.",
628
+ "gpt-4.5-preview.description": "GPT-4.5-preview — последняя универсальная модель с глубокими знаниями о мире и улучшенным пониманием намерений. Отлично справляется с творческими задачами и планированием агентов. Актуальность знаний — октябрь 2023 года.",
629
+ "gpt-4.description": "GPT-4 предоставляет расширенное контекстное окно для обработки длинных входных данных, что делает его подходящим для комплексного анализа информации и синтеза данных.",
630
+ "gpt-4o-2024-05-13.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая глубокое понимание и генерацию текста для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
631
+ "gpt-4o-2024-08-06.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени. Она сочетает в себе мощное языковое понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
632
+ "gpt-4o-2024-11-20.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая глубокое понимание и генерацию текста для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
633
+ "gpt-4o-audio-preview.description": "Предварительная версия GPT-4o Audio с поддержкой аудиовхода и аудиовыхода.",
634
+ "gpt-4o-mini-audio-preview.description": "Модель GPT-4o mini Audio с поддержкой аудиовхода и аудиовыхода.",
635
+ "gpt-4o-mini-realtime-preview.description": "Вариант GPT-4o-mini с поддержкой аудио и текста в режиме реального времени.",
636
+ "gpt-4o-mini-search-preview.description": "Предварительная версия GPT-4o mini Search обучена понимать и выполнять веб-поисковые запросы через API Chat Completions. Поиск в интернете тарифицируется отдельно за каждый вызов инструмента, помимо стоимости токенов.",
637
+ "gpt-4o-mini-transcribe.description": "GPT-4o Mini Transcribe — это модель преобразования речи в текст, которая транскрибирует аудио с помощью GPT-4o, улучшая точность распознавания слов, определение языка и общую точность по сравнению с оригинальной моделью Whisper.",
638
+ "gpt-4o-mini-tts.description": "GPT-4o mini TTS — это модель преобразования текста в речь, основанная на GPT-4o mini, преобразующая текст в естественно звучащую речь с максимальным входом до 2000 токенов.",
639
+ "gpt-4o-mini.description": "GPT-4o mini — новейшая модель OpenAI после GPT-4 Omni, поддерживающая ввод текста и изображений с текстовым выводом. Это самая продвинутая компактная модель, значительно дешевле современных передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo, при этом сохраняет высокий уровень интеллекта (82% MMLU).",
640
+ "gpt-4o-realtime-preview-2024-10-01.description": "Вариант GPT-4o с поддержкой аудио и текста в режиме реального времени.",
641
+ "gpt-4o-realtime-preview-2025-06-03.description": "Вариант GPT-4o с поддержкой аудио и текста в режиме реального времени.",
642
+ "gpt-4o-realtime-preview.description": "Вариант GPT-4o с поддержкой аудио и текста в режиме реального времени.",
643
+ "gpt-4o-search-preview.description": "Предварительная версия GPT-4o Search обучена понимать и выполнять веб-поисковые запросы через API Chat Completions. Поиск в интернете тарифицируется отдельно за каждый вызов инструмента, помимо стоимости токенов.",
644
+ "gpt-4o-transcribe.description": "GPT-4o Transcribe — это модель преобразования речи в текст, которая транскрибирует аудио с помощью GPT-4o, улучшая точность распознавания слов, определение языка и общую точность по сравнению с оригинальной моделью Whisper.",
645
+ "gpt-4o.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая глубокое понимание и генерацию текста для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
646
+ "gpt-5-chat-latest.description": "Модель GPT-5, используемая в ChatGPT, сочетает в себе мощное понимание и генерацию для разговорных приложений.",
647
+ "gpt-5-chat.description": "GPT-5 Chat — предварительная модель, оптимизированная для разговорных сценариев. Поддерживает ввод текста и изображений, выводит только текст и подходит для чат-ботов и разговорного ИИ.",
616
648
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
617
649
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
618
650
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
@@ -204,6 +204,7 @@
204
204
  "noSelectedAgents": "Henüz üye seçilmedi",
205
205
  "openInNewWindow": "Yeni Pencerede Aç",
206
206
  "operation.execAgentRuntime": "Yanıt hazırlanıyor",
207
+ "operation.execClientTask": "Görev yürütülüyor",
207
208
  "operation.sendMessage": "Mesaj gönderiliyor",
208
209
  "owner": "Grup sahibi",
209
210
  "pageCopilot.title": "Sayfa Ajanı",
@@ -322,11 +323,15 @@
322
323
  "tab.profile": "Ajan Profili",
323
324
  "tab.search": "Arama",
324
325
  "task.activity.calling": "Yetenek çağrılıyor...",
326
+ "task.activity.clientExecuting": "Yerel olarak yürütülüyor...",
325
327
  "task.activity.generating": "Yanıt oluşturuluyor...",
326
328
  "task.activity.gotResult": "Araç sonucu alındı",
327
329
  "task.activity.toolCalling": "{{toolName}} çağrılıyor...",
328
330
  "task.activity.toolResult": "{{toolName}} sonucu alındı",
329
331
  "task.batchTasks": "{{count}} Toplu Alt Görev",
332
+ "task.instruction": "Görev Talimatı",
333
+ "task.intermediateSteps": "{{count}} ara adım",
334
+ "task.metrics.duration": "({{duration}} sürdü)",
330
335
  "task.metrics.stepsShort": "adım",
331
336
  "task.metrics.toolCallsShort": "araç kullanımı",
332
337
  "task.status.cancelled": "Görev İptal Edildi",
@@ -58,6 +58,7 @@
58
58
  "screen4.title": "Verileri nasıl paylaşmak istersiniz?",
59
59
  "screen4.title2": "Seçiminiz bize gelişmemizde yardımcı olur",
60
60
  "screen4.title3": "Bunu istediğiniz zaman ayarlardan değiştirebilirsiniz",
61
+ "screen5.actions.cancel": "İptal Et",
61
62
  "screen5.actions.connectToServer": "Sunucuya Bağlan",
62
63
  "screen5.actions.connecting": "Bağlanıyor...",
63
64
  "screen5.actions.signInCloud": "LobeHub Cloud'a Giriş Yap",
@@ -65,6 +66,10 @@
65
66
  "screen5.actions.signingIn": "Giriş yapılıyor...",
66
67
  "screen5.actions.signingOut": "Çıkış yapılıyor...",
67
68
  "screen5.actions.tryAgain": "Tekrar Dene",
69
+ "screen5.auth.phase.browserOpened": "Tarayıcı açıldı, lütfen giriş yapın...",
70
+ "screen5.auth.phase.verifying": "Kimlik bilgileri doğrulanıyor...",
71
+ "screen5.auth.phase.waitingForAuth": "Yetkilendirme bekleniyor...",
72
+ "screen5.auth.remaining": "Kalan süre: {{time}} sn",
68
73
  "screen5.badge": "Giriş Yap",
69
74
  "screen5.description": "Ajanlar, Gruplar, ayarlar ve Bağlam'ı tüm cihazlar arasında senkronize etmek için giriş yapın.",
70
75
  "screen5.errors.desktopOnlyOidc": "OIDC yetkilendirmesi yalnızca masaüstü uygulamasında kullanılabilir.",
@@ -141,6 +141,16 @@
141
141
  "filterBy.timePeriod.year": "Son 1 Yıl",
142
142
  "footer.desc": "Dünyadaki yapay zeka kullanıcılarıyla birlikte gelişin. Kendi ajanslarınızı ve becerilerinizi LobeHub Topluluğu'na göndererek bir yaratıcı olun.",
143
143
  "footer.title": "Bugün LobeHub Topluluğu'nda yarattıklarınızı paylaşın",
144
+ "fork.alreadyForked": "Bu ajanı zaten çatalladınız. Çatalınıza yönlendiriliyorsunuz...",
145
+ "fork.failed": "Çatallama başarısız oldu. Lütfen tekrar deneyin.",
146
+ "fork.forkAndChat": "Çatalla ve Sohbet Et",
147
+ "fork.forkedFrom": "Şuradan çatallandı",
148
+ "fork.forks": "çatallar",
149
+ "fork.forksCount": "{{count}} çatal",
150
+ "fork.forksCount_other": "{{count}} çatal",
151
+ "fork.success": "Başarıyla çatallandı!",
152
+ "fork.viewAllForks": "Tüm çatalları görüntüle",
153
+ "groupAgents.tag": "Grup",
144
154
  "home.communityAgents": "Topluluk Ajansları",
145
155
  "home.featuredAssistants": "Öne Çıkan Ajanslar",
146
156
  "home.featuredModels": "Öne Çıkan Modeller",
@@ -471,14 +481,19 @@
471
481
  "user.follow": "Takip Et",
472
482
  "user.followers": "Takipçiler",
473
483
  "user.following": "Takip Edilenler",
484
+ "user.forkedAgentGroups": "Çatallanmış Ajan Grupları",
485
+ "user.forkedAgents": "Çatallanmış Ajanlar",
474
486
  "user.login": "Yaratıcı Ol",
475
487
  "user.logout": "Çıkış Yap",
476
488
  "user.myProfile": "Profilim",
477
489
  "user.noAgents": "Bu kullanıcı henüz Ajans yayınlamadı",
478
490
  "user.noFavoriteAgents": "Henüz kaydedilen Ajans yok",
479
491
  "user.noFavoritePlugins": "Henüz kaydedilen Beceri yok",
492
+ "user.noForkedAgentGroups": "Henüz çatallanmış ajan grubu yok",
493
+ "user.noForkedAgents": "Henüz çatallanmış ajan yok",
480
494
  "user.publishedAgents": "Oluşturulan Ajanslar",
481
495
  "user.tabs.favorites": "Favoriler",
496
+ "user.tabs.forkedAgents": "Çatallanmış",
482
497
  "user.tabs.publishedAgents": "Oluşturulanlar",
483
498
  "user.unfavorite": "Kaydı Kaldır",
484
499
  "user.unfavoriteFailed": "Kayıt kaldırılamadı",
@@ -613,6 +613,54 @@
613
613
  "gpt-3.5-turbo.description": "GPT 3.5 Turbo, metin üretimi ve anlama için kullanılır; şu anda gpt-3.5-turbo-0125 sürümüne işaret eder.",
614
614
  "gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k, karmaşık görevler için yüksek kapasiteli bir metin üretim modelidir.",
615
615
  "gpt-35-turbo.description": "GPT-3.5 Turbo, sohbet ve metin üretimi için OpenAI’nin verimli modelidir ve paralel işlev çağrısını destekler.",
616
+ "gpt-4-0125-preview.description": "En yeni GPT-4 Turbo modeli görsel yetenekler ekler. Görsel istekler JSON modu ve fonksiyon çağrısını destekler. Gerçek zamanlı uygulamalar için doğruluk ve verimlilik arasında denge kuran, maliyet etkin çok modlu bir modeldir.",
617
+ "gpt-4-0613.description": "GPT-4, daha uzun girdileri işleyebilen geniş bir bağlam penceresi sunar; kapsamlı bilgi sentezi ve veri analizi için uygundur.",
618
+ "gpt-4-1106-preview.description": "En yeni GPT-4 Turbo modeli görsel yetenekler ekler. Görsel istekler JSON modu ve fonksiyon çağrısını destekler. Gerçek zamanlı uygulamalar için doğruluk ve verimlilik arasında denge kuran, maliyet etkin çok modlu bir modeldir.",
619
+ "gpt-4-32k-0613.description": "GPT-4, kapsamlı bilgi entegrasyonu ve veri analizi gerektiren senaryolar için daha uzun girdileri işleyebilen geniş bir bağlam penceresi sunar.",
620
+ "gpt-4-32k.description": "GPT-4, kapsamlı bilgi entegrasyonu ve veri analizi gerektiren senaryolar için daha uzun girdileri işleyebilen geniş bir bağlam penceresi sunar.",
621
+ "gpt-4-turbo-2024-04-09.description": "En yeni GPT-4 Turbo modeli görsel yetenekler ekler. Görsel istekler JSON modu ve fonksiyon çağrısını destekler. Gerçek zamanlı uygulamalar için doğruluk ve verimlilik arasında denge kuran, maliyet etkin çok modlu bir modeldir.",
622
+ "gpt-4-turbo-preview.description": "En yeni GPT-4 Turbo modeli görsel yetenekler ekler. Görsel istekler JSON modu ve fonksiyon çağrısını destekler. Gerçek zamanlı uygulamalar için doğruluk ve verimlilik arasında denge kuran, maliyet etkin çok modlu bir modeldir.",
623
+ "gpt-4-turbo.description": "En yeni GPT-4 Turbo modeli görsel yetenekler ekler. Görsel istekler JSON modu ve fonksiyon çağrısını destekler. Gerçek zamanlı uygulamalar için doğruluk ve verimlilik arasında denge kuran, maliyet etkin çok modlu bir modeldir.",
624
+ "gpt-4-vision-preview.description": "GPT-4 Vision önizlemesi, görsel analiz ve işleme görevleri için tasarlanmıştır.",
625
+ "gpt-4.1-mini.description": "GPT-4.1 mini, zeka, hız ve maliyet arasında denge kurarak birçok kullanım senaryosu için cazip hale gelir.",
626
+ "gpt-4.1-nano.description": "GPT-4.1 nano, en hızlı ve en uygun maliyetli GPT-4.1 modelidir.",
627
+ "gpt-4.1.description": "GPT-4.1, karmaşık görevler ve çok alanlı problem çözümü için amiral gemisi modelimizdir.",
628
+ "gpt-4.5-preview.description": "GPT-4.5-preview, yaratıcı görevlerde ve ajan planlamasında güçlü, derin dünya bilgisine ve daha iyi niyet anlama yeteneğine sahip en yeni genel amaçlı modeldir. Bilgi kesim tarihi Ekim 2023'tür.",
629
+ "gpt-4.description": "GPT-4, daha uzun girdileri işleyebilen geniş bir bağlam penceresi sunar; kapsamlı bilgi sentezi ve veri analizi için uygundur.",
630
+ "gpt-4o-2024-05-13.description": "ChatGPT-4o, müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştiren, gerçek zamanlı olarak güncellenen dinamik bir modeldir.",
631
+ "gpt-4o-2024-08-06.description": "ChatGPT-4o, müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü dil anlama ve üretim yeteneklerini birleştiren, gerçek zamanlı olarak güncellenen dinamik bir modeldir.",
632
+ "gpt-4o-2024-11-20.description": "ChatGPT-4o, müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştiren, gerçek zamanlı olarak güncellenen dinamik bir modeldir.",
633
+ "gpt-4o-audio-preview.description": "Ses girdi ve çıktısını destekleyen GPT-4o Ses Önizleme modeli.",
634
+ "gpt-4o-mini-audio-preview.description": "Ses girdi ve çıktısını destekleyen GPT-4o mini Ses modeli.",
635
+ "gpt-4o-mini-realtime-preview.description": "Gerçek zamanlı ses ve metin giriş/çıkışı destekleyen GPT-4o-mini gerçek zamanlı varyantı.",
636
+ "gpt-4o-mini-search-preview.description": "GPT-4o mini Arama Önizlemesi, Chat Completions API aracılığıyla web arama sorgularını anlamak ve yürütmek üzere eğitilmiştir. Web aramaları, belirteç maliyetlerine ek olarak araç çağrısı başına faturalandırılır.",
637
+ "gpt-4o-mini-transcribe.description": "GPT-4o Mini Transcribe, GPT-4o ile sesi metne dönüştüren bir modeldir; kelime hata oranı, dil tanıma ve doğruluk açısından orijinal Whisper modeline göre geliştirilmiştir.",
638
+ "gpt-4o-mini-tts.description": "GPT-4o mini TTS, metni doğal sesli konuşmaya dönüştüren, GPT-4o mini üzerine inşa edilmiş bir metinden konuşmaya modelidir; maksimum 2000 belirteç girişi destekler.",
639
+ "gpt-4o-mini.description": "GPT-4o mini, GPT-4 Omni'den sonra OpenAI'nin en yeni modelidir; metin+görsel girişi ve metin çıktısını destekler. En gelişmiş küçük model olup, son teknoloji modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ekonomiktir; üst düzey zeka (MMLU %82) sunar.",
640
+ "gpt-4o-realtime-preview-2024-10-01.description": "Gerçek zamanlı ses ve metin giriş/çıkışı destekleyen GPT-4o gerçek zamanlı varyantı.",
641
+ "gpt-4o-realtime-preview-2025-06-03.description": "Gerçek zamanlı ses ve metin giriş/çıkışı destekleyen GPT-4o gerçek zamanlı varyantı.",
642
+ "gpt-4o-realtime-preview.description": "Gerçek zamanlı ses ve metin giriş/çıkışı destekleyen GPT-4o gerçek zamanlı varyantı.",
643
+ "gpt-4o-search-preview.description": "GPT-4o Arama Önizlemesi, Chat Completions API aracılığıyla web arama sorgularını anlamak ve yürütmek üzere eğitilmiştir. Web aramaları, belirteç maliyetlerine ek olarak araç çağrısı başına faturalandırılır.",
644
+ "gpt-4o-transcribe.description": "GPT-4o Transcribe, GPT-4o ile sesi metne dönüştüren bir modeldir; kelime hata oranı, dil tanıma ve doğruluk açısından orijinal Whisper modeline göre geliştirilmiştir.",
645
+ "gpt-4o.description": "ChatGPT-4o, müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştiren, gerçek zamanlı olarak güncellenen dinamik bir modeldir.",
646
+ "gpt-5-chat-latest.description": "ChatGPT'de kullanılan GPT-5 modeli, konuşma uygulamaları için güçlü anlama ve üretim yeteneklerini birleştirir.",
647
+ "gpt-5-chat.description": "GPT-5 Chat, konuşma senaryoları için optimize edilmiş bir önizleme modelidir. Metin ve görsel girişi destekler, yalnızca metin çıktısı verir ve sohbet botları ile konuşma yapay zekâ uygulamaları için uygundur.",
648
+ "gpt-5-codex.description": "GPT-5 Codex, Codex benzeri ortamlarda ajan tabanlı kodlama görevleri için optimize edilmiş bir GPT-5 varyantıdır.",
649
+ "gpt-5-mini.description": "Tanımlı görevler için daha hızlı ve daha uygun maliyetli bir GPT-5 varyantı; kaliteyi korurken daha hızlı yanıtlar sunar.",
650
+ "gpt-5-nano.description": "En hızlı ve en uygun maliyetli GPT-5 varyantı; gecikme ve maliyet hassasiyeti olan uygulamalar için idealdir.",
651
+ "gpt-5-pro.description": "GPT-5 pro, daha derin düşünmek ve tutarlı şekilde daha iyi yanıtlar sunmak için daha fazla işlem gücü kullanır.",
652
+ "gpt-5.1-chat-latest.description": "GPT-5.1 Chat: GPT-5.1'in ChatGPT varyantı, sohbet senaryoları için geliştirilmiştir.",
653
+ "gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: ajan tabanlı kodlama görevleri için optimize edilmiş daha küçük ve düşük maliyetli Codex varyantı.",
654
+ "gpt-5.1-codex.description": "GPT-5.1 Codex: Yanıtlar API'sinde karmaşık kod/ajan iş akışları için ajan tabanlı kodlama görevlerine optimize edilmiş bir GPT-5.1 varyantı.",
655
+ "gpt-5.1.description": "GPT-5.1 — kodlama ve ajan görevleri için optimize edilmiş, yapılandırılabilir akıl yürütme gücüne ve uzun bağlam desteğine sahip amiral gemisi model.",
656
+ "gpt-5.2-chat-latest.description": "GPT-5.2 Chat, en yeni konuşma iyileştirmelerini deneyimlemek için ChatGPT varyantıdır (chat-latest).",
657
+ "gpt-5.2-pro.description": "GPT-5.2 Pro: daha zeki ve daha hassas GPT-5.2 varyantı (yalnızca Yanıtlar API'si), zorlu problemler ve çok adımlı uzun akıl yürütme için uygundur.",
658
+ "gpt-5.2.description": "GPT-5.2, güçlü akıl yürütme ve uzun bağlam performansı ile kodlama ve ajan iş akışları için amiral gemisi modeldir.",
659
+ "gpt-5.description": "Alanlar arası kodlama ve ajan görevleri için en iyi model. GPT-5, doğruluk, hız, akıl yürütme, bağlam farkındalığı, yapılandırılmış düşünme ve problem çözmede büyük ilerlemeler sunar.",
660
+ "gpt-audio.description": "GPT Audio, Chat Completions API'de ses girdi/çıktısını destekleyen genel bir sohbet modelidir.",
661
+ "gpt-image-1-mini.description": "Doğal metin ve görsel girdi ile görsel çıktı sunan, daha düşük maliyetli GPT Image 1 varyantı.",
662
+ "gpt-image-1.5.description": "4 kat daha hızlı üretim, daha hassas düzenleme ve geliştirilmiş metin işleme ile geliştirilmiş GPT Image 1 modeli.",
663
+ "gpt-image-1.description": "ChatGPT'nin yerel çok modlu görsel üretim modeli.",
616
664
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modeli (LLM) olup, üretken yapay zeka fikirlerini oluşturma, deneme ve sorumlu bir şekilde ölçeklendirme süreçlerinde yardımcı olmak üzere tasarlanmıştır. Küresel topluluk inovasyonunun temel taşlarından biri olarak, sınırlı bilgi işlem gücü ve kaynaklara sahip ortamlar, uç cihazlar ve daha hızlı eğitim süreleri için uygundur.",
617
665
  "mistral-small-latest.description": "Mistral Small, çeviri, özetleme ve duygu analizi için uygun maliyetli, hızlı ve güvenilir bir seçenektir.",
618
666
  "mistral-small.description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her türlü dil tabanlı görev için uygundur.",
@@ -204,6 +204,7 @@
204
204
  "noSelectedAgents": "Chưa chọn thành viên nào",
205
205
  "openInNewWindow": "Mở trong cửa sổ mới",
206
206
  "operation.execAgentRuntime": "Đang chuẩn bị phản hồi",
207
+ "operation.execClientTask": "Đang thực hiện tác vụ",
207
208
  "operation.sendMessage": "Đang gửi tin nhắn",
208
209
  "owner": "Chủ nhóm",
209
210
  "pageCopilot.title": "Tác nhân trang",
@@ -322,11 +323,15 @@
322
323
  "tab.profile": "Hồ sơ tác nhân",
323
324
  "tab.search": "Tìm kiếm",
324
325
  "task.activity.calling": "Đang gọi kỹ năng...",
326
+ "task.activity.clientExecuting": "Đang thực hiện cục bộ...",
325
327
  "task.activity.generating": "Đang tạo phản hồi...",
326
328
  "task.activity.gotResult": "Đã nhận kết quả từ công cụ",
327
329
  "task.activity.toolCalling": "Đang gọi {{toolName}}...",
328
330
  "task.activity.toolResult": "Đã nhận kết quả từ {{toolName}}",
329
331
  "task.batchTasks": "{{count}} nhiệm vụ hàng loạt",
332
+ "task.instruction": "Hướng dẫn tác vụ",
333
+ "task.intermediateSteps": "{{count}} bước trung gian",
334
+ "task.metrics.duration": "(mất {{duration}})",
330
335
  "task.metrics.stepsShort": "bước",
331
336
  "task.metrics.toolCallsShort": "lượt dùng công cụ",
332
337
  "task.status.cancelled": "Nhiệm vụ đã hủy",
@@ -58,6 +58,7 @@
58
58
  "screen4.title": "Bạn muốn chia sẻ dữ liệu như thế nào?",
59
59
  "screen4.title2": "Lựa chọn của bạn giúp chúng tôi cải thiện",
60
60
  "screen4.title3": "Bạn có thể thay đổi điều này bất cứ lúc nào trong phần cài đặt",
61
+ "screen5.actions.cancel": "Hủy",
61
62
  "screen5.actions.connectToServer": "Kết nối với máy chủ",
62
63
  "screen5.actions.connecting": "Đang kết nối...",
63
64
  "screen5.actions.signInCloud": "Đăng nhập vào LobeHub Cloud",
@@ -65,6 +66,10 @@
65
66
  "screen5.actions.signingIn": "Đang đăng nhập...",
66
67
  "screen5.actions.signingOut": "Đang đăng xuất...",
67
68
  "screen5.actions.tryAgain": "Thử lại",
69
+ "screen5.auth.phase.browserOpened": "Trình duyệt đã mở, vui lòng đăng nhập...",
70
+ "screen5.auth.phase.verifying": "Đang xác minh thông tin đăng nhập...",
71
+ "screen5.auth.phase.waitingForAuth": "Đang chờ xác thực...",
72
+ "screen5.auth.remaining": "Còn lại: {{time}}s",
68
73
  "screen5.badge": "Đăng nhập",
69
74
  "screen5.description": "Đăng nhập để đồng bộ Tác nhân, Nhóm, cài đặt và Ngữ cảnh trên tất cả thiết bị.",
70
75
  "screen5.errors.desktopOnlyOidc": "Xác thực OIDC chỉ khả dụng trong ứng dụng desktop.",
@@ -141,6 +141,16 @@
141
141
  "filterBy.timePeriod.year": "Năm qua",
142
142
  "footer.desc": "Cùng phát triển với người dùng AI toàn cầu. Trở thành người sáng tạo để chia sẻ Tác nhân và Kỹ năng của bạn với Cộng đồng LobeHub.",
143
143
  "footer.title": "Chia sẻ sáng tạo của bạn với Cộng đồng LobeHub ngay hôm nay",
144
+ "fork.alreadyForked": "Bạn đã fork agent này. Đang chuyển đến bản fork của bạn...",
145
+ "fork.failed": "Fork không thành công. Vui lòng thử lại.",
146
+ "fork.forkAndChat": "Fork & Trò chuyện",
147
+ "fork.forkedFrom": "Fork từ",
148
+ "fork.forks": "forks",
149
+ "fork.forksCount": "{{count}} fork",
150
+ "fork.forksCount_other": "{{count}} forks",
151
+ "fork.success": "Fork thành công!",
152
+ "fork.viewAllForks": "Xem tất cả các bản fork",
153
+ "groupAgents.tag": "Nhóm",
144
154
  "home.communityAgents": "Tác nhân cộng đồng",
145
155
  "home.featuredAssistants": "Tác nhân nổi bật",
146
156
  "home.featuredModels": "Mô hình nổi bật",
@@ -471,14 +481,19 @@
471
481
  "user.follow": "Theo dõi",
472
482
  "user.followers": "Người theo dõi",
473
483
  "user.following": "Đang theo dõi",
484
+ "user.forkedAgentGroups": "Nhóm Agent đã fork",
485
+ "user.forkedAgents": "Agent đã fork",
474
486
  "user.login": "Trở thành người sáng tạo",
475
487
  "user.logout": "Đăng xuất",
476
488
  "user.myProfile": "Hồ sơ của tôi",
477
489
  "user.noAgents": "Người dùng này chưa xuất bản tác vụ nào",
478
490
  "user.noFavoriteAgents": "Chưa lưu tác vụ nào",
479
491
  "user.noFavoritePlugins": "Chưa lưu kỹ năng nào",
492
+ "user.noForkedAgentGroups": "Chưa có nhóm Agent nào được fork",
493
+ "user.noForkedAgents": "Chưa có Agent nào được fork",
480
494
  "user.publishedAgents": "Tác vụ đã tạo",
481
495
  "user.tabs.favorites": "Yêu thích",
496
+ "user.tabs.forkedAgents": "Đã fork",
482
497
  "user.tabs.publishedAgents": "Đã tạo",
483
498
  "user.unfavorite": "Bỏ lưu",
484
499
  "user.unfavoriteFailed": "Bỏ lưu thất bại",