@lobehub/lobehub 2.0.10 → 2.0.12

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (101) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/Dockerfile +44 -52
  3. package/changelog/v2.json +18 -0
  4. package/locales/ar/chat.json +4 -0
  5. package/locales/ar/models.json +65 -0
  6. package/locales/bg-BG/chat.json +4 -0
  7. package/locales/bg-BG/models.json +10 -0
  8. package/locales/de-DE/chat.json +4 -0
  9. package/locales/de-DE/models.json +41 -0
  10. package/locales/en-US/chat.json +4 -0
  11. package/locales/es-ES/chat.json +4 -0
  12. package/locales/es-ES/models.json +50 -0
  13. package/locales/fa-IR/chat.json +4 -0
  14. package/locales/fa-IR/models.json +39 -0
  15. package/locales/fr-FR/chat.json +4 -0
  16. package/locales/fr-FR/models.json +9 -0
  17. package/locales/it-IT/chat.json +4 -0
  18. package/locales/it-IT/models.json +62 -0
  19. package/locales/ja-JP/chat.json +4 -0
  20. package/locales/ja-JP/models.json +40 -0
  21. package/locales/ko-KR/chat.json +4 -0
  22. package/locales/ko-KR/models.json +31 -0
  23. package/locales/nl-NL/chat.json +4 -0
  24. package/locales/nl-NL/models.json +52 -0
  25. package/locales/pl-PL/chat.json +4 -0
  26. package/locales/pl-PL/models.json +43 -0
  27. package/locales/pt-BR/chat.json +4 -0
  28. package/locales/pt-BR/models.json +92 -0
  29. package/locales/ru-RU/chat.json +4 -0
  30. package/locales/ru-RU/models.json +34 -0
  31. package/locales/tr-TR/chat.json +4 -0
  32. package/locales/tr-TR/models.json +55 -0
  33. package/locales/vi-VN/chat.json +4 -0
  34. package/locales/vi-VN/models.json +31 -0
  35. package/locales/zh-CN/chat.json +4 -0
  36. package/locales/zh-TW/chat.json +4 -0
  37. package/package.json +1 -1
  38. package/packages/agent-runtime/src/groupOrchestration/GroupOrchestrationSupervisor.ts +18 -1
  39. package/packages/agent-runtime/src/groupOrchestration/__tests__/GroupOrchestrationSupervisor.test.ts +76 -5
  40. package/packages/agent-runtime/src/groupOrchestration/types.ts +3 -3
  41. package/packages/builtin-tool-group-management/src/client/Intervention/ExecuteTask.tsx +11 -11
  42. package/packages/builtin-tool-group-management/src/client/Intervention/ExecuteTasks.tsx +78 -79
  43. package/packages/builtin-tool-group-management/src/client/Render/ExecuteTask/index.tsx +3 -3
  44. package/packages/builtin-tool-group-management/src/client/Render/ExecuteTasks/index.tsx +61 -63
  45. package/packages/builtin-tool-group-management/src/client/Streaming/ExecuteTask/index.tsx +3 -3
  46. package/packages/builtin-tool-group-management/src/executor.test.ts +7 -9
  47. package/packages/builtin-tool-group-management/src/executor.ts +3 -3
  48. package/packages/builtin-tool-group-management/src/manifest.ts +49 -50
  49. package/packages/builtin-tool-group-management/src/systemRole.ts +153 -5
  50. package/packages/builtin-tool-group-management/src/types.ts +3 -2
  51. package/packages/builtin-tool-gtd/src/systemRole.ts +4 -4
  52. package/packages/context-engine/src/processors/TasksFlatten.ts +7 -5
  53. package/packages/context-engine/src/processors/__tests__/TasksFlatten.test.ts +164 -0
  54. package/packages/conversation-flow/src/__tests__/fixtures/inputs/agentGroup/index.ts +4 -0
  55. package/packages/conversation-flow/src/__tests__/fixtures/inputs/agentGroup/supervisor-after-multi-tasks.json +91 -0
  56. package/packages/conversation-flow/src/__tests__/fixtures/inputs/agentGroup/supervisor-content-only.json +74 -0
  57. package/packages/conversation-flow/src/__tests__/parse.test.ts +37 -0
  58. package/packages/conversation-flow/src/transformation/FlatListBuilder.ts +70 -4
  59. package/packages/conversation-flow/src/transformation/__tests__/FlatListBuilder.test.ts +147 -0
  60. package/packages/database/src/repositories/agentGroup/index.ts +4 -0
  61. package/packages/types/src/message/ui/chat.ts +2 -0
  62. package/packages/types/src/tool/builtin.ts +5 -5
  63. package/src/app/[variants]/(main)/community/(detail)/group_agent/features/Sidebar/ActionButton/ForkGroupAndChat.tsx +2 -1
  64. package/src/app/[variants]/(main)/group/profile/features/Header/GroupPublishButton/index.tsx +2 -2
  65. package/src/app/[variants]/(main)/group/profile/features/Header/GroupPublishButton/useMarketGroupPublish.ts +11 -12
  66. package/src/features/Conversation/ChatItem/components/Title.tsx +1 -1
  67. package/src/features/Conversation/ChatList/index.tsx +0 -1
  68. package/src/features/Conversation/Messages/GroupTasks/TaskItem/ClientTaskItem.tsx +183 -0
  69. package/src/features/Conversation/Messages/GroupTasks/TaskItem/ServerTaskItem.tsx +94 -0
  70. package/src/features/Conversation/Messages/GroupTasks/TaskItem/TaskTitle.tsx +177 -0
  71. package/src/features/Conversation/Messages/GroupTasks/TaskItem/index.tsx +26 -0
  72. package/src/features/Conversation/Messages/GroupTasks/TaskItem/useClientTaskStats.ts +93 -0
  73. package/src/features/Conversation/Messages/GroupTasks/index.tsx +151 -0
  74. package/src/features/Conversation/Messages/Supervisor/index.tsx +7 -1
  75. package/src/features/Conversation/Messages/Task/ClientTaskDetail/index.tsx +72 -91
  76. package/src/features/Conversation/Messages/Task/TaskDetailPanel/StatusContent.tsx +46 -17
  77. package/src/features/Conversation/Messages/Tasks/TaskItem/ClientTaskItem.tsx +9 -24
  78. package/src/features/Conversation/Messages/Tasks/TaskItem/ServerTaskItem.tsx +18 -38
  79. package/src/features/Conversation/Messages/Tasks/shared/ErrorState.tsx +45 -2
  80. package/src/features/Conversation/Messages/Tasks/shared/InitializingState.tsx +16 -1
  81. package/src/features/Conversation/Messages/Tasks/shared/TaskContent.tsx +68 -0
  82. package/src/features/Conversation/Messages/Tasks/shared/TaskMessages.tsx +383 -0
  83. package/src/features/Conversation/Messages/Tasks/shared/index.ts +4 -0
  84. package/src/features/Conversation/Messages/Tasks/shared/useTaskPolling.ts +48 -0
  85. package/src/features/Conversation/Messages/index.tsx +5 -0
  86. package/src/locales/default/chat.ts +4 -0
  87. package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +4 -0
  88. package/src/server/modules/AgentRuntime/__tests__/RuntimeExecutors.test.ts +106 -1
  89. package/src/server/routers/lambda/agentGroup.ts +2 -0
  90. package/src/server/routers/lambda/market/agent.ts +17 -45
  91. package/src/server/routers/lambda/market/agentGroup.ts +13 -25
  92. package/src/server/services/aiAgent/__tests__/execAgent.threadId.test.ts +2 -2
  93. package/src/server/utils/truncateToolResult.ts +1 -4
  94. package/src/store/chat/agents/GroupOrchestration/__tests__/batch-exec-async-tasks.test.ts +15 -15
  95. package/src/store/chat/agents/GroupOrchestration/createGroupOrchestrationExecutors.ts +22 -15
  96. package/src/store/chat/agents/__tests__/createAgentExecutors/exec-tasks.test.ts +21 -10
  97. package/src/store/chat/agents/createAgentExecutors.ts +2 -0
  98. package/src/store/chat/slices/aiAgent/actions/groupOrchestration.ts +10 -7
  99. package/src/features/Conversation/Messages/Task/ClientTaskDetail/CompletedState.tsx +0 -108
  100. package/src/features/Conversation/Messages/Task/ClientTaskDetail/InstructionAccordion.tsx +0 -63
  101. package/src/features/Conversation/Messages/Task/ClientTaskDetail/ProcessingState.tsx +0 -123
@@ -760,6 +760,49 @@
760
760
  "learnlm-1.5-pro-experimental.description": "LearnLM to eksperymentalny model zadaniowy, trenowany zgodnie z zasadami nauki o uczeniu się, aby podążać za instrukcjami systemowymi w scenariuszach edukacyjnych, działając jako ekspert-nauczyciel.",
761
761
  "learnlm-2.0-flash-experimental.description": "LearnLM to eksperymentalny model zadaniowy, trenowany zgodnie z zasadami nauki o uczeniu się, aby podążać za instrukcjami systemowymi w scenariuszach edukacyjnych, działając jako ekspert-nauczyciel.",
762
762
  "lite.description": "Spark Lite to lekki LLM o ultraniskim opóźnieniu i wydajnym przetwarzaniu. Jest całkowicie darmowy i obsługuje wyszukiwanie w czasie rzeczywistym. Szybkie odpowiedzi sprawdzają się na urządzeniach o niskiej mocy obliczeniowej i przy dostrajaniu modeli, zapewniając wysoką efektywność kosztową i inteligentne doświadczenie, szczególnie w scenariuszach pytań i odpowiedzi, generowania treści i wyszukiwania.",
763
+ "llama-3.1-70b-versatile.description": "Llama 3.1 70B zapewnia zaawansowane wnioskowanie AI dla złożonych zastosowań, oferując wysoką wydajność i precyzję przy dużym obciążeniu obliczeniowym.",
764
+ "llama-3.1-8b-instant.description": "Llama 3.1 8B to wydajny model generujący tekst w szybkim tempie, idealny do zastosowań na dużą skalę przy niskich kosztach.",
765
+ "llama-3.1-instruct.description": "Model Llama 3.1 dostrojony do instrukcji jest zoptymalizowany pod kątem rozmów i przewyższa wiele otwartych modeli czatu w standardowych branżowych testach.",
766
+ "llama-3.2-11b-vision-instruct.description": "Silne wnioskowanie wizualne na obrazach wysokiej rozdzielczości, idealne do aplikacji zrozumienia obrazu.",
767
+ "llama-3.2-11b-vision-preview.description": "Llama 3.2 został zaprojektowany do zadań łączących obraz i tekst, doskonale radząc sobie z opisywaniem obrazów i wizualnym Q&A, łącząc generowanie języka z rozumieniem wizualnym.",
768
+ "llama-3.2-90b-vision-instruct.description": "Zaawansowane wnioskowanie wizualne dla aplikacji agentów rozumiejących obrazy.",
769
+ "llama-3.2-90b-vision-preview.description": "Llama 3.2 został zaprojektowany do zadań łączących obraz i tekst, doskonale radząc sobie z opisywaniem obrazów i wizualnym Q&A, łącząc generowanie języka z rozumieniem wizualnym.",
770
+ "llama-3.2-vision-instruct.description": "Model Llama 3.2-Vision dostrojony do instrukcji jest zoptymalizowany pod kątem rozpoznawania obrazów, wnioskowania wizualnego, opisywania oraz ogólnego Q&A opartego na obrazach.",
771
+ "llama-3.3-70b-versatile.description": "Meta Llama 3.3 to wielojęzyczny model LLM z 70 miliardami parametrów (tekst wejściowy/wyjściowy), dostępny w wersjach wstępnie wytrenowanej i dostrojonej do instrukcji. Wersja dostrojona do instrukcji jest zoptymalizowana pod kątem wielojęzycznych rozmów i przewyższa wiele otwartych i zamkniętych modeli czatu w standardowych testach branżowych.",
772
+ "llama-3.3-70b.description": "Llama 3.3 70B: średnio-duży model Llama łączący wnioskowanie i przepustowość.",
773
+ "llama-3.3-instruct.description": "Model Llama 3.3 dostrojony do instrukcji jest zoptymalizowany pod kątem rozmów i przewyższa wiele otwartych modeli czatu w standardowych testach branżowych.",
774
+ "llama3-70b-8192.description": "Meta Llama 3 70B oferuje wyjątkową zdolność obsługi złożonych zadań w wymagających projektach.",
775
+ "llama3-8b-8192.description": "Meta Llama 3 8B zapewnia silne wnioskowanie w różnorodnych scenariuszach.",
776
+ "llama3-groq-70b-8192-tool-use-preview.description": "Llama 3 Groq 70B Tool Use oferuje zaawansowane wywoływanie narzędzi do efektywnej obsługi złożonych zadań.",
777
+ "llama3-groq-8b-8192-tool-use-preview.description": "Llama 3 Groq 8B Tool Use jest zoptymalizowany pod kątem wydajnego użycia narzędzi i szybkiego przetwarzania równoległego.",
778
+ "llama3.1-8b.description": "Llama 3.1 8B: mały, niskolatencyjny wariant Llama do lekkiego wnioskowania online i czatu.",
779
+ "llama3.1.description": "Llama 3.1 to flagowy model Meta, skalujący się do 405 miliardów parametrów, przeznaczony do złożonych dialogów, tłumaczeń wielojęzycznych i analizy danych.",
780
+ "llama3.1:405b.description": "Llama 3.1 to flagowy model Meta, skalujący się do 405 miliardów parametrów, przeznaczony do złożonych dialogów, tłumaczeń wielojęzycznych i analizy danych.",
781
+ "llama3.1:70b.description": "Llama 3.1 to flagowy model Meta, skalujący się do 405 miliardów parametrów, przeznaczony do złożonych dialogów, tłumaczeń wielojęzycznych i analizy danych.",
782
+ "llava-v1.5-7b-4096-preview.description": "LLaVA 1.5 7B łączy przetwarzanie wizualne z generowaniem złożonych wyników na podstawie danych wizualnych.",
783
+ "llava.description": "LLaVA to model multimodalny łączący enkoder obrazu i Vicunę, zapewniający silne zrozumienie języka i obrazu.",
784
+ "llava:13b.description": "LLaVA to model multimodalny łączący enkoder obrazu i Vicunę, zapewniający silne zrozumienie języka i obrazu.",
785
+ "llava:34b.description": "LLaVA to model multimodalny łączący enkoder obrazu i Vicunę, zapewniający silne zrozumienie języka i obrazu.",
786
+ "magistral-medium-latest.description": "Magistral Medium 1.2 to zaawansowany model wnioskowania od Mistral AI (wrzesień 2025) z obsługą wizji.",
787
+ "magistral-small-2509.description": "Magistral Small 1.2 to otwartoźródłowy, mały model wnioskowania od Mistral AI (wrzesień 2025) z obsługą wizji.",
788
+ "mathstral.description": "MathΣtral został stworzony do badań naukowych i matematycznego wnioskowania, oferując silne możliwości obliczeniowe i wyjaśniające.",
789
+ "max-32k.description": "Spark Max 32K obsługuje przetwarzanie dużego kontekstu z lepszym rozumieniem i wnioskowaniem, wspierając wejścia do 32K tokenów dla długich dokumentów i prywatnych zapytań wiedzy.",
790
+ "megrez-3b-instruct.description": "Megrez 3B Instruct to mały, wydajny model od Wuwen Xinqiong.",
791
+ "meituan/longcat-flash-chat.description": "Otwartoźródłowy model bazowy bez wnioskowania od Meituan, zoptymalizowany do dialogów i zadań agentowych, silny w użyciu narzędzi i złożonych interakcjach wieloetapowych.",
792
+ "meta-llama-3-70b-instruct.description": "Potężny model z 70 miliardami parametrów, doskonały w wnioskowaniu, kodowaniu i szerokich zadaniach językowych.",
793
+ "meta-llama-3-8b-instruct.description": "Wszechstronny model z 8 miliardami parametrów, zoptymalizowany do czatu i generowania tekstu.",
794
+ "meta-llama-3.1-405b-instruct.description": "Model tekstowy Llama 3.1 dostrojony do instrukcji, zoptymalizowany do wielojęzycznego czatu, osiągający wysokie wyniki w standardowych testach branżowych wśród otwartych i zamkniętych modeli czatu.",
795
+ "meta-llama-3.1-70b-instruct.description": "Model tekstowy Llama 3.1 dostrojony do instrukcji, zoptymalizowany do wielojęzycznego czatu, osiągający wysokie wyniki w standardowych testach branżowych wśród otwartych i zamkniętych modeli czatu.",
796
+ "meta-llama-3.1-8b-instruct.description": "Model tekstowy Llama 3.1 dostrojony do instrukcji, zoptymalizowany do wielojęzycznego czatu, osiągający wysokie wyniki w standardowych testach branżowych wśród otwartych i zamkniętych modeli czatu.",
797
+ "meta-llama/Llama-2-13b-chat-hf.description": "LLaMA-2 Chat (13B) zapewnia solidne przetwarzanie języka i dobre doświadczenie czatu.",
798
+ "meta-llama/Llama-2-70b-hf.description": "LLaMA-2 zapewnia solidne przetwarzanie języka i dobre doświadczenie interakcji.",
799
+ "meta-llama/Llama-3-70b-chat-hf.description": "Llama 3 70B Instruct Reference to potężny model czatu do złożonych dialogów.",
800
+ "meta-llama/Llama-3-8b-chat-hf.description": "Llama 3 8B Instruct Reference oferuje wsparcie wielojęzyczne i szeroką wiedzę dziedzinową.",
801
+ "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo.description": "LLaMA 3.2 został zaprojektowany do zadań łączących obraz i tekst. Doskonale radzi sobie z opisywaniem obrazów i wizualnym Q&A, łącząc generowanie języka z rozumieniem wizualnym.",
802
+ "meta-llama/Llama-3.2-3B-Instruct-Turbo.description": "LLaMA 3.2 został zaprojektowany do zadań łączących obraz i tekst. Doskonale radzi sobie z opisywaniem obrazów i wizualnym Q&A, łącząc generowanie języka z rozumieniem wizualnym.",
803
+ "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo.description": "LLaMA 3.2 został zaprojektowany do zadań łączących obraz i tekst. Doskonale radzi sobie z opisywaniem obrazów i wizualnym Q&A, łącząc generowanie języka z rozumieniem wizualnym.",
804
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo.description": "Meta Llama 3.3 to wielojęzyczny model LLM z 70 miliardami parametrów (tekst wejściowy/wyjściowy), dostępny w wersjach wstępnie wytrenowanej i dostrojonej do instrukcji. Wersja dostrojona do instrukcji jest zoptymalizowana pod kątem wielojęzycznego czatu i przewyższa wiele otwartych i zamkniętych modeli czatu w standardowych testach branżowych.",
805
+ "meta-llama/Llama-Vision-Free.description": "LLaMA 3.2 został zaprojektowany do zadań łączących obraz i tekst. Doskonale radzi sobie z opisywaniem obrazów i wizualnym Q&A, łącząc generowanie języka z rozumieniem wizualnym.",
763
806
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
764
807
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
765
808
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
@@ -338,6 +338,9 @@
338
338
  "task.activity.toolCalling": "Chamando {{toolName}}...",
339
339
  "task.activity.toolResult": "Resultado de {{toolName}} recebido",
340
340
  "task.batchTasks": "{{count}} Subtarefas em Lote",
341
+ "task.groupTasks": "{{count}} Tarefas Paralelas",
342
+ "task.groupTasksTitle": "{{agents}} e {{count}} tarefas de agentes",
343
+ "task.groupTasksTitleSimple": "{{agents}} {{count}} tarefas",
341
344
  "task.instruction": "Instruções da Tarefa",
342
345
  "task.intermediateSteps": "{{count}} etapas intermediárias",
343
346
  "task.metrics.duration": "(levou {{duration}})",
@@ -345,6 +348,7 @@
345
348
  "task.metrics.toolCallsShort": "usos de ferramenta",
346
349
  "task.status.cancelled": "Tarefa Cancelada",
347
350
  "task.status.failed": "Falha na Tarefa",
351
+ "task.status.fetchingDetails": "Buscando detalhes...",
348
352
  "task.status.initializing": "Inicializando tarefa...",
349
353
  "task.subtask": "Subtarefa",
350
354
  "thread.divider": "Subtópico",
@@ -1097,6 +1097,44 @@
1097
1097
  "qwen3-32b.description": "Qwen3 32B é adequado para tarefas gerais que exigem maior capacidade de compreensão.",
1098
1098
  "qwen3-4b.description": "Qwen3 4B é adequado para aplicativos de pequeno a médio porte e inferência local.",
1099
1099
  "qwen3-8b.description": "Qwen3 8B é um modelo leve com implantação flexível para cargas de trabalho com alta concorrência.",
1100
+ "qwen3-coder-30b-a3b-instruct.description": "Modelo de código Qwen de código aberto. O qwen3-coder-30b-a3b-instruct mais recente é baseado no Qwen3 e oferece fortes habilidades de agente de codificação, uso de ferramentas e interação com o ambiente para programação autônoma, com excelente desempenho de código e sólida capacidade geral.",
1101
+ "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct é um modelo de código de ponta para programação multilíngue e compreensão de código complexa.",
1102
+ "qwen3-coder-flash.description": "Modelo de código Qwen. A série Qwen3-Coder mais recente é baseada no Qwen3 e oferece fortes habilidades de agente de codificação, uso de ferramentas e interação com o ambiente para programação autônoma, com excelente desempenho de código e sólida capacidade geral.",
1103
+ "qwen3-coder-plus.description": "Modelo de código Qwen. A série Qwen3-Coder mais recente é baseada no Qwen3 e oferece fortes habilidades de agente de codificação, uso de ferramentas e interação com o ambiente para programação autônoma, com excelente desempenho de código e sólida capacidade geral.",
1104
+ "qwen3-coder:480b.description": "Modelo de alto desempenho da Alibaba com suporte a contexto longo para tarefas de agente e codificação.",
1105
+ "qwen3-max-preview.description": "Modelo Qwen com melhor desempenho para tarefas complexas e de múltiplas etapas. A prévia oferece suporte a raciocínio.",
1106
+ "qwen3-max.description": "Os modelos Qwen3 Max apresentam grandes avanços em relação à série 2.5 em capacidade geral, compreensão de chinês/inglês, seguimento de instruções complexas, tarefas subjetivas abertas, capacidade multilíngue e uso de ferramentas, com menos alucinações. O qwen3-max mais recente melhora a programação agente e o uso de ferramentas em relação ao qwen3-max-preview. Esta versão atinge o estado da arte e atende a necessidades mais complexas de agentes.",
1107
+ "qwen3-next-80b-a3b-instruct.description": "Modelo Qwen3 de próxima geração, de código aberto e sem raciocínio. Em comparação com a versão anterior (Qwen3-235B-A22B-Instruct-2507), possui melhor compreensão do chinês, raciocínio lógico mais forte e geração de texto aprimorada.",
1108
+ "qwen3-next-80b-a3b-thinking.description": "Qwen3 Next 80B A3B Thinking é a versão de raciocínio de ponta para tarefas complexas.",
1109
+ "qwen3-omni-flash.description": "Qwen-Omni aceita entradas combinadas de texto, imagens, áudio e vídeo, e gera saídas em texto ou fala. Oferece múltiplos estilos de voz natural, suporte a fala multilíngue e dialetal, e se adapta a casos como redação, reconhecimento visual e assistentes de voz.",
1110
+ "qwen3-vl-235b-a22b-instruct.description": "Qwen3 VL 235B A22B Instruct é um modelo multimodal de ponta para compreensão e criação exigentes.",
1111
+ "qwen3-vl-235b-a22b-thinking.description": "Qwen3 VL 235B A22B Thinking é a versão de raciocínio de ponta para planejamento e raciocínio multimodal complexos.",
1112
+ "qwen3-vl-30b-a3b-instruct.description": "Qwen3 VL 30B A3B Instruct é um modelo multimodal de grande porte que equilibra precisão e desempenho de raciocínio.",
1113
+ "qwen3-vl-30b-a3b-thinking.description": "Qwen3 VL 30B A3B Thinking é uma versão de raciocínio profundo para tarefas multimodais complexas.",
1114
+ "qwen3-vl-32b-instruct.description": "Qwen3 VL 32B Instruct é um modelo multimodal ajustado por instruções para perguntas e respostas imagem-texto de alta qualidade e criação.",
1115
+ "qwen3-vl-32b-thinking.description": "Qwen3 VL 32B Thinking é uma versão multimodal de raciocínio profundo para análise complexa e em cadeia.",
1116
+ "qwen3-vl-8b-instruct.description": "Qwen3 VL 8B Instruct é um modelo multimodal leve para perguntas e respostas visuais do dia a dia e integração com aplicativos.",
1117
+ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking é um modelo multimodal com raciocínio em cadeia para raciocínio visual detalhado.",
1118
+ "qwen3-vl-flash.description": "Qwen3 VL Flash: versão leve e de raciocínio rápido para solicitações com baixa latência ou alto volume.",
1119
+ "qwen3-vl-plus.description": "Qwen VL é um modelo de geração de texto com compreensão visual. Pode realizar OCR, além de resumir e raciocinar, como extrair atributos de fotos de produtos ou resolver problemas a partir de imagens.",
1120
+ "qwen3.description": "Qwen3 é o modelo de linguagem de próxima geração da Alibaba com desempenho robusto em diversos casos de uso.",
1121
+ "qwq-32b-preview.description": "QwQ é um modelo de pesquisa experimental da Qwen focado em raciocínio aprimorado.",
1122
+ "qwq-32b.description": "QwQ é um modelo de raciocínio da família Qwen. Em comparação com modelos ajustados por instruções padrão, oferece raciocínio e pensamento que aumentam significativamente o desempenho em tarefas complexas. O QwQ-32B é um modelo de raciocínio de porte médio que rivaliza com os principais modelos como DeepSeek-R1 e o1-mini.",
1123
+ "qwq-plus.description": "O modelo de raciocínio QwQ treinado com base no Qwen2.5 usa aprendizado por reforço (RL) para melhorar significativamente o raciocínio. Métricas principais em matemática/código (AIME 24/25, LiveCodeBench) e benchmarks gerais (IFEval, LiveBench) atingem o nível completo do DeepSeek-R1.",
1124
+ "qwq.description": "QwQ é um modelo de raciocínio da família Qwen. Em comparação com modelos ajustados por instruções padrão, oferece habilidades de pensamento e raciocínio que melhoram significativamente o desempenho em tarefas difíceis. O QwQ-32B é um modelo de porte médio que compete com os principais modelos como DeepSeek-R1 e o1-mini.",
1125
+ "qwq_32b.description": "Modelo de raciocínio de porte médio da família Qwen. Em comparação com modelos ajustados por instruções padrão, as habilidades de pensamento e raciocínio do QwQ aumentam significativamente o desempenho em tarefas difíceis.",
1126
+ "r1-1776.description": "R1-1776 é uma variante pós-treinada do DeepSeek R1 projetada para fornecer informações factuais sem censura e imparciais.",
1127
+ "solar-mini-ja.description": "Solar Mini (Ja) estende o Solar Mini com foco no japonês, mantendo desempenho eficiente e forte em inglês e coreano.",
1128
+ "solar-mini.description": "Solar Mini é um LLM compacto que supera o GPT-3.5, com forte capacidade multilíngue suportando inglês e coreano, oferecendo uma solução eficiente e de baixo custo.",
1129
+ "solar-pro.description": "Solar Pro é um LLM de alta inteligência da Upstage, focado em seguir instruções em uma única GPU, com pontuações IFEval acima de 80. Atualmente suporta inglês; o lançamento completo está previsto para novembro de 2024 com suporte expandido a idiomas e contexto mais longo.",
1130
+ "sonar-deep-research.description": "Deep Research realiza pesquisas abrangentes em nível de especialista e as sintetiza em relatórios acessíveis e acionáveis.",
1131
+ "sonar-pro.description": "Produto de busca avançada com fundamentação de pesquisa para consultas complexas e seguimentos.",
1132
+ "sonar-reasoning-pro.description": "Produto de busca avançada com fundamentação de pesquisa para consultas complexas e seguimentos.",
1133
+ "sonar-reasoning.description": "Produto de busca avançada com fundamentação de pesquisa para consultas complexas e seguimentos.",
1134
+ "sonar.description": "Produto leve com fundamentação de busca, mais rápido e barato que o Sonar Pro.",
1135
+ "spark-x.description": "Atualizações do X1.5: (1) adiciona modo de pensamento dinâmico controlado pelo campo `thinking`; (2) comprimento de contexto maior com entrada de 64K e saída de 64K; (3) suporte a FunctionCall.",
1136
+ "stable-diffusion-3-medium.description": "O mais recente modelo de texto para imagem da Stability AI. Esta versão melhora significativamente a qualidade da imagem, compreensão de texto e diversidade de estilo, interpretando comandos em linguagem natural complexa com mais precisão e gerando imagens mais precisas e diversas.",
1137
+ "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo aplica difusão adversarial destilada (ADD) ao stable-diffusion-3.5-large para maior velocidade.",
1100
1138
  "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large é um modelo MMDiT de texto para imagem com 800 milhões de parâmetros, oferecendo excelente qualidade e alinhamento com prompts, suportando imagens de 1 megapixel e execução eficiente em hardwares de consumo.",
1101
1139
  "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 é inicializado a partir do checkpoint v1.2 e ajustado por 595 mil etapas no conjunto \"laion-aesthetics v2 5+\" com resolução de 512x512, reduzindo o condicionamento de texto em 10% para melhorar a amostragem com orientação livre de classificadores.",
1102
1140
  "stable-diffusion-xl-base-1.0.description": "Um modelo de texto para imagem de código aberto da Stability AI com geração criativa de imagens líder na indústria. Possui forte compreensão de instruções e suporta definições de prompt reverso para geração precisa.",
@@ -1132,6 +1170,60 @@
1132
1170
  "thudm/glm-4-9b-chat.description": "Versão de código aberto do mais recente modelo pré-treinado GLM-4 da Zhipu AI.",
1133
1171
  "thudm/glm-z1-32b.description": "GLM-Z1-32B-0414 é uma variante de raciocínio aprimorada do GLM-4-32B, projetada para resolução de problemas focados em matemática, lógica e código. Aplica RL expandido (preferência pareada específica e geral) para melhorar tarefas complexas de múltiplas etapas. Em comparação com o GLM-4-32B, o Z1 melhora significativamente o raciocínio estruturado e a capacidade em domínios formais.\n\nSuporta etapas de “pensamento” via engenharia de prompt, melhora a coerência em saídas longas e é otimizado para fluxos de trabalho de agentes com contexto longo (via YaRN), chamadas de ferramentas JSON e amostragem refinada para raciocínio estável. Ideal para casos que exigem derivações formais ou de múltiplas etapas cuidadosas.",
1134
1172
  "thudm/glm-z1-rumination-32b.description": "GLM Z1 Rumination 32B é um modelo de raciocínio profundo da série GLM-4-Z1, otimizado para tarefas abertas e complexas que exigem pensamento prolongado. Baseado no glm-4-32b-0414, adiciona estágios extras de RL e alinhamento em múltiplas fases, introduzindo uma capacidade de “ruminação” que simula processamento cognitivo estendido. Isso inclui raciocínio iterativo, análise em múltiplos saltos e fluxos de trabalho com ferramentas como busca, recuperação e síntese com consciência de citação.\n\nDestaca-se em redação científica, análise comparativa e perguntas e respostas complexas. Suporta chamadas de função para primitivas de busca/navegação (`search`, `click`, `open`, `finish`) em pipelines de agentes. O comportamento de ruminação é controlado por laços de múltiplas rodadas com modelagem de recompensa baseada em regras e mecanismos de decisão atrasada, testado em frameworks de pesquisa profunda como o stack interno de alinhamento da OpenAI. Esta variante prioriza profundidade em vez de velocidade.",
1173
+ "tngtech/deepseek-r1t-chimera:free.description": "DeepSeek-R1T-Chimera é criado pela fusão do DeepSeek-R1 e DeepSeek-V3 (0324), combinando o raciocínio do R1 com a eficiência de tokens do V3. Baseado no DeepSeek-MoE Transformer e otimizado para geração geral de texto.\n\nFunde pesos pré-treinados para equilibrar raciocínio, eficiência e seguimento de instruções. Lançado sob a licença MIT para uso em pesquisa e comercial.",
1174
+ "togethercomputer/StripedHyena-Nous-7B.description": "StripedHyena Nous (7B) oferece maior eficiência computacional por meio de sua arquitetura e estratégia.",
1175
+ "tts-1-hd.description": "O mais recente modelo de texto para fala otimizado para qualidade.",
1176
+ "tts-1.description": "O mais recente modelo de texto para fala otimizado para velocidade em tempo real.",
1177
+ "upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) é ajustado para tarefas de instrução precisas com forte desempenho linguístico.",
1178
+ "us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet eleva o padrão da indústria, superando concorrentes e o Claude 3 Opus em avaliações amplas, mantendo velocidade e custo intermediários.",
1179
+ "us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet é o modelo de próxima geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, apresenta melhorias em várias habilidades e supera o antigo carro-chefe Claude 3 Opus em muitos benchmarks de inteligência.",
1180
+ "us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
1181
+ "us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
1182
+ "v0-1.0-md.description": "v0-1.0-md é um modelo legado disponibilizado via API v0.",
1183
+ "v0-1.5-lg.description": "v0-1.5-lg é adequado para tarefas avançadas de pensamento ou raciocínio.",
1184
+ "v0-1.5-md.description": "v0-1.5-md é adequado para tarefas cotidianas e geração de interfaces.",
1185
+ "vercel/v0-1.0-md.description": "Acesse os modelos por trás do v0 para gerar, corrigir e otimizar aplicativos web modernos com raciocínio específico de framework e conhecimento atualizado.",
1186
+ "vercel/v0-1.5-md.description": "Acesse os modelos por trás do v0 para gerar, corrigir e otimizar aplicativos web modernos com raciocínio específico de framework e conhecimento atualizado.",
1187
+ "volcengine/doubao-seed-code.description": "Doubao-Seed-Code é o LLM da Volcano Engine da ByteDance otimizado para programação agente, com forte desempenho em benchmarks de programação e agentes, com suporte a contexto de 256K.",
1188
+ "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed é o modelo mais recente com melhorias em criatividade, estabilidade e realismo, oferecendo geração rápida e alto valor.",
1189
+ "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro é o modelo mais recente com melhorias em criatividade, estabilidade e realismo, produzindo detalhes mais ricos.",
1190
+ "wanx-v1.description": "Modelo base de texto para imagem. Corresponde ao Tongyi Wanxiang 1.0 General.",
1191
+ "wanx2.0-t2i-turbo.description": "Excelente em retratos texturizados com velocidade moderada e menor custo. Corresponde ao Tongyi Wanxiang 2.0 Speed.",
1192
+ "wanx2.1-t2i-plus.description": "Versão totalmente atualizada com mais detalhes de imagem e velocidade ligeiramente menor. Corresponde ao Tongyi Wanxiang 2.1 Pro.",
1193
+ "wanx2.1-t2i-turbo.description": "Versão totalmente atualizada com geração rápida, qualidade geral forte e alto valor. Corresponde ao Tongyi Wanxiang 2.1 Speed.",
1194
+ "whisper-1.description": "Modelo geral de reconhecimento de fala com suporte a ASR multilíngue, tradução de fala e identificação de idioma.",
1195
+ "wizardlm2.description": "WizardLM 2 é um modelo de linguagem da Microsoft AI que se destaca em diálogos complexos, tarefas multilíngues, raciocínio e assistentes.",
1196
+ "wizardlm2:8x22b.description": "WizardLM 2 é um modelo de linguagem da Microsoft AI que se destaca em diálogos complexos, tarefas multilíngues, raciocínio e assistentes.",
1197
+ "x-ai/grok-4-fast-non-reasoning.description": "Grok 4 Fast (Sem Raciocínio) é o modelo multimodal de alta vazão e baixo custo da xAI (com suporte a janela de contexto de 2M) para cenários sensíveis à latência e custo que não exigem raciocínio interno. Está ao lado da versão com raciocínio do Grok 4 Fast, e o raciocínio pode ser ativado via parâmetro de API quando necessário. Prompts e respostas podem ser usados pela xAI ou OpenRouter para melhorar modelos futuros.",
1198
+ "x-ai/grok-4-fast.description": "Grok 4 Fast é o modelo de alta vazão e baixo custo da xAI (com suporte a janela de contexto de 2M), ideal para casos de uso com alta concorrência e contexto longo.",
1199
+ "x-ai/grok-4.1-fast-non-reasoning.description": "Grok 4 Fast (Sem Raciocínio) é o modelo multimodal de alta vazão e baixo custo da xAI (com suporte a janela de contexto de 2M) para cenários sensíveis à latência e custo que não exigem raciocínio interno. Está ao lado da versão com raciocínio do Grok 4 Fast, e o raciocínio pode ser ativado via parâmetro de API quando necessário. Prompts e respostas podem ser usados pela xAI ou OpenRouter para melhorar modelos futuros.",
1200
+ "x-ai/grok-4.1-fast.description": "Grok 4 Fast é o modelo de alta vazão e baixo custo da xAI (com suporte a janela de contexto de 2M), ideal para casos de uso com alta concorrência e contexto longo.",
1201
+ "x-ai/grok-4.description": "Grok 4 é o modelo de raciocínio de ponta da xAI com forte capacidade de raciocínio e multimodalidade.",
1202
+ "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 é o modelo de código rápido da xAI com saída legível e amigável para engenharia.",
1203
+ "xai/grok-2-vision.description": "Grok 2 Vision se destaca em tarefas visuais, oferecendo desempenho de ponta em raciocínio visual matemático (MathVista) e perguntas e respostas em documentos (DocVQA). Lida com documentos, gráficos, tabelas, capturas de tela e fotos.",
1204
+ "xai/grok-2.description": "Grok 2 é um modelo de fronteira com raciocínio de ponta, forte desempenho em chat, codificação e raciocínio, superando Claude 3.5 Sonnet e GPT-4 Turbo no LMSYS.",
1205
+ "xai/grok-3-fast.description": "Modelo de ponta da xAI que se destaca em casos de uso corporativos como extração de dados, codificação e sumarização, com profundo conhecimento em finanças, saúde, direito e ciência. A variante rápida roda em infraestrutura mais ágil para respostas muito mais rápidas com maior custo por token.",
1206
+ "xai/grok-3-mini-fast.description": "Modelo leve da xAI que pensa antes de responder, ideal para tarefas simples ou baseadas em lógica sem necessidade de conhecimento profundo. Rastros de raciocínio brutos estão disponíveis. A variante rápida roda em infraestrutura mais ágil para respostas muito mais rápidas com maior custo por token.",
1207
+ "xai/grok-3-mini.description": "Modelo leve da xAI que pensa antes de responder, ideal para tarefas simples ou baseadas em lógica sem necessidade de conhecimento profundo. Rastros de raciocínio brutos estão disponíveis.",
1208
+ "xai/grok-3.description": "Modelo de ponta da xAI que se destaca em casos de uso corporativos como extração de dados, codificação e sumarização, com profundo conhecimento em finanças, saúde, direito e ciência.",
1209
+ "xai/grok-4.description": "O mais novo modelo de ponta da xAI com desempenho incomparável em linguagem natural, matemática e raciocínio — um modelo versátil ideal.",
1210
+ "yi-large-fc.description": "Baseado no yi-large com chamadas de ferramentas aprimoradas, adequado para cenários de agentes e fluxos de trabalho.",
1211
+ "yi-large-preview.description": "Uma versão inicial; recomenda-se o uso do yi-large (mais recente).",
1212
+ "yi-large-rag.description": "Serviço avançado baseado no yi-large, combinando recuperação e geração para respostas precisas com busca em tempo real na web.",
1213
+ "yi-large-turbo.description": "Valor e desempenho excepcionais, ajustado para um forte equilíbrio entre qualidade, velocidade e custo.",
1214
+ "yi-large.description": "Novo modelo com 100 bilhões de parâmetros com forte desempenho em perguntas e respostas e geração de texto.",
1215
+ "yi-lightning-lite.description": "Versão leve; recomenda-se o uso do yi-lightning.",
1216
+ "yi-lightning.description": "Modelo de alto desempenho mais recente com inferência mais rápida e saída de alta qualidade.",
1217
+ "yi-medium-200k.description": "Modelo de contexto longo com 200K para compreensão e geração profunda de textos longos.",
1218
+ "yi-medium.description": "Modelo de porte médio ajustado com capacidade e valor equilibrados, otimizado para seguir instruções.",
1219
+ "yi-spark.description": "Modelo compacto e rápido com capacidades reforçadas em matemática e codificação.",
1220
+ "yi-vision-v2.description": "Modelo de visão para tarefas complexas com forte compreensão e análise de múltiplas imagens.",
1221
+ "yi-vision.description": "Modelo de visão para tarefas complexas com forte compreensão e análise de imagens.",
1222
+ "z-ai/glm-4.5-air.description": "GLM 4.5 Air é uma variante leve do GLM 4.5 para cenários sensíveis a custo, mantendo forte raciocínio.",
1223
+ "z-ai/glm-4.5.description": "GLM 4.5 é o modelo de ponta da Z.AI com raciocínio híbrido otimizado para engenharia e tarefas com contexto longo.",
1224
+ "z-ai/glm-4.6.description": "GLM 4.6 é o modelo de ponta da Z.AI com comprimento de contexto estendido e capacidade de codificação.",
1225
+ "z-ai/glm-4.7.description": "GLM-4.7 é o mais novo modelo de ponta da Zhipu, oferecendo capacidades gerais aprimoradas, respostas mais simples e naturais, e uma experiência de escrita mais imersiva.",
1226
+ "zai-glm-4.6.description": "Desempenho sólido em tarefas de codificação e raciocínio, com suporte a streaming e chamadas de ferramentas, adequado para codificação agente e raciocínio complexo.",
1135
1227
  "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air é um modelo base para aplicações com agentes, utilizando uma arquitetura Mixture-of-Experts. Ele é otimizado para uso de ferramentas, navegação na web, engenharia de software e codificação frontend, e integra-se com agentes de código como Claude Code e Roo Code. Utiliza raciocínio híbrido para lidar tanto com cenários complexos quanto com situações do dia a dia.",
1136
1228
  "zai-org/GLM-4.5.description": "GLM-4.5 é um modelo base desenvolvido para aplicações com agentes, utilizando uma arquitetura Mixture-of-Experts. É profundamente otimizado para uso de ferramentas, navegação na web, engenharia de software e codificação frontend, e integra-se com agentes de código como Claude Code e Roo Code. Utiliza raciocínio híbrido para lidar com raciocínios complexos e situações cotidianas.",
1137
1229
  "zai-org/GLM-4.5V.description": "GLM-4.5V é o mais recente VLM da Zhipu AI, baseado no modelo de texto principal GLM-4.5-Air (106B no total, 12B ativos), com uma arquitetura MoE que oferece alto desempenho a um custo reduzido. Segue a linha de desenvolvimento do GLM-4.1V-Thinking e adiciona 3D-RoPE para melhorar o raciocínio espacial em 3D. Otimizado por meio de pré-treinamento, SFT e RL, lida com imagens, vídeos e documentos longos, e está entre os melhores modelos abertos em 41 benchmarks multimodais públicos. Um modo de alternância de raciocínio permite ao usuário equilibrar velocidade e profundidade.",
@@ -338,6 +338,9 @@
338
338
  "task.activity.toolCalling": "Вызов {{toolName}}...",
339
339
  "task.activity.toolResult": "Результат {{toolName}} получен",
340
340
  "task.batchTasks": "{{count}} пакетных подзадач",
341
+ "task.groupTasks": "{{count}} параллельных задач",
342
+ "task.groupTasksTitle": "{{agents}} и {{count}} задач агентов",
343
+ "task.groupTasksTitleSimple": "{{agents}} {{count}} задач",
341
344
  "task.instruction": "Инструкция к задаче",
342
345
  "task.intermediateSteps": "{{count}} промежуточных этапов",
343
346
  "task.metrics.duration": "(заняло {{duration}})",
@@ -345,6 +348,7 @@
345
348
  "task.metrics.toolCallsShort": "вызовов",
346
349
  "task.status.cancelled": "Задача отменена",
347
350
  "task.status.failed": "Ошибка выполнения задачи",
351
+ "task.status.fetchingDetails": "Получение данных...",
348
352
  "task.status.initializing": "Инициализация задачи...",
349
353
  "task.subtask": "Подзадача",
350
354
  "thread.divider": "Подтема",
@@ -783,6 +783,40 @@
783
783
  "llava.description": "LLaVA — мультимодальная модель, объединяющая визуальный энкодер и Vicuna для мощного понимания связки зрение-язык.",
784
784
  "llava:13b.description": "LLaVA — мультимодальная модель, объединяющая визуальный энкодер и Vicuna для мощного понимания связки зрение-язык.",
785
785
  "llava:34b.description": "LLaVA — мультимодальная модель, объединяющая визуальный энкодер и Vicuna для мощного понимания связки зрение-язык.",
786
+ "magistral-medium-latest.description": "Magistral Medium 1.2 — это передовая модель рассуждений от Mistral AI (сентябрь 2025 года) с поддержкой обработки изображений.",
787
+ "magistral-small-2509.description": "Magistral Small 1.2 — это компактная модель рассуждений с открытым исходным кодом от Mistral AI (сентябрь 2025 года) с поддержкой обработки изображений.",
788
+ "mathstral.description": "MathΣtral создана для научных исследований и математических рассуждений, обладает высокой вычислительной мощностью и способностью к объяснению.",
789
+ "max-32k.description": "Spark Max 32K обеспечивает обработку больших контекстов с улучшенным пониманием и логическим мышлением, поддерживает ввод до 32K токенов для чтения длинных документов и работы с приватными знаниями.",
790
+ "megrez-3b-instruct.description": "Megrez 3B Instruct — это компактная и эффективная модель от Wuwen Xinqiong.",
791
+ "meituan/longcat-flash-chat.description": "Открытая базовая модель без рассуждений от Meituan, оптимизированная для диалогов и агентных задач, сильна в использовании инструментов и сложных многоходовых взаимодействиях.",
792
+ "meta-llama-3-70b-instruct.description": "Мощная модель с 70 миллиардами параметров, превосходно справляющаяся с рассуждениями, программированием и широким спектром языковых задач.",
793
+ "meta-llama-3-8b-instruct.description": "Универсальная модель с 8 миллиардами параметров, оптимизированная для чатов и генерации текста.",
794
+ "meta-llama-3.1-405b-instruct.description": "Llama 3.1 — модель, обученная на инструкциях, оптимизированная для многоязычных чатов, демонстрирует высокие результаты на отраслевых бенчмарках среди открытых и закрытых моделей.",
795
+ "meta-llama-3.1-70b-instruct.description": "Llama 3.1 — модель, обученная на инструкциях, оптимизированная для многоязычных чатов, демонстрирует высокие результаты на отраслевых бенчмарках среди открытых и закрытых моделей.",
796
+ "meta-llama-3.1-8b-instruct.description": "Llama 3.1 — модель, обученная на инструкциях, оптимизированная для многоязычных чатов, демонстрирует высокие результаты на отраслевых бенчмарках среди открытых и закрытых моделей.",
797
+ "meta-llama/Llama-2-13b-chat-hf.description": "LLaMA-2 Chat (13B) обеспечивает высокое качество обработки языка и стабильный опыт общения.",
798
+ "meta-llama/Llama-2-70b-hf.description": "LLaMA-2 обеспечивает высокое качество обработки языка и стабильное взаимодействие.",
799
+ "meta-llama/Llama-3-70b-chat-hf.description": "Llama 3 70B Instruct Reference — мощная модель для сложных диалогов.",
800
+ "meta-llama/Llama-3-8b-chat-hf.description": "Llama 3 8B Instruct Reference поддерживает многоязычность и обладает широкими знаниями в различных областях.",
801
+ "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo.description": "LLaMA 3.2 разработана для задач, сочетающих изображение и текст. Отлично справляется с описанием изображений и визуальными вопросами, объединяя генерацию текста и визуальное мышление.",
802
+ "meta-llama/Llama-3.2-3B-Instruct-Turbo.description": "LLaMA 3.2 разработана для задач, сочетающих изображение и текст. Отлично справляется с описанием изображений и визуальными вопросами, объединяя генерацию текста и визуальное мышление.",
803
+ "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo.description": "LLaMA 3.2 разработана для задач, сочетающих изображение и текст. Отлично справляется с описанием изображений и визуальными вопросами, объединяя генерацию текста и визуальное мышление.",
804
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo.description": "Meta Llama 3.3 — многоязычная LLM с 70 миллиардами параметров (ввод/вывод текста), обученная на инструкциях. Оптимизирована для многоязычных чатов и превосходит многие открытые и закрытые модели на отраслевых бенчмарках.",
805
+ "meta-llama/Llama-Vision-Free.description": "LLaMA 3.2 разработана для задач, сочетающих изображение и текст. Отлично справляется с описанием изображений и визуальными вопросами, объединяя генерацию текста и визуальное мышление.",
806
+ "meta-llama/Meta-Llama-3-70B-Instruct-Lite.description": "Llama 3 70B Instruct Lite создана для высокой производительности с низкой задержкой.",
807
+ "meta-llama/Meta-Llama-3-70B-Instruct-Turbo.description": "Llama 3 70B Instruct Turbo обеспечивает глубокое понимание и генерацию текста для самых требовательных задач.",
808
+ "meta-llama/Meta-Llama-3-8B-Instruct-Lite.description": "Llama 3 8B Instruct Lite сбалансирована для работы в условиях ограниченных ресурсов.",
809
+ "meta-llama/Meta-Llama-3-8B-Instruct-Turbo.description": "Llama 3 8B Instruct Turbo — высокопроизводительная LLM для широкого спектра задач.",
810
+ "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo.description": "Модель Llama 3.1 Turbo с 405 миллиардами параметров обладает огромной контекстной емкостью для обработки больших данных и превосходно справляется с задачами ультра-масштабного ИИ.",
811
+ "meta-llama/Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 — флагманская модель Meta, масштабируемая до 405 миллиардов параметров, предназначена для сложных диалогов, многоязычного перевода и анализа данных.",
812
+ "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo.description": "Llama 3.1 70B точно настроена для высоконагруженных приложений; квантование FP8 обеспечивает эффективные вычисления и точность в сложных сценариях.",
813
+ "meta-llama/Meta-Llama-3.1-70B.description": "Llama 3.1 — флагманская модель Meta, масштабируемая до 405 миллиардов параметров, предназначена для сложных диалогов, многоязычного перевода и анализа данных.",
814
+ "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo.description": "Llama 3.1 8B использует квантование FP8, поддерживает до 131 072 токенов контекста и входит в число лучших открытых моделей для сложных задач по многим бенчмаркам.",
815
+ "meta-llama/llama-3-70b-instruct.description": "Llama 3 70B Instruct оптимизирована для высококачественных диалогов и демонстрирует отличные результаты в оценках с участием людей.",
816
+ "meta-llama/llama-3-8b-instruct.description": "Llama 3 8B Instruct оптимизирована для высококачественных диалогов, превосходя многие закрытые модели.",
817
+ "meta-llama/llama-3.1-70b-instruct.description": "Последняя серия Meta Llama 3.1, вариант с 70 миллиардами параметров, обученный на инструкциях и оптимизированный для высококачественных диалогов. В отраслевых оценках показывает отличные результаты по сравнению с ведущими закрытыми моделями. (Доступна только для проверенных корпоративных клиентов.)",
818
+ "meta-llama/llama-3.1-8b-instruct.description": "Последняя серия Meta Llama 3.1, вариант с 8 миллиардами параметров, обученный на инструкциях, особенно быстр и эффективен. В отраслевых оценках демонстрирует отличные результаты, превосходя многие ведущие закрытые модели. (Доступна только для проверенных корпоративных клиентов.)",
819
+ "meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1 поддерживает многоязычие и является одной из ведущих генеративных моделей.",
786
820
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
787
821
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
788
822
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
@@ -338,6 +338,9 @@
338
338
  "task.activity.toolCalling": "{{toolName}} çağrılıyor...",
339
339
  "task.activity.toolResult": "{{toolName}} sonucu alındı",
340
340
  "task.batchTasks": "{{count}} Toplu Alt Görev",
341
+ "task.groupTasks": "{{count}} Paralel Görev",
342
+ "task.groupTasksTitle": "{{agents}} ve {{count}} ajan görevi",
343
+ "task.groupTasksTitleSimple": "{{agents}} {{count}} görev",
341
344
  "task.instruction": "Görev Talimatı",
342
345
  "task.intermediateSteps": "{{count}} ara adım",
343
346
  "task.metrics.duration": "({{duration}} sürdü)",
@@ -345,6 +348,7 @@
345
348
  "task.metrics.toolCallsShort": "araç kullanımı",
346
349
  "task.status.cancelled": "Görev İptal Edildi",
347
350
  "task.status.failed": "Görev Başarısız Oldu",
351
+ "task.status.fetchingDetails": "Ayrıntılar getiriliyor...",
348
352
  "task.status.initializing": "Görev başlatılıyor...",
349
353
  "task.subtask": "Alt Görev",
350
354
  "thread.divider": "Alt Konu",
@@ -827,6 +827,61 @@
827
827
  "meta.llama3-1-8b-instruct-v1:0.description": "128K bağlam penceresi, çok dilli destek ve geliştirilmiş akıl yürütme ile güncellenmiş Meta Llama 3.1 8B Instruct. Llama 3.1 ailesi, çok dilli sohbet ve güçlü test performansı için optimize edilmiş 8B, 70B ve 405B talimatla ayarlanmış metin modellerini içerir. Çok dilli ticari ve araştırma kullanımı için tasarlanmıştır; talimat modelleri asistan tarzı sohbet için, önceden eğitilmiş modeller ise daha geniş üretim görevleri için uygundur. Llama 3.1 çıktıları, diğer modelleri geliştirmek için de kullanılabilir (örneğin, sentetik veri ve iyileştirme). Otoregresif bir Transformer modelidir ve faydalılık ve güvenlik için SFT ve RLHF ile hizalanmıştır.",
828
828
  "meta.llama3-70b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir LLM'dir; üretken yapay zeka fikirlerini oluşturmak, denemek ve sorumlu bir şekilde ölçeklendirmek için tasarlanmıştır. Küresel topluluk inovasyonunun temelini oluşturan bu model, içerik üretimi, sohbet yapay zekası, dil anlama, Ar-Ge ve kurumsal uygulamalar için uygundur.",
829
829
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modeli (LLM) olup, üretken yapay zeka fikirlerini oluşturma, deneme ve sorumlu bir şekilde ölçeklendirme süreçlerinde yardımcı olmak üzere tasarlanmıştır. Küresel topluluk inovasyonunun temel taşlarından biri olarak, sınırlı bilgi işlem gücü ve kaynaklara sahip ortamlar, uç cihazlar ve daha hızlı eğitim süreleri için uygundur.",
830
+ "meta/Llama-3.2-11B-Vision-Instruct.description": "Yüksek çözünürlüklü görsellerde güçlü görsel akıl yürütme yeteneği, görsel anlama uygulamaları için uygundur.",
831
+ "meta/Llama-3.2-90B-Vision-Instruct.description": "Görsel anlama ajan uygulamaları için gelişmiş görsel akıl yürütme yeteneği.",
832
+ "meta/Llama-3.3-70B-Instruct.description": "Llama 3.3, çok dilli en gelişmiş açık kaynaklı Llama modelidir ve düşük maliyetle neredeyse 405B performansı sunar. Transformer tabanlıdır ve faydalılık ve güvenlik için SFT ve RLHF ile geliştirilmiştir. Talimatlara göre ayarlanmış sürüm, çok dilli sohbet için optimize edilmiştir ve birçok açık ve kapalı sohbet modelini sektör kıyaslamalarında geride bırakır. Bilgi kesimi: Aralık 2023.",
833
+ "meta/Meta-Llama-3-70B-Instruct.description": "Muhakeme, kodlama ve geniş dil görevlerinde üstün performans gösteren güçlü bir 70B parametreli model.",
834
+ "meta/Meta-Llama-3-8B-Instruct.description": "Sohbet ve metin üretimi için optimize edilmiş çok yönlü bir 8B parametreli model.",
835
+ "meta/Meta-Llama-3.1-405B-Instruct.description": "Çok dilli sohbet için optimize edilmiş, açık ve kapalı sohbet modelleri arasında sektör kıyaslamalarında güçlü performans gösteren Llama 3.1 talimat ayarlı metin modeli.",
836
+ "meta/Meta-Llama-3.1-70B-Instruct.description": "Çok dilli sohbet için optimize edilmiş, açık ve kapalı sohbet modelleri arasında sektör kıyaslamalarında güçlü performans gösteren Llama 3.1 talimat ayarlı metin modeli.",
837
+ "meta/Meta-Llama-3.1-8B-Instruct.description": "Çok dilli sohbet için optimize edilmiş, açık ve kapalı sohbet modelleri arasında sektör kıyaslamalarında güçlü performans gösteren Llama 3.1 talimat ayarlı metin modeli.",
838
+ "meta/llama-3-70b.description": "Meta tarafından talimat takibi için ince ayarlanmış 70B açık kaynaklı model, Groq tarafından LPU donanımında hızlı ve verimli çıkarım için sunulmaktadır.",
839
+ "meta/llama-3-8b.description": "Meta tarafından talimat takibi için ince ayarlanmış 8B açık kaynaklı model, Groq tarafından LPU donanımında hızlı ve verimli çıkarım için sunulmaktadır.",
840
+ "meta/llama-3.1-405b-instruct.description": "Sohbet botları, kodlama ve alan görevleri için sentetik veri üretimi, bilgi damıtımı ve akıl yürütmeyi destekleyen gelişmiş bir büyük dil modeli.",
841
+ "meta/llama-3.1-70b-instruct.description": "Karmaşık diyaloglar için geliştirilmiş, bağlam anlama, akıl yürütme ve metin üretiminde mükemmel performans sunar.",
842
+ "meta/llama-3.1-70b.description": "128K bağlam desteği, çok dilli yetenekler ve geliştirilmiş akıl yürütme ile güncellenmiş Meta Llama 3 70B Instruct modeli.",
843
+ "meta/llama-3.1-8b-instruct.description": "Güçlü dil anlama, akıl yürütme ve metin üretimi yeteneklerine sahip son teknoloji bir model.",
844
+ "meta/llama-3.1-8b.description": "Llama 3.1 8B, 128K bağlam penceresini destekler, gerçek zamanlı sohbet ve veri analizi için idealdir ve daha büyük modellere kıyasla önemli maliyet avantajı sunar. Groq tarafından LPU donanımında hızlı ve verimli çıkarım için sunulmaktadır.",
845
+ "meta/llama-3.2-11b-vision-instruct.description": "Görsellerden yüksek kaliteli akıl yürütme konusunda üstün performans gösteren öncü bir görsel-dil modeli.",
846
+ "meta/llama-3.2-11b.description": "Görsel tanıma, görsel akıl yürütme, altyazı oluşturma ve genel görsel soru-cevap için optimize edilmiş, talimat ayarlı bir görsel akıl yürütme modeli (metin+görsel girdi, metin çıktı).",
847
+ "meta/llama-3.2-1b-instruct.description": "Güçlü anlama, akıl yürütme ve metin üretimi yeteneklerine sahip son teknoloji küçük dil modeli.",
848
+ "meta/llama-3.2-1b.description": "Çok dilli yerel arama, özetleme ve yeniden yazma gibi cihaz içi kullanım senaryoları için metin tabanlı model.",
849
+ "meta/llama-3.2-3b-instruct.description": "Güçlü anlama, akıl yürütme ve metin üretimi yeteneklerine sahip son teknoloji küçük dil modeli.",
850
+ "meta/llama-3.2-3b.description": "Çok dilli yerel arama, özetleme ve yeniden yazma gibi cihaz içi kullanım senaryoları için ince ayarlanmış metin tabanlı model.",
851
+ "meta/llama-3.2-90b-vision-instruct.description": "Görsellerden yüksek kaliteli akıl yürütme konusunda üstün performans gösteren öncü bir görsel-dil modeli.",
852
+ "meta/llama-3.2-90b.description": "Görsel tanıma, görsel akıl yürütme, altyazı oluşturma ve genel görsel soru-cevap için optimize edilmiş, talimat ayarlı bir görsel akıl yürütme modeli (metin+görsel girdi, metin çıktı).",
853
+ "meta/llama-3.3-70b-instruct.description": "Akıl yürütme, matematik, sağduyu ve fonksiyon çağrılarında güçlü gelişmiş bir büyük dil modeli.",
854
+ "meta/llama-3.3-70b.description": "Performans ve verimlilik arasında mükemmel denge. İçerik üretimi, kurumsal uygulamalar ve araştırma için yüksek performanslı sohbet yapay zekası olarak tasarlanmıştır; özetleme, sınıflandırma, duygu analizi ve kod üretimi için güçlü dil anlama yeteneği sunar.",
855
+ "meta/llama-4-maverick.description": "Llama 4 ailesi, metin ve çok modlu deneyimleri destekleyen yerel çok modlu bir yapay zeka model setidir. MoE kullanarak metin ve görsel anlama alanında liderlik sunar. Llama 4 Maverick, 128 uzmana sahip 17B parametreli bir modeldir ve DeepInfra tarafından sunulmaktadır.",
856
+ "meta/llama-4-scout.description": "Llama 4 ailesi, metin ve çok modlu deneyimleri destekleyen yerel çok modlu bir yapay zeka model setidir. MoE kullanarak metin ve görsel anlama alanında liderlik sunar. Llama 4 Scout, 16 uzmana sahip 17B parametreli bir modeldir ve DeepInfra tarafından sunulmaktadır.",
857
+ "microsoft/Phi-3-medium-128k-instruct.description": "RAG veya az örnekli istemler için daha büyük bağlam penceresine sahip aynı Phi-3-medium modeli.",
858
+ "microsoft/Phi-3-medium-4k-instruct.description": "Phi-3-mini'den daha yüksek kaliteye sahip, 14B parametreli model; yüksek kaliteli ve akıl yürütme yoğun veriye odaklanır.",
859
+ "microsoft/Phi-3-mini-128k-instruct.description": "RAG veya az örnekli istemler için daha büyük bağlam penceresine sahip aynı Phi-3-mini modeli.",
860
+ "microsoft/Phi-3-mini-4k-instruct.description": "Phi-3 ailesinin en küçük üyesi, kalite ve düşük gecikme için optimize edilmiştir.",
861
+ "microsoft/Phi-3-small-128k-instruct.description": "RAG veya az örnekli istemler için daha büyük bağlam penceresine sahip aynı Phi-3-small modeli.",
862
+ "microsoft/Phi-3-small-8k-instruct.description": "Phi-3-mini'den daha yüksek kaliteye sahip, 7B parametreli model; yüksek kaliteli ve akıl yürütme yoğun veriye odaklanır.",
863
+ "microsoft/Phi-3.5-mini-instruct.description": "Phi-3-mini modelinin güncellenmiş sürümü.",
864
+ "microsoft/Phi-3.5-vision-instruct.description": "Phi-3-vision modelinin güncellenmiş sürümü.",
865
+ "microsoft/WizardLM-2-8x22B.description": "WizardLM 2, karmaşık diyaloglar, çok dilli görevler, akıl yürütme ve asistanlar konusunda üstün performans gösteren Microsoft AI dil modelidir.",
866
+ "microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B, Microsoft AI’nin en gelişmiş Wizard modelidir ve son derece rekabetçi performans sunar.",
867
+ "mimo-v2-flash.description": "MiMo-V2-Flash: Akıl yürütme, kodlama ve ajan temelleri için verimli bir model.",
868
+ "minicpm-v.description": "MiniCPM-V, geniş kullanım senaryoları için mükemmel OCR ve çok modlu anlama yeteneklerine sahip OpenBMB’nin yeni nesil çok modlu modelidir.",
869
+ "minimax-m2.1.description": "MiniMax-M2.1, çok dilli programlama ve gerçek dünya karmaşık görevler için optimize edilmiş MiniMax serisinin en son sürümüdür. Yapay zeka yerel bir model olarak, model performansı, ajan çerçevesi desteği ve çok senaryolu uyumda önemli gelişmeler sağlar; işletmelerin ve bireylerin yapay zeka yerel çalışma ve yaşam tarzını daha hızlı benimsemelerine yardımcı olmayı amaçlar.",
870
+ "minimax-m2.description": "MiniMax M2, özellikle kodlama ve ajan iş akışları için oluşturulmuş verimli bir büyük dil modelidir.",
871
+ "minimax/minimax-m2.1.description": "MiniMax-M2.1, kodlama, vekil iş akışları ve modern uygulama geliştirme için optimize edilmiş, hafif ve son teknoloji bir büyük dil modelidir. Daha temiz, özlü çıktılar ve daha hızlı algısal yanıt süreleri sunar.",
872
+ "minimax/minimax-m2.description": "MiniMax-M2, birçok mühendislik senaryosu için kodlama ve ajan görevlerinde üstün performans gösteren yüksek değerli bir modeldir.",
873
+ "minimaxai/minimax-m2.description": "MiniMax-M2, üst düzey kodlama ve ajan performansı için oluşturulmuş, kompakt, hızlı ve maliyet etkin bir MoE modelidir (toplam 230B, aktif 10B). Çoklu dosya düzenlemeleri, kod çalıştır-düzelt döngüleri, test doğrulama ve karmaşık araç zincirlerinde mükemmeldir.",
874
+ "ministral-3b-latest.description": "Ministral 3B, Mistral’in en üst düzey uç modelidir.",
875
+ "ministral-8b-latest.description": "Ministral 8B, Mistral’in son derece uygun maliyetli uç modelidir.",
876
+ "mistral-ai/Mistral-Large-2411.description": "Mistral’in büyük ölçekli akıl yürütme veya uzmanlaşma gerektiren karmaşık görevler için amiral gemisi modelidir (sentetik metin üretimi, kod üretimi, RAG veya ajanlar).",
877
+ "mistral-ai/Mistral-Nemo.description": "Mistral Nemo, boyutuna göre en son akıl yürütme, dünya bilgisi ve kodlama yeteneklerine sahip son teknoloji bir büyük dil modelidir.",
878
+ "mistral-ai/mistral-small-2503.description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her türlü dil tabanlı görev için uygundur.",
879
+ "mistral-large-instruct.description": "Mistral-Large-Instruct-2407, 123B parametreli gelişmiş yoğun bir büyük dil modelidir ve en son akıl yürütme, bilgi ve kodlama yeteneklerine sahiptir.",
880
+ "mistral-large-latest.description": "Mistral Large, çok dilli görevlerde, karmaşık akıl yürütmede ve kod üretiminde güçlüdür—üst düzey uygulamalar için idealdir.",
881
+ "mistral-large.description": "Mixtral Large, Mistral’in amiral gemisi modelidir; kod üretimi, matematik ve akıl yürütmeyi 128K bağlam penceresiyle birleştirir.",
882
+ "mistral-medium-latest.description": "Mistral Medium 3, 8 kat daha düşük maliyetle en son performansı sunar ve kurumsal dağıtımı kolaylaştırır.",
883
+ "mistral-nemo-instruct.description": "Mistral-Nemo-Instruct-2407, Mistral-Nemo-Base-2407’nin talimat ayarlı sürümüdür.",
884
+ "mistral-nemo.description": "Mistral Nemo, Mistral AI ve NVIDIA tarafından geliştirilen, yüksek verimliliğe sahip 12B modeldir.",
830
885
  "mistral-small-latest.description": "Mistral Small, çeviri, özetleme ve duygu analizi için uygun maliyetli, hızlı ve güvenilir bir seçenektir.",
831
886
  "mistral-small.description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her türlü dil tabanlı görev için uygundur.",
832
887
  "mistral.description": "Mistral, Mistral AI’nin 7B modelidir ve çeşitli dil görevleri için uygundur.",
@@ -338,6 +338,9 @@
338
338
  "task.activity.toolCalling": "Đang gọi {{toolName}}...",
339
339
  "task.activity.toolResult": "Đã nhận kết quả từ {{toolName}}",
340
340
  "task.batchTasks": "{{count}} nhiệm vụ hàng loạt",
341
+ "task.groupTasks": "{{count}} Nhiệm vụ song song",
342
+ "task.groupTasksTitle": "{{agents}} và {{count}} nhiệm vụ của tác nhân",
343
+ "task.groupTasksTitleSimple": "{{agents}} {{count}} nhiệm vụ",
341
344
  "task.instruction": "Hướng dẫn tác vụ",
342
345
  "task.intermediateSteps": "{{count}} bước trung gian",
343
346
  "task.metrics.duration": "(mất {{duration}})",
@@ -345,6 +348,7 @@
345
348
  "task.metrics.toolCallsShort": "lượt dùng công cụ",
346
349
  "task.status.cancelled": "Nhiệm vụ đã hủy",
347
350
  "task.status.failed": "Nhiệm vụ thất bại",
351
+ "task.status.fetchingDetails": "Đang lấy chi tiết...",
348
352
  "task.status.initializing": "Đang khởi tạo nhiệm vụ...",
349
353
  "task.subtask": "Nhiệm vụ phụ",
350
354
  "thread.divider": "Chủ đề phụ",
@@ -563,6 +563,37 @@
563
563
  "glm-4.5.description": "Mô hình hàng đầu của Zhipu với chế độ suy nghĩ có thể chuyển đổi, cung cấp SOTA mã nguồn mở tổng thể và hỗ trợ ngữ cảnh lên đến 128K.",
564
564
  "glm-4.5v.description": "Mô hình suy luận thị giác thế hệ tiếp theo của Zhipu với tổng 106B tham số, 12B hoạt động, đạt SOTA trong các mô hình đa phương thức mã nguồn mở cùng kích thước về hình ảnh, video, hiểu tài liệu và tác vụ GUI.",
565
565
  "glm-4.6.description": "GLM-4.6 là mô hình hàng đầu mới nhất của Zhipu (355B), vượt trội hoàn toàn so với các phiên bản trước về mã hóa nâng cao, xử lý văn bản dài, suy luận và khả năng tác tử. Đặc biệt phù hợp với Claude Sonnet 4 về khả năng lập trình, trở thành mô hình mã hóa hàng đầu tại Trung Quốc.",
566
+ "glm-4.7.description": "GLM-4.7 là mô hình chủ lực mới nhất của Zhipu, được nâng cấp cho các tình huống Lập trình Tác nhân (Agentic Coding) với khả năng lập trình vượt trội, lập kế hoạch nhiệm vụ dài hạn và phối hợp công cụ. Mô hình đạt hiệu suất hàng đầu trong số các mô hình mã nguồn mở trên nhiều bộ đánh giá công khai. Năng lực tổng quát được cải thiện với phản hồi ngắn gọn, tự nhiên hơn và khả năng viết lôi cuốn hơn. Đối với các tác vụ tác nhân phức tạp, khả năng tuân thủ hướng dẫn khi gọi công cụ được tăng cường, đồng thời giao diện người dùng và hiệu quả hoàn thành nhiệm vụ dài hạn trong Artifacts và Agentic Coding cũng được cải thiện.",
567
+ "glm-4.description": "GLM-4 là mô hình chủ lực cũ được phát hành vào tháng 1 năm 2024, hiện đã được thay thế bởi GLM-4-0520 mạnh mẽ hơn.",
568
+ "glm-4v-flash.description": "GLM-4V-Flash tập trung vào khả năng hiểu hình ảnh đơn hiệu quả cho các tình huống phân tích nhanh như xử lý hình ảnh theo thời gian thực hoặc theo lô.",
569
+ "glm-4v-plus-0111.description": "GLM-4V-Plus có khả năng hiểu video và nhiều hình ảnh, phù hợp với các tác vụ đa phương thức.",
570
+ "glm-4v-plus.description": "GLM-4V-Plus có khả năng hiểu video và nhiều hình ảnh, phù hợp với các tác vụ đa phương thức.",
571
+ "glm-4v.description": "GLM-4V cung cấp khả năng hiểu và suy luận hình ảnh mạnh mẽ trong các tác vụ thị giác.",
572
+ "glm-z1-air.description": "Mô hình suy luận với khả năng suy luận sâu cho các tác vụ yêu cầu phân tích phức tạp.",
573
+ "glm-z1-airx.description": "Suy luận siêu nhanh với chất lượng suy luận cao.",
574
+ "glm-z1-flash.description": "Dòng GLM-Z1 cung cấp khả năng suy luận phức tạp mạnh mẽ, vượt trội trong logic, toán học và lập trình.",
575
+ "glm-z1-flashx.description": "Nhanh và tiết kiệm chi phí: Được tăng tốc với khả năng suy luận siêu nhanh và hỗ trợ đồng thời cao.",
576
+ "glm-zero-preview.description": "GLM-Zero-Preview mang lại khả năng suy luận phức tạp mạnh mẽ, vượt trội trong logic, toán học và lập trình.",
577
+ "global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 là mô hình chủ lực của Anthropic, kết hợp trí thông minh vượt trội và hiệu suất mở rộng cho các tác vụ phức tạp đòi hỏi phản hồi và suy luận chất lượng cao nhất.",
578
+ "google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash mang đến các khả năng thế hệ mới, bao gồm tốc độ vượt trội, sử dụng công cụ tích hợp, tạo nội dung đa phương thức và cửa sổ ngữ cảnh lên đến 1 triệu token.",
579
+ "google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental là mô hình AI đa phương thức thử nghiệm mới nhất của Google với các cải tiến về chất lượng so với các phiên bản trước, đặc biệt trong kiến thức thế giới, mã hóa và ngữ cảnh dài.",
580
+ "google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite là biến thể nhẹ của Gemini với chế độ suy nghĩ bị tắt mặc định để cải thiện độ trễ và chi phí, nhưng có thể bật thông qua tham số.",
581
+ "google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite cung cấp các tính năng thế hệ mới bao gồm tốc độ vượt trội, sử dụng công cụ tích hợp, tạo nội dung đa phương thức và cửa sổ ngữ cảnh lên đến 1 triệu token.",
582
+ "google/gemini-2.0-flash.description": "Gemini 2.0 Flash là mô hình suy luận hiệu suất cao của Google dành cho các tác vụ đa phương thức mở rộng.",
583
+ "google/gemini-2.5-flash-image-free.description": "Gemini 2.5 Flash Image phiên bản miễn phí với hạn ngạch tạo nội dung đa phương thức giới hạn.",
584
+ "google/gemini-2.5-flash-image-preview.description": "Gemini 2.5 Flash là mô hình thử nghiệm hỗ trợ tạo hình ảnh.",
585
+ "google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) là mô hình tạo hình ảnh của Google với hỗ trợ hội thoại đa phương thức.",
586
+ "google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite là biến thể nhẹ của Gemini 2.5 được tối ưu hóa cho độ trễ và chi phí, phù hợp với các tình huống yêu cầu thông lượng cao.",
587
+ "google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash là mô hình chủ lực tiên tiến nhất của Google, được xây dựng cho các tác vụ suy luận, lập trình, toán học và khoa học nâng cao. Mô hình tích hợp khả năng “suy nghĩ” để cung cấp phản hồi chính xác hơn với xử lý ngữ cảnh tinh tế hơn.\n\nLưu ý: Mô hình này có hai biến thể — có suy nghĩ và không suy nghĩ. Giá đầu ra khác nhau đáng kể tùy theo việc suy nghĩ có được bật hay không. Nếu bạn chọn biến thể tiêu chuẩn (không có hậu tố “:thinking”), mô hình sẽ tránh tạo token suy nghĩ.\n\nĐể sử dụng suy nghĩ và nhận token suy nghĩ, bạn phải chọn biến thể “:thinking”, điều này sẽ tính giá cao hơn cho đầu ra suy nghĩ.\n\nGemini 2.5 Flash cũng có thể được cấu hình thông qua tham số “max reasoning tokens” như được tài liệu hóa (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
588
+ "google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash là mô hình chủ lực tiên tiến nhất của Google, được xây dựng cho các tác vụ suy luận, lập trình, toán học và khoa học nâng cao. Mô hình tích hợp khả năng “suy nghĩ” để cung cấp phản hồi chính xác hơn với xử lý ngữ cảnh tinh tế hơn.\n\nLưu ý: Mô hình này có hai biến thể — có suy nghĩ và không suy nghĩ. Giá đầu ra khác nhau đáng kể tùy theo việc suy nghĩ có được bật hay không. Nếu bạn chọn biến thể tiêu chuẩn (không có hậu tố “:thinking”), mô hình sẽ tránh tạo token suy nghĩ.\n\nĐể sử dụng suy nghĩ và nhận token suy nghĩ, bạn phải chọn biến thể “:thinking”, điều này sẽ tính giá cao hơn cho đầu ra suy nghĩ.\n\nGemini 2.5 Flash cũng có thể được cấu hình thông qua tham số “max reasoning tokens” như được tài liệu hóa (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
589
+ "google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) là dòng sản phẩm của Google trải dài từ độ trễ thấp đến suy luận hiệu suất cao.",
590
+ "google/gemini-2.5-pro-free.description": "Gemini 2.5 Pro phiên bản miễn phí cung cấp ngữ cảnh dài đa phương thức với hạn ngạch giới hạn, phù hợp cho thử nghiệm và quy trình nhẹ.",
591
+ "google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview là mô hình suy nghĩ tiên tiến nhất của Google để suy luận các vấn đề phức tạp trong lập trình, toán học và STEM, cũng như phân tích tập dữ liệu lớn, mã nguồn và tài liệu với ngữ cảnh dài.",
592
+ "google/gemini-2.5-pro.description": "Gemini 2.5 Pro là mô hình suy luận chủ lực của Google với hỗ trợ ngữ cảnh dài cho các tác vụ phức tạp.",
593
+ "google/gemini-3-pro-image-preview-free.description": "Gemini 3 Pro Image phiên bản miễn phí với hạn ngạch tạo nội dung đa phương thức giới hạn.",
594
+ "google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) là mô hình tạo hình ảnh của Google với hỗ trợ hội thoại đa phương thức.",
595
+ "google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free cung cấp khả năng hiểu và suy luận đa phương thức giống như phiên bản tiêu chuẩn, nhưng có giới hạn về hạn ngạch và tốc độ, phù hợp hơn cho thử nghiệm và sử dụng tần suất thấp.",
596
+ "google/gemini-3-pro-preview.description": "Gemini 3 Pro là mô hình suy luận đa phương thức thế hệ tiếp theo trong dòng Gemini, có khả năng hiểu văn bản, âm thanh, hình ảnh và video, xử lý các tác vụ phức tạp và mã nguồn lớn.",
566
597
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 là một mô hình ngôn ngữ mở dành cho nhà phát triển, nhà nghiên cứu và doanh nghiệp, được thiết kế để hỗ trợ xây dựng, thử nghiệm và mở rộng các ý tưởng AI sinh ngữ một cách có trách nhiệm. Là một phần trong nền tảng đổi mới cộng đồng toàn cầu, mô hình này phù hợp với môi trường có tài nguyên hạn chế, thiết bị biên và yêu cầu thời gian huấn luyện nhanh hơn.",
567
598
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Khả năng suy luận hình ảnh mạnh mẽ trên ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu thị giác.",
568
599
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Khả năng suy luận hình ảnh tiên tiến dành cho các ứng dụng tác tử hiểu thị giác.",
@@ -338,6 +338,9 @@
338
338
  "task.activity.toolCalling": "正在调用 {{toolName}}…",
339
339
  "task.activity.toolResult": "已获取 {{toolName}} 结果",
340
340
  "task.batchTasks": "{{count}} 个批量子任务",
341
+ "task.groupTasks": "{{count}} 个并行任务",
342
+ "task.groupTasksTitle": "{{agents}} 和 {{count}} 个代理任务",
343
+ "task.groupTasksTitleSimple": "{{agents}} 共 {{count}} 个任务",
341
344
  "task.instruction": "任务说明",
342
345
  "task.intermediateSteps": "{{count}} 个中间步骤",
343
346
  "task.metrics.duration": "(用时 {{duration}})",
@@ -345,6 +348,7 @@
345
348
  "task.metrics.toolCallsShort": "次技能调用",
346
349
  "task.status.cancelled": "任务已取消",
347
350
  "task.status.failed": "任务失败",
351
+ "task.status.fetchingDetails": "正在获取详情...",
348
352
  "task.status.initializing": "任务启动中…",
349
353
  "task.subtask": "子任务",
350
354
  "thread.divider": "子话题",
@@ -338,6 +338,9 @@
338
338
  "task.activity.toolCalling": "正在呼叫 {{toolName}}...",
339
339
  "task.activity.toolResult": "已取得 {{toolName}} 結果",
340
340
  "task.batchTasks": "{{count}} 個批次子任務",
341
+ "task.groupTasks": "{{count}} 個並行任務",
342
+ "task.groupTasksTitle": "{{agents}} 和 {{count}} 個代理任務",
343
+ "task.groupTasksTitleSimple": "{{agents}} {{count}} 個任務",
341
344
  "task.instruction": "任務指示",
342
345
  "task.intermediateSteps": "{{count}} 個中間步驟",
343
346
  "task.metrics.duration": "(耗時 {{duration}})",
@@ -345,6 +348,7 @@
345
348
  "task.metrics.toolCallsShort": "次使用工具",
346
349
  "task.status.cancelled": "任務已取消",
347
350
  "task.status.failed": "任務失敗",
351
+ "task.status.fetchingDetails": "正在擷取詳細資料...",
348
352
  "task.status.initializing": "任務啟動中...",
349
353
  "task.subtask": "子任務",
350
354
  "thread.divider": "子話題",
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/lobehub",
3
- "version": "2.0.10",
3
+ "version": "2.0.12",
4
4
  "description": "LobeHub - an open-source,comprehensive AI Agent framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -3,6 +3,7 @@ import type {
3
3
  ExecutorResult,
4
4
  IGroupOrchestrationSupervisor,
5
5
  SupervisorInstruction,
6
+ SupervisorInstructionBatchExecAsyncTasks,
6
7
  SupervisorInstructionCallAgent,
7
8
  SupervisorInstructionCallSupervisor,
8
9
  SupervisorInstructionDelegate,
@@ -29,6 +30,7 @@ export interface GroupOrchestrationSupervisorConfig {
29
30
  * - supervisor_decided(broadcast) → parallel_call_agents
30
31
  * - supervisor_decided(delegate) → delegate
31
32
  * - supervisor_decided(execute_task) → exec_async_task
33
+ * - supervisor_decided(execute_tasks) → batch_exec_async_tasks
32
34
  * - supervisor_decided(finish) → finish
33
35
  * - agent_spoke / agents_broadcasted / task_completed / tasks_completed → call_supervisor OR finish
34
36
  * - delegated → finish
@@ -99,7 +101,7 @@ export class GroupOrchestrationSupervisor implements IGroupOrchestrationSupervis
99
101
  case 'execute_task': {
100
102
  const instructionPayload = {
101
103
  agentId: params.agentId as string,
102
- task: params.task as string,
104
+ instruction: params.instruction as string,
103
105
  timeout: params.timeout as number | undefined,
104
106
  title: params.title as string | undefined,
105
107
  toolMessageId: params.toolMessageId as string,
@@ -119,6 +121,21 @@ export class GroupOrchestrationSupervisor implements IGroupOrchestrationSupervis
119
121
  } as SupervisorInstructionExecAsyncTask;
120
122
  }
121
123
 
124
+ case 'execute_tasks': {
125
+ return {
126
+ payload: {
127
+ tasks: params.tasks as Array<{
128
+ agentId: string;
129
+ instruction: string;
130
+ timeout?: number;
131
+ title?: string;
132
+ }>,
133
+ toolMessageId: params.toolMessageId as string,
134
+ },
135
+ type: 'batch_exec_async_tasks',
136
+ } as SupervisorInstructionBatchExecAsyncTasks;
137
+ }
138
+
122
139
  case 'finish': {
123
140
  return {
124
141
  reason: (params.reason as string) || 'supervisor_finished',