@lobehub/chat 1.138.1 → 1.138.3

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (135) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/docker-compose/local/docker-compose.yml +1 -1
  4. package/docker-compose/local/grafana/docker-compose.yml +1 -1
  5. package/docker-compose/production/grafana/docker-compose.yml +1 -1
  6. package/locales/ar/chat.json +1 -1
  7. package/locales/ar/common.json +1 -1
  8. package/locales/ar/models.json +35 -8
  9. package/locales/ar/plugin.json +1 -1
  10. package/locales/ar/welcome.json +1 -1
  11. package/locales/bg-BG/chat.json +1 -1
  12. package/locales/bg-BG/common.json +1 -1
  13. package/locales/bg-BG/models.json +35 -8
  14. package/locales/bg-BG/plugin.json +1 -1
  15. package/locales/bg-BG/welcome.json +1 -1
  16. package/locales/de-DE/chat.json +1 -1
  17. package/locales/de-DE/common.json +1 -1
  18. package/locales/de-DE/models.json +35 -8
  19. package/locales/de-DE/plugin.json +1 -1
  20. package/locales/de-DE/welcome.json +1 -1
  21. package/locales/en-US/chat.json +1 -1
  22. package/locales/en-US/common.json +1 -1
  23. package/locales/en-US/models.json +35 -8
  24. package/locales/en-US/plugin.json +1 -1
  25. package/locales/en-US/welcome.json +1 -1
  26. package/locales/es-ES/chat.json +1 -1
  27. package/locales/es-ES/common.json +1 -1
  28. package/locales/es-ES/models.json +35 -8
  29. package/locales/es-ES/plugin.json +1 -1
  30. package/locales/es-ES/welcome.json +1 -1
  31. package/locales/fa-IR/chat.json +1 -1
  32. package/locales/fa-IR/common.json +1 -1
  33. package/locales/fa-IR/models.json +35 -8
  34. package/locales/fa-IR/plugin.json +1 -1
  35. package/locales/fa-IR/welcome.json +1 -1
  36. package/locales/fr-FR/chat.json +1 -1
  37. package/locales/fr-FR/common.json +1 -1
  38. package/locales/fr-FR/models.json +35 -8
  39. package/locales/fr-FR/plugin.json +1 -1
  40. package/locales/fr-FR/welcome.json +1 -1
  41. package/locales/it-IT/chat.json +1 -1
  42. package/locales/it-IT/common.json +1 -1
  43. package/locales/it-IT/models.json +35 -8
  44. package/locales/it-IT/plugin.json +1 -1
  45. package/locales/it-IT/welcome.json +1 -1
  46. package/locales/ja-JP/chat.json +1 -1
  47. package/locales/ja-JP/common.json +1 -1
  48. package/locales/ja-JP/models.json +35 -8
  49. package/locales/ja-JP/plugin.json +1 -1
  50. package/locales/ja-JP/welcome.json +1 -1
  51. package/locales/ko-KR/chat.json +1 -1
  52. package/locales/ko-KR/common.json +1 -1
  53. package/locales/ko-KR/models.json +35 -8
  54. package/locales/ko-KR/plugin.json +1 -1
  55. package/locales/ko-KR/welcome.json +1 -1
  56. package/locales/nl-NL/chat.json +1 -1
  57. package/locales/nl-NL/common.json +1 -1
  58. package/locales/nl-NL/models.json +35 -8
  59. package/locales/nl-NL/plugin.json +1 -1
  60. package/locales/nl-NL/welcome.json +1 -1
  61. package/locales/pl-PL/chat.json +1 -1
  62. package/locales/pl-PL/common.json +1 -1
  63. package/locales/pl-PL/models.json +35 -8
  64. package/locales/pl-PL/plugin.json +1 -1
  65. package/locales/pl-PL/welcome.json +1 -1
  66. package/locales/pt-BR/chat.json +1 -1
  67. package/locales/pt-BR/common.json +1 -1
  68. package/locales/pt-BR/models.json +35 -8
  69. package/locales/pt-BR/plugin.json +1 -1
  70. package/locales/pt-BR/welcome.json +1 -1
  71. package/locales/ru-RU/chat.json +1 -1
  72. package/locales/ru-RU/common.json +1 -1
  73. package/locales/ru-RU/models.json +35 -8
  74. package/locales/ru-RU/plugin.json +1 -1
  75. package/locales/ru-RU/welcome.json +1 -1
  76. package/locales/tr-TR/chat.json +1 -1
  77. package/locales/tr-TR/common.json +1 -1
  78. package/locales/tr-TR/models.json +35 -8
  79. package/locales/tr-TR/plugin.json +1 -1
  80. package/locales/tr-TR/welcome.json +1 -1
  81. package/locales/vi-VN/chat.json +1 -1
  82. package/locales/vi-VN/common.json +1 -1
  83. package/locales/vi-VN/models.json +35 -8
  84. package/locales/vi-VN/plugin.json +1 -1
  85. package/locales/vi-VN/welcome.json +1 -1
  86. package/locales/zh-CN/common.json +1 -1
  87. package/locales/zh-CN/models.json +35 -8
  88. package/locales/zh-CN/plugin.json +1 -1
  89. package/locales/zh-CN/welcome.json +1 -1
  90. package/locales/zh-TW/chat.json +1 -1
  91. package/locales/zh-TW/common.json +1 -1
  92. package/locales/zh-TW/models.json +35 -8
  93. package/locales/zh-TW/plugin.json +1 -1
  94. package/locales/zh-TW/welcome.json +1 -1
  95. package/package.json +1 -1
  96. package/packages/const/src/branding.ts +2 -2
  97. package/packages/const/src/index.ts +1 -0
  98. package/packages/const/src/version.ts +1 -1
  99. package/packages/database/src/models/topic.ts +0 -1
  100. package/packages/database/src/repositories/aiInfra/index.ts +19 -13
  101. package/packages/obervability-otel/package.json +4 -4
  102. package/packages/prompts/CLAUDE.md +289 -43
  103. package/packages/prompts/package.json +2 -1
  104. package/packages/prompts/promptfoo/supervisor/productive/eval.yaml +51 -0
  105. package/packages/prompts/promptfoo/supervisor/productive/prompt.ts +18 -0
  106. package/packages/prompts/promptfoo/supervisor/productive/tests/basic-case.ts +54 -0
  107. package/packages/prompts/promptfoo/supervisor/productive/tests/role.ts +58 -0
  108. package/packages/prompts/promptfoo/supervisor/productive/tools.json +80 -0
  109. package/packages/prompts/src/contexts/index.ts +1 -0
  110. package/packages/prompts/src/contexts/supervisor/index.ts +2 -0
  111. package/packages/prompts/src/contexts/supervisor/makeDecision.ts +68 -0
  112. package/packages/prompts/src/contexts/supervisor/tools.ts +102 -0
  113. package/packages/prompts/src/index.ts +1 -0
  114. package/packages/types/src/aiChat.ts +9 -3
  115. package/src/app/[variants]/(auth)/next-auth/signin/AuthSignInBox.tsx +4 -4
  116. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{OpeningQuestions.tsx → AgentWelcome/OpeningQuestions.tsx} +2 -2
  117. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{InboxWelcome → AgentWelcome}/index.tsx +38 -17
  118. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/index.tsx +2 -2
  119. package/src/app/[variants]/(main)/discover/(detail)/assistant/[...slugs]/page.tsx +1 -1
  120. package/src/app/[variants]/(main)/discover/(detail)/mcp/[slug]/page.tsx +1 -1
  121. package/src/config/modelProviders/lobehub.ts +1 -1
  122. package/src/locales/default/common.ts +1 -1
  123. package/src/locales/default/plugin.ts +1 -1
  124. package/src/locales/default/welcome.ts +1 -1
  125. package/src/server/ld.ts +1 -1
  126. package/src/server/routers/lambda/aiChat.ts +1 -1
  127. package/src/server/services/aiChat/index.test.ts +1 -1
  128. package/src/server/services/aiChat/index.ts +1 -1
  129. package/src/services/topic/client.ts +1 -1
  130. package/src/store/chat/slices/message/supervisor.test.ts +12 -5
  131. package/src/store/chat/slices/message/supervisor.ts +16 -129
  132. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/InboxWelcome/AgentsSuggest.tsx +0 -114
  133. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/InboxWelcome/QuestionSuggest.tsx +0 -104
  134. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/WelcomeMessage.tsx +0 -65
  135. /package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{InboxWelcome → AgentWelcome}/AddButton.tsx +0 -0
@@ -767,6 +767,9 @@
767
767
  "claude-3-sonnet-20240229": {
768
768
  "description": "Claude 3 Sonnet zapewnia idealną równowagę między inteligencją a szybkością dla obciążeń roboczych w przedsiębiorstwach. Oferuje maksymalną użyteczność przy niższej cenie, jest niezawodny i odpowiedni do dużych wdrożeń."
769
769
  },
770
+ "claude-haiku-4-5-20251001": {
771
+ "description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku firmy Anthropic, oferujący błyskawiczne działanie i zaawansowane możliwości rozumowania."
772
+ },
770
773
  "claude-opus-4-1-20250805": {
771
774
  "description": "Claude Opus 4.1 to najnowszy i najpotężniejszy model Anthropic do obsługi wysoce złożonych zadań. Wyróżnia się doskonałą wydajnością, inteligencją, płynnością i zdolnością rozumienia."
772
775
  },
@@ -1148,6 +1151,9 @@
1148
1151
  "doubao-seed-1.6-flash": {
1149
1152
  "description": "Doubao-Seed-1.6-flash to ultraszybki model wielomodalnego głębokiego myślenia, z czasem TPOT zaledwie 10 ms; obsługuje zarówno rozumienie tekstu, jak i obrazu, z lepszymi zdolnościami tekstowymi niż poprzednia generacja lite oraz wizualnymi porównywalnymi do modeli pro konkurencji. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
1150
1153
  },
1154
+ "doubao-seed-1.6-lite": {
1155
+ "description": "Doubao-Seed-1.6-lite to nowy, multimodalny model głębokiego rozumowania, umożliwiający regulację poziomu wnioskowania (reasoning effort) w czterech trybach: Minimal, Low, Medium i High. Oferuje doskonały stosunek jakości do ceny i jest idealnym wyborem do typowych zadań, z kontekstem do 256k."
1156
+ },
1151
1157
  "doubao-seed-1.6-thinking": {
1152
1158
  "description": "Model Doubao-Seed-1.6-thinking ma znacznie wzmocnione zdolności myślenia, w porównaniu do Doubao-1.5-thinking-pro osiąga dalsze ulepszenia w podstawowych umiejętnościach takich jak kodowanie, matematyka i rozumowanie logiczne, wspiera również rozumienie wizualne. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
1153
1159
  },
@@ -1541,9 +1547,6 @@
1541
1547
  "glm-zero-preview": {
1542
1548
  "description": "GLM-Zero-Preview posiada silne zdolności do złożonego wnioskowania, wyróżniając się w dziedzinach takich jak wnioskowanie logiczne, matematyka i programowanie."
1543
1549
  },
1544
- "glm4.6:355b": {
1545
- "description": "Najnowszy flagowy model Zhipu, GLM-4.6 (355B), znacznie przewyższa swojego poprzednika w zakresie zaawansowanego kodowania, przetwarzania długich tekstów, wnioskowania i zdolności agentowych. Szczególnie w programowaniu dorównuje Claude Sonnet 4, stając się czołowym modelem kodującym w Chinach."
1546
- },
1547
1550
  "google/gemini-2.0-flash": {
1548
1551
  "description": "Gemini 2.0 Flash oferuje funkcje nowej generacji i ulepszenia, w tym doskonałą szybkość, wbudowane użycie narzędzi, generowanie multimodalne oraz okno kontekstu o rozmiarze 1 miliona tokenów."
1549
1552
  },
@@ -1934,12 +1937,18 @@
1934
1937
  "inception/mercury-coder-small": {
1935
1938
  "description": "Mercury Coder Small to idealny wybór do generowania, debugowania i refaktoryzacji kodu, oferujący minimalne opóźnienia."
1936
1939
  },
1940
+ "inclusionAI/Ling-1T": {
1941
+ "description": "Ling-1T to flagowy model bez rozumowania (non-thinking) z serii „Ling 2.0”, posiadający 1 bilion parametrów ogólnych i około 50 miliardów aktywnych parametrów na token. Zbudowany na architekturze Ling 2.0, Ling-1T ma na celu przesunięcie granic efektywnego wnioskowania i skalowalnej kognicji. Ling-1T-base został wytrenowany na ponad 20 bilionach wysokiej jakości, intensywnie rozumujących tokenów."
1942
+ },
1937
1943
  "inclusionAI/Ling-flash-2.0": {
1938
1944
  "description": "Ling-flash-2.0 to trzeci model z serii architektury Ling 2.0 wydany przez zespół Bailing z Ant Group. Jest to model hybrydowy ekspertów (MoE) o łącznej liczbie parametrów 100 miliardów, z aktywacją jedynie 6,1 miliarda parametrów na token (48 miliardów bez uwzględnienia wektorów osadzeń). Jako lekka konfiguracja modelu, Ling-flash-2.0 wykazuje w wielu autorytatywnych testach wydajność porównywalną lub przewyższającą modele gęste (Dense) o wielkości 40 miliardów parametrów oraz większe modele MoE. Model ten ma na celu eksplorację efektywnych ścieżek w kontekście powszechnego przekonania, że „duży model to duża liczba parametrów”, poprzez zaawansowany projekt architektury i strategię treningową."
1939
1945
  },
1940
1946
  "inclusionAI/Ling-mini-2.0": {
1941
1947
  "description": "Ling-mini-2.0 to mały, wysokowydajny duży model językowy oparty na architekturze MoE. Posiada 16 miliardów parametrów, ale aktywuje tylko 1,4 miliarda na token (789 milionów bez osadzeń), co zapewnia bardzo wysoką szybkość generowania. Dzięki efektywnemu projektowi MoE i dużej, wysokiej jakości bazie treningowej, mimo niskiej liczby aktywowanych parametrów, Ling-mini-2.0 osiąga w zadaniach downstream wydajność porównywalną z najlepszymi modelami gęstymi poniżej 10 miliardów parametrów oraz większymi modelami MoE."
1942
1948
  },
1949
+ "inclusionAI/Ring-1T": {
1950
+ "description": "Ring-1T to otwartoźródłowy model myślenia o skali biliona parametrów, opracowany przez zespół Bailing. Bazuje na architekturze Ling 2.0 i modelu bazowym Ling-1T-base, z 1 bilionem parametrów ogólnych i 50 miliardami aktywnych parametrów. Obsługuje kontekst do 128K i został zoptymalizowany za pomocą skalowalnego, weryfikowalnego uczenia przez wzmocnienie z nagrodą."
1951
+ },
1943
1952
  "inclusionAI/Ring-flash-2.0": {
1944
1953
  "description": "Ring-flash-2.0 to wysoko wydajny model myślenia głęboko zoptymalizowany na bazie Ling-flash-2.0-base. Wykorzystuje architekturę hybrydowych ekspertów (MoE) z łączną liczbą parametrów 100 miliardów, aktywując podczas inferencji tylko 6,1 miliarda parametrów. Model rozwiązuje problem niestabilności treningu MoE w uczeniu ze wzmocnieniem (RL) dzięki autorskiej metodzie icepop, co pozwala na ciągłe zwiększanie zdolności do złożonego wnioskowania podczas długotrwałego treningu. Ring-flash-2.0 osiągnął znaczące przełomy w trudnych benchmarkach, takich jak konkursy matematyczne, generowanie kodu i rozumowanie logiczne. Jego wydajność przewyższa najlepsze modele gęste poniżej 40 miliardów parametrów i jest porównywalna z większymi otwartoźródłowymi modelami MoE oraz zamkniętymi modelami myślenia o wysokiej wydajności. Choć skupiony na złożonym wnioskowaniu, model dobrze radzi sobie także z zadaniami kreatywnego pisania. Dzięki efektywnej architekturze Ring-flash-2.0 oferuje wysoką wydajność przy szybkim inferowaniu, co znacząco obniża koszty wdrożenia modeli myślenia w środowiskach o dużej równoczesności."
1945
1954
  },
@@ -2036,9 +2045,6 @@
2036
2045
  "llama-3.3-instruct": {
2037
2046
  "description": "Model Llama 3.3 zoptymalizowany do rozmów, który w standardowych testach branżowych przewyższa wiele istniejących modeli czatowych o otwartym kodzie."
2038
2047
  },
2039
- "llama-4-maverick-17b-128e-instruct": {
2040
- "description": "Llama 4 Maverick: wysokowydajny model z serii Llama, idealny do zaawansowanego wnioskowania, rozwiązywania złożonych problemów i zadań opartych na instrukcjach."
2041
- },
2042
2048
  "llama-4-scout-17b-16e-instruct": {
2043
2049
  "description": "Llama 4 Scout: wysokowydajny model z serii Llama, zaprojektowany do zastosowań wymagających dużej przepustowości i niskich opóźnień."
2044
2050
  },
@@ -2906,6 +2912,9 @@
2906
2912
  "qwen3-8b": {
2907
2913
  "description": "Qwen3 to nowa generacja modelu Qwen, który znacznie zwiększa możliwości w zakresie wnioskowania, ogólności, agenta i wielojęzyczności, osiągając wiodące w branży wyniki w wielu kluczowych obszarach i wspierając przełączanie trybów myślenia."
2908
2914
  },
2915
+ "qwen3-coder-30b-a3b-instruct": {
2916
+ "description": "Otwartoźródłowa wersja modelu kodowania Tongyi Qianwen. Najnowszy qwen3-coder-30b-a3b-instruct to model generowania kodu oparty na Qwen3, wyposażony w zaawansowane możliwości agenta kodującego, doskonale radzący sobie z wywoływaniem narzędzi i interakcją ze środowiskiem, umożliwiający autonomiczne programowanie i łączący doskonałe umiejętności kodowania z ogólnymi zdolnościami."
2917
+ },
2909
2918
  "qwen3-coder-480b-a35b-instruct": {
2910
2919
  "description": "Otwartoźródłowa wersja modelu kodowania Tongyi Qianwen. Najnowszy qwen3-coder-480b-a35b-instruct to model generowania kodu oparty na Qwen3, posiadający potężne zdolności agenta kodującego, specjalizujący się w wywoływaniu narzędzi i interakcji środowiskowej, umożliwiający autonomiczne programowanie z doskonałymi zdolnościami kodowania i ogólnymi."
2911
2920
  },
@@ -2927,11 +2936,29 @@
2927
2936
  "qwen3-next-80b-a3b-thinking": {
2928
2937
  "description": "Nowa generacja otwartego modelu z trybem myślenia oparta na Qwen3, która w porównaniu z poprzednią wersją (Tongyi Qianwen 3-235B-A22B-Thinking-2507) wykazuje poprawę w przestrzeganiu instrukcji oraz bardziej zwięzłe podsumowania w odpowiedziach modelu."
2929
2938
  },
2939
+ "qwen3-omni-flash": {
2940
+ "description": "Model Qwen-Omni obsługuje wejścia w różnych modalnościach, takich jak tekst, obraz, dźwięk i wideo, generując odpowiedzi w formie tekstu lub mowy. Oferuje różnorodne, naturalnie brzmiące głosy, wspiera wiele języków i dialektów, i znajduje zastosowanie w takich obszarach jak tworzenie tekstów, rozpoznawanie obrazów czy asystenci głosowi."
2941
+ },
2930
2942
  "qwen3-vl-235b-a22b-instruct": {
2931
- "description": "Qwen3 VL 235B A22B Instruct to multimodalny model opracowany przez Tongyi Qianwen, wspierający rozumienie wizualne i wnioskowanie."
2943
+ "description": "Qwen3 VL 235B A22B w trybie bez rozumowania (Instruct), przeznaczony do scenariuszy z instrukcjami niewymagającymi głębokiego wnioskowania, zachowując silne zdolności rozumienia wizualnego."
2932
2944
  },
2933
2945
  "qwen3-vl-235b-a22b-thinking": {
2934
- "description": "Qwen3 VL 235B A22B Thinking to multimodalny model wnioskowania opracowany przez Tongyi Qianwen, wspierający rozumienie wizualne i wnioskowanie."
2946
+ "description": "Qwen3 VL 235B A22B w trybie rozumowania (wersja open source), zaprojektowany do złożonych zadań wymagających intensywnego wnioskowania i rozumienia długich materiałów wideo, oferujący najwyższej klasy zdolności w zakresie rozumowania wizualno-tekstowego."
2947
+ },
2948
+ "qwen3-vl-30b-a3b-instruct": {
2949
+ "description": "Qwen3 VL 30B w trybie bez rozumowania (Instruct), przeznaczony do standardowych scenariuszy podążania za instrukcjami, oferujący wysoką jakość rozumienia i generowania multimodalnego."
2950
+ },
2951
+ "qwen3-vl-30b-a3b-thinking": {
2952
+ "description": "Qwen-VL (wersja open source) oferuje zdolności rozumienia wizualnego i generowania tekstu, wspiera interakcję z agentami, kodowanie wizualne, percepcję przestrzenną, rozumienie długich materiałów wideo i głębokie wnioskowanie, a także zapewnia zaawansowane rozpoznawanie tekstu i obsługę wielu języków w złożonych scenariuszach."
2953
+ },
2954
+ "qwen3-vl-8b-instruct": {
2955
+ "description": "Qwen3 VL 8B w trybie bez rozumowania (Instruct), odpowiedni do standardowych zadań generowania i rozpoznawania multimodalnego."
2956
+ },
2957
+ "qwen3-vl-8b-thinking": {
2958
+ "description": "Qwen3 VL 8B w trybie rozumowania, przeznaczony do lekkich scenariuszy multimodalnego wnioskowania i interakcji, z zachowaniem zdolności rozumienia długiego kontekstu."
2959
+ },
2960
+ "qwen3-vl-flash": {
2961
+ "description": "Qwen3 VL Flash: lekka, szybka wersja do wnioskowania, idealna do zastosowań wrażliwych na opóźnienia lub wymagających obsługi dużej liczby żądań."
2935
2962
  },
2936
2963
  "qwen3-vl-plus": {
2937
2964
  "description": "Tongyi Qianwen VL to model generujący tekst z umiejętnością rozumienia wizualnego (obrazów). Potrafi nie tylko wykonywać OCR (rozpoznawanie tekstu na obrazach), ale także podsumowywać i wnioskować, na przykład wyodrębniać atrybuty z fotografii produktów czy rozwiązywać zadania na podstawie ilustracji."
@@ -461,7 +461,7 @@
461
461
  "tabs": {
462
462
  "installed": "Zainstalowane",
463
463
  "mcp": "Wtyczki MCP",
464
- "old": "Wtyczki LobeChat"
464
+ "old": "Wtyczki LobeHub"
465
465
  },
466
466
  "title": "Sklep z wtyczkami"
467
467
  },
@@ -359,7 +359,7 @@
359
359
  },
360
360
  "questions": {
361
361
  "moreBtn": "Dowiedz się więcej",
362
- "title": "Najczęściej zadawane pytania:"
362
+ "title": "Spróbuj zapytać:"
363
363
  },
364
364
  "welcome": {
365
365
  "afternoon": "Dzień dobry",
@@ -396,4 +396,4 @@
396
396
  },
397
397
  "you": "você",
398
398
  "zenMode": "Modo de Foco"
399
- }
399
+ }
@@ -31,7 +31,7 @@
31
31
  "batchDelete": "Excluir em massa",
32
32
  "blog": "Blog de Produtos",
33
33
  "branching": "Criar subtópico",
34
- "branchingDisable": "A funcionalidade de \"subtópico\" está disponível apenas na versão do servidor. Se precisar dessa funcionalidade, mude para o modo de implantação no servidor ou use o LobeChat Cloud.",
34
+ "branchingDisable": "O recurso de \"subtópicos\" não está disponível no modo atual. Para utilizá-lo, altere para o modo Postgres/Pglite DB ou use o LobeHub Cloud.",
35
35
  "branchingRequiresSavedTopic": "O tópico atual não foi salvo. Salve-o para poder usar a funcionalidade de subtópicos.",
36
36
  "cancel": "Cancelar",
37
37
  "changelog": "Registro de alterações",
@@ -767,6 +767,9 @@
767
767
  "claude-3-sonnet-20240229": {
768
768
  "description": "Claude 3 Sonnet oferece um equilíbrio ideal entre inteligência e velocidade para cargas de trabalho empresariais. Ele fornece máxima utilidade a um custo mais baixo, sendo confiável e adequado para implantação em larga escala."
769
769
  },
770
+ "claude-haiku-4-5-20251001": {
771
+ "description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio expandida."
772
+ },
770
773
  "claude-opus-4-1-20250805": {
771
774
  "description": "Claude Opus 4.1 é o modelo mais poderoso e recente da Anthropic para lidar com tarefas altamente complexas. Ele se destaca em desempenho, inteligência, fluidez e compreensão."
772
775
  },
@@ -1148,6 +1151,9 @@
1148
1151
  "doubao-seed-1.6-flash": {
1149
1152
  "description": "Doubao-Seed-1.6-flash é um modelo multimodal de pensamento profundo com velocidade de inferência extrema, TPOT de apenas 10ms; suporta compreensão textual e visual, com capacidade textual superior à geração lite anterior e compreensão visual comparável à série pro dos concorrentes. Suporta janela de contexto de 256k e saída de até 16k tokens."
1150
1153
  },
1154
+ "doubao-seed-1.6-lite": {
1155
+ "description": "Doubao-Seed-1.6-lite é um novo modelo multimodal de pensamento profundo, com suporte para níveis ajustáveis de esforço de raciocínio (Minimal, Low, Medium, High). Oferece excelente custo-benefício e é a melhor escolha para tarefas comuns, com janela de contexto de até 256k."
1156
+ },
1151
1157
  "doubao-seed-1.6-thinking": {
1152
1158
  "description": "Doubao-Seed-1.6-thinking tem capacidade de pensamento significativamente reforçada, melhorando ainda mais habilidades básicas como codificação, matemática e raciocínio lógico em comparação com Doubao-1.5-thinking-pro, além de suportar compreensão visual. Suporta janela de contexto de 256k e saída de até 16k tokens."
1153
1159
  },
@@ -1541,9 +1547,6 @@
1541
1547
  "glm-zero-preview": {
1542
1548
  "description": "O GLM-Zero-Preview possui uma poderosa capacidade de raciocínio complexo, destacando-se em áreas como raciocínio lógico, matemática e programação."
1543
1549
  },
1544
- "glm4.6:355b": {
1545
- "description": "O mais novo modelo carro-chefe da Zhipu, o GLM-4.6 (355B), supera amplamente sua geração anterior em codificação avançada, processamento de textos longos, raciocínio e capacidades de agentes inteligentes. Em especial, seu desempenho em programação está alinhado ao Claude Sonnet 4, tornando-se o principal modelo de codificação da China."
1546
- },
1547
1550
  "google/gemini-2.0-flash": {
1548
1551
  "description": "Gemini 2.0 Flash oferece funcionalidades de próxima geração e melhorias, incluindo velocidade excepcional, uso integrado de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens."
1549
1552
  },
@@ -1934,12 +1937,18 @@
1934
1937
  "inception/mercury-coder-small": {
1935
1938
  "description": "Mercury Coder Small é a escolha ideal para tarefas de geração, depuração e refatoração de código, com latência mínima."
1936
1939
  },
1940
+ "inclusionAI/Ling-1T": {
1941
+ "description": "Ling-1T é o primeiro modelo emblemático da série \"Ling 2.0\" sem capacidade de raciocínio, com um total de 1 trilhão de parâmetros e cerca de 50 bilhões de parâmetros ativos por token. Construído com base na arquitetura Ling 2.0, o Ling-1T visa ultrapassar os limites do raciocínio eficiente e da cognição escalável. O Ling-1T-base foi treinado com mais de 20 trilhões de tokens de alta qualidade e intensivos em raciocínio."
1942
+ },
1937
1943
  "inclusionAI/Ling-flash-2.0": {
1938
1944
  "description": "Ling-flash-2.0 é o terceiro modelo da série Ling 2.0, lançado pela equipe Bailing do Ant Group. É um modelo de especialistas mistos (MoE) com 100 bilhões de parâmetros totais, mas ativa apenas 6,1 bilhões por token (4,8 bilhões excluindo embeddings). Como uma configuração leve, Ling-flash-2.0 demonstra desempenho comparável ou superior a modelos densos de 40 bilhões e modelos MoE de maior escala em várias avaliações autoritativas. O modelo busca explorar caminhos eficientes sob o consenso de que “modelos grandes equivalem a muitos parâmetros” por meio de design arquitetônico e estratégias de treinamento extremas."
1939
1945
  },
1940
1946
  "inclusionAI/Ling-mini-2.0": {
1941
1947
  "description": "Ling-mini-2.0 é um modelo de linguagem grande de alto desempenho e pequeno porte baseado na arquitetura MoE. Possui 16 bilhões de parâmetros totais, mas ativa apenas 1,4 bilhão por token (789 milhões excluindo embeddings), alcançando alta velocidade de geração. Graças ao design eficiente do MoE e a grandes volumes de dados de treinamento de alta qualidade, Ling-mini-2.0 apresenta desempenho de ponta em tarefas downstream, comparável a modelos densos abaixo de 10 bilhões e modelos MoE de maior escala."
1942
1948
  },
1949
+ "inclusionAI/Ring-1T": {
1950
+ "description": "Ring-1T é um modelo de pensamento open-source com escala de trilhões de parâmetros, lançado pela equipe Bailing. Baseado na arquitetura Ling 2.0 e no modelo base Ling-1T, possui 1 trilhão de parâmetros totais e 50 bilhões de parâmetros ativos, com suporte para janelas de contexto de até 128K. O modelo foi otimizado por meio de aprendizado por reforço com recompensas verificáveis em larga escala."
1951
+ },
1943
1952
  "inclusionAI/Ring-flash-2.0": {
1944
1953
  "description": "Ring-flash-2.0 é um modelo de pensamento de alto desempenho profundamente otimizado a partir do Ling-flash-2.0-base. Utiliza arquitetura de especialistas mistos (MoE) com 100 bilhões de parâmetros totais, mas ativa apenas 6,1 bilhões por inferência. O modelo resolve a instabilidade do treinamento por reforço (RL) em grandes modelos MoE com o algoritmo inovador icepop, permitindo melhoria contínua do raciocínio complexo em treinamentos longos. Ring-flash-2.0 alcançou avanços significativos em competições matemáticas, geração de código e raciocínio lógico, superando modelos densos de até 40 bilhões de parâmetros e rivalizando com modelos MoE open source maiores e modelos de pensamento proprietários de alto desempenho. Embora focado em raciocínio complexo, também se destaca em tarefas criativas. Além disso, graças ao design eficiente, oferece alta velocidade de inferência e reduz significativamente o custo de implantação em cenários de alta concorrência."
1945
1954
  },
@@ -2036,9 +2045,6 @@
2036
2045
  "llama-3.3-instruct": {
2037
2046
  "description": "O modelo Llama 3.3 com ajuste fino de instruções foi otimizado para cenários de diálogo, superando muitos modelos de chat open-source existentes em benchmarks comuns do setor."
2038
2047
  },
2039
- "llama-4-maverick-17b-128e-instruct": {
2040
- "description": "Llama 4 Maverick: modelo de alto desempenho da série Llama, ideal para raciocínio avançado, resolução de problemas complexos e tarefas baseadas em instruções."
2041
- },
2042
2048
  "llama-4-scout-17b-16e-instruct": {
2043
2049
  "description": "Llama 4 Scout: modelo de alto desempenho da série Llama, adequado para cenários que exigem alta taxa de processamento e baixa latência."
2044
2050
  },
@@ -2906,6 +2912,9 @@
2906
2912
  "qwen3-8b": {
2907
2913
  "description": "Qwen3 é um novo modelo de linguagem de próxima geração com capacidades significativamente aprimoradas, alcançando níveis líderes da indústria em raciocínio, generalidade, agentes e multilíngue, e suporta a alternância de modos de pensamento."
2908
2914
  },
2915
+ "qwen3-coder-30b-a3b-instruct": {
2916
+ "description": "Versão open-source do modelo de código Tongyi Qianwen. O mais recente qwen3-coder-30b-a3b-instruct é um modelo de geração de código baseado no Qwen3, com poderosas capacidades de agente de codificação, especializado em chamadas de ferramentas e interação com ambientes, capaz de programação autônoma com excelência em código e habilidades gerais."
2917
+ },
2909
2918
  "qwen3-coder-480b-a35b-instruct": {
2910
2919
  "description": "Versão open source do modelo de código Tongyi Qianwen. O mais recente qwen3-coder-480b-a35b-instruct é um modelo de geração de código baseado no Qwen3, com forte capacidade de agente de codificação, especializado em chamadas de ferramentas e interação com ambientes, capaz de programação autônoma, combinando excelência em código com capacidades gerais."
2911
2920
  },
@@ -2927,11 +2936,29 @@
2927
2936
  "qwen3-next-80b-a3b-thinking": {
2928
2937
  "description": "Modelo open source de nova geração no modo reflexivo baseado no Qwen3, que oferece melhor conformidade com instruções e respostas mais concisas em resumos, em comparação com a versão anterior (Tongyi Qianwen 3-235B-A22B-Thinking-2507)."
2929
2938
  },
2939
+ "qwen3-omni-flash": {
2940
+ "description": "O modelo Qwen-Omni aceita entradas combinadas de texto, imagem, áudio e vídeo, e gera respostas em forma de texto ou voz. Oferece múltiplas vozes humanizadas, com suporte para saída de voz em vários idiomas e dialetos. Pode ser aplicado em criação de texto, reconhecimento visual, assistentes de voz e outros cenários."
2941
+ },
2930
2942
  "qwen3-vl-235b-a22b-instruct": {
2931
- "description": "Qwen3 VL 235B A22B Instruct é um modelo multimodal lançado pela Tongyi Qianwen, com suporte a compreensão visual e raciocínio."
2943
+ "description": "Qwen3 VL 235B A22B no modo não-racional (Instruct), ideal para cenários de instruções sem raciocínio, mantendo forte capacidade de compreensão visual."
2932
2944
  },
2933
2945
  "qwen3-vl-235b-a22b-thinking": {
2934
- "description": "Qwen3 VL 235B A22B Thinking é um modelo multimodal de raciocínio lançado pela Tongyi Qianwen, com suporte a compreensão visual e raciocínio."
2946
+ "description": "Qwen3 VL 235B A22B no modo de raciocínio (versão open-source), projetado para cenários complexos com raciocínio avançado e compreensão de vídeos longos, oferecendo capacidades de ponta em raciocínio visual + textual."
2947
+ },
2948
+ "qwen3-vl-30b-a3b-instruct": {
2949
+ "description": "Qwen3 VL 30B no modo não-racional (Instruct), voltado para cenários comuns de seguimento de instruções, mantendo alta capacidade de compreensão e geração multimodal."
2950
+ },
2951
+ "qwen3-vl-30b-a3b-thinking": {
2952
+ "description": "Qwen-VL (versão open-source) oferece capacidades de compreensão visual e geração de texto, com suporte para interação com agentes, codificação visual, percepção espacial, compreensão de vídeos longos e raciocínio profundo, além de forte reconhecimento de texto e suporte multilíngue em cenários complexos."
2953
+ },
2954
+ "qwen3-vl-8b-instruct": {
2955
+ "description": "Qwen3 VL 8B no modo não-racional (Instruct), adequado para tarefas regulares de geração e reconhecimento multimodal."
2956
+ },
2957
+ "qwen3-vl-8b-thinking": {
2958
+ "description": "Qwen3 VL 8B no modo de raciocínio, voltado para cenários leves de raciocínio e interação multimodal, mantendo a capacidade de compreensão de contexto longo."
2959
+ },
2960
+ "qwen3-vl-flash": {
2961
+ "description": "Qwen3 VL Flash: versão leve e de inferência rápida, ideal para cenários sensíveis à latência ou com grandes volumes de requisições."
2935
2962
  },
2936
2963
  "qwen3-vl-plus": {
2937
2964
  "description": "Tongyi Qianwen VL é um modelo gerador de texto com capacidade de compreensão visual (imagens), capaz não só de realizar OCR (reconhecimento de texto em imagens), mas também de resumir e inferir, como extrair atributos de fotos de produtos e resolver problemas a partir de imagens de exercícios."
@@ -461,7 +461,7 @@
461
461
  "tabs": {
462
462
  "installed": "Instalados",
463
463
  "mcp": "Plugins MCP",
464
- "old": "Plugins LobeChat"
464
+ "old": "Plugin do LobeHub"
465
465
  },
466
466
  "title": "Loja de plugins"
467
467
  },
@@ -359,7 +359,7 @@
359
359
  },
360
360
  "questions": {
361
361
  "moreBtn": "Saiba mais",
362
- "title": "Perguntas frequentes:"
362
+ "title": "Tente perguntar:"
363
363
  },
364
364
  "welcome": {
365
365
  "afternoon": "Boa tarde",
@@ -396,4 +396,4 @@
396
396
  },
397
397
  "you": "ты",
398
398
  "zenMode": "Режим концентрации"
399
- }
399
+ }
@@ -31,7 +31,7 @@
31
31
  "batchDelete": "Пакетное удаление",
32
32
  "blog": "Блог о продуктах",
33
33
  "branching": "Создать подтему",
34
- "branchingDisable": "Функция «Подтема» доступна только в серверной версии. Если вам нужна эта функция, переключитесь на серверный режим развертывания или используйте LobeChat Cloud.",
34
+ "branchingDisable": "Функция «подтемы» недоступна в текущем режиме. Чтобы использовать эту функцию, переключитесь в режим базы данных Postgres/Pglite или воспользуйтесь LobeHub Cloud.",
35
35
  "branchingRequiresSavedTopic": "Текущая тема не сохранена, сохраните её, чтобы использовать функцию подтем.",
36
36
  "cancel": "Отмена",
37
37
  "changelog": "История изменений",
@@ -767,6 +767,9 @@
767
767
  "claude-3-sonnet-20240229": {
768
768
  "description": "Claude 3 Sonnet обеспечивает идеальный баланс между интеллектом и скоростью для корпоративных рабочих нагрузок. Он предлагает максимальную полезность по более низкой цене, надежен и подходит для масштабного развертывания."
769
769
  },
770
+ "claude-haiku-4-5-20251001": {
771
+ "description": "Claude Haiku 4.5 — самая быстрая и интеллектуальная модель Haiku от Anthropic, обладающая молниеносной скоростью и расширенными возможностями рассуждения."
772
+ },
770
773
  "claude-opus-4-1-20250805": {
771
774
  "description": "Claude Opus 4.1 — новейшая и самая мощная модель Anthropic для решения высоко сложных задач. Она превосходна по производительности, интеллекту, плавности и пониманию."
772
775
  },
@@ -1148,6 +1151,9 @@
1148
1151
  "doubao-seed-1.6-flash": {
1149
1152
  "description": "Doubao-Seed-1.6-flash — мультимодальная модель глубокого мышления с экстремально высокой скоростью вывода, TPOT занимает всего 10 мс; поддерживает понимание текста и визуальных данных, текстовое понимание превосходит предыдущую lite-версию, визуальное понимание сопоставимо с pro-серией конкурентов. Поддерживает контекстное окно 256k и максимальную длину вывода до 16k токенов."
1150
1153
  },
1154
+ "doubao-seed-1.6-lite": {
1155
+ "description": "Doubao-Seed-1.6-lite — новая мультимодальная модель глубокого мышления с регулируемым уровнем рассуждения (reasoning effort): Minimal, Low, Medium, High. Обеспечивает отличное соотношение цена-качество и является оптимальным выбором для типовых задач. Поддерживает контекстное окно до 256k."
1156
+ },
1151
1157
  "doubao-seed-1.6-thinking": {
1152
1158
  "description": "Модель Doubao-Seed-1.6-thinking значительно улучшена в плане мышления, по сравнению с Doubao-1.5-thinking-pro дополнительно повышены базовые способности в программировании, математике и логическом рассуждении, поддерживается визуальное понимание. Поддерживает контекстное окно 256k и максимальную длину вывода до 16k токенов."
1153
1159
  },
@@ -1541,9 +1547,6 @@
1541
1547
  "glm-zero-preview": {
1542
1548
  "description": "GLM-Zero-Preview обладает мощными способностями к сложному выводу, демонстрируя отличные результаты в области логического вывода, математики и программирования."
1543
1549
  },
1544
- "glm4.6:355b": {
1545
- "description": "Флагманская модель Zhizhi GLM-4.6 (355B) значительно превосходит предыдущие версии в области продвинутого программирования, обработки длинных текстов, логического вывода и интеллектуальных агентов. Особенно в программировании она сопоставима с Claude Sonnet 4, становясь ведущей моделью кодирования в Китае."
1546
- },
1547
1550
  "google/gemini-2.0-flash": {
1548
1551
  "description": "Gemini 2.0 Flash предлагает функции следующего поколения и улучшенные возможности, включая выдающуюся скорость, встроенное использование инструментов, мультимодальную генерацию и контекстное окно на 1 миллион токенов."
1549
1552
  },
@@ -1934,12 +1937,18 @@
1934
1937
  "inception/mercury-coder-small": {
1935
1938
  "description": "Mercury Coder Small — идеальный выбор для задач генерации, отладки и рефакторинга кода с минимальной задержкой."
1936
1939
  },
1940
+ "inclusionAI/Ling-1T": {
1941
+ "description": "Ling-1T — флагманская модель без рассуждения (non-thinking) из серии «Ling 2.0», обладающая общим числом параметров в 1 триллион и около 50 миллиардов активных параметров на каждый токен. Построена на архитектуре Ling 2.0, Ling-1T стремится преодолеть границы эффективного вывода и масштабируемого когнитивного понимания. Модель Ling-1T-base обучена на более чем 20 триллионах высококачественных токенов с интенсивным рассуждением."
1942
+ },
1937
1943
  "inclusionAI/Ling-flash-2.0": {
1938
1944
  "description": "Ling-flash-2.0 — третья модель серии Ling 2.0, выпущенная командой Ant Group Bailing. Это модель смешанных экспертов (MoE) с общим числом параметров 100 миллиардов, при этом для каждого токена активируется всего 6.1 миллиарда параметров (без учета эмбеддингов — 4.8 миллиарда). Как легковесная конфигурация, Ling-flash-2.0 демонстрирует в нескольких авторитетных тестах производительность, сопоставимую или превосходящую модели плотного типа (Dense) с 40 миллиардами параметров и более крупные MoE-модели. Модель направлена на исследование эффективных путей при концепции «большая модель равна большому числу параметров» через продуманный дизайн архитектуры и стратегии обучения."
1939
1945
  },
1940
1946
  "inclusionAI/Ling-mini-2.0": {
1941
1947
  "description": "Ling-mini-2.0 — компактная высокопроизводительная большая языковая модель на базе архитектуры MoE. Она содержит 16 миллиардов параметров, при этом для каждого токена активируется всего 1.4 миллиарда параметров (без эмбеддингов — 789 миллионов), что обеспечивает очень высокую скорость генерации. Благодаря эффективному дизайну MoE и масштабным качественным тренировочным данным, несмотря на низкое число активируемых параметров, Ling-mini-2.0 демонстрирует в downstream-задачах производительность, сопоставимую с плотными LLM менее 10 миллиардов параметров и более крупными MoE-моделями."
1942
1948
  },
1949
+ "inclusionAI/Ring-1T": {
1950
+ "description": "Ring-1T — открытая модель мышления триллионного масштаба, выпущенная командой Bailing. Построена на архитектуре Ling 2.0 и базовой модели Ling-1T-base, содержит 1 триллион общих параметров и 50 миллиардов активных параметров, поддерживает контекстное окно до 128K. Оптимизирована с использованием масштабного обучения с подкреплением и проверяемыми наградами."
1951
+ },
1943
1952
  "inclusionAI/Ring-flash-2.0": {
1944
1953
  "description": "Ring-flash-2.0 — высокопроизводительная модель для рассуждений, глубоко оптимизированная на базе Ling-flash-2.0-base. Она использует архитектуру смешанных экспертов (MoE) с общим числом параметров 100 миллиардов, при этом при каждом выводе активируется только 6.1 миллиарда параметров. Модель решает проблему нестабильности MoE-моделей при обучении с подкреплением (RL) с помощью уникального алгоритма icepop, что позволяет постоянно улучшать сложные способности рассуждения в долгосрочном обучении. Ring-flash-2.0 достигла значительных прорывов в сложных бенчмарках, таких как математические соревнования, генерация кода и логическое рассуждение. Ее производительность превосходит лучшие плотные модели с числом параметров менее 40 миллиардов и сопоставима с более крупными открытыми MoE-моделями и закрытыми высокопроизводительными моделями для рассуждений. Несмотря на фокус на сложных рассуждениях, модель также отлично справляется с творческим письмом. Благодаря эффективному дизайну архитектуры Ring-flash-2.0 обеспечивает высокую скорость вывода и значительно снижает затраты на развертывание моделей рассуждений в условиях высокой нагрузки."
1945
1954
  },
@@ -2036,9 +2045,6 @@
2036
2045
  "llama-3.3-instruct": {
2037
2046
  "description": "Модель Llama 3.3 с тонкой настройкой инструкций оптимизирована для диалоговых сценариев и превосходит многие существующие модели с открытым исходным кодом в стандартных отраслевых тестах."
2038
2047
  },
2039
- "llama-4-maverick-17b-128e-instruct": {
2040
- "description": "Llama 4 Maverick: высокопроизводительная модель серии Llama, подходящая для продвинутого логического вывода, решения сложных задач и выполнения инструкций."
2041
- },
2042
2048
  "llama-4-scout-17b-16e-instruct": {
2043
2049
  "description": "Llama 4 Scout: высокопроизводительная модель серии Llama, оптимизированная для сценариев с высокой пропускной способностью и низкой задержкой."
2044
2050
  },
@@ -2906,6 +2912,9 @@
2906
2912
  "qwen3-8b": {
2907
2913
  "description": "Qwen3 — это новое поколение модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли в области вывода, универсальности, агентов и многоязычности, а также поддерживающей переключение режимов размышления."
2908
2914
  },
2915
+ "qwen3-coder-30b-a3b-instruct": {
2916
+ "description": "Открытая версия модели программирования Tongyi Qianwen. Новейшая qwen3-coder-30b-a3b-instruct — это модель генерации кода на базе Qwen3, обладающая мощными возможностями Coding Agent, хорошо справляется с вызовом инструментов и взаимодействием с окружением, способна к автономному программированию и демонстрирует выдающиеся способности в кодировании при сохранении универсальности."
2917
+ },
2909
2918
  "qwen3-coder-480b-a35b-instruct": {
2910
2919
  "description": "Открытая версия модели кода Tongyi Qianwen. Последняя модель qwen3-coder-480b-a35b-instruct основана на Qwen3 и обладает мощными возможностями Coding Agent, хорошо справляется с вызовом инструментов и взаимодействием с окружением, обеспечивая автономное программирование с выдающимися кодовыми и универсальными способностями."
2911
2920
  },
@@ -2927,11 +2936,29 @@
2927
2936
  "qwen3-next-80b-a3b-thinking": {
2928
2937
  "description": "Новая генерация открытой модели с режимом мышления на базе Qwen3, которая по сравнению с предыдущей версией (通义千问3-235B-A22B-Thinking-2507) демонстрирует улучшенное следование инструкциям и более лаконичные ответы модели."
2929
2938
  },
2939
+ "qwen3-omni-flash": {
2940
+ "description": "Модель Qwen-Omni принимает комбинированный ввод в виде текста, изображений, аудио и видео, и генерирует ответы в текстовой или голосовой форме. Поддерживает различные реалистичные голосовые тембры, многоязычный и диалектный вывод, подходит для задач текстового творчества, визуального распознавания, голосовых помощников и других сценариев."
2941
+ },
2930
2942
  "qwen3-vl-235b-a22b-instruct": {
2931
- "description": "Qwen3 VL 235B A22B Instruct это мультимодальная модель от Tongyi Qianwen, поддерживающая визуальное восприятие и логический вывод."
2943
+ "description": "Qwen3 VL 235B A22B в режиме без рассуждения (Instruct), предназначен для сценариев с простыми инструкциями, сохраняя при этом мощные способности визуального понимания."
2932
2944
  },
2933
2945
  "qwen3-vl-235b-a22b-thinking": {
2934
- "description": "Qwen3 VL 235B A22B Thinking это мультимодальная модель рассуждений от Tongyi Qianwen, поддерживающая визуальное восприятие и логический вывод."
2946
+ "description": "Qwen3 VL 235B A22B в режиме рассуждения (открытая версия), предназначен для сложных задач с интенсивным выводом и пониманием длинных видео, обеспечивая передовые возможности визуального и текстового рассуждения."
2947
+ },
2948
+ "qwen3-vl-30b-a3b-instruct": {
2949
+ "description": "Qwen3 VL 30B в режиме без рассуждения (Instruct), ориентирован на стандартные сценарии следования инструкциям, обеспечивая высокие мультимодальные способности понимания и генерации."
2950
+ },
2951
+ "qwen3-vl-30b-a3b-thinking": {
2952
+ "description": "Открытая версия Qwen-VL предоставляет возможности визуального понимания и генерации текста, поддерживает взаимодействие с агентами, визуальное кодирование, пространственное восприятие, понимание длинных видео и глубокое мышление, а также обладает улучшенными возможностями распознавания текста и многоязычной поддержки в сложных сценариях."
2953
+ },
2954
+ "qwen3-vl-8b-instruct": {
2955
+ "description": "Qwen3 VL 8B в режиме без рассуждения (Instruct), подходит для стандартных задач мультимодальной генерации и распознавания."
2956
+ },
2957
+ "qwen3-vl-8b-thinking": {
2958
+ "description": "Qwen3 VL 8B в режиме рассуждения, предназначен для легковесных мультимодальных задач вывода и взаимодействия, сохраняя способность к пониманию длинного контекста."
2959
+ },
2960
+ "qwen3-vl-flash": {
2961
+ "description": "Qwen3 VL Flash — легковесная версия с высокой скоростью вывода, подходит для сценариев с чувствительностью к задержке или массовыми запросами."
2935
2962
  },
2936
2963
  "qwen3-vl-plus": {
2937
2964
  "description": "Tongyi Qianwen VL — текстовая генеративная модель с возможностями визуального (изображенческого) понимания. Она не только способна выполнять OCR (распознавание текста на изображениях), но и проводить дальнейшее суммирование и рассуждение, например, извлекать атрибуты из фотографий товаров или решать задачи по изображениям учебных заданий."
@@ -461,7 +461,7 @@
461
461
  "tabs": {
462
462
  "installed": "Установленные",
463
463
  "mcp": "MCP плагины",
464
- "old": "LobeChat плагины"
464
+ "old": "Плагины LobeHub"
465
465
  },
466
466
  "title": "Магазин плагинов"
467
467
  },
@@ -359,7 +359,7 @@
359
359
  },
360
360
  "questions": {
361
361
  "moreBtn": "Узнать больше",
362
- "title": "Часто задаваемые вопросы:"
362
+ "title": "Попробуйте спросить:"
363
363
  },
364
364
  "welcome": {
365
365
  "afternoon": "Добрый день",
@@ -396,4 +396,4 @@
396
396
  },
397
397
  "you": "sen",
398
398
  "zenMode": "Odak Modu"
399
- }
399
+ }
@@ -31,7 +31,7 @@
31
31
  "batchDelete": "Toplu Sil",
32
32
  "blog": "Ürün Blogu",
33
33
  "branching": "Alt konu oluştur",
34
- "branchingDisable": "«Alt konu» özelliği yalnızca sunucu sürümünde mevcuttur. Bu özelliği kullanmak için lütfen sunucu dağıtım moduna geçin veya LobeChat Cloud'u kullanın.",
34
+ "branchingDisable": "Alt Konu” özelliği mevcut modda kullanılamaz. Bu özelliği kullanmak için lütfen Postgres/Pglite DB moduna geçin veya LobeHub Cloud'u kullanın.",
35
35
  "branchingRequiresSavedTopic": "Geçerli konu kaydedilmedi, alt konu özelliğini kullanmak için önce kaydedilmelidir",
36
36
  "cancel": "İptal",
37
37
  "changelog": "Changelog",
@@ -767,6 +767,9 @@
767
767
  "claude-3-sonnet-20240229": {
768
768
  "description": "Claude 3 Sonnet, akıllı ve hızlı bir denge sunarak kurumsal iş yükleri için idealdir. Daha düşük bir fiyatla maksimum fayda sağlar, güvenilir ve büyük ölçekli dağıtım için uygundur."
769
769
  },
770
+ "claude-haiku-4-5-20251001": {
771
+ "description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en akıllı Haiku modeli olup, yıldırım hızında çalışır ve gelişmiş düşünme yeteneklerine sahiptir."
772
+ },
770
773
  "claude-opus-4-1-20250805": {
771
774
  "description": "Claude Opus 4.1, Anthropic'in en karmaşık görevleri işlemek için geliştirdiği en güçlü modelidir. Performans, zeka, akıcılık ve anlama yeteneği açısından olağanüstü bir performans sergiler."
772
775
  },
@@ -1148,6 +1151,9 @@
1148
1151
  "doubao-seed-1.6-flash": {
1149
1152
  "description": "Doubao-Seed-1.6-flash, TPOT sadece 10ms olan son derece hızlı çok modlu derin düşünme modelidir; hem metin hem de görsel anlayışı destekler, metin anlama yeteneği önceki lite neslini aşar, görsel anlama ise rakiplerin pro serisi modelleriyle eşdeğerdir. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
1150
1153
  },
1154
+ "doubao-seed-1.6-lite": {
1155
+ "description": "Doubao-Seed-1.6-lite, yeni nesil çok modlu derin düşünme modelidir. Ayarlanabilir düşünme düzeylerini (reasoning effort) destekler: Minimal, Düşük, Orta ve Yüksek. Yüksek fiyat-performans oranı sunar ve yaygın görevler için en iyi tercihtir. 256k'ya kadar bağlam penceresini destekler."
1156
+ },
1151
1157
  "doubao-seed-1.6-thinking": {
1152
1158
  "description": "Doubao-Seed-1.6-thinking modeli düşünme yeteneğinde büyük gelişme göstermiştir, Doubao-1.5-thinking-pro ile karşılaştırıldığında Kodlama, Matematik ve mantıksal akıl yürütme gibi temel yeteneklerde daha da iyileşmiştir, görsel anlayışı destekler. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
1153
1159
  },
@@ -1541,9 +1547,6 @@
1541
1547
  "glm-zero-preview": {
1542
1548
  "description": "GLM-Zero-Preview, karmaşık akıl yürütme yeteneklerine sahip olup, mantıksal akıl yürütme, matematik, programlama gibi alanlarda mükemmel performans sergilemektedir."
1543
1549
  },
1544
- "glm4.6:355b": {
1545
- "description": "Zhipu'nun en yeni amiral gemisi modeli GLM-4.6 (355B), gelişmiş kodlama, uzun metin işleme, akıl yürütme ve yapay zeka ajanı yeteneklerinde seleflerini tamamen geride bırakıyor. Özellikle programlama yetenekleri açısından Claude Sonnet 4 ile aynı seviyeye ulaşarak, Çin'deki en iyi Kodlama modellerinden biri haline gelmiştir."
1546
- },
1547
1550
  "google/gemini-2.0-flash": {
1548
1551
  "description": "Gemini 2.0 Flash, üstün hız, yerleşik araç kullanımı, çok modlu üretim ve 1 milyon token bağlam penceresi dahil olmak üzere yeni nesil özellikler ve geliştirmeler sunar."
1549
1552
  },
@@ -1934,12 +1937,18 @@
1934
1937
  "inception/mercury-coder-small": {
1935
1938
  "description": "Mercury Coder Small, kod üretimi, hata ayıklama ve yeniden yapılandırma görevleri için ideal olup, minimum gecikme sunar."
1936
1939
  },
1940
+ "inclusionAI/Ling-1T": {
1941
+ "description": "Ling-1T, \"Ling 2.0\" serisinin ilk amiral gemisi non-thinking modelidir. Toplamda 1 trilyon parametreye ve her token için yaklaşık 50 milyar aktif parametreye sahiptir. Ling 2.0 mimarisi üzerine inşa edilen Ling-1T, verimli akıl yürütme ve ölçeklenebilir bilişsel yeteneklerin sınırlarını zorlamak için tasarlanmıştır. Ling-1T-base, 200 trilyondan fazla yüksek kaliteli ve akıl yürütme yoğun token üzerinde eğitilmiştir."
1942
+ },
1937
1943
  "inclusionAI/Ling-flash-2.0": {
1938
1944
  "description": "Ling-flash-2.0, Ant Group Bailing ekibi tarafından yayınlanan Ling 2.0 mimari serisinin üçüncü modelidir. Bu, hibrit uzman (MoE) modeli olup toplam parametre sayısı 100 milyara ulaşırken, her token için yalnızca 6.1 milyar parametre aktive eder (embedding dışı 4.8 milyar). Hafif yapılandırmaya sahip bu model, birçok otoriter değerlendirmede 40 milyar seviyesindeki yoğun (Dense) modeller ve daha büyük ölçekli MoE modelleriyle rekabet eden hatta onları aşan performans sergiler. Model, \"büyük model büyük parametre demektir\" anlayışı altında yüksek verimlilik yollarını keşfetmek için üstün mimari tasarım ve eğitim stratejileriyle geliştirilmiştir."
1939
1945
  },
1940
1946
  "inclusionAI/Ling-mini-2.0": {
1941
1947
  "description": "Ling-mini-2.0, MoE mimarisi temelinde küçük boyutlu yüksek performanslı büyük dil modelidir. Toplam 16 milyar parametreye sahip olup, her token için yalnızca 1.4 milyar parametre aktive eder (embedding dışı 789 milyon), böylece çok yüksek üretim hızı sağlar. Verimli MoE tasarımı ve büyük ölçekli yüksek kaliteli eğitim verileri sayesinde, aktive edilen parametre sayısı sadece 1.4 milyar olmasına rağmen, Ling-mini-2.0 altındaki 10 milyar yoğun LLM ve daha büyük ölçekli MoE modelleriyle kıyaslanabilir üst düzey performans gösterir."
1942
1948
  },
1949
+ "inclusionAI/Ring-1T": {
1950
+ "description": "Ring-1T, Bailing ekibi tarafından geliştirilen trilyon parametre ölçeğinde açık kaynaklı bir düşünce modelidir. Ling 2.0 mimarisi ve Ling-1T-base temel modeli üzerine inşa edilmiştir. Toplamda 1 trilyon parametreye ve 50 milyar aktif parametreye sahiptir. 128K'ya kadar bağlam penceresini destekler. Model, büyük ölçekli doğrulanabilir ödül takviyeli öğrenme ile optimize edilmiştir."
1951
+ },
1943
1952
  "inclusionAI/Ring-flash-2.0": {
1944
1953
  "description": "Ring-flash-2.0, Ling-flash-2.0-base üzerine derinlemesine optimize edilmiş yüksek performanslı düşünme modelidir. Hibrit uzman (MoE) mimarisi kullanır, toplam parametre sayısı 100 milyardır ancak her çıkarımda yalnızca 6.1 milyar parametre aktive edilir. Model, özgün icepop algoritması ile MoE büyük modellerin pekiştirmeli öğrenme (RL) eğitimindeki kararsızlık sorununu çözerek karmaşık çıkarım yeteneğini uzun dönemli eğitimlerde sürekli artırır. Ring-flash-2.0, matematik yarışmaları, kod üretimi ve mantıksal çıkarım gibi zorlu kıyaslama testlerinde önemli atılımlar yapmış, performansı 40 milyar parametre altındaki en iyi yoğun modelleri aşmakla kalmayıp, daha büyük ölçekli açık kaynak MoE modelleri ve kapalı kaynak yüksek performanslı düşünme modelleriyle rekabet edebilir. Model karmaşık çıkarıma odaklanmasına rağmen yaratıcı yazma gibi görevlerde de başarılıdır. Ayrıca, yüksek verimli mimari tasarımı sayesinde güçlü performans sunarken yüksek hızda çıkarım yapar ve yüksek eşzamanlılık senaryolarında düşünme modeli dağıtım maliyetlerini önemli ölçüde azaltır."
1945
1954
  },
@@ -2036,9 +2045,6 @@
2036
2045
  "llama-3.3-instruct": {
2037
2046
  "description": "Llama 3.3 komut ince ayarlı modeli, diyalog senaryoları için optimize edilmiştir ve yaygın endüstri kıyaslamalarında birçok mevcut açık kaynaklı sohbet modelini geride bırakmaktadır."
2038
2047
  },
2039
- "llama-4-maverick-17b-128e-instruct": {
2040
- "description": "Llama 4 Maverick: Yüksek performanslı Llama serisi modeli; gelişmiş akıl yürütme, karmaşık problem çözme ve komut takibi görevleri için uygundur."
2041
- },
2042
2048
  "llama-4-scout-17b-16e-instruct": {
2043
2049
  "description": "Llama 4 Scout: Yüksek performanslı Llama serisi modeli; yüksek işlem hacmi ve düşük gecikme gerektiren senaryolar için idealdir."
2044
2050
  },
@@ -2906,6 +2912,9 @@
2906
2912
  "qwen3-8b": {
2907
2913
  "description": "Qwen3, akıl yürütme, genel, Ajan ve çok dilli gibi birçok temel yetenekte endüstri lideri seviyesine ulaşan yeni nesil bir modeldir ve düşünme modu geçişini destekler."
2908
2914
  },
2915
+ "qwen3-coder-30b-a3b-instruct": {
2916
+ "description": "Qwen3 tabanlı kod üretim modeli olan en yeni açık kaynaklı Tongyi Qianwen kod modeli. Güçlü Kodlama Ajanı yeteneklerine sahiptir, araç kullanımı ve çevre ile etkileşimde uzmandır. Kendi kendine programlama yapabilir, üstün kodlama yeteneklerinin yanı sıra genel amaçlı beceriler de sunar."
2917
+ },
2909
2918
  "qwen3-coder-480b-a35b-instruct": {
2910
2919
  "description": "Tongyi Qianwen kod modeli açık kaynak versiyonudur. En yeni qwen3-coder-480b-a35b-instruct, Qwen3 tabanlı kod oluşturma modelidir; güçlü Kodlama Ajanı yeteneklerine sahiptir, araç çağrısı ve ortam etkileşiminde uzmandır, otonom programlama yapabilir ve üstün kodlama yetenekleri ile genel yetenekleri bir arada sunar."
2911
2920
  },
@@ -2927,11 +2936,29 @@
2927
2936
  "qwen3-next-80b-a3b-thinking": {
2928
2937
  "description": "Qwen3 tabanlı yeni nesil düşünme modlu açık kaynak modeli, önceki sürüme (Tongyi Qianwen 3-235B-A22B-Thinking-2507) kıyasla komutlara uyum yeteneği artırılmış ve modelin özetleyici yanıtları daha özlü hale getirilmiştir."
2929
2938
  },
2939
+ "qwen3-omni-flash": {
2940
+ "description": "Qwen-Omni modeli, metin, görsel, ses ve video gibi çoklu modların birleşik girişlerini kabul edebilir ve metin ya da ses biçiminde yanıtlar üretebilir. Çeşitli insansı ses tonları sunar, çok dilli ve lehçeli ses çıktısını destekler. Metin üretimi, görsel tanıma ve sesli asistan gibi senaryolarda kullanılabilir."
2941
+ },
2930
2942
  "qwen3-vl-235b-a22b-instruct": {
2931
- "description": "Qwen3 VL 235B A22B Instruct, Tongyi Qianwen tarafından geliştirilen çok modlu bir modeldir ve görsel anlama ile akıl yürütmeyi destekler."
2943
+ "description": "Qwen3 VL 235B A22B Non-thinking modu (Instruct), düşünme gerektirmeyen komut senaryoları için uygundur ve güçlü görsel anlama yeteneğini korur."
2932
2944
  },
2933
2945
  "qwen3-vl-235b-a22b-thinking": {
2934
- "description": "Qwen3 VL 235B A22B Thinking, Tongyi Qianwen tarafından geliştirilen çok modlu bir akıl yürütme modelidir ve görsel anlama ile akıl yürütmeyi destekler."
2946
+ "description": "Qwen3 VL 235B A22B Düşünme modu (açık kaynaklı sürüm), zorlu akıl yürütme ve uzun video anlama senaryoları için geliştirilmiş, üst düzey görsel + metin akıl yürütme yetenekleri sunar."
2947
+ },
2948
+ "qwen3-vl-30b-a3b-instruct": {
2949
+ "description": "Qwen3 VL 30B Non-thinking modu (Instruct), genel komut takip senaryolarına yöneliktir ve yüksek düzeyde çok modlu anlama ve üretim yeteneğini korur."
2950
+ },
2951
+ "qwen3-vl-30b-a3b-thinking": {
2952
+ "description": "Qwen-VL (açık kaynaklı sürüm), görsel anlama ve metin üretme yetenekleri sunar. Akıllı ajan etkileşimi, görsel kodlama, mekânsal algı, uzun video anlama ve derin düşünme gibi alanları destekler. Karmaşık senaryolarda daha güçlü metin tanıma ve çok dilli destek sağlar."
2953
+ },
2954
+ "qwen3-vl-8b-instruct": {
2955
+ "description": "Qwen3 VL 8B Non-thinking modu (Instruct), standart çok modlu üretim ve tanıma görevleri için uygundur."
2956
+ },
2957
+ "qwen3-vl-8b-thinking": {
2958
+ "description": "Qwen3 VL 8B Düşünme modu, hafif çok modlu akıl yürütme ve etkileşim senaryolarına yöneliktir. Uzun bağlam anlama yeteneğini korur."
2959
+ },
2960
+ "qwen3-vl-flash": {
2961
+ "description": "Qwen3 VL Flash: Gecikmeye duyarlı veya yüksek hacimli istek senaryoları için uygun, hafif ve yüksek hızlı akıl yürütme sürümüdür."
2935
2962
  },
2936
2963
  "qwen3-vl-plus": {
2937
2964
  "description": "Tongyi Qianwen VL, görsel (resim) anlama yeteneğine sahip metin üretim modelidir. Sadece OCR (resim metni tanıma) yapmakla kalmaz, aynı zamanda ürün fotoğraflarından özellik çıkarma, alıştırma resimlerinden problem çözme gibi özetleme ve çıkarım yapabilir."
@@ -461,7 +461,7 @@
461
461
  "tabs": {
462
462
  "installed": "Yüklü",
463
463
  "mcp": "MCP Eklentileri",
464
- "old": "LobeChat Eklentileri"
464
+ "old": "LobeHub Eklentileri"
465
465
  },
466
466
  "title": "Eklenti Mağazası"
467
467
  },
@@ -359,7 +359,7 @@
359
359
  },
360
360
  "questions": {
361
361
  "moreBtn": "Daha Fazla Bilgi",
362
- "title": "Herkesin Sorduğu Sorular:"
362
+ "title": "Şunu sormayı deneyin:"
363
363
  },
364
364
  "welcome": {
365
365
  "afternoon": "İyi akşamlar",
@@ -396,4 +396,4 @@
396
396
  },
397
397
  "you": "bạn",
398
398
  "zenMode": "Chế độ tập trung"
399
- }
399
+ }
@@ -31,7 +31,7 @@
31
31
  "batchDelete": "Xóa hàng loạt",
32
32
  "blog": "Blog sản phẩm",
33
33
  "branching": "Tạo chủ đề con",
34
- "branchingDisable": "Chức năng «Chủ đề con» chỉ sẵn trong phiên bản máy chủ. Nếu bạn cần chức năng này, hãy chuyển sang chế độ triển khai máy chủ hoặc sử dụng LobeChat Cloud.",
34
+ "branchingDisable": "Chức năng \"chủ đề con\" không khả dụng trong chế độ hiện tại. Vui lòng chuyển sang chế độ sở dữ liệu Postgres/Pglite hoặc sử dụng LobeHub Cloud để sử dụng tính năng này.",
35
35
  "branchingRequiresSavedTopic": "Chủ đề hiện tại chưa được lưu, vui lòng lưu trước khi sử dụng chức năng chủ đề con",
36
36
  "cancel": "Hủy",
37
37
  "changelog": "Nhật ký cập nhật",