@lobehub/lobehub 2.0.0-next.183 → 2.0.0-next.185
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/auth.json +1 -0
- package/locales/ar/models.json +40 -0
- package/locales/ar/setting.json +1 -0
- package/locales/ar/subscription.json +13 -0
- package/locales/bg-BG/auth.json +1 -0
- package/locales/bg-BG/models.json +22 -0
- package/locales/bg-BG/setting.json +1 -0
- package/locales/bg-BG/subscription.json +13 -0
- package/locales/de-DE/auth.json +1 -0
- package/locales/de-DE/models.json +37 -0
- package/locales/de-DE/setting.json +1 -0
- package/locales/de-DE/subscription.json +13 -0
- package/locales/en-US/auth.json +1 -0
- package/locales/en-US/setting.json +1 -1
- package/locales/es-ES/auth.json +1 -0
- package/locales/es-ES/models.json +30 -0
- package/locales/es-ES/setting.json +1 -0
- package/locales/es-ES/subscription.json +13 -0
- package/locales/fa-IR/auth.json +1 -0
- package/locales/fa-IR/models.json +31 -0
- package/locales/fa-IR/setting.json +1 -0
- package/locales/fa-IR/subscription.json +13 -0
- package/locales/fr-FR/auth.json +1 -0
- package/locales/fr-FR/models.json +17 -0
- package/locales/fr-FR/setting.json +1 -0
- package/locales/fr-FR/subscription.json +13 -0
- package/locales/it-IT/auth.json +1 -0
- package/locales/it-IT/models.json +31 -0
- package/locales/it-IT/setting.json +1 -0
- package/locales/it-IT/subscription.json +13 -0
- package/locales/ja-JP/auth.json +1 -0
- package/locales/ja-JP/models.json +1 -0
- package/locales/ja-JP/setting.json +1 -0
- package/locales/ja-JP/subscription.json +13 -0
- package/locales/ko-KR/auth.json +1 -0
- package/locales/ko-KR/models.json +39 -0
- package/locales/ko-KR/setting.json +1 -0
- package/locales/ko-KR/subscription.json +13 -0
- package/locales/nl-NL/auth.json +1 -0
- package/locales/nl-NL/models.json +35 -0
- package/locales/nl-NL/setting.json +1 -0
- package/locales/nl-NL/subscription.json +13 -0
- package/locales/pl-PL/auth.json +1 -0
- package/locales/pl-PL/models.json +12 -0
- package/locales/pl-PL/setting.json +1 -0
- package/locales/pl-PL/subscription.json +13 -0
- package/locales/pt-BR/auth.json +1 -0
- package/locales/pt-BR/models.json +1 -0
- package/locales/pt-BR/setting.json +1 -0
- package/locales/pt-BR/subscription.json +13 -0
- package/locales/ru-RU/auth.json +1 -0
- package/locales/ru-RU/models.json +32 -0
- package/locales/ru-RU/setting.json +1 -0
- package/locales/ru-RU/subscription.json +13 -0
- package/locales/tr-TR/auth.json +1 -0
- package/locales/tr-TR/models.json +20 -0
- package/locales/tr-TR/setting.json +1 -0
- package/locales/tr-TR/subscription.json +13 -0
- package/locales/vi-VN/auth.json +1 -0
- package/locales/vi-VN/models.json +39 -0
- package/locales/vi-VN/setting.json +1 -0
- package/locales/vi-VN/subscription.json +13 -0
- package/locales/zh-CN/auth.json +1 -0
- package/locales/zh-CN/models.json +49 -0
- package/locales/zh-CN/setting.json +1 -1
- package/locales/zh-TW/auth.json +1 -0
- package/locales/zh-TW/models.json +23 -0
- package/locales/zh-TW/setting.json +1 -0
- package/locales/zh-TW/subscription.json +13 -0
- package/package.json +1 -1
- package/packages/builtin-tool-local-system/package.json +10 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/EditLocalFile/index.tsx +81 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/GlobLocalFiles/index.tsx +73 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/GrepContent/index.tsx +73 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/ReadLocalFile/index.tsx +81 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/RunCommand/index.tsx +80 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/SearchLocalFiles/index.tsx +71 -0
- package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Inspector/index.ts +1 -2
- package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Intervention/index.ts +1 -2
- package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/ListFiles/Result.tsx +2 -1
- package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/index.ts +1 -2
- package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Streaming/index.ts +1 -2
- package/packages/builtin-tool-local-system/src/client/index.ts +20 -0
- package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/index.tsx +3 -3
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/index.tsx +3 -3
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/index.tsx +3 -3
- package/src/app/[variants]/(main)/home/features/RecentPage/index.tsx +3 -2
- package/src/app/[variants]/(main)/home/features/RecentResource/index.tsx +3 -2
- package/src/app/[variants]/(main)/home/features/RecentTopic/index.tsx +3 -3
- package/src/components/NeuralNetworkLoading/index.tsx +181 -0
- package/src/libs/swr/index.ts +1 -8
- package/src/store/image/utils/size.test.ts +245 -0
- package/src/tools/inspectors.ts +6 -5
- package/src/tools/interventions.ts +5 -4
- package/src/tools/placeholders.ts +9 -7
- package/src/tools/renders.ts +5 -3
- package/src/tools/streamings.ts +6 -5
- package/src/tools/local-system/Inspector/EditLocalFile/index.tsx +0 -55
- package/src/tools/local-system/Inspector/GlobLocalFiles/index.tsx +0 -59
- package/src/tools/local-system/Inspector/GrepContent/index.tsx +0 -59
- package/src/tools/local-system/Inspector/ReadLocalFile/index.tsx +0 -55
- package/src/tools/local-system/Inspector/RunCommand/index.tsx +0 -66
- package/src/tools/local-system/Inspector/SearchLocalFiles/index.tsx +0 -59
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Intervention/EditLocalFile/index.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Intervention/MoveLocalFiles/MoveFileItem.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Intervention/MoveLocalFiles/index.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Intervention/RunCommand/index.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Intervention/WriteFile/index.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Placeholder/ListFiles.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Placeholder/SearchFiles.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/EditLocalFile/index.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/ListFiles/index.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/MoveLocalFiles/MoveFileItem.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/MoveLocalFiles/index.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/ReadLocalFile/ReadFileSkeleton.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/ReadLocalFile/ReadFileView.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/ReadLocalFile/index.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/RenameLocalFile/index.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/RunCommand/index.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/SearchFiles/Result.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/SearchFiles/SearchQuery/SearchView.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/SearchFiles/SearchQuery/index.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/SearchFiles/index.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Render/WriteFile/index.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/Streaming/RunCommand/index.tsx +0 -0
- /package/{src/tools/local-system → packages/builtin-tool-local-system/src/client}/components/FileItem.tsx +0 -0
|
@@ -271,15 +271,28 @@
|
|
|
271
271
|
"referral.edit.hint": "Ondersteunt 2-8 letters, cijfers of underscores",
|
|
272
272
|
"referral.edit.placeholder": "Voer verwijzingscode in",
|
|
273
273
|
"referral.edit.save": "Opslaan",
|
|
274
|
+
"referral.errors.alreadyBound": "Je hebt al een uitnodigingscode gekoppeld",
|
|
275
|
+
"referral.errors.backfillExpired": "De backfill-periode is verlopen. Je kunt niet meer backfillen na 3 dagen na registratie",
|
|
274
276
|
"referral.errors.codeExists": "Deze code is al in gebruik, kies een andere",
|
|
277
|
+
"referral.errors.invalidCode": "Uitnodigingscode bestaat niet, controleer en probeer het opnieuw",
|
|
275
278
|
"referral.errors.invalidFormat": "Ongeldig formaat, gebruik 2-8 letters, cijfers of underscores",
|
|
279
|
+
"referral.errors.selfReferral": "Je kunt je eigen uitnodigingscode niet gebruiken",
|
|
276
280
|
"referral.errors.updateFailed": "Bijwerken mislukt, probeer later opnieuw",
|
|
277
281
|
"referral.inviteCode.description": "Deel je unieke verwijzingscode om vrienden uit te nodigen",
|
|
278
282
|
"referral.inviteCode.title": "Mijn Verwijzingscode",
|
|
279
283
|
"referral.inviteLink.description": "Kopieer de link en deel met vrienden. Na registratie ontvang je beloningen",
|
|
280
284
|
"referral.inviteLink.title": "Verwijzingslink",
|
|
285
|
+
"referral.rules.backfill.alreadyBound": "Je hebt al een uitnodigingscode gekoppeld",
|
|
286
|
+
"referral.rules.backfill.description": "Vergeten om een uitnodigingscode in te voeren? Je kunt dit binnen 3 dagen na registratie alsnog doen",
|
|
287
|
+
"referral.rules.backfill.expiredTip": "De backfill-periode is verlopen. Je kunt niet meer backfillen na 3 dagen na registratie",
|
|
288
|
+
"referral.rules.backfill.link": "Uitnodigingscode invullen",
|
|
289
|
+
"referral.rules.backfill.placeholder": "Voer uitnodigingscode in",
|
|
290
|
+
"referral.rules.backfill.submit": "Bevestigen",
|
|
291
|
+
"referral.rules.backfill.success": "Uitnodigingscode succesvol gekoppeld",
|
|
292
|
+
"referral.rules.backfill.title": "Uitnodigingscode invullen",
|
|
281
293
|
"referral.rules.description": "Lees de regels van het verwijzingsprogramma",
|
|
282
294
|
"referral.rules.expiry": "Geldigheid: credits vervallen na 100 dagen inactiviteit",
|
|
295
|
+
"referral.rules.missedCode": "Uitnodigingscode gemist: je kunt deze <0>binnen 3 dagen</0> na registratie alsnog invullen",
|
|
283
296
|
"referral.rules.priority": "Verbruikvolgorde: Gratis → Abonnement → Verwijzing → Opladen",
|
|
284
297
|
"referral.rules.registration": "Registratie: via link of code op registratiepagina",
|
|
285
298
|
"referral.rules.reward": "Beloning: Jij en je vriend ontvangen elk {{reward}}M credits",
|
package/locales/pl-PL/auth.json
CHANGED
|
@@ -147,6 +147,7 @@
|
|
|
147
147
|
"loginGuide.f4": "Odkrywaj potężne wtyczki",
|
|
148
148
|
"loginGuide.title": "Po zalogowaniu możesz:",
|
|
149
149
|
"loginOrSignup": "Zaloguj się / Zarejestruj się",
|
|
150
|
+
"profile.account": "Konto",
|
|
150
151
|
"profile.authorizations.actions.revoke": "Cofnij",
|
|
151
152
|
"profile.authorizations.revoke.description": "Po cofnięciu narzędzie nie będzie miało dostępu do Twoich danych. Aby z niego ponownie korzystać, wymagana będzie ponowna autoryzacja.",
|
|
152
153
|
"profile.authorizations.revoke.title": "Cofnąć autoryzację dla {{name}}?",
|
|
@@ -157,6 +157,18 @@
|
|
|
157
157
|
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 jest zoptymalizowany pod kątem zaawansowanego rozumowania i podążania za instrukcjami, wykorzystując architekturę MoE, aby zapewnić efektywność rozumowania w dużej skali.",
|
|
158
158
|
"Qwen3-235B.description": "Qwen3-235B-A22B to model MoE, który wprowadza hybrydowy tryb rozumowania, umożliwiając użytkownikom płynne przełączanie się między trybem myślenia i niemyslenia. Obsługuje rozumienie i rozumowanie w 119 językach i dialektach oraz posiada silne możliwości wywoływania narzędzi, konkurując z głównymi modelami, takimi jak DeepSeek R1, OpenAI o1, o3-mini, Grok 3 i Google Gemini 2.5 Pro w testach ogólnych, kodowania i matematyki, możliwości wielojęzycznych oraz rozumowania wiedzy.",
|
|
159
159
|
"Qwen3-32B.description": "Qwen3-32B to gęsty model, który wprowadza hybrydowy tryb rozumowania, umożliwiając użytkownikom przełączanie się między trybem myślenia i niemyslenia. Dzięki ulepszeniom architektury, większej ilości danych i lepszemu treningowi, osiąga wydajność porównywalną z Qwen2.5-72B.",
|
|
160
|
+
"SenseChat-128K.description": "Wersja bazowa V4 z kontekstem 128K, doskonała w rozumieniu i generowaniu długich tekstów.",
|
|
161
|
+
"SenseChat-32K.description": "Wersja bazowa V4 z kontekstem 32K, elastyczna w wielu zastosowaniach.",
|
|
162
|
+
"SenseChat-5-1202.description": "Najnowsza wersja oparta na V5.5, z istotnymi ulepszeniami w zakresie podstaw języka chińskiego/angielskiego, rozmów, wiedzy STEM, nauk humanistycznych, pisania, matematyki/logiki oraz kontroli długości.",
|
|
163
|
+
"SenseChat-5-Cantonese.description": "Dostosowana do zwyczajów językowych Hongkongu, slangu i wiedzy lokalnej; przewyższa GPT-4 w rozumieniu kantońskiego i dorównuje GPT-4 Turbo w wiedzy, rozumowaniu, matematyce i programowaniu.",
|
|
164
|
+
"SenseChat-5-beta.description": "W niektórych aspektach przewyższa SenseChat-5-1202.",
|
|
165
|
+
"SenseChat-5.description": "Najnowsza wersja V5.5 z kontekstem 128K; znaczne postępy w rozumowaniu matematycznym, rozmowach po angielsku, wykonywaniu poleceń i rozumieniu długich tekstów, porównywalna z GPT-4o.",
|
|
166
|
+
"SenseChat-Character-Pro.description": "Zaawansowany model rozmów z postaciami z kontekstem 32K, ulepszoną funkcjonalnością i wsparciem dla języka chińskiego/angielskiego.",
|
|
167
|
+
"SenseChat-Character.description": "Standardowy model rozmów z postaciami z kontekstem 8K i wysoką szybkością odpowiedzi.",
|
|
168
|
+
"SenseChat-Turbo-1202.description": "Najnowszy lekki model osiągający ponad 90% możliwości pełnego modelu przy znacznie niższych kosztach wnioskowania.",
|
|
169
|
+
"SenseChat-Turbo.description": "Odpowiedni do szybkich pytań i odpowiedzi oraz scenariuszy dostrajania modeli.",
|
|
170
|
+
"SenseChat-Vision.description": "Najnowsza wersja V5.5 z obsługą wielu obrazów i szerokimi ulepszeniami w rozpoznawaniu atrybutów, relacjach przestrzennych, wykrywaniu działań/zdarzeń, rozumieniu scen, rozpoznawaniu emocji, rozumowaniu zdroworozsądkowemu oraz rozumieniu/generowaniu tekstu.",
|
|
171
|
+
"SenseChat.description": "Wersja bazowa V4 z kontekstem 4K i silnymi ogólnymi możliwościami.",
|
|
160
172
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
|
|
161
173
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
|
|
162
174
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
|
|
@@ -215,6 +215,7 @@
|
|
|
215
215
|
"settingAgent.name.placeholder": "Wprowadź nazwę agenta",
|
|
216
216
|
"settingAgent.name.title": "Nazwa",
|
|
217
217
|
"settingAgent.prompt.placeholder": "Wprowadź ustawienia agenta, naciśnij /, aby otworzyć menu poleceń",
|
|
218
|
+
"settingAgent.prompt.templatePlaceholder": "#### Cel\nOpisz główny cel i zadanie tego agenta.\n\n#### Umiejętności\n- Wypisz kluczowe zdolności\n- Oraz obszary specjalistycznej wiedzy\n\n#### Przebieg pracy\n1. Proces krok po kroku\n2. Jak agent powinien podchodzić do zadań\n3. Oczekiwane interakcje z użytkownikami\n\n#### Ograniczenia\n- Ważne ograniczenia, których należy przestrzegać\n- Wytyczne dotyczące zachowania",
|
|
218
219
|
"settingAgent.prompt.title": "Profil agenta",
|
|
219
220
|
"settingAgent.submit": "Zaktualizuj agenta",
|
|
220
221
|
"settingAgent.tag.desc": "Tagi agenta będą widoczne w Społeczności Agentów",
|
|
@@ -271,15 +271,28 @@
|
|
|
271
271
|
"referral.edit.hint": "Obsługuje 2–8 liter, cyfr lub podkreśleń",
|
|
272
272
|
"referral.edit.placeholder": "Wprowadź kod polecający",
|
|
273
273
|
"referral.edit.save": "Zapisz",
|
|
274
|
+
"referral.errors.alreadyBound": "Kod zaproszenia został już powiązany",
|
|
275
|
+
"referral.errors.backfillExpired": "Okres uzupełnienia minął. Nie można uzupełnić po 3 dniach od rejestracji",
|
|
274
276
|
"referral.errors.codeExists": "Ten kod polecający jest już używany, wybierz inny",
|
|
277
|
+
"referral.errors.invalidCode": "Kod zaproszenia nie istnieje, sprawdź i spróbuj ponownie",
|
|
275
278
|
"referral.errors.invalidFormat": "Nieprawidłowy format kodu polecającego, wprowadź 2–8 liter, cyfr lub podkreśleń",
|
|
279
|
+
"referral.errors.selfReferral": "Nie możesz użyć własnego kodu zaproszenia",
|
|
276
280
|
"referral.errors.updateFailed": "Aktualizacja nie powiodła się, spróbuj ponownie później",
|
|
277
281
|
"referral.inviteCode.description": "Udostępnij swój unikalny kod polecający, aby zaprosić znajomych do rejestracji",
|
|
278
282
|
"referral.inviteCode.title": "Mój Kod Polecający",
|
|
279
283
|
"referral.inviteLink.description": "Skopiuj link i udostępnij znajomym. Po zakończeniu rejestracji otrzymasz nagrody",
|
|
280
284
|
"referral.inviteLink.title": "Link Polecający",
|
|
285
|
+
"referral.rules.backfill.alreadyBound": "Kod zaproszenia został już powiązany",
|
|
286
|
+
"referral.rules.backfill.description": "Zapomniałeś wpisać kod zaproszenia? Możesz go uzupełnić w ciągu 3 dni od rejestracji",
|
|
287
|
+
"referral.rules.backfill.expiredTip": "Okres uzupełnienia minął. Nie można uzupełnić po 3 dniach od rejestracji",
|
|
288
|
+
"referral.rules.backfill.link": "Uzupełnij kod zaproszenia",
|
|
289
|
+
"referral.rules.backfill.placeholder": "Wprowadź kod zaproszenia",
|
|
290
|
+
"referral.rules.backfill.submit": "Potwierdź powiązanie",
|
|
291
|
+
"referral.rules.backfill.success": "Kod zaproszenia został pomyślnie powiązany",
|
|
292
|
+
"referral.rules.backfill.title": "Uzupełnij kod zaproszenia",
|
|
281
293
|
"referral.rules.description": "Poznaj zasady programu nagród za polecenia",
|
|
282
294
|
"referral.rules.expiry": "Ważność środków: dostępne środki z poleceń zostaną usunięte po 100 dniach braku aktywności użytkownika",
|
|
295
|
+
"referral.rules.missedCode": "Brakujący kod zaproszenia: możesz go <0>uzupełnić</0> w ciągu 3 dni od rejestracji",
|
|
283
296
|
"referral.rules.priority": "Priorytet wykorzystania środków: Darmowe środki → Środki z subskrypcji → Środki z poleceń → Doładowane środki",
|
|
284
297
|
"referral.rules.registration": "Sposób rejestracji: zaproszeni użytkownicy rejestrują się przez link polecający lub wpisują kod polecający na stronie rejestracji",
|
|
285
298
|
"referral.rules.reward": "Nagroda: Polecający i zaproszony otrzymują po {{reward}}M środków",
|
package/locales/pt-BR/auth.json
CHANGED
|
@@ -147,6 +147,7 @@
|
|
|
147
147
|
"loginGuide.f4": "Explore plugins poderosos",
|
|
148
148
|
"loginGuide.title": "Após o login, você pode:",
|
|
149
149
|
"loginOrSignup": "Entrar / Cadastrar",
|
|
150
|
+
"profile.account": "Conta",
|
|
150
151
|
"profile.authorizations.actions.revoke": "Revogar",
|
|
151
152
|
"profile.authorizations.revoke.description": "Após revogar, a ferramenta não terá mais acesso aos seus dados. Será necessário autorizar novamente para usá-la.",
|
|
152
153
|
"profile.authorizations.revoke.title": "Revogar autorização para {{name}}?",
|
|
@@ -223,6 +223,7 @@
|
|
|
223
223
|
"alibaba/qwen-3-235b.description": "Qwen3 é a geração mais recente da série Qwen, oferecendo um conjunto abrangente de modelos densos e MoE. Baseado em treinamento extensivo, traz avanços em raciocínio, seguimento de instruções, capacidades de agente e suporte multilíngue.",
|
|
224
224
|
"alibaba/qwen-3-30b.description": "Qwen3 é a geração mais recente da série Qwen, oferecendo um conjunto abrangente de modelos densos e MoE. Baseado em treinamento extensivo, traz avanços em raciocínio, seguimento de instruções, capacidades de agente e suporte multilíngue.",
|
|
225
225
|
"alibaba/qwen-3-32b.description": "Qwen3 é a geração mais recente da série Qwen, oferecendo um conjunto abrangente de modelos densos e MoE. Baseado em treinamento extensivo, traz avanços em raciocínio, seguimento de instruções, capacidades de agente e suporte multilíngue.",
|
|
226
|
+
"alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct é o modelo de código mais agente da Qwen, com excelente desempenho em programação autônoma, uso de navegador por agentes e outras tarefas centrais de codificação, alcançando resultados comparáveis ao nível do Claude Sonnet.",
|
|
226
227
|
"meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
|
|
227
228
|
"mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
|
|
228
229
|
"mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
|
|
@@ -215,6 +215,7 @@
|
|
|
215
215
|
"settingAgent.name.placeholder": "Insira o nome do agente",
|
|
216
216
|
"settingAgent.name.title": "Nome",
|
|
217
217
|
"settingAgent.prompt.placeholder": "Insira as configurações do agente, pressione / para abrir o menu de comandos",
|
|
218
|
+
"settingAgent.prompt.templatePlaceholder": "#### Objetivo\nDescreva o propósito principal e o objetivo deste agente.\n\n#### Habilidades\n- Liste as principais capacidades\n- E áreas de conhecimento especializado\n\n#### Fluxo de Trabalho\n1. Processo passo a passo\n2. Como o agente deve abordar as tarefas\n3. Interações esperadas com os usuários\n\n#### Restrições\n- Limitações importantes a serem seguidas\n- Diretrizes de comportamento",
|
|
218
219
|
"settingAgent.prompt.title": "Perfil do Agente",
|
|
219
220
|
"settingAgent.submit": "Atualizar Agente",
|
|
220
221
|
"settingAgent.tag.desc": "As tags do agente serão exibidas na Comunidade de Agentes",
|
|
@@ -271,15 +271,28 @@
|
|
|
271
271
|
"referral.edit.hint": "Aceita de 2 a 8 letras, números ou sublinhados",
|
|
272
272
|
"referral.edit.placeholder": "Digite o código de indicação",
|
|
273
273
|
"referral.edit.save": "Salvar",
|
|
274
|
+
"referral.errors.alreadyBound": "Você já vinculou um código de convite",
|
|
275
|
+
"referral.errors.backfillExpired": "O período de preenchimento retroativo expirou. Não é possível preencher após 3 dias do registro",
|
|
274
276
|
"referral.errors.codeExists": "Este código de indicação já está em uso, escolha outro",
|
|
277
|
+
"referral.errors.invalidCode": "O código de convite não existe, verifique e tente novamente",
|
|
275
278
|
"referral.errors.invalidFormat": "Formato inválido, use de 2 a 8 letras, números ou sublinhados",
|
|
279
|
+
"referral.errors.selfReferral": "Você não pode usar seu próprio código de convite",
|
|
276
280
|
"referral.errors.updateFailed": "Falha ao atualizar, tente novamente mais tarde",
|
|
277
281
|
"referral.inviteCode.description": "Compartilhe seu código exclusivo para convidar amigos a se registrarem",
|
|
278
282
|
"referral.inviteCode.title": "Meu Código de Indicação",
|
|
279
283
|
"referral.inviteLink.description": "Copie o link e compartilhe com amigos. Ao se registrarem, ambos ganham recompensas",
|
|
280
284
|
"referral.inviteLink.title": "Link de Indicação",
|
|
285
|
+
"referral.rules.backfill.alreadyBound": "Você já vinculou um código de convite",
|
|
286
|
+
"referral.rules.backfill.description": "Esqueceu de inserir o código de convite? Você pode preenchê-lo em até 3 dias após o registro",
|
|
287
|
+
"referral.rules.backfill.expiredTip": "O período de preenchimento retroativo expirou. Não é possível preencher após 3 dias do registro",
|
|
288
|
+
"referral.rules.backfill.link": "Preencher Código de Convite",
|
|
289
|
+
"referral.rules.backfill.placeholder": "Insira o código de convite",
|
|
290
|
+
"referral.rules.backfill.submit": "Confirmar Vinculação",
|
|
291
|
+
"referral.rules.backfill.success": "Código de convite vinculado com sucesso",
|
|
292
|
+
"referral.rules.backfill.title": "Preencher Código de Convite",
|
|
281
293
|
"referral.rules.description": "Conheça as regras do programa de recompensas por indicação",
|
|
282
294
|
"referral.rules.expiry": "Validade dos créditos: créditos de indicação serão expirados após 100 dias de inatividade",
|
|
295
|
+
"referral.rules.missedCode": "Código de convite perdido: você pode <0>preencher</0> em até 3 dias após o registro",
|
|
283
296
|
"referral.rules.priority": "Ordem de uso dos créditos: Gratuitos → Assinatura → Indicação → Recarga",
|
|
284
297
|
"referral.rules.registration": "Método de registro: usuários convidados devem se registrar via link ou inserir o código na página de cadastro",
|
|
285
298
|
"referral.rules.reward": "Recompensa: Indicador e convidado recebem {{reward}}M créditos cada",
|
package/locales/ru-RU/auth.json
CHANGED
|
@@ -147,6 +147,7 @@
|
|
|
147
147
|
"loginGuide.f4": "Откройте мощные плагины",
|
|
148
148
|
"loginGuide.title": "После входа вы сможете:",
|
|
149
149
|
"loginOrSignup": "Вход / Регистрация",
|
|
150
|
+
"profile.account": "Аккаунт",
|
|
150
151
|
"profile.authorizations.actions.revoke": "Отозвать",
|
|
151
152
|
"profile.authorizations.revoke.description": "После отзыва инструмент потеряет доступ к вашим данным. Для повторного использования потребуется повторная авторизация.",
|
|
152
153
|
"profile.authorizations.revoke.title": "Отозвать доступ для {{name}}?",
|
|
@@ -215,6 +215,38 @@
|
|
|
215
215
|
"accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5 — это серия LLM только с декодером, разработанная командой Qwen и Alibaba Cloud, доступная в вариантах 0.5B, 1.5B, 3B, 7B, 14B, 32B и 72B, как в базовой, так и в дообученной на инструкциях версиях.",
|
|
216
216
|
"accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder — последняя модель LLM из серии Qwen, предназначенная для программирования (ранее CodeQwen). Примечание: модель предоставляется в экспериментальном режиме как серверлесс-решение. Для использования в продакшене учтите, что Fireworks может прекратить развертывание без предварительного уведомления.",
|
|
217
217
|
"accounts/yi-01-ai/models/yi-large.description": "Yi-Large — это высококлассная LLM, занимающая позицию сразу за GPT-4, Gemini 1.5 Pro и Claude 3 Opus в рейтинге LMSYS. Отличается выдающимися многоязычными возможностями, особенно в испанском, китайском, японском, немецком и французском языках. Yi-Large также удобна для разработчиков, так как использует ту же схему API, что и OpenAI, обеспечивая легкую интеграцию.",
|
|
218
|
+
"ai21-jamba-1.5-large.description": "Многоязычная модель с 398 миллиардами параметров (94 миллиарда активных), поддерживающая контекст до 256 тысяч токенов, вызов функций, структурированный вывод и генерацию с привязкой к источникам.",
|
|
219
|
+
"ai21-jamba-1.5-mini.description": "Многоязычная модель с 52 миллиардами параметров (12 миллиардов активных), поддерживающая контекст до 256 тысяч токенов, вызов функций, структурированный вывод и генерацию с привязкой к источникам.",
|
|
220
|
+
"ai21-labs/AI21-Jamba-1.5-Large.description": "Многоязычная модель с 398 миллиардами параметров (94 миллиарда активных), поддерживающая контекст до 256 тысяч токенов, вызов функций, структурированный вывод и генерацию с привязкой к источникам.",
|
|
221
|
+
"ai21-labs/AI21-Jamba-1.5-Mini.description": "Многоязычная модель с 52 миллиардами параметров (12 миллиардов активных), поддерживающая контекст до 256 тысяч токенов, вызов функций, структурированный вывод и генерацию с привязкой к источникам.",
|
|
222
|
+
"alibaba/qwen-3-14b.description": "Qwen3 — это новейшее поколение в серии Qwen, предлагающее широкий набор плотных и MoE-моделей. Обученная на обширных данных, модель демонстрирует прорывные результаты в логике, следовании инструкциям, агентных возможностях и многоязычной поддержке.",
|
|
223
|
+
"alibaba/qwen-3-235b.description": "Qwen3 — это новейшее поколение в серии Qwen, предлагающее широкий набор плотных и MoE-моделей. Обученная на обширных данных, модель демонстрирует прорывные результаты в логике, следовании инструкциям, агентных возможностях и многоязычной поддержке.",
|
|
224
|
+
"alibaba/qwen-3-30b.description": "Qwen3 — это новейшее поколение в серии Qwen, предлагающее широкий набор плотных и MoE-моделей. Обученная на обширных данных, модель демонстрирует прорывные результаты в логике, следовании инструкциям, агентных возможностях и многоязычной поддержке.",
|
|
225
|
+
"alibaba/qwen-3-32b.description": "Qwen3 — это новейшее поколение в серии Qwen, предлагающее широкий набор плотных и MoE-моделей. Обученная на обширных данных, модель демонстрирует прорывные результаты в логике, следовании инструкциям, агентных возможностях и многоязычной поддержке.",
|
|
226
|
+
"alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct — это самая агентно-ориентированная модель для программирования в серии Qwen, демонстрирующая высокие результаты в агентном кодировании, использовании браузера и других ключевых задачах программирования, сопоставимых с уровнем Claude Sonnet.",
|
|
227
|
+
"amazon/nova-lite.description": "Очень недорогая мультимодальная модель с чрезвычайно быстрой обработкой изображений, видео и текста.",
|
|
228
|
+
"amazon/nova-micro.description": "Только текстовая модель с ультранизкой задержкой и минимальными затратами.",
|
|
229
|
+
"amazon/nova-pro.description": "Высокопроизводительная мультимодальная модель с оптимальным балансом точности, скорости и стоимости для широкого спектра задач.",
|
|
230
|
+
"amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 — это легкая и эффективная многоязычная модель эмбеддингов, поддерживающая размеры 1024, 512 и 256.",
|
|
231
|
+
"anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet поднимает отраслевой стандарт, превосходя конкурентов и Claude 3 Opus по широкому спектру оценок, сохраняя при этом средний уровень скорости и стоимости.",
|
|
232
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet поднимает отраслевой стандарт, превосходя конкурентов и Claude 3 Opus по широкому спектру оценок, сохраняя при этом средний уровень скорости и стоимости.",
|
|
233
|
+
"anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, обеспечивающая почти мгновенные ответы на простые запросы. Обеспечивает плавное, человекоподобное взаимодействие с ИИ и поддерживает ввод изображений с контекстом до 200 тысяч токенов.",
|
|
234
|
+
"anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus — самая мощная модель от Anthropic с передовыми возможностями для сложных задач. Обеспечивает свободную генерацию и понимание новых сценариев, поддерживает ввод изображений и контекст до 200 тысяч токенов.",
|
|
235
|
+
"anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, предлагая высокую ценность при низкой стоимости. Надежен для масштабируемого внедрения ИИ и поддерживает ввод изображений с контекстом до 200 тысяч токенов.",
|
|
236
|
+
"anthropic.claude-instant-v1.description": "Быстрая, экономичная и при этом мощная модель для повседневного общения, анализа текста, суммирования и вопросов по документам.",
|
|
237
|
+
"anthropic.claude-v2.description": "Высокопроизводительная модель для задач от сложного диалога и креативной генерации до точного следования инструкциям.",
|
|
238
|
+
"anthropic.claude-v2:1.description": "Обновленная версия Claude 2 с удвоенным контекстом, улучшенной надежностью, сниженным уровнем галлюцинаций и повышенной точностью на основе доказательств для длинных документов и RAG.",
|
|
239
|
+
"anthropic/claude-3-haiku.description": "Claude 3 Haiku — самая быстрая модель от Anthropic, предназначенная для корпоративных задач с длинными запросами. Быстро анализирует крупные документы, такие как квартальные отчеты, контракты или юридические дела, при этом стоит вдвое дешевле аналогов.",
|
|
240
|
+
"anthropic/claude-3-opus.description": "Claude 3 Opus — самая интеллектуальная модель от Anthropic с лидирующей производительностью в сложных задачах, свободно обрабатывает открытые запросы и новые сценарии с высоким уровнем понимания.",
|
|
241
|
+
"anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku отличается повышенной скоростью, точностью программирования и эффективным использованием инструментов, подходит для сценариев с высокими требованиями к скорости и взаимодействию с инструментами.",
|
|
242
|
+
"anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet — быстрая и эффективная модель из семейства Sonnet, обеспечивающая улучшенную производительность в программировании и логике. Некоторые версии постепенно заменяются на Sonnet 3.7 и выше.",
|
|
243
|
+
"anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet — обновленная модель Sonnet с улучшенными логическими и программными возможностями, подходящая для сложных корпоративных задач.",
|
|
244
|
+
"anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 — высокопроизводительная быстрая модель от Anthropic с очень низкой задержкой и высокой точностью.",
|
|
245
|
+
"anthropic/claude-opus-4.1.description": "Opus 4.1 — флагманская модель от Anthropic, оптимизированная для программирования, сложной логики и длительных задач.",
|
|
246
|
+
"anthropic/claude-opus-4.5.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая высший интеллект с масштабируемой производительностью для сложных задач, требующих качественного логического вывода.",
|
|
247
|
+
"anthropic/claude-opus-4.description": "Opus 4 — флагманская модель от Anthropic, предназначенная для сложных задач и корпоративных приложений.",
|
|
248
|
+
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 — новейшая гибридная модель логического вывода от Anthropic, оптимизированная для сложных рассуждений и программирования.",
|
|
249
|
+
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 — гибридная модель логического вывода от Anthropic, сочетающая режимы мышления и немышления.",
|
|
218
250
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
|
|
219
251
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
|
|
220
252
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
|
|
@@ -215,6 +215,7 @@
|
|
|
215
215
|
"settingAgent.name.placeholder": "Введите имя агента",
|
|
216
216
|
"settingAgent.name.title": "Имя",
|
|
217
217
|
"settingAgent.prompt.placeholder": "Введите настройки агента, нажмите / для открытия меню команд",
|
|
218
|
+
"settingAgent.prompt.templatePlaceholder": "#### Цель\nОпишите основное назначение и цель этого агента.\n\n#### Навыки\n- Перечислите ключевые возможности\n- И области специализированных знаний\n\n#### Рабочий процесс\n1. Пошаговое выполнение задач\n2. Как агент должен подходить к выполнению заданий\n3. Ожидаемое взаимодействие с пользователями\n\n#### Ограничения\n- Важные ограничения, которых следует придерживаться\n- Руководящие принципы поведения",
|
|
218
219
|
"settingAgent.prompt.title": "Профиль агента",
|
|
219
220
|
"settingAgent.submit": "Обновить агента",
|
|
220
221
|
"settingAgent.tag.desc": "Теги агента будут отображаться в сообществе агентов",
|
|
@@ -271,15 +271,28 @@
|
|
|
271
271
|
"referral.edit.hint": "Допустимо 2–8 символов: буквы, цифры или подчёркивания",
|
|
272
272
|
"referral.edit.placeholder": "Введите реферальный код",
|
|
273
273
|
"referral.edit.save": "Сохранить",
|
|
274
|
+
"referral.errors.alreadyBound": "Вы уже привязали код приглашения",
|
|
275
|
+
"referral.errors.backfillExpired": "Срок для ввода кода истёк. Нельзя ввести код спустя 3 дня после регистрации",
|
|
274
276
|
"referral.errors.codeExists": "Код уже используется, выберите другой",
|
|
277
|
+
"referral.errors.invalidCode": "Код приглашения не существует, пожалуйста, проверьте и попробуйте снова",
|
|
275
278
|
"referral.errors.invalidFormat": "Неверный формат кода, используйте 2–8 символов: буквы, цифры или подчёркивания",
|
|
279
|
+
"referral.errors.selfReferral": "Вы не можете использовать собственный код приглашения",
|
|
276
280
|
"referral.errors.updateFailed": "Не удалось обновить, попробуйте позже",
|
|
277
281
|
"referral.inviteCode.description": "Поделитесь своим кодом, чтобы пригласить друзей",
|
|
278
282
|
"referral.inviteCode.title": "Мой реферальный код",
|
|
279
283
|
"referral.inviteLink.description": "Скопируйте ссылку и отправьте друзьям. После регистрации получите бонус",
|
|
280
284
|
"referral.inviteLink.title": "Реферальная ссылка",
|
|
285
|
+
"referral.rules.backfill.alreadyBound": "Вы уже привязали код приглашения",
|
|
286
|
+
"referral.rules.backfill.description": "Забыли ввести код приглашения? Вы можете сделать это в течение 3 дней после регистрации",
|
|
287
|
+
"referral.rules.backfill.expiredTip": "Срок для ввода кода истёк. Нельзя ввести код спустя 3 дня после регистрации",
|
|
288
|
+
"referral.rules.backfill.link": "Ввести код приглашения",
|
|
289
|
+
"referral.rules.backfill.placeholder": "Введите код приглашения",
|
|
290
|
+
"referral.rules.backfill.submit": "Подтвердить привязку",
|
|
291
|
+
"referral.rules.backfill.success": "Код приглашения успешно привязан",
|
|
292
|
+
"referral.rules.backfill.title": "Ввод кода приглашения",
|
|
281
293
|
"referral.rules.description": "Узнайте правила программы вознаграждений",
|
|
282
294
|
"referral.rules.expiry": "Срок действия: кредиты аннулируются после 100 дней неактивности",
|
|
295
|
+
"referral.rules.missedCode": "Пропустили код приглашения: вы можете <0>ввести его</0> в течение 3 дней после регистрации",
|
|
283
296
|
"referral.rules.priority": "Порядок списания: Бесплатные → Подписочные → Реферальные → Пополненные",
|
|
284
297
|
"referral.rules.registration": "Регистрация: по ссылке или вводу кода на странице регистрации",
|
|
285
298
|
"referral.rules.reward": "Награда: пригласивший и приглашённый получают по {{reward}}M кредитов",
|
package/locales/tr-TR/auth.json
CHANGED
|
@@ -147,6 +147,7 @@
|
|
|
147
147
|
"loginGuide.f4": "Güçlü eklentileri keşfedin",
|
|
148
148
|
"loginGuide.title": "Giriş yaptıktan sonra şunları yapabilirsiniz:",
|
|
149
149
|
"loginOrSignup": "Giriş Yap / Kayıt Ol",
|
|
150
|
+
"profile.account": "Hesap",
|
|
150
151
|
"profile.authorizations.actions.revoke": "İptal Et",
|
|
151
152
|
"profile.authorizations.revoke.description": "İptal ettikten sonra, bu araç verilerinize erişemez. Yeniden kullanmak için tekrar yetkilendirme gerekir.",
|
|
152
153
|
"profile.authorizations.revoke.title": "{{name}} için yetkilendirme iptal edilsin mi?",
|
|
@@ -195,6 +195,26 @@
|
|
|
195
195
|
"abab6.5t-chat.description": "Çinli karakter sohbeti için optimize edilmiştir, Çince ifade alışkanlıklarına uygun akıcı diyaloglar sunar.",
|
|
196
196
|
"accounts/fireworks/models/deepseek-r1.description": "DeepSeek-R1, pekiştirmeli öğrenme ve soğuk başlangıç verileriyle optimize edilmiş son teknoloji bir büyük dil modelidir; akıl yürütme, matematik ve kodlama alanlarında mükemmel performans sunar.",
|
|
197
197
|
"accounts/fireworks/models/deepseek-v3.description": "DeepSeek tarafından geliştirilen 671 milyar toplam parametreli güçlü bir Uzman Karışımı (MoE) dil modelidir; belirteç başına 37 milyar aktif parametreye sahiptir.",
|
|
198
|
+
"accounts/fireworks/models/llama-v3-70b-instruct.description": "Meta, 8B ve 70B boyutlarında önceden eğitilmiş ve talimatlara göre ayarlanmış metin üretim modellerini içeren Meta Llama 3 LLM serisini geliştirdi ve yayımladı. Llama 3 talimat ayarlı modeller, sohbet amaçlı kullanım için optimize edilmiştir ve yaygın endüstri kıyaslamalarında mevcut birçok açık sohbet modelinden daha iyi performans gösterir.",
|
|
199
|
+
"accounts/fireworks/models/llama-v3-8b-instruct-hf.description": "Meta Llama 3 talimat ayarlı modeller, sohbet amaçlı kullanım için optimize edilmiştir ve yaygın endüstri kıyaslamalarında mevcut birçok açık sohbet modelinden daha iyi performans gösterir. Llama 3 8B Instruct (HF sürümü), Llama 3 8B Instruct modelinin orijinal FP16 sürümüdür ve sonuçların resmi Hugging Face uygulamasıyla eşleşmesi beklenir.",
|
|
200
|
+
"accounts/fireworks/models/llama-v3-8b-instruct.description": "Meta, 8B ve 70B boyutlarında önceden eğitilmiş ve talimatlara göre ayarlanmış metin üretim modellerini içeren Meta Llama 3 LLM serisini geliştirdi ve yayımladı. Llama 3 talimat ayarlı modeller, sohbet amaçlı kullanım için optimize edilmiştir ve yaygın endüstri kıyaslamalarında mevcut birçok açık sohbet modelinden daha iyi performans gösterir.",
|
|
201
|
+
"accounts/fireworks/models/llama-v3p1-405b-instruct.description": "Meta Llama 3.1, 8B, 70B ve 405B boyutlarında önceden eğitilmiş ve talimatlara göre ayarlanmış çok dilli üretim modellerinden oluşan bir LLM ailesidir. Talimat ayarlı metin modelleri, çok dilli diyaloglar için optimize edilmiştir ve yaygın endüstri kıyaslamalarında mevcut birçok açık ve kapalı sohbet modelinden daha iyi performans gösterir. 405B, Llama 3.1 ailesinin en yetenekli modelidir ve referans uygulamayla yakından eşleşen FP8 çıkarımını kullanır.",
|
|
202
|
+
"accounts/fireworks/models/llama-v3p1-70b-instruct.description": "Meta Llama 3.1, 8B, 70B ve 405B boyutlarında önceden eğitilmiş ve talimatlara göre ayarlanmış çok dilli üretim modellerinden oluşan bir LLM ailesidir. Talimat ayarlı metin modelleri, çok dilli diyaloglar için optimize edilmiştir ve yaygın endüstri kıyaslamalarında mevcut birçok açık ve kapalı sohbet modelinden daha iyi performans gösterir.",
|
|
203
|
+
"accounts/fireworks/models/llama-v3p1-8b-instruct.description": "Meta Llama 3.1, 8B, 70B ve 405B boyutlarında önceden eğitilmiş ve talimatlara göre ayarlanmış çok dilli üretim modellerinden oluşan bir LLM ailesidir. Talimat ayarlı metin modelleri, çok dilli diyaloglar için optimize edilmiştir ve yaygın endüstri kıyaslamalarında mevcut birçok açık ve kapalı sohbet modelinden daha iyi performans gösterir.",
|
|
204
|
+
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct.description": "Meta tarafından geliştirilen, 11B parametreli talimat ayarlı bir görsel akıl yürütme modeli. Görsel tanıma, görüntü akıl yürütme, altyazı oluşturma ve görüntüyle ilgili soru-cevap için optimize edilmiştir. Grafikler ve tablolar gibi görsel verileri anlayabilir ve görüntü ayrıntılarını metinle açıklayarak görsel ve dil arasında köprü kurar.",
|
|
205
|
+
"accounts/fireworks/models/llama-v3p2-3b-instruct.description": "Llama 3.2 3B Instruct, Meta tarafından geliştirilen hafif çok dilli bir modeldir. Daha büyük modellere kıyasla düşük gecikme süresi ve maliyet avantajı sunar. Tipik kullanım alanları arasında sorgu/istem yeniden yazımı ve yazma desteği yer alır.",
|
|
206
|
+
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct.description": "Meta tarafından geliştirilen, 90B parametreli talimat ayarlı bir görsel akıl yürütme modeli. Görsel tanıma, görüntü akıl yürütme, altyazı oluşturma ve görüntüyle ilgili soru-cevap için optimize edilmiştir. Grafikler ve tablolar gibi görsel verileri anlayabilir ve görüntü ayrıntılarını metinle açıklayarak görsel ve dil arasında köprü kurar. Not: Bu model şu anda sunucusuz olarak deneysel şekilde sunulmaktadır. Üretim ortamında kullanmadan önce Fireworks’un dağıtımı kısa sürede sonlandırabileceğini göz önünde bulundurun.",
|
|
207
|
+
"accounts/fireworks/models/llama-v3p3-70b-instruct.description": "Llama 3.3 70B Instruct, Llama 3.1 70B'nin Aralık güncellemesidir. Temmuz 2024 sürümüne göre araç kullanımı, çok dilli metin desteği, matematik ve kodlama alanlarında iyileştirmeler sunar. Akıl yürütme, matematik ve talimat takibi konularında sektör lideri performansa ulaşır ve 3.1 405B ile karşılaştırılabilir performansı daha yüksek hız ve düşük maliyetle sunar.",
|
|
208
|
+
"accounts/fireworks/models/mistral-small-24b-instruct-2501.description": "Daha büyük modellerle karşılaştırılabilir son teknolojiye sahip 24B parametreli bir model.",
|
|
209
|
+
"accounts/fireworks/models/mixtral-8x22b-instruct.description": "Mixtral MoE 8x22B Instruct v0.1, Mixtral MoE 8x22B v0.1'in talimat ayarlı sürümüdür ve sohbet tamamlama API'si etkinleştirilmiştir.",
|
|
210
|
+
"accounts/fireworks/models/mixtral-8x7b-instruct.description": "Mixtral MoE 8x7B Instruct, Mixtral MoE 8x7B'nin talimat ayarlı sürümüdür ve sohbet tamamlama API'si etkinleştirilmiştir.",
|
|
211
|
+
"accounts/fireworks/models/mythomax-l2-13b.description": "MythoMix'in geliştirilmiş bir varyantı olan bu model, MythoLogic-L2 ve Huginn'in deneysel bir tensör birleştirme tekniğiyle harmanlanmasıyla oluşturulmuştur. Hikâye anlatımı ve rol yapma için mükemmel bir seçimdir.",
|
|
212
|
+
"accounts/fireworks/models/phi-3-vision-128k-instruct.description": "Phi-3-Vision-128K-Instruct, sentetik veriler ve seçilmiş kamuya açık web veri kümeleriyle eğitilmiş, hafif ve son teknoloji açık çok modlu bir modeldir. Yüksek kaliteli, akıl yürütme odaklı metin ve görsel veriler üzerine odaklanır. Phi-3 ailesine aittir ve 128K bağlam uzunluğunu (token cinsinden) destekleyen çok modlu bir sürümdür. Doğru talimat takibi ve güçlü güvenlik önlemleri sağlamak için denetimli ince ayar ve doğrudan tercih optimizasyonu gibi geliştirmelerden geçmiştir.",
|
|
213
|
+
"accounts/fireworks/models/qwen-qwq-32b-preview.description": "Qwen QwQ modeli, açık modellerin akıl yürütme alanında kapalı öncü modellerle rekabet edebileceğini göstererek yapay zekâ akıl yürütmesini ilerletmeyi amaçlar. QwQ-32B-Preview, GPQA, AIME, MATH-500 ve LiveCodeBench gibi kıyaslamalarda o1 ile eşleşen ve GPT-4o ile Claude 3.5 Sonnet'i geçen deneysel bir sürümdür. Not: Bu model şu anda sunucusuz olarak deneysel şekilde sunulmaktadır. Üretim ortamında kullanmadan önce Fireworks’un dağıtımı kısa sürede sonlandırabileceğini göz önünde bulundurun.",
|
|
214
|
+
"accounts/fireworks/models/qwen2-vl-72b-instruct.description": "72B Qwen-VL modeli, Alibaba’nın yaklaşık bir yıllık yenilik sürecini yansıtan en son sürümüdür.",
|
|
215
|
+
"accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5, Qwen ekibi ve Alibaba Cloud tarafından geliştirilen yalnızca kod çözücü LLM serisidir. 0.5B, 1.5B, 3B, 7B, 14B, 32B ve 72B boyutlarında temel ve talimat ayarlı varyantlar sunar.",
|
|
216
|
+
"accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder, kodlama için tasarlanmış en yeni Qwen LLM'dir (önceki adıyla CodeQwen). Not: Bu model şu anda sunucusuz olarak deneysel şekilde sunulmaktadır. Üretim ortamında kullanmadan önce Fireworks’un dağıtımı kısa sürede sonlandırabileceğini göz önünde bulundurun.",
|
|
217
|
+
"accounts/yi-01-ai/models/yi-large.description": "Yi-Large, LMSYS sıralamasında GPT-4, Gemini 1.5 Pro ve Claude 3 Opus'un hemen altında yer alan üst düzey bir LLM'dir. Çok dilli yeteneklerde, özellikle İspanyolca, Çince, Japonca, Almanca ve Fransızca dillerinde öne çıkar. Yi-Large ayrıca geliştirici dostudur ve OpenAI ile aynı API şemasını kullanarak kolay entegrasyon sağlar.",
|
|
198
218
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modeli (LLM) olup, üretken yapay zeka fikirlerini oluşturma, deneme ve sorumlu bir şekilde ölçeklendirme süreçlerinde yardımcı olmak üzere tasarlanmıştır. Küresel topluluk inovasyonunun temel taşlarından biri olarak, sınırlı bilgi işlem gücü ve kaynaklara sahip ortamlar, uç cihazlar ve daha hızlı eğitim süreleri için uygundur.",
|
|
199
219
|
"mistral-small-latest.description": "Mistral Small, çeviri, özetleme ve duygu analizi için uygun maliyetli, hızlı ve güvenilir bir seçenektir.",
|
|
200
220
|
"mistral-small.description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her türlü dil tabanlı görev için uygundur.",
|
|
@@ -215,6 +215,7 @@
|
|
|
215
215
|
"settingAgent.name.placeholder": "Temsilci adı girin",
|
|
216
216
|
"settingAgent.name.title": "Ad",
|
|
217
217
|
"settingAgent.prompt.placeholder": "Temsilci ayarlarını girin, komut menüsünü açmak için / tuşuna basın",
|
|
218
|
+
"settingAgent.prompt.templatePlaceholder": "#### Amaç\nBu ajanın ana amacı ve hedefini açıklayın.\n\n#### Yetenekler\n- Temel yetenekleri listeleyin\n- Uzmanlık alanlarını belirtin\n\n#### İş Akışı\n1. Adım adım süreç\n2. Ajanın görevleri nasıl ele alacağı\n3. Kullanıcılarla beklenen etkileşimler\n\n#### Kısıtlamalar\n- Uyulması gereken önemli sınırlamalar\n- Davranış kuralları",
|
|
218
219
|
"settingAgent.prompt.title": "Temsilci Profili",
|
|
219
220
|
"settingAgent.submit": "Temsilciyi Güncelle",
|
|
220
221
|
"settingAgent.tag.desc": "Temsilci etiketleri, Temsilci Topluluğunda görüntülenecektir",
|
|
@@ -271,15 +271,28 @@
|
|
|
271
271
|
"referral.edit.hint": "2-8 harf, rakam veya alt çizgi desteklenir",
|
|
272
272
|
"referral.edit.placeholder": "Referans kodunu girin",
|
|
273
273
|
"referral.edit.save": "Kaydet",
|
|
274
|
+
"referral.errors.alreadyBound": "Davet kodu zaten bağlandı",
|
|
275
|
+
"referral.errors.backfillExpired": "Geriye dönük giriş süresi doldu. Kayıttan sonra 3 gün içinde giriş yapılabilir",
|
|
274
276
|
"referral.errors.codeExists": "Bu referans kodu zaten kullanılıyor, lütfen başka bir tane seçin",
|
|
277
|
+
"referral.errors.invalidCode": "Davet kodu mevcut değil, lütfen kontrol edip tekrar deneyin",
|
|
275
278
|
"referral.errors.invalidFormat": "Geçersiz referans kodu formatı, lütfen 2-8 harf, rakam veya alt çizgi girin",
|
|
279
|
+
"referral.errors.selfReferral": "Kendi davet kodunuzu kullanamazsınız",
|
|
276
280
|
"referral.errors.updateFailed": "Güncelleme başarısız oldu, lütfen daha sonra tekrar deneyin",
|
|
277
281
|
"referral.inviteCode.description": "Arkadaşlarınızı davet etmek için özel referans kodunuzu paylaşın",
|
|
278
282
|
"referral.inviteCode.title": "Referans Kodum",
|
|
279
283
|
"referral.inviteLink.description": "Bağlantıyı kopyalayıp arkadaşlarınızla paylaşın. Kayıt tamamlandığında ödül kazanın",
|
|
280
284
|
"referral.inviteLink.title": "Referans Bağlantısı",
|
|
285
|
+
"referral.rules.backfill.alreadyBound": "Davet kodu zaten bağlandı",
|
|
286
|
+
"referral.rules.backfill.description": "Davet kodunu girmeyi mi unuttunuz? Kayıttan sonraki 3 gün içinde giriş yapabilirsiniz",
|
|
287
|
+
"referral.rules.backfill.expiredTip": "Geriye dönük giriş süresi doldu. Kayıttan sonra 3 gün içinde giriş yapılabilir",
|
|
288
|
+
"referral.rules.backfill.link": "Davet Kodunu Geriye Dönük Gir",
|
|
289
|
+
"referral.rules.backfill.placeholder": "Davet kodunu girin",
|
|
290
|
+
"referral.rules.backfill.submit": "Bağlamayı Onayla",
|
|
291
|
+
"referral.rules.backfill.success": "Davet kodu başarıyla bağlandı",
|
|
292
|
+
"referral.rules.backfill.title": "Davet Kodunu Geriye Dönük Gir",
|
|
281
293
|
"referral.rules.description": "Referans ödül programı kurallarını öğrenin",
|
|
282
294
|
"referral.rules.expiry": "Kredi geçerliliği: Kullanıcının 100 gün boyunca etkin olmaması durumunda referans kredileri silinir",
|
|
295
|
+
"referral.rules.missedCode": "Davet kodunu kaçırdınız: Kayıttan sonraki 3 gün içinde <0>geriye dönük giriş</0> yapabilirsiniz",
|
|
283
296
|
"referral.rules.priority": "Kredi kullanım önceliği: Ücretsiz krediler → Abonelik kredileri → Referans kredileri → Yükleme kredileri",
|
|
284
297
|
"referral.rules.registration": "Kayıt yöntemi: Davet edilen kullanıcılar referans bağlantısı ile kayıt olur veya kayıt sayfasında referans kodunu girer",
|
|
285
298
|
"referral.rules.reward": "Ödül: Davet eden ve edilen kişi {{reward}}M kredi kazanır",
|
package/locales/vi-VN/auth.json
CHANGED
|
@@ -147,6 +147,7 @@
|
|
|
147
147
|
"loginGuide.f4": "Khám phá các plugin mạnh mẽ",
|
|
148
148
|
"loginGuide.title": "Sau khi đăng nhập, bạn có thể:",
|
|
149
149
|
"loginOrSignup": "Đăng nhập / Đăng ký",
|
|
150
|
+
"profile.account": "Tài khoản",
|
|
150
151
|
"profile.authorizations.actions.revoke": "Thu hồi",
|
|
151
152
|
"profile.authorizations.revoke.description": "Sau khi thu hồi, công cụ sẽ không còn quyền truy cập dữ liệu của bạn. Cần cấp quyền lại để sử dụng.",
|
|
152
153
|
"profile.authorizations.revoke.title": "Thu hồi quyền truy cập của {{name}}?",
|
|
@@ -154,6 +154,45 @@
|
|
|
154
154
|
"Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct là mô hình LLM 7B tham số hỗ trợ gọi hàm và tích hợp liền mạch với hệ thống bên ngoài, cải thiện đáng kể tính linh hoạt và khả năng mở rộng. Mô hình được tối ưu hóa cho các tình huống tiếng Trung và đa ngôn ngữ, hỗ trợ hỏi đáp thông minh và tạo nội dung.",
|
|
155
155
|
"Qwen2.5-Coder-14B-Instruct.description": "Qwen2.5-Coder-14B-Instruct là mô hình hướng dẫn lập trình quy mô lớn được huấn luyện trước với khả năng hiểu và tạo mã mạnh mẽ. Mô hình xử lý hiệu quả nhiều tác vụ lập trình, lý tưởng cho lập trình thông minh, tạo script tự động và hỏi đáp lập trình.",
|
|
156
156
|
"Qwen2.5-Coder-32B-Instruct.description": "LLM tiên tiến cho tạo mã, suy luận và sửa lỗi trên các ngôn ngữ lập trình chính.",
|
|
157
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 được tối ưu hóa cho lập luận nâng cao và tuân theo hướng dẫn, sử dụng MoE để duy trì hiệu quả suy luận ở quy mô lớn.",
|
|
158
|
+
"Qwen3-235B.description": "Qwen3-235B-A22B là một mô hình MoE giới thiệu chế độ suy luận lai, cho phép người dùng chuyển đổi mượt mà giữa trạng thái suy nghĩ và không suy nghĩ. Mô hình hỗ trợ hiểu và suy luận trên 119 ngôn ngữ và phương ngữ, có khả năng gọi công cụ mạnh mẽ, cạnh tranh với các mô hình phổ biến như DeepSeek R1, OpenAI o1, o3-mini, Grok 3 và Google Gemini 2.5 Pro trong các bài kiểm tra về năng lực tổng quát, lập trình và toán học, khả năng đa ngôn ngữ và suy luận kiến thức.",
|
|
159
|
+
"Qwen3-32B.description": "Qwen3-32B là một mô hình dense giới thiệu chế độ suy luận lai, cho phép người dùng chuyển đổi giữa trạng thái suy nghĩ và không suy nghĩ. Với cải tiến kiến trúc, dữ liệu phong phú hơn và huấn luyện tốt hơn, mô hình đạt hiệu suất tương đương với Qwen2.5-72B.",
|
|
160
|
+
"SenseChat-128K.description": "Phiên bản Base V4 với ngữ cảnh 128K, mạnh về hiểu và tạo văn bản dài.",
|
|
161
|
+
"SenseChat-32K.description": "Phiên bản Base V4 với ngữ cảnh 32K, linh hoạt cho nhiều tình huống sử dụng.",
|
|
162
|
+
"SenseChat-5-1202.description": "Phiên bản mới nhất dựa trên V5.5, cải thiện đáng kể về nền tảng tiếng Trung/Anh, trò chuyện, kiến thức STEM, nhân văn, viết lách, toán học/lôgic và kiểm soát độ dài.",
|
|
163
|
+
"SenseChat-5-Cantonese.description": "Thiết kế phù hợp với thói quen hội thoại, tiếng lóng và kiến thức địa phương của Hồng Kông; vượt GPT-4 về hiểu tiếng Quảng Đông và ngang tầm GPT-4 Turbo về kiến thức, suy luận, toán học và lập trình.",
|
|
164
|
+
"SenseChat-5-beta.description": "Một số hiệu suất vượt trội hơn SenseChat-5-1202.",
|
|
165
|
+
"SenseChat-5.description": "Phiên bản V5.5 mới nhất với ngữ cảnh 128K; cải thiện lớn về suy luận toán học, trò chuyện tiếng Anh, tuân theo hướng dẫn và hiểu văn bản dài, tương đương GPT-4o.",
|
|
166
|
+
"SenseChat-Character-Pro.description": "Mô hình trò chuyện nhân vật nâng cao với ngữ cảnh 32K, năng lực cải thiện và hỗ trợ tiếng Trung/Anh.",
|
|
167
|
+
"SenseChat-Character.description": "Mô hình trò chuyện nhân vật tiêu chuẩn với ngữ cảnh 8K và tốc độ phản hồi cao.",
|
|
168
|
+
"SenseChat-Turbo-1202.description": "Mô hình nhẹ mới nhất đạt hơn 90% năng lực của mô hình đầy đủ với chi phí suy luận thấp hơn đáng kể.",
|
|
169
|
+
"SenseChat-Turbo.description": "Phù hợp cho các tình huống hỏi đáp nhanh và tinh chỉnh mô hình.",
|
|
170
|
+
"SenseChat-Vision.description": "Phiên bản V5.5 mới nhất hỗ trợ đầu vào đa hình ảnh và cải tiến toàn diện về nhận diện thuộc tính, quan hệ không gian, phát hiện hành động/sự kiện, hiểu cảnh, nhận diện cảm xúc, suy luận thông thường và hiểu/tạo văn bản.",
|
|
171
|
+
"SenseChat.description": "Phiên bản Base V4 với ngữ cảnh 4K và năng lực tổng quát mạnh.",
|
|
172
|
+
"SenseNova-V6-5-Pro.description": "Với cập nhật toàn diện về dữ liệu đa phương thức, ngôn ngữ và suy luận cùng tối ưu hóa chiến lược huấn luyện, mô hình mới cải thiện đáng kể khả năng suy luận đa phương thức và tuân theo hướng dẫn tổng quát, hỗ trợ cửa sổ ngữ cảnh lên đến 128K và xuất sắc trong các tác vụ nhận diện OCR và IP du lịch văn hóa.",
|
|
173
|
+
"SenseNova-V6-5-Turbo.description": "Với cập nhật toàn diện về dữ liệu đa phương thức, ngôn ngữ và suy luận cùng tối ưu hóa chiến lược huấn luyện, mô hình mới cải thiện đáng kể khả năng suy luận đa phương thức và tuân theo hướng dẫn tổng quát, hỗ trợ cửa sổ ngữ cảnh lên đến 128K và xuất sắc trong các tác vụ nhận diện OCR và IP du lịch văn hóa.",
|
|
174
|
+
"SenseNova-V6-Pro.description": "Hợp nhất tự nhiên hình ảnh, văn bản và video, phá vỡ rào cản truyền thống của mô hình đa phương thức; đạt vị trí hàng đầu trên OpenCompass và SuperCLUE.",
|
|
175
|
+
"SenseNova-V6-Reasoner.description": "Kết hợp suy luận sâu giữa thị giác và ngôn ngữ, hỗ trợ tư duy chậm và chuỗi suy nghĩ đầy đủ.",
|
|
176
|
+
"SenseNova-V6-Turbo.description": "Hợp nhất tự nhiên hình ảnh, văn bản và video, phá vỡ rào cản truyền thống của mô hình đa phương thức. Dẫn đầu về năng lực cốt lõi đa phương thức và ngôn ngữ, xếp hạng hàng đầu trong nhiều đánh giá.",
|
|
177
|
+
"Skylark2-lite-8k.description": "Mô hình Skylark thế hệ thứ hai. Skylark2-lite phản hồi nhanh cho các tình huống thời gian thực, nhạy cảm về chi phí với yêu cầu độ chính xác thấp hơn, hỗ trợ ngữ cảnh 8K.",
|
|
178
|
+
"Skylark2-pro-32k.description": "Mô hình Skylark thế hệ thứ hai. Skylark2-pro cung cấp độ chính xác cao hơn cho các tác vụ tạo văn bản phức tạp như viết nội dung chuyên nghiệp, tiểu thuyết và dịch chất lượng cao, hỗ trợ ngữ cảnh 32K.",
|
|
179
|
+
"Skylark2-pro-4k.description": "Mô hình Skylark thế hệ thứ hai. Skylark2-pro cung cấp độ chính xác cao hơn cho các tác vụ tạo văn bản phức tạp như viết nội dung chuyên nghiệp, tiểu thuyết và dịch chất lượng cao, hỗ trợ ngữ cảnh 4K.",
|
|
180
|
+
"Skylark2-pro-character-4k.description": "Mô hình Skylark thế hệ thứ hai. Skylark2-pro-character xuất sắc trong nhập vai và trò chuyện, phù hợp với phong cách nhân vật riêng biệt và đối thoại tự nhiên cho chatbot, trợ lý ảo và dịch vụ khách hàng, phản hồi nhanh.",
|
|
181
|
+
"Skylark2-pro-turbo-8k.description": "Mô hình Skylark thế hệ thứ hai. Skylark2-pro-turbo-8k cung cấp suy luận nhanh hơn với chi phí thấp hơn, hỗ trợ ngữ cảnh 8K.",
|
|
182
|
+
"THUDM/GLM-4-32B-0414.description": "GLM-4-32B-0414 là mô hình GLM thế hệ tiếp theo mã nguồn mở với 32 tỷ tham số, hiệu suất tương đương OpenAI GPT và dòng DeepSeek V3/R1.",
|
|
183
|
+
"THUDM/GLM-4-9B-0414.description": "GLM-4-9B-0414 là mô hình GLM 9B kế thừa kỹ thuật từ GLM-4-32B nhưng triển khai nhẹ hơn. Mô hình hoạt động tốt trong tạo mã, thiết kế web, tạo SVG và viết dựa trên tìm kiếm.",
|
|
184
|
+
"THUDM/GLM-4.1V-9B-Thinking.description": "GLM-4.1V-9B-Thinking là mô hình VLM mã nguồn mở từ Zhipu AI và Tsinghua KEG Lab, thiết kế cho nhận thức đa phương thức phức tạp. Dựa trên GLM-4-9B-0414, mô hình bổ sung suy luận chuỗi tư duy và RL để cải thiện đáng kể suy luận xuyên phương thức và độ ổn định.",
|
|
185
|
+
"THUDM/GLM-Z1-32B-0414.description": "GLM-Z1-32B-0414 là mô hình suy luận sâu được xây dựng từ GLM-4-32B-0414 với dữ liệu khởi động lạnh và RL mở rộng, được huấn luyện thêm về toán học, mã và logic. Mô hình cải thiện đáng kể khả năng toán học và giải quyết nhiệm vụ phức tạp so với mô hình gốc.",
|
|
186
|
+
"THUDM/GLM-Z1-9B-0414.description": "GLM-Z1-9B-0414 là mô hình GLM nhỏ với 9 tỷ tham số, giữ vững thế mạnh mã nguồn mở và cung cấp năng lực ấn tượng. Mô hình hoạt động mạnh về suy luận toán học và các tác vụ tổng quát, dẫn đầu phân khúc kích thước của mình trong số các mô hình mở.",
|
|
187
|
+
"THUDM/GLM-Z1-Rumination-32B-0414.description": "GLM-Z1-Rumination-32B-0414 là mô hình suy luận sâu với khả năng nghiền ngẫm (được đánh giá so với OpenAI Deep Research). Khác với các mô hình suy nghĩ sâu thông thường, mô hình dành nhiều thời gian hơn để giải quyết các vấn đề mở và phức tạp.",
|
|
188
|
+
"THUDM/glm-4-9b-chat.description": "GLM-4-9B-Chat là mô hình GLM-4 mã nguồn mở từ Zhipu AI. Mô hình hoạt động mạnh về ngữ nghĩa, toán học, suy luận, mã và kiến thức. Ngoài trò chuyện nhiều lượt, mô hình còn hỗ trợ duyệt web, thực thi mã, gọi công cụ tùy chỉnh và suy luận văn bản dài. Hỗ trợ 26 ngôn ngữ (bao gồm tiếng Trung, Anh, Nhật, Hàn, Đức). Mô hình đạt kết quả tốt trên AlignBench-v2, MT-Bench, MMLU và C-Eval, hỗ trợ ngữ cảnh lên đến 128K cho mục đích học thuật và kinh doanh.",
|
|
189
|
+
"Tongyi-Zhiwen/QwenLong-L1-32B.description": "QwenLong-L1-32B là mô hình suy luận ngữ cảnh dài đầu tiên (LRM) được huấn luyện với RL, tối ưu hóa cho suy luận văn bản dài. RL mở rộng ngữ cảnh dần dần giúp chuyển đổi ổn định từ ngữ cảnh ngắn sang dài. Mô hình vượt OpenAI-o3-mini và Qwen3-235B-A22B trên bảy bài kiểm tra QA tài liệu ngữ cảnh dài, ngang tầm Claude-3.7-Sonnet-Thinking. Đặc biệt mạnh về toán học, logic và suy luận nhiều bước.",
|
|
190
|
+
"Yi-34B-Chat.description": "Yi-1.5-34B giữ vững năng lực ngôn ngữ tổng quát mạnh mẽ của dòng Yi, đồng thời sử dụng huấn luyện gia tăng trên 500 tỷ token chất lượng cao để cải thiện đáng kể logic toán học và lập trình.",
|
|
191
|
+
"abab5.5-chat.description": "Thiết kế cho các tình huống năng suất với khả năng xử lý tác vụ phức tạp và tạo văn bản hiệu quả cho mục đích chuyên nghiệp.",
|
|
192
|
+
"abab5.5s-chat.description": "Thiết kế cho trò chuyện nhân vật tiếng Trung, mang lại đối thoại tiếng Trung chất lượng cao cho nhiều ứng dụng.",
|
|
193
|
+
"abab6.5g-chat.description": "Thiết kế cho trò chuyện nhân vật đa ngôn ngữ, hỗ trợ tạo đối thoại chất lượng cao bằng tiếng Anh và các ngôn ngữ khác.",
|
|
194
|
+
"abab6.5s-chat.description": "Phù hợp với nhiều tác vụ NLP, bao gồm tạo văn bản và hệ thống đối thoại.",
|
|
195
|
+
"abab6.5t-chat.description": "Tối ưu hóa cho trò chuyện nhân vật tiếng Trung, cung cấp đối thoại trôi chảy phù hợp với thói quen biểu đạt tiếng Trung.",
|
|
157
196
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 là một mô hình ngôn ngữ mở dành cho nhà phát triển, nhà nghiên cứu và doanh nghiệp, được thiết kế để hỗ trợ xây dựng, thử nghiệm và mở rộng các ý tưởng AI sinh ngữ một cách có trách nhiệm. Là một phần trong nền tảng đổi mới cộng đồng toàn cầu, mô hình này phù hợp với môi trường có tài nguyên hạn chế, thiết bị biên và yêu cầu thời gian huấn luyện nhanh hơn.",
|
|
158
197
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Khả năng suy luận hình ảnh mạnh mẽ trên ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu thị giác.",
|
|
159
198
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Khả năng suy luận hình ảnh tiên tiến dành cho các ứng dụng tác tử hiểu thị giác.",
|
|
@@ -215,6 +215,7 @@
|
|
|
215
215
|
"settingAgent.name.placeholder": "Nhập tên tác nhân",
|
|
216
216
|
"settingAgent.name.title": "Tên",
|
|
217
217
|
"settingAgent.prompt.placeholder": "Nhập thiết lập tác nhân, nhấn / để mở menu lệnh",
|
|
218
|
+
"settingAgent.prompt.templatePlaceholder": "#### Mục tiêu\nMô tả mục đích chính và mục tiêu của tác nhân này.\n\n#### Kỹ năng\n- Liệt kê các năng lực chính\n- Và các lĩnh vực kiến thức chuyên môn\n\n#### Quy trình làm việc\n1. Quy trình từng bước\n2. Cách tác nhân nên tiếp cận các nhiệm vụ\n3. Tương tác mong đợi với người dùng\n\n#### Hạn chế\n- Những giới hạn quan trọng cần tuân thủ\n- Nguyên tắc hành vi",
|
|
218
219
|
"settingAgent.prompt.title": "Hồ sơ tác nhân",
|
|
219
220
|
"settingAgent.submit": "Cập nhật tác nhân",
|
|
220
221
|
"settingAgent.tag.desc": "Thẻ tác nhân sẽ hiển thị trong Cộng đồng Tác nhân",
|
|
@@ -271,15 +271,28 @@
|
|
|
271
271
|
"referral.edit.hint": "Hỗ trợ 2-8 ký tự chữ, số hoặc gạch dưới",
|
|
272
272
|
"referral.edit.placeholder": "Nhập mã giới thiệu",
|
|
273
273
|
"referral.edit.save": "Lưu",
|
|
274
|
+
"referral.errors.alreadyBound": "Bạn đã liên kết mã mời rồi",
|
|
275
|
+
"referral.errors.backfillExpired": "Thời gian bổ sung đã hết hạn. Không thể bổ sung sau 3 ngày kể từ khi đăng ký",
|
|
274
276
|
"referral.errors.codeExists": "Mã giới thiệu này đã được sử dụng, vui lòng chọn mã khác",
|
|
277
|
+
"referral.errors.invalidCode": "Mã mời không tồn tại, vui lòng kiểm tra và thử lại",
|
|
275
278
|
"referral.errors.invalidFormat": "Định dạng mã giới thiệu không hợp lệ, vui lòng nhập 2-8 ký tự chữ, số hoặc gạch dưới",
|
|
279
|
+
"referral.errors.selfReferral": "Bạn không thể sử dụng mã mời của chính mình",
|
|
276
280
|
"referral.errors.updateFailed": "Cập nhật thất bại, vui lòng thử lại sau",
|
|
277
281
|
"referral.inviteCode.description": "Chia sẻ mã giới thiệu độc quyền của bạn để mời bạn bè đăng ký",
|
|
278
282
|
"referral.inviteCode.title": "Mã giới thiệu của tôi",
|
|
279
283
|
"referral.inviteLink.description": "Sao chép liên kết và chia sẻ với bạn bè. Hoàn tất đăng ký để nhận thưởng",
|
|
280
284
|
"referral.inviteLink.title": "Liên kết giới thiệu",
|
|
285
|
+
"referral.rules.backfill.alreadyBound": "Bạn đã liên kết mã mời rồi",
|
|
286
|
+
"referral.rules.backfill.description": "Quên nhập mã mời? Bạn có thể bổ sung trong vòng 3 ngày kể từ khi đăng ký",
|
|
287
|
+
"referral.rules.backfill.expiredTip": "Thời gian bổ sung đã hết hạn. Không thể bổ sung sau 3 ngày kể từ khi đăng ký",
|
|
288
|
+
"referral.rules.backfill.link": "Bổ sung mã mời",
|
|
289
|
+
"referral.rules.backfill.placeholder": "Nhập mã mời",
|
|
290
|
+
"referral.rules.backfill.submit": "Xác nhận liên kết",
|
|
291
|
+
"referral.rules.backfill.success": "Liên kết mã mời thành công",
|
|
292
|
+
"referral.rules.backfill.title": "Bổ sung mã mời",
|
|
281
293
|
"referral.rules.description": "Tìm hiểu quy tắc chương trình giới thiệu",
|
|
282
294
|
"referral.rules.expiry": "Hiệu lực tín dụng: Tín dụng giới thiệu sẽ bị xóa sau 100 ngày không hoạt động",
|
|
295
|
+
"referral.rules.missedCode": "Bỏ lỡ mã mời: Bạn có thể <0>bổ sung</0> trong vòng 3 ngày kể từ khi đăng ký",
|
|
283
296
|
"referral.rules.priority": "Thứ tự sử dụng tín dụng: Miễn phí → Đăng ký → Giới thiệu → Nạp thêm",
|
|
284
297
|
"referral.rules.registration": "Cách đăng ký: Người được mời đăng ký qua liên kết giới thiệu hoặc nhập mã giới thiệu trên trang đăng ký",
|
|
285
298
|
"referral.rules.reward": "Phần thưởng: Người giới thiệu và người được mời mỗi người nhận {{reward}}M tín dụng",
|
package/locales/zh-CN/auth.json
CHANGED
|
@@ -147,6 +147,7 @@
|
|
|
147
147
|
"loginGuide.f4": "探索强大的插件功能",
|
|
148
148
|
"loginGuide.title": "登录后,您可以:",
|
|
149
149
|
"loginOrSignup": "登录 / 注册",
|
|
150
|
+
"profile.account": "账户",
|
|
150
151
|
"profile.authorizations.actions.revoke": "取消授权",
|
|
151
152
|
"profile.authorizations.revoke.description": "取消后,该工具将无法继续访问你的数据;需要使用时可再重新授权。",
|
|
152
153
|
"profile.authorizations.revoke.title": "取消授权「{{name}}」?",
|
|
@@ -247,6 +247,55 @@
|
|
|
247
247
|
"anthropic/claude-opus-4.description": "Opus 4 是 Anthropic 的旗舰模型,专为复杂任务和企业应用设计。",
|
|
248
248
|
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 是 Anthropic 最新的混合推理模型,专为复杂推理和编程优化。",
|
|
249
249
|
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 是 Anthropic 的混合推理模型,具备思考与非思考能力的结合。",
|
|
250
|
+
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B 是一款稀疏大语言模型,拥有 720 亿总参数和 160 亿激活参数,基于分组专家混合(MoGE)架构。该模型在专家选择时进行分组,并限制每组激活相同数量的专家,从而实现负载均衡并提升在昇腾平台上的部署效率。",
|
|
251
|
+
"aya.description": "Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,适用于多样化的应用场景。",
|
|
252
|
+
"aya:35b.description": "Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,适用于多样化的应用场景。",
|
|
253
|
+
"azure-DeepSeek-R1-0528.description": "由微软部署的 DeepSeek R1 已升级为 DeepSeek-R1-0528。此次更新增强了计算能力和后训练算法优化,显著提升了推理深度和推理能力,在数学、编程和通用逻辑基准测试中表现优异,接近 O3 和 Gemini 2.5 Pro 等领先模型。",
|
|
254
|
+
"baichuan-m2-32b.description": "Baichuan M2 32B 是百川智能推出的 MoE 模型,具备强大的推理能力。",
|
|
255
|
+
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B 是百川推出的开源、可商用的 130 亿参数大语言模型,在权威中英文基准测试中取得同类模型中的最佳表现。",
|
|
256
|
+
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B 是百度推出的 MoE 大语言模型,拥有 3000 亿总参数和每个 token 激活 470 亿参数,兼顾强大性能与计算效率。作为 ERNIE 4.5 的核心模型,在理解、生成、推理和编程方面表现出色。采用多模态异构 MoE 预训练方法,结合文本与视觉联合训练,显著提升了指令跟随能力和世界知识。",
|
|
257
|
+
"baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 思维预览版是百度下一代原生多模态 ERNIE 模型,擅长多模态理解、指令跟随、创作、事实问答和工具调用。",
|
|
258
|
+
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro 是一款速度更快、质量更高的图像生成模型,具备卓越的图像质量和提示响应能力。",
|
|
259
|
+
"black-forest-labs/flux-dev.description": "FLUX Dev 是 FLUX 的开发版本,仅供非商业用途使用。",
|
|
260
|
+
"black-forest-labs/flux-pro.description": "FLUX Pro 是专业级图像生成模型,输出高质量图像。",
|
|
261
|
+
"black-forest-labs/flux-schnell.description": "FLUX Schnell 是一款专为速度优化的快速图像生成模型。",
|
|
262
|
+
"c4ai-aya-expanse-32b.description": "Aya Expanse 是一款高性能的 320 亿参数多语言模型,结合指令微调、数据套利、偏好训练和模型融合,性能媲美单语模型,支持 23 种语言。",
|
|
263
|
+
"c4ai-aya-expanse-8b.description": "Aya Expanse 是一款高性能的 80 亿参数多语言模型,结合指令微调、数据套利、偏好训练和模型融合,性能媲美单语模型,支持 23 种语言。",
|
|
264
|
+
"c4ai-aya-vision-32b.description": "Aya Vision 是一款先进的多模态模型,在语言、文本和视觉基准测试中表现出色。该 320 亿参数版本专注于顶级多语言性能,支持 23 种语言。",
|
|
265
|
+
"c4ai-aya-vision-8b.description": "Aya Vision 是一款先进的多模态模型,在语言、文本和视觉基准测试中表现出色。该 80 亿参数版本专注于低延迟和强大性能。",
|
|
266
|
+
"charglm-3.description": "CharGLM-3 专为角色扮演和情感陪伴设计,支持超长多轮记忆和个性化对话。",
|
|
267
|
+
"charglm-4.description": "CharGLM-4 专为角色扮演和情感陪伴设计,支持超长多轮记忆和个性化对话。",
|
|
268
|
+
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育和技术支持等大规模应用场景。",
|
|
269
|
+
"claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
|
|
270
|
+
"claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
|
|
271
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的最快下一代模型。相比 Claude 3 Haiku,在各项能力上均有提升,并在多个智能基准测试中超越此前的旗舰 Claude 3 Opus。",
|
|
272
|
+
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速响应,适用于轻量级任务。",
|
|
273
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最智能的模型,也是市场上首个混合推理模型。它既能提供近乎即时的响应,也能进行可视化的逐步推理,尤其擅长编程、数据科学、视觉和智能体任务。",
|
|
274
|
+
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
275
|
+
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
|
|
276
|
+
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
277
|
+
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
|
|
278
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快、最智能的 Haiku 模型,具备闪电般的速度和扩展推理能力。",
|
|
279
|
+
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
|
|
280
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
281
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
282
|
+
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
|
|
283
|
+
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
|
|
284
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 可生成近乎即时的响应或可视化的逐步推理过程。",
|
|
285
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
|
|
286
|
+
"codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。",
|
|
287
|
+
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。",
|
|
288
|
+
"codegemma.description": "CodeGemma 是一款轻量级模型,适用于多种编程任务,支持快速迭代与集成。",
|
|
289
|
+
"codegemma:2b.description": "CodeGemma 是一款轻量级模型,适用于多种编程任务,支持快速迭代与集成。",
|
|
290
|
+
"codellama.description": "Code Llama 是一款专注于代码生成与讨论的大语言模型,支持多种编程语言,适用于开发者工作流。",
|
|
291
|
+
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama 是一款专注于代码生成与讨论的大语言模型,支持多种编程语言,适用于开发者工作流。",
|
|
292
|
+
"codellama:13b.description": "Code Llama 是一款专注于代码生成与讨论的大语言模型,支持多种编程语言,适用于开发者工作流。",
|
|
293
|
+
"codellama:34b.description": "Code Llama 是一款专注于代码生成与讨论的大语言模型,支持多种编程语言,适用于开发者工作流。",
|
|
294
|
+
"codellama:70b.description": "Code Llama 是一款专注于代码生成与讨论的大语言模型,支持多种编程语言,适用于开发者工作流。",
|
|
295
|
+
"codeqwen.description": "CodeQwen1.5 是一款在大规模代码数据上训练的大语言模型,专为复杂编程任务设计。",
|
|
296
|
+
"codestral-latest.description": "Codestral 是我们最先进的代码模型;v2(2025年1月)专为低延迟、高频任务(如 FIM、代码修复和测试生成)而设计。",
|
|
297
|
+
"codestral.description": "Codestral 是 Mistral AI 推出的首个代码模型,具备强大的代码生成能力。",
|
|
298
|
+
"codex-mini-latest.description": "codex-mini-latest 是为 Codex CLI 微调的 o4-mini 模型。若需直接通过 API 使用,建议从 gpt-4.1 开始。",
|
|
250
299
|
"gemini-flash-latest.description": "Latest release of Gemini Flash",
|
|
251
300
|
"gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite",
|
|
252
301
|
"gemini-pro-latest.description": "Latest release of Gemini Pro",
|
|
@@ -215,7 +215,7 @@
|
|
|
215
215
|
"settingAgent.name.placeholder": "请输入助理名称",
|
|
216
216
|
"settingAgent.name.title": "名称",
|
|
217
217
|
"settingAgent.prompt.placeholder": "输入助理设定,按 / 打开命令菜单",
|
|
218
|
-
"settingAgent.prompt.templatePlaceholder": "#### 目标\n
|
|
218
|
+
"settingAgent.prompt.templatePlaceholder": "#### 目标\n描述该智能体的主要用途和目标。\n\n#### 技能\n- 列出关键能力\n- 以及专业知识领域\n\n#### 工作流程\n1. 分步骤的执行流程\n2. 智能体应如何处理任务\n3. 与用户的预期互动方式\n\n#### 限制条件\n- 需要遵守的重要限制\n- 行为准则",
|
|
219
219
|
"settingAgent.prompt.title": "助理设定",
|
|
220
220
|
"settingAgent.submit": "更新助理信息",
|
|
221
221
|
"settingAgent.tag.desc": "助理标签将在助理社区中展示",
|