@lobehub/chat 1.87.5 → 1.87.6

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (45) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/models.json +23 -8
  4. package/locales/ar/plugin.json +15 -0
  5. package/locales/bg-BG/models.json +23 -8
  6. package/locales/bg-BG/plugin.json +15 -0
  7. package/locales/de-DE/models.json +23 -8
  8. package/locales/de-DE/plugin.json +15 -0
  9. package/locales/en-US/models.json +23 -8
  10. package/locales/en-US/plugin.json +15 -0
  11. package/locales/es-ES/models.json +23 -8
  12. package/locales/es-ES/plugin.json +15 -0
  13. package/locales/fa-IR/models.json +23 -8
  14. package/locales/fa-IR/plugin.json +15 -0
  15. package/locales/fr-FR/models.json +23 -8
  16. package/locales/fr-FR/plugin.json +15 -0
  17. package/locales/it-IT/models.json +23 -8
  18. package/locales/it-IT/plugin.json +15 -0
  19. package/locales/ja-JP/models.json +23 -8
  20. package/locales/ja-JP/plugin.json +15 -0
  21. package/locales/ko-KR/models.json +23 -8
  22. package/locales/ko-KR/plugin.json +15 -0
  23. package/locales/nl-NL/models.json +23 -8
  24. package/locales/nl-NL/plugin.json +15 -0
  25. package/locales/pl-PL/models.json +23 -8
  26. package/locales/pl-PL/plugin.json +15 -0
  27. package/locales/pt-BR/models.json +23 -8
  28. package/locales/pt-BR/plugin.json +15 -0
  29. package/locales/ru-RU/models.json +23 -8
  30. package/locales/ru-RU/plugin.json +15 -0
  31. package/locales/tr-TR/models.json +23 -8
  32. package/locales/tr-TR/plugin.json +15 -0
  33. package/locales/vi-VN/models.json +23 -8
  34. package/locales/vi-VN/plugin.json +15 -0
  35. package/locales/zh-CN/models.json +23 -8
  36. package/locales/zh-CN/plugin.json +15 -0
  37. package/locales/zh-TW/models.json +23 -8
  38. package/locales/zh-TW/plugin.json +15 -0
  39. package/package.json +1 -1
  40. package/src/features/Conversation/Messages/Assistant/Tool/Inspector/BuiltinPluginTitle.tsx +59 -0
  41. package/src/features/Conversation/Messages/Assistant/Tool/Inspector/ToolTitle.tsx +33 -7
  42. package/src/locales/default/plugin.ts +15 -0
  43. package/src/tools/local-system/Render/ListFiles/Result.tsx +1 -1
  44. package/src/tools/local-system/systemRole.ts +1 -1
  45. package/src/utils/fetch/fetchSSE.ts +2 -1
@@ -74,6 +74,9 @@
74
74
  "Doubao-1.5-thinking-pro-m": {
75
75
  "description": "Doubao-1.5 is een nieuw diep denkmodel (de m-versie heeft ingebouwde multimodale diep redeneringscapaciteiten), dat uitblinkt in wiskunde, programmeren, wetenschappelijke redenering en creatieve schrijfopdrachten, en in verschillende autoritaire benchmarks zoals AIME 2024, Codeforces, GPQA, het niveau van de top van de industrie bereikt of benadert. Ondersteunt een contextvenster van 128k en 16k output."
76
76
  },
77
+ "Doubao-1.5-thinking-vision-pro": {
78
+ "description": "Een nieuw visueel diepdenkend model, met sterkere algemene multimodale begrip- en redeneringscapaciteiten, dat SOTA-prestaties behaalt op 37 van de 59 openbare evaluatiestandaarden."
79
+ },
77
80
  "Doubao-1.5-vision-pro": {
78
81
  "description": "Doubao-1.5-vision-pro is een nieuw geüpgradede multimodale groot model, dat ondersteuning biedt voor beeldherkenning met willekeurige resoluties en extreme beeldverhoudingen, en de visuele redenering, documentherkenning, begrip van gedetailleerde informatie en het volgen van instructies verbetert."
79
82
  },
@@ -338,6 +341,9 @@
338
341
  "Qwen2.5-Coder-32B-Instruct": {
339
342
  "description": "Qwen2.5-Coder-32B-Instruct is een groot taalmodel dat speciaal is ontworpen voor codegeneratie, codebegrip en efficiënte ontwikkelingsscenario's, met een toonaangevende parameteromvang van 32B, dat kan voldoen aan diverse programmeerbehoeften."
340
343
  },
344
+ "SenseCat-5-1202": {
345
+ "description": "De nieuwste versie gebaseerd op V5.5, met significante verbeteringen ten opzichte van de vorige versie in basisvaardigheden in het Chinees en Engels, chatten, exacte wetenschappen, geesteswetenschappen, schrijven, wiskundige logica, en woordtelling."
346
+ },
341
347
  "SenseChat": {
342
348
  "description": "Basisversie van het model (V4), met een contextlengte van 4K, heeft sterke algemene capaciteiten."
343
349
  },
@@ -350,12 +356,12 @@
350
356
  "SenseChat-5": {
351
357
  "description": "De nieuwste versie van het model (V5.5), met een contextlengte van 128K, heeft aanzienlijke verbeteringen in wiskundig redeneren, Engelse conversatie, instructievolging en begrip van lange teksten, en kan zich meten met GPT-4o."
352
358
  },
353
- "SenseChat-5-1202": {
354
- "description": "Dit is de nieuwste versie gebaseerd op V5.5, met significante verbeteringen in basisvaardigheden in het Chinees en Engels, chatten, exacte wetenschappen, geesteswetenschappen, schrijven, wiskundige logica en woordtelling in vergelijking met de vorige versie."
355
- },
356
359
  "SenseChat-5-Cantonese": {
357
360
  "description": "Met een contextlengte van 32K overtreft het de conversatiebegrip in het Kantonees van GPT-4 en kan het zich in verschillende domeinen zoals kennis, redeneren, wiskunde en coderen meten met GPT-4 Turbo."
358
361
  },
362
+ "SenseChat-5-beta": {
363
+ "description": "Presteert in sommige opzichten beter dan SenseCat-5-1202"
364
+ },
359
365
  "SenseChat-Character": {
360
366
  "description": "Standaardversie van het model, met een contextlengte van 8K, hoge responsnelheid."
361
367
  },
@@ -1010,8 +1016,8 @@
1010
1016
  "gemini-2.0-flash-lite-001": {
1011
1017
  "description": "Gemini 2.0 Flash is een modelvariant die is geoptimaliseerd voor kosteneffectiviteit en lage latentie."
1012
1018
  },
1013
- "gemini-2.0-flash-thinking-exp-01-21": {
1014
- "description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met next-gen functies, uitstekende snelheid, native tool-aanroepen en multimodale generatie."
1019
+ "gemini-2.0-flash-preview-image-generation": {
1020
+ "description": "Gemini 2.0 Flash previewmodel, ondersteunt beeldgeneratie"
1015
1021
  },
1016
1022
  "gemini-2.5-flash-preview-04-17": {
1017
1023
  "description": "Gemini 2.5 Flash Preview is het meest kosteneffectieve model van Google, dat uitgebreide functionaliteit biedt."
@@ -1349,15 +1355,18 @@
1349
1355
  "internlm/internlm2_5-7b-chat": {
1350
1356
  "description": "InternLM2.5 biedt intelligente gespreksoplossingen voor meerdere scenario's."
1351
1357
  },
1352
- "internlm2-pro-chat": {
1353
- "description": "Onze oudere modelversie die we nog steeds onderhouden, met opties voor 7B en 20B parameters."
1354
- },
1355
1358
  "internlm2.5-latest": {
1356
1359
  "description": "Onze nieuwste modelreeks met uitstekende redeneervaardigheden, ondersteunt een contextlengte van 1M en heeft verbeterde instructievolging en toolaanroepmogelijkheden."
1357
1360
  },
1358
1361
  "internlm3-latest": {
1359
1362
  "description": "Onze nieuwste modelreeks heeft uitstekende inferentieprestaties en leidt de open-source modellen in dezelfde klasse. Standaard gericht op ons recentste InternLM3 model."
1360
1363
  },
1364
+ "internvl2.5-latest": {
1365
+ "description": "De InternVL2.5 versie die we nog steeds onderhouden, biedt uitstekende en stabiele prestaties. Standaard gericht op ons recentste InternVL2.5-seriemodel, momenteel gericht op internvl2.5-78b."
1366
+ },
1367
+ "internvl3-latest": {
1368
+ "description": "Ons nieuwste multimodale grote model, met verbeterde beeld- en tekstbegripcapaciteiten en lange termijn beeldbegrip, presteert op het niveau van toonaangevende gesloten modellen. Standaard gericht op ons recentste InternVL-seriemodel, momenteel gericht op internvl3-78b."
1369
+ },
1361
1370
  "jamba-large": {
1362
1371
  "description": "Ons krachtigste en meest geavanceerde model, speciaal ontworpen voor het verwerken van complexe taken op bedrijfsniveau, met uitstekende prestaties."
1363
1372
  },
@@ -1373,6 +1382,9 @@
1373
1382
  "learnlm-1.5-pro-experimental": {
1374
1383
  "description": "LearnLM is een experimenteel, taak-specifiek taalmodel dat is getraind volgens de principes van de leerwetenschap, en kan systeeminstructies volgen in onderwijs- en leeromgevingen, en fungeert als een expertmentor."
1375
1384
  },
1385
+ "learnlm-2.0-flash-experimental": {
1386
+ "description": "LearnLM is een experimenteel, taakgericht taalmodel, getraind om te voldoen aan de principes van leerwetenschap, kan systeeminstructies volgen in onderwijs- en leerscenario's, en fungeert als een expertmentor."
1387
+ },
1376
1388
  "lite": {
1377
1389
  "description": "Spark Lite is een lichtgewicht groot taalmodel met extreem lage latentie en efficiënte verwerkingscapaciteit. Het is volledig gratis en open, en ondersteunt realtime online zoekfunctionaliteit. De snelle respons maakt het uitermate geschikt voor inferentie op apparaten met lage rekenkracht en modelafstemming, wat gebruikers uitstekende kosteneffectiviteit en een slimme ervaring biedt, vooral in kennisvragen, contentgeneratie en zoekscenario's."
1378
1390
  },
@@ -2162,6 +2174,9 @@
2162
2174
  "wizardlm2:8x22b": {
2163
2175
  "description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe gesprekken, meertaligheid, inferentie en intelligente assistentie."
2164
2176
  },
2177
+ "x1": {
2178
+ "description": "Het Spark X1-model zal verder worden geüpgraded, met verbeterde prestaties in redenering, tekstgeneratie en taalbegrip, ter vergelijking met OpenAI o1 en DeepSeek R1."
2179
+ },
2165
2180
  "yi-1.5-34b-chat": {
2166
2181
  "description": "Yi-1.5 is een geüpgradeerde versie van Yi. Het wordt voortdurend voorgetraind met een hoge-kwaliteitscorpus van 500B tokens op basis van Yi, en fijn afgesteld op 3M diverse fijnafstemmingssamples."
2167
2182
  },
@@ -219,8 +219,23 @@
219
219
  "content": "Plugin wordt geladen...",
220
220
  "plugin": "Plugin wordt uitgevoerd..."
221
221
  },
222
+ "localSystem": {
223
+ "apiName": {
224
+ "listLocalFiles": "Bestandlijst weergeven",
225
+ "moveLocalFiles": "Bestanden verplaatsen",
226
+ "readLocalFile": "Bestand inhoud lezen",
227
+ "renameLocalFile": "Hernoemen",
228
+ "searchLocalFiles": "Bestanden zoeken",
229
+ "writeLocalFile": "Bestand schrijven"
230
+ },
231
+ "title": "Lokale bestanden"
232
+ },
222
233
  "pluginList": "Lijst met plugins",
223
234
  "search": {
235
+ "apiName": {
236
+ "crawlSinglePage": "Pagina-inhoud lezen",
237
+ "search": "Pagina zoeken"
238
+ },
224
239
  "config": {
225
240
  "addKey": "Voeg sleutel toe",
226
241
  "close": "Verwijderen",
@@ -74,6 +74,9 @@
74
74
  "Doubao-1.5-thinking-pro-m": {
75
75
  "description": "Doubao-1.5 to nowy model głębokiego myślenia (wersja m z wbudowaną natywną zdolnością do wielomodalnego wnioskowania), który wyróżnia się w dziedzinach takich jak matematyka, programowanie, wnioskowanie naukowe oraz twórcze pisanie, osiągając poziom bliski pierwszej ligi w wielu uznawanych benchmarkach, takich jak AIME 2024, Codeforces, GPQA. Wspiera okno kontekstowe 128k oraz 16k wyjścia."
76
76
  },
77
+ "Doubao-1.5-thinking-vision-pro": {
78
+ "description": "Nowy model głębokiego myślenia wizualnego, który ma silniejsze ogólne zdolności rozumienia multimodalnego i rozumowania, osiągając wyniki SOTA w 37 z 59 publicznych benchmarków."
79
+ },
77
80
  "Doubao-1.5-vision-pro": {
78
81
  "description": "Doubao-1.5-vision-pro to nowo zaktualizowany model multimodalny, który obsługuje rozpoznawanie obrazów o dowolnej rozdzielczości i ekstremalnych proporcjach, wzmacniając zdolności wnioskowania wizualnego, rozpoznawania dokumentów, rozumienia szczegółowych informacji i przestrzegania instrukcji."
79
82
  },
@@ -338,6 +341,9 @@
338
341
  "Qwen2.5-Coder-32B-Instruct": {
339
342
  "description": "Qwen2.5-Coder-32B-Instruct to duży model językowy zaprojektowany specjalnie do generowania kodu, rozumienia kodu i efektywnych scenariuszy rozwoju, wykorzystujący wiodącą w branży skalę 32B parametrów, zdolny do zaspokojenia różnorodnych potrzeb programistycznych."
340
343
  },
344
+ "SenseCat-5-1202": {
345
+ "description": "Jest to najnowsza wersja oparta na V5.5, która w porównaniu do poprzedniej wersji wykazuje znaczną poprawę w kilku wymiarach, takich jak podstawowe umiejętności w języku chińskim i angielskim, czat, wiedza ścisła, wiedza humanistyczna, pisanie, logika matematyczna oraz kontrola liczby słów."
346
+ },
341
347
  "SenseChat": {
342
348
  "description": "Podstawowa wersja modelu (V4), długość kontekstu 4K, silne zdolności ogólne."
343
349
  },
@@ -350,12 +356,12 @@
350
356
  "SenseChat-5": {
351
357
  "description": "Najnowsza wersja modelu (V5.5), długość kontekstu 128K, znacznie poprawione zdolności w zakresie rozumowania matematycznego, rozmów w języku angielskim, podążania za instrukcjami oraz rozumienia długich tekstów, dorównująca GPT-4o."
352
358
  },
353
- "SenseChat-5-1202": {
354
- "description": "Jest to najnowsza wersja oparta na V5.5, która w porównaniu do poprzedniej wersji wykazuje znaczną poprawę w podstawowych umiejętnościach językowych w chińskim i angielskim, czatach, wiedzy ścisłej, wiedzy humanistycznej, pisaniu, logice matematycznej oraz kontroli liczby słów."
355
- },
356
359
  "SenseChat-5-Cantonese": {
357
360
  "description": "Długość kontekstu 32K, w rozumieniu rozmów w języku kantońskim przewyższa GPT-4, w wielu dziedzinach, takich jak wiedza, rozumowanie, matematyka i programowanie, dorównuje GPT-4 Turbo."
358
361
  },
362
+ "SenseChat-5-beta": {
363
+ "description": "Częściowo lepsza wydajność niż SenseCat-5-1202"
364
+ },
359
365
  "SenseChat-Character": {
360
366
  "description": "Standardowa wersja modelu, długość kontekstu 8K, wysoka szybkość reakcji."
361
367
  },
@@ -1010,8 +1016,8 @@
1010
1016
  "gemini-2.0-flash-lite-001": {
1011
1017
  "description": "Gemini 2.0 Flash to wariant modelu, zoptymalizowany pod kątem efektywności kosztowej i niskiego opóźnienia."
1012
1018
  },
1013
- "gemini-2.0-flash-thinking-exp-01-21": {
1014
- "description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI multimodalnego Google, posiadający cechy nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generację multimodalną."
1019
+ "gemini-2.0-flash-preview-image-generation": {
1020
+ "description": "Model Gemini 2.0 Flash do generowania obrazów, wspierający generację obrazów"
1015
1021
  },
1016
1022
  "gemini-2.5-flash-preview-04-17": {
1017
1023
  "description": "Gemini 2.5 Flash Preview to najbardziej opłacalny model Google, oferujący wszechstronne funkcje."
@@ -1349,15 +1355,18 @@
1349
1355
  "internlm/internlm2_5-7b-chat": {
1350
1356
  "description": "InternLM2.5 oferuje inteligentne rozwiązania dialogowe w różnych scenariuszach."
1351
1357
  },
1352
- "internlm2-pro-chat": {
1353
- "description": "Starsza wersja modelu, którą nadal utrzymujemy, dostępna w różnych wariantach parametrów: 7B i 20B."
1354
- },
1355
1358
  "internlm2.5-latest": {
1356
1359
  "description": "Nasza najnowsza seria modeli, charakteryzująca się doskonałymi osiągami wnioskowania, obsługująca długość kontekstu do 1M oraz lepsze możliwości śledzenia instrukcji i wywoływania narzędzi."
1357
1360
  },
1358
1361
  "internlm3-latest": {
1359
1362
  "description": "Nasza najnowsza seria modeli, charakteryzująca się doskonałą wydajnością wnioskowania, prowadzi wśród modeli open-source o podobnej skali. Domyślnie wskazuje na naszą najnowszą wersję modelu InternLM3."
1360
1363
  },
1364
+ "internvl2.5-latest": {
1365
+ "description": "Wersja InternVL2.5, którą nadal utrzymujemy, charakteryzuje się doskonałą i stabilną wydajnością. Domyślnie wskazuje na nasz najnowszy model z serii InternVL2.5, obecnie wskazuje na internvl2.5-78b."
1366
+ },
1367
+ "internvl3-latest": {
1368
+ "description": "Nasz najnowszy model multimodalny, który ma silniejsze zdolności rozumienia tekstu i obrazów oraz długoterminowego rozumienia obrazów, osiągający wyniki porównywalne z najlepszymi modelami zamkniętymi. Domyślnie wskazuje na nasz najnowszy model z serii InternVL, obecnie wskazuje na internvl3-78b."
1369
+ },
1361
1370
  "jamba-large": {
1362
1371
  "description": "Nasz najsilniejszy i najbardziej zaawansowany model, zaprojektowany do obsługi złożonych zadań na poziomie przedsiębiorstw, oferujący doskonałą wydajność."
1363
1372
  },
@@ -1373,6 +1382,9 @@
1373
1382
  "learnlm-1.5-pro-experimental": {
1374
1383
  "description": "LearnLM to eksperymentalny model językowy, specyficzny dla zadań, przeszkolony zgodnie z zasadami nauki o uczeniu się, który może przestrzegać systemowych instrukcji w scenariuszach nauczania i uczenia się, pełniąc rolę eksperta mentora."
1375
1384
  },
1385
+ "learnlm-2.0-flash-experimental": {
1386
+ "description": "LearnLM to eksperymentalny model językowy, specyficzny dla zadań, przeszkolony zgodnie z zasadami nauki o uczeniu się, który może przestrzegać systemowych instrukcji w scenariuszach nauczania i uczenia się, pełniąc rolę eksperta mentora."
1387
+ },
1376
1388
  "lite": {
1377
1389
  "description": "Spark Lite to lekki model językowy o dużej skali, charakteryzujący się niezwykle niskim opóźnieniem i wysoką wydajnością przetwarzania, całkowicie darmowy i otwarty, wspierający funkcje wyszukiwania w czasie rzeczywistym. Jego cechy szybkiej reakcji sprawiają, że doskonale sprawdza się w zastosowaniach inferencyjnych na urządzeniach o niskiej mocy obliczeniowej oraz w dostosowywaniu modeli, oferując użytkownikom znakomity stosunek kosztów do korzyści oraz inteligentne doświadczenie, szczególnie w kontekście pytań i odpowiedzi, generowania treści oraz wyszukiwania."
1378
1390
  },
@@ -2162,6 +2174,9 @@
2162
2174
  "wizardlm2:8x22b": {
2163
2175
  "description": "WizardLM 2 to model językowy dostarczany przez Microsoft AI, który wyróżnia się w złożonych dialogach, wielojęzyczności, wnioskowaniu i inteligentnych asystentach."
2164
2176
  },
2177
+ "x1": {
2178
+ "description": "Model Spark X1 zostanie dalej ulepszony, osiągając wyniki w zadaniach ogólnych, takich jak rozumowanie, generowanie tekstu i rozumienie języka, które będą porównywalne z OpenAI o1 i DeepSeek R1."
2179
+ },
2165
2180
  "yi-1.5-34b-chat": {
2166
2181
  "description": "Yi-1.5 to ulepszona wersja Yi. Używa ona wysokiej jakości korpusu danych o rozmiarze 500B tokenów do dalszego wstępnego treningu Yi, a także do dopasowywania na 3M różnorodnych próbkach dopasowujących."
2167
2182
  },
@@ -219,8 +219,23 @@
219
219
  "content": "Wywoływanie wtyczki...",
220
220
  "plugin": "Wtyczka jest uruchomiona..."
221
221
  },
222
+ "localSystem": {
223
+ "apiName": {
224
+ "listLocalFiles": "Wyświetl listę plików",
225
+ "moveLocalFiles": "Przenieś pliki",
226
+ "readLocalFile": "Odczytaj zawartość pliku",
227
+ "renameLocalFile": "Zmień nazwę",
228
+ "searchLocalFiles": "Szukaj plików",
229
+ "writeLocalFile": "Zapisz plik"
230
+ },
231
+ "title": "Pliki lokalne"
232
+ },
222
233
  "pluginList": "Lista wtyczek",
223
234
  "search": {
235
+ "apiName": {
236
+ "crawlSinglePage": "Odczytaj zawartość strony",
237
+ "search": "Szukaj strony"
238
+ },
224
239
  "config": {
225
240
  "addKey": "Dodaj klucz",
226
241
  "close": "Usuń",
@@ -74,6 +74,9 @@
74
74
  "Doubao-1.5-thinking-pro-m": {
75
75
  "description": "O Doubao-1.5 é um novo modelo de pensamento profundo (a versão m possui capacidade nativa de raciocínio multimodal), destacando-se em áreas profissionais como matemática, programação, raciocínio científico e tarefas gerais como escrita criativa, alcançando ou se aproximando do nível de elite em várias referências de prestígio como AIME 2024, Codeforces, GPQA."
76
76
  },
77
+ "Doubao-1.5-thinking-vision-pro": {
78
+ "description": "Modelo de pensamento profundo visual totalmente novo, com habilidades aprimoradas de compreensão e raciocínio multimodal geral, alcançando desempenho SOTA em 37 dos 59 benchmarks públicos."
79
+ },
77
80
  "Doubao-1.5-vision-pro": {
78
81
  "description": "Doubao-1.5-vision-pro é um modelo multimodal atualizado, suportando reconhecimento de imagens de qualquer resolução e proporções extremas, melhorando a capacidade de raciocínio visual, reconhecimento de documentos, compreensão de informações detalhadas e seguimento de instruções."
79
82
  },
@@ -338,6 +341,9 @@
338
341
  "Qwen2.5-Coder-32B-Instruct": {
339
342
  "description": "Qwen2.5-Coder-32B-Instruct é um grande modelo de linguagem projetado para geração de código, compreensão de código e cenários de desenvolvimento eficiente, com uma escala de 32 bilhões de parâmetros, atendendo a diversas necessidades de programação."
340
343
  },
344
+ "SenseCat-5-1202": {
345
+ "description": "Baseado na versão V5.5, a versão mais recente apresenta melhorias significativas em várias dimensões, incluindo habilidades básicas em chinês e inglês, conversação, conhecimento em ciências exatas, conhecimento em ciências humanas, redação, lógica matemática e controle de contagem de palavras."
346
+ },
341
347
  "SenseChat": {
342
348
  "description": "Modelo da versão básica (V4), com comprimento de contexto de 4K, com capacidades gerais poderosas."
343
349
  },
@@ -350,12 +356,12 @@
350
356
  "SenseChat-5": {
351
357
  "description": "Modelo da versão mais recente (V5.5), com comprimento de contexto de 128K, com capacidades significativamente aprimoradas em raciocínio matemático, diálogos em inglês, seguimento de instruções e compreensão de textos longos, rivalizando com o GPT-4o."
352
358
  },
353
- "SenseChat-5-1202": {
354
- "description": "É a versão mais recente baseada no V5.5, com melhorias significativas em várias dimensões, como habilidades básicas em chinês e inglês, conversação, conhecimento em ciências exatas, conhecimento em ciências humanas, redação, lógica matemática e controle de contagem de palavras em comparação com a versão anterior."
355
- },
356
359
  "SenseChat-5-Cantonese": {
357
360
  "description": "Comprimento de contexto de 32K, superando o GPT-4 na compreensão de diálogos em cantonês, competindo com o GPT-4 Turbo em várias áreas, incluindo conhecimento, raciocínio, matemática e programação."
358
361
  },
362
+ "SenseChat-5-beta": {
363
+ "description": "Desempenho superior em alguns aspectos em relação ao SenseCat-5-1202"
364
+ },
359
365
  "SenseChat-Character": {
360
366
  "description": "Modelo padrão, com comprimento de contexto de 8K, alta velocidade de resposta."
361
367
  },
@@ -1010,8 +1016,8 @@
1010
1016
  "gemini-2.0-flash-lite-001": {
1011
1017
  "description": "Variante do modelo Gemini 2.0 Flash, otimizada para custo-benefício e baixa latência."
1012
1018
  },
1013
- "gemini-2.0-flash-thinking-exp-01-21": {
1014
- "description": "O Gemini 2.0 Flash Exp é o mais recente modelo experimental de IA multimodal do Google, com características de próxima geração, velocidade excepcional, chamadas nativas de ferramentas e geração multimodal."
1019
+ "gemini-2.0-flash-preview-image-generation": {
1020
+ "description": "Modelo de pré-visualização Gemini 2.0 Flash, suporta geração de imagens"
1015
1021
  },
1016
1022
  "gemini-2.5-flash-preview-04-17": {
1017
1023
  "description": "O Gemini 2.5 Flash Preview é o modelo mais acessível do Google, oferecendo uma gama completa de funcionalidades."
@@ -1349,15 +1355,18 @@
1349
1355
  "internlm/internlm2_5-7b-chat": {
1350
1356
  "description": "InternLM2.5 oferece soluções de diálogo inteligente em múltiplos cenários."
1351
1357
  },
1352
- "internlm2-pro-chat": {
1353
- "description": "Modelo mais antigo que ainda estamos mantendo, disponível em opções de 7B e 20B de parâmetros."
1354
- },
1355
1358
  "internlm2.5-latest": {
1356
1359
  "description": "Nossa mais recente série de modelos, com desempenho de raciocínio excepcional, suportando um comprimento de contexto de 1M e capacidades aprimoradas de seguimento de instruções e chamadas de ferramentas."
1357
1360
  },
1358
1361
  "internlm3-latest": {
1359
1362
  "description": "Nossa mais recente série de modelos, com desempenho de inferência excepcional, liderando entre modelos de código aberto de mesma escala. Aponta por padrão para nossa mais recente série de modelos InternLM3."
1360
1363
  },
1364
+ "internvl2.5-latest": {
1365
+ "description": "Versão InternVL2.5 que ainda estamos mantendo, com desempenho excelente e estável. Aponta por padrão para nossa mais recente série de modelos InternVL2.5, atualmente direcionando para internvl2.5-78b."
1366
+ },
1367
+ "internvl3-latest": {
1368
+ "description": "Lançamos nosso mais recente modelo multimodal, com habilidades aprimoradas de compreensão de texto e imagem, e capacidade de entender imagens em longas sequências, com desempenho comparável aos melhores modelos fechados. Aponta por padrão para nossa mais recente série de modelos InternVL, atualmente direcionando para internvl3-78b."
1369
+ },
1361
1370
  "jamba-large": {
1362
1371
  "description": "Nosso modelo mais poderoso e avançado, projetado para lidar com tarefas complexas em nível empresarial, com desempenho excepcional."
1363
1372
  },
@@ -1373,6 +1382,9 @@
1373
1382
  "learnlm-1.5-pro-experimental": {
1374
1383
  "description": "LearnLM é um modelo de linguagem experimental e específico para tarefas, treinado para atender aos princípios da ciência da aprendizagem, podendo seguir instruções sistemáticas em cenários de ensino e aprendizagem, atuando como um mentor especialista, entre outros."
1375
1384
  },
1385
+ "learnlm-2.0-flash-experimental": {
1386
+ "description": "LearnLM é um modelo de linguagem experimental, específico para tarefas, treinado para atender aos princípios da ciência da aprendizagem, capaz de seguir instruções sistemáticas em cenários de ensino e aprendizagem, atuando como um mentor especialista, entre outros."
1387
+ },
1376
1388
  "lite": {
1377
1389
  "description": "Spark Lite é um modelo de linguagem grande leve, com latência extremamente baixa e alta eficiência de processamento, totalmente gratuito e aberto, suportando funcionalidades de busca online em tempo real. Sua característica de resposta rápida o torna excelente para aplicações de inferência em dispositivos de baixo poder computacional e ajuste fino de modelos, proporcionando aos usuários uma excelente relação custo-benefício e experiência inteligente, especialmente em cenários de perguntas e respostas, geração de conteúdo e busca."
1378
1390
  },
@@ -2162,6 +2174,9 @@
2162
2174
  "wizardlm2:8x22b": {
2163
2175
  "description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, destacando-se em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes."
2164
2176
  },
2177
+ "x1": {
2178
+ "description": "O modelo Spark X1 será aprimorado ainda mais, mantendo a liderança em tarefas matemáticas no país, e alcançando resultados em tarefas gerais como raciocínio, geração de texto e compreensão de linguagem que se comparam ao OpenAI o1 e DeepSeek R1."
2179
+ },
2165
2180
  "yi-1.5-34b-chat": {
2166
2181
  "description": "Yi-1.5 é uma versão aprimorada do Yi. Ele usa um corpus de alta qualidade com 500B tokens para continuar o pré-treinamento do Yi e é refinado com 3M amostras de ajuste fino diversificadas."
2167
2182
  },
@@ -219,8 +219,23 @@
219
219
  "content": "Carregando o plugin...",
220
220
  "plugin": "Executando o plugin..."
221
221
  },
222
+ "localSystem": {
223
+ "apiName": {
224
+ "listLocalFiles": "Ver lista de arquivos",
225
+ "moveLocalFiles": "Mover arquivos",
226
+ "readLocalFile": "Ler conteúdo do arquivo",
227
+ "renameLocalFile": "Renomear",
228
+ "searchLocalFiles": "Pesquisar arquivos",
229
+ "writeLocalFile": "Escrever no arquivo"
230
+ },
231
+ "title": "Arquivos Locais"
232
+ },
222
233
  "pluginList": "Lista de Plugins",
223
234
  "search": {
235
+ "apiName": {
236
+ "crawlSinglePage": "Ler conteúdo da página",
237
+ "search": "Pesquisar página"
238
+ },
224
239
  "config": {
225
240
  "addKey": "Adicionar chave",
226
241
  "close": "Remover",
@@ -74,6 +74,9 @@
74
74
  "Doubao-1.5-thinking-pro-m": {
75
75
  "description": "Doubao-1.5 — это новая модель глубокого размышления (версия m с встроенной многомодальной способностью глубокого рассуждения), которая демонстрирует выдающиеся результаты в профессиональных областях, таких как математика, программирование, научное рассуждение, а также в общих задачах, таких как креативное письмо, достигая или приближаясь к уровню первой группы в нескольких авторитетных бенчмарках, таких как AIME 2024, Codeforces, GPQA. Поддерживает контекстное окно 128k и вывод 16k."
76
76
  },
77
+ "Doubao-1.5-thinking-vision-pro": {
78
+ "description": "Совершенно новая модель глубокого визуального мышления, обладающая более сильными универсальными многомодальными способностями к пониманию и рассуждению, достигшая SOTA результатов в 37 из 59 открытых оценочных стандартов."
79
+ },
77
80
  "Doubao-1.5-vision-pro": {
78
81
  "description": "Doubao-1.5-vision-pro — это новая усовершенствованная мультимодальная модель, поддерживающая распознавание изображений с любым разрешением и экстремальным соотношением сторон, улучшая способности к визуальному выводу, распознаванию документов, пониманию детальной информации и соблюдению инструкций."
79
82
  },
@@ -338,6 +341,9 @@
338
341
  "Qwen2.5-Coder-32B-Instruct": {
339
342
  "description": "Qwen2.5-Coder-32B-Instruct — это крупная языковая модель, специально разработанная для генерации кода, понимания кода и эффективных сценариев разработки, с передовым масштабом параметров 32B, способная удовлетворить разнообразные потребности программирования."
340
343
  },
344
+ "SenseCat-5-1202": {
345
+ "description": "Это последняя версия на основе V5.5, которая значительно улучшила свои способности в нескольких аспектах по сравнению с предыдущей версией, включая базовые навыки на китайском и английском языках, общение, знания в области естественных наук, гуманитарных наук, написание, математическую логику и контроль количества слов."
346
+ },
341
347
  "SenseChat": {
342
348
  "description": "Базовая версия модели (V4), длина контекста 4K, обладает мощными универсальными возможностями."
343
349
  },
@@ -350,12 +356,12 @@
350
356
  "SenseChat-5": {
351
357
  "description": "Последняя версия модели (V5.5), длина контекста 128K, значительно улучшенные способности в математическом рассуждении, английских диалогах, следовании инструкциям и понимании длинных текстов, сопоставимые с GPT-4o."
352
358
  },
353
- "SenseChat-5-1202": {
354
- "description": "Это последняя версия на основе V5.5, которая значительно улучшила свои базовые способности в китайском и английском языках, общении, научных знаниях, гуманитарных знаниях, написании, математической логике и контроле количества слов по сравнению с предыдущей версией."
355
- },
356
359
  "SenseChat-5-Cantonese": {
357
360
  "description": "Длина контекста 32K, превосходит GPT-4 в понимании диалогов на кантонском, сопоставим с GPT-4 Turbo в таких областях, как знания, рассуждение, математика и написание кода."
358
361
  },
362
+ "SenseChat-5-beta": {
363
+ "description": "Частично превосходит производительность SenseCat-5-1202"
364
+ },
359
365
  "SenseChat-Character": {
360
366
  "description": "Стандартная версия модели, длина контекста 8K, высокая скорость отклика."
361
367
  },
@@ -1010,8 +1016,8 @@
1010
1016
  "gemini-2.0-flash-lite-001": {
1011
1017
  "description": "Модельный вариант Gemini 2.0 Flash, оптимизированный для достижения таких целей, как экономическая эффективность и низкая задержка."
1012
1018
  },
1013
- "gemini-2.0-flash-thinking-exp-01-21": {
1014
- "description": "Gemini 2.0 Flash Exp — это последняя экспериментальная многомодальная AI модель от Google, обладающая следующими поколениями характеристик, выдающейся скоростью, нативным вызовом инструментов и многомодальной генерацией."
1019
+ "gemini-2.0-flash-preview-image-generation": {
1020
+ "description": "Модель предварительного просмотра Gemini 2.0 Flash, поддерживающая генерацию изображений"
1015
1021
  },
1016
1022
  "gemini-2.5-flash-preview-04-17": {
1017
1023
  "description": "Gemini 2.5 Flash Preview — это наиболее выгодная модель от Google, предлагающая широкий спектр возможностей."
@@ -1349,15 +1355,18 @@
1349
1355
  "internlm/internlm2_5-7b-chat": {
1350
1356
  "description": "InternLM2.5 предлагает интеллектуальные решения для диалогов в различных сценариях."
1351
1357
  },
1352
- "internlm2-pro-chat": {
1353
- "description": "Старая версия модели, которую мы все еще поддерживаем, доступная с параметрами 7B и 20B."
1354
- },
1355
1358
  "internlm2.5-latest": {
1356
1359
  "description": "Наша последняя серия моделей с выдающимися показателями вывода, поддерживающая длину контекста до 1M и обладающая улучшенными возможностями следования инструкциям и вызова инструментов."
1357
1360
  },
1358
1361
  "internlm3-latest": {
1359
1362
  "description": "Наша последняя серия моделей с выдающейся производительностью вывода, лидирующая среди моделей открытого кода того же уровня. По умолчанию указывает на нашу последнюю выпущенную серию моделей InternLM3."
1360
1363
  },
1364
+ "internvl2.5-latest": {
1365
+ "description": "Мы продолжаем поддерживать версию InternVL2.5, обладающую отличной и стабильной производительностью. По умолчанию указывает на нашу последнюю выпущенную серию моделей InternVL2.5, в настоящее время указывает на internvl2.5-78b."
1366
+ },
1367
+ "internvl3-latest": {
1368
+ "description": "Мы выпустили нашу последнюю многомодальную большую модель, обладающую более сильными способностями к пониманию текстов и изображений, а также к пониманию длинных последовательностей изображений, производительность которой сопоставима с ведущими закрытыми моделями. По умолчанию указывает на нашу последнюю выпущенную серию моделей InternVL, в настоящее время указывает на internvl3-78b."
1369
+ },
1361
1370
  "jamba-large": {
1362
1371
  "description": "Наша самая мощная и передовая модель, разработанная для решения сложных задач корпоративного уровня, обладающая выдающейся производительностью."
1363
1372
  },
@@ -1373,6 +1382,9 @@
1373
1382
  "learnlm-1.5-pro-experimental": {
1374
1383
  "description": "LearnLM — это экспериментальная языковая модель, ориентированная на конкретные задачи, обученная в соответствии с принципами науки о обучении, которая может следовать системным инструкциям в учебных и образовательных сценариях, выступая в роли эксперта-наставника и т.д."
1375
1384
  },
1385
+ "learnlm-2.0-flash-experimental": {
1386
+ "description": "LearnLM — это экспериментальная языковая модель, ориентированная на конкретные задачи, обученная в соответствии с принципами науки о обучении, способная следовать системным инструкциям в учебных и образовательных сценариях, выступая в роли эксперта-наставника и т.д."
1387
+ },
1376
1388
  "lite": {
1377
1389
  "description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функции онлайн-поиска в реальном времени. Ее быстрая реакция делает ее отличным выбором для применения в устройствах с низкой вычислительной мощностью и для тонкой настройки моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в сценариях вопросов и ответов, генерации контента и поиска."
1378
1390
  },
@@ -2162,6 +2174,9 @@
2162
2174
  "wizardlm2:8x22b": {
2163
2175
  "description": "WizardLM 2 — это языковая модель, предоставляемая Microsoft AI, которая особенно хорошо проявляет себя в сложных диалогах, многоязычных задачах, выводе и интеллектуальных помощниках."
2164
2176
  },
2177
+ "x1": {
2178
+ "description": "Модель Spark X1 будет дополнительно обновлена, и на основе уже существующих лидерских позиций в математических задачах, достигнет сопоставимых результатов в общих задачах, таких как рассуждение, генерация текста и понимание языка, с OpenAI o1 и DeepSeek R1."
2179
+ },
2165
2180
  "yi-1.5-34b-chat": {
2166
2181
  "description": "Yi-1.5 — это обновленная версия Yi. Она использует 500B токенов высококачественного корпуса данных для продолжения предварительной тренировки на основе Yi и微调在3M个多样化的微调样本上。"
2167
2182
  },
@@ -219,8 +219,23 @@
219
219
  "content": "Загрузка плагина...",
220
220
  "plugin": "Запуск плагина..."
221
221
  },
222
+ "localSystem": {
223
+ "apiName": {
224
+ "listLocalFiles": "Просмотреть список файлов",
225
+ "moveLocalFiles": "Переместить файл",
226
+ "readLocalFile": "Читать содержимое файла",
227
+ "renameLocalFile": "Переименовать",
228
+ "searchLocalFiles": "Поиск файлов",
229
+ "writeLocalFile": "Записать файл"
230
+ },
231
+ "title": "Локальные файлы"
232
+ },
222
233
  "pluginList": "Список плагинов",
223
234
  "search": {
235
+ "apiName": {
236
+ "crawlSinglePage": "Читать содержимое страницы",
237
+ "search": "Поиск страницы"
238
+ },
224
239
  "config": {
225
240
  "addKey": "Добавить ключ",
226
241
  "close": "Удалить",
@@ -74,6 +74,9 @@
74
74
  "Doubao-1.5-thinking-pro-m": {
75
75
  "description": "Doubao-1.5, yeni derin düşünme modeli (m versiyonu yerel çok modlu derin akıl yürütme yeteneği ile birlikte gelir) ve matematik, programlama, bilimsel akıl yürütme gibi uzmanlık alanlarında ve yaratıcı yazım gibi genel görevlerde mükemmel performans sergilemektedir. AIME 2024, Codeforces, GPQA gibi birçok otoriter benchmarkta endüstri birinciliğine ulaşmakta veya yaklaşmaktadır. 128k bağlam penceresi ve 16k çıktı destekler."
76
76
  },
77
+ "Doubao-1.5-thinking-vision-pro": {
78
+ "description": "Tamamen yeni bir görsel derin düşünme modeli, daha güçlü genel çok modlu anlama ve akıl yürütme yeteneğine sahiptir; 59 kamu değerlendirme ölçütünden 37'sinde SOTA performansı elde etmiştir."
79
+ },
77
80
  "Doubao-1.5-vision-pro": {
78
81
  "description": "Doubao-1.5-vision-pro, yeni güncellenmiş çok modlu büyük modeldir, herhangi bir çözünürlük ve aşırı en-boy oranı görüntü tanıma desteği sunar, görsel çıkarım, belge tanıma, detay bilgisi anlama ve talimat takibi yeteneklerini artırır."
79
82
  },
@@ -338,6 +341,9 @@
338
341
  "Qwen2.5-Coder-32B-Instruct": {
339
342
  "description": "Qwen2.5-Coder-32B-Instruct, kod üretimi, kod anlama ve verimli geliştirme senaryoları için tasarlanmış büyük bir dil modelidir. Sektördeki en ileri 32B parametre ölçeğini kullanarak çeşitli programlama ihtiyaçlarını karşılayabilir."
340
343
  },
344
+ "SenseCat-5-1202": {
345
+ "description": "V5.5 tabanlı en son sürüm olup, önceki sürüme göre Çince ve İngilizce temel yetenekler, sohbet, fen bilgisi, sosyal bilimler, yazma, matematiksel mantık, kelime sayısı kontrolü gibi birkaç boyutta önemli iyileştirmeler göstermektedir."
346
+ },
341
347
  "SenseChat": {
342
348
  "description": "Temel sürüm model (V4), 4K bağlam uzunluğu ile genel yetenekleri güçlüdür."
343
349
  },
@@ -350,12 +356,12 @@
350
356
  "SenseChat-5": {
351
357
  "description": "En son sürüm model (V5.5), 128K bağlam uzunluğu, matematiksel akıl yürütme, İngilizce diyalog, talimat takibi ve uzun metin anlama gibi alanlarda önemli gelişmeler göstermektedir ve GPT-4o ile karşılaştırılabilir."
352
358
  },
353
- "SenseChat-5-1202": {
354
- "description": "V5.5 tabanlı en son versiyondur, önceki versiyona göre Çince ve İngilizce temel yetenekleri, sohbet, fen bilgisi, sosyal bilimler bilgisi, yazım, matematiksel mantık, kelime sayısı kontrolü gibi birkaç boyutta önemli bir gelişim göstermiştir."
355
- },
356
359
  "SenseChat-5-Cantonese": {
357
360
  "description": "32K bağlam uzunluğu ile, Kantonca diyalog anlama konusunda GPT-4'ü aşmakta, bilgi, akıl yürütme, matematik ve kod yazma gibi birçok alanda GPT-4 Turbo ile rekabet edebilmektedir."
358
361
  },
362
+ "SenseChat-5-beta": {
363
+ "description": "Bazı performansları SenseCat-5-1202'den daha iyidir."
364
+ },
359
365
  "SenseChat-Character": {
360
366
  "description": "Standart sürüm model, 8K bağlam uzunluğu ile yüksek yanıt hızı sunmaktadır."
361
367
  },
@@ -1010,8 +1016,8 @@
1010
1016
  "gemini-2.0-flash-lite-001": {
1011
1017
  "description": "Gemini 2.0 Flash model varyantı, maliyet etkinliği ve düşük gecikme gibi hedefler için optimize edilmiştir."
1012
1018
  },
1013
- "gemini-2.0-flash-thinking-exp-01-21": {
1014
- "description": "Gemini 2.0 Flash Exp, Google'ın en son deneysel çok modlu AI modelidir, bir sonraki nesil özelliklere, olağanüstü hıza, yerel araç çağrısına ve çok modlu üretime sahiptir."
1019
+ "gemini-2.0-flash-preview-image-generation": {
1020
+ "description": "Gemini 2.0 Flash önizleme modeli, görüntü üretimini destekler."
1015
1021
  },
1016
1022
  "gemini-2.5-flash-preview-04-17": {
1017
1023
  "description": "Gemini 2.5 Flash Önizleme, Google'ın en iyi fiyat-performans oranına sahip modelidir ve kapsamlı özellikler sunar."
@@ -1349,15 +1355,18 @@
1349
1355
  "internlm/internlm2_5-7b-chat": {
1350
1356
  "description": "InternLM2.5, çoklu senaryolarda akıllı diyalog çözümleri sunar."
1351
1357
  },
1352
- "internlm2-pro-chat": {
1353
- "description": "Hala bakımını yaptığımız eski sürüm model, 7B ve 20B gibi çeşitli model parametreleri sunmaktadır."
1354
- },
1355
1358
  "internlm2.5-latest": {
1356
1359
  "description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir, 1M bağlam uzunluğunu destekler ve daha güçlü talimat takibi ve araç çağırma yetenekleri sunar."
1357
1360
  },
1358
1361
  "internlm3-latest": {
1359
1362
  "description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir ve aynı ölçekli açık kaynak modeller arasında liderdir. Varsayılan olarak en son yayımlanan InternLM3 serisi modellerine işaret eder."
1360
1363
  },
1364
+ "internvl2.5-latest": {
1365
+ "description": "Hala bakımını yaptığımız InternVL2.5 sürümü, mükemmel ve istikrarlı bir performansa sahiptir. Varsayılan olarak en son yayımladığımız InternVL2.5 serisi modele işaret eder, şu anda internvl2.5-78b'ye işaret ediyor."
1366
+ },
1367
+ "internvl3-latest": {
1368
+ "description": "En son yayımladığımız çok modlu büyük model, daha güçlü metin-görüntü anlama yeteneği ve uzun süreli görüntü anlama yeteneğine sahiptir; performansı en iyi kapalı kaynak modellerle karşılaştırılabilir. Varsayılan olarak en son yayımladığımız InternVL serisi modele işaret eder, şu anda internvl3-78b'ye işaret ediyor."
1369
+ },
1361
1370
  "jamba-large": {
1362
1371
  "description": "En güçlü ve en gelişmiş modelimiz, kurumsal düzeyde karmaşık görevleri işlemek için tasarlanmıştır ve olağanüstü performans sunar."
1363
1372
  },
@@ -1373,6 +1382,9 @@
1373
1382
  "learnlm-1.5-pro-experimental": {
1374
1383
  "description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir. Eğitim ve öğrenim senaryolarında sistem talimatlarını takip edebilir ve uzman bir mentor olarak görev alabilir."
1375
1384
  },
1385
+ "learnlm-2.0-flash-experimental": {
1386
+ "description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir; öğretim ve öğrenim senaryolarında sistem talimatlarını takip edebilir, uzman bir mentor gibi davranabilir."
1387
+ },
1376
1388
  "lite": {
1377
1389
  "description": "Spark Lite, son derece düşük gecikme süresi ve yüksek verimlilikle çalışan hafif bir büyük dil modelidir. Tamamen ücretsiz ve açık olup, gerçek zamanlı çevrimiçi arama işlevini desteklemektedir. Hızlı yanıt verme özelliği, düşük hesaplama gücüne sahip cihazlarda çıkarım uygulamaları ve model ince ayarlarında mükemmel performans sergileyerek, kullanıcılara maliyet etkinliği ve akıllı deneyim sunmakta, özellikle bilgi sorgulama, içerik oluşturma ve arama senaryolarında başarılı olmaktadır."
1378
1390
  },
@@ -2162,6 +2174,9 @@
2162
2174
  "wizardlm2:8x22b": {
2163
2175
  "description": "WizardLM 2, Microsoft AI tarafından sunulan bir dil modelidir, karmaşık diyaloglar, çok dilli, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
2164
2176
  },
2177
+ "x1": {
2178
+ "description": "Spark X1 modeli daha da geliştirilecek; önceki matematik görevlerinde ulusal liderlik temelinde, akıl yürütme, metin üretimi, dil anlama gibi genel görevlerde OpenAI o1 ve DeepSeek R1 ile karşılaştırılabilir sonuçlar elde edilecektir."
2179
+ },
2165
2180
  "yi-1.5-34b-chat": {
2166
2181
  "description": "Yi-1.5, Yi'nin geliştirilmiş sürümüdür. Yüksek kaliteli 500B token'lı veri kümesi üzerinde devam eden ön eğitimi ve 3M çeşitlendirilmiş ince ayar örneği üzerinde ince ayarını içerir."
2167
2182
  },
@@ -219,8 +219,22 @@
219
219
  "content": "Eklenti çağrılıyor...",
220
220
  "plugin": "Eklenti çalışıyor..."
221
221
  },
222
+ "localSystem": {
223
+ "apiName": {
224
+ "listLocalFiles": "Dosya listesini görüntüle",
225
+ "moveLocalFiles": "Dosyaları taşı",
226
+ "readLocalFile": "Dosya içeriğini oku",
227
+ "renameLocalFile": "Yeniden adlandır",
228
+ "searchLocalFiles": "Dosyaları ara",
229
+ "writeLocalFile": "Dosyaya yaz"
230
+ }
231
+ },
222
232
  "pluginList": "Eklenti Listesi",
223
233
  "search": {
234
+ "apiName": {
235
+ "crawlSinglePage": "Sayfa içeriğini oku",
236
+ "search": "Sayfayı ara"
237
+ },
224
238
  "config": {
225
239
  "addKey": "Anahtar Ekle",
226
240
  "close": "Sil",
@@ -280,6 +294,7 @@
280
294
  },
281
295
  "title": "Eklenti Mağazası"
282
296
  },
297
+ "title": "Yerel Dosyalar",
283
298
  "unknownError": "Bilinmeyen hata",
284
299
  "unknownPlugin": "Bilinmeyen eklenti"
285
300
  }