@lobehub/chat 1.87.5 → 1.87.7

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (46) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/models.json +23 -8
  4. package/locales/ar/plugin.json +15 -0
  5. package/locales/bg-BG/models.json +23 -8
  6. package/locales/bg-BG/plugin.json +15 -0
  7. package/locales/de-DE/models.json +23 -8
  8. package/locales/de-DE/plugin.json +15 -0
  9. package/locales/en-US/models.json +23 -8
  10. package/locales/en-US/plugin.json +15 -0
  11. package/locales/es-ES/models.json +23 -8
  12. package/locales/es-ES/plugin.json +15 -0
  13. package/locales/fa-IR/models.json +23 -8
  14. package/locales/fa-IR/plugin.json +15 -0
  15. package/locales/fr-FR/models.json +23 -8
  16. package/locales/fr-FR/plugin.json +15 -0
  17. package/locales/it-IT/models.json +23 -8
  18. package/locales/it-IT/plugin.json +15 -0
  19. package/locales/ja-JP/models.json +23 -8
  20. package/locales/ja-JP/plugin.json +15 -0
  21. package/locales/ko-KR/models.json +23 -8
  22. package/locales/ko-KR/plugin.json +15 -0
  23. package/locales/nl-NL/models.json +23 -8
  24. package/locales/nl-NL/plugin.json +15 -0
  25. package/locales/pl-PL/models.json +23 -8
  26. package/locales/pl-PL/plugin.json +15 -0
  27. package/locales/pt-BR/models.json +23 -8
  28. package/locales/pt-BR/plugin.json +15 -0
  29. package/locales/ru-RU/models.json +23 -8
  30. package/locales/ru-RU/plugin.json +15 -0
  31. package/locales/tr-TR/models.json +23 -8
  32. package/locales/tr-TR/plugin.json +15 -0
  33. package/locales/vi-VN/models.json +23 -8
  34. package/locales/vi-VN/plugin.json +15 -0
  35. package/locales/zh-CN/models.json +23 -8
  36. package/locales/zh-CN/plugin.json +15 -0
  37. package/locales/zh-TW/models.json +23 -8
  38. package/locales/zh-TW/plugin.json +15 -0
  39. package/package.json +2 -2
  40. package/src/app/[variants]/(main)/settings/provider/features/CreateNewProvider/index.tsx +1 -1
  41. package/src/features/Conversation/Messages/Assistant/Tool/Inspector/BuiltinPluginTitle.tsx +59 -0
  42. package/src/features/Conversation/Messages/Assistant/Tool/Inspector/ToolTitle.tsx +33 -7
  43. package/src/locales/default/plugin.ts +15 -0
  44. package/src/tools/local-system/Render/ListFiles/Result.tsx +1 -1
  45. package/src/tools/local-system/systemRole.ts +1 -1
  46. package/src/utils/fetch/fetchSSE.ts +2 -1
@@ -74,6 +74,9 @@
74
74
  "Doubao-1.5-thinking-pro-m": {
75
75
  "description": "Doubao-1.5는 새로운 깊은 사고 모델(m 버전은 원래 다중 모달 깊은 추론 능력을 갖추고 있음)로, 수학, 프로그래밍, 과학 추론 등 전문 분야 및 창의적 작문 등 일반 작업에서 뛰어난 성능을 보이며, AIME 2024, Codeforces, GPQA 등 여러 권위 있는 벤치마크에서 업계 1위 수준에 도달하거나 근접했습니다. 128k 맥락 창 및 16k 출력을 지원합니다."
76
76
  },
77
+ "Doubao-1.5-thinking-vision-pro": {
78
+ "description": "새로운 비주얼 심층 사고 모델로, 더 강력한 일반 다중 모달 이해 및 추론 능력을 갖추고 있으며, 59개의 공개 평가 기준 중 37개에서 SOTA 성과를 달성했습니다."
79
+ },
77
80
  "Doubao-1.5-vision-pro": {
78
81
  "description": "Doubao-1.5-vision-pro는 새롭게 업그레이드된 다중 모드 대모델로, 임의의 해상도와 극단적인 가로 세로 비율의 이미지 인식을 지원하며, 시각적 추론, 문서 인식, 세부 정보 이해 및 지시 준수 능력을 강화합니다."
79
82
  },
@@ -338,6 +341,9 @@
338
341
  "Qwen2.5-Coder-32B-Instruct": {
339
342
  "description": "Qwen2.5-Coder-32B-Instruct는 코드 생성, 코드 이해 및 효율적인 개발 시나리오를 위해 설계된 대형 언어 모델로, 업계 최고의 32B 매개변수 규모를 채택하여 다양한 프로그래밍 요구를 충족합니다."
340
343
  },
344
+ "SenseCat-5-1202": {
345
+ "description": "V5.5를 기반으로 한 최신 버전으로, 이전 버전보다 중문 및 영문 기본 능력, 채팅, 이과 지식, 인문학 지식, 작문, 수리 논리, 글자 수 조절 등 여러 측면에서 성능이 크게 향상되었습니다."
346
+ },
341
347
  "SenseChat": {
342
348
  "description": "기본 버전 모델(V4), 4K 컨텍스트 길이, 일반적인 능력이 강력합니다."
343
349
  },
@@ -350,12 +356,12 @@
350
356
  "SenseChat-5": {
351
357
  "description": "최신 버전 모델(V5.5), 128K 컨텍스트 길이, 수학적 추론, 영어 대화, 지시 따르기 및 긴 텍스트 이해 등 분야에서 능력이 크게 향상되어 GPT-4o와 견줄 수 있습니다."
352
358
  },
353
- "SenseChat-5-1202": {
354
- "description": "V5.5를 기반으로 한 최신 버전으로, 이전 버전보다 중영 기본 능력, 채팅, 이과 지식, 인문 지식, 작문, 수리 논리, 글자 수 조절 등 여러 측면에서 성능이 크게 향상되었습니다."
355
- },
356
359
  "SenseChat-5-Cantonese": {
357
360
  "description": "32K 컨텍스트 길이, 광둥어 대화 이해에서 GPT-4를 초월하며, 지식, 추론, 수학 및 코드 작성 등 여러 분야에서 GPT-4 Turbo와 견줄 수 있습니다."
358
361
  },
362
+ "SenseChat-5-beta": {
363
+ "description": "일부 성능이 SenseCat-5-1202보다 우수합니다."
364
+ },
359
365
  "SenseChat-Character": {
360
366
  "description": "표준 버전 모델, 8K 컨텍스트 길이, 높은 응답 속도를 자랑합니다."
361
367
  },
@@ -1010,8 +1016,8 @@
1010
1016
  "gemini-2.0-flash-lite-001": {
1011
1017
  "description": "Gemini 2.0 플래시 모델 변형으로, 비용 효율성과 낮은 지연 시간 등의 목표를 위해 최적화되었습니다."
1012
1018
  },
1013
- "gemini-2.0-flash-thinking-exp-01-21": {
1014
- "description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모드 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모드 생성을 제공합니다."
1019
+ "gemini-2.0-flash-preview-image-generation": {
1020
+ "description": "Gemini 2.0 Flash 미리보기 모델로, 이미지 생성을 지원합니다."
1015
1021
  },
1016
1022
  "gemini-2.5-flash-preview-04-17": {
1017
1023
  "description": "Gemini 2.5 Flash Preview는 Google의 가장 가성비 높은 모델로, 포괄적인 기능을 제공합니다."
@@ -1349,15 +1355,18 @@
1349
1355
  "internlm/internlm2_5-7b-chat": {
1350
1356
  "description": "InternLM2.5는 다양한 시나리오에서 스마트 대화 솔루션을 제공합니다."
1351
1357
  },
1352
- "internlm2-pro-chat": {
1353
- "description": "우리가 여전히 유지 관리하는 구버전 모델로, 7B 및 20B와 같은 다양한 모델 매개변수 옵션이 있습니다."
1354
- },
1355
1358
  "internlm2.5-latest": {
1356
1359
  "description": "우리가 최신으로 선보이는 모델 시리즈로, 뛰어난 추론 성능을 자랑하며 1M의 컨텍스트 길이와 더 강력한 지시 따르기 및 도구 호출 기능을 지원합니다."
1357
1360
  },
1358
1361
  "internlm3-latest": {
1359
1362
  "description": "우리의 최신 모델 시리즈는 뛰어난 추론 성능을 가지고 있으며, 동급 오픈 소스 모델 중에서 선두를 달리고 있습니다. 기본적으로 최신 출시된 InternLM3 시리즈 모델을 가리킵니다."
1360
1363
  },
1364
+ "internvl2.5-latest": {
1365
+ "description": "우리가 여전히 유지 관리하는 InternVL2.5 버전으로, 우수하고 안정적인 성능을 제공합니다. 기본적으로 최신 발표된 InternVL2.5 시리즈 모델을 가리키며, 현재 internvl2.5-78b를 가리킵니다."
1366
+ },
1367
+ "internvl3-latest": {
1368
+ "description": "우리가 최근 발표한 다중 모달 대형 모델로, 더 강력한 이미지 및 텍스트 이해 능력과 장기 이미지 이해 능력을 갖추고 있으며, 성능은 최상급 폐쇄형 모델에 필적합니다. 기본적으로 최신 발표된 InternVL 시리즈 모델을 가리키며, 현재 internvl3-78b를 가리킵니다."
1369
+ },
1361
1370
  "jamba-large": {
1362
1371
  "description": "가장 강력하고 진보된 모델로, 기업급 복잡한 작업을 처리하도록 설계되었으며, 뛰어난 성능을 제공합니다."
1363
1372
  },
@@ -1373,6 +1382,9 @@
1373
1382
  "learnlm-1.5-pro-experimental": {
1374
1383
  "description": "LearnLM은 학습 과학 원칙에 맞춰 훈련된 실험적이고 특정 작업에 특화된 언어 모델로, 교육 및 학습 환경에서 시스템 지침을 따르며 전문가 멘토 역할을 수행합니다."
1375
1384
  },
1385
+ "learnlm-2.0-flash-experimental": {
1386
+ "description": "LearnLM은 실험적인 특정 작업 언어 모델로, 학습 과학 원칙에 맞게 훈련되어 교육 및 학습 환경에서 시스템 지침을 따르고 전문가 멘토 역할을 수행합니다."
1387
+ },
1376
1388
  "lite": {
1377
1389
  "description": "Spark Lite는 경량 대형 언어 모델로, 매우 낮은 지연 시간과 효율적인 처리 능력을 갖추고 있으며, 완전히 무료로 제공되고 실시간 온라인 검색 기능을 지원합니다. 빠른 응답 특성 덕분에 저전력 장치에서의 추론 응용 및 모델 미세 조정에서 뛰어난 성능을 발휘하며, 사용자에게 뛰어난 비용 효율성과 스마트한 경험을 제공합니다. 특히 지식 질문 응답, 콘텐츠 생성 및 검색 시나리오에서 두각을 나타냅니다."
1378
1390
  },
@@ -2162,6 +2174,9 @@
2162
2174
  "wizardlm2:8x22b": {
2163
2175
  "description": "WizardLM 2는 Microsoft AI에서 제공하는 언어 모델로, 복잡한 대화, 다국어, 추론 및 스마트 어시스턴트 분야에서 특히 뛰어난 성능을 발휘합니다."
2164
2176
  },
2177
+ "x1": {
2178
+ "description": "Spark X1 모델은 추가 업그레이드를 통해 기존의 수학 과제에서 국내 선두를 유지하며, 추론, 텍스트 생성, 언어 이해 등 일반 과제에서 OpenAI o1 및 DeepSeek R1과 동등한 성과를 달성합니다."
2179
+ },
2165
2180
  "yi-1.5-34b-chat": {
2166
2181
  "description": "Yi-1.5는 Yi의 업그레이드 버전입니다. 500B 토큰의 고품질 데이터셋을 사용하여 Yi를 추가로 사전 학습시키고, 3M개의 다양한 미세 조정 샘플을 사용하여 미세 조정되었습니다."
2167
2182
  },
@@ -219,8 +219,23 @@
219
219
  "content": "플러그인 호출 중...",
220
220
  "plugin": "플러그인 실행 중..."
221
221
  },
222
+ "localSystem": {
223
+ "apiName": {
224
+ "listLocalFiles": "파일 목록 보기",
225
+ "moveLocalFiles": "파일 이동",
226
+ "readLocalFile": "파일 내용 읽기",
227
+ "renameLocalFile": "이름 바꾸기",
228
+ "searchLocalFiles": "파일 검색",
229
+ "writeLocalFile": "파일 쓰기"
230
+ },
231
+ "title": "로컬 파일"
232
+ },
222
233
  "pluginList": "플러그인 목록",
223
234
  "search": {
235
+ "apiName": {
236
+ "crawlSinglePage": "페이지 내용 읽기",
237
+ "search": "페이지 검색"
238
+ },
224
239
  "config": {
225
240
  "addKey": "키 추가",
226
241
  "close": "삭제",
@@ -74,6 +74,9 @@
74
74
  "Doubao-1.5-thinking-pro-m": {
75
75
  "description": "Doubao-1.5 is een nieuw diep denkmodel (de m-versie heeft ingebouwde multimodale diep redeneringscapaciteiten), dat uitblinkt in wiskunde, programmeren, wetenschappelijke redenering en creatieve schrijfopdrachten, en in verschillende autoritaire benchmarks zoals AIME 2024, Codeforces, GPQA, het niveau van de top van de industrie bereikt of benadert. Ondersteunt een contextvenster van 128k en 16k output."
76
76
  },
77
+ "Doubao-1.5-thinking-vision-pro": {
78
+ "description": "Een nieuw visueel diepdenkend model, met sterkere algemene multimodale begrip- en redeneringscapaciteiten, dat SOTA-prestaties behaalt op 37 van de 59 openbare evaluatiestandaarden."
79
+ },
77
80
  "Doubao-1.5-vision-pro": {
78
81
  "description": "Doubao-1.5-vision-pro is een nieuw geüpgradede multimodale groot model, dat ondersteuning biedt voor beeldherkenning met willekeurige resoluties en extreme beeldverhoudingen, en de visuele redenering, documentherkenning, begrip van gedetailleerde informatie en het volgen van instructies verbetert."
79
82
  },
@@ -338,6 +341,9 @@
338
341
  "Qwen2.5-Coder-32B-Instruct": {
339
342
  "description": "Qwen2.5-Coder-32B-Instruct is een groot taalmodel dat speciaal is ontworpen voor codegeneratie, codebegrip en efficiënte ontwikkelingsscenario's, met een toonaangevende parameteromvang van 32B, dat kan voldoen aan diverse programmeerbehoeften."
340
343
  },
344
+ "SenseCat-5-1202": {
345
+ "description": "De nieuwste versie gebaseerd op V5.5, met significante verbeteringen ten opzichte van de vorige versie in basisvaardigheden in het Chinees en Engels, chatten, exacte wetenschappen, geesteswetenschappen, schrijven, wiskundige logica, en woordtelling."
346
+ },
341
347
  "SenseChat": {
342
348
  "description": "Basisversie van het model (V4), met een contextlengte van 4K, heeft sterke algemene capaciteiten."
343
349
  },
@@ -350,12 +356,12 @@
350
356
  "SenseChat-5": {
351
357
  "description": "De nieuwste versie van het model (V5.5), met een contextlengte van 128K, heeft aanzienlijke verbeteringen in wiskundig redeneren, Engelse conversatie, instructievolging en begrip van lange teksten, en kan zich meten met GPT-4o."
352
358
  },
353
- "SenseChat-5-1202": {
354
- "description": "Dit is de nieuwste versie gebaseerd op V5.5, met significante verbeteringen in basisvaardigheden in het Chinees en Engels, chatten, exacte wetenschappen, geesteswetenschappen, schrijven, wiskundige logica en woordtelling in vergelijking met de vorige versie."
355
- },
356
359
  "SenseChat-5-Cantonese": {
357
360
  "description": "Met een contextlengte van 32K overtreft het de conversatiebegrip in het Kantonees van GPT-4 en kan het zich in verschillende domeinen zoals kennis, redeneren, wiskunde en coderen meten met GPT-4 Turbo."
358
361
  },
362
+ "SenseChat-5-beta": {
363
+ "description": "Presteert in sommige opzichten beter dan SenseCat-5-1202"
364
+ },
359
365
  "SenseChat-Character": {
360
366
  "description": "Standaardversie van het model, met een contextlengte van 8K, hoge responsnelheid."
361
367
  },
@@ -1010,8 +1016,8 @@
1010
1016
  "gemini-2.0-flash-lite-001": {
1011
1017
  "description": "Gemini 2.0 Flash is een modelvariant die is geoptimaliseerd voor kosteneffectiviteit en lage latentie."
1012
1018
  },
1013
- "gemini-2.0-flash-thinking-exp-01-21": {
1014
- "description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met next-gen functies, uitstekende snelheid, native tool-aanroepen en multimodale generatie."
1019
+ "gemini-2.0-flash-preview-image-generation": {
1020
+ "description": "Gemini 2.0 Flash previewmodel, ondersteunt beeldgeneratie"
1015
1021
  },
1016
1022
  "gemini-2.5-flash-preview-04-17": {
1017
1023
  "description": "Gemini 2.5 Flash Preview is het meest kosteneffectieve model van Google, dat uitgebreide functionaliteit biedt."
@@ -1349,15 +1355,18 @@
1349
1355
  "internlm/internlm2_5-7b-chat": {
1350
1356
  "description": "InternLM2.5 biedt intelligente gespreksoplossingen voor meerdere scenario's."
1351
1357
  },
1352
- "internlm2-pro-chat": {
1353
- "description": "Onze oudere modelversie die we nog steeds onderhouden, met opties voor 7B en 20B parameters."
1354
- },
1355
1358
  "internlm2.5-latest": {
1356
1359
  "description": "Onze nieuwste modelreeks met uitstekende redeneervaardigheden, ondersteunt een contextlengte van 1M en heeft verbeterde instructievolging en toolaanroepmogelijkheden."
1357
1360
  },
1358
1361
  "internlm3-latest": {
1359
1362
  "description": "Onze nieuwste modelreeks heeft uitstekende inferentieprestaties en leidt de open-source modellen in dezelfde klasse. Standaard gericht op ons recentste InternLM3 model."
1360
1363
  },
1364
+ "internvl2.5-latest": {
1365
+ "description": "De InternVL2.5 versie die we nog steeds onderhouden, biedt uitstekende en stabiele prestaties. Standaard gericht op ons recentste InternVL2.5-seriemodel, momenteel gericht op internvl2.5-78b."
1366
+ },
1367
+ "internvl3-latest": {
1368
+ "description": "Ons nieuwste multimodale grote model, met verbeterde beeld- en tekstbegripcapaciteiten en lange termijn beeldbegrip, presteert op het niveau van toonaangevende gesloten modellen. Standaard gericht op ons recentste InternVL-seriemodel, momenteel gericht op internvl3-78b."
1369
+ },
1361
1370
  "jamba-large": {
1362
1371
  "description": "Ons krachtigste en meest geavanceerde model, speciaal ontworpen voor het verwerken van complexe taken op bedrijfsniveau, met uitstekende prestaties."
1363
1372
  },
@@ -1373,6 +1382,9 @@
1373
1382
  "learnlm-1.5-pro-experimental": {
1374
1383
  "description": "LearnLM is een experimenteel, taak-specifiek taalmodel dat is getraind volgens de principes van de leerwetenschap, en kan systeeminstructies volgen in onderwijs- en leeromgevingen, en fungeert als een expertmentor."
1375
1384
  },
1385
+ "learnlm-2.0-flash-experimental": {
1386
+ "description": "LearnLM is een experimenteel, taakgericht taalmodel, getraind om te voldoen aan de principes van leerwetenschap, kan systeeminstructies volgen in onderwijs- en leerscenario's, en fungeert als een expertmentor."
1387
+ },
1376
1388
  "lite": {
1377
1389
  "description": "Spark Lite is een lichtgewicht groot taalmodel met extreem lage latentie en efficiënte verwerkingscapaciteit. Het is volledig gratis en open, en ondersteunt realtime online zoekfunctionaliteit. De snelle respons maakt het uitermate geschikt voor inferentie op apparaten met lage rekenkracht en modelafstemming, wat gebruikers uitstekende kosteneffectiviteit en een slimme ervaring biedt, vooral in kennisvragen, contentgeneratie en zoekscenario's."
1378
1390
  },
@@ -2162,6 +2174,9 @@
2162
2174
  "wizardlm2:8x22b": {
2163
2175
  "description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe gesprekken, meertaligheid, inferentie en intelligente assistentie."
2164
2176
  },
2177
+ "x1": {
2178
+ "description": "Het Spark X1-model zal verder worden geüpgraded, met verbeterde prestaties in redenering, tekstgeneratie en taalbegrip, ter vergelijking met OpenAI o1 en DeepSeek R1."
2179
+ },
2165
2180
  "yi-1.5-34b-chat": {
2166
2181
  "description": "Yi-1.5 is een geüpgradeerde versie van Yi. Het wordt voortdurend voorgetraind met een hoge-kwaliteitscorpus van 500B tokens op basis van Yi, en fijn afgesteld op 3M diverse fijnafstemmingssamples."
2167
2182
  },
@@ -219,8 +219,23 @@
219
219
  "content": "Plugin wordt geladen...",
220
220
  "plugin": "Plugin wordt uitgevoerd..."
221
221
  },
222
+ "localSystem": {
223
+ "apiName": {
224
+ "listLocalFiles": "Bestandlijst weergeven",
225
+ "moveLocalFiles": "Bestanden verplaatsen",
226
+ "readLocalFile": "Bestand inhoud lezen",
227
+ "renameLocalFile": "Hernoemen",
228
+ "searchLocalFiles": "Bestanden zoeken",
229
+ "writeLocalFile": "Bestand schrijven"
230
+ },
231
+ "title": "Lokale bestanden"
232
+ },
222
233
  "pluginList": "Lijst met plugins",
223
234
  "search": {
235
+ "apiName": {
236
+ "crawlSinglePage": "Pagina-inhoud lezen",
237
+ "search": "Pagina zoeken"
238
+ },
224
239
  "config": {
225
240
  "addKey": "Voeg sleutel toe",
226
241
  "close": "Verwijderen",
@@ -74,6 +74,9 @@
74
74
  "Doubao-1.5-thinking-pro-m": {
75
75
  "description": "Doubao-1.5 to nowy model głębokiego myślenia (wersja m z wbudowaną natywną zdolnością do wielomodalnego wnioskowania), który wyróżnia się w dziedzinach takich jak matematyka, programowanie, wnioskowanie naukowe oraz twórcze pisanie, osiągając poziom bliski pierwszej ligi w wielu uznawanych benchmarkach, takich jak AIME 2024, Codeforces, GPQA. Wspiera okno kontekstowe 128k oraz 16k wyjścia."
76
76
  },
77
+ "Doubao-1.5-thinking-vision-pro": {
78
+ "description": "Nowy model głębokiego myślenia wizualnego, który ma silniejsze ogólne zdolności rozumienia multimodalnego i rozumowania, osiągając wyniki SOTA w 37 z 59 publicznych benchmarków."
79
+ },
77
80
  "Doubao-1.5-vision-pro": {
78
81
  "description": "Doubao-1.5-vision-pro to nowo zaktualizowany model multimodalny, który obsługuje rozpoznawanie obrazów o dowolnej rozdzielczości i ekstremalnych proporcjach, wzmacniając zdolności wnioskowania wizualnego, rozpoznawania dokumentów, rozumienia szczegółowych informacji i przestrzegania instrukcji."
79
82
  },
@@ -338,6 +341,9 @@
338
341
  "Qwen2.5-Coder-32B-Instruct": {
339
342
  "description": "Qwen2.5-Coder-32B-Instruct to duży model językowy zaprojektowany specjalnie do generowania kodu, rozumienia kodu i efektywnych scenariuszy rozwoju, wykorzystujący wiodącą w branży skalę 32B parametrów, zdolny do zaspokojenia różnorodnych potrzeb programistycznych."
340
343
  },
344
+ "SenseCat-5-1202": {
345
+ "description": "Jest to najnowsza wersja oparta na V5.5, która w porównaniu do poprzedniej wersji wykazuje znaczną poprawę w kilku wymiarach, takich jak podstawowe umiejętności w języku chińskim i angielskim, czat, wiedza ścisła, wiedza humanistyczna, pisanie, logika matematyczna oraz kontrola liczby słów."
346
+ },
341
347
  "SenseChat": {
342
348
  "description": "Podstawowa wersja modelu (V4), długość kontekstu 4K, silne zdolności ogólne."
343
349
  },
@@ -350,12 +356,12 @@
350
356
  "SenseChat-5": {
351
357
  "description": "Najnowsza wersja modelu (V5.5), długość kontekstu 128K, znacznie poprawione zdolności w zakresie rozumowania matematycznego, rozmów w języku angielskim, podążania za instrukcjami oraz rozumienia długich tekstów, dorównująca GPT-4o."
352
358
  },
353
- "SenseChat-5-1202": {
354
- "description": "Jest to najnowsza wersja oparta na V5.5, która w porównaniu do poprzedniej wersji wykazuje znaczną poprawę w podstawowych umiejętnościach językowych w chińskim i angielskim, czatach, wiedzy ścisłej, wiedzy humanistycznej, pisaniu, logice matematycznej oraz kontroli liczby słów."
355
- },
356
359
  "SenseChat-5-Cantonese": {
357
360
  "description": "Długość kontekstu 32K, w rozumieniu rozmów w języku kantońskim przewyższa GPT-4, w wielu dziedzinach, takich jak wiedza, rozumowanie, matematyka i programowanie, dorównuje GPT-4 Turbo."
358
361
  },
362
+ "SenseChat-5-beta": {
363
+ "description": "Częściowo lepsza wydajność niż SenseCat-5-1202"
364
+ },
359
365
  "SenseChat-Character": {
360
366
  "description": "Standardowa wersja modelu, długość kontekstu 8K, wysoka szybkość reakcji."
361
367
  },
@@ -1010,8 +1016,8 @@
1010
1016
  "gemini-2.0-flash-lite-001": {
1011
1017
  "description": "Gemini 2.0 Flash to wariant modelu, zoptymalizowany pod kątem efektywności kosztowej i niskiego opóźnienia."
1012
1018
  },
1013
- "gemini-2.0-flash-thinking-exp-01-21": {
1014
- "description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI multimodalnego Google, posiadający cechy nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generację multimodalną."
1019
+ "gemini-2.0-flash-preview-image-generation": {
1020
+ "description": "Model Gemini 2.0 Flash do generowania obrazów, wspierający generację obrazów"
1015
1021
  },
1016
1022
  "gemini-2.5-flash-preview-04-17": {
1017
1023
  "description": "Gemini 2.5 Flash Preview to najbardziej opłacalny model Google, oferujący wszechstronne funkcje."
@@ -1349,15 +1355,18 @@
1349
1355
  "internlm/internlm2_5-7b-chat": {
1350
1356
  "description": "InternLM2.5 oferuje inteligentne rozwiązania dialogowe w różnych scenariuszach."
1351
1357
  },
1352
- "internlm2-pro-chat": {
1353
- "description": "Starsza wersja modelu, którą nadal utrzymujemy, dostępna w różnych wariantach parametrów: 7B i 20B."
1354
- },
1355
1358
  "internlm2.5-latest": {
1356
1359
  "description": "Nasza najnowsza seria modeli, charakteryzująca się doskonałymi osiągami wnioskowania, obsługująca długość kontekstu do 1M oraz lepsze możliwości śledzenia instrukcji i wywoływania narzędzi."
1357
1360
  },
1358
1361
  "internlm3-latest": {
1359
1362
  "description": "Nasza najnowsza seria modeli, charakteryzująca się doskonałą wydajnością wnioskowania, prowadzi wśród modeli open-source o podobnej skali. Domyślnie wskazuje na naszą najnowszą wersję modelu InternLM3."
1360
1363
  },
1364
+ "internvl2.5-latest": {
1365
+ "description": "Wersja InternVL2.5, którą nadal utrzymujemy, charakteryzuje się doskonałą i stabilną wydajnością. Domyślnie wskazuje na nasz najnowszy model z serii InternVL2.5, obecnie wskazuje na internvl2.5-78b."
1366
+ },
1367
+ "internvl3-latest": {
1368
+ "description": "Nasz najnowszy model multimodalny, który ma silniejsze zdolności rozumienia tekstu i obrazów oraz długoterminowego rozumienia obrazów, osiągający wyniki porównywalne z najlepszymi modelami zamkniętymi. Domyślnie wskazuje na nasz najnowszy model z serii InternVL, obecnie wskazuje na internvl3-78b."
1369
+ },
1361
1370
  "jamba-large": {
1362
1371
  "description": "Nasz najsilniejszy i najbardziej zaawansowany model, zaprojektowany do obsługi złożonych zadań na poziomie przedsiębiorstw, oferujący doskonałą wydajność."
1363
1372
  },
@@ -1373,6 +1382,9 @@
1373
1382
  "learnlm-1.5-pro-experimental": {
1374
1383
  "description": "LearnLM to eksperymentalny model językowy, specyficzny dla zadań, przeszkolony zgodnie z zasadami nauki o uczeniu się, który może przestrzegać systemowych instrukcji w scenariuszach nauczania i uczenia się, pełniąc rolę eksperta mentora."
1375
1384
  },
1385
+ "learnlm-2.0-flash-experimental": {
1386
+ "description": "LearnLM to eksperymentalny model językowy, specyficzny dla zadań, przeszkolony zgodnie z zasadami nauki o uczeniu się, który może przestrzegać systemowych instrukcji w scenariuszach nauczania i uczenia się, pełniąc rolę eksperta mentora."
1387
+ },
1376
1388
  "lite": {
1377
1389
  "description": "Spark Lite to lekki model językowy o dużej skali, charakteryzujący się niezwykle niskim opóźnieniem i wysoką wydajnością przetwarzania, całkowicie darmowy i otwarty, wspierający funkcje wyszukiwania w czasie rzeczywistym. Jego cechy szybkiej reakcji sprawiają, że doskonale sprawdza się w zastosowaniach inferencyjnych na urządzeniach o niskiej mocy obliczeniowej oraz w dostosowywaniu modeli, oferując użytkownikom znakomity stosunek kosztów do korzyści oraz inteligentne doświadczenie, szczególnie w kontekście pytań i odpowiedzi, generowania treści oraz wyszukiwania."
1378
1390
  },
@@ -2162,6 +2174,9 @@
2162
2174
  "wizardlm2:8x22b": {
2163
2175
  "description": "WizardLM 2 to model językowy dostarczany przez Microsoft AI, który wyróżnia się w złożonych dialogach, wielojęzyczności, wnioskowaniu i inteligentnych asystentach."
2164
2176
  },
2177
+ "x1": {
2178
+ "description": "Model Spark X1 zostanie dalej ulepszony, osiągając wyniki w zadaniach ogólnych, takich jak rozumowanie, generowanie tekstu i rozumienie języka, które będą porównywalne z OpenAI o1 i DeepSeek R1."
2179
+ },
2165
2180
  "yi-1.5-34b-chat": {
2166
2181
  "description": "Yi-1.5 to ulepszona wersja Yi. Używa ona wysokiej jakości korpusu danych o rozmiarze 500B tokenów do dalszego wstępnego treningu Yi, a także do dopasowywania na 3M różnorodnych próbkach dopasowujących."
2167
2182
  },
@@ -219,8 +219,23 @@
219
219
  "content": "Wywoływanie wtyczki...",
220
220
  "plugin": "Wtyczka jest uruchomiona..."
221
221
  },
222
+ "localSystem": {
223
+ "apiName": {
224
+ "listLocalFiles": "Wyświetl listę plików",
225
+ "moveLocalFiles": "Przenieś pliki",
226
+ "readLocalFile": "Odczytaj zawartość pliku",
227
+ "renameLocalFile": "Zmień nazwę",
228
+ "searchLocalFiles": "Szukaj plików",
229
+ "writeLocalFile": "Zapisz plik"
230
+ },
231
+ "title": "Pliki lokalne"
232
+ },
222
233
  "pluginList": "Lista wtyczek",
223
234
  "search": {
235
+ "apiName": {
236
+ "crawlSinglePage": "Odczytaj zawartość strony",
237
+ "search": "Szukaj strony"
238
+ },
224
239
  "config": {
225
240
  "addKey": "Dodaj klucz",
226
241
  "close": "Usuń",
@@ -74,6 +74,9 @@
74
74
  "Doubao-1.5-thinking-pro-m": {
75
75
  "description": "O Doubao-1.5 é um novo modelo de pensamento profundo (a versão m possui capacidade nativa de raciocínio multimodal), destacando-se em áreas profissionais como matemática, programação, raciocínio científico e tarefas gerais como escrita criativa, alcançando ou se aproximando do nível de elite em várias referências de prestígio como AIME 2024, Codeforces, GPQA."
76
76
  },
77
+ "Doubao-1.5-thinking-vision-pro": {
78
+ "description": "Modelo de pensamento profundo visual totalmente novo, com habilidades aprimoradas de compreensão e raciocínio multimodal geral, alcançando desempenho SOTA em 37 dos 59 benchmarks públicos."
79
+ },
77
80
  "Doubao-1.5-vision-pro": {
78
81
  "description": "Doubao-1.5-vision-pro é um modelo multimodal atualizado, suportando reconhecimento de imagens de qualquer resolução e proporções extremas, melhorando a capacidade de raciocínio visual, reconhecimento de documentos, compreensão de informações detalhadas e seguimento de instruções."
79
82
  },
@@ -338,6 +341,9 @@
338
341
  "Qwen2.5-Coder-32B-Instruct": {
339
342
  "description": "Qwen2.5-Coder-32B-Instruct é um grande modelo de linguagem projetado para geração de código, compreensão de código e cenários de desenvolvimento eficiente, com uma escala de 32 bilhões de parâmetros, atendendo a diversas necessidades de programação."
340
343
  },
344
+ "SenseCat-5-1202": {
345
+ "description": "Baseado na versão V5.5, a versão mais recente apresenta melhorias significativas em várias dimensões, incluindo habilidades básicas em chinês e inglês, conversação, conhecimento em ciências exatas, conhecimento em ciências humanas, redação, lógica matemática e controle de contagem de palavras."
346
+ },
341
347
  "SenseChat": {
342
348
  "description": "Modelo da versão básica (V4), com comprimento de contexto de 4K, com capacidades gerais poderosas."
343
349
  },
@@ -350,12 +356,12 @@
350
356
  "SenseChat-5": {
351
357
  "description": "Modelo da versão mais recente (V5.5), com comprimento de contexto de 128K, com capacidades significativamente aprimoradas em raciocínio matemático, diálogos em inglês, seguimento de instruções e compreensão de textos longos, rivalizando com o GPT-4o."
352
358
  },
353
- "SenseChat-5-1202": {
354
- "description": "É a versão mais recente baseada no V5.5, com melhorias significativas em várias dimensões, como habilidades básicas em chinês e inglês, conversação, conhecimento em ciências exatas, conhecimento em ciências humanas, redação, lógica matemática e controle de contagem de palavras em comparação com a versão anterior."
355
- },
356
359
  "SenseChat-5-Cantonese": {
357
360
  "description": "Comprimento de contexto de 32K, superando o GPT-4 na compreensão de diálogos em cantonês, competindo com o GPT-4 Turbo em várias áreas, incluindo conhecimento, raciocínio, matemática e programação."
358
361
  },
362
+ "SenseChat-5-beta": {
363
+ "description": "Desempenho superior em alguns aspectos em relação ao SenseCat-5-1202"
364
+ },
359
365
  "SenseChat-Character": {
360
366
  "description": "Modelo padrão, com comprimento de contexto de 8K, alta velocidade de resposta."
361
367
  },
@@ -1010,8 +1016,8 @@
1010
1016
  "gemini-2.0-flash-lite-001": {
1011
1017
  "description": "Variante do modelo Gemini 2.0 Flash, otimizada para custo-benefício e baixa latência."
1012
1018
  },
1013
- "gemini-2.0-flash-thinking-exp-01-21": {
1014
- "description": "O Gemini 2.0 Flash Exp é o mais recente modelo experimental de IA multimodal do Google, com características de próxima geração, velocidade excepcional, chamadas nativas de ferramentas e geração multimodal."
1019
+ "gemini-2.0-flash-preview-image-generation": {
1020
+ "description": "Modelo de pré-visualização Gemini 2.0 Flash, suporta geração de imagens"
1015
1021
  },
1016
1022
  "gemini-2.5-flash-preview-04-17": {
1017
1023
  "description": "O Gemini 2.5 Flash Preview é o modelo mais acessível do Google, oferecendo uma gama completa de funcionalidades."
@@ -1349,15 +1355,18 @@
1349
1355
  "internlm/internlm2_5-7b-chat": {
1350
1356
  "description": "InternLM2.5 oferece soluções de diálogo inteligente em múltiplos cenários."
1351
1357
  },
1352
- "internlm2-pro-chat": {
1353
- "description": "Modelo mais antigo que ainda estamos mantendo, disponível em opções de 7B e 20B de parâmetros."
1354
- },
1355
1358
  "internlm2.5-latest": {
1356
1359
  "description": "Nossa mais recente série de modelos, com desempenho de raciocínio excepcional, suportando um comprimento de contexto de 1M e capacidades aprimoradas de seguimento de instruções e chamadas de ferramentas."
1357
1360
  },
1358
1361
  "internlm3-latest": {
1359
1362
  "description": "Nossa mais recente série de modelos, com desempenho de inferência excepcional, liderando entre modelos de código aberto de mesma escala. Aponta por padrão para nossa mais recente série de modelos InternLM3."
1360
1363
  },
1364
+ "internvl2.5-latest": {
1365
+ "description": "Versão InternVL2.5 que ainda estamos mantendo, com desempenho excelente e estável. Aponta por padrão para nossa mais recente série de modelos InternVL2.5, atualmente direcionando para internvl2.5-78b."
1366
+ },
1367
+ "internvl3-latest": {
1368
+ "description": "Lançamos nosso mais recente modelo multimodal, com habilidades aprimoradas de compreensão de texto e imagem, e capacidade de entender imagens em longas sequências, com desempenho comparável aos melhores modelos fechados. Aponta por padrão para nossa mais recente série de modelos InternVL, atualmente direcionando para internvl3-78b."
1369
+ },
1361
1370
  "jamba-large": {
1362
1371
  "description": "Nosso modelo mais poderoso e avançado, projetado para lidar com tarefas complexas em nível empresarial, com desempenho excepcional."
1363
1372
  },
@@ -1373,6 +1382,9 @@
1373
1382
  "learnlm-1.5-pro-experimental": {
1374
1383
  "description": "LearnLM é um modelo de linguagem experimental e específico para tarefas, treinado para atender aos princípios da ciência da aprendizagem, podendo seguir instruções sistemáticas em cenários de ensino e aprendizagem, atuando como um mentor especialista, entre outros."
1375
1384
  },
1385
+ "learnlm-2.0-flash-experimental": {
1386
+ "description": "LearnLM é um modelo de linguagem experimental, específico para tarefas, treinado para atender aos princípios da ciência da aprendizagem, capaz de seguir instruções sistemáticas em cenários de ensino e aprendizagem, atuando como um mentor especialista, entre outros."
1387
+ },
1376
1388
  "lite": {
1377
1389
  "description": "Spark Lite é um modelo de linguagem grande leve, com latência extremamente baixa e alta eficiência de processamento, totalmente gratuito e aberto, suportando funcionalidades de busca online em tempo real. Sua característica de resposta rápida o torna excelente para aplicações de inferência em dispositivos de baixo poder computacional e ajuste fino de modelos, proporcionando aos usuários uma excelente relação custo-benefício e experiência inteligente, especialmente em cenários de perguntas e respostas, geração de conteúdo e busca."
1378
1390
  },
@@ -2162,6 +2174,9 @@
2162
2174
  "wizardlm2:8x22b": {
2163
2175
  "description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, destacando-se em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes."
2164
2176
  },
2177
+ "x1": {
2178
+ "description": "O modelo Spark X1 será aprimorado ainda mais, mantendo a liderança em tarefas matemáticas no país, e alcançando resultados em tarefas gerais como raciocínio, geração de texto e compreensão de linguagem que se comparam ao OpenAI o1 e DeepSeek R1."
2179
+ },
2165
2180
  "yi-1.5-34b-chat": {
2166
2181
  "description": "Yi-1.5 é uma versão aprimorada do Yi. Ele usa um corpus de alta qualidade com 500B tokens para continuar o pré-treinamento do Yi e é refinado com 3M amostras de ajuste fino diversificadas."
2167
2182
  },
@@ -219,8 +219,23 @@
219
219
  "content": "Carregando o plugin...",
220
220
  "plugin": "Executando o plugin..."
221
221
  },
222
+ "localSystem": {
223
+ "apiName": {
224
+ "listLocalFiles": "Ver lista de arquivos",
225
+ "moveLocalFiles": "Mover arquivos",
226
+ "readLocalFile": "Ler conteúdo do arquivo",
227
+ "renameLocalFile": "Renomear",
228
+ "searchLocalFiles": "Pesquisar arquivos",
229
+ "writeLocalFile": "Escrever no arquivo"
230
+ },
231
+ "title": "Arquivos Locais"
232
+ },
222
233
  "pluginList": "Lista de Plugins",
223
234
  "search": {
235
+ "apiName": {
236
+ "crawlSinglePage": "Ler conteúdo da página",
237
+ "search": "Pesquisar página"
238
+ },
224
239
  "config": {
225
240
  "addKey": "Adicionar chave",
226
241
  "close": "Remover",
@@ -74,6 +74,9 @@
74
74
  "Doubao-1.5-thinking-pro-m": {
75
75
  "description": "Doubao-1.5 — это новая модель глубокого размышления (версия m с встроенной многомодальной способностью глубокого рассуждения), которая демонстрирует выдающиеся результаты в профессиональных областях, таких как математика, программирование, научное рассуждение, а также в общих задачах, таких как креативное письмо, достигая или приближаясь к уровню первой группы в нескольких авторитетных бенчмарках, таких как AIME 2024, Codeforces, GPQA. Поддерживает контекстное окно 128k и вывод 16k."
76
76
  },
77
+ "Doubao-1.5-thinking-vision-pro": {
78
+ "description": "Совершенно новая модель глубокого визуального мышления, обладающая более сильными универсальными многомодальными способностями к пониманию и рассуждению, достигшая SOTA результатов в 37 из 59 открытых оценочных стандартов."
79
+ },
77
80
  "Doubao-1.5-vision-pro": {
78
81
  "description": "Doubao-1.5-vision-pro — это новая усовершенствованная мультимодальная модель, поддерживающая распознавание изображений с любым разрешением и экстремальным соотношением сторон, улучшая способности к визуальному выводу, распознаванию документов, пониманию детальной информации и соблюдению инструкций."
79
82
  },
@@ -338,6 +341,9 @@
338
341
  "Qwen2.5-Coder-32B-Instruct": {
339
342
  "description": "Qwen2.5-Coder-32B-Instruct — это крупная языковая модель, специально разработанная для генерации кода, понимания кода и эффективных сценариев разработки, с передовым масштабом параметров 32B, способная удовлетворить разнообразные потребности программирования."
340
343
  },
344
+ "SenseCat-5-1202": {
345
+ "description": "Это последняя версия на основе V5.5, которая значительно улучшила свои способности в нескольких аспектах по сравнению с предыдущей версией, включая базовые навыки на китайском и английском языках, общение, знания в области естественных наук, гуманитарных наук, написание, математическую логику и контроль количества слов."
346
+ },
341
347
  "SenseChat": {
342
348
  "description": "Базовая версия модели (V4), длина контекста 4K, обладает мощными универсальными возможностями."
343
349
  },
@@ -350,12 +356,12 @@
350
356
  "SenseChat-5": {
351
357
  "description": "Последняя версия модели (V5.5), длина контекста 128K, значительно улучшенные способности в математическом рассуждении, английских диалогах, следовании инструкциям и понимании длинных текстов, сопоставимые с GPT-4o."
352
358
  },
353
- "SenseChat-5-1202": {
354
- "description": "Это последняя версия на основе V5.5, которая значительно улучшила свои базовые способности в китайском и английском языках, общении, научных знаниях, гуманитарных знаниях, написании, математической логике и контроле количества слов по сравнению с предыдущей версией."
355
- },
356
359
  "SenseChat-5-Cantonese": {
357
360
  "description": "Длина контекста 32K, превосходит GPT-4 в понимании диалогов на кантонском, сопоставим с GPT-4 Turbo в таких областях, как знания, рассуждение, математика и написание кода."
358
361
  },
362
+ "SenseChat-5-beta": {
363
+ "description": "Частично превосходит производительность SenseCat-5-1202"
364
+ },
359
365
  "SenseChat-Character": {
360
366
  "description": "Стандартная версия модели, длина контекста 8K, высокая скорость отклика."
361
367
  },
@@ -1010,8 +1016,8 @@
1010
1016
  "gemini-2.0-flash-lite-001": {
1011
1017
  "description": "Модельный вариант Gemini 2.0 Flash, оптимизированный для достижения таких целей, как экономическая эффективность и низкая задержка."
1012
1018
  },
1013
- "gemini-2.0-flash-thinking-exp-01-21": {
1014
- "description": "Gemini 2.0 Flash Exp — это последняя экспериментальная многомодальная AI модель от Google, обладающая следующими поколениями характеристик, выдающейся скоростью, нативным вызовом инструментов и многомодальной генерацией."
1019
+ "gemini-2.0-flash-preview-image-generation": {
1020
+ "description": "Модель предварительного просмотра Gemini 2.0 Flash, поддерживающая генерацию изображений"
1015
1021
  },
1016
1022
  "gemini-2.5-flash-preview-04-17": {
1017
1023
  "description": "Gemini 2.5 Flash Preview — это наиболее выгодная модель от Google, предлагающая широкий спектр возможностей."
@@ -1349,15 +1355,18 @@
1349
1355
  "internlm/internlm2_5-7b-chat": {
1350
1356
  "description": "InternLM2.5 предлагает интеллектуальные решения для диалогов в различных сценариях."
1351
1357
  },
1352
- "internlm2-pro-chat": {
1353
- "description": "Старая версия модели, которую мы все еще поддерживаем, доступная с параметрами 7B и 20B."
1354
- },
1355
1358
  "internlm2.5-latest": {
1356
1359
  "description": "Наша последняя серия моделей с выдающимися показателями вывода, поддерживающая длину контекста до 1M и обладающая улучшенными возможностями следования инструкциям и вызова инструментов."
1357
1360
  },
1358
1361
  "internlm3-latest": {
1359
1362
  "description": "Наша последняя серия моделей с выдающейся производительностью вывода, лидирующая среди моделей открытого кода того же уровня. По умолчанию указывает на нашу последнюю выпущенную серию моделей InternLM3."
1360
1363
  },
1364
+ "internvl2.5-latest": {
1365
+ "description": "Мы продолжаем поддерживать версию InternVL2.5, обладающую отличной и стабильной производительностью. По умолчанию указывает на нашу последнюю выпущенную серию моделей InternVL2.5, в настоящее время указывает на internvl2.5-78b."
1366
+ },
1367
+ "internvl3-latest": {
1368
+ "description": "Мы выпустили нашу последнюю многомодальную большую модель, обладающую более сильными способностями к пониманию текстов и изображений, а также к пониманию длинных последовательностей изображений, производительность которой сопоставима с ведущими закрытыми моделями. По умолчанию указывает на нашу последнюю выпущенную серию моделей InternVL, в настоящее время указывает на internvl3-78b."
1369
+ },
1361
1370
  "jamba-large": {
1362
1371
  "description": "Наша самая мощная и передовая модель, разработанная для решения сложных задач корпоративного уровня, обладающая выдающейся производительностью."
1363
1372
  },
@@ -1373,6 +1382,9 @@
1373
1382
  "learnlm-1.5-pro-experimental": {
1374
1383
  "description": "LearnLM — это экспериментальная языковая модель, ориентированная на конкретные задачи, обученная в соответствии с принципами науки о обучении, которая может следовать системным инструкциям в учебных и образовательных сценариях, выступая в роли эксперта-наставника и т.д."
1375
1384
  },
1385
+ "learnlm-2.0-flash-experimental": {
1386
+ "description": "LearnLM — это экспериментальная языковая модель, ориентированная на конкретные задачи, обученная в соответствии с принципами науки о обучении, способная следовать системным инструкциям в учебных и образовательных сценариях, выступая в роли эксперта-наставника и т.д."
1387
+ },
1376
1388
  "lite": {
1377
1389
  "description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функции онлайн-поиска в реальном времени. Ее быстрая реакция делает ее отличным выбором для применения в устройствах с низкой вычислительной мощностью и для тонкой настройки моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в сценариях вопросов и ответов, генерации контента и поиска."
1378
1390
  },
@@ -2162,6 +2174,9 @@
2162
2174
  "wizardlm2:8x22b": {
2163
2175
  "description": "WizardLM 2 — это языковая модель, предоставляемая Microsoft AI, которая особенно хорошо проявляет себя в сложных диалогах, многоязычных задачах, выводе и интеллектуальных помощниках."
2164
2176
  },
2177
+ "x1": {
2178
+ "description": "Модель Spark X1 будет дополнительно обновлена, и на основе уже существующих лидерских позиций в математических задачах, достигнет сопоставимых результатов в общих задачах, таких как рассуждение, генерация текста и понимание языка, с OpenAI o1 и DeepSeek R1."
2179
+ },
2165
2180
  "yi-1.5-34b-chat": {
2166
2181
  "description": "Yi-1.5 — это обновленная версия Yi. Она использует 500B токенов высококачественного корпуса данных для продолжения предварительной тренировки на основе Yi и微调在3M个多样化的微调样本上。"
2167
2182
  },
@@ -219,8 +219,23 @@
219
219
  "content": "Загрузка плагина...",
220
220
  "plugin": "Запуск плагина..."
221
221
  },
222
+ "localSystem": {
223
+ "apiName": {
224
+ "listLocalFiles": "Просмотреть список файлов",
225
+ "moveLocalFiles": "Переместить файл",
226
+ "readLocalFile": "Читать содержимое файла",
227
+ "renameLocalFile": "Переименовать",
228
+ "searchLocalFiles": "Поиск файлов",
229
+ "writeLocalFile": "Записать файл"
230
+ },
231
+ "title": "Локальные файлы"
232
+ },
222
233
  "pluginList": "Список плагинов",
223
234
  "search": {
235
+ "apiName": {
236
+ "crawlSinglePage": "Читать содержимое страницы",
237
+ "search": "Поиск страницы"
238
+ },
224
239
  "config": {
225
240
  "addKey": "Добавить ключ",
226
241
  "close": "Удалить",