@lobehub/lobehub 2.0.0-next.212 → 2.0.0-next.213

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (74) hide show
  1. package/.github/workflows/auto-i18n.yml +1 -1
  2. package/.github/workflows/bundle-analyzer.yml +1 -1
  3. package/.github/workflows/claude-auto-testing.yml +1 -1
  4. package/.github/workflows/claude-dedupe-issues.yml +1 -1
  5. package/.github/workflows/claude-issue-triage.yml +1 -1
  6. package/.github/workflows/claude-translate-comments.yml +1 -1
  7. package/.github/workflows/claude-translator.yml +1 -1
  8. package/.github/workflows/claude.yml +1 -1
  9. package/.github/workflows/desktop-build-electron.yml +2 -2
  10. package/.github/workflows/e2e.yml +1 -1
  11. package/.github/workflows/issue-auto-close-duplicates.yml +1 -1
  12. package/.github/workflows/lighthouse.yml +2 -2
  13. package/.github/workflows/lock-closed-issues.yml +1 -1
  14. package/.github/workflows/manual-build-desktop.yml +6 -6
  15. package/.github/workflows/pr-build-desktop.yml +5 -5
  16. package/.github/workflows/pr-build-docker.yml +2 -2
  17. package/.github/workflows/release-desktop-beta.yml +4 -4
  18. package/.github/workflows/release-docker.yml +2 -2
  19. package/.github/workflows/release.yml +1 -1
  20. package/.github/workflows/sync-database-schema.yml +1 -1
  21. package/.github/workflows/sync.yml +1 -1
  22. package/.github/workflows/test.yml +5 -5
  23. package/.github/workflows/verify-desktop-patch.yml +1 -1
  24. package/CHANGELOG.md +33 -0
  25. package/changelog/v1.json +9 -0
  26. package/locales/ar/models.json +35 -4
  27. package/locales/ar/providers.json +1 -0
  28. package/locales/bg-BG/models.json +24 -1
  29. package/locales/bg-BG/providers.json +1 -0
  30. package/locales/de-DE/models.json +30 -1
  31. package/locales/de-DE/providers.json +1 -0
  32. package/locales/en-US/models.json +1 -0
  33. package/locales/en-US/providers.json +1 -0
  34. package/locales/es-ES/models.json +32 -1
  35. package/locales/es-ES/providers.json +1 -0
  36. package/locales/fa-IR/models.json +48 -1
  37. package/locales/fa-IR/providers.json +1 -0
  38. package/locales/fr-FR/models.json +47 -1
  39. package/locales/fr-FR/providers.json +1 -0
  40. package/locales/it-IT/models.json +32 -1
  41. package/locales/it-IT/providers.json +1 -0
  42. package/locales/ja-JP/models.json +2 -1
  43. package/locales/ja-JP/providers.json +1 -0
  44. package/locales/ko-KR/models.json +24 -1
  45. package/locales/ko-KR/providers.json +1 -0
  46. package/locales/nl-NL/models.json +46 -1
  47. package/locales/nl-NL/providers.json +1 -0
  48. package/locales/pl-PL/models.json +41 -1
  49. package/locales/pl-PL/providers.json +1 -0
  50. package/locales/pt-BR/models.json +32 -1
  51. package/locales/pt-BR/providers.json +1 -0
  52. package/locales/ru-RU/models.json +54 -2
  53. package/locales/ru-RU/providers.json +1 -0
  54. package/locales/tr-TR/models.json +32 -1
  55. package/locales/tr-TR/providers.json +1 -0
  56. package/locales/vi-VN/models.json +37 -1
  57. package/locales/vi-VN/providers.json +1 -0
  58. package/locales/zh-CN/models.json +24 -3
  59. package/locales/zh-CN/providers.json +1 -0
  60. package/locales/zh-TW/models.json +11 -1
  61. package/locales/zh-TW/providers.json +1 -0
  62. package/package.json +1 -1
  63. package/packages/context-engine/src/engine/messages/types.ts +1 -1
  64. package/packages/model-runtime/src/core/BaseAI.ts +1 -1
  65. package/packages/model-runtime/src/core/streams/qwen.test.ts +140 -0
  66. package/packages/model-runtime/src/core/streams/qwen.ts +17 -5
  67. package/packages/model-runtime/src/types/chat.ts +12 -12
  68. package/packages/model-runtime/src/types/error.ts +1 -1
  69. package/packages/model-runtime/src/types/image.ts +1 -1
  70. package/src/app/[variants]/(main)/chat/features/Conversation/Header/index.tsx +2 -1
  71. package/src/server/services/comfyui/config/constants.ts +7 -7
  72. package/src/server/services/comfyui/config/promptToolConst.ts +26 -26
  73. package/src/server/services/comfyui/utils/promptSplitter.ts +23 -23
  74. package/src/server/services/comfyui/utils/weightDType.ts +4 -5
@@ -355,6 +355,51 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
358
+ "deepseek-chat.description": "Een nieuw open-source model dat algemene en codevaardigheden combineert. Het behoudt de algemene dialoogcapaciteiten van het chatmodel en de sterke codeerprestaties van het coderingsmodel, met betere voorkeurafstemming. DeepSeek-V2.5 verbetert ook schrijfvaardigheid en het opvolgen van instructies.",
359
+ "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
360
+ "deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
361
+ "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
362
+ "deepseek-ocr.description": "DeepSeek-OCR is een visie-taalmodel van DeepSeek AI dat zich richt op OCR en \"contextuele optische compressie\". Het onderzoekt het comprimeren van contextuele informatie uit afbeeldingen, verwerkt documenten efficiënt en zet ze om in gestructureerde tekstformaten zoals Markdown. Het herkent nauwkeurig tekst in afbeeldingen, ideaal voor documentdigitalisatie, tekstuittrekking en gestructureerde verwerking.",
363
+ "deepseek-r1-0528.description": "685B volledig model uitgebracht op 2025-05-28. DeepSeek-R1 gebruikt grootschalige versterkingsleren in de post-trainingfase, wat het redeneervermogen sterk verbetert met minimale gelabelde data, en presteert uitstekend op wiskunde, programmeren en natuurlijke taalredenering.",
364
+ "deepseek-r1-250528.description": "DeepSeek R1 250528 is het volledige DeepSeek-R1 redeneermodel voor complexe wiskundige en logische taken.",
365
+ "deepseek-r1-70b-fast-online.description": "DeepSeek R1 70B snelle editie met realtime webzoekfunctie, levert snellere reacties met behoud van prestaties.",
366
+ "deepseek-r1-70b-online.description": "DeepSeek R1 70B standaardeditie met realtime webzoekfunctie, geschikt voor actuele chat- en teksttaken.",
367
+ "deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B combineert R1-redenering met het Llama-ecosysteem.",
368
+ "deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B is gedistilleerd uit Llama-3.1-8B met behulp van DeepSeek R1-uitvoer.",
369
+ "deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama is gedistilleerd uit DeepSeek-R1 op Llama.",
370
+ "deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B is een R1-distillatie gebaseerd op Qianfan-70B met hoge waarde.",
371
+ "deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B is een R1-distillatie gebaseerd op Qianfan-8B voor kleine en middelgrote toepassingen.",
372
+ "deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B is een R1-distillatie gebaseerd op Llama-70B.",
373
+ "deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B is een ultralicht distillatiemodel voor zeer beperkte omgevingen.",
374
+ "deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B is een middelgroot distillatiemodel voor inzet in meerdere scenario's.",
375
+ "deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B is een R1-distillatie gebaseerd op Qwen-32B, met een balans tussen prestaties en kosten.",
376
+ "deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B is een lichtgewicht distillatiemodel voor edge- en privébedrijfstoepassingen.",
377
+ "deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen is gedistilleerd uit DeepSeek-R1 op Qwen.",
378
+ "deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
379
+ "deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
380
+ "deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 denkmodus genereert een gedachtegang vóór het eindantwoord om de nauwkeurigheid te verbeteren.",
382
+ "deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
383
+ "deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s codegerichte model met sterke codegeneratie.",
384
+ "deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
385
+ "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus is een terminal-geoptimaliseerd LLM van DeepSeek, afgestemd op terminalapparaten.",
386
+ "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 is het diepdenkende model dat overeenkomt met de Terminus-versie, gebouwd voor hoogwaardig redeneervermogen.",
387
+ "deepseek-v3.1.description": "DeepSeek-V3.1 is een nieuw hybride redeneermodel van DeepSeek, dat zowel denk- als niet-denkmodi ondersteunt en een hogere denkefficiëntie biedt dan DeepSeek-R1-0528. Optimalisaties na training verbeteren het gebruik van agenttools en de prestaties bij agenttaken aanzienlijk. Het ondersteunt een contextvenster van 128k en tot 64k outputtokens.",
388
+ "deepseek-v3.1:671b.description": "DeepSeek V3.1 is een next-gen redeneermodel met verbeterde complexe redenering en gedachtegang, geschikt voor taken die diepgaande analyse vereisen.",
389
+ "deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduceert sparse attention om de efficiëntie van training en inferentie op lange teksten te verbeteren, tegen een lagere prijs dan deepseek-v3.1.",
390
+ "deepseek-v3.2-think.description": "DeepSeek V3.2 Think is een volledig diepdenkend model met sterker langketen-redeneervermogen.",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2 is het eerste hybride redeneermodel van DeepSeek dat denken integreert met toolgebruik. Het combineert een efficiënte architectuur voor rekenbesparing, grootschalig versterkingsleren voor capaciteitsverhoging en grootschalige synthetische taakdata voor sterke generalisatie. De prestaties zijn vergelijkbaar met GPT-5-High, met aanzienlijk kortere outputlengte, wat de rekentijd en wachttijd voor gebruikers drastisch vermindert.",
392
+ "deepseek-v3.description": "DeepSeek-V3 is een krachtig MoE-model met in totaal 671B parameters en 37B actief per token.",
393
+ "deepseek-vl2-small.description": "DeepSeek VL2 Small is een lichtgewicht multimodaal model voor omgevingen met beperkte middelen en hoge gelijktijdigheid.",
394
+ "deepseek-vl2.description": "DeepSeek VL2 is een multimodaal model voor beeld-tekstbegrip en fijnmazige visuele vraagbeantwoording.",
395
+ "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 is een MoE-model met 685B parameters en de nieuwste iteratie van DeepSeek’s vlaggenschip-chatserie.\n\nHet bouwt voort op [DeepSeek V3](/deepseek/deepseek-chat-v3) en presteert sterk over verschillende taken.",
396
+ "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 is een MoE-model met 685B parameters en de nieuwste iteratie van DeepSeek’s vlaggenschip-chatserie.\n\nHet bouwt voort op [DeepSeek V3](/deepseek/deepseek-chat-v3) en presteert sterk over verschillende taken.",
397
+ "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 is DeepSeek’s hybride redeneermodel met lange context, dat gemengde denk-/niet-denkmodi en toolintegratie ondersteunt.",
398
+ "deepseek/deepseek-chat.description": "DeepSeek-V3 is DeepSeek’s krachtige hybride redeneermodel voor complexe taken en toolintegratie.",
399
+ "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 is een bijgewerkte variant gericht op open beschikbaarheid en diepere redenering.",
400
+ "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 verbetert het redeneervermogen aanzienlijk met minimale gelabelde data en genereert een gedachtegang vóór het eindantwoord om de nauwkeurigheid te verhogen.",
401
+ "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B is een gedistilleerd LLM gebaseerd op Llama 3.3 70B, fijngestemd met DeepSeek R1-uitvoer om concurrerende prestaties te leveren met grote frontiermodellen.",
402
+ "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B is een gedistilleerd LLM gebaseerd op Llama-3.1-8B-Instruct, getraind met DeepSeek R1-uitvoer.",
358
403
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
359
404
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
360
405
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
@@ -562,4 +607,4 @@
562
607
  "zai/glm-4.5.description": "De GLM-4.5-serie is ontworpen voor agents. Het vlaggenschip GLM-4.5 combineert redenering, codering en agentvaardigheden met 355B totale parameters (32B actief) en biedt dubbele werkmodi als hybride redeneersysteem.",
563
608
  "zai/glm-4.5v.description": "GLM-4.5V is gebaseerd op GLM-4.5-Air, erft bewezen technieken van GLM-4.1V-Thinking en schaalt met een krachtige 106B-parameter MoE-architectuur.",
564
609
  "zenmux/auto.description": "ZenMux auto-routing selecteert het best presterende en meest kostenefficiënte model uit de ondersteunde opties op basis van je aanvraag."
565
- }
610
+ }
@@ -63,6 +63,7 @@
63
63
  "volcengine.description": "Het modelserviceplatform van ByteDance biedt veilige, uitgebreide en kosteneffectieve toegang tot modellen, plus end-to-end tooling voor data, fine-tuning, inferentie en evaluatie.",
64
64
  "wenxin.description": "Een alles-in-één platform voor fundamentele modellen en AI-native appontwikkeling voor bedrijven, met end-to-end tooling voor generatieve AI-workflows.",
65
65
  "xai.description": "xAI ontwikkelt AI om wetenschappelijke ontdekkingen te versnellen, met als missie het verdiepen van het menselijk begrip van het universum.",
66
+ "xiaomimimo.description": "Xiaomi MiMo biedt een conversatiemodelservice met een OpenAI-compatibele API. Het mimo-v2-flash-model ondersteunt diepgaande redenering, streamingoutput, functieaanroepen, een contextvenster van 256K en een maximale output van 128K.",
66
67
  "xinference.description": "Xorbits Inference (Xinference) is een open-source platform dat het uitvoeren en integreren van AI-modellen vereenvoudigt. Je kunt open-source LLM’s, embeddingmodellen en multimodale modellen lokaal of in de cloud draaien om krachtige AI-apps te bouwen.",
67
68
  "zenmux.description": "ZenMux is een uniform AI-aggregatieplatform dat OpenAI, Anthropic, Google VertexAI en meer ondersteunt, met flexibele routering om modellen eenvoudig te wisselen en beheren.",
68
69
  "zeroone.description": "01.AI leidt een mensgerichte AI 2.0-revolutie, waarbij LLM’s worden ingezet om economische en sociale waarde te creëren en nieuwe AI-ecosystemen en bedrijfsmodellen te bouwen.",
@@ -360,6 +360,46 @@
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
362
362
  "deepseek-ocr.description": "DeepSeek-OCR to model językowo-wizualny od DeepSeek AI skoncentrowany na OCR i „optycznej kompresji kontekstowej”. Eksploruje kompresję informacji kontekstowych z obrazów, efektywnie przetwarza dokumenty i konwertuje je do ustrukturyzowanych formatów tekstowych, takich jak Markdown. Dokładnie rozpoznaje tekst na obrazach, idealny do cyfryzacji dokumentów, ekstrakcji tekstu i przetwarzania strukturalnego.",
363
+ "deepseek-r1-0528.description": "Model pełny 685B wydany 28.05.2025. DeepSeek-R1 wykorzystuje uczenie przez wzmocnienie (RL) na dużą skalę po etapie trenowania, znacznie poprawiając rozumowanie przy minimalnej ilości oznaczonych danych. Wyróżnia się w zadaniach matematycznych, programistycznych i językowych.",
364
+ "deepseek-r1-250528.description": "DeepSeek R1 250528 to pełna wersja modelu DeepSeek-R1 przeznaczona do trudnych zadań matematycznych i logicznych.",
365
+ "deepseek-r1-70b-fast-online.description": "Szybka edycja DeepSeek R1 70B z wyszukiwaniem w czasie rzeczywistym, zapewniająca szybsze odpowiedzi przy zachowaniu wysokiej wydajności.",
366
+ "deepseek-r1-70b-online.description": "Standardowa edycja DeepSeek R1 70B z wyszukiwaniem w czasie rzeczywistym, idealna do aktualnych zadań konwersacyjnych i tekstowych.",
367
+ "deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B łączy rozumowanie R1 z ekosystemem Llama.",
368
+ "deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B to model zdestylowany z Llama-3.1-8B przy użyciu wyników DeepSeek R1.",
369
+ "deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama to model zdestylowany z DeepSeek-R1 na bazie Llama.",
370
+ "deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B to destylacja R1 oparta na Qianfan-70B o wysokiej wartości użytkowej.",
371
+ "deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B to destylacja R1 oparta na Qianfan-8B, przeznaczona do małych i średnich aplikacji.",
372
+ "deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B to destylacja R1 oparta na Llama-70B.",
373
+ "deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B to ultralekki model destylowany do środowisk o bardzo ograniczonych zasobach.",
374
+ "deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B to model średniej wielkości do wdrożeń w różnych scenariuszach.",
375
+ "deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B to destylacja R1 oparta na Qwen-32B, zapewniająca równowagę między wydajnością a kosztem.",
376
+ "deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B to lekki model destylowany do zastosowań brzegowych i środowisk korporacyjnych.",
377
+ "deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen to model zdestylowany z DeepSeek-R1 na bazie Qwen.",
378
+ "deepseek-r1-fast-online.description": "Szybka pełna wersja DeepSeek R1 z wyszukiwaniem w czasie rzeczywistym, łącząca możliwości modelu 671B z szybszymi odpowiedziami.",
379
+ "deepseek-r1-online.description": "Pełna wersja DeepSeek R1 z 671 miliardami parametrów i wyszukiwaniem w czasie rzeczywistym, oferująca lepsze rozumienie i generowanie.",
380
+ "deepseek-r1.description": "DeepSeek-R1 wykorzystuje dane startowe przed RL i osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, programistycznych i logicznych.",
381
+ "deepseek-reasoner.description": "Tryb myślenia DeepSeek V3.2 generuje łańcuch rozumowania przed odpowiedzią końcową, poprawiając trafność wyników.",
382
+ "deepseek-v2.description": "DeepSeek V2 to wydajny model MoE zoptymalizowany pod kątem efektywności kosztowej.",
383
+ "deepseek-v2:236b.description": "DeepSeek V2 236B to model skoncentrowany na kodzie, oferujący zaawansowane generowanie kodu.",
384
+ "deepseek-v3-0324.description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, wyróżniający się w programowaniu, rozumieniu kontekstu i obsłudze długich tekstów.",
385
+ "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus to zoptymalizowany pod terminale model LLM od DeepSeek, dostosowany do urządzeń końcowych.",
386
+ "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 to model głębokiego rozumowania odpowiadający wersji Terminus, stworzony do zadań wymagających wysokiej wydajności rozumowania.",
387
+ "deepseek-v3.1.description": "DeepSeek-V3.1 to nowy hybrydowy model rozumowania od DeepSeek, obsługujący tryby myślenia i bezmyślenia, oferujący wyższą efektywność rozumowania niż DeepSeek-R1-0528. Optymalizacje po etapie trenowania znacznie poprawiają wykorzystanie narzędzi i wydajność zadań agentowych. Obsługuje okno kontekstowe 128k i do 64k tokenów wyjściowych.",
388
+ "deepseek-v3.1:671b.description": "DeepSeek V3.1 to model nowej generacji do złożonego rozumowania i łańcuchów myślowych, odpowiedni do zadań wymagających głębokiej analizy.",
389
+ "deepseek-v3.2-exp.description": "deepseek-v3.2-exp wprowadza rzadką uwagę (sparse attention), poprawiając efektywność trenowania i wnioskowania na długich tekstach przy niższej cenie niż deepseek-v3.1.",
390
+ "deepseek-v3.2-think.description": "DeepSeek V3.2 Think to pełny model głębokiego rozumowania z silniejszymi zdolnościami do długich łańcuchów myślowych.",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2 to pierwszy model hybrydowego rozumowania od DeepSeek, który integruje myślenie z użyciem narzędzi. Dzięki wydajnej architekturze oszczędza moc obliczeniową, wykorzystuje RL na dużą skalę do zwiększenia możliwości oraz dane zadań syntetycznych do poprawy uogólnienia. Wydajność porównywalna z GPT-5-High, znacznie skrócony czas odpowiedzi i mniejsze zużycie zasobów.",
392
+ "deepseek-v3.description": "DeepSeek-V3 to potężny model MoE z 671 miliardami parametrów ogółem i 37 miliardami aktywnymi na token.",
393
+ "deepseek-vl2-small.description": "DeepSeek VL2 Small to lekka wersja multimodalna do środowisk o ograniczonych zasobach i wysokiej równoczesności.",
394
+ "deepseek-vl2.description": "DeepSeek VL2 to model multimodalny do rozumienia obrazu i tekstu oraz precyzyjnych zadań wizualnych typu pytanie-odpowiedź.",
395
+ "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 to model MoE z 685 miliardami parametrów i najnowsza wersja flagowej serii czatów DeepSeek.\n\nBazuje na [DeepSeek V3](/deepseek/deepseek-chat-v3) i osiąga wysokie wyniki w różnych zadaniach.",
396
+ "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 to model MoE z 685 miliardami parametrów i najnowsza wersja flagowej serii czatów DeepSeek.\n\nBazuje na [DeepSeek V3](/deepseek/deepseek-chat-v3) i osiąga wysokie wyniki w różnych zadaniach.",
397
+ "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 to model hybrydowego rozumowania z długim kontekstem, obsługujący tryby myślenia i bezmyślenia oraz integrację z narzędziami.",
398
+ "deepseek/deepseek-chat.description": "DeepSeek-V3 to model hybrydowego rozumowania o wysokiej wydajności, przeznaczony do złożonych zadań i integracji z narzędziami.",
399
+ "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 to zaktualizowana wersja skoncentrowana na otwartej dostępności i głębszym rozumowaniu.",
400
+ "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 znacznie poprawia rozumowanie przy minimalnej ilości oznaczonych danych i generuje łańcuch rozumowania przed odpowiedzią końcową, zwiększając trafność.",
401
+ "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B to zdestylowany model LLM oparty na Llama 3.3 70B, dostrojony przy użyciu wyników DeepSeek R1, osiągający konkurencyjne wyniki względem czołowych modeli.",
402
+ "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B to zdestylowany model LLM oparty na Llama-3.1-8B-Instruct, trenowany przy użyciu wyników DeepSeek R1.",
363
403
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
364
404
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
365
405
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
@@ -570,4 +610,4 @@
570
610
  "zai/glm-4.5.description": "Seria GLM-4.5 została zaprojektowana z myślą o agentach. Flagowy model GLM-4.5 łączy rozumowanie, kodowanie i umiejętności agentowe, posiada 355B parametrów ogółem (32B aktywnych) i oferuje dwa tryby działania jako system hybrydowego rozumowania.",
571
611
  "zai/glm-4.5v.description": "GLM-4.5V bazuje na GLM-4.5-Air, dziedzicząc sprawdzone techniki GLM-4.1V-Thinking i skalując się dzięki silnej architekturze MoE z 106 miliardami parametrów.",
572
612
  "zenmux/auto.description": "Automatyczne trasowanie ZenMux wybiera najlepiej wyceniony i najbardziej wydajny model spośród obsługiwanych opcji na podstawie Twojego zapytania."
573
- }
613
+ }
@@ -63,6 +63,7 @@
63
63
  "volcengine.description": "Platforma usług modelowych ByteDance oferuje bezpieczny, bogaty w funkcje i konkurencyjny cenowo dostęp do modeli oraz kompleksowe narzędzia do danych, dostrajania, inferencji i oceny.",
64
64
  "wenxin.description": "Platforma all-in-one dla przedsiębiorstw do modeli bazowych i tworzenia aplikacji AI-native, oferująca kompleksowe narzędzia do pracy z generatywnymi modelami AI i aplikacjami.",
65
65
  "xai.description": "xAI tworzy AI w celu przyspieszenia odkryć naukowych, z misją pogłębiania zrozumienia wszechświata przez ludzkość.",
66
+ "xiaomimimo.description": "Xiaomi MiMo oferuje usługę modelu konwersacyjnego z interfejsem API kompatybilnym z OpenAI. Model mimo-v2-flash obsługuje zaawansowane rozumowanie, strumieniowe generowanie odpowiedzi, wywoływanie funkcji, kontekst o rozmiarze 256K oraz maksymalną długość odpowiedzi wynoszącą 128K.",
66
67
  "xinference.description": "Xorbits Inference (Xinference) to open-source’owa platforma upraszczająca uruchamianie i integrację modeli AI. Umożliwia lokalne lub chmurowe uruchamianie otwartych LLM, modeli osadzania i modeli multimodalnych do tworzenia zaawansowanych aplikacji AI.",
67
68
  "zenmux.description": "ZenMux to zunifikowana platforma agregacji AI obsługująca OpenAI, Anthropic, Google VertexAI i inne, z elastycznym routingiem umożliwiającym łatwe przełączanie i zarządzanie modelami.",
68
69
  "zeroone.description": "01.AI napędza rewolucję AI 2.0 skoncentrowaną na człowieku, wykorzystując LLM do tworzenia wartości ekonomicznej i społecznej oraz budowania nowych ekosystemów i modeli biznesowych AI.",
@@ -382,6 +382,37 @@
382
382
  "deepseek-v2.description": "O DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
383
383
  "deepseek-v2:236b.description": "O DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
384
384
  "deepseek-v3-0324.description": "O DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
385
+ "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus é um modelo LLM otimizado para terminais da DeepSeek, desenvolvido especialmente para dispositivos de terminal.",
386
+ "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 é o modelo de raciocínio profundo correspondente à versão Terminus, projetado para desempenho elevado em tarefas de raciocínio.",
387
+ "deepseek-v3.1.description": "DeepSeek-V3.1 é um novo modelo híbrido de raciocínio da DeepSeek, que suporta modos com e sem raciocínio, oferecendo maior eficiência de pensamento em comparação ao DeepSeek-R1-0528. Otimizações pós-treinamento melhoram significativamente o uso de ferramentas por agentes e o desempenho em tarefas. Suporta uma janela de contexto de 128k e até 64k tokens de saída.",
388
+ "deepseek-v3.1:671b.description": "DeepSeek V3.1 é um modelo de raciocínio de nova geração com melhorias em raciocínio complexo e cadeia de pensamento, ideal para tarefas que exigem análise profunda.",
389
+ "deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduz atenção esparsa para melhorar a eficiência de treinamento e inferência em textos longos, com custo inferior ao deepseek-v3.1.",
390
+ "deepseek-v3.2-think.description": "DeepSeek V3.2 Think é um modelo completo de raciocínio profundo com raciocínio em cadeias longas mais robusto.",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2 é o primeiro modelo híbrido de raciocínio da DeepSeek que integra pensamento ao uso de ferramentas. Com arquitetura eficiente para economia de recursos, aprendizado por reforço em larga escala para aumento de capacidade e dados sintéticos em grande volume para melhor generalização, seu desempenho rivaliza com o GPT-5-High. A redução significativa no comprimento da saída diminui o custo computacional e o tempo de espera do usuário.",
392
+ "deepseek-v3.description": "DeepSeek-V3 é um poderoso modelo MoE com 671 bilhões de parâmetros totais e 37 bilhões ativos por token.",
393
+ "deepseek-vl2-small.description": "DeepSeek VL2 Small é uma versão multimodal leve, ideal para ambientes com recursos limitados e alta concorrência.",
394
+ "deepseek-vl2.description": "DeepSeek VL2 é um modelo multimodal para compreensão de imagem-texto e perguntas e respostas visuais detalhadas.",
395
+ "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 é um modelo MoE com 685 bilhões de parâmetros e a mais recente iteração da série de chat principal da DeepSeek.\n\nBaseado no [DeepSeek V3](/deepseek/deepseek-chat-v3), apresenta excelente desempenho em diversas tarefas.",
396
+ "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 é um modelo MoE com 685 bilhões de parâmetros e a mais recente iteração da série de chat principal da DeepSeek.\n\nBaseado no [DeepSeek V3](/deepseek/deepseek-chat-v3), apresenta excelente desempenho em diversas tarefas.",
397
+ "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 é o modelo híbrido de raciocínio com longo contexto da DeepSeek, com suporte a modos mistos de pensamento/não pensamento e integração com ferramentas.",
398
+ "deepseek/deepseek-chat.description": "DeepSeek-V3 é o modelo híbrido de raciocínio de alto desempenho da DeepSeek para tarefas complexas e integração com ferramentas.",
399
+ "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 é uma variante atualizada com foco em disponibilidade aberta e raciocínio mais profundo.",
400
+ "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 melhora significativamente o raciocínio com dados rotulados mínimos e gera uma cadeia de pensamento antes da resposta final para aumentar a precisão.",
401
+ "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B é um LLM destilado baseado no Llama 3.3 70B, ajustado com saídas do DeepSeek R1 para alcançar desempenho competitivo com modelos de ponta.",
402
+ "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B é um LLM destilado baseado no Llama-3.1-8B-Instruct, treinado com saídas do DeepSeek R1.",
403
+ "deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B é um LLM destilado baseado no Qwen 2.5 14B, treinado com saídas do DeepSeek R1. Supera o OpenAI o1-mini em vários benchmarks, alcançando resultados de ponta entre modelos densos. Destaques de benchmark:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces Rating: 1481\nO ajuste fino com saídas do DeepSeek R1 oferece desempenho competitivo com modelos de ponta maiores.",
404
+ "deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B é um LLM destilado baseado no Qwen 2.5 32B, treinado com saídas do DeepSeek R1. Supera o OpenAI o1-mini em vários benchmarks, alcançando resultados de ponta entre modelos densos. Destaques de benchmark:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces Rating: 1691\nO ajuste fino com saídas do DeepSeek R1 oferece desempenho competitivo com modelos de ponta maiores.",
405
+ "deepseek/deepseek-r1.description": "DeepSeek R1 foi atualizado para DeepSeek-R1-0528. Com mais capacidade computacional e otimizações algorítmicas pós-treinamento, melhora significativamente a profundidade e capacidade de raciocínio. Apresenta forte desempenho em benchmarks de matemática, programação e lógica geral, aproximando-se de líderes como o o3 e Gemini 2.5 Pro.",
406
+ "deepseek/deepseek-r1/community.description": "DeepSeek R1 é o mais recente modelo de código aberto lançado pela equipe DeepSeek, com desempenho de raciocínio muito forte, especialmente em matemática, programação e tarefas de lógica, comparável ao OpenAI o1.",
407
+ "deepseek/deepseek-r1:free.description": "DeepSeek-R1 melhora significativamente o raciocínio com dados rotulados mínimos e gera uma cadeia de pensamento antes da resposta final para aumentar a precisão.",
408
+ "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) é o modelo experimental de raciocínio da DeepSeek, adequado para tarefas de alta complexidade.",
409
+ "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base é uma versão aprimorada do modelo DeepSeek V3.",
410
+ "deepseek/deepseek-v3.description": "Um LLM rápido e de uso geral com raciocínio aprimorado.",
411
+ "deepseek/deepseek-v3/community.description": "DeepSeek-V3 representa um grande avanço na velocidade de raciocínio em relação aos modelos anteriores. Classifica-se em primeiro lugar entre os modelos de código aberto e rivaliza com os modelos fechados mais avançados. Adota Multi-Head Latent Attention (MLA) e a arquitetura DeepSeekMoE, ambas validadas no DeepSeek-V2. Também introduz uma estratégia auxiliar sem perdas para balanceamento de carga e um objetivo de treinamento com previsão de múltiplos tokens para desempenho superior.",
412
+ "deepseek_r1.description": "DeepSeek-R1 é um modelo de raciocínio orientado por aprendizado por reforço que resolve problemas de repetição e legibilidade. Antes do RL, utiliza dados de início a frio para melhorar ainda mais o desempenho de raciocínio. Alcança desempenho comparável ao OpenAI-o1 em tarefas de matemática, programação e raciocínio, com treinamento cuidadosamente projetado para melhorar os resultados gerais.",
413
+ "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B é destilado do Llama-3.3-70B-Instruct. Como parte da série DeepSeek-R1, é ajustado com amostras geradas pelo DeepSeek-R1 e apresenta forte desempenho em matemática, programação e raciocínio.",
414
+ "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B é destilado do Qwen2.5-14B e ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, oferecendo raciocínio robusto.",
415
+ "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B é destilado do Qwen2.5-32B e ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, destacando-se em matemática, programação e raciocínio.",
385
416
  "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
386
417
  "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
387
418
  "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
@@ -569,4 +600,4 @@
569
600
  "zai/glm-4.5.description": "A série GLM-4.5 foi projetada para agentes. O modelo principal GLM-4.5 combina raciocínio, codificação e habilidades de agente com 355B de parâmetros totais (32B ativos) e oferece modos de operação duplos como um sistema de raciocínio híbrido.",
570
601
  "zai/glm-4.5v.description": "GLM-4.5V é baseado no GLM-4.5-Air, herdando técnicas comprovadas do GLM-4.1V-Thinking e escalando com uma robusta arquitetura MoE de 106B parâmetros.",
571
602
  "zenmux/auto.description": "O roteamento automático do ZenMux seleciona o modelo com melhor desempenho e custo-benefício entre as opções suportadas, com base na sua solicitação."
572
- }
603
+ }
@@ -63,6 +63,7 @@
63
63
  "volcengine.description": "A plataforma de serviços de modelos da ByteDance oferece acesso seguro, completo e competitivo a modelos, além de ferramentas de ponta a ponta para dados, ajuste fino, inferência e avaliação.",
64
64
  "wenxin.description": "Uma plataforma empresarial tudo-em-um para modelos fundamentais e desenvolvimento de aplicativos nativos de IA, oferecendo ferramentas completas para fluxos de trabalho de modelos e aplicativos generativos.",
65
65
  "xai.description": "A xAI desenvolve IA para acelerar descobertas científicas, com a missão de aprofundar a compreensão humana do universo.",
66
+ "xiaomimimo.description": "O Xiaomi MiMo oferece um serviço de modelo conversacional com uma API compatível com o OpenAI. O modelo mimo-v2-flash suporta raciocínio profundo, saída em tempo real, chamadas de função, uma janela de contexto de 256K e uma saída máxima de 128K.",
66
67
  "xinference.description": "O Xorbits Inference (Xinference) é uma plataforma open-source que simplifica a execução e integração de modelos de IA. Permite executar LLMs, modelos de embedding e modelos multimodais localmente ou na nuvem para construir aplicativos de IA poderosos.",
67
68
  "zenmux.description": "O ZenMux é uma plataforma unificada de agregação de IA que suporta OpenAI, Anthropic, Google VertexAI e outros, com roteamento flexível para alternar e gerenciar modelos com facilidade.",
68
69
  "zeroone.description": "A 01.AI lidera uma revolução de IA 2.0 centrada no ser humano, usando LLMs para criar valor econômico e social e construir novos ecossistemas e modelos de negócios com IA.",
@@ -104,7 +104,6 @@
104
104
  "Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 — новейшая и самая мощная версия Kimi K2. Это передовая модель MoE с общим числом параметров 1 трлн и 32 млрд активных. Ключевые особенности включают усиленный агентный интеллект в программировании с заметным улучшением результатов на тестах и в реальных задачах, а также улучшенную эстетику и удобство интерфейсного кода.",
105
105
  "Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo — это ускоренный вариант, оптимизированный для скорости рассуждений и пропускной способности, при сохранении многошагового мышления и использования инструментов K2 Thinking. Это модель MoE с ~1 трлн параметров, нативной поддержкой контекста 256K и стабильным вызовом инструментов в масштабных производственных сценариях с жёсткими требованиями к задержке и параллельности.",
106
106
  "Pro/zai-org/glm-4.7.description": "GLM-4.7 — это флагманская модель нового поколения от Zhipu AI с общим числом параметров 355 миллиардов и 32 миллиардами активных параметров. Она представляет собой всестороннее обновление в области универсального диалога, рассуждений и возможностей интеллектуальных агентов. GLM-4.7 усиливает Interleaved Thinking (перекрёстное мышление), а также вводит концепции Preserved Thinking (сохранённое мышление) и Turn-level Thinking (пошаговое мышление).",
107
- "Pro/zai-org/glm-4.7.description": "GLM-4.7 — это флагманская модель нового поколения от Zhipu AI с общим числом параметров 355 миллиардов и 32 миллиардами активных параметров. Она представляет собой всестороннее обновление в области универсального диалога, рассуждений и возможностей интеллектуальных агентов. GLM-4.7 усиливает Interleaved Thinking (перекрёстное мышление), а также вводит концепции Preserved Thinking (сохранённое мышление) и Turn-level Thinking (пошаговое мышление).",
108
107
  "QwQ-32B-Preview.description": "Qwen QwQ — это экспериментальная исследовательская модель, направленная на улучшение логического мышления.",
109
108
  "Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview — исследовательская модель от Qwen, ориентированная на визуальное мышление, с сильными сторонами в понимании сложных сцен и решении визуальных математических задач.",
110
109
  "Qwen/QwQ-32B-Preview.description": "Qwen QwQ — экспериментальная исследовательская модель, сосредоточенная на улучшении логического мышления ИИ.",
@@ -361,6 +360,59 @@
361
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
362
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
363
362
  "deepseek-ocr.description": "DeepSeek-OCR — визуально-языковая модель от DeepSeek AI, ориентированная на OCR и «контекстное оптическое сжатие». Она исследует методы сжатия контекста из изображений, эффективно обрабатывает документы и преобразует их в структурированные текстовые форматы, такие как Markdown. Точно распознаёт текст на изображениях, идеально подходит для оцифровки документов, извлечения текста и структурированной обработки.",
363
+ "deepseek-r1-0528.description": "Полная модель 685B выпущена 28.05.2025. DeepSeek-R1 использует масштабное обучение с подкреплением на этапе постобучения, значительно улучшая логическое мышление при минимуме размеченных данных. Демонстрирует высокие результаты в математике, программировании и языковом рассуждении.",
364
+ "deepseek-r1-250528.description": "DeepSeek R1 250528 — это полная модель логического вывода DeepSeek-R1, предназначенная для сложных математических и логических задач.",
365
+ "deepseek-r1-70b-fast-online.description": "Быстрая версия DeepSeek R1 70B с поддержкой поиска в интернете в реальном времени, обеспечивающая быстрые ответы при сохранении высокой производительности.",
366
+ "deepseek-r1-70b-online.description": "Стандартная версия DeepSeek R1 70B с поиском в интернете в реальном времени, подходящая для актуальных диалогов и текстовых задач.",
367
+ "deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B сочетает логическое мышление R1 с экосистемой Llama.",
368
+ "deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B — дистиллированная модель на основе Llama-3.1-8B, обученная на выходных данных DeepSeek R1.",
369
+ "deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama — дистиллированная модель DeepSeek-R1 на базе Llama.",
370
+ "deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B — дистиллированная модель R1 на основе Qianfan-70B с высокой ценностью.",
371
+ "deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B — дистиллированная модель R1 на базе Qianfan-8B, предназначенная для малых и средних приложений.",
372
+ "deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B — дистиллированная модель R1 на основе Llama-70B.",
373
+ "deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B — сверхлёгкая дистиллированная модель для сред с ограниченными ресурсами.",
374
+ "deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B — дистиллированная модель среднего размера для многосценарного применения.",
375
+ "deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B — дистиллированная модель R1 на базе Qwen-32B, обеспечивающая баланс между производительностью и стоимостью.",
376
+ "deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B — лёгкая дистиллированная модель для периферийных и корпоративных сред.",
377
+ "deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen — дистиллированная модель DeepSeek-R1 на базе Qwen.",
378
+ "deepseek-r1-fast-online.description": "Быстрая полная версия DeepSeek R1 с поиском в интернете в реальном времени, объединяющая возможности масштаба 671B и ускоренный отклик.",
379
+ "deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671B параметрами и поиском в интернете в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
380
+ "deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа RL и демонстрирует сопоставимую с OpenAI-o1 производительность в математике, программировании и логическом мышлении.",
381
+ "deepseek-reasoner.description": "Режим мышления DeepSeek V3.2 выводит цепочку рассуждений перед финальным ответом для повышения точности.",
382
+ "deepseek-v2.description": "DeepSeek V2 — эффективная модель MoE для экономичной обработки.",
383
+ "deepseek-v2:236b.description": "DeepSeek V2 236B — модель DeepSeek, ориентированная на программирование, с высокой способностью к генерации кода.",
384
+ "deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671B параметрами, выделяющаяся в программировании, технических задачах, понимании контекста и работе с длинными текстами.",
385
+ "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus — оптимизированная для терминальных устройств LLM от DeepSeek.",
386
+ "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 — модель глубокого мышления, соответствующая версии Terminus, созданная для высокоэффективного логического вывода.",
387
+ "deepseek-v3.1.description": "DeepSeek-V3.1 — гибридная модель логического вывода нового поколения от DeepSeek, поддерживающая режимы с мышлением и без, с более высокой эффективностью мышления по сравнению с DeepSeek-R1-0528. Оптимизации после обучения значительно улучшают использование инструментов агентами и выполнение задач. Поддерживает окно контекста 128k и до 64k выходных токенов.",
388
+ "deepseek-v3.1:671b.description": "DeepSeek V3.1 — модель логического вывода следующего поколения с улучшенным сложным мышлением и цепочкой рассуждений, подходящая для задач, требующих глубокого анализа.",
389
+ "deepseek-v3.2-exp.description": "deepseek-v3.2-exp внедряет разреженное внимание для повышения эффективности обучения и вывода на длинных текстах по более низкой цене, чем deepseek-v3.1.",
390
+ "deepseek-v3.2-think.description": "DeepSeek V3.2 Think — полноценная модель глубокого мышления с усиленным длинноцепочечным рассуждением.",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2 — первая гибридная модель логического вывода от DeepSeek, объединяющая мышление с использованием инструментов. Эффективная архитектура снижает потребление ресурсов, масштабное обучение с подкреплением повышает способности, а синтетические данные задач улучшают обобщение. В совокупности модель достигает производительности, сопоставимой с GPT-5-High, при значительно меньших вычислительных затратах и времени ожидания пользователя.",
392
+ "deepseek-v3.description": "DeepSeek-V3 — мощная модель MoE с 671B общих параметров и 37B активных на токен.",
393
+ "deepseek-vl2-small.description": "DeepSeek VL2 Small — лёгкая мультимодальная модель для сред с ограниченными ресурсами и высокой нагрузкой.",
394
+ "deepseek-vl2.description": "DeepSeek VL2 — мультимодальная модель для понимания изображений и текста и точного визуального вопросо-ответа.",
395
+ "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 — модель MoE с 685B параметрами и последняя итерация флагманской серии чатов DeepSeek.\n\nОснована на [DeepSeek V3](/deepseek/deepseek-chat-v3) и демонстрирует высокую производительность в различных задачах.",
396
+ "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 — модель MoE с 685B параметрами и последняя итерация флагманской серии чатов DeepSeek.\n\nОснована на [DeepSeek V3](/deepseek/deepseek-chat-v3) и демонстрирует высокую производительность в различных задачах.",
397
+ "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 — гибридная модель логического вывода с длинным контекстом от DeepSeek, поддерживающая смешанные режимы мышления/без мышления и интеграцию инструментов.",
398
+ "deepseek/deepseek-chat.description": "DeepSeek-V3 — высокопроизводительная гибридная модель логического вывода от DeepSeek для сложных задач и интеграции инструментов.",
399
+ "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 — обновлённый вариант, ориентированный на открытую доступность и более глубокое логическое мышление.",
400
+ "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 значительно улучшает логическое мышление при минимуме размеченных данных и выводит цепочку рассуждений перед финальным ответом для повышения точности.",
401
+ "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B — дистиллированная LLM на основе Llama 3.3 70B, дообученная на выходных данных DeepSeek R1 для достижения конкурентной производительности с передовыми моделями.",
402
+ "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B — дистиллированная LLM на основе Llama-3.1-8B-Instruct, обученная на выходных данных DeepSeek R1.",
403
+ "deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B — дистиллированная LLM на основе Qwen 2.5 14B, обученная на выходных данных DeepSeek R1. Превосходит OpenAI o1-mini по нескольким бенчмаркам, достигая передовых результатов среди плотных моделей. Основные показатели:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nРейтинг CodeForces: 1481\nДообучение на выходных данных DeepSeek R1 обеспечивает конкурентную производительность с более крупными моделями.",
404
+ "deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B — дистиллированная LLM на основе Qwen 2.5 32B, обученная на выходных данных DeepSeek R1. Превосходит OpenAI o1-mini по нескольким бенчмаркам, достигая передовых результатов среди плотных моделей. Основные показатели:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nРейтинг CodeForces: 1691\nДообучение на выходных данных DeepSeek R1 обеспечивает конкурентную производительность с более крупными моделями.",
405
+ "deepseek/deepseek-r1.description": "DeepSeek R1 обновлён до версии DeepSeek-R1-0528. Благодаря увеличенным вычислениям и алгоритмическим оптимизациям после обучения, модель значительно улучшает глубину и качество логического мышления. Демонстрирует высокие результаты в математике, программировании и логике, приближаясь к лидерам, таким как o3 и Gemini 2.5 Pro.",
406
+ "deepseek/deepseek-r1/community.description": "DeepSeek R1 — последняя открытая модель от команды DeepSeek с очень высокой производительностью в логическом мышлении, особенно в математике, программировании и рассуждении, сопоставимая с OpenAI o1.",
407
+ "deepseek/deepseek-r1:free.description": "DeepSeek-R1 значительно улучшает логическое мышление при минимуме размеченных данных и выводит цепочку рассуждений перед финальным ответом для повышения точности.",
408
+ "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) — экспериментальная модель логического мышления от DeepSeek, подходящая для задач высокой сложности.",
409
+ "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base — улучшенная версия модели DeepSeek V3.",
410
+ "deepseek/deepseek-v3.description": "Быстрая универсальная LLM с улучшенным логическим мышлением.",
411
+ "deepseek/deepseek-v3/community.description": "DeepSeek-V3 обеспечивает значительный прорыв в скорости логического мышления по сравнению с предыдущими моделями. Занимает первое место среди открытых моделей и соперничает с самыми продвинутыми закрытыми решениями. DeepSeek-V3 использует Multi-Head Latent Attention (MLA) и архитектуру DeepSeekMoE, проверенные в DeepSeek-V2. Также внедрена вспомогательная стратегия без потерь для балансировки нагрузки и цель многотокенного предсказания для повышения производительности.",
412
+ "deepseek_r1.description": "DeepSeek-R1 — модель логического мышления, основанная на обучении с подкреплением, решающая проблемы повторов и читаемости. До этапа RL использует данные холодного старта для повышения качества рассуждений. Сопоставима с OpenAI-o1 в задачах по математике, программированию и логике, с тщательно продуманным обучением для улучшения общих результатов.",
413
+ "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B — дистиллированная модель на основе Llama-3.3-70B-Instruct. Является частью серии DeepSeek-R1, дообучена на выборках, сгенерированных DeepSeek-R1, и демонстрирует высокие результаты в математике, программировании и логике.",
414
+ "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B — дистиллированная модель на основе Qwen2.5-14B, дообученная на 800K отобранных выборках, сгенерированных DeepSeek-R1, обеспечивая высокое качество логического мышления.",
415
+ "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B — дистиллированная модель на основе Qwen2.5-32B, дообученная на 800K отобранных выборках, сгенерированных DeepSeek-R1, превосходящая в математике, программировании и логике.",
364
416
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
365
417
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
366
418
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
@@ -596,4 +648,4 @@
596
648
  "zai/glm-4.5.description": "Серия GLM-4.5 разработана для агентов. Флагманская модель GLM-4.5 сочетает рассуждение, программирование и агентные навыки с 355B параметров (32B активно) и предлагает два режима работы как гибридная система рассуждения.",
597
649
  "zai/glm-4.5v.description": "GLM-4.5V построена на базе GLM-4.5-Air, унаследовав проверенные техники GLM-4.1V-Thinking и масштабируясь с мощной архитектурой MoE на 106B параметров.",
598
650
  "zenmux/auto.description": "ZenMux auto-routing автоматически выбирает наиболее выгодную и производительную модель из поддерживаемых вариантов на основе вашего запроса."
599
- }
651
+ }
@@ -63,6 +63,7 @@
63
63
  "volcengine.description": "Платформа моделей от ByteDance предлагает безопасный, функционально насыщенный и экономически эффективный доступ к моделям, а также инструменты для работы с данными, дообучения, инференса и оценки.",
64
64
  "wenxin.description": "Универсальная корпоративная платформа для базовых моделей и разработки ИИ-приложений, предлагающая сквозные инструменты для генеративных моделей и рабочих процессов.",
65
65
  "xai.description": "xAI разрабатывает ИИ для ускорения научных открытий, стремясь углубить понимание Вселенной человечеством.",
66
+ "xiaomimimo.description": "Xiaomi MiMo предоставляет сервис разговорной модели с API, совместимым с OpenAI. Модель mimo-v2-flash поддерживает глубокое рассуждение, потоковую передачу ответов, вызов функций, контекстное окно объёмом 256K и максимальный вывод до 128K.",
66
67
  "xinference.description": "Xorbits Inference (Xinference) — это open-source платформа, упрощающая запуск и интеграцию ИИ-моделей. Позволяет запускать open-source LLM, модели эмбеддингов и мультимодальные модели локально или в облаке для создания мощных ИИ-приложений.",
67
68
  "zenmux.description": "ZenMux — это единая платформа агрегации ИИ, поддерживающая OpenAI, Anthropic, Google VertexAI и другие, с гибкой маршрутизацией для легкого переключения и управления моделями.",
68
69
  "zeroone.description": "01.AI ведет революцию ИИ 2.0, ориентированную на человека, используя LLM для создания экономической и социальной ценности, а также новых экосистем и бизнес-моделей.",
@@ -382,6 +382,37 @@
382
382
  "deepseek-v2.description": "DeepSeek V2, maliyet etkin işlem için verimli bir MoE modelidir.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B, güçlü kod üretimi sunan DeepSeek’in kod odaklı modelidir.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324, programlama ve teknik yetenek, bağlam anlama ve uzun metin işleme konularında öne çıkan 671B parametreli bir MoE modelidir.",
385
+ "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus, terminal cihazlar için optimize edilmiş bir LLM'dir ve DeepSeek tarafından geliştirilmiştir.",
386
+ "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821, Terminus sürümüne karşılık gelen derin düşünme modelidir ve yüksek performanslı akıl yürütme için tasarlanmıştır.",
387
+ "deepseek-v3.1.description": "DeepSeek-V3.1, düşünme ve düşünmeme modlarını destekleyen yeni bir hibrit akıl yürütme modelidir. DeepSeek-R1-0528'e kıyasla daha yüksek düşünme verimliliği sunar. Eğitim sonrası optimizasyonlar, araç kullanımı ve görev performansını büyük ölçüde artırır. 128k bağlam penceresi ve 64k'ya kadar çıktı token'ı desteği sunar.",
388
+ "deepseek-v3.1:671b.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciri yetenekleri geliştirilmiş yeni nesil bir akıl yürütme modelidir. Derin analiz gerektiren görevler için uygundur.",
389
+ "deepseek-v3.2-exp.description": "deepseek-v3.2-exp, uzun metinlerde eğitim ve çıkarım verimliliğini artırmak için seyrek dikkat mekanizması sunar ve deepseek-v3.1'e göre daha uygun fiyatlıdır.",
390
+ "deepseek-v3.2-think.description": "DeepSeek V3.2 Think, daha güçlü uzun zincirli akıl yürütme yeteneklerine sahip tam kapsamlı bir derin düşünme modelidir.",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2, DeepSeek tarafından geliştirilen ilk düşünmeyi araç kullanımına entegre eden hibrit akıl yürütme modelidir. Verimli mimarisiyle hesaplama maliyetini azaltır, büyük ölçekli pekiştirmeli öğrenmeyle yeteneklerini geliştirir ve geniş çaplı sentetik görev verisiyle genelleme gücünü artırır. Bu üç unsurun birleşimiyle GPT-5-High seviyesinde performans sunar. Çıktı uzunluğu önemli ölçüde azaltılmıştır, bu da hesaplama yükünü ve kullanıcı bekleme süresini düşürür.",
392
+ "deepseek-v3.description": "DeepSeek-V3, toplamda 671 milyar parametreye ve token başına 37 milyar aktif parametreye sahip güçlü bir MoE modelidir.",
393
+ "deepseek-vl2-small.description": "DeepSeek VL2 Small, kaynak kısıtlı ve yüksek eşzamanlı kullanım senaryoları için hafif bir çok modlu modeldir.",
394
+ "deepseek-vl2.description": "DeepSeek VL2, görsel-sözel anlama ve ayrıntılı görsel soru-cevap için geliştirilmiş çok modlu bir modeldir.",
395
+ "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3, 685 milyar parametreli bir MoE modelidir ve DeepSeek’in amiral gemisi sohbet serisinin en son sürümüdür.\n\n[DeepSeek V3](/deepseek/deepseek-chat-v3) üzerine inşa edilmiştir ve çeşitli görevlerde güçlü performans sergiler.",
396
+ "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3, 685 milyar parametreli bir MoE modelidir ve DeepSeek’in amiral gemisi sohbet serisinin en son sürümüdür.\n\n[DeepSeek V3](/deepseek/deepseek-chat-v3) üzerine inşa edilmiştir ve çeşitli görevlerde güçlü performans sergiler.",
397
+ "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1, DeepSeek’in uzun bağlam destekli hibrit akıl yürütme modelidir. Düşünme/düşünmeme modlarını ve araç entegrasyonunu destekler.",
398
+ "deepseek/deepseek-chat.description": "DeepSeek-V3, karmaşık görevler ve araç entegrasyonu için optimize edilmiş yüksek performanslı hibrit akıl yürütme modelidir.",
399
+ "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528, açık erişim ve daha derin akıl yürütmeye odaklanan güncellenmiş bir varyanttır.",
400
+ "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1, etiketli veri ihtiyacını en aza indirerek akıl yürütme yeteneğini büyük ölçüde geliştirir ve nihai cevaptan önce düşünce zinciri sunarak doğruluğu artırır.",
401
+ "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B, Llama 3.3 70B tabanlı damıtılmış bir LLM'dir. DeepSeek R1 çıktılarıyla ince ayar yapılarak büyük öncü modellerle rekabetçi performans elde edilmiştir.",
402
+ "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B, Llama-3.1-8B-Instruct tabanlı damıtılmış bir LLM'dir ve DeepSeek R1 çıktılarıyla eğitilmiştir.",
403
+ "deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B, Qwen 2.5 14B tabanlı damıtılmış bir LLM'dir ve DeepSeek R1 çıktılarıyla eğitilmiştir. OpenAI o1-mini'yi birçok ölçütte geride bırakır ve yoğun modeller arasında SOTA sonuçlar elde eder. Öne çıkan ölçütler:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces Puanı: 1481\nDeepSeek R1 çıktılarıyla yapılan ince ayar, büyük öncü modellerle rekabetçi performans sağlar.",
404
+ "deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B, Qwen 2.5 32B tabanlı damıtılmış bir LLM'dir ve DeepSeek R1 çıktılarıyla eğitilmiştir. OpenAI o1-mini'yi birçok ölçütte geride bırakır ve yoğun modeller arasında SOTA sonuçlar elde eder. Öne çıkan ölçütler:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces Puanı: 1691\nDeepSeek R1 çıktılarıyla yapılan ince ayar, büyük öncü modellerle rekabetçi performans sağlar.",
405
+ "deepseek/deepseek-r1.description": "DeepSeek R1, DeepSeek-R1-0528 olarak güncellenmiştir. Daha fazla hesaplama gücü ve eğitim sonrası algoritmik iyileştirmelerle akıl yürütme derinliği ve yeteneği önemli ölçüde artırılmıştır. Matematik, programlama ve genel mantık ölçütlerinde güçlü performans sergiler ve o3 ile Gemini 2.5 Pro gibi lider modellere yaklaşır.",
406
+ "deepseek/deepseek-r1/community.description": "DeepSeek R1, DeepSeek ekibi tarafından yayımlanan en son açık kaynak modelidir. Özellikle matematik, kodlama ve akıl yürütme görevlerinde çok güçlü performans sunar ve OpenAI o1 ile karşılaştırılabilir düzeydedir.",
407
+ "deepseek/deepseek-r1:free.description": "DeepSeek-R1, etiketli veri ihtiyacını en aza indirerek akıl yürütme yeteneğini büyük ölçüde geliştirir ve nihai cevaptan önce düşünce zinciri sunarak doğruluğu artırır.",
408
+ "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner), DeepSeek’in deneysel akıl yürütme modelidir ve yüksek karmaşıklıktaki akıl yürütme görevleri için uygundur.",
409
+ "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base, DeepSeek V3 modelinin geliştirilmiş bir sürümüdür.",
410
+ "deepseek/deepseek-v3.description": "Geliştirilmiş akıl yürütme yeteneklerine sahip hızlı, genel amaçlı bir LLM'dir.",
411
+ "deepseek/deepseek-v3/community.description": "DeepSeek-V3, önceki modellere kıyasla akıl yürütme hızında büyük bir atılım sunar. Açık kaynak modeller arasında birinci sırada yer alır ve en gelişmiş kapalı modellerle rekabet eder. DeepSeek-V3, DeepSeek-V2'de tamamen doğrulanan Çok Başlı Gizli Dikkat (MLA) ve DeepSeekMoE mimarisini benimser. Ayrıca yük dengeleme için kayıpsız yardımcı strateji ve daha güçlü performans için çoklu token tahmin eğitim hedefi sunar.",
412
+ "deepseek_r1.description": "DeepSeek-R1, tekrar ve okunabilirlik sorunlarını ele alan pekiştirmeli öğrenme odaklı bir akıl yürütme modelidir. RL öncesinde, soğuk başlangıç verileriyle akıl yürütme performansı daha da artırılır. Matematik, kodlama ve akıl yürütme görevlerinde OpenAI-o1 ile eşleşir ve dikkatle tasarlanmış eğitim süreci genel sonuçları iyileştirir.",
413
+ "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B, Llama-3.3-70B-Instruct'tan damıtılmıştır. DeepSeek-R1 serisinin bir parçası olarak, DeepSeek-R1 tarafından üretilen örneklerle ince ayar yapılmıştır ve matematik, kodlama ve akıl yürütme alanlarında güçlü performans sunar.",
414
+ "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B, Qwen2.5-14B'den damıtılmıştır ve DeepSeek-R1 tarafından üretilen 800K seçilmiş örnekle ince ayar yapılmıştır. Güçlü akıl yürütme yetenekleri sunar.",
415
+ "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B, Qwen2.5-32B'den damıtılmıştır ve DeepSeek-R1 tarafından üretilen 800K seçilmiş örnekle ince ayar yapılmıştır. Matematik, kodlama ve akıl yürütme alanlarında üstün performans gösterir.",
385
416
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modeli (LLM) olup, üretken yapay zeka fikirlerini oluşturma, deneme ve sorumlu bir şekilde ölçeklendirme süreçlerinde yardımcı olmak üzere tasarlanmıştır. Küresel topluluk inovasyonunun temel taşlarından biri olarak, sınırlı bilgi işlem gücü ve kaynaklara sahip ortamlar, uç cihazlar ve daha hızlı eğitim süreleri için uygundur.",
386
417
  "mistral-small-latest.description": "Mistral Small, çeviri, özetleme ve duygu analizi için uygun maliyetli, hızlı ve güvenilir bir seçenektir.",
387
418
  "mistral-small.description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her türlü dil tabanlı görev için uygundur.",
@@ -586,4 +617,4 @@
586
617
  "whisper-1.description": "Çok dilli ASR, konuşma çevirisi ve dil tanıma destekleyen genel bir konuşma tanıma modelidir.",
587
618
  "wizardlm2.description": "WizardLM 2, Microsoft AI tarafından geliştirilen, karmaşık diyalog, çok dilli görevler, akıl yürütme ve asistanlarda üstün performans gösteren bir dil modelidir.",
588
619
  "wizardlm2:8x22b.description": "WizardLM 2, Microsoft AI tarafından geliştirilen, karmaşık diyalog, çok dilli görevler, akıl yürütme ve asistanlarda üstün performans gösteren bir dil modelidir."
589
- }
620
+ }
@@ -63,6 +63,7 @@
63
63
  "volcengine.description": "ByteDance’in model hizmet platformu, güvenli, özellik açısından zengin ve uygun maliyetli model erişimi ile veri, ince ayar, çıkarım ve değerlendirme için uçtan uca araçlar sunar.",
64
64
  "wenxin.description": "Kurumsal düzeyde temel modeller ve yapay zeka tabanlı uygulama geliştirme için uçtan uca araçlar sunan hepsi bir arada bir platformdur.",
65
65
  "xai.description": "xAI, bilimsel keşifleri hızlandırmak ve insanlığın evreni anlama düzeyini derinleştirmek amacıyla yapay zeka geliştirir.",
66
+ "xiaomimimo.description": "Xiaomi MiMo, OpenAI ile uyumlu bir API aracılığıyla sohbet tabanlı model hizmeti sunar. mimo-v2-flash modeli derinlemesine akıl yürütme, akışlı çıktı, fonksiyon çağırma, 256K bağlam penceresi ve maksimum 128K çıktı desteği sağlar.",
66
67
  "xinference.description": "Xorbits Inference (Xinference), yapay zeka modellerini çalıştırmayı ve entegre etmeyi kolaylaştıran açık kaynaklı bir platformdur. Açık kaynaklı LLM’leri, gömme modellerini ve çok modlu modelleri yerel veya bulutta çalıştırarak güçlü yapay zeka uygulamaları geliştirmenizi sağlar.",
67
68
  "zenmux.description": "ZenMux, OpenAI, Anthropic, Google VertexAI ve daha fazlasını destekleyen birleşik bir yapay zeka toplama platformudur. Modelleri kolayca yönlendirme ve yönetme imkanı sunar.",
68
69
  "zeroone.description": "01.AI, insan merkezli bir Yapay Zeka 2.0 devrimini yönlendirir. LLM’leri kullanarak ekonomik ve sosyal değer yaratır, yeni yapay zeka ekosistemleri ve iş modelleri inşa eder.",
@@ -299,6 +299,42 @@
299
299
  "codestral-latest.description": "Codestral là mô hình lập trình tiên tiến nhất của chúng tôi; phiên bản v2 (tháng 1 năm 2025) nhắm đến các tác vụ tần suất cao, độ trễ thấp như FIM, sửa mã và sinh bài kiểm tra.",
300
300
  "codestral.description": "Codestral là mô hình lập trình đầu tiên của Mistral AI, cung cấp hỗ trợ sinh mã mạnh mẽ.",
301
301
  "codex-mini-latest.description": "codex-mini-latest là một mô hình o4-mini được tinh chỉnh dành cho Codex CLI. Đối với việc sử dụng API trực tiếp, chúng tôi khuyến nghị bắt đầu với gpt-4.1.",
302
+ "cogito-2.1:671b.description": "Cogito v2.1 671B là một mô hình ngôn ngữ mã nguồn mở của Mỹ, miễn phí cho mục đích thương mại, có hiệu suất sánh ngang với các mô hình hàng đầu, hiệu quả suy luận theo token cao hơn, hỗ trợ ngữ cảnh dài 128k và khả năng tổng thể mạnh mẽ.",
303
+ "cogview-4.description": "CogView-4 là mô hình chuyển văn bản thành hình ảnh mã nguồn mở đầu tiên của Zhipu có khả năng tạo ký tự Trung Quốc. Mô hình cải thiện khả năng hiểu ngữ nghĩa, chất lượng hình ảnh và hiển thị văn bản Trung/Anh, hỗ trợ lời nhắc song ngữ với độ dài tùy ý và có thể tạo hình ảnh ở bất kỳ độ phân giải nào trong phạm vi chỉ định.",
304
+ "cohere-command-r-plus.description": "Command R+ là một mô hình tiên tiến được tối ưu hóa cho RAG, được xây dựng để xử lý khối lượng công việc doanh nghiệp.",
305
+ "cohere-command-r.description": "Command R là một mô hình sinh văn bản có khả năng mở rộng, được thiết kế cho RAG và sử dụng công cụ, cho phép triển khai AI ở cấp độ sản xuất.",
306
+ "cohere/Cohere-command-r-plus.description": "Command R+ là một mô hình tiên tiến được tối ưu hóa cho RAG, được xây dựng để xử lý khối lượng công việc doanh nghiệp.",
307
+ "cohere/Cohere-command-r.description": "Command R là một mô hình sinh văn bản có khả năng mở rộng, được thiết kế cho RAG và sử dụng công cụ, cho phép triển khai AI ở cấp độ sản xuất.",
308
+ "cohere/command-a.description": "Command A là mô hình mạnh nhất của Cohere cho đến nay, vượt trội trong việc sử dụng công cụ, tác tử, RAG và các trường hợp đa ngôn ngữ. Mô hình có độ dài ngữ cảnh 256K, chạy chỉ với hai GPU và đạt thông lượng cao hơn 150% so với Command R+ 08-2024.",
309
+ "cohere/command-r-plus.description": "Command R+ là mô hình LLM mới nhất của Cohere, được tối ưu hóa cho trò chuyện và ngữ cảnh dài, hướng đến hiệu suất vượt trội để các công ty có thể vượt qua giai đoạn nguyên mẫu và đi vào sản xuất.",
310
+ "cohere/command-r.description": "Command R được tối ưu hóa cho các tác vụ trò chuyện và ngữ cảnh dài, được định vị là mô hình \"có thể mở rộng\" cân bằng giữa hiệu suất cao và độ chính xác, giúp các công ty vượt qua giai đoạn nguyên mẫu và triển khai thực tế.",
311
+ "cohere/embed-v4.0.description": "Một mô hình phân loại hoặc chuyển đổi văn bản, hình ảnh hoặc nội dung hỗn hợp thành các vector nhúng.",
312
+ "comfyui/flux-dev.description": "FLUX.1 Dev là mô hình chuyển văn bản thành hình ảnh chất lượng cao (10–50 bước), lý tưởng cho các sản phẩm sáng tạo và nghệ thuật cao cấp.",
313
+ "comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev là mô hình chỉnh sửa hình ảnh hỗ trợ chỉnh sửa theo hướng dẫn văn bản, bao gồm chỉnh sửa cục bộ và chuyển đổi phong cách.",
314
+ "comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev là mô hình chuyển văn bản thành hình ảnh được tăng cường an toàn, đồng phát triển với Krea, có bộ lọc an toàn tích hợp.",
315
+ "comfyui/flux-schnell.description": "FLUX.1 Schnell là mô hình chuyển văn bản thành hình ảnh siêu nhanh, tạo hình ảnh chất lượng cao chỉ trong 1–4 bước, lý tưởng cho sử dụng thời gian thực và tạo mẫu nhanh.",
316
+ "comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 là mô hình chuyển văn bản thành hình ảnh cổ điển với độ phân giải 512x512, lý tưởng cho tạo mẫu nhanh và thử nghiệm sáng tạo.",
317
+ "comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 với bộ mã hóa CLIP/T5 tích hợp, không cần tệp mã hóa bên ngoài, phù hợp với các mô hình như sd3.5_medium_incl_clips sử dụng ít tài nguyên hơn.",
318
+ "comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 là mô hình chuyển văn bản thành hình ảnh thế hệ mới với các biến thể Large và Medium. Cần tệp mã hóa CLIP bên ngoài và mang lại chất lượng hình ảnh xuất sắc cùng khả năng tuân thủ lời nhắc cao.",
319
+ "comfyui/stable-diffusion-custom-refiner.description": "Mô hình SDXL chuyển hình ảnh thành hình ảnh tùy chỉnh. Sử dụng tên tệp mô hình là custom_sd_lobe.safetensors; nếu có VAE, sử dụng custom_sd_vae_lobe.safetensors. Đặt các tệp mô hình vào thư mục yêu cầu của Comfy.",
320
+ "comfyui/stable-diffusion-custom.description": "Mô hình SD chuyển văn bản thành hình ảnh tùy chỉnh. Sử dụng tên tệp mô hình là custom_sd_lobe.safetensors; nếu có VAE, sử dụng custom_sd_vae_lobe.safetensors. Đặt các tệp mô hình vào thư mục yêu cầu của Comfy.",
321
+ "comfyui/stable-diffusion-refiner.description": "Mô hình SDXL chuyển hình ảnh thành hình ảnh thực hiện các chuyển đổi chất lượng cao từ hình ảnh đầu vào, hỗ trợ chuyển đổi phong cách, phục hồi và biến thể sáng tạo.",
322
+ "comfyui/stable-diffusion-xl.description": "SDXL là mô hình chuyển văn bản thành hình ảnh hỗ trợ tạo hình ảnh độ phân giải cao 1024x1024 với chất lượng và chi tiết tốt hơn.",
323
+ "command-a-03-2025.description": "Command A là mô hình mạnh nhất của chúng tôi cho đến nay, vượt trội trong việc sử dụng công cụ, tác tử, RAG và các tình huống đa ngôn ngữ. Mô hình có cửa sổ ngữ cảnh 256K, chạy chỉ với hai GPU và đạt thông lượng cao hơn 150% so với Command R+ 08-2024.",
324
+ "command-light-nightly.description": "Để rút ngắn khoảng cách giữa các bản phát hành chính, chúng tôi cung cấp các bản dựng Command hàng đêm. Với dòng command-light, đây là command-light-nightly. Đây là phiên bản mới nhất, mang tính thử nghiệm cao (và có thể không ổn định), được cập nhật thường xuyên mà không báo trước, do đó không khuyến nghị sử dụng trong môi trường sản xuất.",
325
+ "command-light.description": "Biến thể Command nhỏ hơn, nhanh hơn, gần như mạnh mẽ như bản gốc nhưng có tốc độ cao hơn.",
326
+ "command-nightly.description": "Để rút ngắn khoảng cách giữa các bản phát hành chính, chúng tôi cung cấp các bản dựng Command hàng đêm. Với dòng Command, đây là command-nightly. Đây là phiên bản mới nhất, mang tính thử nghiệm cao (và có thể không ổn định), được cập nhật thường xuyên mà không báo trước, do đó không khuyến nghị sử dụng trong môi trường sản xuất.",
327
+ "command-r-03-2024.description": "Command R là mô hình trò chuyện theo hướng dẫn với chất lượng cao hơn, độ tin cậy lớn hơn và cửa sổ ngữ cảnh dài hơn so với các mô hình trước đó. Mô hình hỗ trợ các quy trình phức tạp như tạo mã, RAG, sử dụng công cụ và tác tử.",
328
+ "command-r-08-2024.description": "command-r-08-2024 là phiên bản cập nhật của mô hình Command R được phát hành vào tháng 8 năm 2024.",
329
+ "command-r-plus-04-2024.description": "command-r-plus là bí danh của command-r-plus-04-2024, vì vậy sử dụng command-r-plus trong API sẽ trỏ đến mô hình đó.",
330
+ "command-r-plus-08-2024.description": "Command R+ là mô hình trò chuyện theo hướng dẫn với chất lượng cao hơn, độ tin cậy lớn hơn và cửa sổ ngữ cảnh dài hơn so với các mô hình trước đó. Mô hình phù hợp nhất cho các quy trình RAG phức tạp và sử dụng công cụ nhiều bước.",
331
+ "command-r-plus.description": "Command R+ là mô hình LLM hiệu suất cao được thiết kế cho các tình huống doanh nghiệp thực tế và ứng dụng phức tạp.",
332
+ "command-r.description": "Command R là mô hình LLM được tối ưu hóa cho trò chuyện và các tác vụ ngữ cảnh dài, lý tưởng cho tương tác động và quản lý tri thức.",
333
+ "command-r7b-12-2024.description": "command-r7b-12-2024 là bản cập nhật nhỏ, hiệu quả được phát hành vào tháng 12 năm 2024. Mô hình vượt trội trong các tác vụ RAG, sử dụng công cụ và tác tử đòi hỏi suy luận phức tạp nhiều bước.",
334
+ "command.description": "Mô hình trò chuyện theo hướng dẫn cung cấp chất lượng và độ tin cậy cao hơn trong các tác vụ ngôn ngữ, với cửa sổ ngữ cảnh dài hơn so với các mô hình sinh văn bản cơ bản của chúng tôi.",
335
+ "computer-use-preview.description": "computer-use-preview là mô hình chuyên biệt cho công cụ \"sử dụng máy tính\", được huấn luyện để hiểu và thực hiện các tác vụ liên quan đến máy tính.",
336
+ "dall-e-2.description": "DALL·E thế hệ thứ hai với khả năng tạo hình ảnh thực tế, chính xác hơn và độ phân giải gấp 4 lần thế hệ đầu.",
337
+ "dall-e-3.description": "Mô hình DALL·E mới nhất, phát hành vào tháng 11 năm 2023, hỗ trợ tạo hình ảnh thực tế, chính xác hơn với chi tiết mạnh mẽ hơn.",
302
338
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 là một mô hình ngôn ngữ mở dành cho nhà phát triển, nhà nghiên cứu và doanh nghiệp, được thiết kế để hỗ trợ xây dựng, thử nghiệm và mở rộng các ý tưởng AI sinh ngữ một cách có trách nhiệm. Là một phần trong nền tảng đổi mới cộng đồng toàn cầu, mô hình này phù hợp với môi trường có tài nguyên hạn chế, thiết bị biên và yêu cầu thời gian huấn luyện nhanh hơn.",
303
339
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Khả năng suy luận hình ảnh mạnh mẽ trên ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu thị giác.",
304
340
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Khả năng suy luận hình ảnh tiên tiến dành cho các ứng dụng tác tử hiểu thị giác.",
@@ -479,4 +515,4 @@
479
515
  "wizardlm2:8x22b.description": "WizardLM 2 là mô hình ngôn ngữ từ Microsoft AI, vượt trội trong đối thoại phức tạp, tác vụ đa ngôn ngữ, suy luận và trợ lý.",
480
516
  "x-ai/grok-4-fast-non-reasoning.description": "Grok 4 Fast (Không Suy Luận) là mô hình đa phương thức hiệu suất cao, chi phí thấp của xAI (hỗ trợ cửa sổ ngữ cảnh 2M), phù hợp cho các tình huống nhạy cảm với độ trễ và chi phí mà không cần suy luận trong mô hình. Có thể bật suy luận qua tham số API khi cần. Lời nhắc và phản hồi có thể được xAI hoặc OpenRouter sử dụng để cải thiện các mô hình tương lai.",
481
517
  "x-ai/grok-4-fast.description": "Grok 4 Fast là mô hình hiệu suất cao, chi phí thấp của xAI (hỗ trợ cửa sổ ngữ cảnh 2M), lý tưởng cho các trường hợp sử dụng có tính đồng thời cao và ngữ cảnh dài."
482
- }
518
+ }
@@ -63,6 +63,7 @@
63
63
  "volcengine.description": "Nền tảng dịch vụ mô hình của ByteDance cung cấp quyền truy cập mô hình an toàn, giàu tính năng, cạnh tranh về chi phí cùng công cụ toàn diện cho dữ liệu, tinh chỉnh, suy luận và đánh giá.",
64
64
  "wenxin.description": "Nền tảng doanh nghiệp tất cả trong một cho mô hình nền tảng và phát triển ứng dụng gốc AI, cung cấp công cụ toàn diện cho quy trình mô hình và ứng dụng AI sinh.",
65
65
  "xai.description": "xAI xây dựng AI để thúc đẩy khám phá khoa học, với sứ mệnh làm sâu sắc hiểu biết của nhân loại về vũ trụ.",
66
+ "xiaomimimo.description": "Xiaomi MiMo cung cấp dịch vụ mô hình hội thoại với API tương thích OpenAI. Mô hình mimo-v2-flash hỗ trợ suy luận sâu, xuất dữ liệu theo luồng, gọi hàm, cửa sổ ngữ cảnh 256K và đầu ra tối đa 128K.",
66
67
  "xinference.description": "Xorbits Inference (Xinference) là nền tảng mã nguồn mở giúp đơn giản hóa việc chạy và tích hợp mô hình AI. Cho phép bạn chạy LLM mã nguồn mở, mô hình nhúng và mô hình đa phương thức tại chỗ hoặc trên đám mây để xây dựng ứng dụng AI mạnh mẽ.",
67
68
  "zenmux.description": "ZenMux là nền tảng tổng hợp AI thống nhất hỗ trợ OpenAI, Anthropic, Google VertexAI và nhiều hơn nữa, với định tuyến linh hoạt để dễ dàng chuyển đổi và quản lý mô hình.",
68
69
  "zeroone.description": "01.AI thúc đẩy cuộc cách mạng AI 2.0 lấy con người làm trung tâm, sử dụng LLM để tạo ra giá trị kinh tế và xã hội, xây dựng hệ sinh thái và mô hình kinh doanh AI mới.",
@@ -279,11 +279,9 @@
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
281
281
  "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快、最智能的 Haiku 模型,具备闪电般的响应速度和增强的推理能力。",
282
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快、最智能的 Haiku 模型,具备闪电般的响应速度和增强的推理能力。",
283
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
284
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
285
284
  "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
286
- "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
287
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
288
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
289
287
  "claude-sonnet-4-20250514.description": "Claude Sonnet 4 能够生成几乎即时的响应,或展示可视化的逐步思考过程。",
@@ -392,6 +390,29 @@
392
390
  "deepseek-v3.2-think.description": "DeepSeek V3.2 Think 是一款完整的深度思考模型,具备更强的长链推理能力。",
393
391
  "deepseek-v3.2.description": "DeepSeek-V3.2 是深度求索推出的首个将思考融入工具使用的混合推理模型,采用高效架构节省算力,结合大规模强化学习提升能力与大规模合成任务数据增强泛化能力,三者融合使其性能媲美 GPT-5-High,输出长度大幅降低,显著减少计算开销与用户等待时间。",
394
392
  "deepseek-v3.description": "DeepSeek-V3 是一款强大的 MoE 模型,总参数量为 671B,每个 token 激活参数为 37B。",
393
+ "deepseek-vl2-small.description": "DeepSeek VL2 Small 是一款轻量级多模态模型,适用于资源受限和高并发场景。",
394
+ "deepseek-vl2.description": "DeepSeek VL2 是一款多模态模型,专注于图文理解和细粒度视觉问答。",
395
+ "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 是一款拥有 685B 参数的 MoE 模型,是 DeepSeek 旗舰聊天系列的最新版本。\n\n该模型基于 [DeepSeek V3](/deepseek/deepseek-chat-v3) 构建,在多项任务中表现出色。",
396
+ "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 是一款拥有 685B 参数的 MoE 模型,是 DeepSeek 旗舰聊天系列的最新版本。\n\n该模型基于 [DeepSeek V3](/deepseek/deepseek-chat-v3) 构建,在多项任务中表现出色。",
397
+ "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 是 DeepSeek 推出的长上下文混合推理模型,支持思考/非思考模式切换及工具集成。",
398
+ "deepseek/deepseek-chat.description": "DeepSeek-V3 是 DeepSeek 面向复杂任务和工具集成的高性能混合推理模型。",
399
+ "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 是一款更新版本,专注于开放可用性和更深层次的推理能力。",
400
+ "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 在仅需极少标注数据的情况下显著提升推理能力,并在最终答案前输出思维链以提高准确性。",
401
+ "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B 是基于 Llama 3.3 70B 蒸馏而成的大语言模型,使用 DeepSeek R1 输出进行微调,在性能上可媲美大型前沿模型。",
402
+ "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B 是基于 Llama-3.1-8B-Instruct 蒸馏而成的大语言模型,使用 DeepSeek R1 输出进行训练。",
403
+ "deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B 是基于 Qwen 2.5 14B 蒸馏而成的大语言模型,使用 DeepSeek R1 输出进行训练。在多个基准测试中超越 OpenAI o1-mini,在密集模型中达到 SOTA 水平。基准亮点:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces Rating: 1481\n基于 DeepSeek R1 输出的微调实现了与更大前沿模型的竞争性能。",
404
+ "deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B 是基于 Qwen 2.5 32B 蒸馏而成的大语言模型,使用 DeepSeek R1 输出进行训练。在多个基准测试中超越 OpenAI o1-mini,在密集模型中达到 SOTA 水平。基准亮点:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces Rating: 1691\n基于 DeepSeek R1 输出的微调实现了与更大前沿模型的竞争性能。",
405
+ "deepseek/deepseek-r1.description": "DeepSeek R1 已更新为 DeepSeek-R1-0528。通过更强的计算资源和后训练算法优化,显著提升了推理深度与能力。在数学、编程和通用逻辑基准测试中表现优异,接近 o3 和 Gemini 2.5 Pro 等领先模型。",
406
+ "deepseek/deepseek-r1/community.description": "DeepSeek R1 是 DeepSeek 团队最新开源模型,在数学、编程和推理任务中表现出色,性能可与 OpenAI o1 相媲美。",
407
+ "deepseek/deepseek-r1:free.description": "DeepSeek-R1 在仅需极少标注数据的情况下显著提升推理能力,并在最终答案前输出思维链以提高准确性。",
408
+ "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking(reasoner)是 DeepSeek 的实验性推理模型,适用于高复杂度推理任务。",
409
+ "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base 是 DeepSeek V3 模型的改进版本。",
410
+ "deepseek/deepseek-v3.description": "一款快速的通用大语言模型,具备增强的推理能力。",
411
+ "deepseek/deepseek-v3/community.description": "DeepSeek-V3 在推理速度方面相较前代实现重大突破,在开源模型中排名第一,并可媲美最先进的闭源模型。DeepSeek-V3 采用了在 DeepSeek-V2 中验证的多头潜在注意力(MLA)和 DeepSeekMoE 架构,并引入了无损辅助策略以实现负载均衡,以及多 token 预测训练目标以增强性能。",
412
+ "deepseek_r1.description": "DeepSeek-R1 是一款基于强化学习的推理模型,解决了重复性和可读性问题。在强化学习前,使用冷启动数据进一步提升推理能力。在数学、编程和推理任务中表现与 OpenAI-o1 相当,训练过程精心设计以提升整体效果。",
413
+ "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B 是基于 Llama-3.3-70B-Instruct 蒸馏而成。作为 DeepSeek-R1 系列的一部分,使用 DeepSeek-R1 生成的样本进行微调,在数学、编程和推理方面表现出色。",
414
+ "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B 是基于 Qwen2.5-14B 蒸馏而成,并使用 DeepSeek-R1 生成的 80 万高质量样本进行微调,具备强大的推理能力。",
415
+ "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B 是基于 Qwen2.5-32B 蒸馏而成,并使用 DeepSeek-R1 生成的 80 万高质量样本进行微调,在数学、编程和推理方面表现卓越。",
395
416
  "gemini-flash-latest.description": "Latest release of Gemini Flash",
396
417
  "gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite",
397
418
  "gemini-pro-latest.description": "Latest release of Gemini Pro",
@@ -644,4 +665,4 @@
644
665
  "zai/glm-4.5.description": "GLM-4.5 系列专为智能体设计,旗舰版 GLM-4.5 结合推理、编程和智能体能力,总参数 355B(激活 32B),提供双模式混合推理系统。",
645
666
  "zai/glm-4.5v.description": "GLM-4.5V 基于 GLM-4.5-Air 构建,继承 GLM-4.1V-Thinking 的成熟技术,采用强大的 106B 参数 MoE 架构扩展能力。",
646
667
  "zenmux/auto.description": "ZenMux 自动路由根据请求自动选择性价比最高、性能最优的支持模型。"
647
- }
668
+ }
@@ -63,6 +63,7 @@
63
63
  "volcengine.description": "字节跳动的模型服务平台,提供安全、功能丰富、具备价格优势的模型访问服务,并支持数据、微调、推理与评估的端到端工具链。",
64
64
  "wenxin.description": "文心是一个面向企业的基础模型与 AI 原生应用开发一体化平台,提供生成式 AI 模型与应用工作流的端到端工具支持。",
65
65
  "xai.description": "xAI 致力于构建加速科学发现的 AI,使命是加深人类对宇宙的理解。",
66
+ "xiaomimimo.description": "小米 MiMo 提供兼容 OpenAI API 的对话模型服务。mimo-v2-flash 模型支持深度推理、流式输出、函数调用、256K 上下文窗口,以及最多 128K 的输出。",
66
67
  "xinference.description": "Xorbits Inference(Xinference)是一个开源平台,简化 AI 模型的运行与集成,支持在本地或云端运行开源大模型、向量模型与多模态模型,构建强大的 AI 应用。",
67
68
  "zenmux.description": "ZenMux 是一个统一的 AI 聚合平台,支持 OpenAI、Anthropic、Google VertexAI 等,具备灵活路由能力,便于模型切换与管理。",
68
69
  "zeroone.description": "01.AI 推动以人为本的 AI 2.0 革命,利用大模型创造经济与社会价值,构建新型 AI 生态与商业模式。",