@lobehub/chat 1.136.12 → 1.136.13
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/workflows/claude-translator.yml +13 -1
- package/CHANGELOG.md +34 -0
- package/changelog/v1.json +12 -0
- package/locales/ar/modelProvider.json +12 -0
- package/locales/ar/models.json +39 -24
- package/locales/bg-BG/modelProvider.json +12 -0
- package/locales/bg-BG/models.json +39 -24
- package/locales/de-DE/modelProvider.json +12 -0
- package/locales/de-DE/models.json +39 -24
- package/locales/en-US/modelProvider.json +12 -0
- package/locales/en-US/models.json +39 -24
- package/locales/es-ES/modelProvider.json +12 -0
- package/locales/es-ES/models.json +39 -24
- package/locales/fa-IR/modelProvider.json +12 -0
- package/locales/fa-IR/models.json +39 -24
- package/locales/fr-FR/modelProvider.json +12 -0
- package/locales/fr-FR/models.json +39 -24
- package/locales/it-IT/modelProvider.json +12 -0
- package/locales/it-IT/models.json +39 -24
- package/locales/ja-JP/modelProvider.json +12 -0
- package/locales/ja-JP/models.json +39 -24
- package/locales/ko-KR/modelProvider.json +12 -0
- package/locales/ko-KR/models.json +39 -24
- package/locales/nl-NL/modelProvider.json +12 -0
- package/locales/nl-NL/models.json +39 -24
- package/locales/pl-PL/modelProvider.json +12 -0
- package/locales/pl-PL/models.json +39 -24
- package/locales/pt-BR/modelProvider.json +12 -0
- package/locales/pt-BR/models.json +39 -24
- package/locales/ru-RU/modelProvider.json +12 -0
- package/locales/ru-RU/models.json +39 -24
- package/locales/tr-TR/modelProvider.json +12 -0
- package/locales/tr-TR/models.json +39 -24
- package/locales/vi-VN/modelProvider.json +12 -0
- package/locales/vi-VN/models.json +39 -24
- package/locales/zh-CN/modelProvider.json +12 -0
- package/locales/zh-CN/models.json +39 -24
- package/locales/zh-TW/modelProvider.json +12 -0
- package/locales/zh-TW/models.json +39 -24
- package/package.json +3 -3
- package/packages/const/src/settings/index.ts +1 -0
- package/packages/database/package.json +7 -5
- package/packages/electron-client-ipc/src/events/index.ts +2 -2
- package/packages/electron-client-ipc/src/events/{localFile.ts → localSystem.ts} +25 -6
- package/packages/electron-client-ipc/src/types/index.ts +1 -1
- package/packages/electron-client-ipc/src/types/{localFile.ts → localSystem.ts} +89 -4
- package/packages/file-loaders/package.json +1 -2
- package/packages/file-loaders/src/loadFile.ts +4 -1
- package/packages/file-loaders/src/loaders/doc/__snapshots__/index.test.ts.snap +46 -0
- package/packages/file-loaders/src/loaders/doc/index.test.ts +38 -0
- package/packages/file-loaders/src/loaders/doc/index.ts +57 -0
- package/packages/file-loaders/src/loaders/docx/index.ts +36 -45
- package/packages/file-loaders/src/loaders/index.ts +2 -0
- package/packages/file-loaders/src/types/word-extractor.d.ts +9 -0
- package/packages/file-loaders/src/types.ts +1 -1
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.test.ts +267 -38
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +45 -0
- package/packages/model-runtime/src/providerTestUtils.ts +0 -5
- package/packages/model-runtime/src/providers/anthropic/generateObject.test.ts +57 -44
- package/packages/model-runtime/src/providers/anthropic/generateObject.ts +28 -20
- package/packages/model-runtime/src/providers/deepseek/index.ts +5 -0
- package/packages/model-runtime/src/providers/openai/index.test.ts +0 -5
- package/packages/model-runtime/src/providers/openrouter/index.test.ts +3 -3
- package/packages/model-runtime/src/providers/openrouter/index.ts +32 -20
- package/packages/model-runtime/src/providers/openrouter/type.ts +25 -24
- package/packages/model-runtime/src/providers/zhipu/index.test.ts +0 -1
- package/packages/model-runtime/src/types/structureOutput.ts +13 -1
- package/packages/model-runtime/src/utils/handleOpenAIError.test.ts +0 -5
- package/packages/model-runtime/src/utils/handleOpenAIError.ts +2 -2
- package/packages/types/src/aiChat.ts +13 -1
- package/packages/types/src/index.ts +1 -0
- package/src/features/ChatInput/InputEditor/index.tsx +39 -26
- package/src/features/Conversation/Messages/Assistant/Tool/Render/LoadingPlaceholder/index.tsx +1 -1
- package/src/server/routers/lambda/agent.ts +2 -3
- package/src/server/routers/lambda/aiChat.ts +33 -1
- package/src/server/routers/lambda/chunk.ts +2 -2
- package/src/services/electron/file.ts +1 -2
- package/src/services/electron/localFileService.ts +40 -0
- package/src/tools/local-system/Placeholder/ListFiles.tsx +23 -0
- package/src/tools/local-system/Placeholder/ReadLocalFile.tsx +9 -0
- package/src/tools/local-system/Placeholder/SearchFiles.tsx +55 -0
- package/src/tools/local-system/Placeholder/index.tsx +25 -0
- package/src/tools/placeholders.ts +3 -0
|
@@ -284,11 +284,19 @@
|
|
|
284
284
|
"placeholder": "Voer model-id in, bijvoorbeeld gpt-4o of claude-3.5-sonnet",
|
|
285
285
|
"title": "Model ID"
|
|
286
286
|
},
|
|
287
|
+
"imageOutput": {
|
|
288
|
+
"extra": "Deze configuratie schakelt alleen de mogelijkheid van het model in om afbeeldingen te genereren. Het daadwerkelijke resultaat hangt volledig af van het model zelf. Test zelf of het model in staat is bruikbare afbeeldingen te genereren.",
|
|
289
|
+
"title": "Ondersteunt afbeeldingsgeneratie"
|
|
290
|
+
},
|
|
287
291
|
"modalTitle": "Configuratie van aangepast model",
|
|
288
292
|
"reasoning": {
|
|
289
293
|
"extra": "Deze configuratie schakelt alleen de mogelijkheid voor diepgaand denken van het model in. Het specifieke effect hangt volledig af van het model zelf, test zelf of dit model in staat is tot bruikbaar diepgaand denken.",
|
|
290
294
|
"title": "Ondersteuning voor diepgaand denken"
|
|
291
295
|
},
|
|
296
|
+
"search": {
|
|
297
|
+
"extra": "Deze configuratie schakelt alleen de mogelijkheid van het ingebouwde zoekmechanisme van het model in om verbinding te maken met het internet. Of het ingebouwde zoekmechanisme wordt ondersteund, hangt af van het model zelf. Test zelf of het ingebouwde zoekmechanisme van het model bruikbaar is.",
|
|
298
|
+
"title": "Ondersteunt zoeken via internet"
|
|
299
|
+
},
|
|
292
300
|
"tokens": {
|
|
293
301
|
"extra": "Stel het maximale aantal tokens in dat door het model wordt ondersteund",
|
|
294
302
|
"title": "Maximale contextvenster",
|
|
@@ -309,6 +317,10 @@
|
|
|
309
317
|
"placeholder": "Selecteer een modeltype",
|
|
310
318
|
"title": "Modeltype"
|
|
311
319
|
},
|
|
320
|
+
"video": {
|
|
321
|
+
"extra": "Deze configuratie schakelt alleen de videodetectie-instellingen in de applicatie in. Of videodetectie wordt ondersteund, hangt volledig af van het model zelf. Test zelf of het model in staat is bruikbare videodetectie uit te voeren.",
|
|
322
|
+
"title": "Ondersteunt videodetectie"
|
|
323
|
+
},
|
|
312
324
|
"vision": {
|
|
313
325
|
"extra": "Deze configuratie zal alleen de afbeeldinguploadcapaciteit in de applicatie inschakelen, of herkenning wordt ondersteund hangt volledig af van het model zelf, test de beschikbaarheid van de visuele herkenningscapaciteit van dit model zelf.",
|
|
314
326
|
"title": "Ondersteuning voor visuele herkenning"
|
|
@@ -704,6 +704,9 @@
|
|
|
704
704
|
"azure-DeepSeek-R1-0528": {
|
|
705
705
|
"description": "Gehost en geleverd door Microsoft; het DeepSeek R1-model heeft een kleine versie-upgrade ondergaan, de huidige versie is DeepSeek-R1-0528. In de nieuwste update heeft DeepSeek R1 door het toevoegen van rekenkracht en het introduceren van algoritmische optimalisaties in de natrainingsfase de inferentiediepte en -capaciteit aanzienlijk verbeterd. Dit model presteert uitstekend op meerdere benchmarks zoals wiskunde, programmeren en algemene logica, en de algehele prestaties benaderen toonaangevende modellen zoals O3 en Gemini 2.5 Pro."
|
|
706
706
|
},
|
|
707
|
+
"baichuan-m2-32b": {
|
|
708
|
+
"description": "Baichuan M2 32B is een hybride expertmodel ontwikkeld door Baichuan Intelligence, met krachtige redeneervermogen."
|
|
709
|
+
},
|
|
707
710
|
"baichuan/baichuan2-13b-chat": {
|
|
708
711
|
"description": "Baichuan-13B is een open-source, commercieel bruikbaar groot taalmodel ontwikkeld door Baichuan Intelligent, met 13 miljard parameters, dat de beste prestaties in zijn klasse heeft behaald op gezaghebbende Chinese en Engelse benchmarks."
|
|
709
712
|
},
|
|
@@ -728,12 +731,6 @@
|
|
|
728
731
|
"charglm-4": {
|
|
729
732
|
"description": "CharGLM-4 is ontworpen voor rollenspel en emotionele begeleiding, ondersteunt extreem lange meerdaagse herinneringen en gepersonaliseerde gesprekken, met brede toepassingen."
|
|
730
733
|
},
|
|
731
|
-
"chatglm3": {
|
|
732
|
-
"description": "ChatGLM3 is een gesloten bronmodel dat is uitgebracht door Zhipu AI en de KEG-laboratorium van Tsinghua-universiteit. Het is voorafgetraind met een enorme hoeveelheid Chinese en Engelse identificatoren en getraind om in overeenstemming te zijn met menselijke voorkeuren. In vergelijking met het eerste model, heeft het verbeteringen van respectievelijk 16%, 36% en 280% behaald op MMLU, C-Eval en GSM8K, en staat het bovendruk op de Chinese taaklijst C-Eval. Het is geschikt voor scenario's met hoge eisen aan kennis, redeneringsvermogen en creativiteit, zoals het schrijven van advertentieteksten, romans, kennisgerelateerde teksten en codegeneratie."
|
|
733
|
-
},
|
|
734
|
-
"chatglm3-6b-base": {
|
|
735
|
-
"description": "ChatGLM3-6b-base is een open source basismodel van de nieuwste generatie van de ChatGLM-reeks, ontwikkeld door ZhiPu, met een schaal van 6 miljard parameters."
|
|
736
|
-
},
|
|
737
734
|
"chatgpt-4o-latest": {
|
|
738
735
|
"description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt om de meest actuele versie te behouden. Het combineert krachtige taalbegrip- en generatiecapaciteiten, geschikt voor grootschalige toepassingsscenario's, waaronder klantenservice, onderwijs en technische ondersteuning."
|
|
739
736
|
},
|
|
@@ -938,6 +935,9 @@
|
|
|
938
935
|
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
936
|
"description": "DeepSeek-V3.1-Terminus is een bijgewerkte versie van het V3.1-model uitgebracht door DeepSeek, gepositioneerd als een hybride agent groot taalmodel. Deze update richt zich op het oplossen van gebruikersfeedback en het verbeteren van de stabiliteit, terwijl de oorspronkelijke capaciteiten behouden blijven. Het verbetert aanzienlijk de taalconsistentie en vermindert het gebruik van gemengde talen en ongebruikelijke tekens. Het model integreert een 'denkmodus' en een 'niet-denkmodus', waarbij gebruikers flexibel kunnen schakelen via chattemplates om aan verschillende taken te voldoen. Als belangrijke optimalisatie versterkt V3.1-Terminus de prestaties van de code-agent en zoekagent, waardoor het betrouwbaarder wordt bij het aanroepen van tools en het uitvoeren van complexe meerstaps taken."
|
|
940
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.2-Exp": {
|
|
939
|
+
"description": "Het DeepSeek V3.2 Exp-model is een hybride redeneermodel dat zowel denk- als niet-denkmodi ondersteunt."
|
|
940
|
+
},
|
|
941
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
942
942
|
"description": "DeepSeek 67B is een geavanceerd model dat is getraind voor complexe gesprekken."
|
|
943
943
|
},
|
|
@@ -1031,6 +1031,9 @@
|
|
|
1031
1031
|
"deepseek-v3.1": {
|
|
1032
1032
|
"description": "DeepSeek-V3.1 is het nieuwe hybride redeneermodel van DeepSeek, dat twee redeneermodi ondersteunt: denken en niet-denken. Het is efficiënter in denken dan DeepSeek-R1-0528. Dankzij post-training optimalisatie is het gebruik van agenttools en de prestaties bij agenttaken aanzienlijk verbeterd. Ondersteunt een contextvenster van 128k en een maximale outputlengte van 64k tokens."
|
|
1033
1033
|
},
|
|
1034
|
+
"deepseek-v3.1-terminus": {
|
|
1035
|
+
"description": "DeepSeek-V3.1-Terminus is een geoptimaliseerde versie van het grote taalmodel van DeepSeek, speciaal afgestemd op eindapparaten."
|
|
1036
|
+
},
|
|
1034
1037
|
"deepseek-v3.1:671b": {
|
|
1035
1038
|
"description": "DeepSeek V3.1: een volgende generatie redeneermodel dat verbeterde complexe redeneer- en ketendenkvaardigheden biedt, geschikt voor taken die diepgaande analyse vereisen."
|
|
1036
1039
|
},
|
|
@@ -1193,6 +1196,12 @@
|
|
|
1193
1196
|
"ernie-4.0-turbo-8k-preview": {
|
|
1194
1197
|
"description": "Het vlaggenschip ultra-grote taalmodel van Baidu, zelf ontwikkeld, presteert uitstekend in algehele effectiviteit en is breed toepasbaar in complexe taakscenario's in verschillende domeinen; ondersteunt automatische integratie met Baidu zoekplug-ins om de actualiteit van vraag- en antwoordinformatie te waarborgen. Het presteert beter dan ERNIE 4.0."
|
|
1195
1198
|
},
|
|
1199
|
+
"ernie-4.5-21b-a3b": {
|
|
1200
|
+
"description": "ERNIE 4.5 21B A3B is een hybride expertmodel ontwikkeld door Baidu Wenxin, met krachtige redeneer- en meertalige capaciteiten."
|
|
1201
|
+
},
|
|
1202
|
+
"ernie-4.5-300b-a47b": {
|
|
1203
|
+
"description": "ERNIE 4.5 300B A47B is een grootschalig hybride expertmodel van Baidu Wenxin, met uitstekende redeneervermogen."
|
|
1204
|
+
},
|
|
1196
1205
|
"ernie-4.5-8k-preview": {
|
|
1197
1206
|
"description": "Het Wenxin grote model 4.5 is een nieuwe generatie native multimodale basisgrootte model, ontwikkeld door Baidu, dat samenwerking optimaliseert door meerdere modaliteiten gezamenlijk te modelleren, met uitstekende multimodale begripcapaciteiten; het heeft verbeterde taalvaardigheden, met verbeteringen in begrip, generatie, logica en geheugen, en significante verbeteringen in hallucinatie, logische redenering en codecapaciteiten."
|
|
1198
1207
|
},
|
|
@@ -1449,7 +1458,7 @@
|
|
|
1449
1458
|
"description": "GLM-4-0520 is de nieuwste modelversie, speciaal ontworpen voor zeer complexe en diverse taken, met uitstekende prestaties."
|
|
1450
1459
|
},
|
|
1451
1460
|
"glm-4-9b-chat": {
|
|
1452
|
-
"description": "GLM-4-9B-Chat
|
|
1461
|
+
"description": "GLM-4-9B-Chat levert hoge prestaties op het gebied van semantiek, wiskunde, redeneren, codering en kennis. Het ondersteunt ook webnavigatie, code-uitvoering, aangepaste toolaanroepen en langetekstredenering. Ondersteunt 26 talen, waaronder Japans, Koreaans en Duits."
|
|
1453
1462
|
},
|
|
1454
1463
|
"glm-4-air": {
|
|
1455
1464
|
"description": "GLM-4-Air is een kosteneffectieve versie met prestaties die dicht bij GLM-4 liggen, met snelle snelheid en een betaalbare prijs."
|
|
@@ -1749,7 +1758,10 @@
|
|
|
1749
1758
|
"description": "Een kostenefficiëntere versie van GPT Image 1, met native ondersteuning voor tekst- en afbeeldingsinvoer en het genereren van afbeeldingsuitvoer."
|
|
1750
1759
|
},
|
|
1751
1760
|
"gpt-oss-120b": {
|
|
1752
|
-
"description": "GPT-OSS-120B
|
|
1761
|
+
"description": "Voor dit model is een aanvraag vereist. GPT-OSS-120B is een open-source grootschalig taalmodel van OpenAI, met krachtige tekstgeneratiecapaciteiten."
|
|
1762
|
+
},
|
|
1763
|
+
"gpt-oss-20b": {
|
|
1764
|
+
"description": "Voor dit model is een aanvraag vereist. GPT-OSS-20B is een open-source middelgroot taalmodel van OpenAI, met efficiënte tekstgeneratiecapaciteiten."
|
|
1753
1765
|
},
|
|
1754
1766
|
"gpt-oss:120b": {
|
|
1755
1767
|
"description": "GPT-OSS 120B is een groot open-source taalmodel uitgebracht door OpenAI, dat gebruikmaakt van MXFP4-kwantisatietechnologie en als vlaggenschipmodel fungeert. Het vereist een multi-gpu- of high-performance workstation-omgeving en levert uitstekende prestaties bij complexe redenering, codegeneratie en meertalige verwerking, met ondersteuning voor geavanceerde functieverzoeken en toolintegratie."
|
|
@@ -1967,6 +1979,9 @@
|
|
|
1967
1979
|
"kimi-k2-0905-preview": {
|
|
1968
1980
|
"description": "Het kimi-k2-0905-preview model heeft een contextlengte van 256k, beschikt over sterkere Agentic Coding-capaciteiten, een opvallender esthetiek en bruikbaarheid van frontend-code, en een beter contextbegrip."
|
|
1969
1981
|
},
|
|
1982
|
+
"kimi-k2-instruct": {
|
|
1983
|
+
"description": "Kimi K2 Instruct is een groot taalmodel ontwikkeld door Moonshot AI, met een uitzonderlijk vermogen om lange contexten te verwerken."
|
|
1984
|
+
},
|
|
1970
1985
|
"kimi-k2-turbo-preview": {
|
|
1971
1986
|
"description": "kimi-k2 is een basismodel met een MoE-architectuur dat beschikt over zeer sterke codeer- en agentcapaciteiten. Het heeft in totaal 1T parameters en 32B actieve parameters. In benchmarktests op belangrijke categorieën zoals algemene kennisredenering, programmeren, wiskunde en agenttaken overtreft het K2-model de prestaties van andere gangbare open-sourcemodellen."
|
|
1972
1987
|
},
|
|
@@ -1988,9 +2003,6 @@
|
|
|
1988
2003
|
"lite": {
|
|
1989
2004
|
"description": "Spark Lite is een lichtgewicht groot taalmodel met extreem lage latentie en efficiënte verwerkingscapaciteit. Het is volledig gratis en open, en ondersteunt realtime online zoekfunctionaliteit. De snelle respons maakt het uitermate geschikt voor inferentie op apparaten met lage rekenkracht en modelafstemming, wat gebruikers uitstekende kosteneffectiviteit en een slimme ervaring biedt, vooral in kennisvragen, contentgeneratie en zoekscenario's."
|
|
1990
2005
|
},
|
|
1991
|
-
"llama-2-7b-chat": {
|
|
1992
|
-
"description": "Llama2 is een reeks grote taalmodellen (LLM's) ontwikkeld en open-gebruik gemaakt door Meta. Deze reeks omvat generatieve tekstmodellen met verschillende groottes, variërend van 7 miljard tot 70 miljard parameters, die zijn voorgetraind en fijn afgesteld. Op architectuurniveau is Llama2 een automatisch regressief taalmodel dat gebruik maakt van een geoptimaliseerde transformer-architectuur. Aangepaste versies maken gebruik van toezichtsfijnafstelling (SFT) en versterkingsleren met menselijke feedback (RLHF) om de voorkeuren van mensen met betrekking tot nuttigheid en veiligheid te aligneren. Llama2 presteert opmerkelijk goed op verschillende academische datasets en biedt inspiratie voor de ontwerp- en ontwikkeling van veel andere modellen."
|
|
1993
|
-
},
|
|
1994
2006
|
"llama-3.1-70b-versatile": {
|
|
1995
2007
|
"description": "Llama 3.1 70B biedt krachtigere AI-inferentiecapaciteiten, geschikt voor complexe toepassingen, ondersteunt een enorme rekenverwerking en garandeert efficiëntie en nauwkeurigheid."
|
|
1996
2008
|
},
|
|
@@ -2018,9 +2030,6 @@
|
|
|
2018
2030
|
"llama-3.3-70b": {
|
|
2019
2031
|
"description": "Llama 3.3 70B: een middelgroot Llama-model dat een goede balans biedt tussen redeneervermogen en verwerkingssnelheid."
|
|
2020
2032
|
},
|
|
2021
|
-
"llama-3.3-70b-instruct": {
|
|
2022
|
-
"description": "Llama 3.3 is het meest geavanceerde meertalige open-source grote taalmodel in de Llama-serie, dat prestaties biedt die vergelijkbaar zijn met die van het 405B-model tegen zeer lage kosten. Gebaseerd op de Transformer-structuur en verbeterd door middel van supervisie-fijnstelling (SFT) en versterkend leren met menselijke feedback (RLHF) voor gebruiksvriendelijkheid en veiligheid. De instructie-geoptimaliseerde versie is speciaal ontworpen voor meertalige dialogen en presteert beter dan veel open-source en gesloten chatmodellen op verschillende industriële benchmarks. Kennisafkapdatum is december 2023."
|
|
2023
|
-
},
|
|
2024
2033
|
"llama-3.3-70b-versatile": {
|
|
2025
2034
|
"description": "Meta Llama 3.3 is een meertalige grote taalmodel (LLM) met 70B (tekstinvoer/tekstuitvoer) dat is voorgetraind en aangepast voor instructies. Het pure tekstmodel van Llama 3.3 is geoptimaliseerd voor meertalige gespreksgebruik en scoort beter dan veel beschikbare open-source en gesloten chatmodellen op gangbare industrie benchmarks."
|
|
2026
2035
|
},
|
|
@@ -2082,7 +2091,7 @@
|
|
|
2082
2091
|
"description": "Spark Max 32K is uitgerust met een grote contextverwerkingscapaciteit, met verbeterd begrip van context en logische redeneervaardigheden. Het ondersteunt tekstinvoer van 32K tokens en is geschikt voor het lezen van lange documenten, privé kennisvragen en andere scenario's."
|
|
2083
2092
|
},
|
|
2084
2093
|
"megrez-3b-instruct": {
|
|
2085
|
-
"description": "Megrez
|
|
2094
|
+
"description": "Megrez 3B Instruct is een efficiënt model met een klein aantal parameters, ontwikkeld door Wuwen Xinqiong."
|
|
2086
2095
|
},
|
|
2087
2096
|
"meta-llama-3-70b-instruct": {
|
|
2088
2097
|
"description": "Een krachtig model met 70 miljard parameters dat uitblinkt in redeneren, coderen en brede taaltoepassingen."
|
|
@@ -2639,6 +2648,12 @@
|
|
|
2639
2648
|
"pro-128k": {
|
|
2640
2649
|
"description": "Spark Pro 128K is uitgerust met een zeer grote contextverwerkingscapaciteit, in staat om tot 128K contextinformatie te verwerken. Het is bijzonder geschikt voor lange teksten die een volledige analyse en langdurige logische verbanden vereisen, en biedt een vloeiende en consistente logica met diverse ondersteuningen voor citaten in complexe tekstcommunicatie."
|
|
2641
2650
|
},
|
|
2651
|
+
"pro-deepseek-r1": {
|
|
2652
|
+
"description": "Model voor exclusieve bedrijfsdiensten, inclusief gelijktijdige service."
|
|
2653
|
+
},
|
|
2654
|
+
"pro-deepseek-v3": {
|
|
2655
|
+
"description": "Model voor exclusieve bedrijfsdiensten, inclusief gelijktijdige service."
|
|
2656
|
+
},
|
|
2642
2657
|
"qvq-72b-preview": {
|
|
2643
2658
|
"description": "Het QVQ-model is een experimenteel onderzoeksmodel ontwikkeld door het Qwen-team, gericht op het verbeteren van visuele redeneervaardigheden, vooral in het domein van wiskundige redenering."
|
|
2644
2659
|
},
|
|
@@ -2774,12 +2789,6 @@
|
|
|
2774
2789
|
"qwen2": {
|
|
2775
2790
|
"description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties."
|
|
2776
2791
|
},
|
|
2777
|
-
"qwen2-72b-instruct": {
|
|
2778
|
-
"description": "Qwen2 is een nieuwe generatie van grote taalmodellen die is ontwikkeld door het Qwen-team. Het is gebaseerd op de Transformer-architectuur en maakt gebruik van SwiGLU-activatiefuncties, aandacht-QKV-bias, groepsquery-aandacht, een mix van schuifraam-aandacht en volledige aandacht, en andere technieken. Bovendien heeft het Qwen-team de tokenizer verbeterd om aan te passen aan meerdere natuurlijke talen en code."
|
|
2779
|
-
},
|
|
2780
|
-
"qwen2-7b-instruct": {
|
|
2781
|
-
"description": "Qwen2 is een nieuwe generatie van grote taalmodellen die is ontwikkeld door het Qwen-team. Het is gebaseerd op de Transformer-architectuur en maakt gebruik van technieken zoals de SwiGLU-activatiefunctie, aandacht QKV-bias, groepsquery-aandacht, een mengsel van schuifraam-aandacht en volledige aandacht. Bovendien heeft het Qwen-team de tokenizer verbeterd om aan verschillende natuurlijke talen en code te kunnen wennen."
|
|
2782
|
-
},
|
|
2783
2792
|
"qwen2.5": {
|
|
2784
2793
|
"description": "Qwen2.5 is de nieuwe generatie grootschalig taalmodel van Alibaba, dat uitstekende prestaties levert ter ondersteuning van diverse toepassingsbehoeften."
|
|
2785
2794
|
},
|
|
@@ -2918,6 +2927,12 @@
|
|
|
2918
2927
|
"qwen3-next-80b-a3b-thinking": {
|
|
2919
2928
|
"description": "Een nieuwe generatie open-source model met denkmodus gebaseerd op Qwen3, met verbeterde instructienaleving en meer beknopte samenvattende antwoorden vergeleken met de vorige versie (Tongyi Qianwen 3-235B-A22B-Thinking-2507)."
|
|
2920
2929
|
},
|
|
2930
|
+
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
+
"description": "Qwen3 VL 235B A22B Instruct is een multimodaal model ontwikkeld door Tongyi Qianwen, dat visueel begrip en redenering ondersteunt."
|
|
2932
|
+
},
|
|
2933
|
+
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
+
"description": "Qwen3 VL 235B A22B Thinking is een multimodaal redeneermodel ontwikkeld door Tongyi Qianwen, dat visueel begrip en redenering ondersteunt."
|
|
2935
|
+
},
|
|
2921
2936
|
"qwen3-vl-plus": {
|
|
2922
2937
|
"description": "Tongyi Qianwen VL is een tekstgeneratiemodel met visuele (beeld) begripscapaciteiten. Het kan niet alleen OCR (tekstherkenning in afbeeldingen) uitvoeren, maar ook samenvatten en redeneren, bijvoorbeeld het extraheren van attributen uit productfoto's en het oplossen van problemen op basis van oefenplaatjes."
|
|
2923
2938
|
},
|
|
@@ -3035,6 +3050,9 @@
|
|
|
3035
3050
|
"step-r1-v-mini": {
|
|
3036
3051
|
"description": "Dit model is een krachtig redeneringsmodel met sterke beeldbegripcapaciteiten, in staat om beeld- en tekstinformatie te verwerken en tekstinhoud te genereren na diep nadenken. Dit model presteert uitstekend in visuele redenering en heeft eersteklas wiskundige, code- en tekstredeneringscapaciteiten. De contextlengte is 100k."
|
|
3037
3052
|
},
|
|
3053
|
+
"step3": {
|
|
3054
|
+
"description": "Step3 is een multimodaal model ontwikkeld door StepStar, met krachtige visuele begripscapaciteiten."
|
|
3055
|
+
},
|
|
3038
3056
|
"stepfun-ai/step3": {
|
|
3039
3057
|
"description": "Step3 is een geavanceerd multimodaal redeneermodel uitgebracht door StepFun (阶跃星辰). Het is gebouwd op een Mixture-of-Experts (MoE)-architectuur met in totaal 321 miljard (321B) parameters en 38 miljard (38B) actieve parameters. Het model heeft een end-to-end ontwerp dat gericht is op het minimaliseren van decodeerkosten, terwijl het topniveau-prestaties levert bij vision-language redenering. Dankzij de synergie tussen Multi-Matrix Factorized Attention (MFA) en Attention-FFN Decoupling (AFD) behoudt Step3 uitstekende efficiëntie zowel op high-end als low-end accelerators. Tijdens de voortraining verwerkte Step3 meer dan 20 biljoen (20T) teksttokens en 4 biljoen (4T) gecombineerde beeld-tekst-tokens, en bestrijkt daarmee meer dan tien talen. Het model behaalt leidende resultaten onder open-sourcemodellen op verschillende benchmarks, waaronder wiskunde, code en multimodaal."
|
|
3040
3058
|
},
|
|
@@ -3158,9 +3176,6 @@
|
|
|
3158
3176
|
"xai/grok-4": {
|
|
3159
3177
|
"description": "xAI's nieuwste en beste vlaggenschipmodel, met ongeëvenaarde prestaties in natuurlijke taal, wiskunde en redeneren – de perfecte allrounder."
|
|
3160
3178
|
},
|
|
3161
|
-
"yi-1.5-34b-chat": {
|
|
3162
|
-
"description": "Yi-1.5 is een geüpgradeerde versie van Yi. Het wordt voortdurend voorgetraind met een hoge-kwaliteitscorpus van 500B tokens op basis van Yi, en fijn afgesteld op 3M diverse fijnafstemmingssamples."
|
|
3163
|
-
},
|
|
3164
3179
|
"yi-large": {
|
|
3165
3180
|
"description": "Een nieuw model met honderden miljarden parameters, biedt superieure vraag- en tekstgeneratiecapaciteiten."
|
|
3166
3181
|
},
|
|
@@ -284,11 +284,19 @@
|
|
|
284
284
|
"placeholder": "Wprowadź identyfikator modelu, na przykład gpt-4o lub claude-3.5-sonnet",
|
|
285
285
|
"title": "ID modelu"
|
|
286
286
|
},
|
|
287
|
+
"imageOutput": {
|
|
288
|
+
"extra": "Ta konfiguracja włączy jedynie możliwość generowania obrazów przez model. Faktyczna skuteczność zależy całkowicie od samego modelu. Proszę samodzielnie przetestować, czy model posiada zdolność generowania obrazów.",
|
|
289
|
+
"title": "Obsługa generowania obrazów"
|
|
290
|
+
},
|
|
287
291
|
"modalTitle": "Konfiguracja niestandardowego modelu",
|
|
288
292
|
"reasoning": {
|
|
289
293
|
"extra": "Ta konfiguracja włączy jedynie zdolność modelu do głębokiego myślenia, a konkretne efekty w pełni zależą od samego modelu. Proszę samodzielnie przetestować, czy model ma zdolność do głębokiego myślenia.",
|
|
290
294
|
"title": "Wsparcie dla głębokiego myślenia"
|
|
291
295
|
},
|
|
296
|
+
"search": {
|
|
297
|
+
"extra": "Ta konfiguracja włączy jedynie możliwość korzystania z wbudowanej wyszukiwarki internetowej modelu. Czy model obsługuje wyszukiwanie zależy od jego możliwości. Proszę samodzielnie przetestować dostępność tej funkcji.",
|
|
298
|
+
"title": "Obsługa wyszukiwania online"
|
|
299
|
+
},
|
|
292
300
|
"tokens": {
|
|
293
301
|
"extra": "Ustaw maksymalną liczbę tokenów wspieranych przez model",
|
|
294
302
|
"title": "Maksymalne okno kontekstu",
|
|
@@ -309,6 +317,10 @@
|
|
|
309
317
|
"placeholder": "Wybierz typ modelu",
|
|
310
318
|
"title": "Typ modelu"
|
|
311
319
|
},
|
|
320
|
+
"video": {
|
|
321
|
+
"extra": "Ta konfiguracja włączy jedynie ustawienia rozpoznawania wideo w aplikacji. Czy model obsługuje rozpoznawanie zależy całkowicie od jego możliwości. Proszę samodzielnie przetestować dostępność funkcji rozpoznawania wideo.",
|
|
322
|
+
"title": "Obsługa rozpoznawania wideo"
|
|
323
|
+
},
|
|
312
324
|
"vision": {
|
|
313
325
|
"extra": "Ta konfiguracja włączy tylko możliwość przesyłania obrazów w aplikacji, czy model obsługuje rozpoznawanie zależy od samego modelu, proszę samodzielnie przetestować dostępność rozpoznawania wizualnego tego modelu.",
|
|
314
326
|
"title": "Wsparcie dla rozpoznawania wizualnego"
|
|
@@ -704,6 +704,9 @@
|
|
|
704
704
|
"azure-DeepSeek-R1-0528": {
|
|
705
705
|
"description": "Dostarczony i wdrożony przez Microsoft; model DeepSeek R1 przeszedł drobną aktualizację wersji, obecna wersja to DeepSeek-R1-0528. W najnowszej aktualizacji DeepSeek R1 znacznie poprawił głębokość wnioskowania i zdolności inferencyjne poprzez zwiększenie zasobów obliczeniowych oraz wprowadzenie optymalizacji algorytmów w fazie post-treningowej. Model ten osiąga doskonałe wyniki w testach bazowych z matematyki, programowania i logiki ogólnej, a jego ogólna wydajność zbliża się do czołowych modeli, takich jak O3 i Gemini 2.5 Pro."
|
|
706
706
|
},
|
|
707
|
+
"baichuan-m2-32b": {
|
|
708
|
+
"description": "Baichuan M2 32B to hybrydowy model ekspertowy opracowany przez Baichuan Intelligence, charakteryzujący się zaawansowanymi zdolnościami wnioskowania."
|
|
709
|
+
},
|
|
707
710
|
"baichuan/baichuan2-13b-chat": {
|
|
708
711
|
"description": "Baichuan-13B to otwarty model językowy stworzony przez Baichuan Intelligence, zawierający 13 miliardów parametrów, który osiągnął najlepsze wyniki w swojej klasie w autorytatywnych benchmarkach w języku chińskim i angielskim."
|
|
709
712
|
},
|
|
@@ -728,12 +731,6 @@
|
|
|
728
731
|
"charglm-4": {
|
|
729
732
|
"description": "CharGLM-4 zaprojektowany z myślą o odgrywaniu ról i emocjonalnym towarzyszeniu, wspierający długotrwałą pamięć i spersonalizowane rozmowy, z szerokim zakresem zastosowań."
|
|
730
733
|
},
|
|
731
|
-
"chatglm3": {
|
|
732
|
-
"description": "ChatGLM3 to zamknięty model opracowany przez AI ZhiPu i KEG Laboratorium z Politechniki Tsinghua, który przeszedł wstępne treningi na ogromnej liczbie identyfikatorów chińskich i angielskich oraz trening zgodności z preferencjami ludzkimi. W porównaniu do pierwszej generacji modelu, ChatGLM3 osiągnął poprawę o 16%, 36% i 280% w testach MMLU, C-Eval i GSM8K, oraz zajął pierwsze miejsce na liście chińskich zadań C-Eval. Jest odpowiedni do zastosowań, które wymagają wysokiej wiedzy, zdolności wnioskowania i kreatywności, takich jak tworzenie tekstów reklamowych, pisarstwo powieści, pisarstwo naukowe i generowanie kodu."
|
|
733
|
-
},
|
|
734
|
-
"chatglm3-6b-base": {
|
|
735
|
-
"description": "ChatGLM3-6b-base to najnowszy model z serii ChatGLM opracowany przez ZhiPu, o skali 6 miliardów parametrów, dostępny jako oprogramowanie open source."
|
|
736
|
-
},
|
|
737
734
|
"chatgpt-4o-latest": {
|
|
738
735
|
"description": "ChatGPT-4o to dynamiczny model, który jest na bieżąco aktualizowany, aby utrzymać najnowszą wersję. Łączy potężne zdolności rozumienia i generowania języka, co czyni go odpowiednim do zastosowań na dużą skalę, w tym obsługi klienta, edukacji i wsparcia technicznego."
|
|
739
736
|
},
|
|
@@ -938,6 +935,9 @@
|
|
|
938
935
|
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
936
|
"description": "DeepSeek-V3.1-Terminus to zaktualizowana wersja modelu V3.1 wydanego przez DeepSeek, zaprojektowana jako hybrydowy model językowy z agentami. Aktualizacja skupia się na naprawie zgłoszonych przez użytkowników problemów i poprawie stabilności, zachowując jednocześnie dotychczasowe możliwości modelu. Znacząco poprawiono spójność językową, zmniejszając mieszanie języka chińskiego i angielskiego oraz eliminując nieprawidłowe znaki. Model integruje tryb myślenia (Thinking Mode) oraz tryb bez myślenia (Non-thinking Mode), które użytkownicy mogą elastycznie przełączać za pomocą szablonów czatu, dostosowując się do różnych zadań. Ważną optymalizacją jest wzmocnienie wydajności agenta kodu (Code Agent) i agenta wyszukiwania (Search Agent), co czyni je bardziej niezawodnymi w wywoływaniu narzędzi i realizacji wieloetapowych, złożonych zadań."
|
|
940
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.2-Exp": {
|
|
939
|
+
"description": "Model DeepSeek V3.2 Exp to hybrydowa architektura wnioskowania, obsługująca zarówno tryb refleksyjny, jak i nierefleksyjny."
|
|
940
|
+
},
|
|
941
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
942
942
|
"description": "DeepSeek 67B to zaawansowany model przeszkolony do złożonych dialogów."
|
|
943
943
|
},
|
|
@@ -1031,6 +1031,9 @@
|
|
|
1031
1031
|
"deepseek-v3.1": {
|
|
1032
1032
|
"description": "DeepSeek-V3.1 to nowy hybrydowy model wnioskowania opracowany przez DeepSeek, obsługujący dwa tryby wnioskowania: myślenia i bezmyślny, z wyższą efektywnością myślenia niż DeepSeek-R1-0528. Dzięki optymalizacji po treningu, wykorzystanie narzędzi agenta i wydajność zadań inteligentnych agentów zostały znacznie poprawione. Obsługuje okno kontekstowe do 128k oraz maksymalną długość wyjścia do 64k tokenów."
|
|
1033
1033
|
},
|
|
1034
|
+
"deepseek-v3.1-terminus": {
|
|
1035
|
+
"description": "DeepSeek-V3.1-Terminus to zoptymalizowana wersja dużego modelu językowego opracowana przez DeepSeek, zaprojektowana specjalnie dla urządzeń końcowych."
|
|
1036
|
+
},
|
|
1034
1037
|
"deepseek-v3.1:671b": {
|
|
1035
1038
|
"description": "DeepSeek V3.1: kolejna generacja modelu inferencyjnego, poprawiająca zdolności do złożonego wnioskowania i łańcuchowego myślenia, odpowiednia do zadań wymagających dogłębnej analizy."
|
|
1036
1039
|
},
|
|
@@ -1193,6 +1196,12 @@
|
|
|
1193
1196
|
"ernie-4.0-turbo-8k-preview": {
|
|
1194
1197
|
"description": "Flagowy model językowy Baidu o ultra dużej skali, charakteryzujący się doskonałymi wynikami ogólnymi, szeroko stosowany w złożonych zadaniach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji. W porównaniu do ERNIE 4.0, oferuje lepsze wyniki wydajności."
|
|
1195
1198
|
},
|
|
1199
|
+
"ernie-4.5-21b-a3b": {
|
|
1200
|
+
"description": "ERNIE 4.5 21B A3B to hybrydowy model ekspertowy opracowany przez Baidu Wenxin, oferujący zaawansowane możliwości wnioskowania i obsługę wielu języków."
|
|
1201
|
+
},
|
|
1202
|
+
"ernie-4.5-300b-a47b": {
|
|
1203
|
+
"description": "ERNIE 4.5 300B A47B to model ekspertowy o ultradużej skali opracowany przez Baidu Wenxin, wyróżniający się wyjątkowymi zdolnościami wnioskowania."
|
|
1204
|
+
},
|
|
1196
1205
|
"ernie-4.5-8k-preview": {
|
|
1197
1206
|
"description": "Model ERNIE 4.5 to nowa generacja natywnego modelu wielomodalnego opracowanego przez Baidu, który osiąga doskonałe wyniki w zakresie zrozumienia wielomodalnego dzięki wspólnemu modelowaniu wielu modalności; posiada bardziej zaawansowane zdolności językowe, a także znacznie poprawione zdolności rozumienia, generowania, logicznego myślenia i pamięci, eliminując halucynacje oraz poprawiając zdolności wnioskowania logicznego i kodowania."
|
|
1198
1207
|
},
|
|
@@ -1449,7 +1458,7 @@
|
|
|
1449
1458
|
"description": "GLM-4-0520 to najnowsza wersja modelu, zaprojektowana do wysoko złożonych i zróżnicowanych zadań, z doskonałymi wynikami."
|
|
1450
1459
|
},
|
|
1451
1460
|
"glm-4-9b-chat": {
|
|
1452
|
-
"description": "GLM-4-9B-Chat
|
|
1461
|
+
"description": "GLM-4-9B-Chat osiąga wysoką wydajność w zakresie semantyki, matematyki, wnioskowania, kodowania i wiedzy. Obsługuje również przeglądanie stron internetowych, wykonywanie kodu, wywoływanie niestandardowych narzędzi oraz wnioskowanie na podstawie długich tekstów. Wspiera 26 języków, w tym japoński, koreański i niemiecki."
|
|
1453
1462
|
},
|
|
1454
1463
|
"glm-4-air": {
|
|
1455
1464
|
"description": "GLM-4-Air to opłacalna wersja, której wydajność jest zbliżona do GLM-4, oferująca szybkie działanie i przystępną cenę."
|
|
@@ -1749,7 +1758,10 @@
|
|
|
1749
1758
|
"description": "Tańsza wersja GPT Image 1, natywnie obsługuje wejścia tekstowe i graficzne oraz generuje obrazy jako wyjście."
|
|
1750
1759
|
},
|
|
1751
1760
|
"gpt-oss-120b": {
|
|
1752
|
-
"description": "GPT-OSS-120B
|
|
1761
|
+
"description": "Model wymaga zgłoszenia w celu uzyskania dostępu. GPT-OSS-120B to otwartoźródłowy, wielkoskalowy model językowy opracowany przez OpenAI, oferujący zaawansowane możliwości generowania tekstu."
|
|
1762
|
+
},
|
|
1763
|
+
"gpt-oss-20b": {
|
|
1764
|
+
"description": "Model wymaga zgłoszenia w celu uzyskania dostępu. GPT-OSS-20B to otwartoźródłowy, średniej wielkości model językowy opracowany przez OpenAI, zapewniający wydajne generowanie tekstu."
|
|
1753
1765
|
},
|
|
1754
1766
|
"gpt-oss:120b": {
|
|
1755
1767
|
"description": "GPT-OSS 120B to duży otwarty model językowy wydany przez OpenAI, wykorzystujący technologię kwantyzacji MXFP4, przeznaczony jako model flagowy. Wymaga środowiska wielo-GPU lub wysokowydajnej stacji roboczej, oferując znakomitą wydajność w złożonym wnioskowaniu, generowaniu kodu oraz przetwarzaniu wielojęzycznym, wspierając zaawansowane wywołania funkcji i integrację narzędzi."
|
|
@@ -1967,6 +1979,9 @@
|
|
|
1967
1979
|
"kimi-k2-0905-preview": {
|
|
1968
1980
|
"description": "Model kimi-k2-0905-preview obsługuje długość kontekstu do 256k, oferując silniejsze zdolności Agentic Coding, bardziej estetyczny i praktyczny kod frontendowy oraz lepsze rozumienie kontekstu."
|
|
1969
1981
|
},
|
|
1982
|
+
"kimi-k2-instruct": {
|
|
1983
|
+
"description": "Kimi K2 Instruct to duży model językowy opracowany przez Moonshot AI, zdolny do przetwarzania bardzo długiego kontekstu."
|
|
1984
|
+
},
|
|
1970
1985
|
"kimi-k2-turbo-preview": {
|
|
1971
1986
|
"description": "kimi-k2 to bazowy model z architekturą MoE, dysponujący wyjątkowymi możliwościami w zakresie kodowania i agentów, z łączną liczbą parametrów 1T oraz 32B parametrów aktywacyjnych. W standardowych testach wydajności (benchmarkach) dla głównych kategorii takich jak wnioskowanie z wiedzy ogólnej, programowanie, matematyka i agenty, model K2 przewyższa inne popularne otwarte modele."
|
|
1972
1987
|
},
|
|
@@ -1988,9 +2003,6 @@
|
|
|
1988
2003
|
"lite": {
|
|
1989
2004
|
"description": "Spark Lite to lekki model językowy o dużej skali, charakteryzujący się niezwykle niskim opóźnieniem i wysoką wydajnością przetwarzania, całkowicie darmowy i otwarty, wspierający funkcje wyszukiwania w czasie rzeczywistym. Jego cechy szybkiej reakcji sprawiają, że doskonale sprawdza się w zastosowaniach inferencyjnych na urządzeniach o niskiej mocy obliczeniowej oraz w dostosowywaniu modeli, oferując użytkownikom znakomity stosunek kosztów do korzyści oraz inteligentne doświadczenie, szczególnie w kontekście pytań i odpowiedzi, generowania treści oraz wyszukiwania."
|
|
1990
2005
|
},
|
|
1991
|
-
"llama-2-7b-chat": {
|
|
1992
|
-
"description": "Llama2 to seria modeli językowych (LLM) opracowanych i udostępnionych przez Meta, obejmująca modele generujące tekst o różnej skali, od 7 miliardów do 70 miliardów parametrów, które przeszły wstępną naukę i dostrajanie. Na poziomie architektury, Llama2 jest modelem językowym optymalizowanym za pomocą architektury transformerowej. Zdolność do dostosowywania modeli do preferencji ludzi pod względem użyteczności i bezpieczeństwa została osiągnięta poprzez nadzorowane dostrajanie (SFT) i uczenie wzmacnianie z uwzględnieniem opinii ludzi (RLHF). Llama2 osiąga lepsze wyniki niż poprzednia seria Llama na wielu zbiorach danych akademickich, co dostarcza inspiracji dla projektowania i tworzenia wielu innych modeli."
|
|
1993
|
-
},
|
|
1994
2006
|
"llama-3.1-70b-versatile": {
|
|
1995
2007
|
"description": "Llama 3.1 70B oferuje potężne możliwości wnioskowania AI, odpowiednie do złożonych zastosowań, wspierające ogromne przetwarzanie obliczeniowe przy zachowaniu efektywności i dokładności."
|
|
1996
2008
|
},
|
|
@@ -2018,9 +2030,6 @@
|
|
|
2018
2030
|
"llama-3.3-70b": {
|
|
2019
2031
|
"description": "Llama 3.3 70B: średnio-duży model Llama, łączący zdolności wnioskowania z wysoką przepustowością."
|
|
2020
2032
|
},
|
|
2021
|
-
"llama-3.3-70b-instruct": {
|
|
2022
|
-
"description": "Llama 3.3 to najnowocześniejszy wielojęzyczny, otwarty model językowy z serii Llama, który oferuje wydajność porównywalną z modelem 405B przy bardzo niskich kosztach. Opiera się na strukturze Transformer i poprawia użyteczność oraz bezpieczeństwo dzięki nadzorowanemu dostrajaniu (SFT) i uczeniu ze wzmocnieniem na podstawie ludzkich opinii (RLHF). Jego wersja dostosowana do instrukcji jest zoptymalizowana do wielojęzycznych rozmów i w wielu branżowych benchmarkach przewyższa wiele otwartych i zamkniętych modeli czatu. Data graniczna wiedzy to grudzień 2023."
|
|
2023
|
-
},
|
|
2024
2033
|
"llama-3.3-70b-versatile": {
|
|
2025
2034
|
"description": "Meta Llama 3.3 to wielojęzyczny model językowy (LLM) 70B, pretrenowany i dostosowany do poleceń. Model Llama 3.3, dostosowany do poleceń, jest zoptymalizowany do zastosowań w dialogach wielojęzycznych i przewyższa wiele dostępnych modeli czatu, zarówno open source, jak i zamkniętych, w popularnych branżowych benchmarkach."
|
|
2026
2035
|
},
|
|
@@ -2082,7 +2091,7 @@
|
|
|
2082
2091
|
"description": "Spark Max 32K jest wyposażony w dużą zdolność przetwarzania kontekstu, oferując silniejsze zrozumienie kontekstu i zdolności logicznego wnioskowania, obsługując teksty o długości do 32K tokenów, co czyni go odpowiednim do czytania długich dokumentów, prywatnych pytań i odpowiedzi oraz innych scenariuszy."
|
|
2083
2092
|
},
|
|
2084
2093
|
"megrez-3b-instruct": {
|
|
2085
|
-
"description": "Megrez
|
|
2094
|
+
"description": "Megrez 3B Instruct to kompaktowy i wydajny model opracowany przez Wuwen Xinqiong."
|
|
2086
2095
|
},
|
|
2087
2096
|
"meta-llama-3-70b-instruct": {
|
|
2088
2097
|
"description": "Potężny model z 70 miliardami parametrów, doskonały w rozumowaniu, kodowaniu i szerokich zastosowaniach językowych."
|
|
@@ -2639,6 +2648,12 @@
|
|
|
2639
2648
|
"pro-128k": {
|
|
2640
2649
|
"description": "Spark Pro 128K jest wyposażony w wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, co czyni go idealnym do analizy całościowej i długoterminowego przetwarzania logicznych powiązań w długich treściach, zapewniając płynność i spójność logiczną oraz różnorodne wsparcie cytatów w złożonej komunikacji tekstowej."
|
|
2641
2650
|
},
|
|
2651
|
+
"pro-deepseek-r1": {
|
|
2652
|
+
"description": "Model przeznaczony do usług dedykowanych dla przedsiębiorstw, obsługujący usługi równoległe."
|
|
2653
|
+
},
|
|
2654
|
+
"pro-deepseek-v3": {
|
|
2655
|
+
"description": "Model przeznaczony do usług dedykowanych dla przedsiębiorstw, obsługujący usługi równoległe."
|
|
2656
|
+
},
|
|
2642
2657
|
"qvq-72b-preview": {
|
|
2643
2658
|
"description": "Model QVQ jest eksperymentalnym modelem badawczym opracowanym przez zespół Qwen, skoncentrowanym na zwiększeniu zdolności w zakresie rozumowania wizualnego, szczególnie w dziedzinie rozumowania matematycznego."
|
|
2644
2659
|
},
|
|
@@ -2774,12 +2789,6 @@
|
|
|
2774
2789
|
"qwen2": {
|
|
2775
2790
|
"description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności."
|
|
2776
2791
|
},
|
|
2777
|
-
"qwen2-72b-instruct": {
|
|
2778
|
-
"description": "Qwen2 to nowa generacja modeli językowych stworzona przez zespół Qwen. Opiera się na architekturze Transformer i wykorzystuje funkcję aktywacji SwiGLU, obciążenie QKV uwagi (attention QKV bias), grupowe zapytanie uwagi (group query attention), mieszankę uwagi z oknem przesuwnym (mixture of sliding window attention) i pełną uwagą. Ponadto, zespół Qwen wprowadził ulepszony tokenizator dostosowany do wielu języków naturalnych i kodu."
|
|
2779
|
-
},
|
|
2780
|
-
"qwen2-7b-instruct": {
|
|
2781
|
-
"description": "Qwen2 to nowa seria modeli językowych stworzona przez zespół Qwen. Opiera się na architekturze Transformer i wykorzystuje funkcję aktywacji SwiGLU, obciążenie QKV uwagi (attention QKV bias), grupowe zapytanie uwagi (group query attention), mieszankę uwagi okna suwającego się (mixture of sliding window attention) i pełnej uwagi. Ponadto, zespół Qwen wprowadził ulepszone tokenizery dostosowane do wielu języków naturalnych i kodu."
|
|
2782
|
-
},
|
|
2783
2792
|
"qwen2.5": {
|
|
2784
2793
|
"description": "Qwen2.5 to nowa generacja dużego modelu językowego Alibaba, który wspiera różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności."
|
|
2785
2794
|
},
|
|
@@ -2918,6 +2927,12 @@
|
|
|
2918
2927
|
"qwen3-next-80b-a3b-thinking": {
|
|
2919
2928
|
"description": "Nowa generacja otwartego modelu z trybem myślenia oparta na Qwen3, która w porównaniu z poprzednią wersją (Tongyi Qianwen 3-235B-A22B-Thinking-2507) wykazuje poprawę w przestrzeganiu instrukcji oraz bardziej zwięzłe podsumowania w odpowiedziach modelu."
|
|
2920
2929
|
},
|
|
2930
|
+
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
+
"description": "Qwen3 VL 235B A22B Instruct to multimodalny model opracowany przez Tongyi Qianwen, wspierający rozumienie wizualne i wnioskowanie."
|
|
2932
|
+
},
|
|
2933
|
+
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
+
"description": "Qwen3 VL 235B A22B Thinking to multimodalny model wnioskowania opracowany przez Tongyi Qianwen, wspierający rozumienie wizualne i wnioskowanie."
|
|
2935
|
+
},
|
|
2921
2936
|
"qwen3-vl-plus": {
|
|
2922
2937
|
"description": "Tongyi Qianwen VL to model generujący tekst z umiejętnością rozumienia wizualnego (obrazów). Potrafi nie tylko wykonywać OCR (rozpoznawanie tekstu na obrazach), ale także podsumowywać i wnioskować, na przykład wyodrębniać atrybuty z fotografii produktów czy rozwiązywać zadania na podstawie ilustracji."
|
|
2923
2938
|
},
|
|
@@ -3035,6 +3050,9 @@
|
|
|
3035
3050
|
"step-r1-v-mini": {
|
|
3036
3051
|
"description": "Model ten to potężny model wnioskowania z zdolnościami rozumienia obrazów, zdolny do przetwarzania informacji wizualnych i tekstowych, generując tekst po głębokim przemyśleniu. Model ten wyróżnia się w dziedzinie wnioskowania wizualnego, a także posiada pierwszorzędne zdolności wnioskowania matematycznego, kodowania i tekstu. Długość kontekstu wynosi 100k."
|
|
3037
3052
|
},
|
|
3053
|
+
"step3": {
|
|
3054
|
+
"description": "Step3 to multimodalny model opracowany przez StepStar, charakteryzujący się zaawansowanymi zdolnościami rozumienia obrazu."
|
|
3055
|
+
},
|
|
3038
3056
|
"stepfun-ai/step3": {
|
|
3039
3057
|
"description": "Step3 to zaawansowany multimodalny model wnioskowania wydany przez StepFun (阶跃星辰). Został zbudowany na architekturze Mixture of Experts (MoE) z łączną liczbą 321 mld parametrów i 38 mld parametrów aktywacji. Model ma konstrukcję end-to-end, zaprojektowaną tak, aby minimalizować koszty dekodowania, jednocześnie zapewniając najwyższą wydajność w zadaniach wnioskowania wizualno-językowego. Dzięki współdziałaniu mechanizmów Multi-Matrix Factorized Attention (MFA) i Attention-FFN Decoupling (AFD), Step3 zachowuje znakomitą efektywność zarówno na akceleratorach klasy flagowej, jak i na urządzeniach o niższej wydajności. W fazie pretrenowania Step3 przetworzył ponad 20 bilionów tokenów tekstowych oraz 4 biliony tokenów mieszanych tekstowo-obrazowych, obejmujących ponad dziesięć języków. Model osiągnął czołowe wyniki wśród modeli open-source na wielu benchmarkach, w tym w zadaniach z zakresu matematyki, programowania i multimodalu."
|
|
3040
3058
|
},
|
|
@@ -3158,9 +3176,6 @@
|
|
|
3158
3176
|
"xai/grok-4": {
|
|
3159
3177
|
"description": "Najnowszy i najlepszy flagowy model xAI, oferujący niezrównaną wydajność w języku naturalnym, matematyce i wnioskowaniu — idealny wszechstronny zawodnik."
|
|
3160
3178
|
},
|
|
3161
|
-
"yi-1.5-34b-chat": {
|
|
3162
|
-
"description": "Yi-1.5 to ulepszona wersja Yi. Używa ona wysokiej jakości korpusu danych o rozmiarze 500B tokenów do dalszego wstępnego treningu Yi, a także do dopasowywania na 3M różnorodnych próbkach dopasowujących."
|
|
3163
|
-
},
|
|
3164
3179
|
"yi-large": {
|
|
3165
3180
|
"description": "Nowy model z miliardami parametrów, oferujący niezwykłe możliwości w zakresie pytań i generowania tekstu."
|
|
3166
3181
|
},
|
|
@@ -284,11 +284,19 @@
|
|
|
284
284
|
"placeholder": "Insira o ID do modelo, por exemplo, gpt-4o ou claude-3.5-sonnet",
|
|
285
285
|
"title": "ID do Modelo"
|
|
286
286
|
},
|
|
287
|
+
"imageOutput": {
|
|
288
|
+
"extra": "Esta configuração ativará apenas a capacidade do modelo de gerar imagens. O efeito real depende totalmente do próprio modelo. Teste por conta própria se o modelo possui capacidade utilizável de geração de imagens.",
|
|
289
|
+
"title": "Suporte à geração de imagens"
|
|
290
|
+
},
|
|
287
291
|
"modalTitle": "Configuração do Modelo Personalizado",
|
|
288
292
|
"reasoning": {
|
|
289
293
|
"extra": "Esta configuração ativará apenas a capacidade de pensamento profundo do modelo, e o efeito específico depende totalmente do próprio modelo. Por favor, teste se este modelo possui a capacidade de pensamento profundo utilizável.",
|
|
290
294
|
"title": "Suporte a Pensamento Profundo"
|
|
291
295
|
},
|
|
296
|
+
"search": {
|
|
297
|
+
"extra": "Esta configuração ativará apenas a capacidade de busca online do mecanismo de busca interno do modelo. A compatibilidade com o mecanismo de busca interno depende do próprio modelo. Teste por conta própria se o mecanismo de busca interno do modelo é utilizável.",
|
|
298
|
+
"title": "Suporte à busca online"
|
|
299
|
+
},
|
|
292
300
|
"tokens": {
|
|
293
301
|
"extra": "Configurar o número máximo de tokens suportados pelo modelo",
|
|
294
302
|
"title": "Janela de contexto máxima",
|
|
@@ -309,6 +317,10 @@
|
|
|
309
317
|
"placeholder": "Por favor, selecione o tipo de modelo",
|
|
310
318
|
"title": "Tipo de modelo"
|
|
311
319
|
},
|
|
320
|
+
"video": {
|
|
321
|
+
"extra": "Esta configuração ativará apenas a configuração de reconhecimento de vídeo no aplicativo. A compatibilidade com o reconhecimento depende totalmente do próprio modelo. Teste por conta própria se o modelo possui capacidade utilizável de reconhecimento de vídeo.",
|
|
322
|
+
"title": "Suporte ao reconhecimento de vídeo"
|
|
323
|
+
},
|
|
312
324
|
"vision": {
|
|
313
325
|
"extra": "Esta configuração apenas habilitará a configuração de upload de imagens no aplicativo, se o reconhecimento for suportado depende do modelo em si, teste a capacidade de reconhecimento visual desse modelo.",
|
|
314
326
|
"title": "Suporte a Reconhecimento Visual"
|