@lobehub/chat 1.57.1 → 1.59.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/docker-compose/local/docker-compose.yml +1 -0
- package/locales/ar/modelProvider.json +24 -0
- package/locales/ar/models.json +60 -0
- package/locales/ar/providers.json +15 -0
- package/locales/bg-BG/modelProvider.json +24 -0
- package/locales/bg-BG/models.json +60 -0
- package/locales/bg-BG/providers.json +15 -0
- package/locales/de-DE/modelProvider.json +24 -0
- package/locales/de-DE/models.json +60 -0
- package/locales/de-DE/providers.json +15 -0
- package/locales/en-US/modelProvider.json +24 -0
- package/locales/en-US/models.json +60 -0
- package/locales/en-US/providers.json +15 -0
- package/locales/es-ES/modelProvider.json +24 -0
- package/locales/es-ES/models.json +60 -0
- package/locales/es-ES/providers.json +15 -0
- package/locales/fa-IR/modelProvider.json +24 -0
- package/locales/fa-IR/models.json +60 -0
- package/locales/fa-IR/providers.json +15 -0
- package/locales/fr-FR/modelProvider.json +24 -0
- package/locales/fr-FR/models.json +60 -0
- package/locales/fr-FR/providers.json +15 -0
- package/locales/it-IT/modelProvider.json +24 -0
- package/locales/it-IT/models.json +60 -0
- package/locales/it-IT/providers.json +15 -0
- package/locales/ja-JP/modelProvider.json +24 -0
- package/locales/ja-JP/models.json +60 -0
- package/locales/ja-JP/providers.json +15 -0
- package/locales/ko-KR/modelProvider.json +24 -0
- package/locales/ko-KR/models.json +60 -0
- package/locales/ko-KR/providers.json +15 -0
- package/locales/nl-NL/modelProvider.json +24 -0
- package/locales/nl-NL/models.json +60 -0
- package/locales/nl-NL/providers.json +15 -0
- package/locales/pl-PL/modelProvider.json +24 -0
- package/locales/pl-PL/models.json +60 -0
- package/locales/pl-PL/providers.json +15 -0
- package/locales/pt-BR/modelProvider.json +24 -0
- package/locales/pt-BR/models.json +60 -0
- package/locales/pt-BR/providers.json +15 -0
- package/locales/ru-RU/modelProvider.json +24 -0
- package/locales/ru-RU/models.json +60 -0
- package/locales/ru-RU/providers.json +15 -0
- package/locales/tr-TR/modelProvider.json +24 -0
- package/locales/tr-TR/models.json +60 -0
- package/locales/tr-TR/providers.json +15 -0
- package/locales/vi-VN/modelProvider.json +24 -0
- package/locales/vi-VN/models.json +60 -0
- package/locales/vi-VN/providers.json +15 -0
- package/locales/zh-CN/modelProvider.json +24 -0
- package/locales/zh-CN/models.json +1109 -1049
- package/locales/zh-CN/providers.json +82 -67
- package/locales/zh-TW/modelProvider.json +24 -0
- package/locales/zh-TW/models.json +60 -0
- package/locales/zh-TW/providers.json +15 -0
- package/next.config.ts +5 -0
- package/package.json +4 -2
- package/src/app/[variants]/(main)/settings/provider/(detail)/azureai/page.tsx +58 -0
- package/src/app/[variants]/(main)/settings/provider/(list)/ProviderGrid/index.tsx +6 -3
- package/src/app/[variants]/(main)/settings/provider/features/CreateNewProvider/index.tsx +13 -2
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/Form.tsx +6 -8
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/index.tsx +5 -6
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/ModelConfigModal/index.tsx +4 -3
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/ProviderSettingsContext.ts +2 -0
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/index.tsx +6 -7
- package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +1 -1
- package/src/config/aiModels/azureai.ts +18 -0
- package/src/config/aiModels/index.ts +6 -0
- package/src/config/aiModels/volcengine.ts +83 -0
- package/src/config/llm.ts +6 -0
- package/src/config/modelProviders/azure.ts +2 -1
- package/src/config/modelProviders/azureai.ts +19 -0
- package/src/config/modelProviders/index.ts +6 -0
- package/src/config/modelProviders/volcengine.ts +23 -0
- package/src/database/server/models/aiProvider.ts +2 -0
- package/src/libs/agent-runtime/AgentRuntime.ts +17 -8
- package/src/libs/agent-runtime/azureai/index.ts +109 -0
- package/src/libs/agent-runtime/baichuan/index.test.ts +8 -250
- package/src/libs/agent-runtime/cloudflare/index.ts +22 -18
- package/src/libs/agent-runtime/index.ts +2 -1
- package/src/libs/agent-runtime/types/type.ts +5 -0
- package/src/libs/agent-runtime/utils/streams/__snapshots__/protocol.test.ts.snap +331 -0
- package/src/libs/agent-runtime/utils/streams/protocol.test.ts +137 -0
- package/src/libs/agent-runtime/utils/streams/protocol.ts +34 -0
- package/src/libs/agent-runtime/{doubao → volcengine}/index.ts +3 -3
- package/src/locales/default/modelProvider.ts +25 -0
- package/src/server/modules/AgentRuntime/index.ts +8 -1
- package/src/services/chat.ts +16 -4
- package/src/types/aiProvider.ts +5 -0
- package/src/types/user/settings/keyVaults.ts +2 -0
@@ -578,6 +578,9 @@
|
|
578
578
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
579
579
|
"description": "DeepSeek 67B is een geavanceerd model dat is getraind voor complexe gesprekken."
|
580
580
|
},
|
581
|
+
"deepseek-ai/deepseek-r1": {
|
582
|
+
"description": "Geavanceerd efficiënt LLM, gespecialiseerd in redeneren, wiskunde en programmeren."
|
583
|
+
},
|
581
584
|
"deepseek-ai/deepseek-vl2": {
|
582
585
|
"description": "DeepSeek-VL2 is een hybride expert (MoE) visueel taalmodel dat is ontwikkeld op basis van DeepSeekMoE-27B, met een MoE-architectuur met spaarzame activatie, die uitstekende prestaties levert met slechts 4,5 miljard geactiveerde parameters. Dit model presteert uitstekend in verschillende taken, waaronder visuele vraag-antwoord, optische tekenherkenning, document/tabel/grafiekbegrip en visuele positionering."
|
583
586
|
},
|
@@ -629,6 +632,12 @@
|
|
629
632
|
"deepseek/deepseek-chat": {
|
630
633
|
"description": "Een nieuw open-source model dat algemene en codeercapaciteiten combineert, niet alleen de algemene gespreksvaardigheden van het oorspronkelijke Chat-model en de krachtige codeverwerkingscapaciteiten van het Coder-model behoudt, maar ook beter is afgestemd op menselijke voorkeuren. Bovendien heeft DeepSeek-V2.5 aanzienlijke verbeteringen gerealiseerd in schrijfopdrachten, instructievolging en meer."
|
631
634
|
},
|
635
|
+
"deepseek/deepseek-r1": {
|
636
|
+
"description": "DeepSeek-R1 heeft de redeneringscapaciteiten van het model aanzienlijk verbeterd, zelfs met zeer weinig gelabelde gegevens. Voordat het model het uiteindelijke antwoord geeft, genereert het eerst een denkproces om de nauwkeurigheid van het uiteindelijke antwoord te verbeteren."
|
637
|
+
},
|
638
|
+
"deepseek/deepseek-r1:free": {
|
639
|
+
"description": "DeepSeek-R1 heeft de redeneringscapaciteiten van het model aanzienlijk verbeterd, zelfs met zeer weinig gelabelde gegevens. Voordat het model het uiteindelijke antwoord geeft, genereert het eerst een denkproces om de nauwkeurigheid van het uiteindelijke antwoord te verbeteren."
|
640
|
+
},
|
632
641
|
"emohaa": {
|
633
642
|
"description": "Emohaa is een psychologisch model met professionele adviescapaciteiten, dat gebruikers helpt emotionele problemen te begrijpen."
|
634
643
|
},
|
@@ -821,12 +830,18 @@
|
|
821
830
|
"google/gemini-pro-1.5": {
|
822
831
|
"description": "Gemini 1.5 Pro combineert de nieuwste optimalisatietechnologieën en biedt efficiëntere multimodale gegevensverwerkingscapaciteiten."
|
823
832
|
},
|
833
|
+
"google/gemma-2-27b": {
|
834
|
+
"description": "Gemma 2 is een efficiënt model van Google, dat een breed scala aan toepassingen dekt, van kleine toepassingen tot complexe gegevensverwerking."
|
835
|
+
},
|
824
836
|
"google/gemma-2-27b-it": {
|
825
837
|
"description": "Gemma 2 behoudt het ontwerpprincipe van lichtgewicht en efficiëntie."
|
826
838
|
},
|
827
839
|
"google/gemma-2-2b-it": {
|
828
840
|
"description": "Google's lichtgewicht instructieafstemmingsmodel"
|
829
841
|
},
|
842
|
+
"google/gemma-2-9b": {
|
843
|
+
"description": "Gemma 2 is een efficiënt model van Google, dat een breed scala aan toepassingen dekt, van kleine toepassingen tot complexe gegevensverwerking."
|
844
|
+
},
|
830
845
|
"google/gemma-2-9b-it": {
|
831
846
|
"description": "Gemma 2 is een lichtgewicht open-source tekstmodelserie van Google."
|
832
847
|
},
|
@@ -998,6 +1013,9 @@
|
|
998
1013
|
"internlm3-latest": {
|
999
1014
|
"description": "Onze nieuwste modelreeks heeft uitstekende inferentieprestaties en leidt de open-source modellen in dezelfde klasse. Standaard gericht op ons recentste InternLM3 model."
|
1000
1015
|
},
|
1016
|
+
"jina-deepsearch-v1": {
|
1017
|
+
"description": "Diepe zoekopdrachten combineren webzoekopdrachten, lezen en redeneren voor een uitgebreide verkenning. Je kunt het beschouwen als een agent die jouw onderzoeksopdracht aanneemt - het zal een uitgebreide zoektocht uitvoeren en meerdere iteraties doorlopen voordat het een antwoord geeft. Dit proces omvat voortdurende onderzoek, redeneren en het oplossen van problemen vanuit verschillende invalshoeken. Dit is fundamenteel anders dan het rechtstreeks genereren van antwoorden uit voorgetrainde gegevens door standaard grote modellen en het vertrouwen op eenmalige oppervlakkige zoekopdrachten van traditionele RAG-systemen."
|
1018
|
+
},
|
1001
1019
|
"learnlm-1.5-pro-experimental": {
|
1002
1020
|
"description": "LearnLM is een experimenteel, taak-specifiek taalmodel dat is getraind volgens de principes van de leerwetenschap, en kan systeeminstructies volgen in onderwijs- en leeromgevingen, en fungeert als een expertmentor."
|
1003
1021
|
},
|
@@ -1139,6 +1157,9 @@
|
|
1139
1157
|
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
|
1140
1158
|
"description": "405B Llama 3.1 Turbo model biedt enorme contextondersteuning voor big data verwerking en presteert uitstekend in grootschalige AI-toepassingen."
|
1141
1159
|
},
|
1160
|
+
"meta-llama/Meta-Llama-3.1-70B": {
|
1161
|
+
"description": "Llama 3.1 is een toonaangevend model van Meta, ondersteunt tot 405B parameters en kan worden toegepast in complexe gesprekken, meertalige vertalingen en data-analyse."
|
1162
|
+
},
|
1142
1163
|
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
|
1143
1164
|
"description": "LLaMA 3.1 70B biedt efficiënte gespreksondersteuning in meerdere talen."
|
1144
1165
|
},
|
@@ -1196,6 +1217,30 @@
|
|
1196
1217
|
"meta.llama3-8b-instruct-v1:0": {
|
1197
1218
|
"description": "Meta Llama 3 is een open groot taalmodel (LLM) gericht op ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoordelijk opschalen van hun generatieve AI-ideeën. Als onderdeel van het basis systeem voor wereldwijde gemeenschapsinnovatie is het zeer geschikt voor apparaten met beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden."
|
1198
1219
|
},
|
1220
|
+
"meta/llama-3.1-405b-instruct": {
|
1221
|
+
"description": "Geavanceerd LLM, ondersteunt synthetische gegevensgeneratie, kennisdistillatie en redeneren, geschikt voor chatbots, programmeren en specifieke domeintaken."
|
1222
|
+
},
|
1223
|
+
"meta/llama-3.1-70b-instruct": {
|
1224
|
+
"description": "In staat om complexe gesprekken te ondersteunen, met uitstekende contextbegrip, redeneringsvaardigheden en tekstgeneratiecapaciteiten."
|
1225
|
+
},
|
1226
|
+
"meta/llama-3.1-8b-instruct": {
|
1227
|
+
"description": "Geavanceerd, state-of-the-art model met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
|
1228
|
+
},
|
1229
|
+
"meta/llama-3.2-11b-vision-instruct": {
|
1230
|
+
"description": "State-of-the-art visueel-taalmodel, gespecialiseerd in hoogwaardige redeneringen vanuit afbeeldingen."
|
1231
|
+
},
|
1232
|
+
"meta/llama-3.2-1b-instruct": {
|
1233
|
+
"description": "Geavanceerd, state-of-the-art klein taalmodel met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
|
1234
|
+
},
|
1235
|
+
"meta/llama-3.2-3b-instruct": {
|
1236
|
+
"description": "Geavanceerd, state-of-the-art klein taalmodel met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
|
1237
|
+
},
|
1238
|
+
"meta/llama-3.2-90b-vision-instruct": {
|
1239
|
+
"description": "State-of-the-art visueel-taalmodel, gespecialiseerd in hoogwaardige redeneringen vanuit afbeeldingen."
|
1240
|
+
},
|
1241
|
+
"meta/llama-3.3-70b-instruct": {
|
1242
|
+
"description": "Geavanceerd LLM, gespecialiseerd in redeneren, wiskunde, algemene kennis en functieaanroepen."
|
1243
|
+
},
|
1199
1244
|
"microsoft/WizardLM-2-8x22B": {
|
1200
1245
|
"description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe gesprekken, meertaligheid, redenering en intelligente assistenttoepassingen."
|
1201
1246
|
},
|
@@ -1292,6 +1337,12 @@
|
|
1292
1337
|
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
|
1293
1338
|
"description": "Llama 3.1 Nemotron 70B is een op maat gemaakt groot taalmodel van NVIDIA, ontworpen om de hulp van LLM-gegenereerde reacties op gebruikersvragen te verbeteren. Dit model presteert uitstekend in benchmarktests zoals Arena Hard, AlpacaEval 2 LC en GPT-4-Turbo MT-Bench, en staat per 1 oktober 2024 op de eerste plaats in alle drie de automatische afstemmingsbenchmarktests. Het model is getraind met RLHF (met name REINFORCE), Llama-3.1-Nemotron-70B-Reward en HelpSteer2-Preference prompts op basis van het Llama-3.1-70B-Instruct model."
|
1294
1339
|
},
|
1340
|
+
"nvidia/llama-3.1-nemotron-51b-instruct": {
|
1341
|
+
"description": "Uniek taalmodel dat ongeëvenaarde nauwkeurigheid en efficiëntie biedt."
|
1342
|
+
},
|
1343
|
+
"nvidia/llama-3.1-nemotron-70b-instruct": {
|
1344
|
+
"description": "Llama-3.1-Nemotron-70B-Instruct is een op maat gemaakt groot taalmodel van NVIDIA, ontworpen om de nuttigheid van de door LLM gegenereerde reacties te verbeteren."
|
1345
|
+
},
|
1295
1346
|
"o1": {
|
1296
1347
|
"description": "Gefocust op geavanceerd redeneren en het oplossen van complexe problemen, inclusief wiskunde en wetenschappelijke taken. Zeer geschikt voor toepassingen die diepgaand begrip van context en agentwerkstromen vereisen."
|
1297
1348
|
},
|
@@ -1406,6 +1457,15 @@
|
|
1406
1457
|
"qwen/qwen-2-7b-instruct:free": {
|
1407
1458
|
"description": "Qwen2 is een gloednieuwe serie grote taalmodellen met sterkere begrip- en generatiecapaciteiten."
|
1408
1459
|
},
|
1460
|
+
"qwen/qwen2.5-7b-instruct": {
|
1461
|
+
"description": "LLM gericht op zowel Chinees als Engels, gericht op taal, programmeren, wiskunde, redeneren en meer."
|
1462
|
+
},
|
1463
|
+
"qwen/qwen2.5-coder-32b-instruct": {
|
1464
|
+
"description": "Geavanceerd LLM, ondersteunt codegeneratie, redeneren en reparatie, dekt gangbare programmeertalen."
|
1465
|
+
},
|
1466
|
+
"qwen/qwen2.5-coder-7b-instruct": {
|
1467
|
+
"description": "Krachtig middelgroot codeermodel, ondersteunt 32K contextlengte, gespecialiseerd in meertalige programmering."
|
1468
|
+
},
|
1409
1469
|
"qwen2": {
|
1410
1470
|
"description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties."
|
1411
1471
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"azure": {
|
12
12
|
"description": "Azure biedt een scala aan geavanceerde AI-modellen, waaronder GPT-3.5 en de nieuwste GPT-4-serie, die verschillende datatypes en complexe taken ondersteunen, met een focus op veilige, betrouwbare en duurzame AI-oplossingen."
|
13
13
|
},
|
14
|
+
"azureai": {
|
15
|
+
"description": "Azure biedt een verscheidenheid aan geavanceerde AI-modellen, waaronder GPT-3.5 en de nieuwste GPT-4-serie, die verschillende datatypes en complexe taken ondersteunt, met een focus op veilige, betrouwbare en duurzame AI-oplossingen."
|
16
|
+
},
|
14
17
|
"baichuan": {
|
15
18
|
"description": "Baichuan Intelligent is een bedrijf dat zich richt op de ontwikkeling van grote modellen voor kunstmatige intelligentie, wiens modellen uitblinken in Chinese taken zoals kennisencyclopedieën, lange tekstverwerking en generatieve creatie, en de mainstream modellen uit het buitenland overtreffen. Baichuan Intelligent heeft ook toonaangevende multimodale capaciteiten en presteert uitstekend in verschillende autoritatieve evaluaties. Hun modellen omvatten Baichuan 4, Baichuan 3 Turbo en Baichuan 3 Turbo 128k, die zijn geoptimaliseerd voor verschillende toepassingsscenario's en kosteneffectieve oplossingen bieden."
|
16
19
|
},
|
@@ -53,6 +56,9 @@
|
|
53
56
|
"internlm": {
|
54
57
|
"description": "Een open-source organisatie die zich richt op onderzoek en ontwikkeling van tools voor grote modellen. Biedt een efficiënt en gebruiksvriendelijk open-source platform voor alle AI-ontwikkelaars, zodat de meest geavanceerde modellen en algoritmische technologieën binnen handbereik zijn."
|
55
58
|
},
|
59
|
+
"jina": {
|
60
|
+
"description": "Jina AI, opgericht in 2020, is een toonaangevend zoek-AI-bedrijf. Ons zoekplatform bevat vectormodellen, herschikkers en kleine taalmodellen, die bedrijven helpen betrouwbare en hoogwaardige generatieve AI- en multimodale zoektoepassingen te bouwen."
|
61
|
+
},
|
56
62
|
"lmstudio": {
|
57
63
|
"description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM's op uw computer."
|
58
64
|
},
|
@@ -68,6 +74,9 @@
|
|
68
74
|
"novita": {
|
69
75
|
"description": "Novita AI is een platform dat API-diensten biedt voor verschillende grote taalmodellen en AI-beeldgeneratie, flexibel, betrouwbaar en kosteneffectief. Het ondersteunt de nieuwste open-source modellen zoals Llama3 en Mistral, en biedt een uitgebreide, gebruiksvriendelijke en automatisch schaalbare API-oplossing voor de ontwikkeling van generatieve AI-toepassingen, geschikt voor de snelle groei van AI-startups."
|
70
76
|
},
|
77
|
+
"nvidia": {
|
78
|
+
"description": "NVIDIA NIM™ biedt containers voor zelf-gehoste GPU-versnelde inferentie-microservices, die de implementatie van voorgetrainde en aangepaste AI-modellen in de cloud, datacenters, RTX™ AI-pc's en werkstations ondersteunen."
|
79
|
+
},
|
71
80
|
"ollama": {
|
72
81
|
"description": "De modellen van Ollama bestrijken een breed scala aan gebieden, waaronder codegeneratie, wiskundige berekeningen, meertalige verwerking en interactieve dialogen, en voldoen aan de diverse behoeften van bedrijfs- en lokale implementaties."
|
73
82
|
},
|
@@ -107,6 +116,12 @@
|
|
107
116
|
"upstage": {
|
108
117
|
"description": "Upstage richt zich op het ontwikkelen van AI-modellen voor verschillende zakelijke behoeften, waaronder Solar LLM en document AI, met als doel het realiseren van kunstmatige algemene intelligentie (AGI). Het creëert eenvoudige dialoogagenten via de Chat API en ondersteunt functionele aanroepen, vertalingen, insluitingen en specifieke domeintoepassingen."
|
109
118
|
},
|
119
|
+
"vllm": {
|
120
|
+
"description": "vLLM is een snelle en gebruiksvriendelijke bibliotheek voor LLM-inferentie en -diensten."
|
121
|
+
},
|
122
|
+
"volcengine": {
|
123
|
+
"description": "Het ontwikkelingsplatform voor de grote modellenservice van ByteDance, dat een breed scala aan functies biedt, veilig is en concurrerende prijzen heeft voor modelaanroepdiensten. Het biedt ook end-to-end functionaliteiten zoals modelgegevens, fine-tuning, inferentie en evaluatie, om de ontwikkeling van uw AI-toepassingen volledig te ondersteunen."
|
124
|
+
},
|
110
125
|
"wenxin": {
|
111
126
|
"description": "Een enterprise-grade, alles-in-één platform voor de ontwikkeling en service van grote modellen en AI-native applicaties, dat de meest uitgebreide en gebruiksvriendelijke toolchain biedt voor de ontwikkeling van generatieve kunstmatige intelligentiemodellen en applicaties."
|
112
127
|
},
|
@@ -19,6 +19,24 @@
|
|
19
19
|
"title": "Klucz API"
|
20
20
|
}
|
21
21
|
},
|
22
|
+
"azureai": {
|
23
|
+
"azureApiVersion": {
|
24
|
+
"desc": "Wersja API Azure, w formacie YYYY-MM-DD, sprawdź [najnowszą wersję](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
|
25
|
+
"fetch": "Pobierz listę",
|
26
|
+
"title": "Wersja API Azure"
|
27
|
+
},
|
28
|
+
"endpoint": {
|
29
|
+
"desc": "Znajdź punkt końcowy wnioskowania modelu Azure AI w przeglądzie projektu Azure AI",
|
30
|
+
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
|
31
|
+
"title": "Punkt końcowy Azure AI"
|
32
|
+
},
|
33
|
+
"title": "Azure OpenAI",
|
34
|
+
"token": {
|
35
|
+
"desc": "Znajdź klucz API w przeglądzie projektu Azure AI",
|
36
|
+
"placeholder": "Klucz Azure",
|
37
|
+
"title": "Klucz"
|
38
|
+
}
|
39
|
+
},
|
22
40
|
"bedrock": {
|
23
41
|
"accessKeyId": {
|
24
42
|
"desc": "Wprowadź AWS Access Key Id",
|
@@ -97,6 +115,7 @@
|
|
97
115
|
"title": "Adres proxy"
|
98
116
|
},
|
99
117
|
"sdkType": {
|
118
|
+
"placeholder": "openai/anthropic/azureai/ollama/...",
|
100
119
|
"required": "Proszę wybrać typ SDK",
|
101
120
|
"title": "Format żądania"
|
102
121
|
},
|
@@ -210,6 +229,11 @@
|
|
210
229
|
"placeholder": "Proszę wpisać nazwę wdrożenia modelu w Azure",
|
211
230
|
"title": "Nazwa wdrożenia modelu"
|
212
231
|
},
|
232
|
+
"deployName": {
|
233
|
+
"extra": "To pole będzie używane jako identyfikator modelu podczas wysyłania żądania",
|
234
|
+
"placeholder": "Wprowadź rzeczywistą nazwę lub identyfikator wdrożenia modelu",
|
235
|
+
"title": "Nazwa wdrożenia modelu"
|
236
|
+
},
|
213
237
|
"displayName": {
|
214
238
|
"placeholder": "Proszę wpisać nazwę wyświetlaną modelu, np. ChatGPT, GPT-4 itp.",
|
215
239
|
"title": "Nazwa wyświetlana modelu"
|
@@ -578,6 +578,9 @@
|
|
578
578
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
579
579
|
"description": "DeepSeek 67B to zaawansowany model przeszkolony do złożonych dialogów."
|
580
580
|
},
|
581
|
+
"deepseek-ai/deepseek-r1": {
|
582
|
+
"description": "Najnowocześniejszy, wydajny LLM, specjalizujący się w wnioskowaniu, matematyce i programowaniu."
|
583
|
+
},
|
581
584
|
"deepseek-ai/deepseek-vl2": {
|
582
585
|
"description": "DeepSeek-VL2 to model wizualno-językowy oparty na DeepSeekMoE-27B, wykorzystujący architekturę MoE z rzadką aktywacją, osiągający doskonałe wyniki przy aktywacji jedynie 4,5 miliarda parametrów. Model ten wyróżnia się w wielu zadaniach, takich jak wizualne pytania i odpowiedzi, optyczne rozpoznawanie znaków, zrozumienie dokumentów/tabel/wykresów oraz lokalizacja wizualna."
|
583
586
|
},
|
@@ -629,6 +632,12 @@
|
|
629
632
|
"deepseek/deepseek-chat": {
|
630
633
|
"description": "Nowy, otwarty model łączący zdolności ogólne i kodowe, który nie tylko zachowuje ogólne zdolności dialogowe oryginalnego modelu Chat, ale także potężne zdolności przetwarzania kodu modelu Coder, lepiej dostosowując się do ludzkich preferencji. Ponadto, DeepSeek-V2.5 osiągnął znaczne poprawy w zadaniach pisarskich, przestrzeganiu instrukcji i wielu innych obszarach."
|
631
634
|
},
|
635
|
+
"deepseek/deepseek-r1": {
|
636
|
+
"description": "DeepSeek-R1 znacznie poprawił zdolności wnioskowania modelu przy minimalnej ilości oznaczonych danych. Przed wygenerowaniem ostatecznej odpowiedzi, model najpierw wygeneruje fragment myślenia, aby zwiększyć dokładność końcowej odpowiedzi."
|
637
|
+
},
|
638
|
+
"deepseek/deepseek-r1:free": {
|
639
|
+
"description": "DeepSeek-R1 znacznie poprawił zdolności wnioskowania modelu przy minimalnej ilości oznaczonych danych. Przed wygenerowaniem ostatecznej odpowiedzi, model najpierw wygeneruje fragment myślenia, aby zwiększyć dokładność końcowej odpowiedzi."
|
640
|
+
},
|
632
641
|
"emohaa": {
|
633
642
|
"description": "Emohaa to model psychologiczny, posiadający profesjonalne umiejętności doradcze, pomagający użytkownikom zrozumieć problemy emocjonalne."
|
634
643
|
},
|
@@ -821,12 +830,18 @@
|
|
821
830
|
"google/gemini-pro-1.5": {
|
822
831
|
"description": "Gemini 1.5 Pro łączy najnowsze technologie optymalizacji, oferując bardziej efektywne przetwarzanie danych multimodalnych."
|
823
832
|
},
|
833
|
+
"google/gemma-2-27b": {
|
834
|
+
"description": "Gemma 2 to wydajny model wydany przez Google, obejmujący różnorodne scenariusze zastosowań, od małych aplikacji po złożone przetwarzanie danych."
|
835
|
+
},
|
824
836
|
"google/gemma-2-27b-it": {
|
825
837
|
"description": "Gemma 2 kontynuuje ideę lekkiego i wydajnego projektowania."
|
826
838
|
},
|
827
839
|
"google/gemma-2-2b-it": {
|
828
840
|
"description": "Lekki model dostosowywania instrukcji od Google."
|
829
841
|
},
|
842
|
+
"google/gemma-2-9b": {
|
843
|
+
"description": "Gemma 2 to wydajny model wydany przez Google, obejmujący różnorodne scenariusze zastosowań, od małych aplikacji po złożone przetwarzanie danych."
|
844
|
+
},
|
830
845
|
"google/gemma-2-9b-it": {
|
831
846
|
"description": "Gemma 2 to lekka seria modeli tekstowych open source od Google."
|
832
847
|
},
|
@@ -998,6 +1013,9 @@
|
|
998
1013
|
"internlm3-latest": {
|
999
1014
|
"description": "Nasza najnowsza seria modeli, charakteryzująca się doskonałą wydajnością wnioskowania, prowadzi wśród modeli open-source o podobnej skali. Domyślnie wskazuje na naszą najnowszą wersję modelu InternLM3."
|
1000
1015
|
},
|
1016
|
+
"jina-deepsearch-v1": {
|
1017
|
+
"description": "Głębokie wyszukiwanie łączy wyszukiwanie w sieci, czytanie i wnioskowanie, umożliwiając kompleksowe badania. Możesz to traktować jako agenta, który przyjmuje Twoje zadania badawcze - przeprowadza szerokie poszukiwania i wielokrotne iteracje, zanim poda odpowiedź. Proces ten obejmuje ciągłe badania, wnioskowanie i rozwiązywanie problemów z różnych perspektyw. To zasadniczo różni się od standardowych dużych modeli, które generują odpowiedzi bezpośrednio z wstępnie wytrenowanych danych oraz od tradycyjnych systemów RAG, które polegają na jednorazowym powierzchownym wyszukiwaniu."
|
1018
|
+
},
|
1001
1019
|
"learnlm-1.5-pro-experimental": {
|
1002
1020
|
"description": "LearnLM to eksperymentalny model językowy, specyficzny dla zadań, przeszkolony zgodnie z zasadami nauki o uczeniu się, który może przestrzegać systemowych instrukcji w scenariuszach nauczania i uczenia się, pełniąc rolę eksperta mentora."
|
1003
1021
|
},
|
@@ -1139,6 +1157,9 @@
|
|
1139
1157
|
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
|
1140
1158
|
"description": "Model Llama 3.1 Turbo 405B oferuje ogromną pojemność kontekstową dla przetwarzania dużych danych, wyróżniając się w zastosowaniach sztucznej inteligencji o dużej skali."
|
1141
1159
|
},
|
1160
|
+
"meta-llama/Meta-Llama-3.1-70B": {
|
1161
|
+
"description": "Llama 3.1 to wiodący model wydany przez Meta, wspierający do 405B parametrów, mogący być stosowany w złożonych rozmowach, tłumaczeniach wielojęzycznych i analizie danych."
|
1162
|
+
},
|
1142
1163
|
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
|
1143
1164
|
"description": "LLaMA 3.1 70B oferuje efektywne wsparcie dialogowe w wielu językach."
|
1144
1165
|
},
|
@@ -1196,6 +1217,30 @@
|
|
1196
1217
|
"meta.llama3-8b-instruct-v1:0": {
|
1197
1218
|
"description": "Meta Llama 3 to otwarty duży model językowy (LLM) skierowany do deweloperów, badaczy i przedsiębiorstw, mający na celu pomoc w budowaniu, eksperymentowaniu i odpowiedzialnym rozwijaniu ich pomysłów na generatywną sztuczną inteligencję. Jako część podstawowego systemu innowacji globalnej społeczności, jest idealny dla urządzeń o ograniczonej mocy obliczeniowej i zasobach, a także dla szybszego czasu szkolenia."
|
1198
1219
|
},
|
1220
|
+
"meta/llama-3.1-405b-instruct": {
|
1221
|
+
"description": "Zaawansowany LLM, wspierający generowanie danych syntetycznych, destylację wiedzy i wnioskowanie, odpowiedni do chatbotów, programowania i zadań w określonych dziedzinach."
|
1222
|
+
},
|
1223
|
+
"meta/llama-3.1-70b-instruct": {
|
1224
|
+
"description": "Umożliwia złożone rozmowy, posiadając doskonałe zrozumienie kontekstu, zdolności wnioskowania i generowania tekstu."
|
1225
|
+
},
|
1226
|
+
"meta/llama-3.1-8b-instruct": {
|
1227
|
+
"description": "Zaawansowany, nowoczesny model, posiadający zrozumienie języka, doskonałe zdolności wnioskowania i generowania tekstu."
|
1228
|
+
},
|
1229
|
+
"meta/llama-3.2-11b-vision-instruct": {
|
1230
|
+
"description": "Nowoczesny model wizualno-językowy, specjalizujący się w wysokiej jakości wnioskowaniu z obrazów."
|
1231
|
+
},
|
1232
|
+
"meta/llama-3.2-1b-instruct": {
|
1233
|
+
"description": "Zaawansowany, nowoczesny mały model językowy, posiadający zrozumienie języka, doskonałe zdolności wnioskowania i generowania tekstu."
|
1234
|
+
},
|
1235
|
+
"meta/llama-3.2-3b-instruct": {
|
1236
|
+
"description": "Zaawansowany, nowoczesny mały model językowy, posiadający zrozumienie języka, doskonałe zdolności wnioskowania i generowania tekstu."
|
1237
|
+
},
|
1238
|
+
"meta/llama-3.2-90b-vision-instruct": {
|
1239
|
+
"description": "Nowoczesny model wizualno-językowy, specjalizujący się w wysokiej jakości wnioskowaniu z obrazów."
|
1240
|
+
},
|
1241
|
+
"meta/llama-3.3-70b-instruct": {
|
1242
|
+
"description": "Zaawansowany LLM, specjalizujący się w wnioskowaniu, matematyce, zdrowym rozsądku i wywoływaniu funkcji."
|
1243
|
+
},
|
1199
1244
|
"microsoft/WizardLM-2-8x22B": {
|
1200
1245
|
"description": "WizardLM 2 to model językowy oferowany przez Microsoft AI, który wyróżnia się w złożonych rozmowach, wielojęzyczności, wnioskowaniu i jako inteligentny asystent."
|
1201
1246
|
},
|
@@ -1292,6 +1337,12 @@
|
|
1292
1337
|
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
|
1293
1338
|
"description": "Llama 3.1 Nemotron 70B to dostosowany przez NVIDIA duży model językowy, mający na celu zwiększenie użyteczności odpowiedzi generowanych przez LLM w odpowiedzi na zapytania użytkowników. Model ten osiągnął doskonałe wyniki w testach benchmarkowych, takich jak Arena Hard, AlpacaEval 2 LC i GPT-4-Turbo MT-Bench, zajmując pierwsze miejsce we wszystkich trzech automatycznych testach do 1 października 2024 roku. Model został przeszkolony przy użyciu RLHF (szczególnie REINFORCE), Llama-3.1-Nemotron-70B-Reward i HelpSteer2-Preference na bazie modelu Llama-3.1-70B-Instruct."
|
1294
1339
|
},
|
1340
|
+
"nvidia/llama-3.1-nemotron-51b-instruct": {
|
1341
|
+
"description": "Unikalny model językowy, oferujący niezrównaną dokładność i wydajność."
|
1342
|
+
},
|
1343
|
+
"nvidia/llama-3.1-nemotron-70b-instruct": {
|
1344
|
+
"description": "Llama-3.1-Nemotron-70B-Instruct to dostosowany przez NVIDIA duży model językowy, zaprojektowany w celu zwiększenia użyteczności odpowiedzi generowanych przez LLM."
|
1345
|
+
},
|
1295
1346
|
"o1": {
|
1296
1347
|
"description": "Skupia się na zaawansowanym wnioskowaniu i rozwiązywaniu złożonych problemów, w tym zadań matematycznych i naukowych. Doskonale nadaje się do aplikacji wymagających głębokiego zrozumienia kontekstu i zarządzania procesami."
|
1297
1348
|
},
|
@@ -1406,6 +1457,15 @@
|
|
1406
1457
|
"qwen/qwen-2-7b-instruct:free": {
|
1407
1458
|
"description": "Qwen2 to nowa seria dużych modeli językowych, charakteryzująca się silniejszymi zdolnościami rozumienia i generowania."
|
1408
1459
|
},
|
1460
|
+
"qwen/qwen2.5-7b-instruct": {
|
1461
|
+
"description": "LLM skierowany na język chiński i angielski, skoncentrowany na języku, programowaniu, matematyce, wnioskowaniu i innych dziedzinach."
|
1462
|
+
},
|
1463
|
+
"qwen/qwen2.5-coder-32b-instruct": {
|
1464
|
+
"description": "Zaawansowany LLM, wspierający generowanie kodu, wnioskowanie i naprawę, obejmujący główne języki programowania."
|
1465
|
+
},
|
1466
|
+
"qwen/qwen2.5-coder-7b-instruct": {
|
1467
|
+
"description": "Potężny średniej wielkości model kodu, wspierający długość kontekstu 32K, specjalizujący się w programowaniu wielojęzycznym."
|
1468
|
+
},
|
1409
1469
|
"qwen2": {
|
1410
1470
|
"description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności."
|
1411
1471
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"azure": {
|
12
12
|
"description": "Azure oferuje różnorodne zaawansowane modele AI, w tym GPT-3.5 i najnowszą serię GPT-4, wspierające różne typy danych i złożone zadania, koncentrując się na bezpiecznych, niezawodnych i zrównoważonych rozwiązaniach AI."
|
13
13
|
},
|
14
|
+
"azureai": {
|
15
|
+
"description": "Azure oferuje wiele zaawansowanych modeli AI, w tym GPT-3.5 i najnowszą serię GPT-4, wspierając różne typy danych i złożone zadania, dążąc do bezpiecznych, niezawodnych i zrównoważonych rozwiązań AI."
|
16
|
+
},
|
14
17
|
"baichuan": {
|
15
18
|
"description": "Baichuan Intelligent to firma skoncentrowana na badaniach nad dużymi modelami sztucznej inteligencji, której modele osiągają doskonałe wyniki w krajowych zadaniach związanych z encyklopedią wiedzy, przetwarzaniem długich tekstów i generowaniem treści w języku chińskim, przewyższając zagraniczne modele mainstreamowe. Baichuan Intelligent dysponuje również wiodącymi w branży zdolnościami multimodalnymi, osiągając doskonałe wyniki w wielu autorytatywnych ocenach. Jej modele obejmują Baichuan 4, Baichuan 3 Turbo i Baichuan 3 Turbo 128k, zoptymalizowane pod kątem różnych scenariuszy zastosowań, oferując opłacalne rozwiązania."
|
16
19
|
},
|
@@ -53,6 +56,9 @@
|
|
53
56
|
"internlm": {
|
54
57
|
"description": "Organizacja open source poświęcona badaniom i rozwojowi narzędzi dla dużych modeli. Oferuje wszystkim deweloperom AI wydajną i łatwą w użyciu platformę open source, umożliwiającą dostęp do najnowocześniejszych technologii modeli i algorytmów."
|
55
58
|
},
|
59
|
+
"jina": {
|
60
|
+
"description": "Jina AI została założona w 2020 roku i jest wiodącą firmą zajmującą się AI w zakresie wyszukiwania. Nasza platforma bazowa do wyszukiwania zawiera modele wektorowe, przetasowujące i małe modele językowe, które pomagają firmom budować niezawodne i wysokiej jakości aplikacje wyszukiwania generatywnego i multimodalnego."
|
61
|
+
},
|
56
62
|
"lmstudio": {
|
57
63
|
"description": "LM Studio to aplikacja desktopowa do rozwijania i eksperymentowania z LLM-ami na Twoim komputerze."
|
58
64
|
},
|
@@ -68,6 +74,9 @@
|
|
68
74
|
"novita": {
|
69
75
|
"description": "Novita AI to platforma oferująca API do różnych dużych modeli językowych i generacji obrazów AI, elastyczna, niezawodna i opłacalna. Wspiera najnowsze modele open-source, takie jak Llama3, Mistral, i oferuje kompleksowe, przyjazne dla użytkownika oraz automatycznie skalowalne rozwiązania API dla rozwoju aplikacji generatywnej AI, odpowiednie dla szybkiego rozwoju startupów AI."
|
70
76
|
},
|
77
|
+
"nvidia": {
|
78
|
+
"description": "NVIDIA NIM™ oferuje kontenery do samodzielnego hostowania przyspieszonych przez GPU mikroserwisów wnioskowania, wspierając wdrażanie w chmurze, centrach danych, komputerach osobistych RTX™ AI i stacjach roboczych wstępnie wytrenowanych i dostosowanych modeli AI."
|
79
|
+
},
|
71
80
|
"ollama": {
|
72
81
|
"description": "Modele oferowane przez Ollama obejmują szeroki zakres zastosowań, w tym generowanie kodu, obliczenia matematyczne, przetwarzanie wielojęzyczne i interakcje konwersacyjne, wspierając różnorodne potrzeby wdrożeń na poziomie przedsiębiorstw i lokalnych."
|
73
82
|
},
|
@@ -107,6 +116,12 @@
|
|
107
116
|
"upstage": {
|
108
117
|
"description": "Upstage koncentruje się na opracowywaniu modeli AI dla różnych potrzeb biznesowych, w tym Solar LLM i dokumentów AI, mając na celu osiągnięcie sztucznej ogólnej inteligencji (AGI). Umożliwia tworzenie prostych agentów konwersacyjnych za pomocą Chat API oraz wspiera wywołania funkcji, tłumaczenia, osadzenia i zastosowania w określonych dziedzinach."
|
109
118
|
},
|
119
|
+
"vllm": {
|
120
|
+
"description": "vLLM to szybka i łatwa w użyciu biblioteka do wnioskowania i usług LLM."
|
121
|
+
},
|
122
|
+
"volcengine": {
|
123
|
+
"description": "Platforma deweloperska usług dużych modeli wprowadzona przez ByteDance, oferująca bogate w funkcje, bezpieczne i konkurencyjne cenowo usługi wywoływania modeli. Oferuje również dane modelowe, dostosowywanie, wnioskowanie, ocenę i inne funkcje end-to-end, zapewniając kompleksowe wsparcie dla rozwoju aplikacji AI."
|
124
|
+
},
|
110
125
|
"wenxin": {
|
111
126
|
"description": "Platforma do rozwoju i usług aplikacji AI oraz dużych modeli w skali przedsiębiorstwa, oferująca najbardziej kompleksowy i łatwy w użyciu zestaw narzędzi do rozwoju modeli sztucznej inteligencji generatywnej oraz całego procesu tworzenia aplikacji."
|
112
127
|
},
|
@@ -19,6 +19,24 @@
|
|
19
19
|
"title": "API Key"
|
20
20
|
}
|
21
21
|
},
|
22
|
+
"azureai": {
|
23
|
+
"azureApiVersion": {
|
24
|
+
"desc": "Versão da API do Azure, seguindo o formato AAAA-MM-DD. Consulte a [versão mais recente](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
|
25
|
+
"fetch": "Obter lista",
|
26
|
+
"title": "Versão da API do Azure"
|
27
|
+
},
|
28
|
+
"endpoint": {
|
29
|
+
"desc": "Encontre o ponto de extremidade de inferência do modelo do Azure AI na visão geral do projeto Azure AI",
|
30
|
+
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
|
31
|
+
"title": "Ponto de extremidade do Azure AI"
|
32
|
+
},
|
33
|
+
"title": "Azure OpenAI",
|
34
|
+
"token": {
|
35
|
+
"desc": "Encontre a chave da API na visão geral do projeto Azure AI",
|
36
|
+
"placeholder": "Chave do Azure",
|
37
|
+
"title": "Chave"
|
38
|
+
}
|
39
|
+
},
|
22
40
|
"bedrock": {
|
23
41
|
"accessKeyId": {
|
24
42
|
"desc": "Insira o AWS Access Key Id",
|
@@ -97,6 +115,7 @@
|
|
97
115
|
"title": "Endereço do Proxy"
|
98
116
|
},
|
99
117
|
"sdkType": {
|
118
|
+
"placeholder": "openai/anthropic/azureai/ollama/...",
|
100
119
|
"required": "Por favor, selecione o tipo de SDK",
|
101
120
|
"title": "Formato da Requisição"
|
102
121
|
},
|
@@ -210,6 +229,11 @@
|
|
210
229
|
"placeholder": "Por favor, insira o nome de implantação do modelo na Azure",
|
211
230
|
"title": "Nome de Implantação do Modelo"
|
212
231
|
},
|
232
|
+
"deployName": {
|
233
|
+
"extra": "Este campo será usado como ID do modelo ao enviar a solicitação",
|
234
|
+
"placeholder": "Insira o nome ou ID real do modelo implantado",
|
235
|
+
"title": "Nome da implantação do modelo"
|
236
|
+
},
|
213
237
|
"displayName": {
|
214
238
|
"placeholder": "Por favor, insira o nome de exibição do modelo, por exemplo, ChatGPT, GPT-4, etc.",
|
215
239
|
"title": "Nome de Exibição do Modelo"
|
@@ -578,6 +578,9 @@
|
|
578
578
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
579
579
|
"description": "DeepSeek 67B é um modelo avançado treinado para diálogos de alta complexidade."
|
580
580
|
},
|
581
|
+
"deepseek-ai/deepseek-r1": {
|
582
|
+
"description": "LLM avançado e eficiente, especializado em raciocínio, matemática e programação."
|
583
|
+
},
|
581
584
|
"deepseek-ai/deepseek-vl2": {
|
582
585
|
"description": "DeepSeek-VL2 é um modelo de linguagem visual baseado no DeepSeekMoE-27B, desenvolvido como um especialista misto (MoE), utilizando uma arquitetura de MoE com ativação esparsa, alcançando desempenho excepcional com apenas 4,5 bilhões de parâmetros ativados. Este modelo se destaca em várias tarefas, incluindo perguntas visuais, reconhecimento óptico de caracteres, compreensão de documentos/tabelas/gráficos e localização visual."
|
583
586
|
},
|
@@ -629,6 +632,12 @@
|
|
629
632
|
"deepseek/deepseek-chat": {
|
630
633
|
"description": "Um novo modelo de código aberto que integra capacidades gerais e de codificação, não apenas preservando a capacidade de diálogo geral do modelo Chat original e a poderosa capacidade de processamento de código do modelo Coder, mas também alinhando-se melhor às preferências humanas. Além disso, o DeepSeek-V2.5 também alcançou melhorias significativas em várias áreas, como tarefas de escrita e seguimento de instruções."
|
631
634
|
},
|
635
|
+
"deepseek/deepseek-r1": {
|
636
|
+
"description": "DeepSeek-R1 melhorou significativamente a capacidade de raciocínio do modelo com muito poucos dados rotulados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta final."
|
637
|
+
},
|
638
|
+
"deepseek/deepseek-r1:free": {
|
639
|
+
"description": "DeepSeek-R1 melhorou significativamente a capacidade de raciocínio do modelo com muito poucos dados rotulados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta final."
|
640
|
+
},
|
632
641
|
"emohaa": {
|
633
642
|
"description": "O Emohaa é um modelo psicológico com capacidade de consultoria profissional, ajudando os usuários a entender questões emocionais."
|
634
643
|
},
|
@@ -821,12 +830,18 @@
|
|
821
830
|
"google/gemini-pro-1.5": {
|
822
831
|
"description": "Gemini 1.5 Pro combina as mais recentes tecnologias de otimização, proporcionando uma capacidade de processamento de dados multimodais mais eficiente."
|
823
832
|
},
|
833
|
+
"google/gemma-2-27b": {
|
834
|
+
"description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde pequenos aplicativos até processamento de dados complexos."
|
835
|
+
},
|
824
836
|
"google/gemma-2-27b-it": {
|
825
837
|
"description": "Gemma 2 continua a filosofia de design leve e eficiente."
|
826
838
|
},
|
827
839
|
"google/gemma-2-2b-it": {
|
828
840
|
"description": "Modelo leve de ajuste de instruções do Google."
|
829
841
|
},
|
842
|
+
"google/gemma-2-9b": {
|
843
|
+
"description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde pequenos aplicativos até processamento de dados complexos."
|
844
|
+
},
|
830
845
|
"google/gemma-2-9b-it": {
|
831
846
|
"description": "Gemma 2 é uma série de modelos de texto de código aberto leve da Google."
|
832
847
|
},
|
@@ -998,6 +1013,9 @@
|
|
998
1013
|
"internlm3-latest": {
|
999
1014
|
"description": "Nossa mais recente série de modelos, com desempenho de inferência excepcional, liderando entre modelos de código aberto de mesma escala. Aponta por padrão para nossa mais recente série de modelos InternLM3."
|
1000
1015
|
},
|
1016
|
+
"jina-deepsearch-v1": {
|
1017
|
+
"description": "A busca profunda combina pesquisa na web, leitura e raciocínio para realizar investigações abrangentes. Você pode vê-la como um agente que aceita suas tarefas de pesquisa - ela realizará uma busca extensa e passará por várias iterações antes de fornecer uma resposta. Esse processo envolve pesquisa contínua, raciocínio e resolução de problemas sob diferentes ângulos. Isso é fundamentalmente diferente de gerar respostas diretamente a partir de dados pré-treinados de grandes modelos padrão e de sistemas RAG tradicionais que dependem de buscas superficiais únicas."
|
1018
|
+
},
|
1001
1019
|
"learnlm-1.5-pro-experimental": {
|
1002
1020
|
"description": "LearnLM é um modelo de linguagem experimental e específico para tarefas, treinado para atender aos princípios da ciência da aprendizagem, podendo seguir instruções sistemáticas em cenários de ensino e aprendizagem, atuando como um mentor especialista, entre outros."
|
1003
1021
|
},
|
@@ -1139,6 +1157,9 @@
|
|
1139
1157
|
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
|
1140
1158
|
"description": "O modelo Llama 3.1 Turbo 405B oferece suporte a um contexto de capacidade extremamente grande para processamento de grandes volumes de dados, destacando-se em aplicações de inteligência artificial em larga escala."
|
1141
1159
|
},
|
1160
|
+
"meta-llama/Meta-Llama-3.1-70B": {
|
1161
|
+
"description": "Llama 3.1 é o modelo líder lançado pela Meta, suportando até 405B de parâmetros, aplicável em diálogos complexos, tradução multilíngue e análise de dados."
|
1162
|
+
},
|
1142
1163
|
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
|
1143
1164
|
"description": "LLaMA 3.1 70B oferece suporte a diálogos multilíngues de forma eficiente."
|
1144
1165
|
},
|
@@ -1196,6 +1217,30 @@
|
|
1196
1217
|
"meta.llama3-8b-instruct-v1:0": {
|
1197
1218
|
"description": "Meta Llama 3 é um modelo de linguagem de grande escala (LLM) aberto voltado para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e expandir suas ideias de IA geradora de forma responsável. Como parte de um sistema de base para inovação da comunidade global, é ideal para dispositivos de borda com capacidade de computação e recursos limitados, além de tempos de treinamento mais rápidos."
|
1198
1219
|
},
|
1220
|
+
"meta/llama-3.1-405b-instruct": {
|
1221
|
+
"description": "LLM avançado, suporta geração de dados sintéticos, destilação de conhecimento e raciocínio, adequado para chatbots, programação e tarefas de domínio específico."
|
1222
|
+
},
|
1223
|
+
"meta/llama-3.1-70b-instruct": {
|
1224
|
+
"description": "Capacita diálogos complexos, com excelente compreensão de contexto, capacidade de raciocínio e geração de texto."
|
1225
|
+
},
|
1226
|
+
"meta/llama-3.1-8b-instruct": {
|
1227
|
+
"description": "Modelo de ponta avançado, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
|
1228
|
+
},
|
1229
|
+
"meta/llama-3.2-11b-vision-instruct": {
|
1230
|
+
"description": "Modelo de visão-linguagem de ponta, especializado em raciocínio de alta qualidade a partir de imagens."
|
1231
|
+
},
|
1232
|
+
"meta/llama-3.2-1b-instruct": {
|
1233
|
+
"description": "Modelo de linguagem de ponta avançado e compacto, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
|
1234
|
+
},
|
1235
|
+
"meta/llama-3.2-3b-instruct": {
|
1236
|
+
"description": "Modelo de linguagem de ponta avançado e compacto, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
|
1237
|
+
},
|
1238
|
+
"meta/llama-3.2-90b-vision-instruct": {
|
1239
|
+
"description": "Modelo de visão-linguagem de ponta, especializado em raciocínio de alta qualidade a partir de imagens."
|
1240
|
+
},
|
1241
|
+
"meta/llama-3.3-70b-instruct": {
|
1242
|
+
"description": "Modelo LLM avançado, especializado em raciocínio, matemática, conhecimento geral e chamadas de função."
|
1243
|
+
},
|
1199
1244
|
"microsoft/WizardLM-2-8x22B": {
|
1200
1245
|
"description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, que se destaca em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes."
|
1201
1246
|
},
|
@@ -1292,6 +1337,12 @@
|
|
1292
1337
|
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
|
1293
1338
|
"description": "Llama 3.1 Nemotron 70B é um modelo de linguagem em larga escala personalizado pela NVIDIA, projetado para aumentar a utilidade das respostas geradas pelo LLM em relação às consultas dos usuários. Este modelo se destacou em benchmarks como Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, ocupando o primeiro lugar em todos os três benchmarks de alinhamento automático até 1º de outubro de 2024. O modelo foi treinado usando RLHF (especialmente REINFORCE), Llama-3.1-Nemotron-70B-Reward e HelpSteer2-Preference prompts, com base no modelo Llama-3.1-70B-Instruct."
|
1294
1339
|
},
|
1340
|
+
"nvidia/llama-3.1-nemotron-51b-instruct": {
|
1341
|
+
"description": "Modelo de linguagem único, oferecendo precisão e eficiência incomparáveis."
|
1342
|
+
},
|
1343
|
+
"nvidia/llama-3.1-nemotron-70b-instruct": {
|
1344
|
+
"description": "Llama-3.1-Nemotron-70B-Instruct é um modelo de linguagem de grande porte personalizado pela NVIDIA, projetado para melhorar a utilidade das respostas geradas pelo LLM."
|
1345
|
+
},
|
1295
1346
|
"o1": {
|
1296
1347
|
"description": "Focado em raciocínio avançado e resolução de problemas complexos, incluindo tarefas matemáticas e científicas. Muito adequado para aplicativos que exigem compreensão profunda do contexto e gerenciamento de fluxos de trabalho."
|
1297
1348
|
},
|
@@ -1406,6 +1457,15 @@
|
|
1406
1457
|
"qwen/qwen-2-7b-instruct:free": {
|
1407
1458
|
"description": "Qwen2 é uma nova série de grandes modelos de linguagem, com capacidades de compreensão e geração mais robustas."
|
1408
1459
|
},
|
1460
|
+
"qwen/qwen2.5-7b-instruct": {
|
1461
|
+
"description": "LLM voltado para chinês e inglês, focado em linguagem, programação, matemática, raciocínio e outras áreas."
|
1462
|
+
},
|
1463
|
+
"qwen/qwen2.5-coder-32b-instruct": {
|
1464
|
+
"description": "LLM avançado, suporta geração de código, raciocínio e correção, abrangendo linguagens de programação populares."
|
1465
|
+
},
|
1466
|
+
"qwen/qwen2.5-coder-7b-instruct": {
|
1467
|
+
"description": "Modelo de código de médio porte poderoso, suporta comprimento de contexto de 32K, especializado em programação multilíngue."
|
1468
|
+
},
|
1409
1469
|
"qwen2": {
|
1410
1470
|
"description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
|
1411
1471
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"azure": {
|
12
12
|
"description": "Azure oferece uma variedade de modelos avançados de IA, incluindo GPT-3.5 e a mais recente série GPT-4, suportando diversos tipos de dados e tarefas complexas, com foco em soluções de IA seguras, confiáveis e sustentáveis."
|
13
13
|
},
|
14
|
+
"azureai": {
|
15
|
+
"description": "A Azure oferece uma variedade de modelos de IA avançados, incluindo o GPT-3.5 e a mais recente série GPT-4, suportando diversos tipos de dados e tarefas complexas, comprometendo-se com soluções de IA seguras, confiáveis e sustentáveis."
|
16
|
+
},
|
14
17
|
"baichuan": {
|
15
18
|
"description": "Baichuan Intelligent é uma empresa focada no desenvolvimento de grandes modelos de inteligência artificial, cujos modelos se destacam em tarefas em chinês, como enciclopédias de conhecimento, processamento de textos longos e criação de conteúdo, superando modelos mainstream estrangeiros. A Baichuan Intelligent também possui capacidades multimodais líderes do setor, destacando-se em várias avaliações de autoridade. Seus modelos incluem Baichuan 4, Baichuan 3 Turbo e Baichuan 3 Turbo 128k, otimizados para diferentes cenários de aplicação, oferecendo soluções com alta relação custo-benefício."
|
16
19
|
},
|
@@ -53,6 +56,9 @@
|
|
53
56
|
"internlm": {
|
54
57
|
"description": "Uma organização de código aberto dedicada à pesquisa e desenvolvimento de ferramentas para grandes modelos. Oferece uma plataforma de código aberto eficiente e fácil de usar para todos os desenvolvedores de IA, tornando as tecnologias e algoritmos de ponta acessíveis."
|
55
58
|
},
|
59
|
+
"jina": {
|
60
|
+
"description": "A Jina AI foi fundada em 2020 e é uma empresa líder em IA de busca. Nossa plataforma de busca base contém modelos vetoriais, reordenadores e pequenos modelos de linguagem, ajudando empresas a construir aplicações de busca generativa e multimodal confiáveis e de alta qualidade."
|
61
|
+
},
|
56
62
|
"lmstudio": {
|
57
63
|
"description": "LM Studio é um aplicativo de desktop para desenvolver e experimentar LLMs em seu computador."
|
58
64
|
},
|
@@ -68,6 +74,9 @@
|
|
68
74
|
"novita": {
|
69
75
|
"description": "Novita AI é uma plataforma que oferece uma variedade de modelos de linguagem de grande escala e serviços de geração de imagens de IA, sendo flexível, confiável e econômica. Suporta os mais recentes modelos de código aberto, como Llama3 e Mistral, e fornece soluções de API abrangentes, amigáveis ao usuário e escaláveis para o desenvolvimento de aplicações de IA, adequadas para o rápido crescimento de startups de IA."
|
70
76
|
},
|
77
|
+
"nvidia": {
|
78
|
+
"description": "O NVIDIA NIM™ fornece contêineres para inferência de microserviços acelerados por GPU autogerenciados, suportando a implantação de modelos de IA pré-treinados e personalizados na nuvem, em data centers, em PCs RTX™ AI e estações de trabalho."
|
79
|
+
},
|
71
80
|
"ollama": {
|
72
81
|
"description": "Os modelos oferecidos pela Ollama abrangem amplamente áreas como geração de código, operações matemáticas, processamento multilíngue e interações de diálogo, atendendo a diversas necessidades de implantação em nível empresarial e local."
|
73
82
|
},
|
@@ -107,6 +116,12 @@
|
|
107
116
|
"upstage": {
|
108
117
|
"description": "Upstage se concentra no desenvolvimento de modelos de IA para diversas necessidades comerciais, incluindo Solar LLM e Document AI, visando alcançar uma inteligência geral artificial (AGI) que funcione. Crie agentes de diálogo simples por meio da API de Chat e suporte chamadas de função, tradução, incorporação e aplicações em domínios específicos."
|
109
118
|
},
|
119
|
+
"vllm": {
|
120
|
+
"description": "vLLM é uma biblioteca rápida e fácil de usar para inferência e serviços de LLM."
|
121
|
+
},
|
122
|
+
"volcengine": {
|
123
|
+
"description": "A plataforma de desenvolvimento de serviços de grandes modelos lançada pela ByteDance, que oferece serviços de chamada de modelos ricos em funcionalidades, seguros e com preços competitivos, além de fornecer dados de modelos, ajuste fino, inferência, avaliação e outras funcionalidades de ponta a ponta, garantindo de forma abrangente a implementação do seu desenvolvimento de aplicações de IA."
|
124
|
+
},
|
110
125
|
"wenxin": {
|
111
126
|
"description": "Plataforma de desenvolvimento e serviços de aplicativos nativos de IA e modelos de grande escala, voltada para empresas, que oferece a mais completa e fácil ferramenta de cadeia de ferramentas para o desenvolvimento de modelos de inteligência artificial generativa e aplicativos."
|
112
127
|
},
|