@lobehub/chat 1.20.8 → 1.21.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (97) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/locales/ar/error.json +1 -0
  3. package/locales/ar/modelProvider.json +20 -0
  4. package/locales/ar/models.json +73 -4
  5. package/locales/ar/providers.json +6 -0
  6. package/locales/bg-BG/error.json +1 -0
  7. package/locales/bg-BG/modelProvider.json +20 -0
  8. package/locales/bg-BG/models.json +73 -4
  9. package/locales/bg-BG/providers.json +6 -0
  10. package/locales/de-DE/error.json +1 -0
  11. package/locales/de-DE/modelProvider.json +20 -0
  12. package/locales/de-DE/models.json +73 -4
  13. package/locales/de-DE/providers.json +6 -0
  14. package/locales/en-US/error.json +1 -0
  15. package/locales/en-US/modelProvider.json +20 -0
  16. package/locales/en-US/models.json +73 -4
  17. package/locales/en-US/providers.json +6 -0
  18. package/locales/es-ES/error.json +1 -0
  19. package/locales/es-ES/modelProvider.json +20 -0
  20. package/locales/es-ES/models.json +73 -4
  21. package/locales/es-ES/providers.json +6 -0
  22. package/locales/fr-FR/error.json +1 -0
  23. package/locales/fr-FR/modelProvider.json +20 -0
  24. package/locales/fr-FR/models.json +73 -4
  25. package/locales/fr-FR/providers.json +6 -0
  26. package/locales/it-IT/error.json +1 -0
  27. package/locales/it-IT/modelProvider.json +20 -0
  28. package/locales/it-IT/models.json +73 -4
  29. package/locales/it-IT/providers.json +6 -0
  30. package/locales/ja-JP/error.json +1 -0
  31. package/locales/ja-JP/modelProvider.json +20 -0
  32. package/locales/ja-JP/models.json +73 -4
  33. package/locales/ja-JP/providers.json +6 -0
  34. package/locales/ko-KR/error.json +1 -0
  35. package/locales/ko-KR/modelProvider.json +20 -0
  36. package/locales/ko-KR/models.json +73 -4
  37. package/locales/ko-KR/providers.json +6 -0
  38. package/locales/nl-NL/error.json +1 -0
  39. package/locales/nl-NL/modelProvider.json +20 -0
  40. package/locales/nl-NL/models.json +73 -4
  41. package/locales/nl-NL/providers.json +6 -0
  42. package/locales/pl-PL/error.json +1 -0
  43. package/locales/pl-PL/modelProvider.json +20 -0
  44. package/locales/pl-PL/models.json +73 -4
  45. package/locales/pl-PL/providers.json +6 -0
  46. package/locales/pt-BR/error.json +1 -0
  47. package/locales/pt-BR/modelProvider.json +20 -0
  48. package/locales/pt-BR/models.json +73 -4
  49. package/locales/pt-BR/providers.json +6 -0
  50. package/locales/ru-RU/error.json +1 -0
  51. package/locales/ru-RU/modelProvider.json +20 -0
  52. package/locales/ru-RU/models.json +73 -4
  53. package/locales/ru-RU/providers.json +6 -0
  54. package/locales/tr-TR/error.json +1 -0
  55. package/locales/tr-TR/modelProvider.json +20 -0
  56. package/locales/tr-TR/models.json +73 -4
  57. package/locales/tr-TR/providers.json +6 -0
  58. package/locales/vi-VN/error.json +1 -0
  59. package/locales/vi-VN/modelProvider.json +20 -0
  60. package/locales/vi-VN/models.json +73 -4
  61. package/locales/vi-VN/providers.json +6 -0
  62. package/locales/zh-CN/error.json +1 -0
  63. package/locales/zh-CN/modelProvider.json +20 -0
  64. package/locales/zh-CN/models.json +76 -7
  65. package/locales/zh-CN/providers.json +6 -0
  66. package/locales/zh-TW/error.json +1 -0
  67. package/locales/zh-TW/modelProvider.json +20 -0
  68. package/locales/zh-TW/models.json +73 -4
  69. package/locales/zh-TW/providers.json +6 -0
  70. package/package.json +3 -2
  71. package/src/app/(main)/settings/llm/ProviderList/Wenxin/index.tsx +46 -0
  72. package/src/app/(main)/settings/llm/ProviderList/providers.tsx +4 -1
  73. package/src/app/api/chat/agentRuntime.test.ts +21 -0
  74. package/src/app/api/chat/wenxin/route.test.ts +27 -0
  75. package/src/app/api/chat/wenxin/route.ts +30 -0
  76. package/src/app/api/errorResponse.ts +4 -0
  77. package/src/config/llm.ts +8 -0
  78. package/src/config/modelProviders/index.ts +4 -0
  79. package/src/config/modelProviders/wenxin.ts +159 -0
  80. package/src/const/auth.ts +4 -0
  81. package/src/const/settings/llm.ts +5 -0
  82. package/src/features/Conversation/Error/APIKeyForm/Wenxin.tsx +49 -0
  83. package/src/features/Conversation/Error/APIKeyForm/index.tsx +3 -0
  84. package/src/features/Conversation/Error/index.tsx +1 -0
  85. package/src/libs/agent-runtime/AgentRuntime.test.ts +1 -0
  86. package/src/libs/agent-runtime/error.ts +1 -0
  87. package/src/libs/agent-runtime/types/type.ts +1 -0
  88. package/src/libs/agent-runtime/utils/streams/wenxin.test.ts +149 -0
  89. package/src/libs/agent-runtime/utils/streams/wenxin.ts +46 -0
  90. package/src/libs/agent-runtime/wenxin/index.ts +106 -0
  91. package/src/libs/agent-runtime/wenxin/type.ts +84 -0
  92. package/src/locales/default/error.ts +2 -0
  93. package/src/locales/default/modelProvider.ts +20 -0
  94. package/src/server/globalConfig/index.ts +4 -1
  95. package/src/services/_auth.ts +14 -0
  96. package/src/store/user/slices/modelList/selectors/keyVaults.ts +2 -0
  97. package/src/types/user/settings/keyVaults.ts +6 -0
@@ -32,6 +32,39 @@
32
32
  "Baichuan4": {
33
33
  "description": "Het model heeft de beste prestaties in het binnenland en overtreft buitenlandse mainstream modellen in kennisencyclopedieën, lange teksten en creatieve generaties. Het heeft ook toonaangevende multimodale capaciteiten en presteert uitstekend in verschillende autoritatieve evaluatiebenchmarks."
34
34
  },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "De door Baidu ontwikkelde vlaggenschip grote taalmodel, dat een enorme hoeveelheid Chinese en Engelse gegevens dekt, met krachtige algemene capaciteiten die voldoen aan de meeste eisen voor dialoogvragen, creatieve generatie en plug-in toepassingsscenario's; ondersteunt automatische integratie met de Baidu zoekplug-in, wat de actualiteit van vraag- en antwoordinformatie waarborgt."
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "De door Baidu ontwikkelde vlaggenschip grote taalmodel, dat een enorme hoeveelheid Chinese en Engelse gegevens dekt, met krachtige algemene capaciteiten die voldoen aan de meeste eisen voor dialoogvragen, creatieve generatie en plug-in toepassingsscenario's; ondersteunt automatische integratie met de Baidu zoekplug-in, wat de actualiteit van vraag- en antwoordinformatie waarborgt."
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "De door Baidu ontwikkelde vlaggenschip grote taalmodel, dat een enorme hoeveelheid Chinese en Engelse gegevens dekt, met krachtige algemene capaciteiten die voldoen aan de meeste eisen voor dialoogvragen, creatieve generatie en plug-in toepassingsscenario's; ondersteunt automatische integratie met de Baidu zoekplug-in, wat de actualiteit van vraag- en antwoordinformatie waarborgt."
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat in vergelijking met ERNIE 3.5 een algehele upgrade van de modelcapaciteiten heeft gerealiseerd, en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen."
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat in vergelijking met ERNIE 3.5 een algehele upgrade van de modelcapaciteiten heeft gerealiseerd, en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen."
49
+ },
50
+ "ERNIE-4.0-Turbo-8K": {
51
+ "description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat uitstekende algehele prestaties levert en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen. In vergelijking met ERNIE 4.0 presteert het beter."
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat uitstekende algehele prestaties levert en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen. In vergelijking met ERNIE 4.0 presteert het beter."
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "Het door Baidu ontwikkelde verticale taalmodel, geschikt voor toepassingen zoals game NPC's, klantenservice gesprekken en rollenspellen, met een duidelijker en consistenter karakterontwerp, sterkere instructievolgcapaciteiten en betere inferentieprestaties."
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "Het door Baidu ontwikkelde lichte taalmodel, dat zowel uitstekende modelprestaties als inferentieprestaties biedt, met betere resultaten dan ERNIE Lite, en geschikt is voor inferentie op AI-versnelling kaarten met lage rekencapaciteit."
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "Het door Baidu in 2024 gepresenteerde nieuwe hoge-prestatie taalmodel, met uitstekende algemene capaciteiten, geschikt als basis model voor fine-tuning, om beter specifieke probleemstellingen aan te pakken, met uitstekende inferentieprestaties."
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "Het door Baidu in 2024 gepresenteerde nieuwe hoge-prestatie taalmodel, met uitstekende algemene capaciteiten, betere resultaten dan ERNIE Speed, en geschikt als basis model voor fine-tuning, om beter specifieke probleemstellingen aan te pakken, met uitstekende inferentieprestaties."
67
+ },
35
68
  "Gryphe/MythoMax-L2-13b": {
36
69
  "description": "MythoMax-L2 (13B) is een innovatief model, geschikt voor toepassingen in meerdere domeinen en complexe taken."
37
70
  },
@@ -401,6 +434,9 @@
401
434
  "glm-4-flash": {
402
435
  "description": "GLM-4-Flash is de ideale keuze voor het verwerken van eenvoudige taken, met de snelste snelheid en de laagste prijs."
403
436
  },
437
+ "glm-4-flashx": {
438
+ "description": "GLM-4-FlashX is een verbeterde versie van Flash met een super snelle inferentiesnelheid."
439
+ },
404
440
  "glm-4-long": {
405
441
  "description": "GLM-4-Long ondersteunt zeer lange tekstinvoer, geschikt voor geheugenintensieve taken en grootschalige documentverwerking."
406
442
  },
@@ -413,11 +449,11 @@
413
449
  "glm-4v-plus": {
414
450
  "description": "GLM-4V-Plus heeft de capaciteit om video-inhoud en meerdere afbeeldingen te begrijpen, geschikt voor multimodale taken."
415
451
  },
416
- "google/gemini-flash-1.5-exp": {
417
- "description": "Gemini 1.5 Flash 0827 biedt geoptimaliseerde multimodale verwerkingscapaciteiten, geschikt voor verschillende complexe taakscenario's."
452
+ "google/gemini-flash-1.5": {
453
+ "description": "Gemini 1.5 Flash biedt geoptimaliseerde multimodale verwerkingscapaciteiten, geschikt voor verschillende complexe taakscenario's."
418
454
  },
419
- "google/gemini-pro-1.5-exp": {
420
- "description": "Gemini 1.5 Pro 0827 combineert de nieuwste optimalisatietechnologieën voor efficiëntere multimodale gegevensverwerking."
455
+ "google/gemini-pro-1.5": {
456
+ "description": "Gemini 1.5 Pro combineert de nieuwste optimalisatietechnologieën en biedt efficiëntere multimodale gegevensverwerkingscapaciteiten."
421
457
  },
422
458
  "google/gemma-2-27b-it": {
423
459
  "description": "Gemma 2 behoudt het ontwerpprincipe van lichtgewicht en efficiëntie."
@@ -491,6 +527,33 @@
491
527
  "gryphe/mythomax-l2-13b": {
492
528
  "description": "MythoMax l2 13B is een taalmodel dat creativiteit en intelligentie combineert door meerdere topmodellen te integreren."
493
529
  },
530
+ "hunyuan-code": {
531
+ "description": "Het nieuwste codegeneratiemodel van Hunyuan, getraind op 200B hoogwaardige codegegevens, met een half jaar training op hoogwaardige SFT-gegevens, met een vergroot contextvenster van 8K, en staat bovenaan de automatische evaluatie-indicatoren voor codegeneratie in vijf grote programmeertalen; presteert in de eerste divisie op basis van handmatige kwaliteitsbeoordelingen van 10 aspecten van code-taken in vijf grote talen."
532
+ },
533
+ "hunyuan-functioncall": {
534
+ "description": "Het nieuwste MOE-architectuur FunctionCall-model van Hunyuan, getraind op hoogwaardige FunctionCall-gegevens, met een contextvenster van 32K, en staat voorop in meerdere dimensies van evaluatie-indicatoren."
535
+ },
536
+ "hunyuan-lite": {
537
+ "description": "Geüpgraded naar een MOE-structuur, met een contextvenster van 256k, en leidt in verschillende evaluatiesets op het gebied van NLP, code, wiskunde en industrie ten opzichte van vele open-source modellen."
538
+ },
539
+ "hunyuan-pro": {
540
+ "description": "Een MOE-32K lange tekstmodel met triljoenen parameters. Bereikt een absoluut leidend niveau op verschillende benchmarks, met complexe instructies en redenering, beschikt over complexe wiskundige capaciteiten, ondersteunt function calls, en is geoptimaliseerd voor toepassingen in meertalige vertaling, financiële, juridische en medische gebieden."
541
+ },
542
+ "hunyuan-role": {
543
+ "description": "Het nieuwste rolspelmodel van Hunyuan, een rolspelmodel dat is ontwikkeld door de officiële fine-tuning training van Hunyuan, dat is getraind op basis van rolspel-scenario datasets, en betere basisprestaties biedt in rolspel-scenario's."
544
+ },
545
+ "hunyuan-standard": {
546
+ "description": "Maakt gebruik van een betere routeringsstrategie en verlicht tegelijkertijd de problemen van load balancing en expert convergentie. Voor lange teksten bereikt de naald in een hooiberg-index 99,9%. MOE-32K biedt een relatief betere prijs-kwaliteitverhouding, en kan lange tekstinvoer verwerken terwijl het effect en prijs in balans houdt."
547
+ },
548
+ "hunyuan-standard-256K": {
549
+ "description": "Maakt gebruik van een betere routeringsstrategie en verlicht tegelijkertijd de problemen van load balancing en expert convergentie. Voor lange teksten bereikt de naald in een hooiberg-index 99,9%. MOE-256K doorbreekt verder in lengte en effectiviteit, waardoor de invoerlengte aanzienlijk wordt vergroot."
550
+ },
551
+ "hunyuan-turbo": {
552
+ "description": "Een previewversie van het nieuwe generatie grote taalmodel van Hunyuan, met een nieuwe hybride expertmodel (MoE) structuur, die sneller inferentie-efficiëntie biedt en betere prestaties levert dan hunyan-pro."
553
+ },
554
+ "hunyuan-vision": {
555
+ "description": "Het nieuwste multimodale model van Hunyuan, ondersteunt het genereren van tekstinhoud op basis van afbeelding + tekstinvoer."
556
+ },
494
557
  "internlm/internlm2_5-20b-chat": {
495
558
  "description": "Het innovatieve open-source model InternLM2.5 verhoogt de gespreksintelligentie door een groot aantal parameters."
496
559
  },
@@ -634,6 +697,12 @@
634
697
  "meta-llama/llama-3.1-8b-instruct:free": {
635
698
  "description": "LLaMA 3.1 biedt ondersteuning voor meerdere talen en is een van de toonaangevende generatiemodellen in de industrie."
636
699
  },
700
+ "meta-llama/llama-3.2-11b-vision-instruct": {
701
+ "description": "LLaMA 3.2 is ontworpen voor taken die visuele en tekstuele gegevens combineren. Het presteert uitstekend in taken zoals afbeeldingsbeschrijving en visuele vraag-en-antwoord, en overbrugt de kloof tussen taalgeneratie en visuele redenering."
702
+ },
703
+ "meta-llama/llama-3.2-90b-vision-instruct": {
704
+ "description": "LLaMA 3.2 is ontworpen voor taken die visuele en tekstuele gegevens combineren. Het presteert uitstekend in taken zoals afbeeldingsbeschrijving en visuele vraag-en-antwoord, en overbrugt de kloof tussen taalgeneratie en visuele redenering."
705
+ },
637
706
  "meta.llama3-1-405b-instruct-v1:0": {
638
707
  "description": "Meta Llama 3.1 405B Instruct is het grootste en krachtigste model binnen het Llama 3.1 Instruct-model, een geavanceerd model voor conversatie-inferentie en synthetische datageneratie, dat ook kan worden gebruikt als basis voor gespecialiseerde continue pre-training of fine-tuning in specifieke domeinen. De meertalige grote taalmodellen (LLMs) die Llama 3.1 biedt, zijn een set van voorgetrainde, instructie-geoptimaliseerde generatieve modellen, waaronder 8B, 70B en 405B in grootte (tekstinvoer/uitvoer). De tekstmodellen van Llama 3.1, die zijn geoptimaliseerd voor meertalige conversatiegebruik, overtreffen veel beschikbare open-source chatmodellen in gangbare industriële benchmarktests. Llama 3.1 is ontworpen voor commercieel en onderzoeksgebruik in meerdere talen. De instructie-geoptimaliseerde tekstmodellen zijn geschikt voor assistentachtige chats, terwijl de voorgetrainde modellen zich kunnen aanpassen aan verschillende taken voor natuurlijke taalgeneratie. Het Llama 3.1-model ondersteunt ook het verbeteren van andere modellen door gebruik te maken van de output van zijn modellen, inclusief synthetische datageneratie en verfijning. Llama 3.1 is een autoregressief taalmodel dat gebruikmaakt van een geoptimaliseerde transformer-architectuur. De afgestelde versies gebruiken supervisie-finetuning (SFT) en versterkend leren met menselijke feedback (RLHF) om te voldoen aan menselijke voorkeuren voor behulpzaamheid en veiligheid."
639
708
  },
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "De LPU-inferentie-engine van Groq presteert uitstekend in de nieuwste onafhankelijke benchmarktests voor grote taalmodellen (LLM), en herdefinieert de normen voor AI-oplossingen met zijn verbazingwekkende snelheid en efficiëntie. Groq is een vertegenwoordiger van onmiddellijke inferentiesnelheid en toont goede prestaties in cloudgebaseerde implementaties."
32
32
  },
33
+ "hunyuan": {
34
+ "description": "Een door Tencent ontwikkeld groot taalmodel, dat beschikt over krachtige Chinese creatiecapaciteiten, logische redeneervaardigheden in complexe contexten, en betrouwbare taakuitvoeringscapaciteiten."
35
+ },
33
36
  "minimax": {
34
37
  "description": "MiniMax is een algemeen kunstmatige intelligentietechnologiebedrijf dat in 2021 is opgericht, en zich richt op co-creatie van intelligentie met gebruikers. MiniMax heeft verschillende multimodale algemene grote modellen ontwikkeld, waaronder een MoE-tekstgrootmodel met triljoenen parameters, een spraakgrootmodel en een afbeeldingsgrootmodel. Ze hebben ook toepassingen zoals Conch AI gelanceerd."
35
38
  },
@@ -75,6 +78,9 @@
75
78
  "upstage": {
76
79
  "description": "Upstage richt zich op het ontwikkelen van AI-modellen voor verschillende zakelijke behoeften, waaronder Solar LLM en document AI, met als doel het realiseren van kunstmatige algemene intelligentie (AGI). Het creëert eenvoudige dialoogagenten via de Chat API en ondersteunt functionele aanroepen, vertalingen, insluitingen en specifieke domeintoepassingen."
77
80
  },
81
+ "wenxin": {
82
+ "description": "Een enterprise-grade, alles-in-één platform voor de ontwikkeling en service van grote modellen en AI-native applicaties, dat de meest uitgebreide en gebruiksvriendelijke toolchain biedt voor de ontwikkeling van generatieve kunstmatige intelligentiemodellen en applicaties."
83
+ },
78
84
  "zeroone": {
79
85
  "description": "01.AI richt zich op kunstmatige intelligentietechnologie in het tijdperk van AI 2.0, en bevordert sterk de innovatie en toepassing van 'mens + kunstmatige intelligentie', met behulp van krachtige modellen en geavanceerde AI-technologie om de productiviteit van de mens te verbeteren en technologische capaciteiten te realiseren."
80
86
  },
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "Błąd zwrócony przez serwer wtyczki. Proszę sprawdź plik opisowy wtyczki, konfigurację wtyczki lub implementację serwera zgodnie z poniższymi informacjami o błędzie",
82
82
  "PluginSettingsInvalid": "Ta wtyczka wymaga poprawnej konfiguracji przed użyciem. Proszę sprawdź, czy Twoja konfiguracja jest poprawna",
83
83
  "ProviderBizError": "Wystąpił błąd usługi {{provider}}, proszę sprawdzić poniższe informacje lub spróbować ponownie",
84
+ "QuotaLimitReached": "Przykro nam, bieżące zużycie tokenów lub liczba żądań osiągnęła limit kwoty dla tego klucza. Proszę zwiększyć limit kwoty dla tego klucza lub spróbować ponownie później.",
84
85
  "StreamChunkError": "Błąd analizy bloku wiadomości w żądaniu strumieniowym. Proszę sprawdzić, czy aktualny interfejs API jest zgodny z normami, lub skontaktować się z dostawcą API w celu uzyskania informacji.",
85
86
  "SubscriptionPlanLimit": "Wykorzystałeś limit swojego abonamentu i nie możesz korzystać z tej funkcji. Proszę uaktualnić do wyższego planu lub zakupić dodatkowy pakiet zasobów, aby kontynuować korzystanie.",
86
87
  "UnknownChatFetchError": "Przykro nam, wystąpił nieznany błąd żądania. Proszę sprawdzić poniższe informacje lub spróbować ponownie."
@@ -112,6 +112,26 @@
112
112
  "title": "Download specified Ollama model"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "Wprowadź Access Key z platformy Baidu Qianfan",
118
+ "placeholder": "Access Key Qianfan",
119
+ "title": "Access Key"
120
+ },
121
+ "checker": {
122
+ "desc": "Sprawdź, czy AccessKey / SecretAccess zostały poprawnie wprowadzone"
123
+ },
124
+ "secretKey": {
125
+ "desc": "Wprowadź Secret Key z platformy Baidu Qianfan",
126
+ "placeholder": "Secret Key Qianfan",
127
+ "title": "Secret Key"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "Niestandardowy obszar usług",
131
+ "description": "Wprowadź swój AccessKey / SecretKey, aby rozpocząć sesję. Aplikacja nie zapisuje twojej konfiguracji uwierzytelniania",
132
+ "title": "Użyj niestandardowych informacji uwierzytelniających Wenxin Yiyan"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI Zero Jeden Wszystko"
117
137
  },
@@ -32,6 +32,39 @@
32
32
  "Baichuan4": {
33
33
  "description": "Model o najwyższej wydajności w kraju, przewyższający zagraniczne modele w zadaniach związanych z encyklopedią, długimi tekstami i generowaniem treści w języku chińskim. Posiada również wiodące w branży zdolności multimodalne, osiągając doskonałe wyniki w wielu autorytatywnych testach."
34
34
  },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "Flagowy model dużego języka opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, zdolny do spełnienia wymagań w większości scenariuszy związanych z pytaniami i odpowiedziami, generowaniem treści oraz aplikacjami wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach."
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "Flagowy model dużego języka opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, zdolny do spełnienia wymagań w większości scenariuszy związanych z pytaniami i odpowiedziami, generowaniem treści oraz aplikacjami wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach."
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "Flagowy model dużego języka opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, zdolny do spełnienia wymagań w większości scenariuszy związanych z pytaniami i odpowiedziami, generowaniem treści oraz aplikacjami wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach."
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "Flagowy model ultra dużego języka opracowany przez Baidu, w porównaniu do ERNIE 3.5, oferujący kompleksową aktualizację możliwości modelu, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji."
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "Flagowy model ultra dużego języka opracowany przez Baidu, w porównaniu do ERNIE 3.5, oferujący kompleksową aktualizację możliwości modelu, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji."
49
+ },
50
+ "ERNIE-4.0-Turbo-8K": {
51
+ "description": "Flagowy model ultra dużego języka opracowany przez Baidu, charakteryzujący się doskonałymi wynikami ogólnymi, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji. W porównaniu do ERNIE 4.0, oferuje lepsze wyniki wydajności."
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "Flagowy model ultra dużego języka opracowany przez Baidu, charakteryzujący się doskonałymi wynikami ogólnymi, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji. W porównaniu do ERNIE 4.0, oferuje lepsze wyniki wydajności."
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "Model dużego języka opracowany przez Baidu, skoncentrowany na specyficznych scenariuszach, odpowiedni do zastosowań takich jak NPC w grach, rozmowy z obsługą klienta, odgrywanie ról w dialogach, charakteryzujący się wyraźnym i spójnym stylem postaci, silniejszą zdolnością do przestrzegania poleceń oraz lepszą wydajnością wnioskowania."
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "Lekki model dużego języka opracowany przez Baidu, łączący doskonałe wyniki modelu z wydajnością wnioskowania, oferujący lepsze wyniki niż ERNIE Lite, odpowiedni do użycia w niskomocowych kartach przyspieszających AI."
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "Najnowocześniejszy model dużego języka opracowany przez Baidu w 2024 roku, charakteryzujący się doskonałymi zdolnościami ogólnymi, odpowiedni jako model bazowy do dalszego dostosowywania, lepiej radzący sobie z problemami w specyficznych scenariuszach, a także zapewniający doskonałą wydajność wnioskowania."
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "Najnowocześniejszy model dużego języka opracowany przez Baidu w 2024 roku, charakteryzujący się doskonałymi zdolnościami ogólnymi, oferujący lepsze wyniki niż ERNIE Speed, odpowiedni jako model bazowy do dalszego dostosowywania, lepiej radzący sobie z problemami w specyficznych scenariuszach, a także zapewniający doskonałą wydajność wnioskowania."
67
+ },
35
68
  "Gryphe/MythoMax-L2-13b": {
36
69
  "description": "MythoMax-L2 (13B) to innowacyjny model, idealny do zastosowań w wielu dziedzinach i złożonych zadań."
37
70
  },
@@ -401,6 +434,9 @@
401
434
  "glm-4-flash": {
402
435
  "description": "GLM-4-Flash to idealny wybór do przetwarzania prostych zadań, najszybszy i najtańszy."
403
436
  },
437
+ "glm-4-flashx": {
438
+ "description": "GLM-4-FlashX to ulepszona wersja Flash, charakteryzująca się niezwykle szybkim czasem wnioskowania."
439
+ },
404
440
  "glm-4-long": {
405
441
  "description": "GLM-4-Long obsługuje ultra-długie wejścia tekstowe, odpowiednie do zadań pamięciowych i przetwarzania dużych dokumentów."
406
442
  },
@@ -413,11 +449,11 @@
413
449
  "glm-4v-plus": {
414
450
  "description": "GLM-4V-Plus ma zdolność rozumienia treści wideo oraz wielu obrazów, odpowiedni do zadań multimodalnych."
415
451
  },
416
- "google/gemini-flash-1.5-exp": {
417
- "description": "Gemini 1.5 Flash 0827 oferuje zoptymalizowane możliwości przetwarzania multimodalnego, odpowiednie do różnych złożonych zadań."
452
+ "google/gemini-flash-1.5": {
453
+ "description": "Gemini 1.5 Flash oferuje zoptymalizowane możliwości przetwarzania multimodalnego, odpowiednie do różnych złożonych scenariuszy zadań."
418
454
  },
419
- "google/gemini-pro-1.5-exp": {
420
- "description": "Gemini 1.5 Pro 0827 łączy najnowsze technologie optymalizacji, oferując bardziej efektywne przetwarzanie danych multimodalnych."
455
+ "google/gemini-pro-1.5": {
456
+ "description": "Gemini 1.5 Pro łączy najnowsze technologie optymalizacji, oferując bardziej efektywne przetwarzanie danych multimodalnych."
421
457
  },
422
458
  "google/gemma-2-27b-it": {
423
459
  "description": "Gemma 2 kontynuuje ideę lekkiego i wydajnego projektowania."
@@ -491,6 +527,33 @@
491
527
  "gryphe/mythomax-l2-13b": {
492
528
  "description": "MythoMax l2 13B to model językowy łączący kreatywność i inteligencję, zintegrowany z wieloma wiodącymi modelami."
493
529
  },
530
+ "hunyuan-code": {
531
+ "description": "Najnowocześniejszy model generowania kodu Hunyuan, przeszkolony na bazie 200B wysokiej jakości danych kodu, z półrocznym treningiem na wysokiej jakości danych SFT, z wydłużonym oknem kontekstowym do 8K, zajmującym czołowe miejsca w automatycznych wskaźnikach oceny generowania kodu w pięciu językach; w ocenie jakościowej zadań kodowych w pięciu językach, osiąga wyniki w pierwszej lidze."
532
+ },
533
+ "hunyuan-functioncall": {
534
+ "description": "Najnowocześniejszy model FunctionCall w architekturze MOE Hunyuan, przeszkolony na wysokiej jakości danych FunctionCall, z oknem kontekstowym o długości 32K, osiągający wiodące wyniki w wielu wymiarach oceny."
535
+ },
536
+ "hunyuan-lite": {
537
+ "description": "Zaktualizowana do struktury MOE, z oknem kontekstowym o długości 256k, prowadzi w wielu zestawach testowych w NLP, kodowaniu, matematyce i innych dziedzinach w porównaniu do wielu modeli open source."
538
+ },
539
+ "hunyuan-pro": {
540
+ "description": "Model długiego tekstu MOE-32K o skali bilionów parametrów. Osiąga absolutnie wiodący poziom w różnych benchmarkach, obsługując złożone instrukcje i wnioskowanie, posiadając zaawansowane umiejętności matematyczne, wspierając wywołania funkcji, z optymalizacjami w obszarach takich jak tłumaczenia wielojęzyczne, prawo finansowe i medyczne."
541
+ },
542
+ "hunyuan-role": {
543
+ "description": "Najnowocześniejszy model odgrywania ról Hunyuan, stworzony przez oficjalne dostosowanie i trening Hunyuan, oparty na modelu Hunyuan i zestawie danych scenariuszy odgrywania ról, oferujący lepsze podstawowe wyniki w scenariuszach odgrywania ról."
544
+ },
545
+ "hunyuan-standard": {
546
+ "description": "Zastosowano lepszą strategię routingu, jednocześnie łagodząc problemy z równoważeniem obciążenia i zbieżnością ekspertów. W przypadku długich tekstów wskaźnik 'znalezienia igły w stogu siana' osiąga 99,9%. MOE-32K oferuje lepszy stosunek jakości do ceny, równoważąc efektywność i cenę, umożliwiając przetwarzanie długich tekstów."
547
+ },
548
+ "hunyuan-standard-256K": {
549
+ "description": "Zastosowano lepszą strategię routingu, jednocześnie łagodząc problemy z równoważeniem obciążenia i zbieżnością ekspertów. W przypadku długich tekstów wskaźnik 'znalezienia igły w stogu siana' osiąga 99,9%. MOE-256K dokonuje dalszych przełomów w długości i efektywności, znacznie rozszerzając możliwą długość wejścia."
550
+ },
551
+ "hunyuan-turbo": {
552
+ "description": "Hunyuan to nowa generacja dużego modelu językowego w wersji próbnej, wykorzystująca nową strukturę modelu mieszanych ekspertów (MoE), która w porównaniu do hunyuan-pro charakteryzuje się szybszą efektywnością wnioskowania i lepszymi wynikami."
553
+ },
554
+ "hunyuan-vision": {
555
+ "description": "Najnowocześniejszy model multimodalny Hunyuan, wspierający generowanie treści tekstowych na podstawie obrazów i tekstu."
556
+ },
494
557
  "internlm/internlm2_5-20b-chat": {
495
558
  "description": "Innowacyjny model open source InternLM2.5, dzięki dużej liczbie parametrów, zwiększa inteligencję dialogową."
496
559
  },
@@ -634,6 +697,12 @@
634
697
  "meta-llama/llama-3.1-8b-instruct:free": {
635
698
  "description": "LLaMA 3.1 oferuje wsparcie dla wielu języków i jest jednym z wiodących modeli generacyjnych w branży."
636
699
  },
700
+ "meta-llama/llama-3.2-11b-vision-instruct": {
701
+ "description": "LLaMA 3.2 jest zaprojektowana do przetwarzania zadań łączących dane wizualne i tekstowe. Wykazuje doskonałe wyniki w zadaniach takich jak opisywanie obrazów i wizualne pytania i odpowiedzi, przekraczając granice między generowaniem języka a wnioskowaniem wizualnym."
702
+ },
703
+ "meta-llama/llama-3.2-90b-vision-instruct": {
704
+ "description": "LLaMA 3.2 jest zaprojektowana do przetwarzania zadań łączących dane wizualne i tekstowe. Wykazuje doskonałe wyniki w zadaniach takich jak opisywanie obrazów i wizualne pytania i odpowiedzi, przekraczając granice między generowaniem języka a wnioskowaniem wizualnym."
705
+ },
637
706
  "meta.llama3-1-405b-instruct-v1:0": {
638
707
  "description": "Meta Llama 3.1 405B Instruct to największy i najpotężniejszy model w rodzinie modeli Llama 3.1 Instruct. Jest to wysoko zaawansowany model do dialogów, wnioskowania i generowania danych, który może być również używany jako podstawa do specjalistycznego, ciągłego wstępnego szkolenia lub dostosowywania w określonych dziedzinach. Llama 3.1 oferuje wielojęzyczne duże modele językowe (LLM), które są zestawem wstępnie wytrenowanych, dostosowanych do instrukcji modeli generacyjnych, obejmujących rozmiary 8B, 70B i 405B (wejście/wyjście tekstowe). Modele tekstowe Llama 3.1 dostosowane do instrukcji (8B, 70B, 405B) zostały zoptymalizowane do zastosowań w wielojęzycznych dialogach i przewyższają wiele dostępnych modeli czatu open source w powszechnych testach branżowych. Llama 3.1 jest zaprojektowana do użytku komercyjnego i badawczego w wielu językach. Modele tekstowe dostosowane do instrukcji nadają się do czatu w stylu asystenta, podczas gdy modele wstępnie wytrenowane mogą być dostosowane do różnych zadań generowania języka naturalnego. Modele Llama 3.1 wspierają również wykorzystanie ich wyjść do poprawy innych modeli, w tym generowania danych syntetycznych i udoskonalania. Llama 3.1 jest modelem językowym autoregresywnym opartym na zoptymalizowanej architekturze transformatora. Dostosowane wersje wykorzystują nadzorowane dostosowywanie (SFT) oraz uczenie się ze wzmocnieniem z ludzkim feedbackiem (RLHF), aby odpowiadać ludzkim preferencjom dotyczącym pomocności i bezpieczeństwa."
639
708
  },
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Silnik inferencyjny LPU firmy Groq wyróżnia się w najnowszych niezależnych testach benchmarkowych dużych modeli językowych (LLM), redefiniując standardy rozwiązań AI dzięki niesamowitej szybkości i wydajności. Groq jest reprezentantem natychmiastowej szybkości inferencji, wykazując dobrą wydajność w wdrożeniach opartych na chmurze."
32
32
  },
33
+ "hunyuan": {
34
+ "description": "Model językowy opracowany przez Tencent, który posiada potężne zdolności twórcze w języku chińskim, umiejętność logicznego wnioskowania w złożonych kontekstach oraz niezawodne zdolności wykonawcze w zadaniach."
35
+ },
33
36
  "minimax": {
34
37
  "description": "MiniMax to firma technologiczna zajmująca się ogólną sztuczną inteligencją, założona w 2021 roku, dążąca do współtworzenia inteligencji z użytkownikami. MiniMax opracowało różne modele dużych modeli o różnych modalnościach, w tym model tekstowy MoE z bilionem parametrów, model głosowy oraz model obrazowy. Wprowadziło również aplikacje takie jak Conch AI."
35
38
  },
@@ -75,6 +78,9 @@
75
78
  "upstage": {
76
79
  "description": "Upstage koncentruje się na opracowywaniu modeli AI dla różnych potrzeb biznesowych, w tym Solar LLM i dokumentów AI, mając na celu osiągnięcie sztucznej ogólnej inteligencji (AGI). Umożliwia tworzenie prostych agentów konwersacyjnych za pomocą Chat API oraz wspiera wywołania funkcji, tłumaczenia, osadzenia i zastosowania w określonych dziedzinach."
77
80
  },
81
+ "wenxin": {
82
+ "description": "Platforma do rozwoju i usług aplikacji AI oraz dużych modeli w skali przedsiębiorstwa, oferująca najbardziej kompleksowy i łatwy w użyciu zestaw narzędzi do rozwoju modeli sztucznej inteligencji generatywnej oraz całego procesu tworzenia aplikacji."
83
+ },
78
84
  "zeroone": {
79
85
  "description": "01.AI koncentruje się na technologiach sztucznej inteligencji w erze AI 2.0, intensywnie promując innowacje i zastosowania „człowiek + sztuczna inteligencja”, wykorzystując potężne modele i zaawansowane technologie AI w celu zwiększenia wydajności ludzkiej produkcji i realizacji technologicznego wsparcia."
80
86
  },
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "Erro na resposta do servidor do plugin. Verifique o arquivo de descrição do plugin, a configuração do plugin ou a implementação do servidor de acordo com as informações de erro abaixo",
82
82
  "PluginSettingsInvalid": "Este plugin precisa ser configurado corretamente antes de ser usado. Verifique se sua configuração está correta",
83
83
  "ProviderBizError": "Erro no serviço {{provider}} solicitado. Por favor, verifique as informações abaixo ou tente novamente.",
84
+ "QuotaLimitReached": "Desculpe, o uso atual de tokens ou o número de solicitações atingiu o limite de quota da chave. Por favor, aumente a quota dessa chave ou tente novamente mais tarde.",
84
85
  "StreamChunkError": "Erro de análise do bloco de mensagem da solicitação em fluxo. Verifique se a interface da API atual está em conformidade com os padrões ou entre em contato com seu fornecedor de API para mais informações.",
85
86
  "SubscriptionPlanLimit": "Você atingiu o limite de sua assinatura e não pode usar essa função. Por favor, faça upgrade para um plano superior ou compre um pacote de recursos para continuar usando.",
86
87
  "UnknownChatFetchError": "Desculpe, ocorreu um erro desconhecido na solicitação. Por favor, verifique as informações abaixo ou tente novamente."
@@ -112,6 +112,26 @@
112
112
  "title": "Download specified Ollama model"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "Insira a Access Key da plataforma Qianfan do Baidu",
118
+ "placeholder": "Access Key Qianfan",
119
+ "title": "Access Key"
120
+ },
121
+ "checker": {
122
+ "desc": "Teste se a AccessKey / SecretAccess está preenchida corretamente"
123
+ },
124
+ "secretKey": {
125
+ "desc": "Insira a Secret Key da plataforma Qianfan do Baidu",
126
+ "placeholder": "Secret Key Qianfan",
127
+ "title": "Secret Key"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "Região de serviço personalizada",
131
+ "description": "Insira sua AccessKey / SecretKey para iniciar a sessão. O aplicativo não registrará suas configurações de autenticação",
132
+ "title": "Usar informações de autenticação personalizadas do Wenxin Yiyan"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI Zero e Um"
117
137
  },
@@ -32,6 +32,39 @@
32
32
  "Baichuan4": {
33
33
  "description": "O modelo é o melhor do país, superando modelos estrangeiros em tarefas em chinês, como enciclopédias, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes na indústria, com desempenho excepcional em várias avaliações de referência."
34
34
  },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, cobrindo uma vasta quantidade de dados em chinês e inglês, com poderosas capacidades gerais, capaz de atender à maioria das demandas de perguntas e respostas em diálogos, geração de conteúdo e aplicações de plugins; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações nas respostas."
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, cobrindo uma vasta quantidade de dados em chinês e inglês, com poderosas capacidades gerais, capaz de atender à maioria das demandas de perguntas e respostas em diálogos, geração de conteúdo e aplicações de plugins; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações nas respostas."
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, cobrindo uma vasta quantidade de dados em chinês e inglês, com poderosas capacidades gerais, capaz de atender à maioria das demandas de perguntas e respostas em diálogos, geração de conteúdo e aplicações de plugins; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações nas respostas."
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, que em comparação com o ERNIE 3.5, apresenta uma atualização completa nas capacidades do modelo, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas."
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, que em comparação com o ERNIE 3.5, apresenta uma atualização completa nas capacidades do modelo, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas."
49
+ },
50
+ "ERNIE-4.0-Turbo-8K": {
51
+ "description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, com desempenho excepcional em resultados gerais, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas. Em comparação com o ERNIE 4.0, apresenta desempenho superior."
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, com desempenho excepcional em resultados gerais, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas. Em comparação com o ERNIE 4.0, apresenta desempenho superior."
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "Modelo de linguagem vertical desenvolvido pela Baidu, adequado para aplicações como NPCs em jogos, diálogos de atendimento ao cliente e interpretação de personagens em diálogos, com estilos de personagem mais distintos e consistentes, maior capacidade de seguir instruções e desempenho de inferência superior."
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "Modelo de linguagem leve desenvolvido pela Baidu, que combina excelente desempenho do modelo com eficiência de inferência, apresentando resultados superiores ao ERNIE Lite, adequado para uso em inferência com placas de aceleração de IA de baixo poder computacional."
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "Modelo de linguagem de alto desempenho desenvolvido pela Baidu, lançado em 2024, com capacidades gerais excepcionais, adequado como modelo base para ajuste fino, melhorando o tratamento de problemas em cenários específicos, enquanto mantém excelente desempenho de inferência."
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "Modelo de linguagem de alto desempenho desenvolvido pela Baidu, lançado em 2024, com capacidades gerais excepcionais, apresentando resultados superiores ao ERNIE Speed, adequado como modelo base para ajuste fino, melhorando o tratamento de problemas em cenários específicos, enquanto mantém excelente desempenho de inferência."
67
+ },
35
68
  "Gryphe/MythoMax-L2-13b": {
36
69
  "description": "MythoMax-L2 (13B) é um modelo inovador, adequado para aplicações em múltiplas áreas e tarefas complexas."
37
70
  },
@@ -401,6 +434,9 @@
401
434
  "glm-4-flash": {
402
435
  "description": "O GLM-4-Flash é a escolha ideal para tarefas simples, com a maior velocidade e o preço mais acessível."
403
436
  },
437
+ "glm-4-flashx": {
438
+ "description": "GLM-4-FlashX é uma versão aprimorada do Flash, com velocidade de inferência super rápida."
439
+ },
404
440
  "glm-4-long": {
405
441
  "description": "O GLM-4-Long suporta entradas de texto superlongas, adequado para tarefas de memória e processamento de documentos em larga escala."
406
442
  },
@@ -413,11 +449,11 @@
413
449
  "glm-4v-plus": {
414
450
  "description": "O GLM-4V-Plus possui a capacidade de entender conteúdo de vídeo e múltiplas imagens, adequado para tarefas multimodais."
415
451
  },
416
- "google/gemini-flash-1.5-exp": {
417
- "description": "Gemini 1.5 Flash 0827 oferece capacidade de processamento multimodal otimizada, adequada para uma variedade de cenários de tarefas complexas."
452
+ "google/gemini-flash-1.5": {
453
+ "description": "Gemini 1.5 Flash oferece capacidades de processamento multimodal otimizadas, adequadas para uma variedade de cenários de tarefas complexas."
418
454
  },
419
- "google/gemini-pro-1.5-exp": {
420
- "description": "Gemini 1.5 Pro 0827 combina as mais recentes tecnologias de otimização, proporcionando uma capacidade de processamento de dados multimodal mais eficiente."
455
+ "google/gemini-pro-1.5": {
456
+ "description": "Gemini 1.5 Pro combina as mais recentes tecnologias de otimização, proporcionando uma capacidade de processamento de dados multimodais mais eficiente."
421
457
  },
422
458
  "google/gemma-2-27b-it": {
423
459
  "description": "Gemma 2 continua a filosofia de design leve e eficiente."
@@ -491,6 +527,33 @@
491
527
  "gryphe/mythomax-l2-13b": {
492
528
  "description": "MythoMax l2 13B é um modelo de linguagem que combina criatividade e inteligência, integrando vários modelos de ponta."
493
529
  },
530
+ "hunyuan-code": {
531
+ "description": "O mais recente modelo de geração de código Hunyuan, treinado com 200B de dados de código de alta qualidade, com seis meses de treinamento de dados SFT de alta qualidade, aumentando o comprimento da janela de contexto para 8K, destacando-se em métricas automáticas de geração de código em cinco linguagens; em avaliações de qualidade de código em dez aspectos em cinco linguagens, o desempenho está na primeira divisão."
532
+ },
533
+ "hunyuan-functioncall": {
534
+ "description": "O mais recente modelo FunctionCall da arquitetura MOE Hunyuan, treinado com dados de alta qualidade de FunctionCall, com uma janela de contexto de 32K, liderando em várias métricas de avaliação."
535
+ },
536
+ "hunyuan-lite": {
537
+ "description": "Atualizado para uma estrutura MOE, com uma janela de contexto de 256k, liderando em várias avaliações em NLP, código, matemática e setores diversos em comparação com muitos modelos de código aberto."
538
+ },
539
+ "hunyuan-pro": {
540
+ "description": "Modelo de texto longo MOE-32K com trilhões de parâmetros. Alcança níveis de liderança absoluta em vários benchmarks, com capacidades complexas de instrução e raciocínio, habilidades matemáticas complexas, suporte a chamadas de função, otimizado para áreas como tradução multilíngue, finanças, direito e saúde."
541
+ },
542
+ "hunyuan-role": {
543
+ "description": "O mais recente modelo de interpretação de papéis Hunyuan, um modelo de interpretação de papéis ajustado e treinado oficialmente pela Hunyuan, que combina o modelo Hunyuan com um conjunto de dados de cenários de interpretação de papéis, apresentando um desempenho básico melhor em cenários de interpretação de papéis."
544
+ },
545
+ "hunyuan-standard": {
546
+ "description": "Adota uma estratégia de roteamento superior, ao mesmo tempo que mitiga problemas de balanceamento de carga e convergência de especialistas. Em termos de textos longos, o índice de precisão atinge 99,9%. O MOE-32K oferece uma relação custo-benefício relativamente melhor, equilibrando desempenho e preço, permitindo o processamento de entradas de texto longo."
547
+ },
548
+ "hunyuan-standard-256K": {
549
+ "description": "Adota uma estratégia de roteamento superior, ao mesmo tempo que mitiga problemas de balanceamento de carga e convergência de especialistas. Em termos de textos longos, o índice de precisão atinge 99,9%. O MOE-256K rompe ainda mais em comprimento e desempenho, expandindo significativamente o comprimento de entrada permitido."
550
+ },
551
+ "hunyuan-turbo": {
552
+ "description": "Versão de pré-visualização do novo modelo de linguagem de próxima geração Hunyuan, utilizando uma nova estrutura de modelo de especialistas mistos (MoE), com eficiência de inferência mais rápida e desempenho superior em comparação ao Hunyuan-Pro."
553
+ },
554
+ "hunyuan-vision": {
555
+ "description": "O mais recente modelo multimodal Hunyuan, que suporta a entrada de imagens e texto para gerar conteúdo textual."
556
+ },
494
557
  "internlm/internlm2_5-20b-chat": {
495
558
  "description": "O modelo de código aberto inovador InternLM2.5, com um grande número de parâmetros, melhora a inteligência do diálogo."
496
559
  },
@@ -634,6 +697,12 @@
634
697
  "meta-llama/llama-3.1-8b-instruct:free": {
635
698
  "description": "LLaMA 3.1 oferece suporte multilíngue e é um dos modelos geradores líderes do setor."
636
699
  },
700
+ "meta-llama/llama-3.2-11b-vision-instruct": {
701
+ "description": "LLaMA 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
702
+ },
703
+ "meta-llama/llama-3.2-90b-vision-instruct": {
704
+ "description": "LLaMA 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
705
+ },
637
706
  "meta.llama3-1-405b-instruct-v1:0": {
638
707
  "description": "Meta Llama 3.1 405B Instruct é o maior e mais poderoso modelo da série Llama 3.1 Instruct, sendo um modelo altamente avançado para raciocínio conversacional e geração de dados sintéticos, que também pode ser usado como base para pré-treinamento ou ajuste fino em domínios específicos. Os modelos de linguagem de grande escala (LLMs) multilíngues oferecidos pelo Llama 3.1 são um conjunto de modelos geradores pré-treinados e ajustados por instruções, incluindo tamanhos de 8B, 70B e 405B (entrada/saída de texto). Os modelos de texto ajustados por instruções do Llama 3.1 (8B, 70B, 405B) são otimizados para casos de uso de diálogo multilíngue e superaram muitos modelos de chat de código aberto disponíveis em benchmarks comuns da indústria. O Llama 3.1 é projetado para uso comercial e de pesquisa em várias línguas. Os modelos de texto ajustados por instruções são adequados para chats semelhantes a assistentes, enquanto os modelos pré-treinados podem se adaptar a várias tarefas de geração de linguagem natural. O modelo Llama 3.1 também suporta a utilização de sua saída para melhorar outros modelos, incluindo geração de dados sintéticos e refinamento. O Llama 3.1 é um modelo de linguagem autoregressivo que utiliza uma arquitetura de transformador otimizada. As versões ajustadas utilizam ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para alinhar-se às preferências humanas em relação à utilidade e segurança."
639
708
  },
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "O motor de inferência LPU da Groq se destacou em testes de benchmark independentes de modelos de linguagem de grande escala (LLM), redefinindo os padrões de soluções de IA com sua velocidade e eficiência impressionantes. A Groq representa uma velocidade de inferência em tempo real, demonstrando bom desempenho em implantações baseadas em nuvem."
32
32
  },
33
+ "hunyuan": {
34
+ "description": "Um modelo de linguagem desenvolvido pela Tencent, com forte capacidade de criação em chinês, habilidade de raciocínio lógico em contextos complexos e capacidade confiável de execução de tarefas."
35
+ },
33
36
  "minimax": {
34
37
  "description": "MiniMax é uma empresa de tecnologia de inteligência artificial geral fundada em 2021, dedicada a co-criar inteligência com os usuários. A MiniMax desenvolveu internamente diferentes modelos gerais de grande escala, incluindo um modelo de texto MoE com trilhões de parâmetros, um modelo de voz e um modelo de imagem. Também lançou aplicações como Conch AI."
35
38
  },
@@ -75,6 +78,9 @@
75
78
  "upstage": {
76
79
  "description": "Upstage se concentra no desenvolvimento de modelos de IA para diversas necessidades comerciais, incluindo Solar LLM e Document AI, visando alcançar uma inteligência geral artificial (AGI) que funcione. Crie agentes de diálogo simples por meio da API de Chat e suporte chamadas de função, tradução, incorporação e aplicações em domínios específicos."
77
80
  },
81
+ "wenxin": {
82
+ "description": "Plataforma de desenvolvimento e serviços de aplicativos nativos de IA e modelos de grande escala, voltada para empresas, que oferece a mais completa e fácil ferramenta de cadeia de ferramentas para o desenvolvimento de modelos de inteligência artificial generativa e aplicativos."
83
+ },
78
84
  "zeroone": {
79
85
  "description": "01.AI se concentra na tecnologia de inteligência artificial da era 2.0, promovendo fortemente a inovação e aplicação de 'humano + inteligência artificial', utilizando modelos poderosos e tecnologia de IA avançada para aumentar a produtividade humana e realizar a capacitação tecnológica."
80
86
  },
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "Запрос сервера плагина возвратил ошибку. Проверьте файл манифеста плагина, конфигурацию плагина или реализацию сервера на основе информации об ошибке ниже",
82
82
  "PluginSettingsInvalid": "Этот плагин необходимо правильно настроить, прежде чем его можно будет использовать. Пожалуйста, проверьте правильность вашей конфигурации",
83
83
  "ProviderBizError": "Ошибка обслуживания {{provider}}. Пожалуйста, проверьте следующую информацию или повторите попытку",
84
+ "QuotaLimitReached": "Извините, текущий объем токенов или количество запросов достигло предела квоты для этого ключа. Пожалуйста, увеличьте квоту для этого ключа или попробуйте позже.",
84
85
  "StreamChunkError": "Ошибка разбора блока сообщения потокового запроса. Пожалуйста, проверьте, соответствует ли текущий API стандартам, или свяжитесь с вашим поставщиком API для получения консультации.",
85
86
  "SubscriptionPlanLimit": "Вы исчерпали свой лимит подписки и не можете использовать эту функцию. Пожалуйста, перейдите на более высокий план или приобретите дополнительные ресурсы для продолжения использования.",
86
87
  "UnknownChatFetchError": "Извините, произошла неизвестная ошибка запроса. Пожалуйста, проверьте информацию ниже или попробуйте снова."
@@ -112,6 +112,26 @@
112
112
  "title": "Download specified Ollama model"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "Введите Access Key платформы Baidu Qianfan",
118
+ "placeholder": "Access Key Qianfan",
119
+ "title": "Access Key"
120
+ },
121
+ "checker": {
122
+ "desc": "Проверьте, правильно ли заполнены AccessKey / SecretAccess"
123
+ },
124
+ "secretKey": {
125
+ "desc": "Введите Secret Key платформы Baidu Qianfan",
126
+ "placeholder": "Secret Key Qianfan",
127
+ "title": "Secret Key"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "Пользовательский регион сервиса",
131
+ "description": "Введите ваш AccessKey / SecretKey, чтобы начать сессию. Приложение не будет сохранять ваши данные аутентификации",
132
+ "title": "Использовать пользовательскую информацию аутентификации Wenxin Yiyan"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI Цифровая Вселенная"
117
137
  },