@lobehub/chat 1.20.8 → 1.21.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (100) hide show
  1. package/CHANGELOG.md +42 -0
  2. package/Dockerfile +5 -2
  3. package/Dockerfile.database +5 -2
  4. package/locales/ar/error.json +1 -0
  5. package/locales/ar/modelProvider.json +20 -0
  6. package/locales/ar/models.json +73 -4
  7. package/locales/ar/providers.json +6 -0
  8. package/locales/bg-BG/error.json +1 -0
  9. package/locales/bg-BG/modelProvider.json +20 -0
  10. package/locales/bg-BG/models.json +73 -4
  11. package/locales/bg-BG/providers.json +6 -0
  12. package/locales/de-DE/error.json +1 -0
  13. package/locales/de-DE/modelProvider.json +20 -0
  14. package/locales/de-DE/models.json +73 -4
  15. package/locales/de-DE/providers.json +6 -0
  16. package/locales/en-US/error.json +1 -0
  17. package/locales/en-US/modelProvider.json +20 -0
  18. package/locales/en-US/models.json +73 -4
  19. package/locales/en-US/providers.json +6 -0
  20. package/locales/es-ES/error.json +1 -0
  21. package/locales/es-ES/modelProvider.json +20 -0
  22. package/locales/es-ES/models.json +73 -4
  23. package/locales/es-ES/providers.json +6 -0
  24. package/locales/fr-FR/error.json +1 -0
  25. package/locales/fr-FR/modelProvider.json +20 -0
  26. package/locales/fr-FR/models.json +73 -4
  27. package/locales/fr-FR/providers.json +6 -0
  28. package/locales/it-IT/error.json +1 -0
  29. package/locales/it-IT/modelProvider.json +20 -0
  30. package/locales/it-IT/models.json +73 -4
  31. package/locales/it-IT/providers.json +6 -0
  32. package/locales/ja-JP/error.json +1 -0
  33. package/locales/ja-JP/modelProvider.json +20 -0
  34. package/locales/ja-JP/models.json +73 -4
  35. package/locales/ja-JP/providers.json +6 -0
  36. package/locales/ko-KR/error.json +1 -0
  37. package/locales/ko-KR/modelProvider.json +20 -0
  38. package/locales/ko-KR/models.json +73 -4
  39. package/locales/ko-KR/providers.json +6 -0
  40. package/locales/nl-NL/error.json +1 -0
  41. package/locales/nl-NL/modelProvider.json +20 -0
  42. package/locales/nl-NL/models.json +73 -4
  43. package/locales/nl-NL/providers.json +6 -0
  44. package/locales/pl-PL/error.json +1 -0
  45. package/locales/pl-PL/modelProvider.json +20 -0
  46. package/locales/pl-PL/models.json +73 -4
  47. package/locales/pl-PL/providers.json +6 -0
  48. package/locales/pt-BR/error.json +1 -0
  49. package/locales/pt-BR/modelProvider.json +20 -0
  50. package/locales/pt-BR/models.json +73 -4
  51. package/locales/pt-BR/providers.json +6 -0
  52. package/locales/ru-RU/error.json +1 -0
  53. package/locales/ru-RU/modelProvider.json +20 -0
  54. package/locales/ru-RU/models.json +73 -4
  55. package/locales/ru-RU/providers.json +6 -0
  56. package/locales/tr-TR/error.json +1 -0
  57. package/locales/tr-TR/modelProvider.json +20 -0
  58. package/locales/tr-TR/models.json +73 -4
  59. package/locales/tr-TR/providers.json +6 -0
  60. package/locales/vi-VN/error.json +1 -0
  61. package/locales/vi-VN/modelProvider.json +20 -0
  62. package/locales/vi-VN/models.json +73 -4
  63. package/locales/vi-VN/providers.json +6 -0
  64. package/locales/zh-CN/error.json +1 -0
  65. package/locales/zh-CN/modelProvider.json +20 -0
  66. package/locales/zh-CN/models.json +76 -7
  67. package/locales/zh-CN/providers.json +6 -0
  68. package/locales/zh-TW/error.json +1 -0
  69. package/locales/zh-TW/modelProvider.json +20 -0
  70. package/locales/zh-TW/models.json +73 -4
  71. package/locales/zh-TW/providers.json +6 -0
  72. package/package.json +3 -2
  73. package/scripts/serverLauncher/startServer.js +10 -81
  74. package/src/app/(main)/settings/llm/ProviderList/Wenxin/index.tsx +46 -0
  75. package/src/app/(main)/settings/llm/ProviderList/providers.tsx +4 -1
  76. package/src/app/api/chat/agentRuntime.test.ts +21 -0
  77. package/src/app/api/chat/wenxin/route.test.ts +27 -0
  78. package/src/app/api/chat/wenxin/route.ts +30 -0
  79. package/src/app/api/errorResponse.ts +4 -0
  80. package/src/config/llm.ts +8 -0
  81. package/src/config/modelProviders/index.ts +4 -0
  82. package/src/config/modelProviders/wenxin.ts +159 -0
  83. package/src/const/auth.ts +4 -0
  84. package/src/const/settings/llm.ts +5 -0
  85. package/src/features/Conversation/Error/APIKeyForm/Wenxin.tsx +49 -0
  86. package/src/features/Conversation/Error/APIKeyForm/index.tsx +3 -0
  87. package/src/features/Conversation/Error/index.tsx +1 -0
  88. package/src/libs/agent-runtime/AgentRuntime.test.ts +1 -0
  89. package/src/libs/agent-runtime/error.ts +1 -0
  90. package/src/libs/agent-runtime/types/type.ts +1 -0
  91. package/src/libs/agent-runtime/utils/streams/wenxin.test.ts +149 -0
  92. package/src/libs/agent-runtime/utils/streams/wenxin.ts +46 -0
  93. package/src/libs/agent-runtime/wenxin/index.ts +106 -0
  94. package/src/libs/agent-runtime/wenxin/type.ts +84 -0
  95. package/src/locales/default/error.ts +2 -0
  96. package/src/locales/default/modelProvider.ts +20 -0
  97. package/src/server/globalConfig/index.ts +4 -1
  98. package/src/services/_auth.ts +14 -0
  99. package/src/store/user/slices/modelList/selectors/keyVaults.ts +2 -0
  100. package/src/types/user/settings/keyVaults.ts +6 -0
@@ -32,6 +32,39 @@
32
32
  "Baichuan4": {
33
33
  "description": "Das Modell hat die höchste Fähigkeit im Inland und übertrifft ausländische Mainstream-Modelle in Aufgaben wie Wissensdatenbanken, langen Texten und kreativer Generierung. Es verfügt auch über branchenführende multimodale Fähigkeiten und zeigt in mehreren autoritativen Bewertungsbenchmarks hervorragende Leistungen."
34
34
  },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "Das von Baidu entwickelte Flaggschiff-Modell für großangelegte Sprachverarbeitung, das eine riesige Menge an chinesischen und englischen Texten abdeckt. Es verfügt über starke allgemeine Fähigkeiten und kann die meisten Anforderungen an Dialogfragen, kreative Generierung und Anwendungsfälle von Plugins erfüllen. Es unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten."
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "Das von Baidu entwickelte Flaggschiff-Modell für großangelegte Sprachverarbeitung, das eine riesige Menge an chinesischen und englischen Texten abdeckt. Es verfügt über starke allgemeine Fähigkeiten und kann die meisten Anforderungen an Dialogfragen, kreative Generierung und Anwendungsfälle von Plugins erfüllen. Es unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten."
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "Das von Baidu entwickelte Flaggschiff-Modell für großangelegte Sprachverarbeitung, das eine riesige Menge an chinesischen und englischen Texten abdeckt. Es verfügt über starke allgemeine Fähigkeiten und kann die meisten Anforderungen an Dialogfragen, kreative Generierung und Anwendungsfälle von Plugins erfüllen. Es unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten."
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "Das von Baidu entwickelte Flaggschiff-Modell für ultra-große Sprachverarbeitung, das im Vergleich zu ERNIE 3.5 eine umfassende Verbesserung der Modellfähigkeiten erreicht hat und sich breit für komplexe Aufgaben in verschiedenen Bereichen eignet; unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten."
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "Das von Baidu entwickelte Flaggschiff-Modell für ultra-große Sprachverarbeitung, das im Vergleich zu ERNIE 3.5 eine umfassende Verbesserung der Modellfähigkeiten erreicht hat und sich breit für komplexe Aufgaben in verschiedenen Bereichen eignet; unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten."
49
+ },
50
+ "ERNIE-4.0-Turbo-8K": {
51
+ "description": "Das von Baidu entwickelte Flaggschiff-Modell für ultra-große Sprachverarbeitung, das in der Gesamtleistung herausragend ist und sich breit für komplexe Aufgaben in verschiedenen Bereichen eignet; unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten. Im Vergleich zu ERNIE 4.0 bietet es eine bessere Leistungsfähigkeit."
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "Das von Baidu entwickelte Flaggschiff-Modell für ultra-große Sprachverarbeitung, das in der Gesamtleistung herausragend ist und sich breit für komplexe Aufgaben in verschiedenen Bereichen eignet; unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten. Im Vergleich zu ERNIE 4.0 bietet es eine bessere Leistungsfähigkeit."
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "Das von Baidu entwickelte Sprachmodell für vertikale Szenarien, das sich für Anwendungen wie Spiel-NPCs, Kundenservice-Dialoge und Rollenspiele eignet. Es hat einen klareren und konsistenteren Charakterstil, eine stärkere Befolgung von Anweisungen und eine bessere Inferenzleistung."
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "Das von Baidu entwickelte leichte Sprachmodell, das hervorragende Modellleistung und Inferenzleistung kombiniert. Es bietet bessere Ergebnisse als ERNIE Lite und eignet sich für die Inferenznutzung auf AI-Beschleunigungskarten mit geringer Rechenleistung."
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "Das neueste von Baidu im Jahr 2024 veröffentlichte hochleistungsfähige Sprachmodell, das überragende allgemeine Fähigkeiten bietet und sich als Basis-Modell für Feinabstimmungen eignet, um spezifische Szenarien besser zu bearbeiten, und bietet gleichzeitig hervorragende Inferenzleistung."
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "Das neueste von Baidu im Jahr 2024 veröffentlichte hochleistungsfähige Sprachmodell, das überragende allgemeine Fähigkeiten bietet und bessere Ergebnisse als ERNIE Speed erzielt. Es eignet sich als Basis-Modell für Feinabstimmungen, um spezifische Szenarien besser zu bearbeiten, und bietet gleichzeitig hervorragende Inferenzleistung."
67
+ },
35
68
  "Gryphe/MythoMax-L2-13b": {
36
69
  "description": "MythoMax-L2 (13B) ist ein innovatives Modell, das sich für Anwendungen in mehreren Bereichen und komplexe Aufgaben eignet."
37
70
  },
@@ -401,6 +434,9 @@
401
434
  "glm-4-flash": {
402
435
  "description": "GLM-4-Flash ist die ideale Wahl für die Verarbeitung einfacher Aufgaben, mit der schnellsten Geschwindigkeit und dem besten Preis."
403
436
  },
437
+ "glm-4-flashx": {
438
+ "description": "GLM-4-FlashX ist eine verbesserte Version von Flash mit extrem schneller Inferenzgeschwindigkeit."
439
+ },
404
440
  "glm-4-long": {
405
441
  "description": "GLM-4-Long unterstützt extrem lange Texteingaben und eignet sich für Gedächtnisaufgaben und die Verarbeitung großer Dokumente."
406
442
  },
@@ -413,11 +449,11 @@
413
449
  "glm-4v-plus": {
414
450
  "description": "GLM-4V-Plus hat die Fähigkeit, Videoinhalte und mehrere Bilder zu verstehen und eignet sich für multimodale Aufgaben."
415
451
  },
416
- "google/gemini-flash-1.5-exp": {
417
- "description": "Gemini 1.5 Flash 0827 bietet optimierte multimodale Verarbeitungsfähigkeiten und ist für eine Vielzahl komplexer Aufgaben geeignet."
452
+ "google/gemini-flash-1.5": {
453
+ "description": "Gemini 1.5 Flash bietet optimierte multimodale Verarbeitungsfähigkeiten, die für verschiedene komplexe Aufgabenszenarien geeignet sind."
418
454
  },
419
- "google/gemini-pro-1.5-exp": {
420
- "description": "Gemini 1.5 Pro 0827 kombiniert die neuesten Optimierungstechnologien und bietet effizientere multimodale Datenverarbeitungsfähigkeiten."
455
+ "google/gemini-pro-1.5": {
456
+ "description": "Gemini 1.5 Pro kombiniert die neuesten Optimierungstechnologien und bietet eine effizientere Verarbeitung multimodaler Daten."
421
457
  },
422
458
  "google/gemma-2-27b-it": {
423
459
  "description": "Gemma 2 setzt das Designkonzept von Leichtbau und Effizienz fort."
@@ -491,6 +527,33 @@
491
527
  "gryphe/mythomax-l2-13b": {
492
528
  "description": "MythoMax l2 13B ist ein Sprachmodell, das Kreativität und Intelligenz kombiniert und mehrere führende Modelle integriert."
493
529
  },
530
+ "hunyuan-code": {
531
+ "description": "Das neueste Code-Generierungsmodell von Hunyuan, das auf einem Basismodell mit 200B hochwertigen Code-Daten trainiert wurde, hat ein halbes Jahr lang mit hochwertigen SFT-Daten trainiert, das Kontextfenster auf 8K erhöht und belegt in den automatischen Bewertungsmetriken für die fünf großen Programmiersprachen Spitzenplätze; in den zehn Aspekten der umfassenden Codeaufgabenbewertung für die fünf großen Sprachen liegt die Leistung in der ersten Reihe."
532
+ },
533
+ "hunyuan-functioncall": {
534
+ "description": "Das neueste MOE-Architektur-FunctionCall-Modell von Hunyuan, das mit hochwertigen FunctionCall-Daten trainiert wurde, hat ein Kontextfenster von 32K und führt in mehreren Bewertungsmetriken."
535
+ },
536
+ "hunyuan-lite": {
537
+ "description": "Aufgerüstet auf eine MOE-Struktur mit einem Kontextfenster von 256k, führt es in mehreren Bewertungssets in NLP, Code, Mathematik und Industrie zahlreiche Open-Source-Modelle an."
538
+ },
539
+ "hunyuan-pro": {
540
+ "description": "Ein MOE-32K-Modell für lange Texte mit einer Billion Parametern. Es erreicht in verschiedenen Benchmarks ein absolut führendes Niveau, hat komplexe Anweisungen und Schlussfolgerungen, verfügt über komplexe mathematische Fähigkeiten und unterstützt Funktionsaufrufe, mit Schwerpunkt auf Optimierung in den Bereichen mehrsprachige Übersetzung, Finanzrecht und Medizin."
541
+ },
542
+ "hunyuan-role": {
543
+ "description": "Das neueste Rollenspielmodell von Hunyuan, das auf dem offiziellen feinabgestimmten Training von Hunyuan basiert, wurde mit einem Datensatz für Rollenspiel-Szenarien weiter trainiert und bietet in Rollenspiel-Szenarien bessere Grundeffekte."
544
+ },
545
+ "hunyuan-standard": {
546
+ "description": "Verwendet eine verbesserte Routing-Strategie und mildert gleichzeitig die Probleme der Lastenverteilung und Expertenkonvergenz. Bei langen Texten erreicht der Needle-in-a-Haystack-Indikator 99,9%. MOE-32K bietet ein besseres Preis-Leistungs-Verhältnis und ermöglicht die Verarbeitung von langen Texteingaben bei ausgewogenem Effekt und Preis."
547
+ },
548
+ "hunyuan-standard-256K": {
549
+ "description": "Verwendet eine verbesserte Routing-Strategie und mildert gleichzeitig die Probleme der Lastenverteilung und Expertenkonvergenz. Bei langen Texten erreicht der Needle-in-a-Haystack-Indikator 99,9%. MOE-256K bricht in Länge und Effektivität weiter durch und erweitert die eingabefähige Länge erheblich."
550
+ },
551
+ "hunyuan-turbo": {
552
+ "description": "Die Vorschauversion des neuen großen Sprachmodells von Hunyuan verwendet eine neuartige hybride Expertenmodellstruktur (MoE) und bietet im Vergleich zu Hunyuan-Pro eine schnellere Inferenz und bessere Leistung."
553
+ },
554
+ "hunyuan-vision": {
555
+ "description": "Das neueste multimodale Modell von Hunyuan unterstützt die Eingabe von Bildern und Text zur Generierung von Textinhalten."
556
+ },
494
557
  "internlm/internlm2_5-20b-chat": {
495
558
  "description": "Das innovative Open-Source-Modell InternLM2.5 hat durch eine große Anzahl von Parametern die Dialogintelligenz erhöht."
496
559
  },
@@ -634,6 +697,12 @@
634
697
  "meta-llama/llama-3.1-8b-instruct:free": {
635
698
  "description": "LLaMA 3.1 bietet Unterstützung für mehrere Sprachen und gehört zu den führenden generativen Modellen der Branche."
636
699
  },
700
+ "meta-llama/llama-3.2-11b-vision-instruct": {
701
+ "description": "LLaMA 3.2 ist darauf ausgelegt, Aufgaben zu bearbeiten, die visuelle und textuelle Daten kombinieren. Es zeigt hervorragende Leistungen bei Aufgaben wie Bildbeschreibung und visuellem Fragen und Antworten und überbrückt die Kluft zwischen Sprachgenerierung und visueller Schlussfolgerung."
702
+ },
703
+ "meta-llama/llama-3.2-90b-vision-instruct": {
704
+ "description": "LLaMA 3.2 ist darauf ausgelegt, Aufgaben zu bearbeiten, die visuelle und textuelle Daten kombinieren. Es zeigt hervorragende Leistungen bei Aufgaben wie Bildbeschreibung und visuellem Fragen und Antworten und überbrückt die Kluft zwischen Sprachgenerierung und visueller Schlussfolgerung."
705
+ },
637
706
  "meta.llama3-1-405b-instruct-v1:0": {
638
707
  "description": "Meta Llama 3.1 405B Instruct ist das größte und leistungsstärkste Modell innerhalb des Llama 3.1 Instruct Modells. Es handelt sich um ein hochentwickeltes Modell für dialogbasierte Schlussfolgerungen und die Generierung synthetischer Daten, das auch als Grundlage für die professionelle kontinuierliche Vorab- und Feinabstimmung in bestimmten Bereichen verwendet werden kann. Die mehrsprachigen großen Sprachmodelle (LLMs) von Llama 3.1 sind eine Gruppe von vortrainierten, anweisungsoptimierten Generierungsmodellen, die in den Größen 8B, 70B und 405B (Text-Eingabe/Ausgabe) verfügbar sind. Die anweisungsoptimierten Textmodelle (8B, 70B, 405B) sind speziell für mehrsprachige Dialoganwendungen optimiert und haben in gängigen Branchenbenchmarks viele verfügbare Open-Source-Chat-Modelle übertroffen. Llama 3.1 ist für kommerzielle und Forschungszwecke in mehreren Sprachen konzipiert. Die anweisungsoptimierten Textmodelle eignen sich für assistentengleiche Chats, während die vortrainierten Modelle für verschiedene Aufgaben der natürlichen Sprachgenerierung angepasst werden können. Das Llama 3.1 Modell unterstützt auch die Nutzung seiner Ausgaben zur Verbesserung anderer Modelle, einschließlich der Generierung synthetischer Daten und der Verfeinerung. Llama 3.1 ist ein autoregressives Sprachmodell, das auf einer optimierten Transformer-Architektur basiert. Die angepasste Version verwendet überwachte Feinabstimmung (SFT) und verstärkendes Lernen mit menschlichem Feedback (RLHF), um den menschlichen Präferenzen für Hilfsbereitschaft und Sicherheit zu entsprechen."
639
708
  },
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Der LPU-Inferenz-Engine von Groq hat in den neuesten unabhängigen Benchmark-Tests für große Sprachmodelle (LLM) hervorragende Leistungen gezeigt und definiert mit seiner erstaunlichen Geschwindigkeit und Effizienz die Standards für KI-Lösungen neu. Groq ist ein Beispiel für sofortige Inferenzgeschwindigkeit und zeigt in cloudbasierten Bereitstellungen eine gute Leistung."
32
32
  },
33
+ "hunyuan": {
34
+ "description": "Ein von Tencent entwickeltes großes Sprachmodell, das über starke Fähigkeiten zur Erstellung von Inhalten in chinesischer Sprache, logisches Denkvermögen in komplexen Kontexten und zuverlässige Fähigkeiten zur Aufgabenerfüllung verfügt."
35
+ },
33
36
  "minimax": {
34
37
  "description": "MiniMax ist ein im Jahr 2021 gegründetes Unternehmen für allgemeine künstliche Intelligenz, das sich der gemeinsamen Schaffung von Intelligenz mit den Nutzern widmet. MiniMax hat verschiedene multimodale allgemeine große Modelle entwickelt, darunter ein Textmodell mit Billionen von Parametern, ein Sprachmodell und ein Bildmodell. Außerdem wurden Anwendungen wie Conch AI eingeführt."
35
38
  },
@@ -75,6 +78,9 @@
75
78
  "upstage": {
76
79
  "description": "Upstage konzentriert sich auf die Entwicklung von KI-Modellen für verschiedene geschäftliche Anforderungen, einschließlich Solar LLM und Dokumenten-KI, mit dem Ziel, künstliche allgemeine Intelligenz (AGI) zu erreichen. Es ermöglicht die Erstellung einfacher Dialogagenten über die Chat-API und unterstützt Funktionsaufrufe, Übersetzungen, Einbettungen und spezifische Anwendungsbereiche."
77
80
  },
81
+ "wenxin": {
82
+ "description": "Eine unternehmensweite, umfassende Plattform für die Entwicklung und den Service von großen Modellen und KI-nativen Anwendungen, die die vollständigsten und benutzerfreundlichsten Werkzeuge für die Entwicklung generativer KI-Modelle und den gesamten Anwendungsentwicklungsprozess bietet."
83
+ },
78
84
  "zeroone": {
79
85
  "description": "01.AI konzentriert sich auf die künstliche Intelligenz-Technologie der AI 2.0-Ära und fördert aktiv die Innovation und Anwendung von 'Mensch + künstliche Intelligenz', indem sie leistungsstarke Modelle und fortschrittliche KI-Technologien einsetzt, um die Produktivität der Menschen zu steigern und technologische Befähigung zu erreichen."
80
86
  },
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "Plugin server request returned an error. Please check your plugin manifest file, plugin configuration, or server implementation based on the error information below",
82
82
  "PluginSettingsInvalid": "This plugin needs to be correctly configured before it can be used. Please check if your configuration is correct",
83
83
  "ProviderBizError": "Error requesting {{provider}} service, please troubleshoot or retry based on the following information",
84
+ "QuotaLimitReached": "We apologize, but the current token usage or number of requests has reached the quota limit for this key. Please increase the quota for this key or try again later.",
84
85
  "StreamChunkError": "Error parsing the message chunk of the streaming request. Please check if the current API interface complies with the standard specifications, or contact your API provider for assistance.",
85
86
  "SubscriptionPlanLimit": "Your subscription limit has been reached, and you cannot use this feature. Please upgrade to a higher plan or purchase a resource pack to continue using it.",
86
87
  "UnknownChatFetchError": "Sorry, an unknown request error occurred. Please check the information below or try again."
@@ -112,6 +112,26 @@
112
112
  "title": "Download specified Ollama model"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "Enter the Access Key from the Baidu Qianfan platform",
118
+ "placeholder": "Qianfan Access Key",
119
+ "title": "Access Key"
120
+ },
121
+ "checker": {
122
+ "desc": "Test if the Access Key / Secret Access is filled in correctly"
123
+ },
124
+ "secretKey": {
125
+ "desc": "Enter the Secret Key from the Baidu Qianfan platform",
126
+ "placeholder": "Qianfan Secret Key",
127
+ "title": "Secret Key"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "Custom Service Region",
131
+ "description": "Input your Access Key / Secret Key to start the session. The application will not record your authentication configuration.",
132
+ "title": "Use Custom Wenxin Yiyan Authentication Information"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI Zero One Everything"
117
137
  },
@@ -32,6 +32,39 @@
32
32
  "Baichuan4": {
33
33
  "description": "The model is the best in the country, surpassing mainstream foreign models in Chinese tasks such as knowledge encyclopedias, long texts, and creative generation. It also boasts industry-leading multimodal capabilities, excelling in multiple authoritative evaluation benchmarks."
34
34
  },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "Baidu's self-developed flagship large-scale language model, covering a vast amount of Chinese and English corpus. It possesses strong general capabilities, meeting the requirements for most dialogue Q&A, creative generation, and plugin application scenarios; it supports automatic integration with Baidu's search plugin to ensure the timeliness of Q&A information."
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "Baidu's self-developed flagship large-scale language model, covering a vast amount of Chinese and English corpus. It possesses strong general capabilities, meeting the requirements for most dialogue Q&A, creative generation, and plugin application scenarios; it supports automatic integration with Baidu's search plugin to ensure the timeliness of Q&A information."
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "Baidu's self-developed flagship large-scale language model, covering a vast amount of Chinese and English corpus. It possesses strong general capabilities, meeting the requirements for most dialogue Q&A, creative generation, and plugin application scenarios; it supports automatic integration with Baidu's search plugin to ensure the timeliness of Q&A information."
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "Baidu's self-developed flagship ultra-large-scale language model, which has achieved a comprehensive upgrade in model capabilities compared to ERNIE 3.5, widely applicable to complex task scenarios across various fields; supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information."
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "Baidu's self-developed flagship ultra-large-scale language model, which has achieved a comprehensive upgrade in model capabilities compared to ERNIE 3.5, widely applicable to complex task scenarios across various fields; supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information."
49
+ },
50
+ "ERNIE-4.0-Turbo-8K": {
51
+ "description": "Baidu's self-developed flagship ultra-large-scale language model, demonstrating excellent overall performance, widely applicable to complex task scenarios across various fields; supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information. It outperforms ERNIE 4.0 in performance."
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "Baidu's self-developed flagship ultra-large-scale language model, demonstrating excellent overall performance, widely applicable to complex task scenarios across various fields; supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information. It outperforms ERNIE 4.0 in performance."
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "Baidu's self-developed vertical scene large language model, suitable for applications such as game NPCs, customer service dialogues, and role-playing conversations, featuring more distinct and consistent character styles, stronger adherence to instructions, and superior inference performance."
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "Baidu's self-developed lightweight large language model, balancing excellent model performance with inference efficiency, offering better results than ERNIE Lite, suitable for inference on low-power AI acceleration cards."
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "Baidu's latest self-developed high-performance large language model released in 2024, with outstanding general capabilities, suitable as a base model for fine-tuning, effectively addressing specific scenario issues while also exhibiting excellent inference performance."
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "Baidu's latest self-developed high-performance large language model released in 2024, with outstanding general capabilities, providing better results than ERNIE Speed, suitable as a base model for fine-tuning, effectively addressing specific scenario issues while also exhibiting excellent inference performance."
67
+ },
35
68
  "Gryphe/MythoMax-L2-13b": {
36
69
  "description": "MythoMax-L2 (13B) is an innovative model suitable for multi-domain applications and complex tasks."
37
70
  },
@@ -401,6 +434,9 @@
401
434
  "glm-4-flash": {
402
435
  "description": "GLM-4-Flash is the ideal choice for handling simple tasks, being the fastest and most cost-effective."
403
436
  },
437
+ "glm-4-flashx": {
438
+ "description": "GLM-4-FlashX is an enhanced version of Flash, featuring ultra-fast inference speed."
439
+ },
404
440
  "glm-4-long": {
405
441
  "description": "GLM-4-Long supports ultra-long text inputs, suitable for memory-based tasks and large-scale document processing."
406
442
  },
@@ -413,11 +449,11 @@
413
449
  "glm-4v-plus": {
414
450
  "description": "GLM-4V-Plus has the ability to understand video content and multiple images, suitable for multimodal tasks."
415
451
  },
416
- "google/gemini-flash-1.5-exp": {
417
- "description": "Gemini 1.5 Flash 0827 provides optimized multimodal processing capabilities, suitable for various complex task scenarios."
452
+ "google/gemini-flash-1.5": {
453
+ "description": "Gemini 1.5 Flash offers optimized multimodal processing capabilities, suitable for various complex task scenarios."
418
454
  },
419
- "google/gemini-pro-1.5-exp": {
420
- "description": "Gemini 1.5 Pro 0827 combines the latest optimization technologies to deliver more efficient multimodal data processing capabilities."
455
+ "google/gemini-pro-1.5": {
456
+ "description": "Gemini 1.5 Pro combines the latest optimization technologies to deliver more efficient multimodal data processing capabilities."
421
457
  },
422
458
  "google/gemma-2-27b-it": {
423
459
  "description": "Gemma 2 continues the design philosophy of being lightweight and efficient."
@@ -491,6 +527,33 @@
491
527
  "gryphe/mythomax-l2-13b": {
492
528
  "description": "MythoMax l2 13B is a language model that combines creativity and intelligence by merging multiple top models."
493
529
  },
530
+ "hunyuan-code": {
531
+ "description": "The latest code generation model from Hunyuan, trained on a base model with 200B high-quality code data, iteratively trained for six months with high-quality SFT data, increasing the context window length to 8K. It ranks among the top in automatic evaluation metrics for code generation across five major programming languages, and performs in the first tier for comprehensive human quality assessments across ten aspects of coding tasks."
532
+ },
533
+ "hunyuan-functioncall": {
534
+ "description": "The latest MOE architecture FunctionCall model from Hunyuan, trained on high-quality FunctionCall data, with a context window of 32K, leading in multiple dimensions of evaluation metrics."
535
+ },
536
+ "hunyuan-lite": {
537
+ "description": "Upgraded to a MOE structure with a context window of 256k, leading many open-source models in various NLP, coding, mathematics, and industry benchmarks."
538
+ },
539
+ "hunyuan-pro": {
540
+ "description": "A trillion-parameter scale MOE-32K long text model. Achieves absolute leading levels across various benchmarks, capable of handling complex instructions and reasoning, with advanced mathematical abilities, supporting function calls, and optimized for applications in multilingual translation, finance, law, and healthcare."
541
+ },
542
+ "hunyuan-role": {
543
+ "description": "The latest role-playing model from Hunyuan, fine-tuned and trained by Hunyuan's official team, based on the Hunyuan model combined with role-playing scenario datasets for enhanced foundational performance in role-playing contexts."
544
+ },
545
+ "hunyuan-standard": {
546
+ "description": "Utilizes a superior routing strategy while alleviating issues of load balancing and expert convergence. For long texts, the needle-in-a-haystack metric reaches 99.9%. MOE-32K offers a relatively higher cost-performance ratio, balancing effectiveness and price while enabling processing of long text inputs."
547
+ },
548
+ "hunyuan-standard-256K": {
549
+ "description": "Utilizes a superior routing strategy while alleviating issues of load balancing and expert convergence. For long texts, the needle-in-a-haystack metric reaches 99.9%. MOE-256K further breaks through in length and effectiveness, greatly expanding the input length capacity."
550
+ },
551
+ "hunyuan-turbo": {
552
+ "description": "The preview version of the next-generation Hunyuan large language model, featuring a brand-new mixed expert model (MoE) structure, which offers faster inference efficiency and stronger performance compared to Hunyuan Pro."
553
+ },
554
+ "hunyuan-vision": {
555
+ "description": "The latest multimodal model from Hunyuan, supporting image + text input to generate textual content."
556
+ },
494
557
  "internlm/internlm2_5-20b-chat": {
495
558
  "description": "The innovative open-source model InternLM2.5 enhances dialogue intelligence through a large number of parameters."
496
559
  },
@@ -634,6 +697,12 @@
634
697
  "meta-llama/llama-3.1-8b-instruct:free": {
635
698
  "description": "LLaMA 3.1 offers multilingual support and is one of the industry's leading generative models."
636
699
  },
700
+ "meta-llama/llama-3.2-11b-vision-instruct": {
701
+ "description": "LLaMA 3.2 is designed to handle tasks that combine visual and textual data. It excels in tasks such as image description and visual question answering, bridging the gap between language generation and visual reasoning."
702
+ },
703
+ "meta-llama/llama-3.2-90b-vision-instruct": {
704
+ "description": "LLaMA 3.2 is designed to handle tasks that combine visual and textual data. It excels in tasks such as image description and visual question answering, bridging the gap between language generation and visual reasoning."
705
+ },
637
706
  "meta.llama3-1-405b-instruct-v1:0": {
638
707
  "description": "Meta Llama 3.1 405B Instruct is the largest and most powerful model in the Llama 3.1 Instruct series. It is a highly advanced conversational reasoning and synthetic data generation model, which can also serve as a foundation for specialized continuous pre-training or fine-tuning in specific domains. The multilingual large language models (LLMs) provided by Llama 3.1 are a set of pre-trained, instruction-tuned generative models, including sizes of 8B, 70B, and 405B (text input/output). The instruction-tuned text models (8B, 70B, 405B) are optimized for multilingual conversational use cases and have outperformed many available open-source chat models in common industry benchmarks. Llama 3.1 is designed for commercial and research purposes across multiple languages. The instruction-tuned text models are suitable for assistant-like chat, while the pre-trained models can adapt to various natural language generation tasks. The Llama 3.1 models also support improving other models using their outputs, including synthetic data generation and refinement. Llama 3.1 is an autoregressive language model built using an optimized transformer architecture. The tuned versions utilize supervised fine-tuning (SFT) and reinforcement learning with human feedback (RLHF) to align with human preferences for helpfulness and safety."
639
708
  },
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Groq's LPU inference engine has excelled in the latest independent large language model (LLM) benchmarks, redefining the standards for AI solutions with its remarkable speed and efficiency. Groq represents instant inference speed, demonstrating strong performance in cloud-based deployments."
32
32
  },
33
+ "hunyuan": {
34
+ "description": "A large language model developed by Tencent, equipped with powerful Chinese creative capabilities, logical reasoning abilities in complex contexts, and reliable task execution skills."
35
+ },
33
36
  "minimax": {
34
37
  "description": "MiniMax is a general artificial intelligence technology company established in 2021, dedicated to co-creating intelligence with users. MiniMax has independently developed general large models of different modalities, including trillion-parameter MoE text models, voice models, and image models, and has launched applications such as Conch AI."
35
38
  },
@@ -75,6 +78,9 @@
75
78
  "upstage": {
76
79
  "description": "Upstage focuses on developing AI models for various business needs, including Solar LLM and document AI, aiming to achieve artificial general intelligence (AGI) for work. It allows for the creation of simple conversational agents through Chat API and supports functional calling, translation, embedding, and domain-specific applications."
77
80
  },
81
+ "wenxin": {
82
+ "description": "An enterprise-level one-stop platform for large model and AI-native application development and services, providing the most comprehensive and user-friendly toolchain for the entire process of generative artificial intelligence model development and application development."
83
+ },
78
84
  "zeroone": {
79
85
  "description": "01.AI focuses on AI 2.0 era technologies, vigorously promoting the innovation and application of 'human + artificial intelligence', using powerful models and advanced AI technologies to enhance human productivity and achieve technological empowerment."
80
86
  },
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "Error al recibir la respuesta del servidor del complemento. Verifique el archivo de descripción del complemento, la configuración del complemento o la implementación del servidor según la información de error a continuación",
82
82
  "PluginSettingsInvalid": "Este complemento necesita una configuración correcta antes de poder usarse. Verifique si su configuración es correcta",
83
83
  "ProviderBizError": "Se produjo un error al solicitar el servicio de {{provider}}, por favor, revise la siguiente información o inténtelo de nuevo",
84
+ "QuotaLimitReached": "Lo sentimos, el uso actual de tokens o el número de solicitudes ha alcanzado el límite de cuota de esta clave. Por favor, aumenta la cuota de esta clave o intenta de nuevo más tarde.",
84
85
  "StreamChunkError": "Error de análisis del bloque de mensajes de la solicitud en streaming. Por favor, verifica si la API actual cumple con las normas estándar o contacta a tu proveedor de API para más información.",
85
86
  "SubscriptionPlanLimit": "Has alcanzado el límite de tu suscripción y no puedes utilizar esta función. Por favor, actualiza a un plan superior o compra un paquete de recursos para seguir utilizando.",
86
87
  "UnknownChatFetchError": "Lo sentimos, se ha producido un error desconocido en la solicitud. Por favor, verifica la información a continuación o intenta de nuevo."
@@ -112,6 +112,26 @@
112
112
  "title": "Download specified Ollama model"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "Introduce la Access Key de la plataforma Qianfan de Baidu",
118
+ "placeholder": "Access Key de Qianfan",
119
+ "title": "Access Key"
120
+ },
121
+ "checker": {
122
+ "desc": "Verifica si la AccessKey / SecretAccess está correctamente ingresada"
123
+ },
124
+ "secretKey": {
125
+ "desc": "Introduce la Secret Key de la plataforma Qianfan de Baidu",
126
+ "placeholder": "Secret Key de Qianfan",
127
+ "title": "Secret Key"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "Región de servicio personalizada",
131
+ "description": "Introduce tu AccessKey / SecretKey para comenzar la sesión. La aplicación no registrará tu configuración de autenticación",
132
+ "title": "Usar información de autenticación personalizada de Wenxin Yiyan"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI Cero Uno Todo"
117
137
  },
@@ -32,6 +32,39 @@
32
32
  "Baichuan4": {
33
33
  "description": "El modelo tiene la mejor capacidad en el país, superando a los modelos principales extranjeros en tareas en chino como enciclopedias, textos largos y creación generativa. También cuenta con capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de referencia autorizadas."
34
34
  },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "Modelo de lenguaje a gran escala de primera línea desarrollado por Baidu, que abarca una vasta cantidad de corpus en chino y en inglés, con potentes capacidades generales que pueden satisfacer la mayoría de los requisitos de preguntas y respuestas en diálogos, generación de contenido y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas."
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "Modelo de lenguaje a gran escala de primera línea desarrollado por Baidu, que abarca una vasta cantidad de corpus en chino y en inglés, con potentes capacidades generales que pueden satisfacer la mayoría de los requisitos de preguntas y respuestas en diálogos, generación de contenido y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas."
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "Modelo de lenguaje a gran escala de primera línea desarrollado por Baidu, que abarca una vasta cantidad de corpus en chino y en inglés, con potentes capacidades generales que pueden satisfacer la mayoría de los requisitos de preguntas y respuestas en diálogos, generación de contenido y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas."
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, que ha logrado una actualización completa de las capacidades del modelo en comparación con ERNIE 3.5, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas."
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, que ha logrado una actualización completa de las capacidades del modelo en comparación con ERNIE 3.5, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas."
49
+ },
50
+ "ERNIE-4.0-Turbo-8K": {
51
+ "description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, con un rendimiento excepcional en efectos generales, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas. En comparación con ERNIE 4.0, ofrece un rendimiento superior."
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, con un rendimiento excepcional en efectos generales, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas. En comparación con ERNIE 4.0, ofrece un rendimiento superior."
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "Modelo de lenguaje vertical desarrollado por Baidu, adecuado para aplicaciones como NPC en juegos, diálogos de servicio al cliente, y juegos de rol conversacionales, con un estilo de personaje más distintivo y coherente, y una mayor capacidad de seguir instrucciones, además de un rendimiento de inferencia superior."
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "Modelo de lenguaje ligero desarrollado por Baidu, que combina un excelente rendimiento del modelo con una alta eficiencia de inferencia, superando a ERNIE Lite, adecuado para su uso en tarjetas de aceleración de IA de bajo consumo."
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "Modelo de lenguaje de alto rendimiento desarrollado por Baidu, lanzado en 2024, con capacidades generales excepcionales, adecuado como modelo base para ajustes finos, manejando mejor problemas en escenarios específicos, y con un rendimiento de inferencia excelente."
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "Modelo de lenguaje de alto rendimiento desarrollado por Baidu, lanzado en 2024, con capacidades generales excepcionales, superando a ERNIE Speed, adecuado como modelo base para ajustes finos, manejando mejor problemas en escenarios específicos, y con un rendimiento de inferencia excelente."
67
+ },
35
68
  "Gryphe/MythoMax-L2-13b": {
36
69
  "description": "MythoMax-L2 (13B) es un modelo innovador, adecuado para aplicaciones en múltiples campos y tareas complejas."
37
70
  },
@@ -401,6 +434,9 @@
401
434
  "glm-4-flash": {
402
435
  "description": "GLM-4-Flash es la opción ideal para tareas simples, con la velocidad más rápida y el precio más bajo."
403
436
  },
437
+ "glm-4-flashx": {
438
+ "description": "GLM-4-FlashX es una versión mejorada de Flash, con una velocidad de inferencia ultrarrápida."
439
+ },
404
440
  "glm-4-long": {
405
441
  "description": "GLM-4-Long admite entradas de texto extremadamente largas, adecuado para tareas de memoria y procesamiento de documentos a gran escala."
406
442
  },
@@ -413,11 +449,11 @@
413
449
  "glm-4v-plus": {
414
450
  "description": "GLM-4V-Plus tiene la capacidad de entender contenido de video y múltiples imágenes, adecuado para tareas multimodales."
415
451
  },
416
- "google/gemini-flash-1.5-exp": {
417
- "description": "Gemini 1.5 Flash 0827 ofrece capacidades de procesamiento multimodal optimizadas, adecuadas para una variedad de escenarios de tareas complejas."
452
+ "google/gemini-flash-1.5": {
453
+ "description": "Gemini 1.5 Flash ofrece capacidades de procesamiento multimodal optimizadas, adecuadas para una variedad de escenarios de tareas complejas."
418
454
  },
419
- "google/gemini-pro-1.5-exp": {
420
- "description": "Gemini 1.5 Pro 0827 combina las últimas tecnologías de optimización, ofreciendo una capacidad de procesamiento de datos multimodal más eficiente."
455
+ "google/gemini-pro-1.5": {
456
+ "description": "Gemini 1.5 Pro combina las últimas tecnologías de optimización, proporcionando una capacidad de procesamiento de datos multimodal más eficiente."
421
457
  },
422
458
  "google/gemma-2-27b-it": {
423
459
  "description": "Gemma 2 continúa con el concepto de diseño ligero y eficiente."
@@ -491,6 +527,33 @@
491
527
  "gryphe/mythomax-l2-13b": {
492
528
  "description": "MythoMax l2 13B es un modelo de lenguaje que combina creatividad e inteligencia, fusionando múltiples modelos de vanguardia."
493
529
  },
530
+ "hunyuan-code": {
531
+ "description": "El último modelo de generación de código de Hunyuan, entrenado con 200B de datos de código de alta calidad, con medio año de entrenamiento de datos SFT de alta calidad, aumentando la longitud de la ventana de contexto a 8K, destacándose en métricas automáticas de generación de código en cinco lenguajes; en evaluaciones de calidad humana de tareas de código en diez aspectos en cinco lenguajes, su rendimiento se encuentra en la primera categoría."
532
+ },
533
+ "hunyuan-functioncall": {
534
+ "description": "El último modelo FunctionCall de Hunyuan con arquitectura MOE, entrenado con datos de FunctionCall de alta calidad, con una ventana de contexto de 32K, liderando en múltiples dimensiones de métricas de evaluación."
535
+ },
536
+ "hunyuan-lite": {
537
+ "description": "Actualizado a una estructura MOE, con una ventana de contexto de 256k, lidera en múltiples conjuntos de evaluación en NLP, código, matemáticas, industria y más, superando a muchos modelos de código abierto."
538
+ },
539
+ "hunyuan-pro": {
540
+ "description": "Modelo de texto largo MOE-32K con un tamaño de parámetros de billones. Alcanzando niveles de liderazgo absoluto en varios benchmarks, con capacidades complejas de instrucciones y razonamiento, habilidades matemáticas complejas, soporte para llamadas a funciones, optimizado para aplicaciones en traducción multilingüe, finanzas, derecho y medicina."
541
+ },
542
+ "hunyuan-role": {
543
+ "description": "El último modelo de rol de Hunyuan, un modelo de rol ajustado y entrenado oficialmente por Hunyuan, que se basa en el modelo Hunyuan y se entrena con un conjunto de datos de escenarios de rol, logrando un mejor rendimiento en escenarios de rol."
544
+ },
545
+ "hunyuan-standard": {
546
+ "description": "Adopta una estrategia de enrutamiento mejorada, al tiempo que mitiga problemas de equilibrio de carga y convergencia de expertos. En el caso de textos largos, el índice de precisión alcanza el 99.9%. MOE-32K ofrece una mejor relación calidad-precio, equilibrando efectividad y costo, permitiendo el procesamiento de entradas de texto largo."
547
+ },
548
+ "hunyuan-standard-256K": {
549
+ "description": "Adopta una estrategia de enrutamiento mejorada, al tiempo que mitiga problemas de equilibrio de carga y convergencia de expertos. En el caso de textos largos, el índice de precisión alcanza el 99.9%. MOE-256K rompe barreras en longitud y efectividad, ampliando enormemente la longitud de entrada permitida."
550
+ },
551
+ "hunyuan-turbo": {
552
+ "description": "Versión preliminar de la nueva generación del modelo de lenguaje de Hunyuan, que utiliza una nueva estructura de modelo de expertos mixtos (MoE), con una eficiencia de inferencia más rápida y un rendimiento más fuerte en comparación con Hunyuan-Pro."
553
+ },
554
+ "hunyuan-vision": {
555
+ "description": "El último modelo multimodal de Hunyuan, que admite la entrada de imágenes y texto para generar contenido textual."
556
+ },
494
557
  "internlm/internlm2_5-20b-chat": {
495
558
  "description": "El innovador modelo de código abierto InternLM2.5 mejora la inteligencia del diálogo mediante un gran número de parámetros."
496
559
  },
@@ -634,6 +697,12 @@
634
697
  "meta-llama/llama-3.1-8b-instruct:free": {
635
698
  "description": "LLaMA 3.1 ofrece soporte multilingüe y es uno de los modelos generativos más avanzados de la industria."
636
699
  },
700
+ "meta-llama/llama-3.2-11b-vision-instruct": {
701
+ "description": "LLaMA 3.2 está diseñado para manejar tareas que combinan datos visuales y textuales. Destaca en tareas como la descripción de imágenes y preguntas visuales, superando la brecha entre la generación de lenguaje y el razonamiento visual."
702
+ },
703
+ "meta-llama/llama-3.2-90b-vision-instruct": {
704
+ "description": "LLaMA 3.2 está diseñado para manejar tareas que combinan datos visuales y textuales. Destaca en tareas como la descripción de imágenes y preguntas visuales, superando la brecha entre la generación de lenguaje y el razonamiento visual."
705
+ },
637
706
  "meta.llama3-1-405b-instruct-v1:0": {
638
707
  "description": "Meta Llama 3.1 405B Instruct es el modelo más grande y potente de la serie Llama 3.1 Instruct, un modelo de generación de datos de diálogo y razonamiento altamente avanzado, que también puede servir como base para un preentrenamiento o ajuste fino especializado en dominios específicos. Los modelos de lenguaje de gran tamaño (LLMs) multilingües que ofrece Llama 3.1 son un conjunto de modelos generativos preentrenados y ajustados por instrucciones, que incluyen tamaños de 8B, 70B y 405B (entrada/salida de texto). Los modelos de texto ajustados por instrucciones de Llama 3.1 (8B, 70B, 405B) están optimizados para casos de uso de diálogo multilingüe y superan a muchos modelos de chat de código abierto disponibles en pruebas de referencia de la industria. Llama 3.1 está diseñado para usos comerciales y de investigación en múltiples idiomas. Los modelos de texto ajustados por instrucciones son adecuados para chats similares a asistentes, mientras que los modelos preentrenados pueden adaptarse a diversas tareas de generación de lenguaje natural. El modelo Llama 3.1 también admite el uso de su salida para mejorar otros modelos, incluida la generación de datos sintéticos y el refinamiento. Llama 3.1 es un modelo de lenguaje autorregresivo que utiliza una arquitectura de transformador optimizada. Las versiones ajustadas utilizan ajuste fino supervisado (SFT) y aprendizaje por refuerzo con retroalimentación humana (RLHF) para alinearse con las preferencias humanas de ayuda y seguridad."
639
708
  },
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "El motor de inferencia LPU de Groq ha demostrado un rendimiento excepcional en las pruebas de referencia de modelos de lenguaje de gran tamaño (LLM), redefiniendo los estándares de soluciones de IA con su asombrosa velocidad y eficiencia. Groq es un referente en velocidad de inferencia instantánea, mostrando un buen rendimiento en implementaciones basadas en la nube."
32
32
  },
33
+ "hunyuan": {
34
+ "description": "Un modelo de lenguaje desarrollado por Tencent, que posee una poderosa capacidad de creación en chino, habilidades de razonamiento lógico en contextos complejos y una capacidad confiable para ejecutar tareas."
35
+ },
33
36
  "minimax": {
34
37
  "description": "MiniMax es una empresa de tecnología de inteligencia artificial general fundada en 2021, dedicada a co-crear inteligencia con los usuarios. MiniMax ha desarrollado de forma independiente modelos de gran tamaño de diferentes modalidades, que incluyen un modelo de texto MoE de un billón de parámetros, un modelo de voz y un modelo de imagen. También ha lanzado aplicaciones como Conch AI."
35
38
  },
@@ -75,6 +78,9 @@
75
78
  "upstage": {
76
79
  "description": "Upstage se centra en desarrollar modelos de IA para diversas necesidades comerciales, incluidos Solar LLM y Document AI, con el objetivo de lograr una inteligencia general artificial (AGI) que trabaje para las personas. Crea agentes de diálogo simples a través de la API de Chat y admite llamadas de funciones, traducción, incrustaciones y aplicaciones de dominio específico."
77
80
  },
81
+ "wenxin": {
82
+ "description": "Plataforma de desarrollo y servicios de modelos grandes y aplicaciones nativas de IA de nivel empresarial, que ofrece la cadena de herramientas más completa y fácil de usar para el desarrollo de modelos de inteligencia artificial generativa y el desarrollo de aplicaciones en todo el proceso."
83
+ },
78
84
  "zeroone": {
79
85
  "description": "01.AI se centra en la tecnología de inteligencia artificial de la era 2.0, promoviendo enérgicamente la innovación y aplicación de 'humano + inteligencia artificial', utilizando modelos extremadamente potentes y tecnologías de IA avanzadas para mejorar la productividad humana y lograr el empoderamiento tecnológico."
80
86
  },
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "Erreur de réponse du serveur du plugin. Veuillez vérifier le fichier de description du plugin, la configuration du plugin ou la mise en œuvre côté serveur en fonction des informations d'erreur ci-dessous",
82
82
  "PluginSettingsInvalid": "Ce plugin doit être correctement configuré avant de pouvoir être utilisé. Veuillez vérifier votre configuration",
83
83
  "ProviderBizError": "Erreur de service {{provider}}. Veuillez vérifier les informations suivantes ou réessayer.",
84
+ "QuotaLimitReached": "Désolé, l'utilisation actuelle des tokens ou le nombre de requêtes a atteint la limite de quota de cette clé. Veuillez augmenter le quota de cette clé ou réessayer plus tard.",
84
85
  "StreamChunkError": "Erreur de parsing du bloc de message de la requête en streaming. Veuillez vérifier si l'API actuelle respecte les normes ou contacter votre fournisseur d'API pour des conseils.",
85
86
  "SubscriptionPlanLimit": "Vous avez atteint votre limite d'abonnement et ne pouvez pas utiliser cette fonction. Veuillez passer à un plan supérieur ou acheter un pack de ressources pour continuer à l'utiliser.",
86
87
  "UnknownChatFetchError": "Désolé, une erreur de requête inconnue s'est produite. Veuillez vérifier les informations ci-dessous ou réessayer."
@@ -112,6 +112,26 @@
112
112
  "title": "Download specified Ollama model"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "Entrez la clé d'accès de la plateforme Qianfan de Baidu",
118
+ "placeholder": "Clé d'accès Qianfan",
119
+ "title": "Clé d'accès"
120
+ },
121
+ "checker": {
122
+ "desc": "Vérifiez si la clé d'accès / SecretAccess est correctement remplie"
123
+ },
124
+ "secretKey": {
125
+ "desc": "Entrez la clé secrète de la plateforme Qianfan de Baidu",
126
+ "placeholder": "Clé secrète Qianfan",
127
+ "title": "Clé secrète"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "Région de service personnalisée",
131
+ "description": "Entrez votre AccessKey / SecretKey pour commencer la session. L'application ne conservera pas votre configuration d'authentification",
132
+ "title": "Utiliser les informations d'authentification personnalisées de Wenxin Yiyan"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI Zéro Un Tout"
117
137
  },