@lobehub/chat 1.57.0 → 1.58.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (114) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/docker-compose/local/docker-compose.yml +1 -0
  4. package/locales/ar/modelProvider.json +24 -0
  5. package/locales/ar/models.json +60 -0
  6. package/locales/ar/providers.json +12 -0
  7. package/locales/bg-BG/modelProvider.json +24 -0
  8. package/locales/bg-BG/models.json +60 -0
  9. package/locales/bg-BG/providers.json +12 -0
  10. package/locales/de-DE/modelProvider.json +24 -0
  11. package/locales/de-DE/models.json +60 -0
  12. package/locales/de-DE/providers.json +12 -0
  13. package/locales/en-US/modelProvider.json +24 -0
  14. package/locales/en-US/models.json +60 -0
  15. package/locales/en-US/providers.json +12 -0
  16. package/locales/es-ES/modelProvider.json +24 -0
  17. package/locales/es-ES/models.json +60 -0
  18. package/locales/es-ES/providers.json +12 -0
  19. package/locales/fa-IR/modelProvider.json +30 -0
  20. package/locales/fa-IR/models.json +60 -0
  21. package/locales/fa-IR/providers.json +12 -0
  22. package/locales/fr-FR/modelProvider.json +24 -0
  23. package/locales/fr-FR/models.json +60 -0
  24. package/locales/fr-FR/providers.json +12 -0
  25. package/locales/it-IT/modelProvider.json +24 -0
  26. package/locales/it-IT/models.json +60 -0
  27. package/locales/it-IT/providers.json +12 -0
  28. package/locales/ja-JP/modelProvider.json +24 -0
  29. package/locales/ja-JP/models.json +60 -0
  30. package/locales/ja-JP/providers.json +12 -0
  31. package/locales/ko-KR/modelProvider.json +24 -0
  32. package/locales/ko-KR/models.json +60 -0
  33. package/locales/ko-KR/providers.json +12 -0
  34. package/locales/nl-NL/modelProvider.json +24 -0
  35. package/locales/nl-NL/models.json +60 -0
  36. package/locales/nl-NL/providers.json +12 -0
  37. package/locales/pl-PL/modelProvider.json +24 -0
  38. package/locales/pl-PL/models.json +60 -0
  39. package/locales/pl-PL/providers.json +12 -0
  40. package/locales/pt-BR/modelProvider.json +24 -0
  41. package/locales/pt-BR/models.json +60 -0
  42. package/locales/pt-BR/providers.json +12 -0
  43. package/locales/ru-RU/modelProvider.json +24 -0
  44. package/locales/ru-RU/models.json +60 -0
  45. package/locales/ru-RU/providers.json +12 -0
  46. package/locales/tr-TR/modelProvider.json +30 -0
  47. package/locales/tr-TR/models.json +60 -0
  48. package/locales/tr-TR/providers.json +12 -0
  49. package/locales/vi-VN/modelProvider.json +24 -0
  50. package/locales/vi-VN/models.json +60 -0
  51. package/locales/vi-VN/providers.json +12 -0
  52. package/locales/zh-CN/modelProvider.json +24 -0
  53. package/locales/zh-CN/models.json +1112 -1052
  54. package/locales/zh-CN/providers.json +80 -68
  55. package/locales/zh-TW/modelProvider.json +24 -0
  56. package/locales/zh-TW/models.json +60 -0
  57. package/locales/zh-TW/providers.json +12 -0
  58. package/package.json +4 -2
  59. package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/FileItem/File.tsx +1 -1
  60. package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/index.tsx +19 -9
  61. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatInput/index.tsx +1 -2
  62. package/src/app/[variants]/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/Main.tsx +15 -1
  63. package/src/app/[variants]/(main)/chat/(workspace)/_layout/Mobile/ChatHeader/index.tsx +0 -2
  64. package/src/app/[variants]/(main)/chat/(workspace)/features/AgentSettings/index.tsx +1 -1
  65. package/src/app/[variants]/(main)/chat/settings/page.tsx +95 -5
  66. package/src/app/[variants]/(main)/settings/provider/(detail)/azureai/page.tsx +58 -0
  67. package/src/app/[variants]/(main)/settings/provider/features/CreateNewProvider/index.tsx +13 -2
  68. package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/Form.tsx +6 -8
  69. package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/index.tsx +5 -6
  70. package/src/app/[variants]/(main)/settings/provider/features/ModelList/ModelConfigModal/index.tsx +4 -3
  71. package/src/app/[variants]/(main)/settings/provider/features/ModelList/ProviderSettingsContext.ts +2 -0
  72. package/src/app/[variants]/(main)/settings/provider/features/ModelList/index.tsx +6 -7
  73. package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +1 -1
  74. package/src/config/aiModels/azureai.ts +18 -0
  75. package/src/config/aiModels/index.ts +3 -0
  76. package/src/config/modelProviders/azure.ts +2 -1
  77. package/src/config/modelProviders/azureai.ts +19 -0
  78. package/src/config/modelProviders/index.ts +3 -0
  79. package/src/database/server/models/aiProvider.ts +2 -0
  80. package/src/features/AgentSetting/AgentMeta/index.tsx +19 -9
  81. package/src/features/AgentSetting/AgentPrompt/index.tsx +32 -2
  82. package/src/features/AgentSetting/AgentSettings.tsx +4 -5
  83. package/src/features/AgentSetting/AgentSettingsProvider.tsx +17 -0
  84. package/src/features/AgentSetting/StoreUpdater.tsx +5 -2
  85. package/src/features/AgentSetting/index.tsx +1 -1
  86. package/src/features/AgentSetting/store/initialState.ts +2 -1
  87. package/src/hooks/useInterceptingRoutes.test.ts +1 -1
  88. package/src/hooks/useInterceptingRoutes.ts +1 -1
  89. package/src/layout/GlobalProvider/StoreInitialization.tsx +1 -1
  90. package/src/libs/agent-runtime/AgentRuntime.ts +13 -6
  91. package/src/libs/agent-runtime/azureai/index.ts +109 -0
  92. package/src/libs/agent-runtime/baichuan/index.test.ts +8 -250
  93. package/src/libs/agent-runtime/cloudflare/index.ts +22 -18
  94. package/src/libs/agent-runtime/index.ts +1 -0
  95. package/src/libs/agent-runtime/types/type.ts +1 -0
  96. package/src/libs/agent-runtime/utils/streams/__snapshots__/protocol.test.ts.snap +331 -0
  97. package/src/libs/agent-runtime/utils/streams/protocol.test.ts +137 -0
  98. package/src/libs/agent-runtime/utils/streams/protocol.ts +34 -0
  99. package/src/locales/default/modelProvider.ts +25 -0
  100. package/src/server/modules/AgentRuntime/index.ts +8 -1
  101. package/src/services/chat.ts +12 -3
  102. package/src/store/agent/slices/chat/action.test.ts +3 -3
  103. package/src/store/agent/slices/chat/action.ts +2 -5
  104. package/src/types/aiProvider.ts +1 -0
  105. package/src/types/user/settings/keyVaults.ts +1 -0
  106. package/src/app/[variants]/(main)/chat/settings/features/EditPage.tsx +0 -45
  107. package/src/features/AgentSetting/AgentSettingsStore.tsx +0 -14
  108. /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/FileItem/Image.tsx +0 -0
  109. /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/FileItem/index.tsx +0 -0
  110. /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/FileItem/style.ts +0 -0
  111. /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/index.tsx +0 -0
  112. /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/InputArea/Container.tsx +0 -0
  113. /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/InputArea/index.tsx +0 -0
  114. /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Send.tsx +0 -0
@@ -578,6 +578,9 @@
578
578
  "deepseek-ai/deepseek-llm-67b-chat": {
579
579
  "description": "DeepSeek 67B ist ein fortschrittliches Modell, das für komplexe Dialoge trainiert wurde."
580
580
  },
581
+ "deepseek-ai/deepseek-r1": {
582
+ "description": "Hochmodernes, effizientes LLM, das auf Schlussfolgern, Mathematik und Programmierung spezialisiert ist."
583
+ },
581
584
  "deepseek-ai/deepseek-vl2": {
582
585
  "description": "DeepSeek-VL2 ist ein hybrides Expertenmodell (MoE) für visuelle Sprache, das auf DeepSeekMoE-27B basiert und eine spärliche Aktivierung der MoE-Architektur verwendet, um außergewöhnliche Leistungen bei der Aktivierung von nur 4,5 Milliarden Parametern zu erzielen. Dieses Modell zeigt hervorragende Leistungen in mehreren Aufgaben, darunter visuelle Fragenbeantwortung, optische Zeichenerkennung, Dokument-/Tabellen-/Diagrammverständnis und visuelle Lokalisierung."
583
586
  },
@@ -629,6 +632,12 @@
629
632
  "deepseek/deepseek-chat": {
630
633
  "description": "Ein neues Open-Source-Modell, das allgemeine und Codefähigkeiten vereint. Es behält nicht nur die allgemeinen Dialogfähigkeiten des ursprünglichen Chat-Modells und die leistungsstarken Codeverarbeitungsfähigkeiten des Coder-Modells bei, sondern stimmt auch besser mit menschlichen Vorlieben überein. Darüber hinaus hat DeepSeek-V2.5 in vielen Bereichen wie Schreibaufgaben und Befehlsbefolgung erhebliche Verbesserungen erzielt."
631
634
  },
635
+ "deepseek/deepseek-r1": {
636
+ "description": "DeepSeek-R1 hat die Schlussfolgerungsfähigkeiten des Modells erheblich verbessert, selbst bei nur wenigen gekennzeichneten Daten. Bevor das Modell die endgültige Antwort ausgibt, gibt es zunächst eine Denkprozesskette aus, um die Genauigkeit der endgültigen Antwort zu erhöhen."
637
+ },
638
+ "deepseek/deepseek-r1:free": {
639
+ "description": "DeepSeek-R1 hat die Schlussfolgerungsfähigkeiten des Modells erheblich verbessert, selbst bei nur wenigen gekennzeichneten Daten. Bevor das Modell die endgültige Antwort ausgibt, gibt es zunächst eine Denkprozesskette aus, um die Genauigkeit der endgültigen Antwort zu erhöhen."
640
+ },
632
641
  "emohaa": {
633
642
  "description": "Emohaa ist ein psychologisches Modell mit professionellen Beratungsfähigkeiten, das den Nutzern hilft, emotionale Probleme zu verstehen."
634
643
  },
@@ -821,12 +830,18 @@
821
830
  "google/gemini-pro-1.5": {
822
831
  "description": "Gemini 1.5 Pro kombiniert die neuesten Optimierungstechnologien und bietet eine effizientere Verarbeitung multimodaler Daten."
823
832
  },
833
+ "google/gemma-2-27b": {
834
+ "description": "Gemma 2 ist ein effizientes Modell von Google, das eine Vielzahl von Anwendungsszenarien von kleinen Anwendungen bis hin zu komplexer Datenverarbeitung abdeckt."
835
+ },
824
836
  "google/gemma-2-27b-it": {
825
837
  "description": "Gemma 2 setzt das Designkonzept von Leichtbau und Effizienz fort."
826
838
  },
827
839
  "google/gemma-2-2b-it": {
828
840
  "description": "Das leichtgewichtige Anweisungsoptimierungsmodell von Google."
829
841
  },
842
+ "google/gemma-2-9b": {
843
+ "description": "Gemma 2 ist ein effizientes Modell von Google, das eine Vielzahl von Anwendungsszenarien von kleinen Anwendungen bis hin zu komplexer Datenverarbeitung abdeckt."
844
+ },
830
845
  "google/gemma-2-9b-it": {
831
846
  "description": "Gemma 2 ist eine leichtgewichtige Open-Source-Textmodellreihe von Google."
832
847
  },
@@ -998,6 +1013,9 @@
998
1013
  "internlm3-latest": {
999
1014
  "description": "Unsere neueste Modellreihe bietet herausragende Inferenzleistungen und führt die Open-Source-Modelle in ihrer Gewichtsklasse an. Standardmäßig verweist sie auf unser neuestes veröffentlichtes InternLM3-Modell."
1000
1015
  },
1016
+ "jina-deepsearch-v1": {
1017
+ "description": "Die Tiefensuche kombiniert Websuche, Lesen und Schlussfolgern und ermöglicht umfassende Untersuchungen. Sie können es als einen Agenten betrachten, der Ihre Forschungsaufgaben übernimmt – er führt eine umfassende Suche durch und iteriert mehrfach, bevor er eine Antwort gibt. Dieser Prozess umfasst kontinuierliche Forschung, Schlussfolgerungen und die Lösung von Problemen aus verschiedenen Perspektiven. Dies unterscheidet sich grundlegend von den Standard-Großmodellen, die Antworten direkt aus vortrainierten Daten generieren, sowie von traditionellen RAG-Systemen, die auf einmaligen Oberflächensuchen basieren."
1018
+ },
1001
1019
  "learnlm-1.5-pro-experimental": {
1002
1020
  "description": "LearnLM ist ein experimentelles, aufgabenorientiertes Sprachmodell, das darauf trainiert wurde, den Prinzipien der Lernwissenschaft zu entsprechen und in Lehr- und Lernszenarien systematische Anweisungen zu befolgen, als Expertenmentor zu fungieren usw."
1003
1021
  },
@@ -1139,6 +1157,9 @@
1139
1157
  "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
1140
1158
  "description": "Das 405B Llama 3.1 Turbo-Modell bietet eine enorme Kapazität zur Unterstützung von Kontexten für die Verarbeitung großer Datenmengen und zeigt herausragende Leistungen in groß angelegten KI-Anwendungen."
1141
1159
  },
1160
+ "meta-llama/Meta-Llama-3.1-70B": {
1161
+ "description": "Llama 3.1 ist das führende Modell von Meta, das bis zu 405B Parameter unterstützt und in komplexen Gesprächen, mehrsprachiger Übersetzung und Datenanalyse eingesetzt werden kann."
1162
+ },
1142
1163
  "meta-llama/Meta-Llama-3.1-70B-Instruct": {
1143
1164
  "description": "LLaMA 3.1 70B bietet effiziente Dialogunterstützung in mehreren Sprachen."
1144
1165
  },
@@ -1196,6 +1217,30 @@
1196
1217
  "meta.llama3-8b-instruct-v1:0": {
1197
1218
  "description": "Meta Llama 3 ist ein offenes großes Sprachmodell (LLM), das sich an Entwickler, Forscher und Unternehmen richtet und ihnen hilft, ihre Ideen für generative KI zu entwickeln, zu experimentieren und verantwortungsbewusst zu skalieren. Als Teil eines globalen Innovationssystems ist es besonders geeignet für Umgebungen mit begrenzter Rechenleistung und Ressourcen, für Edge-Geräte und schnellere Trainingszeiten."
1198
1219
  },
1220
+ "meta/llama-3.1-405b-instruct": {
1221
+ "description": "Fortgeschrittenes LLM, das die Generierung synthetischer Daten, Wissensverdichtung und Schlussfolgerungen unterstützt, geeignet für Chatbots, Programmierung und spezifische Aufgaben."
1222
+ },
1223
+ "meta/llama-3.1-70b-instruct": {
1224
+ "description": "Ermöglicht komplexe Gespräche mit hervorragendem Kontextverständnis, Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
1225
+ },
1226
+ "meta/llama-3.1-8b-instruct": {
1227
+ "description": "Fortschrittliches, hochmodernes Modell mit Sprachverständnis, hervorragenden Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
1228
+ },
1229
+ "meta/llama-3.2-11b-vision-instruct": {
1230
+ "description": "Spitzenmäßiges visuelles Sprachmodell, das in der Lage ist, qualitativ hochwertige Schlussfolgerungen aus Bildern zu ziehen."
1231
+ },
1232
+ "meta/llama-3.2-1b-instruct": {
1233
+ "description": "Fortschrittliches, hochmodernes kleines Sprachmodell mit Sprachverständnis, hervorragenden Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
1234
+ },
1235
+ "meta/llama-3.2-3b-instruct": {
1236
+ "description": "Fortschrittliches, hochmodernes kleines Sprachmodell mit Sprachverständnis, hervorragenden Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
1237
+ },
1238
+ "meta/llama-3.2-90b-vision-instruct": {
1239
+ "description": "Spitzenmäßiges visuelles Sprachmodell, das in der Lage ist, qualitativ hochwertige Schlussfolgerungen aus Bildern zu ziehen."
1240
+ },
1241
+ "meta/llama-3.3-70b-instruct": {
1242
+ "description": "Fortschrittliches LLM, das auf Schlussfolgern, Mathematik, Allgemeinwissen und Funktionsaufrufen spezialisiert ist."
1243
+ },
1199
1244
  "microsoft/WizardLM-2-8x22B": {
1200
1245
  "description": "WizardLM 2 ist ein Sprachmodell von Microsoft AI, das in komplexen Dialogen, Mehrsprachigkeit, Inferenz und intelligenten Assistenten besonders gut abschneidet."
1201
1246
  },
@@ -1292,6 +1337,12 @@
1292
1337
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1293
1338
  "description": "Llama 3.1 Nemotron 70B ist ein von NVIDIA maßgeschneidertes großes Sprachmodell, das darauf abzielt, die Hilfsfähigkeit der von LLM generierten Antworten auf Benutzeranfragen zu verbessern. Dieses Modell hat in Benchmark-Tests wie Arena Hard, AlpacaEval 2 LC und GPT-4-Turbo MT-Bench hervorragende Leistungen gezeigt und belegt bis zum 1. Oktober 2024 den ersten Platz in allen drei automatischen Ausrichtungsbenchmarks. Das Modell wurde mit RLHF (insbesondere REINFORCE), Llama-3.1-Nemotron-70B-Reward und HelpSteer2-Preference-Prompts auf dem Llama-3.1-70B-Instruct-Modell trainiert."
1294
1339
  },
1340
+ "nvidia/llama-3.1-nemotron-51b-instruct": {
1341
+ "description": "Einzigartiges Sprachmodell, das unvergleichliche Genauigkeit und Effizienz bietet."
1342
+ },
1343
+ "nvidia/llama-3.1-nemotron-70b-instruct": {
1344
+ "description": "Llama-3.1-Nemotron-70B-Instruct ist ein von NVIDIA maßgeschneidertes großes Sprachmodell, das darauf abzielt, die Hilfsbereitschaft der von LLM generierten Antworten zu verbessern."
1345
+ },
1295
1346
  "o1": {
1296
1347
  "description": "Konzentriert sich auf fortgeschrittene Inferenz und die Lösung komplexer Probleme, einschließlich mathematischer und wissenschaftlicher Aufgaben. Besonders geeignet für Anwendungen, die ein tiefes Verständnis des Kontexts und die Abwicklung von Arbeitsabläufen erfordern."
1297
1348
  },
@@ -1406,6 +1457,15 @@
1406
1457
  "qwen/qwen-2-7b-instruct:free": {
1407
1458
  "description": "Qwen2 ist eine neue Serie großer Sprachmodelle mit stärkeren Verständnis- und Generierungsfähigkeiten."
1408
1459
  },
1460
+ "qwen/qwen2.5-7b-instruct": {
1461
+ "description": "LLM, das auf Chinesisch und Englisch ausgerichtet ist und sich auf Sprache, Programmierung, Mathematik, Schlussfolgern und andere Bereiche konzentriert."
1462
+ },
1463
+ "qwen/qwen2.5-coder-32b-instruct": {
1464
+ "description": "Fortgeschrittenes LLM, das die Codegenerierung, Schlussfolgerungen und Korrekturen unterstützt und gängige Programmiersprachen abdeckt."
1465
+ },
1466
+ "qwen/qwen2.5-coder-7b-instruct": {
1467
+ "description": "Leistungsstarkes, mittelgroßes Codierungsmodell, das 32K Kontextlängen unterstützt und in der mehrsprachigen Programmierung versiert ist."
1468
+ },
1409
1469
  "qwen2": {
1410
1470
  "description": "Qwen2 ist das neue große Sprachmodell von Alibaba, das mit hervorragender Leistung eine Vielzahl von Anwendungsanforderungen unterstützt."
1411
1471
  },
@@ -11,6 +11,9 @@
11
11
  "azure": {
12
12
  "description": "Azure bietet eine Vielzahl fortschrittlicher KI-Modelle, darunter GPT-3.5 und die neueste GPT-4-Serie, die verschiedene Datentypen und komplexe Aufgaben unterstützen und sich auf sichere, zuverlässige und nachhaltige KI-Lösungen konzentrieren."
13
13
  },
14
+ "azureai": {
15
+ "description": "Azure bietet eine Vielzahl fortschrittlicher KI-Modelle, darunter GPT-3.5 und die neueste GPT-4-Serie, die verschiedene Datentypen und komplexe Aufgaben unterstützen und sich auf sichere, zuverlässige und nachhaltige KI-Lösungen konzentrieren."
16
+ },
14
17
  "baichuan": {
15
18
  "description": "Baichuan Intelligent ist ein Unternehmen, das sich auf die Forschung und Entwicklung großer KI-Modelle spezialisiert hat. Ihre Modelle zeigen hervorragende Leistungen in chinesischen Aufgaben wie Wissensdatenbanken, Verarbeitung langer Texte und kreative Generierung und übertreffen die gängigen Modelle im Ausland. Baichuan Intelligent verfügt auch über branchenführende multimodale Fähigkeiten und hat in mehreren renommierten Bewertungen hervorragend abgeschnitten. Ihre Modelle umfassen Baichuan 4, Baichuan 3 Turbo und Baichuan 3 Turbo 128k, die jeweils für unterschiedliche Anwendungsszenarien optimiert sind und kosteneffiziente Lösungen bieten."
16
19
  },
@@ -53,6 +56,9 @@
53
56
  "internlm": {
54
57
  "description": "Eine Open-Source-Organisation, die sich der Forschung und Entwicklung von großen Modellen und Werkzeugketten widmet. Sie bietet allen KI-Entwicklern eine effiziente und benutzerfreundliche Open-Source-Plattform, die den Zugang zu den neuesten Technologien und Algorithmen für große Modelle ermöglicht."
55
58
  },
59
+ "jina": {
60
+ "description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Unsere Suchplattform umfasst Vektormodelle, Re-Ranker und kleine Sprachmodelle, die Unternehmen dabei helfen, zuverlässige und qualitativ hochwertige generative KI- und multimodale Suchanwendungen zu entwickeln."
61
+ },
56
62
  "lmstudio": {
57
63
  "description": "LM Studio ist eine Desktop-Anwendung zum Entwickeln und Experimentieren mit LLMs auf Ihrem Computer."
58
64
  },
@@ -68,6 +74,9 @@
68
74
  "novita": {
69
75
  "description": "Novita AI ist eine Plattform, die eine Vielzahl von großen Sprachmodellen und API-Diensten für die KI-Bilderzeugung anbietet, die flexibel, zuverlässig und kosteneffektiv ist. Sie unterstützt die neuesten Open-Source-Modelle wie Llama3 und Mistral und bietet umfassende, benutzerfreundliche und automatisch skalierbare API-Lösungen für die Entwicklung generativer KI-Anwendungen, die für das schnelle Wachstum von KI-Startups geeignet sind."
70
76
  },
77
+ "nvidia": {
78
+ "description": "NVIDIA NIM™ bietet Container für selbstgehostete, GPU-beschleunigte Inferenz-Mikrodienste, die die Bereitstellung von vortrainierten und benutzerdefinierten KI-Modellen in der Cloud, in Rechenzentren, auf RTX™ AI-PCs und Workstations unterstützen."
79
+ },
71
80
  "ollama": {
72
81
  "description": "Die von Ollama angebotenen Modelle decken ein breites Spektrum ab, darunter Code-Generierung, mathematische Berechnungen, mehrsprachige Verarbeitung und dialogbasierte Interaktionen, und unterstützen die vielfältigen Anforderungen an unternehmensgerechte und lokal angepasste Bereitstellungen."
73
82
  },
@@ -107,6 +116,9 @@
107
116
  "upstage": {
108
117
  "description": "Upstage konzentriert sich auf die Entwicklung von KI-Modellen für verschiedene geschäftliche Anforderungen, einschließlich Solar LLM und Dokumenten-KI, mit dem Ziel, künstliche allgemeine Intelligenz (AGI) zu erreichen. Es ermöglicht die Erstellung einfacher Dialogagenten über die Chat-API und unterstützt Funktionsaufrufe, Übersetzungen, Einbettungen und spezifische Anwendungsbereiche."
109
118
  },
119
+ "vllm": {
120
+ "description": "vLLM ist eine schnelle und benutzerfreundliche Bibliothek für LLM-Inferenz und -Dienste."
121
+ },
110
122
  "wenxin": {
111
123
  "description": "Eine unternehmensweite, umfassende Plattform für die Entwicklung und den Service von großen Modellen und KI-nativen Anwendungen, die die vollständigsten und benutzerfreundlichsten Werkzeuge für die Entwicklung generativer KI-Modelle und den gesamten Anwendungsentwicklungsprozess bietet."
112
124
  },
@@ -19,6 +19,24 @@
19
19
  "title": "API Key"
20
20
  }
21
21
  },
22
+ "azureai": {
23
+ "azureApiVersion": {
24
+ "desc": "The API version for Azure, following the YYYY-MM-DD format. Refer to the [latest version](https://learn.microsoft.com/en-us/azure/ai-services/openai/reference#chat-completions)",
25
+ "fetch": "Fetch List",
26
+ "title": "Azure API Version"
27
+ },
28
+ "endpoint": {
29
+ "desc": "Find the Azure AI model inference endpoint from the Azure AI project overview",
30
+ "placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
31
+ "title": "Azure AI Endpoint"
32
+ },
33
+ "title": "Azure OpenAI",
34
+ "token": {
35
+ "desc": "Find the API key from the Azure AI project overview",
36
+ "placeholder": "Azure Key",
37
+ "title": "Key"
38
+ }
39
+ },
22
40
  "bedrock": {
23
41
  "accessKeyId": {
24
42
  "desc": "Enter AWS Access Key Id",
@@ -97,6 +115,7 @@
97
115
  "title": "Proxy URL"
98
116
  },
99
117
  "sdkType": {
118
+ "placeholder": "openai/anthropic/azureai/ollama/...",
100
119
  "required": "Please select SDK type",
101
120
  "title": "Request Format"
102
121
  },
@@ -210,6 +229,11 @@
210
229
  "placeholder": "Please enter the model deployment name in Azure",
211
230
  "title": "Model Deployment Name"
212
231
  },
232
+ "deployName": {
233
+ "extra": "This field will be used as the model ID when sending requests",
234
+ "placeholder": "Please enter the actual deployment name or ID of the model",
235
+ "title": "Model Deployment Name"
236
+ },
213
237
  "displayName": {
214
238
  "placeholder": "Please enter the display name of the model, e.g., ChatGPT, GPT-4, etc.",
215
239
  "title": "Model Display Name"
@@ -578,6 +578,9 @@
578
578
  "deepseek-ai/deepseek-llm-67b-chat": {
579
579
  "description": "DeepSeek 67B is an advanced model trained for highly complex conversations."
580
580
  },
581
+ "deepseek-ai/deepseek-r1": {
582
+ "description": "A state-of-the-art efficient LLM skilled in reasoning, mathematics, and programming."
583
+ },
581
584
  "deepseek-ai/deepseek-vl2": {
582
585
  "description": "DeepSeek-VL2 is a mixture of experts (MoE) visual language model developed based on DeepSeekMoE-27B, employing a sparsely activated MoE architecture that achieves outstanding performance while activating only 4.5 billion parameters. This model excels in various tasks, including visual question answering, optical character recognition, document/table/chart understanding, and visual localization."
583
586
  },
@@ -629,6 +632,12 @@
629
632
  "deepseek/deepseek-chat": {
630
633
  "description": "A new open-source model that integrates general and coding capabilities, retaining the general conversational abilities of the original Chat model and the powerful code handling capabilities of the Coder model, while better aligning with human preferences. Additionally, DeepSeek-V2.5 has achieved significant improvements in writing tasks, instruction following, and more."
631
634
  },
635
+ "deepseek/deepseek-r1": {
636
+ "description": "DeepSeek-R1 significantly enhances model reasoning capabilities with minimal labeled data. Before outputting the final answer, the model first provides a chain of thought to improve the accuracy of the final response."
637
+ },
638
+ "deepseek/deepseek-r1:free": {
639
+ "description": "DeepSeek-R1 significantly enhances model reasoning capabilities with minimal labeled data. Before outputting the final answer, the model first provides a chain of thought to improve the accuracy of the final response."
640
+ },
632
641
  "emohaa": {
633
642
  "description": "Emohaa is a psychological model with professional counseling capabilities, helping users understand emotional issues."
634
643
  },
@@ -821,12 +830,18 @@
821
830
  "google/gemini-pro-1.5": {
822
831
  "description": "Gemini 1.5 Pro combines the latest optimization technologies to deliver more efficient multimodal data processing capabilities."
823
832
  },
833
+ "google/gemma-2-27b": {
834
+ "description": "Gemma 2 is an efficient model launched by Google, covering a variety of application scenarios from small applications to complex data processing."
835
+ },
824
836
  "google/gemma-2-27b-it": {
825
837
  "description": "Gemma 2 continues the design philosophy of being lightweight and efficient."
826
838
  },
827
839
  "google/gemma-2-2b-it": {
828
840
  "description": "Google's lightweight instruction-tuning model."
829
841
  },
842
+ "google/gemma-2-9b": {
843
+ "description": "Gemma 2 is an efficient model launched by Google, covering a variety of application scenarios from small applications to complex data processing."
844
+ },
830
845
  "google/gemma-2-9b-it": {
831
846
  "description": "Gemma 2 is Google's lightweight open-source text model series."
832
847
  },
@@ -998,6 +1013,9 @@
998
1013
  "internlm3-latest": {
999
1014
  "description": "Our latest model series boasts exceptional inference performance, leading the pack among open-source models of similar scale. It defaults to our most recently released InternLM3 series models."
1000
1015
  },
1016
+ "jina-deepsearch-v1": {
1017
+ "description": "DeepSearch combines web search, reading, and reasoning for comprehensive investigations. You can think of it as an agent that takes on your research tasks—it conducts extensive searches and iterates multiple times before providing answers. This process involves ongoing research, reasoning, and problem-solving from various angles. This fundamentally differs from standard large models that generate answers directly from pre-trained data and traditional RAG systems that rely on one-time surface searches."
1018
+ },
1001
1019
  "learnlm-1.5-pro-experimental": {
1002
1020
  "description": "LearnLM is an experimental, task-specific language model trained to align with learning science principles, capable of following systematic instructions in teaching and learning scenarios, acting as an expert tutor, among other roles."
1003
1021
  },
@@ -1139,6 +1157,9 @@
1139
1157
  "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
1140
1158
  "description": "The 405B Llama 3.1 Turbo model provides massive context support for big data processing, excelling in large-scale AI applications."
1141
1159
  },
1160
+ "meta-llama/Meta-Llama-3.1-70B": {
1161
+ "description": "Llama 3.1 is a leading model launched by Meta, supporting up to 405B parameters, applicable in complex conversations, multilingual translation, and data analysis."
1162
+ },
1142
1163
  "meta-llama/Meta-Llama-3.1-70B-Instruct": {
1143
1164
  "description": "LLaMA 3.1 70B offers efficient conversational support in multiple languages."
1144
1165
  },
@@ -1196,6 +1217,30 @@
1196
1217
  "meta.llama3-8b-instruct-v1:0": {
1197
1218
  "description": "Meta Llama 3 is an open large language model (LLM) aimed at developers, researchers, and enterprises, designed to help them build, experiment, and responsibly scale their generative AI ideas. As part of a foundational system for global community innovation, it is particularly suitable for those with limited computational power and resources, edge devices, and faster training times."
1198
1219
  },
1220
+ "meta/llama-3.1-405b-instruct": {
1221
+ "description": "An advanced LLM supporting synthetic data generation, knowledge distillation, and reasoning, suitable for chatbots, programming, and domain-specific tasks."
1222
+ },
1223
+ "meta/llama-3.1-70b-instruct": {
1224
+ "description": "Empowering complex conversations with exceptional context understanding, reasoning capabilities, and text generation abilities."
1225
+ },
1226
+ "meta/llama-3.1-8b-instruct": {
1227
+ "description": "An advanced cutting-edge model with language understanding, excellent reasoning capabilities, and text generation abilities."
1228
+ },
1229
+ "meta/llama-3.2-11b-vision-instruct": {
1230
+ "description": "A state-of-the-art vision-language model adept at high-quality reasoning from images."
1231
+ },
1232
+ "meta/llama-3.2-1b-instruct": {
1233
+ "description": "A cutting-edge small language model with language understanding, excellent reasoning capabilities, and text generation abilities."
1234
+ },
1235
+ "meta/llama-3.2-3b-instruct": {
1236
+ "description": "A cutting-edge small language model with language understanding, excellent reasoning capabilities, and text generation abilities."
1237
+ },
1238
+ "meta/llama-3.2-90b-vision-instruct": {
1239
+ "description": "A state-of-the-art vision-language model adept at high-quality reasoning from images."
1240
+ },
1241
+ "meta/llama-3.3-70b-instruct": {
1242
+ "description": "An advanced LLM skilled in reasoning, mathematics, common sense, and function calling."
1243
+ },
1199
1244
  "microsoft/WizardLM-2-8x22B": {
1200
1245
  "description": "WizardLM 2 is a language model provided by Microsoft AI, excelling in complex dialogues, multilingual capabilities, reasoning, and intelligent assistant tasks."
1201
1246
  },
@@ -1292,6 +1337,12 @@
1292
1337
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1293
1338
  "description": "Llama 3.1 Nemotron 70B is a large language model customized by NVIDIA, designed to enhance the helpfulness of LLM-generated responses to user queries. The model has excelled in benchmark tests such as Arena Hard, AlpacaEval 2 LC, and GPT-4-Turbo MT-Bench, ranking first in all three automatic alignment benchmarks as of October 1, 2024. The model is trained using RLHF (specifically REINFORCE), Llama-3.1-Nemotron-70B-Reward, and HelpSteer2-Preference prompts based on the Llama-3.1-70B-Instruct model."
1294
1339
  },
1340
+ "nvidia/llama-3.1-nemotron-51b-instruct": {
1341
+ "description": "A unique language model offering unparalleled accuracy and efficiency."
1342
+ },
1343
+ "nvidia/llama-3.1-nemotron-70b-instruct": {
1344
+ "description": "Llama-3.1-Nemotron-70B-Instruct is a custom large language model by NVIDIA designed to enhance the helpfulness of LLM-generated responses."
1345
+ },
1295
1346
  "o1": {
1296
1347
  "description": "Focused on advanced reasoning and solving complex problems, including mathematical and scientific tasks. It is particularly well-suited for applications that require deep contextual understanding and agent workflow."
1297
1348
  },
@@ -1406,6 +1457,15 @@
1406
1457
  "qwen/qwen-2-7b-instruct:free": {
1407
1458
  "description": "Qwen2 is a brand new series of large language models with enhanced understanding and generation capabilities."
1408
1459
  },
1460
+ "qwen/qwen2.5-7b-instruct": {
1461
+ "description": "An LLM focused on both Chinese and English, targeting language, programming, mathematics, reasoning, and more."
1462
+ },
1463
+ "qwen/qwen2.5-coder-32b-instruct": {
1464
+ "description": "An advanced LLM supporting code generation, reasoning, and debugging, covering mainstream programming languages."
1465
+ },
1466
+ "qwen/qwen2.5-coder-7b-instruct": {
1467
+ "description": "A powerful medium-sized code model supporting 32K context length, proficient in multilingual programming."
1468
+ },
1409
1469
  "qwen2": {
1410
1470
  "description": "Qwen2 is Alibaba's next-generation large-scale language model, supporting diverse application needs with excellent performance."
1411
1471
  },
@@ -11,6 +11,9 @@
11
11
  "azure": {
12
12
  "description": "Azure offers a variety of advanced AI models, including GPT-3.5 and the latest GPT-4 series, supporting various data types and complex tasks, dedicated to secure, reliable, and sustainable AI solutions."
13
13
  },
14
+ "azureai": {
15
+ "description": "Azure offers a variety of advanced AI models, including GPT-3.5 and the latest GPT-4 series, supporting multiple data types and complex tasks, dedicated to secure, reliable, and sustainable AI solutions."
16
+ },
14
17
  "baichuan": {
15
18
  "description": "Baichuan Intelligence is a company focused on the research and development of large AI models, with its models excelling in domestic knowledge encyclopedias, long text processing, and generative creation tasks in Chinese, surpassing mainstream foreign models. Baichuan Intelligence also possesses industry-leading multimodal capabilities, performing excellently in multiple authoritative evaluations. Its models include Baichuan 4, Baichuan 3 Turbo, and Baichuan 3 Turbo 128k, each optimized for different application scenarios, providing cost-effective solutions."
16
19
  },
@@ -53,6 +56,9 @@
53
56
  "internlm": {
54
57
  "description": "An open-source organization dedicated to the research and development of large model toolchains. It provides an efficient and user-friendly open-source platform for all AI developers, making cutting-edge large models and algorithm technologies easily accessible."
55
58
  },
59
+ "jina": {
60
+ "description": "Founded in 2020, Jina AI is a leading search AI company. Our search base platform includes vector models, rerankers, and small language models to help businesses build reliable and high-quality generative AI and multimodal search applications."
61
+ },
56
62
  "lmstudio": {
57
63
  "description": "LM Studio is a desktop application for developing and experimenting with LLMs on your computer."
58
64
  },
@@ -68,6 +74,9 @@
68
74
  "novita": {
69
75
  "description": "Novita AI is a platform providing a variety of large language models and AI image generation API services, flexible, reliable, and cost-effective. It supports the latest open-source models like Llama3 and Mistral, offering a comprehensive, user-friendly, and auto-scaling API solution for generative AI application development, suitable for the rapid growth of AI startups."
70
76
  },
77
+ "nvidia": {
78
+ "description": "NVIDIA NIM™ provides containers for self-hosted GPU-accelerated inference microservices, supporting the deployment of pre-trained and custom AI models in the cloud, data centers, RTX™ AI personal computers, and workstations."
79
+ },
71
80
  "ollama": {
72
81
  "description": "Ollama provides models that cover a wide range of fields, including code generation, mathematical operations, multilingual processing, and conversational interaction, catering to diverse enterprise-level and localized deployment needs."
73
82
  },
@@ -107,6 +116,9 @@
107
116
  "upstage": {
108
117
  "description": "Upstage focuses on developing AI models for various business needs, including Solar LLM and document AI, aiming to achieve artificial general intelligence (AGI) for work. It allows for the creation of simple conversational agents through Chat API and supports functional calling, translation, embedding, and domain-specific applications."
109
118
  },
119
+ "vllm": {
120
+ "description": "vLLM is a fast and easy-to-use library for LLM inference and serving."
121
+ },
110
122
  "wenxin": {
111
123
  "description": "An enterprise-level one-stop platform for large model and AI-native application development and services, providing the most comprehensive and user-friendly toolchain for the entire process of generative artificial intelligence model development and application development."
112
124
  },
@@ -19,6 +19,24 @@
19
19
  "title": "Clave API"
20
20
  }
21
21
  },
22
+ "azureai": {
23
+ "azureApiVersion": {
24
+ "desc": "Versión de la API de Azure, siguiendo el formato AAAA-MM-DD, consulta la [última versión](https://learn.microsoft.com/es-es/azure/ai-services/openai/reference#chat-completions)",
25
+ "fetch": "Obtener lista",
26
+ "title": "Versión de la API de Azure"
27
+ },
28
+ "endpoint": {
29
+ "desc": "Encuentra el punto final de inferencia del modelo de Azure AI en la descripción general del proyecto de Azure AI",
30
+ "placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
31
+ "title": "Punto final de Azure AI"
32
+ },
33
+ "title": "Azure OpenAI",
34
+ "token": {
35
+ "desc": "Encuentra la clave API en la descripción general del proyecto de Azure AI",
36
+ "placeholder": "Clave de Azure",
37
+ "title": "Clave"
38
+ }
39
+ },
22
40
  "bedrock": {
23
41
  "accessKeyId": {
24
42
  "desc": "Introduce tu AWS Access Key Id",
@@ -97,6 +115,7 @@
97
115
  "title": "Dirección del proxy"
98
116
  },
99
117
  "sdkType": {
118
+ "placeholder": "openai/anthropic/azureai/ollama/...",
100
119
  "required": "Por favor, selecciona el tipo de SDK",
101
120
  "title": "Formato de solicitud"
102
121
  },
@@ -210,6 +229,11 @@
210
229
  "placeholder": "Por favor, introduce el nombre de despliegue del modelo en Azure",
211
230
  "title": "Nombre de despliegue del modelo"
212
231
  },
232
+ "deployName": {
233
+ "extra": "Este campo se enviará como ID del modelo al hacer la solicitud",
234
+ "placeholder": "Introduce el nombre o ID real del modelo desplegado",
235
+ "title": "Nombre de despliegue del modelo"
236
+ },
213
237
  "displayName": {
214
238
  "placeholder": "Por favor, introduce el nombre de visualización del modelo, por ejemplo, ChatGPT, GPT-4, etc.",
215
239
  "title": "Nombre de visualización del modelo"
@@ -578,6 +578,9 @@
578
578
  "deepseek-ai/deepseek-llm-67b-chat": {
579
579
  "description": "DeepSeek 67B es un modelo avanzado entrenado para diálogos de alta complejidad."
580
580
  },
581
+ "deepseek-ai/deepseek-r1": {
582
+ "description": "LLM eficiente de última generación, experto en razonamiento, matemáticas y programación."
583
+ },
581
584
  "deepseek-ai/deepseek-vl2": {
582
585
  "description": "DeepSeek-VL2 es un modelo de lenguaje visual de expertos mixtos (MoE) desarrollado sobre DeepSeekMoE-27B, que utiliza una arquitectura MoE de activación dispersa, logrando un rendimiento excepcional al activar solo 4.5B de parámetros. Este modelo destaca en múltiples tareas como preguntas visuales, reconocimiento óptico de caracteres, comprensión de documentos/tablas/gráficos y localización visual."
583
586
  },
@@ -629,6 +632,12 @@
629
632
  "deepseek/deepseek-chat": {
630
633
  "description": "Un nuevo modelo de código abierto que fusiona capacidades generales y de codificación, no solo conserva la capacidad de diálogo general del modelo Chat original y la potente capacidad de procesamiento de código del modelo Coder, sino que también se alinea mejor con las preferencias humanas. Además, DeepSeek-V2.5 ha logrado mejoras significativas en tareas de escritura, seguimiento de instrucciones y más."
631
634
  },
635
+ "deepseek/deepseek-r1": {
636
+ "description": "DeepSeek-R1 mejora significativamente la capacidad de razonamiento del modelo con muy pocos datos etiquetados. Antes de proporcionar la respuesta final, el modelo genera una cadena de pensamiento para mejorar la precisión de la respuesta final."
637
+ },
638
+ "deepseek/deepseek-r1:free": {
639
+ "description": "DeepSeek-R1 mejora significativamente la capacidad de razonamiento del modelo con muy pocos datos etiquetados. Antes de proporcionar la respuesta final, el modelo genera una cadena de pensamiento para mejorar la precisión de la respuesta final."
640
+ },
632
641
  "emohaa": {
633
642
  "description": "Emohaa es un modelo psicológico con capacidades de consulta profesional, ayudando a los usuarios a comprender problemas emocionales."
634
643
  },
@@ -821,12 +830,18 @@
821
830
  "google/gemini-pro-1.5": {
822
831
  "description": "Gemini 1.5 Pro combina las últimas tecnologías de optimización, proporcionando una capacidad de procesamiento de datos multimodal más eficiente."
823
832
  },
833
+ "google/gemma-2-27b": {
834
+ "description": "Gemma 2 es un modelo eficiente lanzado por Google, que abarca una variedad de escenarios de aplicación desde aplicaciones pequeñas hasta procesamiento de datos complejos."
835
+ },
824
836
  "google/gemma-2-27b-it": {
825
837
  "description": "Gemma 2 continúa con el concepto de diseño ligero y eficiente."
826
838
  },
827
839
  "google/gemma-2-2b-it": {
828
840
  "description": "Modelo de ajuste de instrucciones ligero de Google."
829
841
  },
842
+ "google/gemma-2-9b": {
843
+ "description": "Gemma 2 es un modelo eficiente lanzado por Google, que abarca una variedad de escenarios de aplicación desde aplicaciones pequeñas hasta procesamiento de datos complejos."
844
+ },
830
845
  "google/gemma-2-9b-it": {
831
846
  "description": "Gemma 2 es una serie de modelos de texto de código abierto y ligeros de Google."
832
847
  },
@@ -998,6 +1013,9 @@
998
1013
  "internlm3-latest": {
999
1014
  "description": "Nuestra última serie de modelos, con un rendimiento de inferencia excepcional, lidera el mercado de modelos de código abierto de tamaño similar. Apunta por defecto a nuestra serie de modelos InternLM3 más reciente."
1000
1015
  },
1016
+ "jina-deepsearch-v1": {
1017
+ "description": "La búsqueda profunda combina la búsqueda en la web, la lectura y el razonamiento para realizar investigaciones exhaustivas. Puedes considerarlo como un agente que acepta tus tareas de investigación: realiza una búsqueda amplia y pasa por múltiples iteraciones antes de proporcionar una respuesta. Este proceso implica una investigación continua, razonamiento y resolución de problemas desde diferentes ángulos. Esto es fundamentalmente diferente de los grandes modelos estándar que generan respuestas directamente a partir de datos preentrenados y de los sistemas RAG tradicionales que dependen de búsquedas superficiales únicas."
1018
+ },
1001
1019
  "learnlm-1.5-pro-experimental": {
1002
1020
  "description": "LearnLM es un modelo de lenguaje experimental y específico para tareas, entrenado para cumplir con los principios de la ciencia del aprendizaje, capaz de seguir instrucciones sistemáticas en escenarios de enseñanza y aprendizaje, actuando como un tutor experto, entre otros."
1003
1021
  },
@@ -1139,6 +1157,9 @@
1139
1157
  "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
1140
1158
  "description": "El modelo Llama 3.1 Turbo de 405B proporciona un soporte de contexto de gran capacidad para el procesamiento de grandes datos, destacándose en aplicaciones de inteligencia artificial a gran escala."
1141
1159
  },
1160
+ "meta-llama/Meta-Llama-3.1-70B": {
1161
+ "description": "Llama 3.1 es el modelo líder lanzado por Meta, que soporta hasta 405B de parámetros, aplicable en diálogos complejos, traducción multilingüe y análisis de datos."
1162
+ },
1142
1163
  "meta-llama/Meta-Llama-3.1-70B-Instruct": {
1143
1164
  "description": "LLaMA 3.1 70B proporciona soporte de conversación eficiente en múltiples idiomas."
1144
1165
  },
@@ -1196,6 +1217,30 @@
1196
1217
  "meta.llama3-8b-instruct-v1:0": {
1197
1218
  "description": "Meta Llama 3 es un modelo de lenguaje de gran tamaño (LLM) abierto dirigido a desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable sus ideas de IA generativa. Como parte de un sistema base para la innovación de la comunidad global, es ideal para dispositivos de borde con recursos y capacidades computacionales limitadas, así como para tiempos de entrenamiento más rápidos."
1198
1219
  },
1220
+ "meta/llama-3.1-405b-instruct": {
1221
+ "description": "LLM avanzado, que soporta generación de datos sintéticos, destilación de conocimiento y razonamiento, adecuado para chatbots, programación y tareas de dominio específico."
1222
+ },
1223
+ "meta/llama-3.1-70b-instruct": {
1224
+ "description": "Potencia diálogos complejos, con excelente comprensión del contexto, capacidad de razonamiento y generación de texto."
1225
+ },
1226
+ "meta/llama-3.1-8b-instruct": {
1227
+ "description": "Modelo de última generación avanzado, con comprensión del lenguaje, excelente capacidad de razonamiento y generación de texto."
1228
+ },
1229
+ "meta/llama-3.2-11b-vision-instruct": {
1230
+ "description": "Modelo de visión-lenguaje de vanguardia, experto en razonamiento de alta calidad a partir de imágenes."
1231
+ },
1232
+ "meta/llama-3.2-1b-instruct": {
1233
+ "description": "Modelo de lenguaje pequeño de última generación, con comprensión del lenguaje, excelente capacidad de razonamiento y generación de texto."
1234
+ },
1235
+ "meta/llama-3.2-3b-instruct": {
1236
+ "description": "Modelo de lenguaje pequeño de última generación, con comprensión del lenguaje, excelente capacidad de razonamiento y generación de texto."
1237
+ },
1238
+ "meta/llama-3.2-90b-vision-instruct": {
1239
+ "description": "Modelo de visión-lenguaje de vanguardia, experto en razonamiento de alta calidad a partir de imágenes."
1240
+ },
1241
+ "meta/llama-3.3-70b-instruct": {
1242
+ "description": "Modelo LLM avanzado, experto en razonamiento, matemáticas, sentido común y llamadas a funciones."
1243
+ },
1199
1244
  "microsoft/WizardLM-2-8x22B": {
1200
1245
  "description": "WizardLM 2 es un modelo de lenguaje proporcionado por Microsoft AI, que destaca en diálogos complejos, multilingüismo, razonamiento y asistentes inteligentes."
1201
1246
  },
@@ -1292,6 +1337,12 @@
1292
1337
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1293
1338
  "description": "Llama 3.1 Nemotron 70B es un modelo de lenguaje a gran escala personalizado por NVIDIA, diseñado para mejorar la utilidad de las respuestas generadas por LLM a las consultas de los usuarios. Este modelo ha destacado en pruebas de referencia como Arena Hard, AlpacaEval 2 LC y GPT-4-Turbo MT-Bench, ocupando el primer lugar en los tres benchmarks de alineación automática hasta el 1 de octubre de 2024. El modelo se entrena utilizando RLHF (especialmente REINFORCE), Llama-3.1-Nemotron-70B-Reward y HelpSteer2-Preference sobre la base del modelo Llama-3.1-70B-Instruct."
1294
1339
  },
1340
+ "nvidia/llama-3.1-nemotron-51b-instruct": {
1341
+ "description": "Modelo de lenguaje único, que ofrece una precisión y eficiencia inigualables."
1342
+ },
1343
+ "nvidia/llama-3.1-nemotron-70b-instruct": {
1344
+ "description": "Llama-3.1-Nemotron-70B-Instruct es un modelo de lenguaje grande personalizado por NVIDIA, diseñado para mejorar la utilidad de las respuestas generadas por LLM."
1345
+ },
1295
1346
  "o1": {
1296
1347
  "description": "Se centra en el razonamiento avanzado y la resolución de problemas complejos, incluidas tareas matemáticas y científicas. Es muy adecuado para aplicaciones que requieren una comprensión profunda del contexto y flujos de trabajo de agentes."
1297
1348
  },
@@ -1406,6 +1457,15 @@
1406
1457
  "qwen/qwen-2-7b-instruct:free": {
1407
1458
  "description": "Qwen2 es una nueva serie de modelos de lenguaje de gran tamaño, con una mayor capacidad de comprensión y generación."
1408
1459
  },
1460
+ "qwen/qwen2.5-7b-instruct": {
1461
+ "description": "LLM orientado a chino e inglés, enfocado en áreas como lenguaje, programación, matemáticas y razonamiento."
1462
+ },
1463
+ "qwen/qwen2.5-coder-32b-instruct": {
1464
+ "description": "LLM avanzado, que soporta generación de código, razonamiento y corrección, abarcando lenguajes de programación populares."
1465
+ },
1466
+ "qwen/qwen2.5-coder-7b-instruct": {
1467
+ "description": "Poderoso modelo de código de tamaño mediano, que soporta longitudes de contexto de 32K, experto en programación multilingüe."
1468
+ },
1409
1469
  "qwen2": {
1410
1470
  "description": "Qwen2 es el nuevo modelo de lenguaje a gran escala de Alibaba, que ofrece un rendimiento excepcional para satisfacer diversas necesidades de aplicación."
1411
1471
  },
@@ -11,6 +11,9 @@
11
11
  "azure": {
12
12
  "description": "Azure ofrece una variedad de modelos de IA avanzados, incluidos GPT-3.5 y la última serie GPT-4, que admiten múltiples tipos de datos y tareas complejas, comprometidos con soluciones de IA seguras, confiables y sostenibles."
13
13
  },
14
+ "azureai": {
15
+ "description": "Azure ofrece una variedad de modelos de IA avanzados, incluidos GPT-3.5 y la última serie GPT-4, que admiten múltiples tipos de datos y tareas complejas, comprometidos con soluciones de IA seguras, confiables y sostenibles."
16
+ },
14
17
  "baichuan": {
15
18
  "description": "Baichuan Intelligent es una empresa centrada en el desarrollo de modelos de gran tamaño de inteligencia artificial, cuyos modelos han demostrado un rendimiento excepcional en tareas en chino como enciclopedias de conocimiento, procesamiento de textos largos y creación de contenido, superando a los modelos principales extranjeros. Baichuan Intelligent también posee capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de autoridad. Sus modelos incluyen Baichuan 4, Baichuan 3 Turbo y Baichuan 3 Turbo 128k, optimizados para diferentes escenarios de aplicación, ofreciendo soluciones de alta relación calidad-precio."
16
19
  },
@@ -53,6 +56,9 @@
53
56
  "internlm": {
54
57
  "description": "Organización de código abierto dedicada a la investigación y desarrollo de herramientas para modelos grandes. Proporciona a todos los desarrolladores de IA una plataforma de código abierto eficiente y fácil de usar, permitiendo el acceso a las tecnologías y algoritmos más avanzados."
55
58
  },
59
+ "jina": {
60
+ "description": "Jina AI, fundada en 2020, es una empresa líder en búsqueda de IA. Nuestra plataforma de búsqueda base incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje, que ayudan a las empresas a construir aplicaciones de búsqueda generativa y multimodal confiables y de alta calidad."
61
+ },
56
62
  "lmstudio": {
57
63
  "description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en su computadora."
58
64
  },
@@ -68,6 +74,9 @@
68
74
  "novita": {
69
75
  "description": "Novita AI es una plataforma que ofrece servicios API para múltiples modelos de lenguaje de gran tamaño y generación de imágenes de IA, siendo flexible, confiable y rentable. Soporta los últimos modelos de código abierto como Llama3 y Mistral, proporcionando soluciones API completas, amigables para el usuario y autoescalables para el desarrollo de aplicaciones de IA, adecuadas para el rápido crecimiento de startups de IA."
70
76
  },
77
+ "nvidia": {
78
+ "description": "NVIDIA NIM™ proporciona contenedores que se pueden utilizar para microservicios de inferencia acelerados por GPU autohospedados, admitiendo el despliegue de modelos de IA preentrenados y personalizados en la nube, centros de datos, PC RTX™ AI y estaciones de trabajo."
79
+ },
71
80
  "ollama": {
72
81
  "description": "Los modelos ofrecidos por Ollama abarcan ampliamente áreas como la generación de código, cálculos matemáticos, procesamiento multilingüe e interacciones conversacionales, apoyando diversas necesidades de implementación empresarial y local."
73
82
  },
@@ -107,6 +116,9 @@
107
116
  "upstage": {
108
117
  "description": "Upstage se centra en desarrollar modelos de IA para diversas necesidades comerciales, incluidos Solar LLM y Document AI, con el objetivo de lograr una inteligencia general artificial (AGI) que trabaje para las personas. Crea agentes de diálogo simples a través de la API de Chat y admite llamadas de funciones, traducción, incrustaciones y aplicaciones de dominio específico."
109
118
  },
119
+ "vllm": {
120
+ "description": "vLLM es una biblioteca rápida y fácil de usar para la inferencia y el servicio de LLM."
121
+ },
110
122
  "wenxin": {
111
123
  "description": "Plataforma de desarrollo y servicios de modelos grandes y aplicaciones nativas de IA de nivel empresarial, que ofrece la cadena de herramientas más completa y fácil de usar para el desarrollo de modelos de inteligencia artificial generativa y el desarrollo de aplicaciones en todo el proceso."
112
124
  },
@@ -19,6 +19,24 @@
19
19
  "title": "کلید API"
20
20
  }
21
21
  },
22
+ "azureai": {
23
+ "azureApiVersion": {
24
+ "desc": "نسخه API آژور، با فرمت YYYY-MM-DD، برای مشاهده [آخرین نسخه](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
25
+ "fetch": "دریافت لیست",
26
+ "title": "نسخه API آژور"
27
+ },
28
+ "endpoint": {
29
+ "desc": "نقطه پایانی استنتاج مدل آژور AI را از نمای کلی پروژه آژور AI پیدا کنید",
30
+ "placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
31
+ "title": "نقطه پایانی آژور AI"
32
+ },
33
+ "title": "آژور OpenAI",
34
+ "token": {
35
+ "desc": "کلید API را از نمای کلی پروژه آژور AI پیدا کنید",
36
+ "placeholder": "کلید آژور",
37
+ "title": "کلید"
38
+ }
39
+ },
22
40
  "bedrock": {
23
41
  "accessKeyId": {
24
42
  "desc": "AWS Access Key Id را وارد کنید",
@@ -92,11 +110,23 @@
92
110
  "required": "لطفاً نام ارائه‌دهنده را وارد کنید",
93
111
  "title": "نام ارائه‌دهنده"
94
112
  },
113
+ "providerModels": {
114
+ "item": {
115
+ "modelConfig": {
116
+ "deployName": {
117
+ "extra": "این فیلد به عنوان شناسه مدل هنگام ارسال درخواست استفاده می‌شود",
118
+ "placeholder": "لطفاً نام یا شناسه واقعی استقرار مدل را وارد کنید",
119
+ "title": "نام استقرار مدل"
120
+ }
121
+ }
122
+ }
123
+ },
95
124
  "proxyUrl": {
96
125
  "required": "لطفاً آدرس پروکسی را وارد کنید",
97
126
  "title": "آدرس پروکسی"
98
127
  },
99
128
  "sdkType": {
129
+ "placeholder": "openai/anthropic/azureai/ollama/...",
100
130
  "required": "لطفاً نوع SDK را انتخاب کنید",
101
131
  "title": "فرمت درخواست"
102
132
  },