@lobehub/chat 1.36.8 → 1.36.9

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (46) hide show
  1. package/CHANGELOG.md +33 -0
  2. package/changelog/v1.json +12 -0
  3. package/locales/ar/models.json +78 -0
  4. package/locales/ar/providers.json +3 -0
  5. package/locales/bg-BG/models.json +78 -0
  6. package/locales/bg-BG/providers.json +3 -0
  7. package/locales/de-DE/models.json +78 -0
  8. package/locales/de-DE/providers.json +3 -0
  9. package/locales/en-US/models.json +78 -0
  10. package/locales/en-US/providers.json +3 -0
  11. package/locales/es-ES/models.json +78 -0
  12. package/locales/es-ES/providers.json +3 -0
  13. package/locales/fa-IR/models.json +78 -0
  14. package/locales/fa-IR/providers.json +3 -0
  15. package/locales/fr-FR/models.json +78 -0
  16. package/locales/fr-FR/providers.json +3 -0
  17. package/locales/it-IT/models.json +78 -0
  18. package/locales/it-IT/providers.json +3 -0
  19. package/locales/ja-JP/models.json +78 -0
  20. package/locales/ja-JP/providers.json +3 -0
  21. package/locales/ko-KR/models.json +78 -0
  22. package/locales/ko-KR/providers.json +3 -0
  23. package/locales/nl-NL/models.json +78 -0
  24. package/locales/nl-NL/providers.json +3 -0
  25. package/locales/pl-PL/modelProvider.json +9 -9
  26. package/locales/pl-PL/models.json +78 -0
  27. package/locales/pl-PL/providers.json +3 -0
  28. package/locales/pt-BR/models.json +78 -0
  29. package/locales/pt-BR/providers.json +3 -0
  30. package/locales/ru-RU/models.json +78 -0
  31. package/locales/ru-RU/providers.json +3 -0
  32. package/locales/tr-TR/models.json +78 -0
  33. package/locales/tr-TR/providers.json +3 -0
  34. package/locales/vi-VN/models.json +78 -0
  35. package/locales/vi-VN/providers.json +3 -0
  36. package/locales/zh-CN/models.json +88 -10
  37. package/locales/zh-CN/providers.json +3 -0
  38. package/locales/zh-TW/models.json +78 -0
  39. package/locales/zh-TW/providers.json +3 -0
  40. package/package.json +1 -1
  41. package/src/app/(backend)/api/webhooks/clerk/route.ts +18 -3
  42. package/src/database/server/models/__tests__/nextauth.test.ts +33 -0
  43. package/src/libs/next-auth/adapter/index.ts +8 -2
  44. package/src/server/services/user/index.test.ts +200 -0
  45. package/src/server/services/user/index.ts +24 -32
  46. package/vitest.config.ts +1 -1
@@ -55,6 +55,24 @@
55
55
  "Baichuan4-Turbo": {
56
56
  "description": "Le modèle le plus performant en Chine, surpassant les modèles dominants étrangers dans les tâches en chinois telles que les encyclopédies, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
57
57
  },
58
+ "Doubao-lite-128k": {
59
+ "description": "Doubao-lite présente une rapidité de réponse exceptionnelle et un excellent rapport qualité-prix, offrant des choix plus flexibles pour différents scénarios clients. Prend en charge le raisonnement et le réglage fin avec une fenêtre de contexte de 128k."
60
+ },
61
+ "Doubao-lite-32k": {
62
+ "description": "Doubao-lite présente une rapidité de réponse exceptionnelle et un excellent rapport qualité-prix, offrant des choix plus flexibles pour différents scénarios clients. Prend en charge le raisonnement et le réglage fin avec une fenêtre de contexte de 32k."
63
+ },
64
+ "Doubao-lite-4k": {
65
+ "description": "Doubao-lite présente une rapidité de réponse exceptionnelle et un excellent rapport qualité-prix, offrant des choix plus flexibles pour différents scénarios clients. Prend en charge le raisonnement et le réglage fin avec une fenêtre de contexte de 4k."
66
+ },
67
+ "Doubao-pro-128k": {
68
+ "description": "Le modèle principal offrant les meilleures performances, adapté aux tâches complexes, avec de bons résultats dans des scénarios tels que le question-réponse, le résumé, la création, la classification de texte et le jeu de rôle. Prend en charge le raisonnement et le réglage fin avec une fenêtre de contexte de 128k."
69
+ },
70
+ "Doubao-pro-32k": {
71
+ "description": "Le modèle principal offrant les meilleures performances, adapté aux tâches complexes, avec de bons résultats dans des scénarios tels que le question-réponse, le résumé, la création, la classification de texte et le jeu de rôle. Prend en charge le raisonnement et le réglage fin avec une fenêtre de contexte de 32k."
72
+ },
73
+ "Doubao-pro-4k": {
74
+ "description": "Le modèle principal offrant les meilleures performances, adapté aux tâches complexes, avec de bons résultats dans des scénarios tels que le question-réponse, le résumé, la création, la classification de texte et le jeu de rôle. Prend en charge le raisonnement et le réglage fin avec une fenêtre de contexte de 4k."
75
+ },
58
76
  "ERNIE-3.5-128K": {
59
77
  "description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
60
78
  },
@@ -242,6 +260,21 @@
242
260
  "SenseChat-Turbo": {
243
261
  "description": "Conçu pour des questions-réponses rapides et des scénarios de micro-ajustement du modèle."
244
262
  },
263
+ "Skylark2-lite-8k": {
264
+ "description": "Le modèle de deuxième génération Skylark (Skylark2-lite) présente une grande rapidité de réponse, adapté à des scénarios nécessitant une réactivité élevée, sensible aux coûts, avec des exigences de précision de modèle moins élevées, avec une longueur de fenêtre de contexte de 8k."
265
+ },
266
+ "Skylark2-pro-32k": {
267
+ "description": "Le modèle de deuxième génération Skylark (Skylark2-pro) offre une précision élevée, adapté à des scénarios de génération de texte plus complexes tels que la création de contenu dans des domaines professionnels, la rédaction de romans et les traductions de haute qualité, avec une longueur de fenêtre de contexte de 32k."
268
+ },
269
+ "Skylark2-pro-4k": {
270
+ "description": "Le modèle de deuxième génération Skylark (Skylark2-pro) offre une précision élevée, adapté à des scénarios de génération de texte plus complexes tels que la création de contenu dans des domaines professionnels, la rédaction de romans et les traductions de haute qualité, avec une longueur de fenêtre de contexte de 4k."
271
+ },
272
+ "Skylark2-pro-character-4k": {
273
+ "description": "Le modèle de deuxième génération Skylark (Skylark2-pro-character) possède d'excellentes capacités de jeu de rôle et de chat, capable d'interagir suivant les instructions des utilisateurs, avec un style de personnage distinct et un contenu de dialogue fluide. Il est approprié pour construire des chatbots, des assistants virtuels et des services clients en ligne, avec une grande rapidité de réponse."
274
+ },
275
+ "Skylark2-pro-turbo-8k": {
276
+ "description": "Le modèle de deuxième génération Skylark (Skylark2-pro-turbo-8k) offre un raisonnement plus rapide et un coût réduit, avec une longueur de fenêtre de contexte de 8k."
277
+ },
245
278
  "THUDM/chatglm3-6b": {
246
279
  "description": "ChatGLM3-6B est un modèle open source de la série ChatGLM, développé par Zhipu AI. Ce modèle conserve les excellentes caractéristiques de son prédécesseur, telles que la fluidité des dialogues et un faible seuil de déploiement, tout en introduisant de nouvelles fonctionnalités. Il utilise des données d'entraînement plus variées, un nombre d'étapes d'entraînement plus élevé et une stratégie d'entraînement plus raisonnable, se distinguant parmi les modèles pré-entraînés de moins de 10B. ChatGLM3-6B prend en charge des dialogues multi-tours, des appels d'outils, l'exécution de code et des tâches d'agent dans des scénarios complexes. En plus du modèle de dialogue, les modèles de base ChatGLM-6B-Base et le modèle de dialogue long ChatGLM3-6B-32K sont également open source. Ce modèle est entièrement ouvert à la recherche académique et permet également une utilisation commerciale gratuite après enregistrement."
247
280
  },
@@ -476,6 +509,9 @@
476
509
  "cohere-command-r-plus": {
477
510
  "description": "Command R+ est un modèle optimisé RAG de pointe conçu pour traiter des charges de travail de niveau entreprise."
478
511
  },
512
+ "command-light": {
513
+ "description": ""
514
+ },
479
515
  "command-r": {
480
516
  "description": "Command R est un LLM optimisé pour les tâches de dialogue et de long contexte, particulièrement adapté à l'interaction dynamique et à la gestion des connaissances."
481
517
  },
@@ -539,6 +575,9 @@
539
575
  "gemini-1.5-flash-8b-exp-0924": {
540
576
  "description": "Gemini 1.5 Flash 8B 0924 est le dernier modèle expérimental, offrant des améliorations significatives en termes de performance dans les cas d'utilisation textuels et multimodaux."
541
577
  },
578
+ "gemini-1.5-flash-exp-0827": {
579
+ "description": "Gemini 1.5 Flash 0827 offre des capacités de traitement multimodal optimisées, adaptées à divers scénarios de tâches complexes."
580
+ },
542
581
  "gemini-1.5-flash-latest": {
543
582
  "description": "Gemini 1.5 Flash est le dernier modèle d'IA multimodal de Google, doté de capacités de traitement rapide, prenant en charge les entrées de texte, d'images et de vidéos, adapté à une large gamme de tâches pour une extension efficace."
544
583
  },
@@ -548,6 +587,12 @@
548
587
  "gemini-1.5-pro-002": {
549
588
  "description": "Gemini 1.5 Pro 002 est le dernier modèle prêt pour la production, offrant une qualité de sortie supérieure, avec des améliorations notables dans les domaines des mathématiques, des contextes longs et des tâches visuelles."
550
589
  },
590
+ "gemini-1.5-pro-exp-0801": {
591
+ "description": "Gemini 1.5 Pro 0801 offre d'excellentes capacités de traitement multimodal, apportant plus de flexibilité au développement d'applications."
592
+ },
593
+ "gemini-1.5-pro-exp-0827": {
594
+ "description": "Gemini 1.5 Pro 0827 combine les dernières technologies d'optimisation pour offrir des capacités de traitement de données multimodales plus efficaces."
595
+ },
551
596
  "gemini-1.5-pro-latest": {
552
597
  "description": "Gemini 1.5 Pro prend en charge jusqu'à 2 millions de tokens, ce qui en fait un choix idéal pour un modèle multimodal de taille moyenne, adapté à un soutien polyvalent pour des tâches complexes."
553
598
  },
@@ -557,6 +602,9 @@
557
602
  "gemini-exp-1121": {
558
603
  "description": "Gemini Exp 1121 est le dernier modèle d'IA multimodal expérimental de Google, capable de traiter rapidement des entrées textuelles, d'images et de vidéos, et adapté à une large gamme de tâches avec une efficacité accrue."
559
604
  },
605
+ "gemini-exp-1206": {
606
+ "description": "Gemini Exp 1206 est le dernier modèle d'IA multimodal expérimental de Google, offrant une qualité améliorée par rapport aux versions précédentes."
607
+ },
560
608
  "gemma-7b-it": {
561
609
  "description": "Gemma 7B est adapté au traitement de tâches de taille moyenne, alliant coût et efficacité."
562
610
  },
@@ -647,6 +695,12 @@
647
695
  "gpt-3.5-turbo-instruct": {
648
696
  "description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125."
649
697
  },
698
+ "gpt-35-turbo": {
699
+ "description": "GPT 3.5 Turbo, un modèle efficace proposé par OpenAI, adapté aux tâches de chat et de génération de texte, prenant en charge les appels de fonction en parallèle."
700
+ },
701
+ "gpt-35-turbo-16k": {
702
+ "description": "GPT 3.5 Turbo 16k, un modèle de génération de texte à haute capacité, adapté aux tâches complexes."
703
+ },
650
704
  "gpt-4": {
651
705
  "description": "GPT-4 offre une fenêtre contextuelle plus grande, capable de traiter des entrées textuelles plus longues, adapté aux scénarios nécessitant une intégration d'informations étendue et une analyse de données."
652
706
  },
@@ -689,6 +743,9 @@
689
743
  "gpt-4o-2024-08-06": {
690
744
  "description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
691
745
  },
746
+ "gpt-4o-2024-11-20": {
747
+ "description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension linguistique puissante et des capacités de génération, adapté aux scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
748
+ },
692
749
  "gpt-4o-mini": {
693
750
  "description": "GPT-4o mini est le dernier modèle lancé par OpenAI après le GPT-4 Omni, prenant en charge les entrées multimodales et produisant des sorties textuelles. En tant que leur modèle compact le plus avancé, il est beaucoup moins cher que d'autres modèles de pointe récents et coûte plus de 60 % de moins que le GPT-3.5 Turbo. Il maintient une intelligence de pointe tout en offrant un rapport qualité-prix significatif. Le GPT-4o mini a obtenu un score de 82 % au test MMLU et se classe actuellement au-dessus du GPT-4 en termes de préférences de chat."
694
751
  },
@@ -707,6 +764,9 @@
707
764
  "hunyuan-functioncall": {
708
765
  "description": "Dernier modèle FunctionCall de l'architecture MOE Hunyuan, formé sur des données FunctionCall de haute qualité, avec une fenêtre contextuelle atteignant 32K, se classant parmi les meilleurs sur plusieurs dimensions d'évaluation."
709
766
  },
767
+ "hunyuan-large": {
768
+ "description": ""
769
+ },
710
770
  "hunyuan-lite": {
711
771
  "description": "Mise à niveau vers une structure MOE, avec une fenêtre contextuelle de 256k, en tête de nombreux modèles open source dans les évaluations NLP, code, mathématiques, industrie, etc."
712
772
  },
@@ -787,6 +847,9 @@
787
847
  "llama-3.2-90b-vision-preview": {
788
848
  "description": "Llama 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel."
789
849
  },
850
+ "llama-3.3-70b-versatile": {
851
+ "description": "Le modèle de langage multilingue Llama 3.3 de Meta (LLM) est un modèle génératif pré-entraîné et affiné par instructions avec 70B (entrée/sortie de texte). Le modèle Llama 3.3 affiné par instructions est optimisé pour les cas d'utilisation de dialogue multilingue et surpasse de nombreux modèles de chat open-source et fermés disponibles sur des benchmarks industriels courants."
852
+ },
790
853
  "llama3-70b-8192": {
791
854
  "description": "Meta Llama 3 70B offre une capacité de traitement de complexité inégalée, sur mesure pour des projets exigeants."
792
855
  },
@@ -1094,12 +1157,21 @@
1094
1157
  "qwen-math-turbo-latest": {
1095
1158
  "description": "Le modèle de langage Tongyi Qwen pour les mathématiques, spécialement conçu pour résoudre des problèmes mathématiques."
1096
1159
  },
1160
+ "qwen-max": {
1161
+ "description": "Modèle de langage à grande échelle de niveau milliard Qwen, prenant en charge des entrées dans différentes langues telles que le chinois et l'anglais, représentant actuellement le modèle API derrière la version 2.5 de Qwen."
1162
+ },
1097
1163
  "qwen-max-latest": {
1098
1164
  "description": "Le modèle de langage à grande échelle Tongyi Qwen de niveau milliard, prenant en charge des entrées en chinois, en anglais et dans d'autres langues, actuellement le modèle API derrière la version produit Tongyi Qwen 2.5."
1099
1165
  },
1166
+ "qwen-plus": {
1167
+ "description": "Version améliorée du modèle de langage à grande échelle Qwen, prenant en charge des entrées dans différentes langues telles que le chinois et l'anglais."
1168
+ },
1100
1169
  "qwen-plus-latest": {
1101
1170
  "description": "La version améliorée du modèle de langage à grande échelle Tongyi Qwen, prenant en charge des entrées en chinois, en anglais et dans d'autres langues."
1102
1171
  },
1172
+ "qwen-turbo": {
1173
+ "description": "Le modèle de langage à grande échelle Qwen, prenant en charge des entrées dans différentes langues telles que le chinois et l'anglais."
1174
+ },
1103
1175
  "qwen-turbo-latest": {
1104
1176
  "description": "Le modèle de langage à grande échelle Tongyi Qwen, prenant en charge des entrées en chinois, en anglais et dans d'autres langues."
1105
1177
  },
@@ -1136,12 +1208,18 @@
1136
1208
  "qwen2.5-7b-instruct": {
1137
1209
  "description": "Le modèle de 7B de Tongyi Qwen 2.5, open source."
1138
1210
  },
1211
+ "qwen2.5-coder-1.5b-instruct": {
1212
+ "description": "Version open-source du modèle de code Qwen."
1213
+ },
1139
1214
  "qwen2.5-coder-32b-instruct": {
1140
1215
  "description": "Version open source du modèle de code Qwen universel."
1141
1216
  },
1142
1217
  "qwen2.5-coder-7b-instruct": {
1143
1218
  "description": "Version open source du modèle de code Tongyi Qwen."
1144
1219
  },
1220
+ "qwen2.5-math-1.5b-instruct": {
1221
+ "description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
1222
+ },
1145
1223
  "qwen2.5-math-72b-instruct": {
1146
1224
  "description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
1147
1225
  },
@@ -34,6 +34,9 @@
34
34
  "groq": {
35
35
  "description": "Le moteur d'inférence LPU de Groq a excellé dans les derniers tests de référence des grands modèles de langage (LLM), redéfinissant les normes des solutions IA grâce à sa vitesse et son efficacité impressionnantes. Groq représente une vitesse d'inférence instantanée, montrant de bonnes performances dans les déploiements basés sur le cloud."
36
36
  },
37
+ "higress": {
38
+ "description": ""
39
+ },
37
40
  "huggingface": {
38
41
  "description": "L'API d'inférence HuggingFace offre un moyen rapide et gratuit d'explorer des milliers de modèles adaptés à diverses tâches. Que vous soyez en train de prototyper une nouvelle application ou d'expérimenter les capacités de l'apprentissage automatique, cette API vous permet d'accéder instantanément à des modèles performants dans de nombreux domaines."
39
42
  },
@@ -55,6 +55,24 @@
55
55
  "Baichuan4-Turbo": {
56
56
  "description": "Il modello con le migliori capacità in patria, supera i modelli principali esteri in compiti cinesi come enciclopedie, testi lunghi e creazione di contenuti. Possiede anche capacità multimodali leader del settore, con prestazioni eccellenti in vari benchmark di valutazione."
57
57
  },
58
+ "Doubao-lite-128k": {
59
+ "description": "Doubao-lite offre un'estrema velocità di risposta, un miglior rapporto qualità-prezzo e opzioni più flessibili per diversi scenari dei clienti. Supporta inferenze e fine-tuning con una finestra di contesto di 128k."
60
+ },
61
+ "Doubao-lite-32k": {
62
+ "description": "Doubao-lite offre un'estrema velocità di risposta, un miglior rapporto qualità-prezzo e opzioni più flessibili per diversi scenari dei clienti. Supporta inferenze e fine-tuning con una finestra di contesto di 32k."
63
+ },
64
+ "Doubao-lite-4k": {
65
+ "description": "Doubao-lite offre un'estrema velocità di risposta, un miglior rapporto qualità-prezzo e opzioni più flessibili per diversi scenari dei clienti. Supporta inferenze e fine-tuning con una finestra di contesto di 4k."
66
+ },
67
+ "Doubao-pro-128k": {
68
+ "description": "Il modello principale presenta le migliori prestazioni, adatto per compiti complessi, con risultati eccellenti in scenari di domanda di riferimento, sintesi, creazione, classificazione del testo, e role-playing. Supporta inferenze e fine-tuning con una finestra di contesto di 128k."
69
+ },
70
+ "Doubao-pro-32k": {
71
+ "description": "Il modello principale presenta le migliori prestazioni, adatto per compiti complessi, con risultati eccellenti in scenari di domanda di riferimento, sintesi, creazione, classificazione del testo, e role-playing. Supporta inferenze e fine-tuning con una finestra di contesto di 32k."
72
+ },
73
+ "Doubao-pro-4k": {
74
+ "description": "Il modello principale presenta le migliori prestazioni, adatto per compiti complessi, con risultati eccellenti in scenari di domanda di riferimento, sintesi, creazione, classificazione del testo, e role-playing. Supporta inferenze e fine-tuning con una finestra di contesto di 4k."
75
+ },
58
76
  "ERNIE-3.5-128K": {
59
77
  "description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
60
78
  },
@@ -242,6 +260,21 @@
242
260
  "SenseChat-Turbo": {
243
261
  "description": "Adatto per domande e risposte rapide, scenari di micro-ottimizzazione del modello."
244
262
  },
263
+ "Skylark2-lite-8k": {
264
+ "description": "Il modello di seconda generazione Skylark (Skylark2-lite) ha un'elevata velocità di risposta, adatto per scenari in cui sono richieste elevate prestazioni in tempo reale, attento ai costi e con requisiti di precisione del modello non elevati, con una lunghezza della finestra di contesto di 8k."
265
+ },
266
+ "Skylark2-pro-32k": {
267
+ "description": "Il modello di seconda generazione Skylark (Skylark2-pro) offre una maggiore precisione, adatto per scenari complessi di generazione di testi, come la scrittura di contenuti in ambito professionale, narrativa e traduzioni di alta qualità, con una lunghezza della finestra di contesto di 32k."
268
+ },
269
+ "Skylark2-pro-4k": {
270
+ "description": "Il modello di seconda generazione Skylark (Skylark2-pro) offre una maggiore precisione, adatto per scenari complessi di generazione di testi, come la scrittura di contenuti in ambito professionale, narrativa e traduzioni di alta qualità, con una lunghezza della finestra di contesto di 4k."
271
+ },
272
+ "Skylark2-pro-character-4k": {
273
+ "description": "Il modello di seconda generazione Skylark (Skylark2-pro-character) presenta eccellenti capacità di role-playing e chat, specializzandosi nel recitare diversi ruoli in base alle richieste dell'utente e nel portare avanti conversazioni naturali e fluide. È adatto per la creazione di chatbot, assistenti virtuali e customer service online, con elevate velocità di risposta."
274
+ },
275
+ "Skylark2-pro-turbo-8k": {
276
+ "description": "Il modello di seconda generazione Skylark (Skylark2-pro-turbo-8k) è più veloce nell'inferenza e più economico, con una lunghezza della finestra di contesto di 8k."
277
+ },
245
278
  "THUDM/chatglm3-6b": {
246
279
  "description": "ChatGLM3-6B è un modello open source della serie ChatGLM, sviluppato da Zhipu AI. Questo modello conserva le eccellenti caratteristiche dei modelli precedenti, come la fluidità del dialogo e la bassa soglia di implementazione, introducendo al contempo nuove funzionalità. Utilizza dati di addestramento più diversificati, un numero maggiore di passi di addestramento e strategie di addestramento più ragionevoli, dimostrando prestazioni eccellenti tra i modelli pre-addestrati sotto i 10B. ChatGLM3-6B supporta scenari complessi come conversazioni multi-turno, chiamate a strumenti, esecuzione di codice e compiti di agente. Oltre al modello di dialogo, sono stati rilasciati anche il modello di base ChatGLM-6B-Base e il modello di dialogo su testi lunghi ChatGLM3-6B-32K. Questo modello è completamente aperto per la ricerca accademica e consente anche un uso commerciale gratuito dopo la registrazione."
247
280
  },
@@ -476,6 +509,9 @@
476
509
  "cohere-command-r-plus": {
477
510
  "description": "Command R+ è un modello ottimizzato per RAG all'avanguardia progettato per affrontare carichi di lavoro di livello aziendale."
478
511
  },
512
+ "command-light": {
513
+ "description": ""
514
+ },
479
515
  "command-r": {
480
516
  "description": "Command R è un LLM ottimizzato per compiti di dialogo e contesti lunghi, particolarmente adatto per interazioni dinamiche e gestione della conoscenza."
481
517
  },
@@ -539,6 +575,9 @@
539
575
  "gemini-1.5-flash-8b-exp-0924": {
540
576
  "description": "Gemini 1.5 Flash 8B 0924 è il modello sperimentale più recente, con miglioramenti significativi nelle prestazioni sia nei casi d'uso testuali che multimodali."
541
577
  },
578
+ "gemini-1.5-flash-exp-0827": {
579
+ "description": "Gemini 1.5 Flash 0827 offre capacità di elaborazione multimodale ottimizzate, adatte a vari scenari di compiti complessi."
580
+ },
542
581
  "gemini-1.5-flash-latest": {
543
582
  "description": "Gemini 1.5 Flash è il più recente modello AI multimodale di Google, dotato di capacità di elaborazione rapida, supporta input di testo, immagini e video, ed è adatto per un'ampia gamma di compiti di scalabilità efficiente."
544
583
  },
@@ -548,6 +587,12 @@
548
587
  "gemini-1.5-pro-002": {
549
588
  "description": "Gemini 1.5 Pro 002 è il modello più recente pronto per la produzione, che offre output di qualità superiore, con miglioramenti significativi in particolare in matematica, contesti lunghi e compiti visivi."
550
589
  },
590
+ "gemini-1.5-pro-exp-0801": {
591
+ "description": "Gemini 1.5 Pro 0801 offre eccellenti capacità di elaborazione multimodale, offrendo maggiore flessibilità nello sviluppo di applicazioni."
592
+ },
593
+ "gemini-1.5-pro-exp-0827": {
594
+ "description": "Gemini 1.5 Pro 0827 integra le tecnologie di ottimizzazione più recenti, offrendo capacità di elaborazione dei dati multimodali più efficienti."
595
+ },
551
596
  "gemini-1.5-pro-latest": {
552
597
  "description": "Gemini 1.5 Pro supporta fino a 2 milioni di token, è la scelta ideale per modelli multimodali di medie dimensioni, adatta a un supporto multifunzionale per compiti complessi."
553
598
  },
@@ -557,6 +602,9 @@
557
602
  "gemini-exp-1121": {
558
603
  "description": "Gemini Exp 1121 è il più recente modello AI multimodale sperimentale di Google, dotato di capacità di elaborazione rapida, supporta input di testo, immagini e video, ed è adatto per un'ampia gamma di compiti con un'efficace scalabilità."
559
604
  },
605
+ "gemini-exp-1206": {
606
+ "description": "Gemini Exp 1206 è il modello AI multimodale sperimentale più recente di Google, con miglioramenti significativi della qualità rispetto alle versioni precedenti."
607
+ },
560
608
  "gemma-7b-it": {
561
609
  "description": "Gemma 7B è adatto per l'elaborazione di compiti di piccole e medie dimensioni, combinando efficienza dei costi."
562
610
  },
@@ -647,6 +695,12 @@
647
695
  "gpt-3.5-turbo-instruct": {
648
696
  "description": "GPT 3.5 Turbo, adatto a una varietà di compiti di generazione e comprensione del testo, attualmente punta a gpt-3.5-turbo-0125."
649
697
  },
698
+ "gpt-35-turbo": {
699
+ "description": "GPT 3.5 Turbo è un modello efficiente fornito da OpenAI, adatto per chat e generazione di testo, che supporta chiamate di funzione parallele."
700
+ },
701
+ "gpt-35-turbo-16k": {
702
+ "description": "GPT 3.5 Turbo 16k è un modello di generazione di testo ad alta capacità, adatto per compiti complessi."
703
+ },
650
704
  "gpt-4": {
651
705
  "description": "GPT-4 offre una finestra di contesto più ampia, in grado di gestire input testuali più lunghi, adatta a scenari che richiedono un'integrazione ampia delle informazioni e analisi dei dati."
652
706
  },
@@ -689,6 +743,9 @@
689
743
  "gpt-4o-2024-08-06": {
690
744
  "description": "ChatGPT-4o è un modello dinamico, aggiornato in tempo reale per mantenere la versione più recente. Combina una potente comprensione e generazione del linguaggio, adatta a scenari di applicazione su larga scala, inclusi servizi clienti, educazione e supporto tecnico."
691
745
  },
746
+ "gpt-4o-2024-11-20": {
747
+ "description": "ChatGPT-4o è un modello dinamico che si aggiorna in tempo reale per mantenere sempre l'ultima versione. Combina una potente comprensione del linguaggio e capacità di generazione, rendendolo adatto a scenari di applicazione su larga scala, inclusi assistenza clienti, istruzione e supporto tecnico."
748
+ },
692
749
  "gpt-4o-mini": {
693
750
  "description": "GPT-4o mini è il modello più recente lanciato da OpenAI dopo il GPT-4 Omni, supporta input visivi e testuali e produce output testuali. Come il loro modello di punta in formato ridotto, è molto più economico rispetto ad altri modelli all'avanguardia recenti e costa oltre il 60% in meno rispetto a GPT-3.5 Turbo. Mantiene un'intelligenza all'avanguardia, offrendo un rapporto qualità-prezzo significativo. GPT-4o mini ha ottenuto un punteggio dell'82% nel test MMLU e attualmente è classificato più in alto di GPT-4 per preferenze di chat."
694
751
  },
@@ -707,6 +764,9 @@
707
764
  "hunyuan-functioncall": {
708
765
  "description": "Ultimo modello FunctionCall con architettura MOE di Hunyuan, addestrato su dati di alta qualità per le chiamate di funzione, con una finestra di contesto di 32K, è in testa in vari indicatori di valutazione."
709
766
  },
767
+ "hunyuan-large": {
768
+ "description": ""
769
+ },
710
770
  "hunyuan-lite": {
711
771
  "description": "Aggiornato a una struttura MOE, con una finestra di contesto di 256k, è in testa a molti modelli open source in vari set di valutazione su NLP, codice, matematica e settori."
712
772
  },
@@ -787,6 +847,9 @@
787
847
  "llama-3.2-90b-vision-preview": {
788
848
  "description": "Llama 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Eccelle in compiti come la descrizione delle immagini e le domande visive, colmando il divario tra generazione del linguaggio e ragionamento visivo."
789
849
  },
850
+ "llama-3.3-70b-versatile": {
851
+ "description": "Meta Llama 3.3 è un modello linguistico di grandi dimensioni multilingue (LLM) da 70B (input/output testuale) con pre-addestramento e aggiustamento delle istruzioni. Il modello di testo puro di Llama 3.3 è ottimizzato per casi d'uso di dialogo multilingue e supera molti modelli di chat open-source e chiusi nei benchmark di settore comuni."
852
+ },
790
853
  "llama3-70b-8192": {
791
854
  "description": "Meta Llama 3 70B offre capacità di elaborazione della complessità senza pari, progettato su misura per progetti ad alta richiesta."
792
855
  },
@@ -1094,12 +1157,21 @@
1094
1157
  "qwen-math-turbo-latest": {
1095
1158
  "description": "Il modello matematico Tongyi Qwen è progettato specificamente per la risoluzione di problemi matematici."
1096
1159
  },
1160
+ "qwen-max": {
1161
+ "description": "Qwen Max è un modello linguistico di grandi dimensioni con trilioni di parametri, supporta input in diverse lingue, tra cui cinese e inglese e attualmente è il modello API dietro la versione 2.5 di Qwen."
1162
+ },
1097
1163
  "qwen-max-latest": {
1098
1164
  "description": "Modello linguistico su larga scala Tongyi Qwen con miliardi di parametri, supporta input in diverse lingue tra cui cinese e inglese, attualmente il modello API dietro la versione del prodotto Tongyi Qwen 2.5."
1099
1165
  },
1166
+ "qwen-plus": {
1167
+ "description": "Qwen Plus è una versione potenziata del modello linguistico di grandi dimensioni, che supporta input in diverse lingue, tra cui cinese e inglese."
1168
+ },
1100
1169
  "qwen-plus-latest": {
1101
1170
  "description": "Versione potenziata del modello linguistico su larga scala Tongyi Qwen, supporta input in diverse lingue tra cui cinese e inglese."
1102
1171
  },
1172
+ "qwen-turbo": {
1173
+ "description": "Qwen è un modello linguistico di grandi dimensioni che supporta input in diverse lingue, tra cui cinese e inglese."
1174
+ },
1103
1175
  "qwen-turbo-latest": {
1104
1176
  "description": "Il modello linguistico su larga scala Tongyi Qwen, supporta input in diverse lingue tra cui cinese e inglese."
1105
1177
  },
@@ -1136,12 +1208,18 @@
1136
1208
  "qwen2.5-7b-instruct": {
1137
1209
  "description": "Modello da 7B di Tongyi Qwen 2.5, open source."
1138
1210
  },
1211
+ "qwen2.5-coder-1.5b-instruct": {
1212
+ "description": "Versione open-source del modello di codice Qwen."
1213
+ },
1139
1214
  "qwen2.5-coder-32b-instruct": {
1140
1215
  "description": "Versione open source del modello di codice Qwen di Tongyi."
1141
1216
  },
1142
1217
  "qwen2.5-coder-7b-instruct": {
1143
1218
  "description": "Versione open source del modello di codice Tongyi Qwen."
1144
1219
  },
1220
+ "qwen2.5-math-1.5b-instruct": {
1221
+ "description": "Il modello Qwen-Math ha potenti capacità di risoluzione di problemi matematici."
1222
+ },
1145
1223
  "qwen2.5-math-72b-instruct": {
1146
1224
  "description": "Il modello Qwen-Math ha potenti capacità di risoluzione di problemi matematici."
1147
1225
  },
@@ -34,6 +34,9 @@
34
34
  "groq": {
35
35
  "description": "Il motore di inferenza LPU di Groq ha mostrato prestazioni eccezionali nei recenti benchmark indipendenti sui modelli di linguaggio di grandi dimensioni (LLM), ridefinendo gli standard delle soluzioni AI con la sua incredibile velocità ed efficienza. Groq rappresenta una velocità di inferenza istantanea, mostrando buone prestazioni nelle implementazioni basate su cloud."
36
36
  },
37
+ "higress": {
38
+ "description": ""
39
+ },
37
40
  "huggingface": {
38
41
  "description": "L'API di Inferenza di HuggingFace offre un modo rapido e gratuito per esplorare migliaia di modelli per una varietà di compiti. Che tu stia prototipando una nuova applicazione o cercando di sperimentare le funzionalità del machine learning, questa API ti consente di accedere immediatamente a modelli ad alte prestazioni in diversi ambiti."
39
42
  },
@@ -55,6 +55,24 @@
55
55
  "Baichuan4-Turbo": {
56
56
  "description": "モデル能力は国内で第一であり、知識百科、長文、生成創作などの中国語タスクで海外の主流モデルを超えています。また、業界をリードするマルチモーダル能力を持ち、多くの権威ある評価基準で優れたパフォーマンスを示しています。"
57
57
  },
58
+ "Doubao-lite-128k": {
59
+ "description": "Doubao-liteは、極めて高速な応答速度と優れたコストパフォーマンスを備え、顧客のさまざまなシーンに柔軟な選択肢を提供します。128kコンテキストウィンドウの推論と微調整をサポートしています。"
60
+ },
61
+ "Doubao-lite-32k": {
62
+ "description": "Doubao-liteは、極めて高速な応答速度と優れたコストパフォーマンスを備え、顧客のさまざまなシーンに柔軟な選択肢を提供します。32kコンテキストウィンドウの推論と微調整をサポートしています。"
63
+ },
64
+ "Doubao-lite-4k": {
65
+ "description": "Doubao-liteは、極めて高速な応答速度と優れたコストパフォーマンスを備え、顧客のさまざまなシーンに柔軟な選択肢を提供します。4kコンテキストウィンドウの推論と微調整をサポートしています。"
66
+ },
67
+ "Doubao-pro-128k": {
68
+ "description": "最も効果的な主力モデルで、複雑なタスクの処理に適しており、参考質問応答、要約、創作、テキスト分類、ロールプレイングなどのシーンで素晴らしい結果を出します。128kコンテキストウィンドウの推論と微調整をサポートしています。"
69
+ },
70
+ "Doubao-pro-32k": {
71
+ "description": "最も効果的な主力モデルで、複雑なタスクの処理に適しており、参考質問応答、要約、創作、テキスト分類、ロールプレイングなどのシーンで素晴らしい結果を出します。32kコンテキストウィンドウの推論と微調整をサポートしています。"
72
+ },
73
+ "Doubao-pro-4k": {
74
+ "description": "最も効果的な主力モデルで、複雑なタスクの処理に適しており、参考質問応答、要約、創作、テキスト分類、ロールプレイングなどのシーンで素晴らしい結果を出します。4kコンテキストウィンドウの推論と微調整をサポートしています。"
75
+ },
58
76
  "ERNIE-3.5-128K": {
59
77
  "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
60
78
  },
@@ -242,6 +260,21 @@
242
260
  "SenseChat-Turbo": {
243
261
  "description": "迅速な質問応答やモデルの微調整シーンに適しています。"
244
262
  },
263
+ "Skylark2-lite-8k": {
264
+ "description": "雲雀(Skylark)第2世代モデル、Skylark2-liteモデルは高い応答速度を持ち、リアルタイム性が求められ、コストに敏感で、モデルの精度要求がそれほど高くないシーンに適しています。コンテキストウィンドウ長は8kです。"
265
+ },
266
+ "Skylark2-pro-32k": {
267
+ "description": "雲雀(Skylark)第2世代モデル、Skylark2-proバージョンは高いモデル精度を持ち、専門分野の文書生成、小説創作、高品質翻訳などの複雑なテキスト生成シーンに適しています。コンテキストウィンドウ長は32kです。"
268
+ },
269
+ "Skylark2-pro-4k": {
270
+ "description": "雲雀(Skylark)第2世代モデル、Skylark2-proモデルは高いモデル精度を持ち、専門分野の文書生成、小説創作、高品質翻訳などの複雑なテキスト生成シーンに適しています。コンテキストウィンドウ長は4kです。"
271
+ },
272
+ "Skylark2-pro-character-4k": {
273
+ "description": "雲雀(Skylark)第2世代モデル、Skylark2-pro-characterモデルは、優れたロールプレイングとチャット能力を持ち、ユーザーのプロンプト要件に基づいて異なるキャラクターを演じながらチャットを行うのが得意です。キャラクターのスタイルが際立ち、対話の内容は自然で流暢です。チャットボット、仮想アシスタント、オンラインカスタマーサービスなどのシーンに適しており、高速な応答を実現します。"
274
+ },
275
+ "Skylark2-pro-turbo-8k": {
276
+ "description": "雲雀(Skylark)第2世代モデル、Skylark2-pro-turbo-8kは、推論がより速く、コストが低く、コンテキストウィンドウ長は8kです。"
277
+ },
245
278
  "THUDM/chatglm3-6b": {
246
279
  "description": "ChatGLM3-6BはChatGLMシリーズのオープンモデルで、智譜AIによって開発されました。このモデルは前の世代の優れた特性を保持し、対話の流暢さとデプロイのハードルの低さを維持しつつ、新しい特性を導入しています。より多様な訓練データ、より十分な訓練ステップ、より合理的な訓練戦略を採用し、10B未満の事前訓練モデルの中で優れたパフォーマンスを示しています。ChatGLM3-6Bは多輪対話、ツール呼び出し、コード実行、エージェントタスクなどの複雑なシーンをサポートしています。対話モデルの他に、基礎モデルChatGLM-6B-Baseと長文対話モデルChatGLM3-6B-32Kもオープンソースとして提供されています。このモデルは学術研究に完全にオープンで、登録後は無料の商業利用も許可されています。"
247
280
  },
@@ -476,6 +509,9 @@
476
509
  "cohere-command-r-plus": {
477
510
  "description": "Command R+は、企業グレードのワークロードに対応するために設計された最先端のRAG最適化モデルです。"
478
511
  },
512
+ "command-light": {
513
+ "description": ""
514
+ },
479
515
  "command-r": {
480
516
  "description": "Command Rは、対話と長いコンテキストタスクに最適化されたLLMであり、特に動的なインタラクションと知識管理に適しています。"
481
517
  },
@@ -539,6 +575,9 @@
539
575
  "gemini-1.5-flash-8b-exp-0924": {
540
576
  "description": "Gemini 1.5 Flash 8B 0924は最新の実験モデルで、テキストおよびマルチモーダルのユースケースにおいて顕著な性能向上を実現しています。"
541
577
  },
578
+ "gemini-1.5-flash-exp-0827": {
579
+ "description": "Gemini 1.5 Flash 0827は、最適化されたマルチモーダル処理能力を提供し、多様な複雑なタスクシナリオに適用可能です。"
580
+ },
542
581
  "gemini-1.5-flash-latest": {
543
582
  "description": "Gemini 1.5 Flashは、Googleの最新のマルチモーダルAIモデルであり、高速処理能力を備え、テキスト、画像、動画の入力をサポートし、さまざまなタスクの効率的な拡張に適しています。"
544
583
  },
@@ -548,6 +587,12 @@
548
587
  "gemini-1.5-pro-002": {
549
588
  "description": "Gemini 1.5 Pro 002は最新の生産準備モデルで、特に数学、長いコンテキスト、視覚タスクにおいて質の高い出力を提供し、顕著な向上を見せています。"
550
589
  },
590
+ "gemini-1.5-pro-exp-0801": {
591
+ "description": "Gemini 1.5 Pro 0801は、優れたマルチモーダル処理能力を提供し、アプリケーション開発により大きな柔軟性をもたらします。"
592
+ },
593
+ "gemini-1.5-pro-exp-0827": {
594
+ "description": "Gemini 1.5 Pro 0827は、最新の最適化技術を組み合わせ、より効率的なマルチモーダルデータ処理能力をもたらします。"
595
+ },
551
596
  "gemini-1.5-pro-latest": {
552
597
  "description": "Gemini 1.5 Proは、最大200万トークンをサポートする中型マルチモーダルモデルの理想的な選択肢であり、複雑なタスクに対する多面的なサポートを提供します。"
553
598
  },
@@ -557,6 +602,9 @@
557
602
  "gemini-exp-1121": {
558
603
  "description": "Gemini Exp 1121は、Googleの最新の実験的なマルチモーダルAIモデルで、高速処理能力を備え、テキスト、画像、動画の入力をサポートし、さまざまなタスクに対して効率的に拡張できます。"
559
604
  },
605
+ "gemini-exp-1206": {
606
+ "description": "Gemini Exp 1206は、Googleの最新の実験的なマルチモーダルAIモデルで、過去のバージョンと比較して品質が向上しています。"
607
+ },
560
608
  "gemma-7b-it": {
561
609
  "description": "Gemma 7Bは、中小規模のタスク処理に適しており、コスト効果を兼ね備えています。"
562
610
  },
@@ -647,6 +695,12 @@
647
695
  "gpt-3.5-turbo-instruct": {
648
696
  "description": "GPT 3.5 Turboは、さまざまなテキスト生成と理解タスクに適しており、現在はgpt-3.5-turbo-0125を指しています。"
649
697
  },
698
+ "gpt-35-turbo": {
699
+ "description": "GPT 3.5 Turboは、OpenAIが提供する効率的なモデルで、チャットやテキスト生成タスクに適しており、並行関数呼び出しをサポートしています。"
700
+ },
701
+ "gpt-35-turbo-16k": {
702
+ "description": "GPT 3.5 Turbo 16kは、高容量のテキスト生成モデルで、複雑なタスクに適しています。"
703
+ },
650
704
  "gpt-4": {
651
705
  "description": "GPT-4は、より大きなコンテキストウィンドウを提供し、より長いテキスト入力を処理できるため、広範な情報統合やデータ分析が必要なシナリオに適しています。"
652
706
  },
@@ -689,6 +743,9 @@
689
743
  "gpt-4o-2024-08-06": {
690
744
  "description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、常に最新のバージョンを維持します。強力な言語理解と生成能力を組み合わせており、顧客サービス、教育、技術サポートなどの大規模なアプリケーションシナリオに適しています。"
691
745
  },
746
+ "gpt-4o-2024-11-20": {
747
+ "description": "ChatGPT-4oは動的モデルで、リアルタイムで更新され、常に最新バージョンを保持します。 powerfulな言語理解と生成能力を組み合わせており、カスタマーサービス、教育、技術サポートなどの大規模なアプリケーションに適しています。"
748
+ },
692
749
  "gpt-4o-mini": {
693
750
  "description": "GPT-4o miniは、OpenAIがGPT-4 Omniの後に発表した最新のモデルで、画像とテキストの入力をサポートし、テキストを出力します。最先端の小型モデルとして、最近の他の先進モデルよりもはるかに安価で、GPT-3.5 Turboよりも60%以上安価です。最先端の知能を維持しつつ、コストパフォーマンスが大幅に向上しています。GPT-4o miniはMMLUテストで82%のスコアを獲得し、現在チャットの好みではGPT-4よりも高い評価を得ています。"
694
751
  },
@@ -707,6 +764,9 @@
707
764
  "hunyuan-functioncall": {
708
765
  "description": "混元の最新のMOEアーキテクチャFunctionCallモデルで、高品質のFunctionCallデータトレーニングを経て、コンテキストウィンドウは32Kに達し、複数の次元の評価指標でリーダーシップを発揮しています。"
709
766
  },
767
+ "hunyuan-large": {
768
+ "description": ""
769
+ },
710
770
  "hunyuan-lite": {
711
771
  "description": "MOE構造にアップグレードされ、コンテキストウィンドウは256kで、NLP、コード、数学、業界などの多くの評価セットで多くのオープンソースモデルをリードしています。"
712
772
  },
@@ -787,6 +847,9 @@
787
847
  "llama-3.2-90b-vision-preview": {
788
848
  "description": "Llama 3.2は、視覚データとテキストデータを組み合わせたタスクを処理することを目的としています。画像の説明や視覚的質問応答などのタスクで優れたパフォーマンスを発揮し、言語生成と視覚推論の間のギャップを埋めます。"
789
849
  },
850
+ "llama-3.3-70b-versatile": {
851
+ "description": "Meta Llama 3.3は、70B(テキスト入力/テキスト出力)の事前学習と指示調整による生成モデルを持つ多言語大規模言語モデル(LLM)です。Llama 3.3の指示調整済みのプレーンテキストモデルは、多言語の対話ユースケースに最適化されており、一般的な業界ベンチマークで多くの利用可能なオープンソースおよびクローズドチャットモデルを上回っています。"
852
+ },
790
853
  "llama3-70b-8192": {
791
854
  "description": "Meta Llama 3 70Bは、比類のない複雑性処理能力を提供し、高要求プロジェクトに特化しています。"
792
855
  },
@@ -1094,12 +1157,21 @@
1094
1157
  "qwen-math-turbo-latest": {
1095
1158
  "description": "通義千問の数学モデルは、数学の問題解決に特化した言語モデルです。"
1096
1159
  },
1160
+ "qwen-max": {
1161
+ "description": "通義千問の千億レベルの超大規模言語モデルで、中国語、英語などさまざまな言語の入力をサポートしています。現在、通義千問2.5製品バージョンの背後にあるAPIモデルです。"
1162
+ },
1097
1163
  "qwen-max-latest": {
1098
1164
  "description": "通義千問の千億レベルの超大規模言語モデルで、中国語、英語などの異なる言語入力をサポートし、現在の通義千問2.5製品バージョンの背後にあるAPIモデルです。"
1099
1165
  },
1166
+ "qwen-plus": {
1167
+ "description": "通義千問の超大規模言語モデルの強化版で、中国語、英語などさまざまな言語の入力をサポートしています。"
1168
+ },
1100
1169
  "qwen-plus-latest": {
1101
1170
  "description": "通義千問の超大規模言語モデルの強化版で、中国語、英語などの異なる言語入力をサポートしています。"
1102
1171
  },
1172
+ "qwen-turbo": {
1173
+ "description": "通義千問の超大規模言語モデルで、中国語、英語などさまざまな言語の入力をサポートしています。"
1174
+ },
1103
1175
  "qwen-turbo-latest": {
1104
1176
  "description": "通義千問の超大規模言語モデルで、中国語、英語などの異なる言語入力をサポートしています。"
1105
1177
  },
@@ -1136,12 +1208,18 @@
1136
1208
  "qwen2.5-7b-instruct": {
1137
1209
  "description": "通義千問2.5の対外オープンソースの7B規模のモデルです。"
1138
1210
  },
1211
+ "qwen2.5-coder-1.5b-instruct": {
1212
+ "description": "通義千問コードモデルのオープンソース版です。"
1213
+ },
1139
1214
  "qwen2.5-coder-32b-instruct": {
1140
1215
  "description": "通義千問コードモデルのオープンソース版。"
1141
1216
  },
1142
1217
  "qwen2.5-coder-7b-instruct": {
1143
1218
  "description": "通義千問のコードモデルのオープンソース版です。"
1144
1219
  },
1220
+ "qwen2.5-math-1.5b-instruct": {
1221
+ "description": "Qwen-Mathモデルは、強力な数学的問題解決能力を備えています。"
1222
+ },
1145
1223
  "qwen2.5-math-72b-instruct": {
1146
1224
  "description": "Qwen-Mathモデルは、強力な数学の問題解決能力を持っています。"
1147
1225
  },
@@ -34,6 +34,9 @@
34
34
  "groq": {
35
35
  "description": "GroqのLPU推論エンジンは、最新の独立した大規模言語モデル(LLM)ベンチマークテストで卓越したパフォーマンスを示し、その驚異的な速度と効率でAIソリューションの基準を再定義しています。Groqは、即時推論速度の代表であり、クラウドベースの展開で良好なパフォーマンスを発揮しています。"
36
36
  },
37
+ "higress": {
38
+ "description": ""
39
+ },
37
40
  "huggingface": {
38
41
  "description": "HuggingFace Inference APIは、数千のモデルをさまざまなタスクに対して探索するための迅速かつ無料の方法を提供します。新しいアプリケーションのプロトタイプを作成している場合でも、機械学習の機能を試している場合でも、このAPIは複数の分野の高性能モデルに即座にアクセスできるようにします。"
39
42
  },