@lobehub/chat 1.20.8 → 1.21.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (100) hide show
  1. package/CHANGELOG.md +42 -0
  2. package/Dockerfile +5 -2
  3. package/Dockerfile.database +5 -2
  4. package/locales/ar/error.json +1 -0
  5. package/locales/ar/modelProvider.json +20 -0
  6. package/locales/ar/models.json +73 -4
  7. package/locales/ar/providers.json +6 -0
  8. package/locales/bg-BG/error.json +1 -0
  9. package/locales/bg-BG/modelProvider.json +20 -0
  10. package/locales/bg-BG/models.json +73 -4
  11. package/locales/bg-BG/providers.json +6 -0
  12. package/locales/de-DE/error.json +1 -0
  13. package/locales/de-DE/modelProvider.json +20 -0
  14. package/locales/de-DE/models.json +73 -4
  15. package/locales/de-DE/providers.json +6 -0
  16. package/locales/en-US/error.json +1 -0
  17. package/locales/en-US/modelProvider.json +20 -0
  18. package/locales/en-US/models.json +73 -4
  19. package/locales/en-US/providers.json +6 -0
  20. package/locales/es-ES/error.json +1 -0
  21. package/locales/es-ES/modelProvider.json +20 -0
  22. package/locales/es-ES/models.json +73 -4
  23. package/locales/es-ES/providers.json +6 -0
  24. package/locales/fr-FR/error.json +1 -0
  25. package/locales/fr-FR/modelProvider.json +20 -0
  26. package/locales/fr-FR/models.json +73 -4
  27. package/locales/fr-FR/providers.json +6 -0
  28. package/locales/it-IT/error.json +1 -0
  29. package/locales/it-IT/modelProvider.json +20 -0
  30. package/locales/it-IT/models.json +73 -4
  31. package/locales/it-IT/providers.json +6 -0
  32. package/locales/ja-JP/error.json +1 -0
  33. package/locales/ja-JP/modelProvider.json +20 -0
  34. package/locales/ja-JP/models.json +73 -4
  35. package/locales/ja-JP/providers.json +6 -0
  36. package/locales/ko-KR/error.json +1 -0
  37. package/locales/ko-KR/modelProvider.json +20 -0
  38. package/locales/ko-KR/models.json +73 -4
  39. package/locales/ko-KR/providers.json +6 -0
  40. package/locales/nl-NL/error.json +1 -0
  41. package/locales/nl-NL/modelProvider.json +20 -0
  42. package/locales/nl-NL/models.json +73 -4
  43. package/locales/nl-NL/providers.json +6 -0
  44. package/locales/pl-PL/error.json +1 -0
  45. package/locales/pl-PL/modelProvider.json +20 -0
  46. package/locales/pl-PL/models.json +73 -4
  47. package/locales/pl-PL/providers.json +6 -0
  48. package/locales/pt-BR/error.json +1 -0
  49. package/locales/pt-BR/modelProvider.json +20 -0
  50. package/locales/pt-BR/models.json +73 -4
  51. package/locales/pt-BR/providers.json +6 -0
  52. package/locales/ru-RU/error.json +1 -0
  53. package/locales/ru-RU/modelProvider.json +20 -0
  54. package/locales/ru-RU/models.json +73 -4
  55. package/locales/ru-RU/providers.json +6 -0
  56. package/locales/tr-TR/error.json +1 -0
  57. package/locales/tr-TR/modelProvider.json +20 -0
  58. package/locales/tr-TR/models.json +73 -4
  59. package/locales/tr-TR/providers.json +6 -0
  60. package/locales/vi-VN/error.json +1 -0
  61. package/locales/vi-VN/modelProvider.json +20 -0
  62. package/locales/vi-VN/models.json +73 -4
  63. package/locales/vi-VN/providers.json +6 -0
  64. package/locales/zh-CN/error.json +1 -0
  65. package/locales/zh-CN/modelProvider.json +20 -0
  66. package/locales/zh-CN/models.json +76 -7
  67. package/locales/zh-CN/providers.json +6 -0
  68. package/locales/zh-TW/error.json +1 -0
  69. package/locales/zh-TW/modelProvider.json +20 -0
  70. package/locales/zh-TW/models.json +73 -4
  71. package/locales/zh-TW/providers.json +6 -0
  72. package/package.json +3 -2
  73. package/scripts/serverLauncher/startServer.js +10 -81
  74. package/src/app/(main)/settings/llm/ProviderList/Wenxin/index.tsx +46 -0
  75. package/src/app/(main)/settings/llm/ProviderList/providers.tsx +4 -1
  76. package/src/app/api/chat/agentRuntime.test.ts +21 -0
  77. package/src/app/api/chat/wenxin/route.test.ts +27 -0
  78. package/src/app/api/chat/wenxin/route.ts +30 -0
  79. package/src/app/api/errorResponse.ts +4 -0
  80. package/src/config/llm.ts +8 -0
  81. package/src/config/modelProviders/index.ts +4 -0
  82. package/src/config/modelProviders/wenxin.ts +159 -0
  83. package/src/const/auth.ts +4 -0
  84. package/src/const/settings/llm.ts +5 -0
  85. package/src/features/Conversation/Error/APIKeyForm/Wenxin.tsx +49 -0
  86. package/src/features/Conversation/Error/APIKeyForm/index.tsx +3 -0
  87. package/src/features/Conversation/Error/index.tsx +1 -0
  88. package/src/libs/agent-runtime/AgentRuntime.test.ts +1 -0
  89. package/src/libs/agent-runtime/error.ts +1 -0
  90. package/src/libs/agent-runtime/types/type.ts +1 -0
  91. package/src/libs/agent-runtime/utils/streams/wenxin.test.ts +149 -0
  92. package/src/libs/agent-runtime/utils/streams/wenxin.ts +46 -0
  93. package/src/libs/agent-runtime/wenxin/index.ts +106 -0
  94. package/src/libs/agent-runtime/wenxin/type.ts +84 -0
  95. package/src/locales/default/error.ts +2 -0
  96. package/src/locales/default/modelProvider.ts +20 -0
  97. package/src/server/globalConfig/index.ts +4 -1
  98. package/src/services/_auth.ts +14 -0
  99. package/src/store/user/slices/modelList/selectors/keyVaults.ts +2 -0
  100. package/src/types/user/settings/keyVaults.ts +6 -0
@@ -32,6 +32,39 @@
32
32
  "Baichuan4": {
33
33
  "description": "Le modèle est le meilleur en Chine, surpassant les modèles étrangers dans des tâches en chinois telles que l'encyclopédie, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
34
34
  },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "Modèle de langage ultra-large de premier plan développé par Baidu, ayant réalisé une mise à niveau complète des capacités par rapport à ERNIE 3.5, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse."
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "Modèle de langage ultra-large de premier plan développé par Baidu, ayant réalisé une mise à niveau complète des capacités par rapport à ERNIE 3.5, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse."
49
+ },
50
+ "ERNIE-4.0-Turbo-8K": {
51
+ "description": "Modèle de langage ultra-large de premier plan développé par Baidu, offrant d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "Modèle de langage ultra-large de premier plan développé par Baidu, offrant d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "Modèle de langage pour scénarios verticaux développé par Baidu, adapté aux applications telles que les NPC de jeux, les dialogues de service client, et les jeux de rôle, avec des styles de personnages plus distincts et cohérents, une meilleure capacité à suivre les instructions et des performances d'inférence supérieures."
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "Modèle de langage léger développé par Baidu, alliant d'excellentes performances du modèle et efficacité d'inférence, offrant de meilleures performances que ERNIE Lite, adapté à l'inférence sur des cartes d'accélération AI à faible puissance de calcul."
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "Modèle de langage haute performance développé par Baidu, publié en 2024, avec d'excellentes capacités générales, adapté comme modèle de base pour un ajustement fin, permettant de mieux traiter les problèmes de scénarios spécifiques, tout en offrant d'excellentes performances d'inférence."
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "Modèle de langage haute performance développé par Baidu, publié en 2024, avec d'excellentes capacités générales, offrant de meilleures performances que ERNIE Speed, adapté comme modèle de base pour un ajustement fin, permettant de mieux traiter les problèmes de scénarios spécifiques, tout en offrant d'excellentes performances d'inférence."
67
+ },
35
68
  "Gryphe/MythoMax-L2-13b": {
36
69
  "description": "MythoMax-L2 (13B) est un modèle innovant, adapté à des applications dans plusieurs domaines et à des tâches complexes."
37
70
  },
@@ -401,6 +434,9 @@
401
434
  "glm-4-flash": {
402
435
  "description": "GLM-4-Flash est le choix idéal pour traiter des tâches simples, avec la vitesse la plus rapide et le prix le plus avantageux."
403
436
  },
437
+ "glm-4-flashx": {
438
+ "description": "GLM-4-FlashX est une version améliorée de Flash, offrant une vitesse d'inférence ultra-rapide."
439
+ },
404
440
  "glm-4-long": {
405
441
  "description": "GLM-4-Long prend en charge des entrées de texte ultra-longues, adapté aux tâches de mémoire et au traitement de documents à grande échelle."
406
442
  },
@@ -413,11 +449,11 @@
413
449
  "glm-4v-plus": {
414
450
  "description": "GLM-4V-Plus possède la capacité de comprendre le contenu vidéo et plusieurs images, adapté aux tâches multimodales."
415
451
  },
416
- "google/gemini-flash-1.5-exp": {
417
- "description": "Gemini 1.5 Flash 0827 offre des capacités de traitement multimodal optimisées, adaptées à divers scénarios de tâches complexes."
452
+ "google/gemini-flash-1.5": {
453
+ "description": "Gemini 1.5 Flash propose des capacités de traitement multimodal optimisées, adaptées à divers scénarios de tâches complexes."
418
454
  },
419
- "google/gemini-pro-1.5-exp": {
420
- "description": "Gemini 1.5 Pro 0827 combine les dernières technologies d'optimisation pour offrir des capacités de traitement de données multimodales plus efficaces."
455
+ "google/gemini-pro-1.5": {
456
+ "description": "Gemini 1.5 Pro combine les dernières technologies d'optimisation pour offrir une capacité de traitement de données multimodales plus efficace."
421
457
  },
422
458
  "google/gemma-2-27b-it": {
423
459
  "description": "Gemma 2 poursuit le concept de conception légère et efficace."
@@ -491,6 +527,33 @@
491
527
  "gryphe/mythomax-l2-13b": {
492
528
  "description": "MythoMax l2 13B est un modèle linguistique combinant créativité et intelligence, intégrant plusieurs modèles de pointe."
493
529
  },
530
+ "hunyuan-code": {
531
+ "description": "Dernier modèle de génération de code Hunyuan, formé sur un modèle de base avec 200B de données de code de haute qualité, entraîné pendant six mois avec des données SFT de haute qualité, avec une longueur de fenêtre contextuelle augmentée à 8K, se classant parmi les meilleurs sur les indicateurs d'évaluation automatique de génération de code dans cinq langages ; en première ligne des évaluations de qualité humaine sur dix aspects de tâches de code dans cinq langages."
532
+ },
533
+ "hunyuan-functioncall": {
534
+ "description": "Dernier modèle FunctionCall de l'architecture MOE Hunyuan, formé sur des données FunctionCall de haute qualité, avec une fenêtre contextuelle atteignant 32K, se classant parmi les meilleurs sur plusieurs dimensions d'évaluation."
535
+ },
536
+ "hunyuan-lite": {
537
+ "description": "Mise à niveau vers une structure MOE, avec une fenêtre contextuelle de 256k, en tête de nombreux modèles open source dans les évaluations NLP, code, mathématiques, industrie, etc."
538
+ },
539
+ "hunyuan-pro": {
540
+ "description": "Modèle de long texte MOE-32K avec un milliard de paramètres. Atteint un niveau de performance absolument supérieur sur divers benchmarks, capable de traiter des instructions complexes et de raisonner, avec des capacités mathématiques avancées, prenant en charge les appels de fonction, optimisé pour des domaines tels que la traduction multilingue, le droit financier et médical."
541
+ },
542
+ "hunyuan-role": {
543
+ "description": "Dernier modèle de jeu de rôle Hunyuan, un modèle de jeu de rôle affiné et formé par l'équipe officielle de Hunyuan, basé sur le modèle Hunyuan et des ensembles de données de scénarios de jeu de rôle, offrant de meilleures performances de base dans les scénarios de jeu de rôle."
544
+ },
545
+ "hunyuan-standard": {
546
+ "description": "Utilise une stratégie de routage améliorée tout en atténuant les problèmes d'équilibrage de charge et de convergence des experts. Pour les longs textes, l'indice de recherche atteint 99,9 %. MOE-32K offre un meilleur rapport qualité-prix, équilibrant efficacité et coût tout en permettant le traitement des entrées de longs textes."
547
+ },
548
+ "hunyuan-standard-256K": {
549
+ "description": "Utilise une stratégie de routage améliorée tout en atténuant les problèmes d'équilibrage de charge et de convergence des experts. Pour les longs textes, l'indice de recherche atteint 99,9 %. MOE-256K franchit de nouvelles étapes en termes de longueur et d'efficacité, élargissant considérablement la longueur d'entrée possible."
550
+ },
551
+ "hunyuan-turbo": {
552
+ "description": "Version préliminaire du nouveau modèle de langage de génération Hunyuan, utilisant une nouvelle structure de modèle d'experts mixtes (MoE), offrant une efficacité d'inférence plus rapide et de meilleures performances par rapport à Hunyuan-Pro."
553
+ },
554
+ "hunyuan-vision": {
555
+ "description": "Dernier modèle multimodal Hunyuan, prenant en charge l'entrée d'images et de textes pour générer du contenu textuel."
556
+ },
494
557
  "internlm/internlm2_5-20b-chat": {
495
558
  "description": "Le modèle open source innovant InternLM2.5 améliore l'intelligence des dialogues grâce à un grand nombre de paramètres."
496
559
  },
@@ -634,6 +697,12 @@
634
697
  "meta-llama/llama-3.1-8b-instruct:free": {
635
698
  "description": "LLaMA 3.1 offre un support multilingue et est l'un des modèles génératifs les plus avancés de l'industrie."
636
699
  },
700
+ "meta-llama/llama-3.2-11b-vision-instruct": {
701
+ "description": "LLaMA 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel."
702
+ },
703
+ "meta-llama/llama-3.2-90b-vision-instruct": {
704
+ "description": "LLaMA 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel."
705
+ },
637
706
  "meta.llama3-1-405b-instruct-v1:0": {
638
707
  "description": "Meta Llama 3.1 405B Instruct est le modèle le plus grand et le plus puissant du modèle Llama 3.1 Instruct. C'est un modèle de génération de données de dialogue et de raisonnement hautement avancé, qui peut également servir de base pour un pré-entraînement ou un ajustement fin spécialisé dans des domaines spécifiques. Les modèles de langage multilingues (LLMs) fournis par Llama 3.1 sont un ensemble de modèles génératifs pré-entraînés et ajustés par instructions, comprenant des tailles de 8B, 70B et 405B (entrée/sortie de texte). Les modèles de texte ajustés par instructions de Llama 3.1 (8B, 70B, 405B) sont optimisés pour des cas d'utilisation de dialogue multilingue et ont surpassé de nombreux modèles de chat open source disponibles dans des benchmarks industriels courants. Llama 3.1 est conçu pour des usages commerciaux et de recherche dans plusieurs langues. Les modèles de texte ajustés par instructions conviennent aux chats de type assistant, tandis que les modèles pré-entraînés peuvent s'adapter à diverses tâches de génération de langage naturel. Le modèle Llama 3.1 prend également en charge l'amélioration d'autres modèles en utilisant sa sortie, y compris la génération de données synthétiques et le raffinement. Llama 3.1 est un modèle de langage autoregressif utilisant une architecture de transformateur optimisée. Les versions ajustées utilisent un ajustement fin supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour répondre aux préférences humaines en matière d'utilité et de sécurité."
639
708
  },
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Le moteur d'inférence LPU de Groq a excellé dans les derniers tests de référence des grands modèles de langage (LLM), redéfinissant les normes des solutions IA grâce à sa vitesse et son efficacité impressionnantes. Groq représente une vitesse d'inférence instantanée, montrant de bonnes performances dans les déploiements basés sur le cloud."
32
32
  },
33
+ "hunyuan": {
34
+ "description": "Un modèle de langage développé par Tencent, doté d'une puissante capacité de création en chinois, d'une capacité de raisonnement logique dans des contextes complexes, ainsi que d'une capacité fiable d'exécution des tâches."
35
+ },
33
36
  "minimax": {
34
37
  "description": "MiniMax est une entreprise de technologie d'intelligence artificielle générale fondée en 2021, dédiée à la co-création d'intelligence avec les utilisateurs. MiniMax a développé de manière autonome différents modèles de grande taille, y compris un modèle de texte MoE à un trillion de paramètres, un modèle vocal et un modèle d'image. Elle a également lancé des applications telles que Conch AI."
35
38
  },
@@ -75,6 +78,9 @@
75
78
  "upstage": {
76
79
  "description": "Upstage se concentre sur le développement de modèles IA pour divers besoins commerciaux, y compris Solar LLM et Document AI, visant à réaliser une intelligence générale artificielle (AGI) pour le travail. Créez des agents de dialogue simples via l'API Chat, et prenez en charge les appels de fonction, la traduction, l'intégration et les applications spécifiques à un domaine."
77
80
  },
81
+ "wenxin": {
82
+ "description": "Plateforme de développement et de services d'applications AI natives et de modèles de grande envergure, tout-en-un pour les entreprises, offrant la chaîne d'outils la plus complète et facile à utiliser pour le développement de modèles d'intelligence artificielle générative et le développement d'applications."
83
+ },
78
84
  "zeroone": {
79
85
  "description": "01.AI se concentre sur les technologies d'intelligence artificielle de l'ère IA 2.0, promouvant activement l'innovation et l'application de \"l'homme + l'intelligence artificielle\", utilisant des modèles puissants et des technologies IA avancées pour améliorer la productivité humaine et réaliser l'autonomisation technologique."
80
86
  },
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "Errore nella risposta del server del plugin. Verifica il file descrittivo del plugin, la configurazione del plugin o l'implementazione del server",
82
82
  "PluginSettingsInvalid": "Il plugin deve essere configurato correttamente prima di poter essere utilizzato. Verifica che la tua configurazione sia corretta",
83
83
  "ProviderBizError": "Errore di business del fornitore {{provider}}. Si prega di controllare le informazioni seguenti o riprovare.",
84
+ "QuotaLimitReached": "Ci dispiace, l'uso attuale dei token o il numero di richieste ha raggiunto il limite di quota per questa chiave. Si prega di aumentare la quota di questa chiave o riprovare più tardi.",
84
85
  "StreamChunkError": "Erro di analisi del blocco di messaggi della richiesta in streaming. Controlla se l'interfaccia API attuale è conforme agli standard o contatta il tuo fornitore di API per ulteriori informazioni.",
85
86
  "SubscriptionPlanLimit": "Il tuo piano di abbonamento ha raggiunto il limite e non puoi utilizzare questa funzione. Per favore, passa a un piano superiore o acquista un pacchetto di risorse per continuare.",
86
87
  "UnknownChatFetchError": "Ci scusiamo, si è verificato un errore di richiesta sconosciuto. Si prega di controllare le informazioni seguenti o riprovare."
@@ -112,6 +112,26 @@
112
112
  "title": "Scarica il modello Ollama specificato"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "Inserisci l'Access Key della piattaforma Qianfan di Baidu",
118
+ "placeholder": "Access Key Qianfan",
119
+ "title": "Access Key"
120
+ },
121
+ "checker": {
122
+ "desc": "Verifica se l'AccessKey / SecretAccess è stato inserito correttamente"
123
+ },
124
+ "secretKey": {
125
+ "desc": "Inserisci il Secret Key della piattaforma Qianfan di Baidu",
126
+ "placeholder": "Secret Key Qianfan",
127
+ "title": "Secret Key"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "Regione di servizio personalizzata",
131
+ "description": "Inserisci il tuo AccessKey / SecretKey per iniziare la sessione. L'app non registrerà la tua configurazione di autenticazione",
132
+ "title": "Utilizza le informazioni di autenticazione personalizzate di Wenxin Yiyan"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI ZeroOne"
117
137
  },
@@ -32,6 +32,39 @@
32
32
  "Baichuan4": {
33
33
  "description": "Il modello ha la migliore capacità in Cina, superando i modelli mainstream esteri in compiti cinesi come enciclopedie, testi lunghi e creazione di contenuti. Ha anche capacità multimodali leader nel settore, con prestazioni eccellenti in vari benchmark di valutazione."
34
34
  },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, che rispetto a ERNIE 3.5 ha subito un aggiornamento completo delle capacità del modello, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, che rispetto a ERNIE 3.5 ha subito un aggiornamento completo delle capacità del modello, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
49
+ },
50
+ "ERNIE-4.0-Turbo-8K": {
51
+ "description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, con prestazioni complessive eccezionali, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni superiori."
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, con prestazioni complessive eccezionali, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni superiori."
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "Modello di linguaggio verticale sviluppato da Baidu, adatto per applicazioni come NPC nei giochi, dialoghi di assistenza clienti, e interpretazione di ruoli nei dialoghi, con uno stile di personaggio più distintivo e coerente, capacità di seguire le istruzioni più forte e prestazioni di inferenza superiori."
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "Modello di linguaggio leggero sviluppato da Baidu, che combina prestazioni eccellenti del modello con prestazioni di inferenza, con risultati migliori rispetto a ERNIE Lite, adatto per l'uso in schede di accelerazione AI a bassa potenza."
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "Modello di linguaggio ad alte prestazioni sviluppato da Baidu, lanciato nel 2024, con capacità generali eccellenti, adatto come modello di base per il fine-tuning, per gestire meglio le problematiche di scenari specifici, mantenendo al contempo prestazioni di inferenza eccezionali."
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "Modello di linguaggio ad alte prestazioni sviluppato da Baidu, lanciato nel 2024, con capacità generali eccellenti, risultati migliori rispetto a ERNIE Speed, adatto come modello di base per il fine-tuning, per gestire meglio le problematiche di scenari specifici, mantenendo al contempo prestazioni di inferenza eccezionali."
67
+ },
35
68
  "Gryphe/MythoMax-L2-13b": {
36
69
  "description": "MythoMax-L2 (13B) è un modello innovativo, adatto per applicazioni in più settori e compiti complessi."
37
70
  },
@@ -401,6 +434,9 @@
401
434
  "glm-4-flash": {
402
435
  "description": "GLM-4-Flash è l'ideale per compiti semplici, con la massima velocità e il prezzo più conveniente."
403
436
  },
437
+ "glm-4-flashx": {
438
+ "description": "GLM-4-FlashX è una versione potenziata di Flash, con una velocità di inferenza super veloce."
439
+ },
404
440
  "glm-4-long": {
405
441
  "description": "GLM-4-Long supporta input di testo ultra-lunghi, adatto per compiti di memoria e gestione di documenti su larga scala."
406
442
  },
@@ -413,11 +449,11 @@
413
449
  "glm-4v-plus": {
414
450
  "description": "GLM-4V-Plus ha la capacità di comprendere contenuti video e più immagini, adatto per compiti multimodali."
415
451
  },
416
- "google/gemini-flash-1.5-exp": {
417
- "description": "Gemini 1.5 Flash 0827 offre capacità di elaborazione multimodale ottimizzate, adatte a vari scenari di compiti complessi."
452
+ "google/gemini-flash-1.5": {
453
+ "description": "Gemini 1.5 Flash offre capacità di elaborazione multimodale ottimizzate, adatte a vari scenari di compiti complessi."
418
454
  },
419
- "google/gemini-pro-1.5-exp": {
420
- "description": "Gemini 1.5 Pro 0827 combina le più recenti tecnologie di ottimizzazione, offrendo capacità di elaborazione dei dati multimodali più efficienti."
455
+ "google/gemini-pro-1.5": {
456
+ "description": "Gemini 1.5 Pro combina le più recenti tecnologie di ottimizzazione, offrendo una capacità di elaborazione dei dati multimodali più efficiente."
421
457
  },
422
458
  "google/gemma-2-27b-it": {
423
459
  "description": "Gemma 2 continua il concetto di design leggero ed efficiente."
@@ -491,6 +527,33 @@
491
527
  "gryphe/mythomax-l2-13b": {
492
528
  "description": "MythoMax l2 13B è un modello linguistico che combina creatività e intelligenza, unendo diversi modelli di punta."
493
529
  },
530
+ "hunyuan-code": {
531
+ "description": "Ultimo modello di generazione di codice di Hunyuan, addestrato su un modello di base con 200B di dati di codice di alta qualità, con sei mesi di addestramento su dati SFT di alta qualità, la lunghezza della finestra di contesto è aumentata a 8K, e si posiziona tra i primi in cinque indicatori di valutazione automatica della generazione di codice; nelle valutazioni di alta qualità su dieci aspetti di codice in cinque lingue, le prestazioni sono nella prima fascia."
532
+ },
533
+ "hunyuan-functioncall": {
534
+ "description": "Ultimo modello FunctionCall con architettura MOE di Hunyuan, addestrato su dati di alta qualità per le chiamate di funzione, con una finestra di contesto di 32K, è in testa in vari indicatori di valutazione."
535
+ },
536
+ "hunyuan-lite": {
537
+ "description": "Aggiornato a una struttura MOE, con una finestra di contesto di 256k, è in testa a molti modelli open source in vari set di valutazione su NLP, codice, matematica e settori."
538
+ },
539
+ "hunyuan-pro": {
540
+ "description": "Modello di testo lungo MOE-32K con un miliardo di parametri. Raggiunge livelli di eccellenza in vari benchmark, con capacità di istruzioni complesse e ragionamento, supporta le chiamate di funzione, ottimizzato per traduzione multilingue, finanza, diritto e medicina."
541
+ },
542
+ "hunyuan-role": {
543
+ "description": "Ultimo modello di ruolo di Hunyuan, un modello di ruolo fine-tuned ufficialmente rilasciato da Hunyuan, addestrato su un dataset di scenari di ruolo, con migliori prestazioni di base in scenari di ruolo."
544
+ },
545
+ "hunyuan-standard": {
546
+ "description": "Utilizza una strategia di routing migliore, alleviando i problemi di bilanciamento del carico e convergenza degli esperti. Per i testi lunghi, l'indice di recupero è del 99,9%. MOE-32K offre un buon rapporto qualità-prezzo, bilanciando efficacia e costo, e gestisce l'input di testi lunghi."
547
+ },
548
+ "hunyuan-standard-256K": {
549
+ "description": "Utilizza una strategia di routing migliore, alleviando i problemi di bilanciamento del carico e convergenza degli esperti. Per i testi lunghi, l'indice di recupero è del 99,9%. MOE-256K supera ulteriormente in lunghezza ed efficacia, ampliando notevolmente la lunghezza massima di input."
550
+ },
551
+ "hunyuan-turbo": {
552
+ "description": "Anteprima della nuova generazione di modelli di linguaggio di Hunyuan, utilizza una nuova struttura di modello ibrido di esperti (MoE), con una maggiore efficienza di inferenza e prestazioni superiori rispetto a hunyuan-pro."
553
+ },
554
+ "hunyuan-vision": {
555
+ "description": "Ultimo modello multimodale di Hunyuan, supporta l'input di immagini e testo per generare contenuti testuali."
556
+ },
494
557
  "internlm/internlm2_5-20b-chat": {
495
558
  "description": "Il modello open source innovativo InternLM2.5, con un gran numero di parametri, migliora l'intelligenza del dialogo."
496
559
  },
@@ -634,6 +697,12 @@
634
697
  "meta-llama/llama-3.1-8b-instruct:free": {
635
698
  "description": "LLaMA 3.1 offre supporto multilingue ed è uno dei modelli generativi leader nel settore."
636
699
  },
700
+ "meta-llama/llama-3.2-11b-vision-instruct": {
701
+ "description": "LLaMA 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Si distingue in compiti come la descrizione delle immagini e il question answering visivo, colmando il divario tra generazione del linguaggio e ragionamento visivo."
702
+ },
703
+ "meta-llama/llama-3.2-90b-vision-instruct": {
704
+ "description": "LLaMA 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Si distingue in compiti come la descrizione delle immagini e il question answering visivo, colmando il divario tra generazione del linguaggio e ragionamento visivo."
705
+ },
637
706
  "meta.llama3-1-405b-instruct-v1:0": {
638
707
  "description": "Meta Llama 3.1 405B Instruct è il modello più grande e potente della serie Llama 3.1 Instruct, un modello avanzato per la generazione di dati e il ragionamento conversazionale, utilizzabile anche come base per un pre-addestramento o un fine-tuning specializzato in determinati settori. I modelli di linguaggio di grandi dimensioni (LLMs) multilingue forniti da Llama 3.1 sono un insieme di modelli generativi pre-addestrati e ottimizzati per le istruzioni, che includono dimensioni di 8B, 70B e 405B (input/output di testo). I modelli di testo ottimizzati per le istruzioni di Llama 3.1 (8B, 70B, 405B) sono stati progettati per casi d'uso conversazionali multilingue e hanno superato molti modelli di chat open source disponibili in benchmark di settore comuni. Llama 3.1 è progettato per usi commerciali e di ricerca in diverse lingue. I modelli di testo ottimizzati per le istruzioni sono adatti a chat simili a assistenti, mentre i modelli pre-addestrati possono adattarsi a vari compiti di generazione di linguaggio naturale. I modelli Llama 3.1 supportano anche l'uso della loro output per migliorare altri modelli, inclusa la generazione di dati sintetici e il raffinamento. Llama 3.1 è un modello di linguaggio autoregressivo basato su un'architettura di trasformatore ottimizzata. Le versioni ottimizzate utilizzano il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF) per allinearsi alle preferenze umane in termini di utilità e sicurezza."
639
708
  },
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Il motore di inferenza LPU di Groq ha mostrato prestazioni eccezionali nei recenti benchmark indipendenti sui modelli di linguaggio di grandi dimensioni (LLM), ridefinendo gli standard delle soluzioni AI con la sua incredibile velocità ed efficienza. Groq rappresenta una velocità di inferenza istantanea, mostrando buone prestazioni nelle implementazioni basate su cloud."
32
32
  },
33
+ "hunyuan": {
34
+ "description": "Un modello di linguaggio sviluppato da Tencent, dotato di potenti capacità di creazione in cinese, abilità di ragionamento logico in contesti complessi e capacità affidabili di esecuzione dei compiti."
35
+ },
33
36
  "minimax": {
34
37
  "description": "MiniMax è un'azienda di tecnologia dell'intelligenza artificiale generale fondata nel 2021, dedicata alla co-creazione di intelligenza con gli utenti. MiniMax ha sviluppato modelli generali di diverse modalità, tra cui un modello di testo MoE con trilioni di parametri, un modello vocale e un modello visivo. Ha anche lanciato applicazioni come Conch AI."
35
38
  },
@@ -75,6 +78,9 @@
75
78
  "upstage": {
76
79
  "description": "Upstage si concentra sullo sviluppo di modelli AI per varie esigenze commerciali, inclusi Solar LLM e document AI, con l'obiettivo di realizzare un'intelligenza artificiale generale artificiale (AGI) per il lavoro. Crea semplici agenti di dialogo tramite Chat API e supporta chiamate funzionali, traduzioni, embedding e applicazioni specifiche del settore."
77
80
  },
81
+ "wenxin": {
82
+ "description": "Piattaforma di sviluppo e servizi per modelli di grandi dimensioni e applicazioni AI native, a livello aziendale, che offre la catena di strumenti completa e facile da usare per lo sviluppo di modelli di intelligenza artificiale generativa e per l'intero processo di sviluppo delle applicazioni."
83
+ },
78
84
  "zeroone": {
79
85
  "description": "01.AI si concentra sulla tecnologia AI dell'era 2.0, promuovendo attivamente l'innovazione e l'applicazione di \"uomo + intelligenza artificiale\", utilizzando modelli potenti e tecnologie AI avanzate per migliorare la produttività umana e realizzare l'abilitazione tecnologica."
80
86
  },
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "プラグインサーバーのリクエストエラーが発生しました。以下のエラーメッセージを参考に、プラグインのマニフェストファイル、設定、サーバー実装を確認してください",
82
82
  "PluginSettingsInvalid": "このプラグインを使用するには、正しい設定が必要です。設定が正しいかどうか確認してください",
83
83
  "ProviderBizError": "リクエスト {{provider}} サービスでエラーが発生しました。以下の情報を確認して再試行してください。",
84
+ "QuotaLimitReached": "申し訳ありませんが、現在のトークン使用量またはリクエスト回数がこのキーのクォータ上限に達しました。キーのクォータを増やすか、後でもう一度お試しください。",
84
85
  "StreamChunkError": "ストリーミングリクエストのメッセージブロック解析エラーです。現在のAPIインターフェースが標準仕様に準拠しているか確認するか、APIプロバイダーにお問い合わせください。",
85
86
  "SubscriptionPlanLimit": "ご契約のクォータが使い切られましたので、この機能を使用することはできません。より高いプランにアップグレードするか、リソースパッケージを購入して継続してください。",
86
87
  "UnknownChatFetchError": "申し訳ありませんが、未知のリクエストエラーが発生しました。以下の情報をもとに確認するか、再試行してください。"
@@ -112,6 +112,26 @@
112
112
  "title": "Download specified Ollama model"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "百度千帆プラットフォームのAccess Keyを入力してください",
118
+ "placeholder": "Qianfan Access Key",
119
+ "title": "Access Key"
120
+ },
121
+ "checker": {
122
+ "desc": "AccessKey / SecretAccessが正しく入力されているかテストします"
123
+ },
124
+ "secretKey": {
125
+ "desc": "百度千帆プラットフォームのSecret Keyを入力してください",
126
+ "placeholder": "Qianfan Secret Key",
127
+ "title": "Secret Key"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "カスタムサービス地域",
131
+ "description": "AccessKey / SecretKeyを入力することでセッションを開始できます。アプリはあなたの認証設定を記録しません",
132
+ "title": "カスタム文心一言認証情報を使用"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI 零一万物"
117
137
  },
@@ -32,6 +32,39 @@
32
32
  "Baichuan4": {
33
33
  "description": "モデル能力は国内でトップであり、知識百科、長文、生成創作などの中国語タスクで海外の主流モデルを超えています。また、業界をリードするマルチモーダル能力を備え、複数の権威ある評価基準で優れたパフォーマンスを示しています。"
34
34
  },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、ERNIE 3.5に比べてモデル能力が全面的にアップグレードされ、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、ERNIE 3.5に比べてモデル能力が全面的にアップグレードされ、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
49
+ },
50
+ "ERNIE-4.0-Turbo-8K": {
51
+ "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、総合的なパフォーマンスが優れており、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。ERNIE 4.0に比べてパフォーマンスがさらに優れています。"
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、総合的なパフォーマンスが優れており、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。ERNIE 4.0に比べてパフォーマンスがさらに優れています。"
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "百度が独自に開発した垂直シナリオ向けの大規模言語モデルで、ゲームのNPC、カスタマーサービスの対話、対話型キャラクターの役割演技などのアプリケーションシナリオに適しており、キャラクターのスタイルがより鮮明で一貫性があり、指示に従う能力が強化され、推論性能が向上しています。"
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "百度が独自に開発した軽量大規模言語モデルで、優れたモデル効果と推論性能を兼ね備え、ERNIE Liteよりも効果が優れており、低計算能力のAIアクセラレータカードでの推論使用に適しています。"
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "百度が2024年に最新リリースした独自開発の高性能大規模言語モデルで、汎用能力が優れており、基盤モデルとして微調整に適しており、特定のシナリオの問題をより良く処理し、優れた推論性能を持っています。"
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "百度が2024年に最新リリースした独自開発の高性能大規模言語モデルで、汎用能力が優れており、ERNIE Speedよりも効果が優れており、基盤モデルとして微調整に適しており、特定のシナリオの問題をより良く処理し、優れた推論性能を持っています。"
67
+ },
35
68
  "Gryphe/MythoMax-L2-13b": {
36
69
  "description": "MythoMax-L2 (13B)は、革新的なモデルであり、多分野のアプリケーションや複雑なタスクに適しています。"
37
70
  },
@@ -401,6 +434,9 @@
401
434
  "glm-4-flash": {
402
435
  "description": "GLM-4-Flashはシンプルなタスクを処理するのに理想的な選択肢で、最も速く、最も手頃な価格です。"
403
436
  },
437
+ "glm-4-flashx": {
438
+ "description": "GLM-4-FlashXはFlashの強化版で、超高速の推論速度を誇ります。"
439
+ },
404
440
  "glm-4-long": {
405
441
  "description": "GLM-4-Longは超長文入力をサポートし、記憶型タスクや大規模文書処理に適しています。"
406
442
  },
@@ -413,11 +449,11 @@
413
449
  "glm-4v-plus": {
414
450
  "description": "GLM-4V-Plusは動画コンテンツや複数の画像を理解する能力を持ち、マルチモーダルタスクに適しています。"
415
451
  },
416
- "google/gemini-flash-1.5-exp": {
417
- "description": "Gemini 1.5 Flash 0827は、最適化されたマルチモーダル処理能力を提供し、さまざまな複雑なタスクシーンに適用可能です。"
452
+ "google/gemini-flash-1.5": {
453
+ "description": "Gemini 1.5 Flashは、最適化されたマルチモーダル処理能力を提供し、さまざまな複雑なタスクシナリオに適しています。"
418
454
  },
419
- "google/gemini-pro-1.5-exp": {
420
- "description": "Gemini 1.5 Pro 0827は、最新の最適化技術を組み合わせて、より効率的なマルチモーダルデータ処理能力を提供します。"
455
+ "google/gemini-pro-1.5": {
456
+ "description": "Gemini 1.5 Proは、最新の最適化技術を組み合わせて、より効率的なマルチモーダルデータ処理能力を実現します。"
421
457
  },
422
458
  "google/gemma-2-27b-it": {
423
459
  "description": "Gemma 2は、軽量化と高効率のデザイン理念を継承しています。"
@@ -491,6 +527,33 @@
491
527
  "gryphe/mythomax-l2-13b": {
492
528
  "description": "MythoMax l2 13Bは複数のトップモデルを統合した創造性と知性を兼ね備えた言語モデルです。"
493
529
  },
530
+ "hunyuan-code": {
531
+ "description": "混元の最新のコード生成モデルで、200Bの高品質コードデータで基盤モデルを増強し、半年間の高品質SFTデータトレーニングを経て、コンテキストウィンドウの長さが8Kに増加しました。5つの主要言語のコード生成自動評価指標で上位に位置し、5つの言語における10項目の総合コードタスクの人工高品質評価で、パフォーマンスは第一梯隊にあります。"
532
+ },
533
+ "hunyuan-functioncall": {
534
+ "description": "混元の最新のMOEアーキテクチャFunctionCallモデルで、高品質のFunctionCallデータトレーニングを経て、コンテキストウィンドウは32Kに達し、複数の次元の評価指標でリーダーシップを発揮しています。"
535
+ },
536
+ "hunyuan-lite": {
537
+ "description": "MOE構造にアップグレードされ、コンテキストウィンドウは256kで、NLP、コード、数学、業界などの多くの評価セットで多くのオープンソースモデルをリードしています。"
538
+ },
539
+ "hunyuan-pro": {
540
+ "description": "万億規模のパラメータを持つMOE-32K長文モデルです。さまざまなベンチマークで絶対的なリーダーシップを達成し、複雑な指示や推論、複雑な数学能力を備え、functioncallをサポートし、多言語翻訳、金融、法律、医療などの分野で重点的に最適化されています。"
541
+ },
542
+ "hunyuan-role": {
543
+ "description": "混元の最新のロールプレイングモデルで、混元公式の精緻なトレーニングによって開発されたロールプレイングモデルで、混元モデルとロールプレイングシナリオデータセットを組み合わせて増強され、ロールプレイングシナリオにおいてより良い基本的な効果を持っています。"
544
+ },
545
+ "hunyuan-standard": {
546
+ "description": "より優れたルーティング戦略を採用し、負荷分散と専門家の収束の問題を緩和しました。長文に関しては、大海捞針指標が99.9%に達しています。MOE-32Kはコストパフォーマンスが相対的に高く、効果と価格のバランスを取りながら、長文入力の処理を実現します。"
547
+ },
548
+ "hunyuan-standard-256K": {
549
+ "description": "より優れたルーティング戦略を採用し、負荷分散と専門家の収束の問題を緩和しました。長文に関しては、大海捞針指標が99.9%に達しています。MOE-256Kは長さと効果の面でさらに突破し、入力可能な長さを大幅に拡張しました。"
550
+ },
551
+ "hunyuan-turbo": {
552
+ "description": "混元の新世代大規模言語モデルのプレビュー版で、全く新しい混合専門家モデル(MoE)構造を採用し、hunyuan-proに比べて推論効率が向上し、パフォーマンスも強化されています。"
553
+ },
554
+ "hunyuan-vision": {
555
+ "description": "混元の最新のマルチモーダルモデルで、画像とテキストの入力をサポートし、テキストコンテンツを生成します。"
556
+ },
494
557
  "internlm/internlm2_5-20b-chat": {
495
558
  "description": "革新的なオープンソースモデルInternLM2.5は、大規模なパラメータを通じて対話のインテリジェンスを向上させました。"
496
559
  },
@@ -634,6 +697,12 @@
634
697
  "meta-llama/llama-3.1-8b-instruct:free": {
635
698
  "description": "LLaMA 3.1は多言語サポートを提供し、業界をリードする生成モデルの一つです。"
636
699
  },
700
+ "meta-llama/llama-3.2-11b-vision-instruct": {
701
+ "description": "LLaMA 3.2は、視覚とテキストデータを組み合わせたタスクを処理することを目的としています。画像の説明や視覚的な質問応答などのタスクで優れたパフォーマンスを発揮し、言語生成と視覚推論の間のギャップを超えています。"
702
+ },
703
+ "meta-llama/llama-3.2-90b-vision-instruct": {
704
+ "description": "LLaMA 3.2は、視覚とテキストデータを組み合わせたタスクを処理することを目的としています。画像の説明や視覚的な質問応答などのタスクで優れたパフォーマンスを発揮し、言語生成と視覚推論の間のギャップを超えています。"
705
+ },
637
706
  "meta.llama3-1-405b-instruct-v1:0": {
638
707
  "description": "Meta Llama 3.1 405B Instructは、Llama 3.1 Instructモデルの中で最大かつ最も強力なモデルであり、高度に進化した対話推論および合成データ生成モデルです。また、特定の分野での専門的な継続的な事前トレーニングや微調整の基盤としても使用できます。Llama 3.1が提供する多言語大規模言語モデル(LLMs)は、8B、70B、405Bのサイズ(テキスト入力/出力)を含む、事前トレーニングされた指示調整された生成モデルのセットです。Llama 3.1の指示調整されたテキストモデル(8B、70B、405B)は、多言語対話のユースケースに最適化されており、一般的な業界ベンチマークテストで多くの利用可能なオープンソースチャットモデルを上回っています。Llama 3.1は、さまざまな言語の商業および研究用途に使用されることを目的としています。指示調整されたテキストモデルは、アシスタントのようなチャットに適しており、事前トレーニングモデルはさまざまな自然言語生成タスクに適応できます。Llama 3.1モデルは、他のモデルを改善するためにその出力を利用することもサポートしており、合成データ生成や洗練にも対応しています。Llama 3.1は、最適化されたトランスフォーマーアーキテクチャを使用した自己回帰型言語モデルです。調整されたバージョンは、監視付き微調整(SFT)と人間のフィードバックを伴う強化学習(RLHF)を使用して、人間の助けや安全性に対する好みに適合させています。"
639
708
  },
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "GroqのLPU推論エンジンは、最新の独立した大規模言語モデル(LLM)ベンチマークテストで卓越したパフォーマンスを示し、その驚異的な速度と効率でAIソリューションの基準を再定義しています。Groqは、即時推論速度の代表であり、クラウドベースの展開で良好なパフォーマンスを発揮しています。"
32
32
  },
33
+ "hunyuan": {
34
+ "description": "テンセントが開発した大規模言語モデルであり、強力な中国語の創作能力、複雑な文脈における論理的推論能力、そして信頼性の高いタスク実行能力を備えています。"
35
+ },
33
36
  "minimax": {
34
37
  "description": "MiniMaxは2021年に設立された汎用人工知能テクノロジー企業であり、ユーザーと共に知能を共創することに取り組んでいます。MiniMaxは、さまざまなモードの汎用大モデルを独自に開発しており、トリリオンパラメータのMoEテキスト大モデル、音声大モデル、画像大モデルを含んでいます。また、海螺AIなどのアプリケーションも展開しています。"
35
38
  },
@@ -75,6 +78,9 @@
75
78
  "upstage": {
76
79
  "description": "Upstageは、さまざまなビジネスニーズに応じたAIモデルの開発に特化しており、Solar LLMや文書AIを含み、人造一般知能(AGI)の実現を目指しています。Chat APIを通じてシンプルな対話エージェントを作成し、機能呼び出し、翻訳、埋め込み、特定分野のアプリケーションをサポートします。"
77
80
  },
81
+ "wenxin": {
82
+ "description": "企業向けのワンストップ大規模モデルとAIネイティブアプリケーションの開発およびサービスプラットフォームで、最も包括的で使いやすい生成的人工知能モデルの開発とアプリケーション開発の全プロセスツールチェーンを提供します。"
83
+ },
78
84
  "zeroone": {
79
85
  "description": "01.AIは、AI 2.0時代の人工知能技術に特化し、「人+人工知能」の革新と応用を推進し、超強力なモデルと先進的なAI技術を用いて人類の生産性を向上させ、技術の力を実現します。"
80
86
  },
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "플러그인 서버 요청이 오류로 반환되었습니다. 플러그인 설명 파일, 플러그인 구성 또는 서버 구현을 확인해주세요.",
82
82
  "PluginSettingsInvalid": "플러그인을 사용하려면 올바른 구성이 필요합니다. 구성이 올바른지 확인해주세요.",
83
83
  "ProviderBizError": "요청한 {{provider}} 서비스에서 오류가 발생했습니다. 아래 정보를 확인하고 다시 시도해주세요.",
84
+ "QuotaLimitReached": "죄송합니다. 현재 토큰 사용량 또는 요청 횟수가 해당 키의 할당량 한도에 도달했습니다. 해당 키의 할당량을 늘리거나 나중에 다시 시도해 주십시오.",
84
85
  "StreamChunkError": "스트리밍 요청의 메시지 블록 구문 분석 오류입니다. 현재 API 인터페이스가 표준 규격에 부합하는지 확인하거나 API 공급자에게 문의하십시오.",
85
86
  "SubscriptionPlanLimit": "구독 한도를 모두 사용했으므로이 기능을 사용할 수 없습니다. 더 높은 요금제로 업그레이드하거나 리소스 패키지를 구매하여 계속 사용하십시오.",
86
87
  "UnknownChatFetchError": "죄송합니다. 알 수 없는 요청 오류가 발생했습니다. 아래 정보를 참고하여 문제를 해결하거나 다시 시도해 주세요."
@@ -112,6 +112,26 @@
112
112
  "title": "Download specified Ollama model"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "바이두 천범 플랫폼의 Access Key를 입력하세요",
118
+ "placeholder": "Qianfan Access Key",
119
+ "title": "Access Key"
120
+ },
121
+ "checker": {
122
+ "desc": "AccessKey / SecretAccess가 올바르게 입력되었는지 테스트합니다"
123
+ },
124
+ "secretKey": {
125
+ "desc": "바이두 천범 플랫폼의 Secret Key를 입력하세요",
126
+ "placeholder": "Qianfan Secret Key",
127
+ "title": "Secret Key"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "사용자 정의 서비스 지역",
131
+ "description": "당신의 AccessKey / SecretKey를 입력하면 대화를 시작할 수 있습니다. 애플리케이션은 당신의 인증 구성을 기록하지 않습니다",
132
+ "title": "사용자 정의 문신 일언 인증 정보 사용"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI Zero One All Things"
117
137
  },