@lobehub/chat 1.60.4 → 1.60.6

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (46) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/README.md +2 -2
  3. package/README.zh-CN.md +2 -2
  4. package/changelog/v1.json +18 -0
  5. package/docs/usage/start.mdx +45 -16
  6. package/docs/usage/start.zh-CN.mdx +42 -4
  7. package/locales/ar/models.json +30 -3
  8. package/locales/ar/providers.json +3 -0
  9. package/locales/bg-BG/models.json +30 -3
  10. package/locales/bg-BG/providers.json +3 -0
  11. package/locales/de-DE/models.json +30 -3
  12. package/locales/de-DE/providers.json +3 -0
  13. package/locales/en-US/models.json +30 -3
  14. package/locales/en-US/providers.json +3 -0
  15. package/locales/es-ES/models.json +30 -3
  16. package/locales/es-ES/providers.json +3 -0
  17. package/locales/fa-IR/models.json +30 -3
  18. package/locales/fa-IR/providers.json +3 -0
  19. package/locales/fr-FR/models.json +30 -3
  20. package/locales/fr-FR/providers.json +3 -0
  21. package/locales/it-IT/models.json +30 -3
  22. package/locales/it-IT/providers.json +3 -0
  23. package/locales/ja-JP/models.json +30 -3
  24. package/locales/ja-JP/providers.json +3 -0
  25. package/locales/ko-KR/models.json +30 -3
  26. package/locales/ko-KR/providers.json +3 -0
  27. package/locales/nl-NL/models.json +30 -3
  28. package/locales/nl-NL/providers.json +3 -0
  29. package/locales/pl-PL/models.json +30 -3
  30. package/locales/pl-PL/providers.json +3 -0
  31. package/locales/pt-BR/models.json +30 -3
  32. package/locales/pt-BR/providers.json +3 -0
  33. package/locales/ru-RU/models.json +30 -3
  34. package/locales/ru-RU/providers.json +3 -0
  35. package/locales/tr-TR/models.json +30 -3
  36. package/locales/tr-TR/providers.json +3 -0
  37. package/locales/vi-VN/models.json +30 -3
  38. package/locales/vi-VN/providers.json +3 -0
  39. package/locales/zh-CN/models.json +33 -6
  40. package/locales/zh-CN/providers.json +3 -0
  41. package/locales/zh-TW/models.json +30 -3
  42. package/locales/zh-TW/providers.json +3 -0
  43. package/next.config.ts +6 -5
  44. package/package.json +1 -1
  45. package/src/app/[variants]/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/Tags.tsx +4 -1
  46. package/src/config/aiModels/openai.ts +1 -0
@@ -47,6 +47,12 @@
47
47
  "Baichuan4-Turbo": {
48
48
  "description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متن‌های طولانی و تولید خلاقانه از مدل‌های اصلی خارجی پیشی می‌گیرد. همچنین دارای قابلیت‌های چندرسانه‌ای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد."
49
49
  },
50
+ "DeepSeek-R1": {
51
+ "description": "مدل LLM پیشرفته و کارآمد که در استدلال، ریاضیات و برنامه‌نویسی تخصص دارد."
52
+ },
53
+ "DeepSeek-R1-Distill-Llama-70B": {
54
+ "description": "DeepSeek R1 - مدل بزرگتر و هوشمندتر در مجموعه DeepSeek - به ساختار لاما 70B تقطیر شده است. بر اساس آزمون‌های معیار و ارزیابی‌های انسانی، این مدل نسبت به لاما 70B اصلی هوشمندتر است و به ویژه در وظایفی که نیاز به دقت ریاضی و واقعیات دارند، عملکرد عالی دارد."
55
+ },
50
56
  "DeepSeek-R1-Distill-Qwen-1.5B": {
51
57
  "description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-1.5B است که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است."
52
58
  },
@@ -119,12 +125,36 @@
119
125
  "InternVL2.5-26B": {
120
126
  "description": "InternVL2.5-26B یک مدل زبان بصری قدرتمند است که از پردازش چند حالتی تصویر و متن پشتیبانی می‌کند و قادر است محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخ‌های مرتبط تولید کند."
121
127
  },
128
+ "Llama-3.2-11B-Vision-Instruct": {
129
+ "description": "توانایی استدلال تصویری عالی در تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری."
130
+ },
131
+ "Llama-3.2-90B-Vision-Instruct\t": {
132
+ "description": "توانایی استدلال تصویری پیشرفته برای برنامه‌های نمایندگی درک بصری."
133
+ },
122
134
  "LoRA/Qwen/Qwen2.5-72B-Instruct": {
123
135
  "description": "Qwen2.5-72B-Instruct یکی از جدیدترین سری مدل‌های زبانی بزرگ منتشر شده توسط Alibaba Cloud است. این مدل 72B در زمینه‌های کدنویسی و ریاضی دارای توانایی‌های بهبود یافته قابل توجهی است. این مدل همچنین از پشتیبانی چند زبانه برخوردار است و بیش از 29 زبان از جمله چینی و انگلیسی را پوشش می‌دهد. این مدل در پیروی از دستورات، درک داده‌های ساختاری و تولید خروجی‌های ساختاری (به ویژه JSON) به طور قابل توجهی بهبود یافته است."
124
136
  },
125
137
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
126
138
  "description": "Qwen2.5-7B-Instruct یکی از جدیدترین سری مدل‌های زبانی بزرگ منتشر شده توسط Alibaba Cloud است. این مدل 7B در زمینه‌های کدنویسی و ریاضی دارای توانایی‌های بهبود یافته قابل توجهی است. این مدل همچنین از پشتیبانی چند زبانه برخوردار است و بیش از 29 زبان از جمله چینی و انگلیسی را پوشش می‌دهد. این مدل در پیروی از دستورات، درک داده‌های ساختاری و تولید خروجی‌های ساختاری (به ویژه JSON) به طور قابل توجهی بهبود یافته است."
127
139
  },
140
+ "Meta-Llama-3.1-405B-Instruct": {
141
+ "description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینه‌سازی شده و در بسیاری از مدل‌های چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد."
142
+ },
143
+ "Meta-Llama-3.1-70B-Instruct": {
144
+ "description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینه‌سازی شده و در بسیاری از مدل‌های چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد."
145
+ },
146
+ "Meta-Llama-3.1-8B-Instruct": {
147
+ "description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینه‌سازی شده و در بسیاری از مدل‌های چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد."
148
+ },
149
+ "Meta-Llama-3.2-1B-Instruct": {
150
+ "description": "مدل زبان کوچک پیشرفته و پیشرفته، با قابلیت درک زبان، توانایی استدلال عالی و توانایی تولید متن."
151
+ },
152
+ "Meta-Llama-3.2-3B-Instruct": {
153
+ "description": "مدل زبان کوچک پیشرفته و پیشرفته، با قابلیت درک زبان، توانایی استدلال عالی و توانایی تولید متن."
154
+ },
155
+ "Meta-Llama-3.3-70B-Instruct": {
156
+ "description": "لاما 3.3 پیشرفته‌ترین مدل زبان چند زبانه و متن باز در سری لاما است که با هزینه‌ای بسیار کم، عملکردی مشابه مدل 405B را ارائه می‌دهد. این مدل بر اساس ساختار ترنسفورمر طراحی شده و از طریق تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) بهبود یافته است تا کارایی و ایمنی آن افزایش یابد. نسخه تنظیم شده آن به طور خاص برای مکالمات چند زبانه بهینه‌سازی شده و در چندین معیار صنعتی، عملکردی بهتر از بسیاری از مدل‌های چت متن باز و بسته دارد. تاریخ قطع دانش آن تا دسامبر 2023 است."
157
+ },
128
158
  "MiniMax-Text-01": {
129
159
  "description": "در سری مدل‌های MiniMax-01، ما نوآوری‌های جسورانه‌ای انجام داده‌ایم: برای اولین بار مکانیزم توجه خطی را به طور وسیع پیاده‌سازی کرده‌ایم و معماری سنتی Transformer دیگر تنها گزینه نیست. این مدل دارای 456 میلیارد پارامتر است که در یک بار فعال‌سازی 45.9 میلیارد است. عملکرد کلی این مدل با بهترین مدل‌های خارجی برابری می‌کند و در عین حال می‌تواند به طور مؤثر به متن‌های طولانی جهانی با 4 میلیون توکن رسیدگی کند، که 32 برابر GPT-4o و 20 برابر Claude-3.5-Sonnet است."
130
160
  },
@@ -860,9 +890,6 @@
860
890
  "gpt-3.5-turbo-1106": {
861
891
  "description": "GPT 3.5 توربو، مناسب برای انواع وظایف تولید و درک متن، در حال حاضر به gpt-3.5-turbo-0125 اشاره می‌کند"
862
892
  },
863
- "gpt-3.5-turbo-16k": {
864
- "description": "مدل تولید متن با ظرفیت بالا GPT 3.5 Turbo 16k، مناسب برای وظایف پیچیده."
865
- },
866
893
  "gpt-3.5-turbo-instruct": {
867
894
  "description": "GPT 3.5 توربو، مناسب برای انواع وظایف تولید و درک متن، در حال حاضر به gpt-3.5-turbo-0125 اشاره می‌کند"
868
895
  },
@@ -92,6 +92,9 @@
92
92
  "qwen": {
93
93
  "description": "چوان یی چیان ون یک مدل زبان بسیار بزرگ است که توسط علی‌کلود به‌طور مستقل توسعه یافته و دارای توانایی‌های قدرتمند درک و تولید زبان طبیعی است. این مدل می‌تواند به انواع سوالات پاسخ دهد، محتوای متنی خلق کند، نظرات و دیدگاه‌ها را بیان کند، کد بنویسد و در حوزه‌های مختلف نقش ایفا کند."
94
94
  },
95
+ "sambanova": {
96
+ "description": "SambaNova Cloud به توسعه‌دهندگان این امکان را می‌دهد که به راحتی از بهترین مدل‌های متن‌باز استفاده کنند و از سریع‌ترین سرعت استنتاج بهره‌مند شوند."
97
+ },
95
98
  "sensenova": {
96
99
  "description": "سنسنووا، با تکیه بر زیرساخت‌های قوی سنس‌تک، خدمات مدل‌های بزرگ تمام‌پشته‌ای را به‌صورت کارآمد و آسان ارائه می‌دهد."
97
100
  },
@@ -47,6 +47,12 @@
47
47
  "Baichuan4-Turbo": {
48
48
  "description": "Le modèle le plus performant en Chine, surpassant les modèles dominants étrangers dans les tâches en chinois telles que les encyclopédies, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
49
49
  },
50
+ "DeepSeek-R1": {
51
+ "description": "LLM efficace à la pointe de la technologie, spécialisé dans le raisonnement, les mathématiques et la programmation."
52
+ },
53
+ "DeepSeek-R1-Distill-Llama-70B": {
54
+ "description": "DeepSeek R1 - un modèle plus grand et plus intelligent dans la suite DeepSeek - a été distillé dans l'architecture Llama 70B. Basé sur des tests de référence et des évaluations humaines, ce modèle est plus intelligent que le Llama 70B d'origine, en particulier dans les tâches nécessitant des mathématiques et une précision factuelle."
55
+ },
50
56
  "DeepSeek-R1-Distill-Qwen-1.5B": {
51
57
  "description": "Le modèle distillé DeepSeek-R1 basé sur Qwen2.5-Math-1.5B optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source."
52
58
  },
@@ -119,12 +125,36 @@
119
125
  "InternVL2.5-26B": {
120
126
  "description": "InternVL2.5-26B est un puissant modèle de langage visuel, prenant en charge le traitement multimodal d'images et de textes, capable de reconnaître avec précision le contenu des images et de générer des descriptions ou des réponses pertinentes."
121
127
  },
128
+ "Llama-3.2-11B-Vision-Instruct": {
129
+ "description": "Excellentes capacités de raisonnement d'image sur des images haute résolution, adaptées aux applications de compréhension visuelle."
130
+ },
131
+ "Llama-3.2-90B-Vision-Instruct\t": {
132
+ "description": "Capacités avancées de raisonnement d'image adaptées aux applications d'agents de compréhension visuelle."
133
+ },
122
134
  "LoRA/Qwen/Qwen2.5-72B-Instruct": {
123
135
  "description": "Qwen2.5-72B-Instruct est l'un des derniers modèles de langage à grande échelle publiés par Alibaba Cloud. Ce modèle 72B présente des capacités considérablement améliorées dans des domaines tels que le codage et les mathématiques. Le modèle offre également un support multilingue, couvrant plus de 29 langues, y compris le chinois et l'anglais. Il a montré des améliorations significatives dans le suivi des instructions, la compréhension des données structurées et la génération de sorties structurées (en particulier JSON)."
124
136
  },
125
137
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
126
138
  "description": "Qwen2.5-7B-Instruct est l'un des derniers modèles de langage à grande échelle publiés par Alibaba Cloud. Ce modèle 7B présente des capacités considérablement améliorées dans des domaines tels que le codage et les mathématiques. Le modèle offre également un support multilingue, couvrant plus de 29 langues, y compris le chinois et l'anglais. Il a montré des améliorations significatives dans le suivi des instructions, la compréhension des données structurées et la génération de sorties structurées (en particulier JSON)."
127
139
  },
140
+ "Meta-Llama-3.1-405B-Instruct": {
141
+ "description": "Modèle de texte optimisé pour les instructions de Llama 3.1, conçu pour des cas d'utilisation de dialogue multilingue, qui se distingue dans de nombreux modèles de chat open source et fermés sur des benchmarks industriels courants."
142
+ },
143
+ "Meta-Llama-3.1-70B-Instruct": {
144
+ "description": "Modèle de texte optimisé pour les instructions de Llama 3.1, conçu pour des cas d'utilisation de dialogue multilingue, qui se distingue dans de nombreux modèles de chat open source et fermés sur des benchmarks industriels courants."
145
+ },
146
+ "Meta-Llama-3.1-8B-Instruct": {
147
+ "description": "Modèle de texte optimisé pour les instructions de Llama 3.1, conçu pour des cas d'utilisation de dialogue multilingue, qui se distingue dans de nombreux modèles de chat open source et fermés sur des benchmarks industriels courants."
148
+ },
149
+ "Meta-Llama-3.2-1B-Instruct": {
150
+ "description": "Modèle de langage de petite taille à la pointe de la technologie, doté de compétences en compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
151
+ },
152
+ "Meta-Llama-3.2-3B-Instruct": {
153
+ "description": "Modèle de langage de petite taille à la pointe de la technologie, doté de compétences en compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
154
+ },
155
+ "Meta-Llama-3.3-70B-Instruct": {
156
+ "description": "Llama 3.3 est le modèle de langage open source multilingue le plus avancé de la série Llama, offrant des performances comparables à celles d'un modèle de 405B à un coût très faible. Basé sur une architecture Transformer, il a été amélioré en utilité et en sécurité grâce à un ajustement supervisé (SFT) et à un apprentissage par renforcement avec retour humain (RLHF). Sa version optimisée pour les instructions est spécialement conçue pour les dialogues multilingues et surpasse de nombreux modèles de chat open source et fermés sur plusieurs benchmarks industriels. La date limite des connaissances est décembre 2023."
157
+ },
128
158
  "MiniMax-Text-01": {
129
159
  "description": "Dans la série de modèles MiniMax-01, nous avons réalisé une innovation audacieuse : la première mise en œuvre à grande échelle d'un mécanisme d'attention linéaire, rendant l'architecture Transformer traditionnelle non plus le seul choix. Ce modèle possède un nombre de paramètres atteignant 456 milliards, avec 45,9 milliards d'activations par instance. Les performances globales du modèle rivalisent avec celles des meilleurs modèles étrangers, tout en étant capable de traiter efficacement un contexte mondial de 4 millions de tokens, soit 32 fois celui de GPT-4o et 20 fois celui de Claude-3.5-Sonnet."
130
160
  },
@@ -860,9 +890,6 @@
860
890
  "gpt-3.5-turbo-1106": {
861
891
  "description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125."
862
892
  },
863
- "gpt-3.5-turbo-16k": {
864
- "description": "GPT 3.5 Turbo 16k, un modèle de génération de texte à haute capacité, adapté aux tâches complexes."
865
- },
866
893
  "gpt-3.5-turbo-instruct": {
867
894
  "description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125."
868
895
  },
@@ -92,6 +92,9 @@
92
92
  "qwen": {
93
93
  "description": "Tongyi Qianwen est un modèle de langage à grande échelle développé de manière autonome par Alibaba Cloud, doté de puissantes capacités de compréhension et de génération du langage naturel. Il peut répondre à diverses questions, créer du contenu écrit, exprimer des opinions, rédiger du code, etc., jouant un rôle dans plusieurs domaines."
94
94
  },
95
+ "sambanova": {
96
+ "description": "SambaNova Cloud permet aux développeurs d'utiliser facilement les meilleurs modèles open source et de bénéficier de la vitesse d'inférence la plus rapide."
97
+ },
95
98
  "sensenova": {
96
99
  "description": "SenseNova, soutenue par la puissante infrastructure de SenseTime, offre des services de modèles de grande taille complets, efficaces et faciles à utiliser."
97
100
  },
@@ -47,6 +47,12 @@
47
47
  "Baichuan4-Turbo": {
48
48
  "description": "Il modello con le migliori capacità in patria, supera i modelli principali esteri in compiti cinesi come enciclopedie, testi lunghi e creazione di contenuti. Possiede anche capacità multimodali leader del settore, con prestazioni eccellenti in vari benchmark di valutazione."
49
49
  },
50
+ "DeepSeek-R1": {
51
+ "description": "LLM avanzato ed efficiente, specializzato in ragionamento, matematica e programmazione."
52
+ },
53
+ "DeepSeek-R1-Distill-Llama-70B": {
54
+ "description": "DeepSeek R1—il modello più grande e intelligente del pacchetto DeepSeek—è stato distillato nell'architettura Llama 70B. Basato su benchmark e valutazioni umane, questo modello è più intelligente del Llama 70B originale, eccellendo in particolare in compiti che richiedono precisione matematica e fattuale."
55
+ },
50
56
  "DeepSeek-R1-Distill-Qwen-1.5B": {
51
57
  "description": "Il modello di distillazione DeepSeek-R1 basato su Qwen2.5-Math-1.5B ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source."
52
58
  },
@@ -119,12 +125,36 @@
119
125
  "InternVL2.5-26B": {
120
126
  "description": "InternVL2.5-26B è un potente modello linguistico visivo, supporta l'elaborazione multimodale di immagini e testo, in grado di riconoscere con precisione il contenuto delle immagini e generare descrizioni o risposte correlate."
121
127
  },
128
+ "Llama-3.2-11B-Vision-Instruct": {
129
+ "description": "Eccellenti capacità di ragionamento visivo su immagini ad alta risoluzione, adatte per applicazioni di comprensione visiva."
130
+ },
131
+ "Llama-3.2-90B-Vision-Instruct\t": {
132
+ "description": "Capacità avanzate di ragionamento visivo per applicazioni di agenti di comprensione visiva."
133
+ },
122
134
  "LoRA/Qwen/Qwen2.5-72B-Instruct": {
123
135
  "description": "Qwen2.5-72B-Instruct è uno dei più recenti modelli linguistici di grandi dimensioni rilasciati da Alibaba Cloud. Questo modello da 72B ha capacità notevolmente migliorate in codifica e matematica. Il modello offre anche supporto multilingue, coprendo oltre 29 lingue, tra cui cinese e inglese. Ha mostrato miglioramenti significativi nel seguire istruzioni, comprendere dati strutturati e generare output strutturati (soprattutto JSON)."
124
136
  },
125
137
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
126
138
  "description": "Qwen2.5-7B-Instruct è uno dei più recenti modelli linguistici di grandi dimensioni rilasciati da Alibaba Cloud. Questo modello da 7B ha capacità notevolmente migliorate in codifica e matematica. Il modello offre anche supporto multilingue, coprendo oltre 29 lingue, tra cui cinese e inglese. Ha mostrato miglioramenti significativi nel seguire istruzioni, comprendere dati strutturati e generare output strutturati (soprattutto JSON)."
127
139
  },
140
+ "Meta-Llama-3.1-405B-Instruct": {
141
+ "description": "Modello di testo ottimizzato per le istruzioni di Llama 3.1, progettato per casi d'uso di dialogo multilingue, che si distingue in molti modelli di chat open source e chiusi in benchmark di settore comuni."
142
+ },
143
+ "Meta-Llama-3.1-70B-Instruct": {
144
+ "description": "Modello di testo ottimizzato per le istruzioni di Llama 3.1, progettato per casi d'uso di dialogo multilingue, che si distingue in molti modelli di chat open source e chiusi in benchmark di settore comuni."
145
+ },
146
+ "Meta-Llama-3.1-8B-Instruct": {
147
+ "description": "Modello di testo ottimizzato per le istruzioni di Llama 3.1, progettato per casi d'uso di dialogo multilingue, che si distingue in molti modelli di chat open source e chiusi in benchmark di settore comuni."
148
+ },
149
+ "Meta-Llama-3.2-1B-Instruct": {
150
+ "description": "Modello di linguaggio di piccole dimensioni all'avanguardia, dotato di comprensione linguistica, eccellenti capacità di ragionamento e generazione di testo."
151
+ },
152
+ "Meta-Llama-3.2-3B-Instruct": {
153
+ "description": "Modello di linguaggio di piccole dimensioni all'avanguardia, dotato di comprensione linguistica, eccellenti capacità di ragionamento e generazione di testo."
154
+ },
155
+ "Meta-Llama-3.3-70B-Instruct": {
156
+ "description": "Llama 3.3 è il modello di linguaggio open source multilingue più avanzato della serie Llama, che offre prestazioni paragonabili a un modello da 405B a un costo estremamente ridotto. Basato su una struttura Transformer e migliorato tramite fine-tuning supervisionato (SFT) e apprendimento rinforzato con feedback umano (RLHF) per aumentarne l'utilità e la sicurezza. La sua versione ottimizzata per le istruzioni è progettata per dialoghi multilingue, superando molti modelli di chat open source e chiusi in vari benchmark di settore. La data di conoscenza è dicembre 2023."
157
+ },
128
158
  "MiniMax-Text-01": {
129
159
  "description": "Nella serie di modelli MiniMax-01, abbiamo fatto un'innovazione audace: per la prima volta abbiamo implementato su larga scala un meccanismo di attenzione lineare, rendendo l'architettura Transformer tradizionale non più l'unica opzione. Questo modello ha un numero di parametri che raggiunge i 456 miliardi, con un'attivazione singola di 45,9 miliardi. Le prestazioni complessive del modello sono paragonabili a quelle dei migliori modelli internazionali, mentre è in grado di gestire in modo efficiente contesti globali lunghi fino a 4 milioni di token, 32 volte rispetto a GPT-4o e 20 volte rispetto a Claude-3.5-Sonnet."
130
160
  },
@@ -860,9 +890,6 @@
860
890
  "gpt-3.5-turbo-1106": {
861
891
  "description": "GPT 3.5 Turbo, adatto a una varietà di compiti di generazione e comprensione del testo, attualmente punta a gpt-3.5-turbo-0125."
862
892
  },
863
- "gpt-3.5-turbo-16k": {
864
- "description": "GPT 3.5 Turbo 16k, modello di generazione di testo ad alta capacità, adatto per compiti complessi."
865
- },
866
893
  "gpt-3.5-turbo-instruct": {
867
894
  "description": "GPT 3.5 Turbo, adatto a una varietà di compiti di generazione e comprensione del testo, attualmente punta a gpt-3.5-turbo-0125."
868
895
  },
@@ -92,6 +92,9 @@
92
92
  "qwen": {
93
93
  "description": "Qwen è un modello di linguaggio di grande scala sviluppato autonomamente da Alibaba Cloud, con potenti capacità di comprensione e generazione del linguaggio naturale. Può rispondere a varie domande, creare contenuti testuali, esprimere opinioni e scrivere codice, svolgendo un ruolo in vari settori."
94
94
  },
95
+ "sambanova": {
96
+ "description": "SambaNova Cloud consente agli sviluppatori di utilizzare facilmente i migliori modelli open source e di godere della velocità di inferenza più rapida."
97
+ },
95
98
  "sensenova": {
96
99
  "description": "SenseTime offre servizi di modelli di grandi dimensioni full-stack, supportati dalla potente infrastruttura di SenseTime."
97
100
  },
@@ -47,6 +47,12 @@
47
47
  "Baichuan4-Turbo": {
48
48
  "description": "モデル能力は国内で第一であり、知識百科、長文、生成創作などの中国語タスクで海外の主流モデルを超えています。また、業界をリードするマルチモーダル能力を持ち、多くの権威ある評価基準で優れたパフォーマンスを示しています。"
49
49
  },
50
+ "DeepSeek-R1": {
51
+ "description": "最先端の効率的なLLMで、推論、数学、プログラミングに優れています。"
52
+ },
53
+ "DeepSeek-R1-Distill-Llama-70B": {
54
+ "description": "DeepSeek R1——DeepSeekスイートの中でより大きく、より賢いモデル——がLlama 70Bアーキテクチャに蒸留されました。ベンチマークテストと人間の評価に基づき、このモデルは元のLlama 70Bよりも賢く、特に数学と事実の正確性が求められるタスクで優れた性能を発揮します。"
55
+ },
50
56
  "DeepSeek-R1-Distill-Qwen-1.5B": {
51
57
  "description": "Qwen2.5-Math-1.5Bに基づくDeepSeek-R1蒸留モデルで、強化学習とコールドスタートデータを通じて推論性能を最適化し、オープンソースモデルがマルチタスクの基準を刷新しました。"
52
58
  },
@@ -119,12 +125,36 @@
119
125
  "InternVL2.5-26B": {
120
126
  "description": "InternVL2.5-26Bは、強力な視覚言語モデルで、画像とテキストのマルチモーダル処理をサポートし、画像内容を正確に認識し、関連する説明や回答を生成することができます。"
121
127
  },
128
+ "Llama-3.2-11B-Vision-Instruct": {
129
+ "description": "高解像度画像で優れた画像推論能力を発揮し、視覚理解アプリケーションに適しています。"
130
+ },
131
+ "Llama-3.2-90B-Vision-Instruct\t": {
132
+ "description": "視覚理解エージェントアプリケーションに適した高度な画像推論能力を備えています。"
133
+ },
122
134
  "LoRA/Qwen/Qwen2.5-72B-Instruct": {
123
135
  "description": "Qwen2.5-72B-InstructはAlibaba Cloudが発表した最新の大規模言語モデルシリーズの一つです。この72Bモデルはコーディングや数学などの分野で顕著な能力の改善を持っています。このモデルは29以上の言語をカバーする多言語サポートも提供しており、中国語、英語などが含まれています。モデルは指示の遵守、構造化データの理解、特にJSONのような構造化出力の生成において顕著な向上を示しています。"
124
136
  },
125
137
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
126
138
  "description": "Qwen2.5-7B-InstructはAlibaba Cloudが発表した最新の大規模言語モデルシリーズの一つです。この7Bモデルはコーディングや数学などの分野で顕著な能力の改善を持っています。このモデルは29以上の言語をカバーする多言語サポートも提供しており、中国語、英語などが含まれています。モデルは指示の遵守、構造化データの理解、特にJSONのような構造化出力の生成において顕著な向上を示しています。"
127
139
  },
140
+ "Meta-Llama-3.1-405B-Instruct": {
141
+ "description": "Llama 3.1の指示調整されたテキストモデルで、多言語対話のユースケースに最適化されており、多くの利用可能なオープンソースおよびクローズドチャットモデルの中で、一般的な業界ベンチマークで優れた性能を発揮します。"
142
+ },
143
+ "Meta-Llama-3.1-70B-Instruct": {
144
+ "description": "Llama 3.1の指示調整されたテキストモデルで、多言語対話のユースケースに最適化されており、多くの利用可能なオープンソースおよびクローズドチャットモデルの中で、一般的な業界ベンチマークで優れた性能を発揮します。"
145
+ },
146
+ "Meta-Llama-3.1-8B-Instruct": {
147
+ "description": "Llama 3.1の指示調整されたテキストモデルで、多言語対話のユースケースに最適化されており、多くの利用可能なオープンソースおよびクローズドチャットモデルの中で、一般的な業界ベンチマークで優れた性能を発揮します。"
148
+ },
149
+ "Meta-Llama-3.2-1B-Instruct": {
150
+ "description": "最先端の小型言語モデルで、言語理解、優れた推論能力、テキスト生成能力を備えています。"
151
+ },
152
+ "Meta-Llama-3.2-3B-Instruct": {
153
+ "description": "最先端の小型言語モデルで、言語理解、優れた推論能力、テキスト生成能力を備えています。"
154
+ },
155
+ "Meta-Llama-3.3-70B-Instruct": {
156
+ "description": "Llama 3.3は、Llamaシリーズの最先端の多言語オープンソース大規模言語モデルで、非常に低コストで405Bモデルに匹敵する性能を体験できます。Transformer構造に基づき、監視付き微調整(SFT)と人間のフィードバックによる強化学習(RLHF)を通じて有用性と安全性を向上させています。その指示調整バージョンは多言語対話に最適化されており、さまざまな業界のベンチマークで多くのオープンソースおよびクローズドチャットモデルを上回る性能を発揮します。知識のカットオフ日は2023年12月です。"
157
+ },
128
158
  "MiniMax-Text-01": {
129
159
  "description": "MiniMax-01シリーズモデルでは、大胆な革新を行いました:初めて大規模に線形注意メカニズムを実現し、従来のTransformerアーキテクチャが唯一の選択肢ではなくなりました。このモデルのパラメータ数は4560億に達し、単回のアクティベーションは459億です。モデルの総合性能は海外のトップモデルに匹敵し、世界最長の400万トークンのコンテキストを効率的に処理でき、GPT-4oの32倍、Claude-3.5-Sonnetの20倍です。"
130
160
  },
@@ -860,9 +890,6 @@
860
890
  "gpt-3.5-turbo-1106": {
861
891
  "description": "GPT 3.5 Turboは、さまざまなテキスト生成と理解タスクに適しており、現在はgpt-3.5-turbo-0125を指しています。"
862
892
  },
863
- "gpt-3.5-turbo-16k": {
864
- "description": "GPT 3.5 Turbo 16k、高容量テキスト生成モデル、複雑なタスクに適しています。"
865
- },
866
893
  "gpt-3.5-turbo-instruct": {
867
894
  "description": "GPT 3.5 Turboは、さまざまなテキスト生成と理解タスクに適しており、現在はgpt-3.5-turbo-0125を指しています。"
868
895
  },
@@ -92,6 +92,9 @@
92
92
  "qwen": {
93
93
  "description": "通義千問は、アリババクラウドが独自に開発した超大規模言語モデルであり、強力な自然言語理解と生成能力を持っています。さまざまな質問に答えたり、文章を創作したり、意見を表現したり、コードを執筆したりすることができ、さまざまな分野で活躍しています。"
94
94
  },
95
+ "sambanova": {
96
+ "description": "SambaNova Cloudは、開発者が最高のオープンソースモデルを簡単に利用でき、最速の推論速度を享受できるようにします。"
97
+ },
95
98
  "sensenova": {
96
99
  "description": "商湯日日新は、商湯の強力な基盤支援に基づき、高効率で使いやすい全スタックの大規模モデルサービスを提供します。"
97
100
  },
@@ -47,6 +47,12 @@
47
47
  "Baichuan4-Turbo": {
48
48
  "description": "모델 능력이 국내 1위이며, 지식 백과, 긴 텍스트, 생성 창작 등 중국어 작업에서 해외 주류 모델을 초월합니다. 또한 업계 선도적인 다중 모달 능력을 갖추고 있으며, 여러 권위 있는 평가 기준에서 우수한 성과를 보입니다."
49
49
  },
50
+ "DeepSeek-R1": {
51
+ "description": "최첨단 효율적인 LLM으로, 추론, 수학 및 프로그래밍에 능숙합니다."
52
+ },
53
+ "DeepSeek-R1-Distill-Llama-70B": {
54
+ "description": "DeepSeek R1——DeepSeek 패키지에서 더 크고 더 스마트한 모델——이 Llama 70B 아키텍처로 증류되었습니다. 기준 테스트와 인공지능 평가에 따르면, 이 모델은 원래 Llama 70B보다 더 스마트하며, 특히 수학 및 사실 정확성이 필요한 작업에서 뛰어난 성능을 보입니다."
55
+ },
50
56
  "DeepSeek-R1-Distill-Qwen-1.5B": {
51
57
  "description": "Qwen2.5-Math-1.5B를 기반으로 한 DeepSeek-R1 증류 모델로, 강화 학습과 콜드 스타트 데이터를 통해 추론 성능을 최적화하며, 오픈 소스 모델로 다중 작업 기준을 갱신합니다."
52
58
  },
@@ -119,12 +125,36 @@
119
125
  "InternVL2.5-26B": {
120
126
  "description": "InternVL2.5-26B는 강력한 비주얼 언어 모델로, 이미지와 텍스트의 다중 모달 처리를 지원하며, 이미지 내용을 정확하게 인식하고 관련 설명이나 답변을 생성할 수 있습니다."
121
127
  },
128
+ "Llama-3.2-11B-Vision-Instruct": {
129
+ "description": "고해상도 이미지에서 뛰어난 이미지 추론 능력을 보여주며, 시각적 이해 응용 프로그램에 적합합니다."
130
+ },
131
+ "Llama-3.2-90B-Vision-Instruct\t": {
132
+ "description": "시각적 이해 에이전트 응용 프로그램에 적합한 고급 이미지 추론 능력입니다."
133
+ },
122
134
  "LoRA/Qwen/Qwen2.5-72B-Instruct": {
123
135
  "description": "Qwen2.5-72B-Instruct는 Alibaba Cloud에서 발표한 최신 대규모 언어 모델 시리즈 중 하나입니다. 이 72B 모델은 코딩 및 수학 분야에서 상당한 개선된 능력을 가지고 있습니다. 이 모델은 또한 29개 이상의 언어를 포함한 다국어 지원을 제공합니다. 모델은 지침 준수, 구조화된 데이터 이해 및 구조화된 출력 생성(특히 JSON)에서 상당한 향상을 보입니다."
124
136
  },
125
137
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
126
138
  "description": "Qwen2.5-7B-Instruct는 Alibaba Cloud에서 발표한 최신 대규모 언어 모델 시리즈 중 하나입니다. 이 7B 모델은 코딩 및 수학 분야에서 상당한 개선된 능력을 가지고 있습니다. 이 모델은 또한 29개 이상의 언어를 포함한 다국어 지원을 제공합니다. 모델은 지침 준수, 구조화된 데이터 이해 및 구조화된 출력 생성(특히 JSON)에서 상당한 향상을 보입니다."
127
139
  },
140
+ "Meta-Llama-3.1-405B-Instruct": {
141
+ "description": "Llama 3.1 지시 조정 텍스트 모델로, 다국어 대화 사용 사례에 최적화되어 있으며, 많은 오픈 소스 및 폐쇄형 채팅 모델 중에서 일반 산업 기준에서 우수한 성능을 보입니다."
142
+ },
143
+ "Meta-Llama-3.1-70B-Instruct": {
144
+ "description": "Llama 3.1 지시 조정 텍스트 모델로, 다국어 대화 사용 사례에 최적화되어 있으며, 많은 오픈 소스 및 폐쇄형 채팅 모델 중에서 일반 산업 기준에서 우수한 성능을 보입니다."
145
+ },
146
+ "Meta-Llama-3.1-8B-Instruct": {
147
+ "description": "Llama 3.1 지시 조정 텍스트 모델로, 다국어 대화 사용 사례에 최적화되어 있으며, 많은 오픈 소스 및 폐쇄형 채팅 모델 중에서 일반 산업 기준에서 우수한 성능을 보입니다."
148
+ },
149
+ "Meta-Llama-3.2-1B-Instruct": {
150
+ "description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 최첨단 소형 언어 모델입니다."
151
+ },
152
+ "Meta-Llama-3.2-3B-Instruct": {
153
+ "description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 최첨단 소형 언어 모델입니다."
154
+ },
155
+ "Meta-Llama-3.3-70B-Instruct": {
156
+ "description": "Llama 3.3은 Llama 시리즈에서 가장 진보된 다국어 오픈 소스 대형 언어 모델로, 매우 낮은 비용으로 405B 모델의 성능을 경험할 수 있습니다. Transformer 구조를 기반으로 하며, 감독 미세 조정(SFT)과 인간 피드백 강화 학습(RLHF)을 통해 유용성과 안전성을 향상시켰습니다. 그 지시 조정 버전은 다국어 대화를 위해 최적화되어 있으며, 여러 산업 기준에서 많은 오픈 소스 및 폐쇄형 채팅 모델보다 우수한 성능을 보입니다. 지식 마감일은 2023년 12월입니다."
157
+ },
128
158
  "MiniMax-Text-01": {
129
159
  "description": "MiniMax-01 시리즈 모델에서는 대담한 혁신을 이루었습니다: 대규모로 선형 주의 메커니즘을 처음으로 구현하였으며, 전통적인 Transformer 아키텍처가 더 이상 유일한 선택이 아닙니다. 이 모델의 파라미터 수는 4560억에 달하며, 단일 활성화는 45.9억입니다. 모델의 종합 성능은 해외 최고의 모델과 견줄 수 있으며, 전 세계에서 가장 긴 400만 토큰의 문맥을 효율적으로 처리할 수 있습니다. 이는 GPT-4o의 32배, Claude-3.5-Sonnet의 20배에 해당합니다."
130
160
  },
@@ -860,9 +890,6 @@
860
890
  "gpt-3.5-turbo-1106": {
861
891
  "description": "GPT 3.5 Turbo는 다양한 텍스트 생성 및 이해 작업에 적합하며, 현재 gpt-3.5-turbo-0125를 가리킵니다."
862
892
  },
863
- "gpt-3.5-turbo-16k": {
864
- "description": "GPT 3.5 Turbo 16k, 고용량 텍스트 생성 모델로 복잡한 작업에 적합합니다."
865
- },
866
893
  "gpt-3.5-turbo-instruct": {
867
894
  "description": "GPT 3.5 Turbo는 다양한 텍스트 생성 및 이해 작업에 적합하며, 현재 gpt-3.5-turbo-0125를 가리킵니다."
868
895
  },
@@ -92,6 +92,9 @@
92
92
  "qwen": {
93
93
  "description": "통의천문은 알리바바 클라우드가 자주 개발한 초대형 언어 모델로, 강력한 자연어 이해 및 생성 능력을 갖추고 있습니다. 다양한 질문에 답변하고, 텍스트 콘텐츠를 창작하며, 의견을 표현하고, 코드를 작성하는 등 여러 분야에서 활용됩니다."
94
94
  },
95
+ "sambanova": {
96
+ "description": "SambaNova Cloud는 개발자가 최고의 오픈 소스 모델을 쉽게 사용하고 가장 빠른 추론 속도를 즐길 수 있도록 합니다."
97
+ },
95
98
  "sensenova": {
96
99
  "description": "상탕의 일일 혁신은 상탕의 강력한 기반 지원을 바탕으로 효율적이고 사용하기 쉬운 전체 스택 대모델 서비스를 제공합니다."
97
100
  },
@@ -47,6 +47,12 @@
47
47
  "Baichuan4-Turbo": {
48
48
  "description": "Modelcapaciteiten zijn nationaal de beste, overtreft buitenlandse mainstream modellen in kennisencyclopedie, lange teksten en creatieve generatie in Chinese taken. Beschikt ook over toonaangevende multimodale capaciteiten en presteert uitstekend op verschillende autoritatieve evaluatiebenchmarks."
49
49
  },
50
+ "DeepSeek-R1": {
51
+ "description": "Een geavanceerd en efficiënt LLM, gespecialiseerd in redeneren, wiskunde en programmeren."
52
+ },
53
+ "DeepSeek-R1-Distill-Llama-70B": {
54
+ "description": "DeepSeek R1 - een groter en slimmer model binnen de DeepSeek-suite - is gedistilleerd naar de Llama 70B-architectuur. Op basis van benchmarktests en menselijke evaluaties is dit model slimmer dan het oorspronkelijke Llama 70B, vooral in taken die wiskunde en feitelijke nauwkeurigheid vereisen."
55
+ },
50
56
  "DeepSeek-R1-Distill-Qwen-1.5B": {
51
57
  "description": "DeepSeek-R1 distillatiemodel gebaseerd op Qwen2.5-Math-1.5B, geoptimaliseerd voor inferentieprestaties door versterkend leren en koude startdata, open-source model dat de multi-taak benchmark vernieuwt."
52
58
  },
@@ -119,12 +125,36 @@
119
125
  "InternVL2.5-26B": {
120
126
  "description": "InternVL2.5-26B is een krachtig visueel taalmodel dat multimodale verwerking van afbeeldingen en tekst ondersteunt, in staat om afbeeldingsinhoud nauwkeurig te identificeren en relevante beschrijvingen of antwoorden te genereren."
121
127
  },
128
+ "Llama-3.2-11B-Vision-Instruct": {
129
+ "description": "Uitstekende beeldredeneringscapaciteiten op hoge resolutie afbeeldingen, geschikt voor visuele begripstoepassingen."
130
+ },
131
+ "Llama-3.2-90B-Vision-Instruct\t": {
132
+ "description": "Geavanceerde beeldredeneringscapaciteiten voor visuele begripstoepassingen."
133
+ },
122
134
  "LoRA/Qwen/Qwen2.5-72B-Instruct": {
123
135
  "description": "Qwen2.5-72B-Instruct is een van de nieuwste grote taalmodellen die door Alibaba Cloud is uitgebracht. Dit 72B-model heeft aanzienlijke verbeteringen in coderings- en wiskundige vaardigheden. Het model biedt ook meertalige ondersteuning, met meer dan 29 ondersteunde talen, waaronder Chinees en Engels. Het model heeft aanzienlijke verbeteringen in het volgen van instructies, het begrijpen van gestructureerde gegevens en het genereren van gestructureerde uitvoer (vooral JSON)."
124
136
  },
125
137
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
126
138
  "description": "Qwen2.5-7B-Instruct is een van de nieuwste grote taalmodellen die door Alibaba Cloud is uitgebracht. Dit 7B-model heeft aanzienlijke verbeteringen in coderings- en wiskundige vaardigheden. Het model biedt ook meertalige ondersteuning, met meer dan 29 ondersteunde talen, waaronder Chinees en Engels. Het model heeft aanzienlijke verbeteringen in het volgen van instructies, het begrijpen van gestructureerde gegevens en het genereren van gestructureerde uitvoer (vooral JSON)."
127
139
  },
140
+ "Meta-Llama-3.1-405B-Instruct": {
141
+ "description": "Llama 3.1 instructie-geoptimaliseerd tekstmodel, geoptimaliseerd voor meertalige gesprekstoepassingen, presteert uitstekend op veel beschikbare open-source en gesloten chatmodellen op veelvoorkomende industriële benchmarks."
142
+ },
143
+ "Meta-Llama-3.1-70B-Instruct": {
144
+ "description": "Llama 3.1 instructie-geoptimaliseerd tekstmodel, geoptimaliseerd voor meertalige gesprekstoepassingen, presteert uitstekend op veel beschikbare open-source en gesloten chatmodellen op veelvoorkomende industriële benchmarks."
145
+ },
146
+ "Meta-Llama-3.1-8B-Instruct": {
147
+ "description": "Llama 3.1 instructie-geoptimaliseerd tekstmodel, geoptimaliseerd voor meertalige gesprekstoepassingen, presteert uitstekend op veel beschikbare open-source en gesloten chatmodellen op veelvoorkomende industriële benchmarks."
148
+ },
149
+ "Meta-Llama-3.2-1B-Instruct": {
150
+ "description": "Een geavanceerd, state-of-the-art klein taalmiddel met taalbegrip, uitstekende redeneervaardigheden en tekstgeneratiecapaciteiten."
151
+ },
152
+ "Meta-Llama-3.2-3B-Instruct": {
153
+ "description": "Een geavanceerd, state-of-the-art klein taalmiddel met taalbegrip, uitstekende redeneervaardigheden en tekstgeneratiecapaciteiten."
154
+ },
155
+ "Meta-Llama-3.3-70B-Instruct": {
156
+ "description": "Llama 3.3 is het meest geavanceerde meertalige open-source grote taalmiddel in de Llama-serie, dat prestaties biedt die vergelijkbaar zijn met die van een 405B-model tegen zeer lage kosten. Gebaseerd op de Transformer-structuur en verbeterd door middel van supervisie-fijnstelling (SFT) en versterkend leren met menselijke feedback (RLHF) voor nuttigheid en veiligheid. De instructie-geoptimaliseerde versie is speciaal geoptimaliseerd voor meertalige gesprekken en presteert beter dan veel open-source en gesloten chatmodellen op verschillende industriële benchmarks. Kennisafkapdatum is december 2023."
157
+ },
128
158
  "MiniMax-Text-01": {
129
159
  "description": "In de MiniMax-01-serie modellen hebben we gedurfde innovaties doorgevoerd: voor het eerst op grote schaal een lineaire aandachtmechanisme geïmplementeerd, waardoor de traditionele Transformer-architectuur niet langer de enige keuze is. Dit model heeft een parameterhoeveelheid van maar liefst 456 miljard, met een enkele activatie van 45,9 miljard. De algehele prestaties van het model zijn vergelijkbaar met die van de beste modellen in het buitenland, terwijl het efficiënt de wereldwijd langste context van 4 miljoen tokens kan verwerken, wat 32 keer de capaciteit van GPT-4o en 20 keer die van Claude-3.5-Sonnet is."
130
160
  },
@@ -860,9 +890,6 @@
860
890
  "gpt-3.5-turbo-1106": {
861
891
  "description": "GPT 3.5 Turbo, geschikt voor verschillende tekstgeneratie- en begrijptaken, wijst momenteel naar gpt-3.5-turbo-0125."
862
892
  },
863
- "gpt-3.5-turbo-16k": {
864
- "description": "GPT 3.5 Turbo 16k, een model voor tekstgeneratie met hoge capaciteit, geschikt voor complexe taken."
865
- },
866
893
  "gpt-3.5-turbo-instruct": {
867
894
  "description": "GPT 3.5 Turbo, geschikt voor verschillende tekstgeneratie- en begrijptaken, wijst momenteel naar gpt-3.5-turbo-0125."
868
895
  },
@@ -92,6 +92,9 @@
92
92
  "qwen": {
93
93
  "description": "Tongyi Qianwen is een door Alibaba Cloud zelf ontwikkeld grootschalig taalmodel met krachtige mogelijkheden voor natuurlijke taalbegrip en -generatie. Het kan verschillende vragen beantwoorden, tekstinhoud creëren, meningen uiten, code schrijven, en speelt een rol in verschillende domeinen."
94
94
  },
95
+ "sambanova": {
96
+ "description": "SambaNova Cloud stelt ontwikkelaars in staat om eenvoudig gebruik te maken van de beste open-source modellen en te profiteren van de snelste inferentiesnelheden."
97
+ },
95
98
  "sensenova": {
96
99
  "description": "SenseNova, ondersteund door de krachtige infrastructuur van SenseTime, biedt efficiënte en gebruiksvriendelijke full-stack modelservices."
97
100
  },
@@ -47,6 +47,12 @@
47
47
  "Baichuan4-Turbo": {
48
48
  "description": "Model o najlepszych możliwościach w kraju, przewyższający zagraniczne modele w zadaniach związanych z wiedzą encyklopedyczną, długimi tekstami i twórczością w języku chińskim. Posiada również wiodące w branży możliwości multimodalne, osiągając doskonałe wyniki w wielu autorytatywnych testach."
49
49
  },
50
+ "DeepSeek-R1": {
51
+ "description": "Najnowocześniejszy, wydajny LLM, specjalizujący się w wnioskowaniu, matematyce i programowaniu."
52
+ },
53
+ "DeepSeek-R1-Distill-Llama-70B": {
54
+ "description": "DeepSeek R1 — większy i inteligentniejszy model w zestawie DeepSeek — został skondensowany do architektury Llama 70B. Na podstawie testów porównawczych i ocen ludzkich, model ten jest bardziej inteligentny niż oryginalny Llama 70B, zwłaszcza w zadaniach wymagających precyzji matematycznej i faktograficznej."
55
+ },
50
56
  "DeepSeek-R1-Distill-Qwen-1.5B": {
51
57
  "description": "Model destylacyjny DeepSeek-R1 oparty na Qwen2.5-Math-1.5B, optymalizujący wydajność wnioskowania dzięki uczeniu przez wzmocnienie i danym z zimnego startu, otwarty model ustanawiający nowe standardy w wielu zadaniach."
52
58
  },
@@ -119,12 +125,36 @@
119
125
  "InternVL2.5-26B": {
120
126
  "description": "InternVL2.5-26B to potężny model językowy wizualny, wspierający przetwarzanie multimodalne obrazów i tekstu, zdolny do precyzyjnego rozpoznawania treści obrazów i generowania odpowiednich opisów lub odpowiedzi."
121
127
  },
128
+ "Llama-3.2-11B-Vision-Instruct": {
129
+ "description": "Wyróżniające się zdolnościami wnioskowania obrazów na wysokiej rozdzielczości, odpowiednie do zastosowań w rozumieniu wizualnym."
130
+ },
131
+ "Llama-3.2-90B-Vision-Instruct\t": {
132
+ "description": "Zaawansowane zdolności wnioskowania obrazów, odpowiednie do zastosowań w agentach rozumienia wizualnego."
133
+ },
122
134
  "LoRA/Qwen/Qwen2.5-72B-Instruct": {
123
135
  "description": "Qwen2.5-72B-Instruct to jeden z najnowszych modeli dużych języków wydanych przez Alibaba Cloud. Model 72B ma znacząco poprawione zdolności w zakresie kodowania i matematyki. Oferuje również wsparcie dla wielu języków, obejmując ponad 29 języków, w tym chiński i angielski. Model ten wykazuje znaczną poprawę w zakresie przestrzegania instrukcji, rozumienia danych strukturalnych oraz generowania strukturalnych wyników (szczególnie JSON)."
124
136
  },
125
137
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
126
138
  "description": "Qwen2.5-7B-Instruct to jeden z najnowszych modeli dużych języków wydanych przez Alibaba Cloud. Model 7B ma znacząco poprawione zdolności w zakresie kodowania i matematyki. Oferuje również wsparcie dla wielu języków, obejmując ponad 29 języków, w tym chiński i angielski. Model ten wykazuje znaczną poprawę w zakresie przestrzegania instrukcji, rozumienia danych strukturalnych oraz generowania strukturalnych wyników (szczególnie JSON)."
127
139
  },
140
+ "Meta-Llama-3.1-405B-Instruct": {
141
+ "description": "Model tekstowy Llama 3.1 dostosowany do instrukcji, zoptymalizowany do wielojęzycznych przypadków użycia dialogów, osiągający doskonałe wyniki w wielu dostępnych modelach czatu, zarówno otwartych, jak i zamkniętych, w powszechnych benchmarkach branżowych."
142
+ },
143
+ "Meta-Llama-3.1-70B-Instruct": {
144
+ "description": "Model tekstowy Llama 3.1 dostosowany do instrukcji, zoptymalizowany do wielojęzycznych przypadków użycia dialogów, osiągający doskonałe wyniki w wielu dostępnych modelach czatu, zarówno otwartych, jak i zamkniętych, w powszechnych benchmarkach branżowych."
145
+ },
146
+ "Meta-Llama-3.1-8B-Instruct": {
147
+ "description": "Model tekstowy Llama 3.1 dostosowany do instrukcji, zoptymalizowany do wielojęzycznych przypadków użycia dialogów, osiągający doskonałe wyniki w wielu dostępnych modelach czatu, zarówno otwartych, jak i zamkniętych, w powszechnych benchmarkach branżowych."
148
+ },
149
+ "Meta-Llama-3.2-1B-Instruct": {
150
+ "description": "Zaawansowany, nowoczesny mały model językowy, posiadający zdolności rozumienia języka, doskonałe umiejętności wnioskowania oraz generowania tekstu."
151
+ },
152
+ "Meta-Llama-3.2-3B-Instruct": {
153
+ "description": "Zaawansowany, nowoczesny mały model językowy, posiadający zdolności rozumienia języka, doskonałe umiejętności wnioskowania oraz generowania tekstu."
154
+ },
155
+ "Meta-Llama-3.3-70B-Instruct": {
156
+ "description": "Llama 3.3 to najnowocześniejszy wielojęzyczny otwarty model językowy z serii Llama, oferujący wydajność porównywalną z modelem 405B przy bardzo niskich kosztach. Oparty na strukturze Transformer, poprawiony dzięki nadzorowanemu dostrajaniu (SFT) oraz uczeniu ze wzmocnieniem opartym na ludzkiej opinii (RLHF), co zwiększa jego użyteczność i bezpieczeństwo. Jego wersja dostosowana do instrukcji została zoptymalizowana do wielojęzycznych dialogów, osiągając lepsze wyniki niż wiele dostępnych modeli czatu, zarówno otwartych, jak i zamkniętych, w wielu branżowych benchmarkach. Data graniczna wiedzy to grudzień 2023."
157
+ },
128
158
  "MiniMax-Text-01": {
129
159
  "description": "W serii modeli MiniMax-01 wprowadziliśmy odważne innowacje: po raz pierwszy na dużą skalę zrealizowano mechanizm liniowej uwagi, tradycyjna architektura Transformera nie jest już jedynym wyborem. Liczba parametrów tego modelu wynosi aż 456 miliardów, z aktywacją wynoszącą 45,9 miliarda. Ogólna wydajność modelu dorównuje najlepszym modelom zagranicznym, jednocześnie efektywnie przetwarzając kontekst o długości do 4 milionów tokenów, co stanowi 32 razy więcej niż GPT-4o i 20 razy więcej niż Claude-3.5-Sonnet."
130
160
  },
@@ -860,9 +890,6 @@
860
890
  "gpt-3.5-turbo-1106": {
861
891
  "description": "GPT 3.5 Turbo, odpowiedni do różnych zadań generowania i rozumienia tekstu, obecnie wskazuje na gpt-3.5-turbo-0125."
862
892
  },
863
- "gpt-3.5-turbo-16k": {
864
- "description": "GPT 3.5 Turbo 16k, model generacji tekstu o dużej pojemności, odpowiedni do złożonych zadań."
865
- },
866
893
  "gpt-3.5-turbo-instruct": {
867
894
  "description": "GPT 3.5 Turbo, odpowiedni do różnych zadań generowania i rozumienia tekstu, obecnie wskazuje na gpt-3.5-turbo-0125."
868
895
  },
@@ -92,6 +92,9 @@
92
92
  "qwen": {
93
93
  "description": "Tongyi Qianwen to samodzielnie opracowany przez Alibaba Cloud model językowy o dużej skali, charakteryzujący się silnymi zdolnościami rozumienia i generowania języka naturalnego. Może odpowiadać na różnorodne pytania, tworzyć treści pisemne, wyrażać opinie, pisać kod i działać w wielu dziedzinach."
94
94
  },
95
+ "sambanova": {
96
+ "description": "SambaNova Cloud umożliwia deweloperom łatwe korzystanie z najlepszych modeli open source oraz cieszenie się najszybszą prędkością wnioskowania."
97
+ },
95
98
  "sensenova": {
96
99
  "description": "SenseTime codziennie się rozwija, opierając się na potężnym wsparciu infrastrukturalnym SenseTime, oferując wydajne i łatwe w użyciu usługi dużych modeli w pełnym zakresie."
97
100
  },
@@ -47,6 +47,12 @@
47
47
  "Baichuan4-Turbo": {
48
48
  "description": "Modelo com a melhor capacidade do país, superando modelos estrangeiros em tarefas em chinês como enciclopédia, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes da indústria, com excelente desempenho em várias avaliações de referência."
49
49
  },
50
+ "DeepSeek-R1": {
51
+ "description": "LLM eficiente de ponta, especializado em raciocínio, matemática e programação."
52
+ },
53
+ "DeepSeek-R1-Distill-Llama-70B": {
54
+ "description": "DeepSeek R1 — o modelo maior e mais inteligente do conjunto DeepSeek — foi destilado para a arquitetura Llama 70B. Com base em testes de benchmark e avaliações humanas, este modelo é mais inteligente do que o Llama 70B original, destacando-se especialmente em tarefas que exigem precisão matemática e factual."
55
+ },
50
56
  "DeepSeek-R1-Distill-Qwen-1.5B": {
51
57
  "description": "Modelo de destilação DeepSeek-R1 baseado no Qwen2.5-Math-1.5B, otimizado para desempenho de inferência através de aprendizado por reforço e dados de inicialização fria, modelo de código aberto que redefine os padrões de múltiplas tarefas."
52
58
  },
@@ -119,12 +125,36 @@
119
125
  "InternVL2.5-26B": {
120
126
  "description": "InternVL2.5-26B é um poderoso modelo de linguagem visual, que suporta processamento multimodal de imagens e textos, capaz de identificar com precisão o conteúdo da imagem e gerar descrições ou respostas relevantes."
121
127
  },
128
+ "Llama-3.2-11B-Vision-Instruct": {
129
+ "description": "Capacidade de raciocínio de imagem excepcional em imagens de alta resolução, adequada para aplicações de compreensão visual."
130
+ },
131
+ "Llama-3.2-90B-Vision-Instruct\t": {
132
+ "description": "Capacidade avançada de raciocínio de imagem para aplicações de agentes de compreensão visual."
133
+ },
122
134
  "LoRA/Qwen/Qwen2.5-72B-Instruct": {
123
135
  "description": "Qwen2.5-72B-Instruct é um dos mais recentes modelos de linguagem de grande escala lançados pela Alibaba Cloud. Este modelo de 72B apresenta melhorias significativas em áreas como codificação e matemática. O modelo também oferece suporte multilíngue, abrangendo mais de 29 idiomas, incluindo chinês e inglês. O modelo teve melhorias significativas em seguir instruções, entender dados estruturados e gerar saídas estruturadas (especialmente JSON)."
124
136
  },
125
137
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
126
138
  "description": "Qwen2.5-7B-Instruct é um dos mais recentes modelos de linguagem de grande escala lançados pela Alibaba Cloud. Este modelo de 7B apresenta melhorias significativas em áreas como codificação e matemática. O modelo também oferece suporte multilíngue, abrangendo mais de 29 idiomas, incluindo chinês e inglês. O modelo teve melhorias significativas em seguir instruções, entender dados estruturados e gerar saídas estruturadas (especialmente JSON)."
127
139
  },
140
+ "Meta-Llama-3.1-405B-Instruct": {
141
+ "description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogos multilíngues, apresentando desempenho superior em muitos modelos de chat de código aberto e fechados em benchmarks da indústria."
142
+ },
143
+ "Meta-Llama-3.1-70B-Instruct": {
144
+ "description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogos multilíngues, apresentando desempenho superior em muitos modelos de chat de código aberto e fechados em benchmarks da indústria."
145
+ },
146
+ "Meta-Llama-3.1-8B-Instruct": {
147
+ "description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogos multilíngues, apresentando desempenho superior em muitos modelos de chat de código aberto e fechados em benchmarks da indústria."
148
+ },
149
+ "Meta-Llama-3.2-1B-Instruct": {
150
+ "description": "Modelo de linguagem pequeno de ponta, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
151
+ },
152
+ "Meta-Llama-3.2-3B-Instruct": {
153
+ "description": "Modelo de linguagem pequeno de ponta, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
154
+ },
155
+ "Meta-Llama-3.3-70B-Instruct": {
156
+ "description": "Llama 3.3 é o modelo de linguagem de código aberto multilíngue mais avançado da série Llama, oferecendo desempenho comparável ao modelo de 405B a um custo extremamente baixo. Baseado na estrutura Transformer, e aprimorado por meio de ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para aumentar a utilidade e a segurança. Sua versão ajustada para instruções é otimizada para diálogos multilíngues, superando muitos modelos de chat de código aberto e fechados em vários benchmarks da indústria. A data limite de conhecimento é dezembro de 2023."
157
+ },
128
158
  "MiniMax-Text-01": {
129
159
  "description": "Na série de modelos MiniMax-01, fizemos inovações ousadas: pela primeira vez, implementamos em larga escala um mecanismo de atenção linear, tornando a arquitetura Transformer tradicional não mais a única opção. Este modelo possui um total de 456 bilhões de parâmetros, com 45,9 bilhões ativados em uma única vez. O desempenho geral do modelo é comparável aos melhores modelos internacionais, enquanto lida eficientemente com contextos de até 4 milhões de tokens, 32 vezes mais que o GPT-4o e 20 vezes mais que o Claude-3.5-Sonnet."
130
160
  },
@@ -860,9 +890,6 @@
860
890
  "gpt-3.5-turbo-1106": {
861
891
  "description": "O GPT 3.5 Turbo é adequado para uma variedade de tarefas de geração e compreensão de texto, atualmente apontando para gpt-3.5-turbo-0125."
862
892
  },
863
- "gpt-3.5-turbo-16k": {
864
- "description": "GPT 3.5 Turbo 16k, um modelo de geração de texto de alta capacidade, adequado para tarefas complexas."
865
- },
866
893
  "gpt-3.5-turbo-instruct": {
867
894
  "description": "O GPT 3.5 Turbo é adequado para uma variedade de tarefas de geração e compreensão de texto, atualmente apontando para gpt-3.5-turbo-0125."
868
895
  },
@@ -92,6 +92,9 @@
92
92
  "qwen": {
93
93
  "description": "Qwen é um modelo de linguagem de grande escala desenvolvido pela Alibaba Cloud, com forte capacidade de compreensão e geração de linguagem natural. Ele pode responder a várias perguntas, criar conteúdo escrito, expressar opiniões e escrever código, atuando em vários campos."
94
94
  },
95
+ "sambanova": {
96
+ "description": "O SambaNova Cloud permite que os desenvolvedores utilizem facilmente os melhores modelos de código aberto e desfrutem da maior velocidade de inferência."
97
+ },
95
98
  "sensenova": {
96
99
  "description": "A SenseTime oferece serviços de grandes modelos de pilha completa, aproveitando o forte suporte da infraestrutura da SenseTime."
97
100
  },