@lobehub/chat 1.136.1 → 1.136.2

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (43) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/models.json +22 -10
  4. package/locales/ar/providers.json +3 -0
  5. package/locales/bg-BG/models.json +22 -10
  6. package/locales/bg-BG/providers.json +3 -0
  7. package/locales/de-DE/models.json +22 -10
  8. package/locales/de-DE/providers.json +3 -0
  9. package/locales/en-US/models.json +22 -10
  10. package/locales/en-US/providers.json +3 -0
  11. package/locales/es-ES/models.json +22 -10
  12. package/locales/es-ES/providers.json +3 -0
  13. package/locales/fa-IR/models.json +22 -10
  14. package/locales/fa-IR/providers.json +3 -0
  15. package/locales/fr-FR/models.json +22 -10
  16. package/locales/fr-FR/providers.json +3 -0
  17. package/locales/it-IT/models.json +22 -10
  18. package/locales/it-IT/providers.json +3 -0
  19. package/locales/ja-JP/models.json +22 -10
  20. package/locales/ja-JP/providers.json +3 -0
  21. package/locales/ko-KR/models.json +22 -10
  22. package/locales/ko-KR/providers.json +3 -0
  23. package/locales/nl-NL/models.json +22 -10
  24. package/locales/nl-NL/providers.json +3 -0
  25. package/locales/pl-PL/models.json +22 -10
  26. package/locales/pl-PL/providers.json +3 -0
  27. package/locales/pt-BR/models.json +22 -10
  28. package/locales/pt-BR/providers.json +3 -0
  29. package/locales/ru-RU/models.json +22 -10
  30. package/locales/ru-RU/providers.json +3 -0
  31. package/locales/tr-TR/models.json +22 -10
  32. package/locales/tr-TR/providers.json +3 -0
  33. package/locales/vi-VN/models.json +22 -10
  34. package/locales/vi-VN/providers.json +3 -0
  35. package/locales/zh-CN/models.json +22 -10
  36. package/locales/zh-CN/providers.json +3 -0
  37. package/locales/zh-TW/models.json +22 -10
  38. package/locales/zh-TW/providers.json +3 -0
  39. package/package.json +1 -1
  40. package/packages/const/src/index.ts +1 -0
  41. package/packages/utils/src/toolCall.ts +1 -2
  42. package/packages/web-crawler/package.json +1 -0
  43. package/packages/web-crawler/src/crawImpl/naive.ts +2 -1
@@ -1532,6 +1532,9 @@
1532
1532
  "glm-zero-preview": {
1533
1533
  "description": "GLM-Zero-Preview دارای توانایی‌های پیچیده استدلال است و در زمینه‌های استدلال منطقی، ریاضیات، برنامه‌نویسی و غیره عملکرد عالی دارد."
1534
1534
  },
1535
+ "glm4.6:355b": {
1536
+ "description": "جدیدترین مدل پرچم‌دار Zhipu، GLM-4.6 (355B)، در زمینه‌های برنامه‌نویسی پیشرفته، پردازش متون طولانی، استدلال و توانایی‌های عامل هوشمند، به‌طور کامل از نسل قبلی پیشی گرفته است. به‌ویژه در توانایی کدنویسی با Claude Sonnet 4 هم‌تراز شده و به یکی از برترین مدل‌های کدنویسی در داخل کشور تبدیل شده است."
1537
+ },
1535
1538
  "google/gemini-2.0-flash": {
1536
1539
  "description": "Gemini 2.0 Flash ویژگی‌ها و قابلیت‌های نسل بعدی را ارائه می‌دهد، از جمله سرعت عالی، استفاده داخلی از ابزارها، تولید چندرسانه‌ای و پنجره زمینه 1 میلیون توکن."
1537
1540
  },
@@ -1757,9 +1760,6 @@
1757
1760
  "gpt-realtime": {
1758
1761
  "description": "مدل عمومی زمان واقعی که از ورودی و خروجی متنی و صوتی به صورت زنده پشتیبانی می‌کند و همچنین ورودی تصویر را نیز قبول می‌کند."
1759
1762
  },
1760
- "grok-2-1212": {
1761
- "description": "این مدل در دقت، پیروی از دستورات و توانایی چند زبانه بهبود یافته است."
1762
- },
1763
1763
  "grok-2-image-1212": {
1764
1764
  "description": "جدیدترین مدل تولید تصویر ما قادر است تصاویر زنده و واقعی را بر اساس متن توصیفی تولید کند. این مدل در زمینه تولید تصویر برای بازاریابی، رسانه‌های اجتماعی و سرگرمی عملکرد برجسته‌ای دارد."
1765
1765
  },
@@ -1769,15 +1769,9 @@
1769
1769
  "grok-3": {
1770
1770
  "description": "مدل پرچمدار که در استخراج داده، برنامه‌نویسی و خلاصه‌سازی متن برای کاربردهای سازمانی مهارت دارد و دانش عمیقی در حوزه‌های مالی، پزشکی، حقوقی و علمی دارد."
1771
1771
  },
1772
- "grok-3-fast": {
1773
- "description": "مدل پرچمدار که در استخراج داده، برنامه‌نویسی و خلاصه‌سازی متن برای کاربردهای سازمانی مهارت دارد و دانش عمیقی در حوزه‌های مالی، پزشکی، حقوقی و علمی دارد."
1774
- },
1775
1772
  "grok-3-mini": {
1776
1773
  "description": "مدل سبک‌وزن که قبل از پاسخگویی تفکر می‌کند. سریع و هوشمند اجرا می‌شود، مناسب برای وظایف منطقی که نیاز به دانش عمیق حوزه ندارند و می‌تواند مسیر تفکر اصلی را ارائه دهد."
1777
1774
  },
1778
- "grok-3-mini-fast": {
1779
- "description": "مدل سبک‌وزن که قبل از پاسخگویی تفکر می‌کند. سریع و هوشمند اجرا می‌شود، مناسب برای وظایف منطقی که نیاز به دانش عمیق حوزه ندارند و می‌تواند مسیر تفکر اصلی را ارائه دهد."
1780
- },
1781
1775
  "grok-4": {
1782
1776
  "description": "جدیدترین و قدرتمندترین مدل پرچمدار ما که در پردازش زبان طبیعی، محاسبات ریاضی و استدلال عملکردی برجسته دارد — یک انتخاب همه‌کاره بی‌نظیر است."
1783
1777
  },
@@ -1860,7 +1854,7 @@
1860
1854
  "description": "جدیدترین مدل تفکر عمیق چندرسانه‌ای t1-vision از Hunyuan که از زنجیره تفکر بلند چندرسانه‌ای بومی پشتیبانی می‌کند و نسبت به نسخه پیش‌فرض نسل قبلی به طور کامل بهبود یافته است."
1861
1855
  },
1862
1856
  "hunyuan-t1-vision-20250916": {
1863
- "description": "مدل تفکر عمیق چندرسانه‌ای Hunyuan که از زنجیره‌های فکری بومی چندرسانه‌ای پشتیبانی می‌کند و در پردازش انواع سناریوهای استنتاج تصویری مهارت دارد، در حل مسائل علمی نسبت به مدل تفکر سریع بهبود قابل توجهی یافته است."
1857
+ "description": "جدیدترین نسخه مدل بینایی عمیق Hunyuan t1-vision، نسبت به نسخه قبلی در وظایفی مانند پرسش و پاسخ تصویری عمومی، مکان‌یابی بصری، OCR، نمودارها، حل مسائل از روی عکس و خلق آثار از روی تصویر، به‌طور جامع بهبود یافته و توانایی آن در زبان انگلیسی و زبان‌های کم‌کاربرد به‌طور چشمگیری ارتقا یافته است."
1864
1858
  },
1865
1859
  "hunyuan-turbo": {
1866
1860
  "description": "نسخه پیش‌نمایش مدل زبان بزرگ نسل جدید HunYuan که از ساختار مدل متخصص ترکیبی (MoE) جدید استفاده می‌کند. در مقایسه با hunyuan-pro، کارایی استنتاج سریع‌تر و عملکرد بهتری دارد."
@@ -2021,6 +2015,9 @@
2021
2015
  "llama-3.2-vision-instruct": {
2022
2016
  "description": "مدل میکروآموزش Llama 3.2-Vision برای شناسایی بصری، استدلال تصویری، توصیف تصویر و پاسخ به سوالات مربوط به تصویر بهینه‌سازی شده است."
2023
2017
  },
2018
+ "llama-3.3-70b": {
2019
+ "description": "Llama 3.3 70B: مدلی با اندازه متوسط تا بزرگ از سری Llama که تعادلی میان توانایی استدلال و بازدهی فراهم می‌کند."
2020
+ },
2024
2021
  "llama-3.3-70b-instruct": {
2025
2022
  "description": "Llama 3.3 پیشرفته‌ترین مدل زبان چندزبانه و متن‌باز در سری Llama است که تجربه‌ای با هزینه بسیار پایین مشابه عملکرد مدل 405B را ارائه می‌دهد. این مدل بر اساس ساختار Transformer طراحی شده و از طریق تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) بهبود کارایی و ایمنی یافته است. نسخه بهینه‌سازی شده آن برای مکالمات چندزبانه طراحی شده و در چندین معیار صنعتی از بسیاری از مدل‌های چت متن‌باز و بسته بهتر عمل می‌کند. تاریخ قطع دانش آن دسامبر 2023 است."
2026
2023
  },
@@ -2030,6 +2027,12 @@
2030
2027
  "llama-3.3-instruct": {
2031
2028
  "description": "مدل آموزشی لاما ۳.۳ برای صحنه‌های گفت‌وگو بهینه‌سازی شده است و در معیارهای صنعتی معمول، بسیاری از مدل‌های چت منبع باز موجود را در برمی‌آید."
2032
2029
  },
2030
+ "llama-4-maverick-17b-128e-instruct": {
2031
+ "description": "Llama 4 Maverick: مدلی قدرتمند از سری Llama، مناسب برای استدلال پیشرفته، حل مسائل پیچیده و پیروی از دستورات."
2032
+ },
2033
+ "llama-4-scout-17b-16e-instruct": {
2034
+ "description": "Llama 4 Scout: مدلی قدرتمند از سری Llama، مناسب برای سناریوهایی با نیاز به بازدهی بالا و تأخیر پایین."
2035
+ },
2033
2036
  "llama3-70b-8192": {
2034
2037
  "description": "متا لاما ۳ ۷۰B توانایی پردازش پیچیدگی بی‌نظیری را ارائه می‌دهد و برای پروژه‌های با نیازهای بالا طراحی شده است."
2035
2038
  },
@@ -2045,6 +2048,9 @@
2045
2048
  "llama3.1": {
2046
2049
  "description": "Llama 3.1 مدل پیشرو ارائه شده توسط Meta است که از حداکثر 405 میلیارد پارامتر پشتیبانی می‌کند و می‌تواند در زمینه‌های مکالمات پیچیده، ترجمه چندزبانه و تحلیل داده‌ها به کار گرفته شود."
2047
2050
  },
2051
+ "llama3.1-8b": {
2052
+ "description": "Llama 3.1 8B: نسخه‌ای سبک و با تأخیر پایین از Llama، مناسب برای استنتاج آنلاین سبک و تعاملات بلادرنگ."
2053
+ },
2048
2054
  "llama3.1:405b": {
2049
2055
  "description": "Llama 3.1 مدل پیشرو ارائه شده توسط Meta است که از 405 میلیارد پارامتر پشتیبانی می‌کند و می‌تواند در زمینه‌های مکالمات پیچیده، ترجمه چندزبانه و تحلیل داده‌ها به کار گرفته شود."
2050
2056
  },
@@ -2642,6 +2648,12 @@
2642
2648
  "qvq-plus": {
2643
2649
  "description": "مدل استدلال بصری. پشتیبانی از ورودی‌های بصری و خروجی زنجیره تفکر، نسخه پلاس پس از مدل qvq-max، که نسبت به مدل qvq-max سرعت استدلال بالاتر و تعادل بهتری بین عملکرد و هزینه دارد."
2644
2650
  },
2651
+ "qwen-3-32b": {
2652
+ "description": "Qwen 3 32B: مدل سری Qwen با عملکرد عالی در وظایف چندزبانه و برنامه‌نویسی، مناسب برای استفاده در مقیاس متوسط تولیدی."
2653
+ },
2654
+ "qwen-3-coder-480b": {
2655
+ "description": "Qwen 3 Coder 480B: مدلی با زمینه طولانی برای تولید کد و انجام وظایف پیچیده برنامه‌نویسی."
2656
+ },
2645
2657
  "qwen-coder-plus": {
2646
2658
  "description": "مدل کد نویسی Tongyi Qianwen."
2647
2659
  },
@@ -32,6 +32,9 @@
32
32
  "bfl": {
33
33
  "description": "آزمایشگاهی پیشرو در پژوهش‌های پیشرفتهٔ هوش مصنوعی که زیرساخت‌های بصریِ فردا را می‌سازد."
34
34
  },
35
+ "cerebras": {
36
+ "description": "Cerebras یک پلتفرم استنتاج هوش مصنوعی مبتنی بر سیستم اختصاصی CS-3 خود است که با هدف ارائه سریع‌ترین خدمات مدل‌های زبانی بزرگ (LLM) در جهان با پاسخ‌دهی آنی و توان عملیاتی بالا طراحی شده است. این پلتفرم به‌طور ویژه برای حذف تأخیر و تسریع جریان‌های کاری پیچیده هوش مصنوعی مانند تولید کد در زمان واقعی و انجام وظایف نمایندگی طراحی شده است."
37
+ },
35
38
  "cloudflare": {
36
39
  "description": "مدل‌های یادگیری ماشین مبتنی بر GPU بدون سرور را در شبکه جهانی Cloudflare اجرا کنید."
37
40
  },
@@ -1532,6 +1532,9 @@
1532
1532
  "glm-zero-preview": {
1533
1533
  "description": "GLM-Zero-Preview possède de puissantes capacités de raisonnement complexe, se distinguant dans les domaines du raisonnement logique, des mathématiques et de la programmation."
1534
1534
  },
1535
+ "glm4.6:355b": {
1536
+ "description": "Le tout dernier modèle phare de Zhipu, le GLM-4.6 (355B), surpasse largement ses prédécesseurs en matière de codage avancé, de traitement de longs textes, de raisonnement et de capacités d'agents intelligents. Il est particulièrement performant en programmation, atteignant le niveau de Claude Sonnet 4, ce qui en fait l’un des meilleurs modèles de codage en Chine."
1537
+ },
1535
1538
  "google/gemini-2.0-flash": {
1536
1539
  "description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération et des améliorations, incluant une vitesse exceptionnelle, l'utilisation d'outils intégrés, la génération multimodale et une fenêtre de contexte de 1 million de tokens."
1537
1540
  },
@@ -1757,9 +1760,6 @@
1757
1760
  "gpt-realtime": {
1758
1761
  "description": "Modèle universel en temps réel, supportant les entrées et sorties textuelles et audio en temps réel, ainsi que les entrées d'images."
1759
1762
  },
1760
- "grok-2-1212": {
1761
- "description": "Ce modèle a été amélioré en termes de précision, de respect des instructions et de capacités multilingues."
1762
- },
1763
1763
  "grok-2-image-1212": {
1764
1764
  "description": "Notre dernier modèle de génération d'images peut créer des images vivantes et réalistes à partir d'invites textuelles. Il excelle dans la génération d'images pour le marketing, les réseaux sociaux et le divertissement."
1765
1765
  },
@@ -1769,15 +1769,9 @@
1769
1769
  "grok-3": {
1770
1770
  "description": "Modèle phare, expert en extraction de données, programmation et résumé de texte pour des applications d'entreprise, avec une connaissance approfondie des domaines financier, médical, juridique et scientifique."
1771
1771
  },
1772
- "grok-3-fast": {
1773
- "description": "Modèle phare, expert en extraction de données, programmation et résumé de texte pour des applications d'entreprise, avec une connaissance approfondie des domaines financier, médical, juridique et scientifique."
1774
- },
1775
1772
  "grok-3-mini": {
1776
1773
  "description": "Modèle léger, réfléchit avant de répondre. Rapide et intelligent, adapté aux tâches logiques ne nécessitant pas de connaissances approfondies, avec accès à la trace de pensée originale."
1777
1774
  },
1778
- "grok-3-mini-fast": {
1779
- "description": "Modèle léger, réfléchit avant de répondre. Rapide et intelligent, adapté aux tâches logiques ne nécessitant pas de connaissances approfondies, avec accès à la trace de pensée originale."
1780
- },
1781
1775
  "grok-4": {
1782
1776
  "description": "Notre tout dernier modèle phare, le plus puissant, excelle dans le traitement du langage naturel, le calcul mathématique et le raisonnement — un véritable champion polyvalent."
1783
1777
  },
@@ -1860,7 +1854,7 @@
1860
1854
  "description": "La dernière version du modèle de réflexion profonde multimodale t1-vision de Hunyuan, supportant une chaîne de pensée native multimodale, avec des améliorations globales par rapport à la version par défaut précédente."
1861
1855
  },
1862
1856
  "hunyuan-t1-vision-20250916": {
1863
- "description": "Modèle de réflexion profonde multimodal Hunyuan, supportant des chaînes de pensée natives multimodales longues, excellent pour divers scénarios de raisonnement d’images, avec une amélioration globale par rapport au modèle Quick Think pour les problèmes scientifiques."
1857
+ "description": "La dernière version du modèle de raisonnement visuel profond Hunyuan t1-vision offre des améliorations significatives par rapport à la version précédente dans des tâches telles que les questions-réponses image-texte, la localisation visuelle, l'OCR, l'interprétation de graphiques, la résolution de problèmes à partir de photos et la création d’images. Les performances en anglais et en langues rares ont également été nettement optimisées."
1864
1858
  },
1865
1859
  "hunyuan-turbo": {
1866
1860
  "description": "Version préliminaire du nouveau modèle de langage de génération Hunyuan, utilisant une nouvelle structure de modèle d'experts mixtes (MoE), offrant une efficacité d'inférence plus rapide et de meilleures performances par rapport à Hunyuan-Pro."
@@ -2021,6 +2015,9 @@
2021
2015
  "llama-3.2-vision-instruct": {
2022
2016
  "description": "Le modèle Llama 3.2-Vision optimisé pour les instructions est spécialisé dans la reconnaissance visuelle, le raisonnement sur images, la description d'images et la réponse aux questions générales liées aux images."
2023
2017
  },
2018
+ "llama-3.3-70b": {
2019
+ "description": "Llama 3.3 70B : un modèle Llama de taille moyenne à grande, équilibrant capacités de raisonnement et débit élevé."
2020
+ },
2024
2021
  "llama-3.3-70b-instruct": {
2025
2022
  "description": "Llama 3.3 est le modèle de langage open source multilingue le plus avancé de la série Llama, offrant des performances comparables à celles du modèle 405B à un coût très bas. Basé sur une architecture Transformer, il améliore son utilité et sa sécurité grâce à un ajustement supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF). Sa version optimisée pour les instructions est spécialement conçue pour les dialogues multilingues et surpasse de nombreux modèles de chat open source et fermés sur plusieurs benchmarks industriels. La date limite des connaissances est décembre 2023."
2026
2023
  },
@@ -2030,6 +2027,12 @@
2030
2027
  "llama-3.3-instruct": {
2031
2028
  "description": "Le modèle d'instructions affiné Llama 3.3 est optimisé pour les scénarios de dialogue, surpassant de nombreux modèles de chat open source existants dans les tests de référence courants de l'industrie."
2032
2029
  },
2030
+ "llama-4-maverick-17b-128e-instruct": {
2031
+ "description": "Llama 4 Maverick : un modèle haute performance de la série Llama, idéal pour le raisonnement avancé, la résolution de problèmes complexes et les tâches de suivi d'instructions."
2032
+ },
2033
+ "llama-4-scout-17b-16e-instruct": {
2034
+ "description": "Llama 4 Scout : un modèle haute performance de la série Llama, conçu pour les scénarios nécessitant un haut débit et une faible latence."
2035
+ },
2033
2036
  "llama3-70b-8192": {
2034
2037
  "description": "Meta Llama 3 70B offre une capacité de traitement de complexité inégalée, sur mesure pour des projets exigeants."
2035
2038
  },
@@ -2045,6 +2048,9 @@
2045
2048
  "llama3.1": {
2046
2049
  "description": "Llama 3.1 est le modèle de pointe lancé par Meta, prenant en charge jusqu'à 405B de paramètres, applicable dans les domaines des dialogues complexes, de la traduction multilingue et de l'analyse de données."
2047
2050
  },
2051
+ "llama3.1-8b": {
2052
+ "description": "Llama 3.1 8B : une variante légère et à faible latence de Llama, adaptée aux scénarios d'inférence en ligne et d'interaction légers."
2053
+ },
2048
2054
  "llama3.1:405b": {
2049
2055
  "description": "Llama 3.1 est le modèle de pointe lancé par Meta, prenant en charge jusqu'à 405B de paramètres, applicable dans les domaines des dialogues complexes, de la traduction multilingue et de l'analyse de données."
2050
2056
  },
@@ -2642,6 +2648,12 @@
2642
2648
  "qvq-plus": {
2643
2649
  "description": "Modèle de raisonnement visuel. Prend en charge les entrées visuelles et les sorties en chaîne de pensée. Version plus avancée du modèle qvq-max, offrant une vitesse de raisonnement plus rapide et un meilleur équilibre entre performance et coût."
2644
2650
  },
2651
+ "qwen-3-32b": {
2652
+ "description": "Qwen 3 32B : un modèle de la série Qwen performant dans les tâches multilingues et de codage, adapté à une utilisation en production à échelle moyenne."
2653
+ },
2654
+ "qwen-3-coder-480b": {
2655
+ "description": "Qwen 3 Coder 480B : un modèle à long contexte conçu pour la génération de code et les tâches de programmation complexes."
2656
+ },
2645
2657
  "qwen-coder-plus": {
2646
2658
  "description": "Modèle de code Tongyi Qianwen."
2647
2659
  },
@@ -32,6 +32,9 @@
32
32
  "bfl": {
33
33
  "description": "Un laboratoire de recherche en intelligence artificielle à la pointe, construisant l'infrastructure visuelle de demain."
34
34
  },
35
+ "cerebras": {
36
+ "description": "Cerebras est une plateforme d'inférence IA basée sur son système dédié CS-3, conçue pour offrir les services de LLM les plus rapides au monde, avec une réponse en temps réel et un débit élevé. Elle est spécialement conçue pour éliminer la latence et accélérer les flux de travail IA complexes, tels que la génération de code en temps réel et les tâches d'agents."
37
+ },
35
38
  "cloudflare": {
36
39
  "description": "Exécutez des modèles d'apprentissage automatique alimentés par GPU sans serveur sur le réseau mondial de Cloudflare."
37
40
  },
@@ -1532,6 +1532,9 @@
1532
1532
  "glm-zero-preview": {
1533
1533
  "description": "GLM-Zero-Preview possiede potenti capacità di ragionamento complesso, eccellendo nei campi del ragionamento logico, della matematica e della programmazione."
1534
1534
  },
1535
+ "glm4.6:355b": {
1536
+ "description": "Il nuovo modello di punta di Zhipu, GLM-4.6 (355B), supera ampiamente la generazione precedente in codifica avanzata, elaborazione di testi lunghi, capacità di ragionamento e agenti intelligenti. In particolare, le sue prestazioni nella programmazione sono allineate a Claude Sonnet 4, rendendolo uno dei migliori modelli di coding in Cina."
1537
+ },
1535
1538
  "google/gemini-2.0-flash": {
1536
1539
  "description": "Gemini 2.0 Flash offre funzionalità di nuova generazione e miglioramenti, inclusa velocità eccezionale, uso integrato di strumenti, generazione multimodale e una finestra di contesto di 1 milione di token."
1537
1540
  },
@@ -1757,9 +1760,6 @@
1757
1760
  "gpt-realtime": {
1758
1761
  "description": "Modello universale in tempo reale, supporta input e output testuali e audio in tempo reale, oltre a input di immagini."
1759
1762
  },
1760
- "grok-2-1212": {
1761
- "description": "Questo modello ha migliorato l'accuratezza, il rispetto delle istruzioni e le capacità multilingue."
1762
- },
1763
1763
  "grok-2-image-1212": {
1764
1764
  "description": "Il nostro ultimo modello di generazione immagini può creare immagini vivide e realistiche basate su prompt testuali. Eccelle nella generazione di immagini per marketing, social media e intrattenimento."
1765
1765
  },
@@ -1769,15 +1769,9 @@
1769
1769
  "grok-3": {
1770
1770
  "description": "Modello di punta, eccelle in estrazione dati, programmazione e sintesi testuale per applicazioni aziendali, con profonda conoscenza nei settori finanziario, medico, legale e scientifico."
1771
1771
  },
1772
- "grok-3-fast": {
1773
- "description": "Modello di punta, eccelle in estrazione dati, programmazione e sintesi testuale per applicazioni aziendali, con profonda conoscenza nei settori finanziario, medico, legale e scientifico."
1774
- },
1775
1772
  "grok-3-mini": {
1776
1773
  "description": "Modello leggero che riflette prima di rispondere. Veloce e intelligente, adatto a compiti logici che non richiedono conoscenze di dominio profonde, con tracciamento del processo di pensiero originale."
1777
1774
  },
1778
- "grok-3-mini-fast": {
1779
- "description": "Modello leggero che riflette prima di rispondere. Veloce e intelligente, adatto a compiti logici che non richiedono conoscenze di dominio profonde, con tracciamento del processo di pensiero originale."
1780
- },
1781
1775
  "grok-4": {
1782
1776
  "description": "Il nostro modello di punta più recente e potente, eccellente nell'elaborazione del linguaggio naturale, nel calcolo matematico e nel ragionamento — un vero campione versatile e completo."
1783
1777
  },
@@ -1860,7 +1854,7 @@
1860
1854
  "description": "L'ultima versione del modello di pensiero profondo multimodale t1-vision di Hunyuan, supporta catene di pensiero native multimodali e presenta miglioramenti completi rispetto alla versione predefinita della generazione precedente."
1861
1855
  },
1862
1856
  "hunyuan-t1-vision-20250916": {
1863
- "description": "Modello di comprensione multimodale Hunyuan con pensiero profondo, supporta catene di pensiero native multimodali estese, eccelle nel gestire vari scenari di ragionamento visivo e migliora significativamente rispetto al modello Quick Think nei problemi scientifici."
1857
+ "description": "L'ultima versione del modello visivo Hunyuan t1-vision offre un pensiero visivo profondo. Rispetto alla versione precedente, presenta miglioramenti completi in compiti come domande e risposte generali su immagini e testi, localizzazione visiva, OCR, grafici, risoluzione di problemi da foto e creazione visiva, con un'ottimizzazione significativa per l'inglese e le lingue meno diffuse."
1864
1858
  },
1865
1859
  "hunyuan-turbo": {
1866
1860
  "description": "Anteprima della nuova generazione di modelli di linguaggio di Hunyuan, utilizza una nuova struttura di modello ibrido di esperti (MoE), con una maggiore efficienza di inferenza e prestazioni superiori rispetto a hunyuan-pro."
@@ -2021,6 +2015,9 @@
2021
2015
  "llama-3.2-vision-instruct": {
2022
2016
  "description": "Il modello Llama 3.2-Vision istruito è ottimizzato per il riconoscimento visivo, l' inferenza di immagini, la descrizione di immagini e la risposta a domande comuni relative a immagini."
2023
2017
  },
2018
+ "llama-3.3-70b": {
2019
+ "description": "Llama 3.3 70B: un modello Llama di medie-grandi dimensioni che bilancia capacità di ragionamento e throughput."
2020
+ },
2024
2021
  "llama-3.3-70b-instruct": {
2025
2022
  "description": "Llama 3.3 è il modello di linguaggio open source multilingue più avanzato della serie Llama, che offre prestazioni paragonabili a un modello da 405B a un costo estremamente ridotto. Basato su una struttura Transformer, migliora l'utilità e la sicurezza attraverso il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF). La sua versione ottimizzata per le istruzioni è progettata per dialoghi multilingue e supera molti modelli di chat open source e chiusi in vari benchmark di settore. La data di scadenza delle conoscenze è dicembre 2023."
2026
2023
  },
@@ -2030,6 +2027,12 @@
2030
2027
  "llama-3.3-instruct": {
2031
2028
  "description": "Il modello Llama 3.3 per l'addestramento di istruzioni è stato ottimizzato per scenari di conversazione, superando molti modelli di chat open source esistenti nelle comuni benchmark settoriali."
2032
2029
  },
2030
+ "llama-4-maverick-17b-128e-instruct": {
2031
+ "description": "Llama 4 Maverick: un modello ad alte prestazioni della serie Llama, ideale per ragionamento avanzato, risoluzione di problemi complessi e compiti di esecuzione di istruzioni."
2032
+ },
2033
+ "llama-4-scout-17b-16e-instruct": {
2034
+ "description": "Llama 4 Scout: un modello ad alte prestazioni della serie Llama, adatto a scenari che richiedono elevato throughput e bassa latenza."
2035
+ },
2033
2036
  "llama3-70b-8192": {
2034
2037
  "description": "Meta Llama 3 70B offre capacità di elaborazione della complessità senza pari, progettato su misura per progetti ad alta richiesta."
2035
2038
  },
@@ -2045,6 +2048,9 @@
2045
2048
  "llama3.1": {
2046
2049
  "description": "Llama 3.1 è il modello leader lanciato da Meta, supporta fino a 405B parametri, applicabile a dialoghi complessi, traduzione multilingue e analisi dei dati."
2047
2050
  },
2051
+ "llama3.1-8b": {
2052
+ "description": "Llama 3.1 8B: una variante Llama leggera e a bassa latenza, ideale per inferenza online leggera e scenari interattivi."
2053
+ },
2048
2054
  "llama3.1:405b": {
2049
2055
  "description": "Llama 3.1 è il modello leader lanciato da Meta, supporta fino a 405B parametri, applicabile a dialoghi complessi, traduzione multilingue e analisi dei dati."
2050
2056
  },
@@ -2642,6 +2648,12 @@
2642
2648
  "qvq-plus": {
2643
2649
  "description": "Modello di ragionamento visivo. Supporta input visivi e output a catena di pensiero. Versione plus lanciata dopo il modello qvq-max, con velocità di ragionamento più elevata e un equilibrio migliore tra prestazioni ed efficienza rispetto a qvq-max."
2644
2650
  },
2651
+ "qwen-3-32b": {
2652
+ "description": "Qwen 3 32B: eccellente nelle attività multilingue e di codifica, adatto per applicazioni produttive di media scala."
2653
+ },
2654
+ "qwen-3-coder-480b": {
2655
+ "description": "Qwen 3 Coder 480B: un modello con contesto esteso progettato per la generazione di codice e compiti di programmazione complessi."
2656
+ },
2645
2657
  "qwen-coder-plus": {
2646
2658
  "description": "Modello di codice Tongyi Qianwen."
2647
2659
  },
@@ -32,6 +32,9 @@
32
32
  "bfl": {
33
33
  "description": "Laboratorio di ricerca all'avanguardia nell'intelligenza artificiale, che costruisce l'infrastruttura visiva del domani."
34
34
  },
35
+ "cerebras": {
36
+ "description": "Cerebras è una piattaforma di inferenza AI basata sul suo sistema dedicato CS-3, progettata per offrire il servizio LLM più veloce al mondo, con risposta in tempo reale e un'elevata capacità di elaborazione. È pensata per eliminare la latenza e accelerare i flussi di lavoro AI complessi, come la generazione di codice in tempo reale e le attività degli agenti."
37
+ },
35
38
  "cloudflare": {
36
39
  "description": "Esegui modelli di machine learning alimentati da GPU serverless sulla rete globale di Cloudflare."
37
40
  },
@@ -1532,6 +1532,9 @@
1532
1532
  "glm-zero-preview": {
1533
1533
  "description": "GLM-Zero-Previewは、強力な複雑な推論能力を備え、論理推論、数学、プログラミングなどの分野で優れたパフォーマンスを発揮します。"
1534
1534
  },
1535
+ "glm4.6:355b": {
1536
+ "description": "智譜の最新フラッグシップモデル GLM-4.6 (355B) は、高度なコーディング、長文処理、推論およびエージェント能力において前世代を大きく上回り、特にプログラミング能力では Claude Sonnet 4 に匹敵し、中国国内トップクラスのコーディングモデルとなっています。"
1537
+ },
1535
1538
  "google/gemini-2.0-flash": {
1536
1539
  "description": "Gemini 2.0 Flash は次世代の機能と改良を提供し、卓越した速度、組み込みツールの使用、マルチモーダル生成、100万トークンのコンテキストウィンドウを備えています。"
1537
1540
  },
@@ -1757,9 +1760,6 @@
1757
1760
  "gpt-realtime": {
1758
1761
  "description": "汎用リアルタイムモデルで、テキストと音声のリアルタイム入出力に対応し、画像入力もサポートしています。"
1759
1762
  },
1760
- "grok-2-1212": {
1761
- "description": "このモデルは、精度、指示の遵守、そして多言語能力において改善されています。"
1762
- },
1763
1763
  "grok-2-image-1212": {
1764
1764
  "description": "最新の画像生成モデルで、テキストプロンプトに基づき生き生きとしたリアルな画像を生成します。マーケティング、ソーシャルメディア、エンターテインメント分野での画像生成に優れた性能を発揮します。"
1765
1765
  },
@@ -1769,15 +1769,9 @@
1769
1769
  "grok-3": {
1770
1770
  "description": "フラッグシップモデルで、データ抽出、プログラミング、テキスト要約などの企業向けアプリケーションに優れ、金融、医療、法律、科学などの分野に深い知識を持ちます。"
1771
1771
  },
1772
- "grok-3-fast": {
1773
- "description": "フラッグシップモデルで、データ抽出、プログラミング、テキスト要約などの企業向けアプリケーションに優れ、金融、医療、法律、科学などの分野に深い知識を持ちます。"
1774
- },
1775
1772
  "grok-3-mini": {
1776
1773
  "description": "軽量モデルで、会話前に思考します。高速かつスマートに動作し、深い専門知識を必要としない論理タスクに適しており、元の思考過程を取得できます。"
1777
1774
  },
1778
- "grok-3-mini-fast": {
1779
- "description": "軽量モデルで、会話前に思考します。高速かつスマートに動作し、深い専門知識を必要としない論理タスクに適しており、元の思考過程を取得できます。"
1780
- },
1781
1775
  "grok-4": {
1782
1776
  "description": "私たちの最新かつ最強のフラッグシップモデルであり、自然言語処理、数学計算、推論において卓越した性能を発揮します——まさに完璧な万能型プレイヤーです。"
1783
1777
  },
@@ -1860,7 +1854,7 @@
1860
1854
  "description": "混元の最新バージョンt1-vision多モーダル理解深層思考モデルで、マルチモーダルのネイティブな長い思考の連鎖をサポートし、前世代のデフォルトモデルに比べて全体的に性能が向上しています。"
1861
1855
  },
1862
1856
  "hunyuan-t1-vision-20250916": {
1863
- "description": "混元マルチモーダル理解深層思考モデルで、マルチモーダルのネイティブ長思考連鎖をサポートし、さまざまな画像推論シナリオに優れています。理系の難問においては速思考モデルに比べて包括的に向上しています。"
1857
+ "description": "混元の最新バージョン t1-vision は、視覚的な深層思考モデルであり、前バージョンと比べて一般的な画像と言語の質疑応答、視覚的な位置特定、OCR、グラフ解析、問題解決、画像からの創作などのタスクにおいて全体的に性能が向上し、英語および小規模言語の処理能力も大幅に最適化されています。"
1864
1858
  },
1865
1859
  "hunyuan-turbo": {
1866
1860
  "description": "混元の新世代大規模言語モデルのプレビュー版で、全く新しい混合専門家モデル(MoE)構造を採用し、hunyuan-proに比べて推論効率が向上し、パフォーマンスも強化されています。"
@@ -2021,6 +2015,9 @@
2021
2015
  "llama-3.2-vision-instruct": {
2022
2016
  "description": "Llama 3.2-Vision 命令ファインチューニングモデルは、視覚認識、画像推論、画像説明、および画像に関連する一般的な質問への回答に最適化されています。"
2023
2017
  },
2018
+ "llama-3.3-70b": {
2019
+ "description": "Llama 3.3 70B:中〜大規模の Llama モデルで、推論能力とスループットのバランスに優れています。"
2020
+ },
2024
2021
  "llama-3.3-70b-instruct": {
2025
2022
  "description": "Llama 3.3は、Llamaシリーズの最先端の多言語オープンソース大規模言語モデルで、非常に低コストで405Bモデルに匹敵する性能を体験できます。Transformer構造に基づき、監視付き微調整(SFT)と人間のフィードバックによる強化学習(RLHF)を通じて有用性と安全性を向上させています。その指示調整バージョンは多言語対話に最適化されており、複数の業界ベンチマークで多くのオープンソースおよびクローズドチャットモデルを上回る性能を発揮します。知識のカットオフ日は2023年12月です。"
2026
2023
  },
@@ -2030,6 +2027,12 @@
2030
2027
  "llama-3.3-instruct": {
2031
2028
  "description": "Llama 3.3 命令チューニングモデルは対話シナリオ向けに最適化されており、一般的な業界ベンチマークテストにおいて、多くの既存のオープンソースチャットモデルを凌駕しています。"
2032
2029
  },
2030
+ "llama-4-maverick-17b-128e-instruct": {
2031
+ "description": "Llama 4 Maverick:高性能な Llama シリーズモデルで、高度な推論、複雑な問題解決、指示追従タスクに適しています。"
2032
+ },
2033
+ "llama-4-scout-17b-16e-instruct": {
2034
+ "description": "Llama 4 Scout:高性能な Llama シリーズモデルで、高スループットかつ低レイテンシーが求められるシナリオに最適です。"
2035
+ },
2033
2036
  "llama3-70b-8192": {
2034
2037
  "description": "Meta Llama 3 70Bは、比類のない複雑性処理能力を提供し、高要求プロジェクトに特化しています。"
2035
2038
  },
@@ -2045,6 +2048,9 @@
2045
2048
  "llama3.1": {
2046
2049
  "description": "Llama 3.1は、Metaが提供する先進的なモデルであり、最大405Bのパラメータをサポートし、複雑な対話、多言語翻訳、データ分析の分野で応用できます。"
2047
2050
  },
2051
+ "llama3.1-8b": {
2052
+ "description": "Llama 3.1 8B:小型で低レイテンシーの Llama バリアントで、軽量なオンライン推論や対話型シナリオに適しています。"
2053
+ },
2048
2054
  "llama3.1:405b": {
2049
2055
  "description": "Llama 3.1は、Metaが提供する先進的なモデルであり、最大405Bのパラメータをサポートし、複雑な対話、多言語翻訳、データ分析の分野で応用できます。"
2050
2056
  },
@@ -2642,6 +2648,12 @@
2642
2648
  "qvq-plus": {
2643
2649
  "description": "視覚推論モデルです。視覚入力と思考チェーン出力をサポートし、qvq-max モデルの後継である plus バージョンです。qvq-max モデルに比べて推論速度が速く、効果とコストのバランスが優れています。"
2644
2650
  },
2651
+ "qwen-3-32b": {
2652
+ "description": "Qwen 3 32B:Qwen シリーズは多言語対応とコーディングタスクに優れており、中規模なプロダクション用途に適しています。"
2653
+ },
2654
+ "qwen-3-coder-480b": {
2655
+ "description": "Qwen 3 Coder 480B:コード生成および複雑なプログラミングタスク向けの長文コンテキスト対応モデルです。"
2656
+ },
2645
2657
  "qwen-coder-plus": {
2646
2658
  "description": "通義千問コードモデルです。"
2647
2659
  },
@@ -32,6 +32,9 @@
32
32
  "bfl": {
33
33
  "description": "最先端の人工知能研究ラボで、次世代の視覚インフラを構築します。"
34
34
  },
35
+ "cerebras": {
36
+ "description": "Cerebras は、専用の CS-3 システムを基盤とした AI 推論プラットフォームであり、世界最速のリアルタイム応答と高スループットの LLM サービスを提供することを目的としています。リアルタイムのコード生成やエージェントタスクなど、複雑な AI ワークフローの遅延を排除し、加速するために設計されています。"
37
+ },
35
38
  "cloudflare": {
36
39
  "description": "Cloudflareのグローバルネットワーク上で、サーバーレスGPUによって駆動される機械学習モデルを実行します。"
37
40
  },
@@ -1532,6 +1532,9 @@
1532
1532
  "glm-zero-preview": {
1533
1533
  "description": "GLM-Zero-Preview는 강력한 복잡한 추론 능력을 갖추고 있으며, 논리 추론, 수학, 프로그래밍 등 분야에서 우수한 성능을 발휘합니다."
1534
1534
  },
1535
+ "glm4.6:355b": {
1536
+ "description": "Zhipu의 최신 플래그십 모델 GLM-4.6 (355B)은 고급 코딩, 장문 처리, 추론 및 에이전트 능력에서 전 세대를 전면적으로 능가하며, 특히 코딩 능력에서는 Claude Sonnet 4와 동등한 수준으로 국내 최고의 코딩 모델로 자리매김했습니다."
1537
+ },
1535
1538
  "google/gemini-2.0-flash": {
1536
1539
  "description": "Gemini 2.0 Flash는 차세대 기능과 개선된 성능을 제공하며, 뛰어난 속도, 내장 도구 사용, 멀티모달 생성 및 100만 토큰의 컨텍스트 윈도우를 지원합니다."
1537
1540
  },
@@ -1757,9 +1760,6 @@
1757
1760
  "gpt-realtime": {
1758
1761
  "description": "범용 실시간 모델로, 텍스트 및 오디오의 실시간 입출력을 지원하며 이미지 입력도 지원합니다."
1759
1762
  },
1760
- "grok-2-1212": {
1761
- "description": "이 모델은 정확성, 지시 준수 및 다국어 능력에서 개선되었습니다."
1762
- },
1763
1763
  "grok-2-image-1212": {
1764
1764
  "description": "최신 이미지 생성 모델로, 텍스트 프롬프트에 따라 생생하고 사실적인 이미지를 생성할 수 있습니다. 마케팅, 소셜 미디어, 엔터테인먼트 등 분야에서 뛰어난 이미지 생성 성능을 발휘합니다."
1765
1765
  },
@@ -1769,15 +1769,9 @@
1769
1769
  "grok-3": {
1770
1770
  "description": "플래그십 모델로, 데이터 추출, 프로그래밍, 텍스트 요약 등 기업용 애플리케이션에 능하며 금융, 의료, 법률, 과학 분야에 대한 깊은 지식을 보유하고 있습니다."
1771
1771
  },
1772
- "grok-3-fast": {
1773
- "description": "플래그십 모델로, 데이터 추출, 프로그래밍, 텍스트 요약 등 기업용 애플리케이션에 능하며 금융, 의료, 법률, 과학 분야에 대한 깊은 지식을 보유하고 있습니다."
1774
- },
1775
1772
  "grok-3-mini": {
1776
1773
  "description": "경량 모델로, 대화 전에 먼저 사고합니다. 빠르고 지능적으로 작동하며, 깊은 도메인 지식이 필요 없는 논리 작업에 적합하고 원시 사고 경로를 획득할 수 있습니다."
1777
1774
  },
1778
- "grok-3-mini-fast": {
1779
- "description": "경량 모델로, 대화 전에 먼저 사고합니다. 빠르고 지능적으로 작동하며, 깊은 도메인 지식이 필요 없는 논리 작업에 적합하고 원시 사고 경로를 획득할 수 있습니다."
1780
- },
1781
1775
  "grok-4": {
1782
1776
  "description": "저희의 최신이자 가장 강력한 플래그십 모델로, 자연어 처리, 수학 계산 및 추론에서 뛰어난 성능을 자랑합니다 — 완벽한 만능형 선수입니다."
1783
1777
  },
@@ -1860,7 +1854,7 @@
1860
1854
  "description": "혼위안 최신 버전 t1-vision 다중 모달 이해 심층 사고 모델로, 다중 모달 원생 사고 사슬을 지원하며 이전 세대 기본 모델에 비해 전면적으로 향상되었습니다."
1861
1855
  },
1862
1856
  "hunyuan-t1-vision-20250916": {
1863
- "description": "혼원 멀티모달 이해 심층 사고 모델로, 멀티모달 네이티브 장기 사고 사슬을 지원하며 다양한 이미지 추론 시나리오에 능숙합니다. 이과 문제에서 빠른 사고 모델 대비 전반적으로 향상되었습니다."
1857
+ "description": "혼위안의 최신 t1-vision 비전 심층 사고 모델은 이전 버전 대비 일반적인 이미지-텍스트 질의응답, 시각적 위치 파악, OCR, 차트 해석, 문제 풀이, 이미지 기반 창작 다양한 작업에서 전반적인 성능 향상을 이루었으며, 영어 및 소수 언어 처리 능력도 크게 개선되었습니다."
1864
1858
  },
1865
1859
  "hunyuan-turbo": {
1866
1860
  "description": "혼원 최신 세대 대형 언어 모델의 미리보기 버전으로, 새로운 혼합 전문가 모델(MoE) 구조를 채택하여 hunyuan-pro보다 추론 효율이 더 빠르고 성능이 더 뛰어납니다."
@@ -2021,6 +2015,9 @@
2021
2015
  "llama-3.2-vision-instruct": {
2022
2016
  "description": "Llama 3.2-Vision 지시 미세 조정 모델은 시각 인식, 이미지 추론, 이미지 설명 및 이미지 관련 일반 질문 답변에 최적화되었습니다."
2023
2017
  },
2018
+ "llama-3.3-70b": {
2019
+ "description": "Llama 3.3 70B: 중대형 Llama 모델로, 추론 능력과 처리량의 균형을 갖추고 있습니다."
2020
+ },
2024
2021
  "llama-3.3-70b-instruct": {
2025
2022
  "description": "Llama 3.3은 Llama 시리즈에서 가장 진보된 다국어 오픈 소스 대형 언어 모델로, 매우 낮은 비용으로 405B 모델의 성능을 경험할 수 있습니다. Transformer 구조를 기반으로 하며, 감독 미세 조정(SFT)과 인간 피드백 강화 학습(RLHF)을 통해 유용성과 안전성을 향상시켰습니다. 이 지시 조정 버전은 다국어 대화를 위해 최적화되어 있으며, 여러 산업 벤치마크에서 많은 오픈 소스 및 폐쇄형 채팅 모델보다 우수한 성능을 보입니다. 지식 마감일은 2023년 12월입니다."
2026
2023
  },
@@ -2030,6 +2027,12 @@
2030
2027
  "llama-3.3-instruct": {
2031
2028
  "description": "Llama 3.3 지침 미세 조정 모델은 대화 시나리오에 최적화되어 있으며, 일반적인 업계 벤치마크 테스트에서 기존의 많은 오픈소스 채팅 모델을 능가합니다."
2032
2029
  },
2030
+ "llama-4-maverick-17b-128e-instruct": {
2031
+ "description": "Llama 4 Maverick: 고성능 Llama 시리즈 모델로, 고급 추론, 복잡한 문제 해결 및 명령어 수행 작업에 적합합니다."
2032
+ },
2033
+ "llama-4-scout-17b-16e-instruct": {
2034
+ "description": "Llama 4 Scout: 고성능 Llama 시리즈 모델로, 높은 처리량과 낮은 지연이 요구되는 환경에 적합합니다."
2035
+ },
2033
2036
  "llama3-70b-8192": {
2034
2037
  "description": "Meta Llama 3 70B는 비할 데 없는 복잡성 처리 능력을 제공하며, 높은 요구 사항을 가진 프로젝트에 맞춤형으로 설계되었습니다."
2035
2038
  },
@@ -2045,6 +2048,9 @@
2045
2048
  "llama3.1": {
2046
2049
  "description": "Llama 3.1은 Meta에서 출시한 선도적인 모델로, 최대 405B 매개변수를 지원하며, 복잡한 대화, 다국어 번역 및 데이터 분석 분야에 적용될 수 있습니다."
2047
2050
  },
2051
+ "llama3.1-8b": {
2052
+ "description": "Llama 3.1 8B: 소형, 저지연의 Llama 변형 모델로, 경량 온라인 추론 및 상호작용 환경에 적합합니다."
2053
+ },
2048
2054
  "llama3.1:405b": {
2049
2055
  "description": "Llama 3.1은 Meta에서 출시한 선도적인 모델로, 최대 405B 매개변수를 지원하며, 복잡한 대화, 다국어 번역 및 데이터 분석 분야에 적용될 수 있습니다."
2050
2056
  },
@@ -2642,6 +2648,12 @@
2642
2648
  "qvq-plus": {
2643
2649
  "description": "시각 추론 모델입니다. 시각 입력과 사고 체인 출력을 지원하며, qvq-max 모델에 이어 출시된 플러스 버전으로, qvq-max 모델에 비해 추론 속도가 더 빠르고 성능과 비용의 균형이 우수합니다."
2644
2650
  },
2651
+ "qwen-3-32b": {
2652
+ "description": "Qwen 3 32B: Qwen 시리즈는 다국어 및 코딩 작업에서 우수한 성능을 보이며, 중간 규모의 생산 환경에 적합합니다."
2653
+ },
2654
+ "qwen-3-coder-480b": {
2655
+ "description": "Qwen 3 Coder 480B: 코드 생성 및 복잡한 프로그래밍 작업을 위한 장문맥 모델입니다."
2656
+ },
2645
2657
  "qwen-coder-plus": {
2646
2658
  "description": "통의천문 코드 모델입니다."
2647
2659
  },
@@ -32,6 +32,9 @@
32
32
  "bfl": {
33
33
  "description": "미래의 비전 인프라를 구축하는 선도적인 첨단 인공지능 연구소입니다."
34
34
  },
35
+ "cerebras": {
36
+ "description": "Cerebras는 전용 CS-3 시스템을 기반으로 한 AI 추론 플랫폼으로, 전 세계에서 가장 빠르고 실시간 반응이 가능한 고처리량 LLM 서비스를 제공하도록 설계되었습니다. 이 플랫폼은 지연을 제거하고 실시간 코드 생성 및 에이전트 작업과 같은 복잡한 AI 워크플로우를 가속화하기 위해 특별히 설계되었습니다."
37
+ },
35
38
  "cloudflare": {
36
39
  "description": "Cloudflare의 글로벌 네트워크에서 서버리스 GPU로 구동되는 머신러닝 모델을 실행합니다."
37
40
  },
@@ -1532,6 +1532,9 @@
1532
1532
  "glm-zero-preview": {
1533
1533
  "description": "GLM-Zero-Preview heeft krachtige complexe redeneercapaciteiten en presteert uitstekend in logische redenering, wiskunde en programmeren."
1534
1534
  },
1535
+ "glm4.6:355b": {
1536
+ "description": "GLM-4.6 (355B), het nieuwste vlaggenschipmodel van Zhipu, overtreft zijn voorgangers op alle fronten, waaronder geavanceerde codering, verwerking van lange teksten, redeneren en agentcapaciteiten. Vooral op het gebied van programmeren is het model op één lijn gebracht met Claude Sonnet 4, waarmee het een toonaangevend coding-model in China is geworden."
1537
+ },
1535
1538
  "google/gemini-2.0-flash": {
1536
1539
  "description": "Gemini 2.0 Flash biedt next-generation functies en verbeteringen, waaronder uitstekende snelheid, ingebouwde toolintegratie, multimodale generatie en een contextvenster van 1 miljoen tokens."
1537
1540
  },
@@ -1757,9 +1760,6 @@
1757
1760
  "gpt-realtime": {
1758
1761
  "description": "Universeel realtime model dat realtime tekst- en audio-invoer en -uitvoer ondersteunt, evenals beeldinvoer."
1759
1762
  },
1760
- "grok-2-1212": {
1761
- "description": "Dit model heeft verbeteringen aangebracht in nauwkeurigheid, instructievolging en meertalige capaciteiten."
1762
- },
1763
1763
  "grok-2-image-1212": {
1764
1764
  "description": "Ons nieuwste beeldgeneratiemodel kan levendige en realistische beelden genereren op basis van tekstprompts. Het presteert uitstekend in beeldgeneratie voor marketing, sociale media en entertainment."
1765
1765
  },
@@ -1769,15 +1769,9 @@
1769
1769
  "grok-3": {
1770
1770
  "description": "Vlaggenschipmodel, gespecialiseerd in data-extractie, programmeren en tekstsamenvatting voor bedrijfsapplicaties, met diepgaande kennis in financiën, gezondheidszorg, recht en wetenschap."
1771
1771
  },
1772
- "grok-3-fast": {
1773
- "description": "Vlaggenschipmodel, gespecialiseerd in data-extractie, programmeren en tekstsamenvatting voor bedrijfsapplicaties, met diepgaande kennis in financiën, gezondheidszorg, recht en wetenschap."
1774
- },
1775
1772
  "grok-3-mini": {
1776
1773
  "description": "Lichtgewicht model dat eerst nadenkt voor het reageren. Snel en intelligent, geschikt voor logische taken zonder diepgaande domeinkennis en kan de oorspronkelijke denkprocessen vastleggen."
1777
1774
  },
1778
- "grok-3-mini-fast": {
1779
- "description": "Lichtgewicht model dat eerst nadenkt voor het reageren. Snel en intelligent, geschikt voor logische taken zonder diepgaande domeinkennis en kan de oorspronkelijke denkprocessen vastleggen."
1780
- },
1781
1775
  "grok-4": {
1782
1776
  "description": "Ons nieuwste en krachtigste vlaggenschipmodel, uitmuntend in natuurlijke taalverwerking, wiskundige berekeningen en redeneren — een perfecte allrounder."
1783
1777
  },
@@ -1860,7 +1854,7 @@
1860
1854
  "description": "De nieuwste versie van Hunyuan's t1-vision multimodale diepdenkende model, ondersteunt native lange chain-of-thought in multimodale contexten en biedt een algehele verbetering ten opzichte van de vorige standaardversie."
1861
1855
  },
1862
1856
  "hunyuan-t1-vision-20250916": {
1863
- "description": "Hunyuan multimodaal begrip diepdenkend model, ondersteunt native multimodale lange ketens van gedachten, is bedreven in het verwerken van diverse beeldredeneringsscenario's en verbetert aanzienlijk ten opzichte van het snelle denkmodel bij exacte wetenschappen."
1857
+ "description": "De nieuwste versie van het Hunyuan t1-vision model voor visueel dieper nadenken biedt aanzienlijke verbeteringen ten opzichte van de vorige versie op het gebied van algemene beeld-tekstvragen, visuele lokalisatie, OCR, grafieken, vraagoplossing via afbeeldingen en beeldgebaseerde creatie. De prestaties in het Engels en kleinere talen zijn merkbaar geoptimaliseerd."
1864
1858
  },
1865
1859
  "hunyuan-turbo": {
1866
1860
  "description": "Een previewversie van het nieuwe generatie grote taalmodel van Hunyuan, met een nieuwe hybride expertmodel (MoE) structuur, die sneller inferentie-efficiëntie biedt en betere prestaties levert dan hunyan-pro."
@@ -2021,6 +2015,9 @@
2021
2015
  "llama-3.2-vision-instruct": {
2022
2016
  "description": "Llama 3.2-Vision instructie-fijnafstemmodel is geoptimaliseerd voor visuele herkenning, afbeeldingsredenering, afbeeldingsbeschrijving en het beantwoorden van algemene vragen over afbeeldingen."
2023
2017
  },
2018
+ "llama-3.3-70b": {
2019
+ "description": "Llama 3.3 70B: een middelgroot Llama-model dat een goede balans biedt tussen redeneervermogen en verwerkingssnelheid."
2020
+ },
2024
2021
  "llama-3.3-70b-instruct": {
2025
2022
  "description": "Llama 3.3 is het meest geavanceerde meertalige open-source grote taalmodel in de Llama-serie, dat prestaties biedt die vergelijkbaar zijn met die van het 405B-model tegen zeer lage kosten. Gebaseerd op de Transformer-structuur en verbeterd door middel van supervisie-fijnstelling (SFT) en versterkend leren met menselijke feedback (RLHF) voor gebruiksvriendelijkheid en veiligheid. De instructie-geoptimaliseerde versie is speciaal ontworpen voor meertalige dialogen en presteert beter dan veel open-source en gesloten chatmodellen op verschillende industriële benchmarks. Kennisafkapdatum is december 2023."
2026
2023
  },
@@ -2030,6 +2027,12 @@
2030
2027
  "llama-3.3-instruct": {
2031
2028
  "description": "Het Llama 3.3 instructie-fijnafstemmodel is geoptimaliseerd voor gesprekssituaties en overtreft vele bestaande open-source chatmodellen op veelvoorkomende industriebenchmarks."
2032
2029
  },
2030
+ "llama-4-maverick-17b-128e-instruct": {
2031
+ "description": "Llama 4 Maverick: een krachtig model uit de Llama-serie, geschikt voor geavanceerde redenering, het oplossen van complexe problemen en instructievolgende taken."
2032
+ },
2033
+ "llama-4-scout-17b-16e-instruct": {
2034
+ "description": "Llama 4 Scout: een hoogwaardig model uit de Llama-serie, geoptimaliseerd voor scenario's die hoge verwerkingssnelheid en lage latentie vereisen."
2035
+ },
2033
2036
  "llama3-70b-8192": {
2034
2037
  "description": "Meta Llama 3 70B biedt ongeëvenaarde complexiteitsverwerkingscapaciteiten, op maat gemaakt voor veeleisende projecten."
2035
2038
  },
@@ -2045,6 +2048,9 @@
2045
2048
  "llama3.1": {
2046
2049
  "description": "Llama 3.1 is een toonaangevend model van Meta, ondersteunt tot 405B parameters en kan worden toegepast in complexe gesprekken, meertalige vertalingen en data-analyse."
2047
2050
  },
2051
+ "llama3.1-8b": {
2052
+ "description": "Llama 3.1 8B: een compacte en snelle variant van Llama, ideaal voor lichte online redenering en interactieve toepassingen."
2053
+ },
2048
2054
  "llama3.1:405b": {
2049
2055
  "description": "Llama 3.1 is een toonaangevend model van Meta, ondersteunt tot 405B parameters en kan worden toegepast in complexe gesprekken, meertalige vertalingen en data-analyse."
2050
2056
  },
@@ -2642,6 +2648,12 @@
2642
2648
  "qvq-plus": {
2643
2649
  "description": "Visueel redeneermodel. Ondersteunt visuele input en keten van gedachten output. De plus-versie, uitgebracht na het qvq-max model, biedt snellere redeneersnelheid en een betere balans tussen effectiviteit en kosten in vergelijking met het qvq-max model."
2644
2650
  },
2651
+ "qwen-3-32b": {
2652
+ "description": "Qwen 3 32B: een model uit de Qwen-serie met uitstekende prestaties op meertalige en programmeertaken, geschikt voor productie op middelgrote schaal."
2653
+ },
2654
+ "qwen-3-coder-480b": {
2655
+ "description": "Qwen 3 Coder 480B: een model met lange context, ontworpen voor codegeneratie en complexe programmeertaken."
2656
+ },
2645
2657
  "qwen-coder-plus": {
2646
2658
  "description": "Tongyi Qianwen codeermodel."
2647
2659
  },