@lobehub/chat 1.26.12 → 1.26.14

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (67) hide show
  1. package/.i18nrc.js +1 -0
  2. package/CHANGELOG.md +50 -0
  3. package/locales/ar/common.json +1 -0
  4. package/locales/ar/models.json +3 -0
  5. package/locales/bg-BG/common.json +1 -0
  6. package/locales/bg-BG/models.json +3 -0
  7. package/locales/de-DE/common.json +1 -0
  8. package/locales/de-DE/models.json +3 -0
  9. package/locales/en-US/common.json +1 -0
  10. package/locales/en-US/models.json +3 -0
  11. package/locales/es-ES/common.json +1 -0
  12. package/locales/es-ES/models.json +3 -0
  13. package/locales/fa-IR/auth.json +8 -0
  14. package/locales/fa-IR/chat.json +189 -0
  15. package/locales/fa-IR/clerk.json +769 -0
  16. package/locales/fa-IR/common.json +238 -0
  17. package/locales/fa-IR/components.json +84 -0
  18. package/locales/fa-IR/discover.json +204 -0
  19. package/locales/fa-IR/error.json +138 -0
  20. package/locales/fa-IR/file.json +94 -0
  21. package/locales/fa-IR/knowledgeBase.json +32 -0
  22. package/locales/fa-IR/market.json +32 -0
  23. package/locales/fa-IR/metadata.json +35 -0
  24. package/locales/fa-IR/migration.json +45 -0
  25. package/locales/fa-IR/modelProvider.json +164 -0
  26. package/locales/fa-IR/models.json +1108 -0
  27. package/locales/fa-IR/plugin.json +166 -0
  28. package/locales/fa-IR/portal.json +35 -0
  29. package/locales/fa-IR/providers.json +94 -0
  30. package/locales/fa-IR/ragEval.json +91 -0
  31. package/locales/fa-IR/setting.json +421 -0
  32. package/locales/fa-IR/tool.json +10 -0
  33. package/locales/fa-IR/welcome.json +50 -0
  34. package/locales/fr-FR/common.json +1 -0
  35. package/locales/fr-FR/models.json +3 -0
  36. package/locales/it-IT/common.json +1 -0
  37. package/locales/it-IT/models.json +3 -0
  38. package/locales/ja-JP/common.json +1 -0
  39. package/locales/ja-JP/models.json +3 -0
  40. package/locales/ko-KR/common.json +1 -0
  41. package/locales/ko-KR/models.json +3 -0
  42. package/locales/nl-NL/common.json +1 -0
  43. package/locales/nl-NL/models.json +3 -0
  44. package/locales/pl-PL/common.json +1 -0
  45. package/locales/pl-PL/models.json +3 -0
  46. package/locales/pt-BR/common.json +1 -0
  47. package/locales/pt-BR/models.json +3 -0
  48. package/locales/ru-RU/common.json +1 -0
  49. package/locales/ru-RU/models.json +3 -0
  50. package/locales/tr-TR/common.json +1 -0
  51. package/locales/tr-TR/models.json +3 -0
  52. package/locales/vi-VN/common.json +1 -0
  53. package/locales/vi-VN/models.json +3 -0
  54. package/locales/zh-CN/common.json +1 -0
  55. package/locales/zh-CN/models.json +3 -0
  56. package/locales/zh-TW/common.json +1 -0
  57. package/locales/zh-TW/models.json +3 -0
  58. package/package.json +2 -2
  59. package/src/app/(main)/chat/(workspace)/@portal/Artifacts/Body/Renderer/index.tsx +1 -1
  60. package/src/app/(main)/chat/(workspace)/@portal/Plugins/Body/index.tsx +1 -1
  61. package/src/app/(main)/chat/(workspace)/@portal/features/Body.tsx +1 -1
  62. package/src/config/app.ts +4 -1
  63. package/src/layout/GlobalProvider/AppTheme.tsx +49 -29
  64. package/src/layout/GlobalProvider/index.tsx +2 -0
  65. package/src/locales/default/common.ts +1 -0
  66. package/src/locales/resources.ts +5 -0
  67. package/src/server/sitemap.test.ts +4 -4
@@ -0,0 +1,1108 @@
1
+ {
2
+ "01-ai/Yi-1.5-34B-Chat-16K": {
3
+ "description": "Yi-1.5 34B، با استفاده از نمونه‌های آموزشی غنی، عملکرد برتری در کاربردهای صنعتی ارائه می‌دهد."
4
+ },
5
+ "01-ai/Yi-1.5-9B-Chat-16K": {
6
+ "description": "Yi-1.5 9B از 16K توکن پشتیبانی می‌کند و توانایی تولید زبان به‌صورت کارآمد و روان را ارائه می‌دهد."
7
+ },
8
+ "360gpt-pro": {
9
+ "description": "360GPT Pro به عنوان یکی از اعضای مهم سری مدل‌های 360 AI، با توانایی پردازش متون به‌صورت کارآمد، نیازهای متنوع در زمینه‌های مختلف کاربردهای زبان طبیعی را برآورده می‌کند و از قابلیت‌هایی مانند درک متون طولانی و مکالمات چندمرحله‌ای پشتیبانی می‌کند."
10
+ },
11
+ "360gpt-turbo": {
12
+ "description": "360GPT Turbo توانایی‌های محاسباتی و مکالمه‌ای قدرتمندی ارائه می‌دهد و دارای کارایی بالایی در درک و تولید معنا است. این یک راه‌حل ایده‌آل برای دستیار هوشمند برای شرکت‌ها و توسعه‌دهندگان است."
13
+ },
14
+ "360gpt-turbo-responsibility-8k": {
15
+ "description": "360GPT Turbo Responsibility 8K بر امنیت معنایی و مسئولیت‌پذیری تأکید دارد و به‌طور ویژه برای سناریوهایی طراحی شده است که نیاز بالایی به امنیت محتوا دارند، تا دقت و پایداری تجربه کاربری را تضمین کند."
16
+ },
17
+ "360gpt2-pro": {
18
+ "description": "360GPT2 Pro مدل پیشرفته پردازش زبان طبیعی است که توسط شرکت 360 ارائه شده است. این مدل دارای توانایی‌های برجسته‌ای در تولید و درک متن است و به ویژه در زمینه تولید و خلاقیت عملکرد فوق‌العاده‌ای دارد. همچنین قادر به انجام وظایف پیچیده تبدیل زبان و ایفای نقش می‌باشد."
19
+ },
20
+ "4.0Ultra": {
21
+ "description": "Spark Ultra قدرتمندترین نسخه از سری مدل‌های بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصه‌سازی محتوای متنی را بهبود می‌بخشد. این یک راه‌حل جامع برای افزایش بهره‌وری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته می‌شود."
22
+ },
23
+ "Baichuan2-Turbo": {
24
+ "description": "با استفاده از فناوری تقویت جستجو، مدل بزرگ را به دانش حوزه‌ای و دانش کل وب متصل می‌کند. از آپلود انواع اسناد مانند PDF، Word و همچنین وارد کردن آدرس‌های وب پشتیبانی می‌کند. اطلاعات به‌موقع و جامع دریافت می‌شود و نتایج خروجی دقیق و حرفه‌ای هستند."
25
+ },
26
+ "Baichuan3-Turbo": {
27
+ "description": "بهینه‌سازی شده برای سناریوهای پرتکرار سازمانی، با بهبود قابل توجه و نسبت عملکرد به هزینه بالا. در مقایسه با مدل Baichuan2، تولید محتوا ۲۰٪ بهبود یافته، پاسخ به سوالات ۱۷٪ بهتر شده و توانایی نقش‌آفرینی ۴۰٪ افزایش یافته است. عملکرد کلی بهتر از GPT3.5 است."
28
+ },
29
+ "Baichuan3-Turbo-128k": {
30
+ "description": "دارای پنجره متنی فوق‌العاده طولانی ۱۲۸K، بهینه‌سازی شده برای سناریوهای پرتکرار سازمانی، با بهبود قابل توجه در عملکرد و مقرون به صرفه بودن. در مقایسه با مدل Baichuan2، ۲۰٪ بهبود در تولید محتوا، ۱۷٪ بهبود در پرسش و پاسخ دانش، و ۴۰٪ بهبود در توانایی نقش‌آفرینی. عملکرد کلی بهتر از GPT3.5 است."
31
+ },
32
+ "Baichuan4": {
33
+ "description": "این مدل از نظر توانایی در داخل کشور رتبه اول را دارد و در وظایف چینی مانند دانشنامه، متون طولانی و تولید محتوا از مدل‌های اصلی خارجی پیشی می‌گیرد. همچنین دارای توانایی چندوجهی پیشرو در صنعت است و در چندین معیار ارزیابی معتبر عملکرد برجسته‌ای دارد."
34
+ },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "مدل زبان بزرگ پرچمدار توسعه‌یافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش می‌دهد و دارای توانایی‌های عمومی قدرتمندی است. این مدل می‌تواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونه‌ها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا به‌روز بودن اطلاعات پرسش و پاسخ را تضمین کند."
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "مدل زبان بزرگ پرچمدار توسعه‌یافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش می‌دهد و دارای توانایی‌های عمومی قدرتمندی است. این مدل می‌تواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونه‌ها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا به‌روز بودن اطلاعات پرسش و پاسخ را تضمین نماید."
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "مدل زبان بزرگ پرچمدار توسعه‌یافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش می‌دهد و دارای توانایی‌های عمومی قدرتمندی است. این مدل می‌تواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونه‌ها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا به‌روز بودن اطلاعات پرسش و پاسخ را تضمین کند."
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "مدل زبان بزرگ مقیاس پرچمدار توسعه‌یافته توسط بایدو، که نسبت به ERNIE 3.5 ارتقاء کامل در توانایی‌های مدل را به ارمغان آورده است و برای وظایف پیچیده در حوزه‌های مختلف مناسب است؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند و به‌روزرسانی اطلاعات پرسش و پاسخ را تضمین می‌نماید."
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "مدل زبان بزرگ مقیاس پرچمدار توسعه‌یافته توسط بایدو، در مقایسه با ERNIE 3.5 ارتقاء کامل توانایی‌های مدل را به ارمغان آورده و برای وظایف پیچیده در حوزه‌های مختلف مناسب است؛ از افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به‌روز بماند."
49
+ },
50
+ "ERNIE-4.0-Turbo-8K-Latest": {
51
+ "description": "مدل زبان بزرگ و پیشرفته‌ای که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینه‌های مختلف و مناسب برای وظایف پیچیده؛ از افزونه جستجوی بایدو به‌طور خودکار پشتیبانی می‌کند تا اطلاعات به‌روز را در پاسخ‌ها تضمین کند. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد."
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "مدل زبان بزرگ و پرچمدار با مقیاس فوق‌العاده که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینه‌های مختلف و مناسب برای وظایف پیچیده؛ پشتیبانی از اتصال خودکار به افزونه جستجوی بایدو برای اطمینان از به‌روز بودن اطلاعات پرسش و پاسخ. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد."
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "مدل زبان بزرگ عمودی توسعه‌یافته توسط بایدو، مناسب برای صحنه‌های کاربردی مانند NPCهای بازی، مکالمات پشتیبانی مشتری، و نقش‌آفرینی در مکالمات. سبک شخصیت‌ها برجسته‌تر و یکپارچه‌تر است، توانایی پیروی از دستورات قوی‌تر و عملکرد استدلالی بهینه‌تر است."
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "مدل زبان بزرگ سبک‌وزن توسعه‌یافته توسط بایدو، که تعادل بین عملکرد مدل عالی و کارایی استنتاج را حفظ می‌کند. عملکرد آن بهتر از ERNIE Lite است و برای استفاده در کارت‌های شتاب‌دهنده AI با قدرت محاسباتی پایین مناسب است."
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "مدل زبان بزرگ با عملکرد بالا که در سال 2024 توسط بایدو توسعه یافته است. این مدل دارای توانایی‌های عمومی برجسته‌ای است و به عنوان یک مدل پایه برای تنظیم دقیق در سناریوهای خاص مناسب است و همچنین از عملکرد استنتاجی بسیار خوبی برخوردار است."
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "مدل زبان بزرگ با عملکرد بالا که در سال 2024 توسط بایدو به‌طور مستقل توسعه یافته است. این مدل دارای توانایی‌های عمومی برجسته‌ای است و عملکرد بهتری نسبت به ERNIE Speed دارد. مناسب برای استفاده به عنوان مدل پایه برای تنظیم دقیق و حل بهتر مسائل در سناریوهای خاص، همچنین دارای عملکرد استنتاجی بسیار عالی است."
67
+ },
68
+ "Gryphe/MythoMax-L2-13b": {
69
+ "description": "MythoMax-L2 (13B) یک مدل نوآورانه است که برای کاربردهای چندرشته‌ای و وظایف پیچیده مناسب است."
70
+ },
71
+ "Nous-Hermes-2-Mixtral-8x7B-DPO": {
72
+ "description": "Hermes 2 Mixtral 8x7B DPO یک ترکیب چندمدلی بسیار انعطاف‌پذیر است که برای ارائه تجربه‌ای خلاقانه و برجسته طراحی شده است."
73
+ },
74
+ "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
75
+ "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) یک مدل دستورالعمل با دقت بالا است که برای محاسبات پیچیده مناسب است."
76
+ },
77
+ "NousResearch/Nous-Hermes-2-Yi-34B": {
78
+ "description": "Nous Hermes-2 Yi (34B) خروجی بهینه زبان و امکانات متنوع کاربردی را ارائه می‌دهد."
79
+ },
80
+ "OpenGVLab/InternVL2-26B": {
81
+ "description": "InternVL2 در وظایف مختلف زبان تصویری عملکرد برجسته‌ای از خود نشان داده است، از جمله درک اسناد و نمودارها، درک متن صحنه، OCR، حل مسائل علمی و ریاضی و غیره."
82
+ },
83
+ "OpenGVLab/InternVL2-Llama3-76B": {
84
+ "description": "InternVL2 در وظایف مختلف زبان تصویری عملکرد برجسته‌ای از خود نشان داده است، از جمله درک اسناد و نمودارها، درک متن صحنه، OCR، حل مسائل علمی و ریاضی و غیره."
85
+ },
86
+ "Phi-3-medium-128k-instruct": {
87
+ "description": "همان مدل Phi-3-medium، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
88
+ },
89
+ "Phi-3-medium-4k-instruct": {
90
+ "description": "یک مدل با ۱۴ میلیارد پارامتر که کیفیت آن بهتر از Phi-3-mini است و تمرکز آن بر داده‌های با کیفیت بالا و فشرده‌سازی استدلالی است."
91
+ },
92
+ "Phi-3-mini-128k-instruct": {
93
+ "description": "مدل مشابه Phi-3-mini، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
94
+ },
95
+ "Phi-3-mini-4k-instruct": {
96
+ "description": "کوچک‌ترین عضو خانواده Phi-3، بهینه‌سازی شده برای کیفیت و تأخیر کم."
97
+ },
98
+ "Phi-3-small-128k-instruct": {
99
+ "description": "همان مدل Phi-3-small، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
100
+ },
101
+ "Phi-3-small-8k-instruct": {
102
+ "description": "یک مدل با ۷ میلیارد پارامتر که کیفیت آن بهتر از Phi-3-mini است و تمرکز آن بر داده‌های با کیفیت بالا و فشرده‌سازی استدلالی است."
103
+ },
104
+ "Phi-3.5-mini-instruct": {
105
+ "description": "نسخه به‌روزرسانی‌شده مدل Phi-3-mini."
106
+ },
107
+ "Phi-3.5-vision-instrust": {
108
+ "description": "نسخه به‌روزرسانی‌شده مدل Phi-3-vision."
109
+ },
110
+ "Pro/OpenGVLab/InternVL2-8B": {
111
+ "description": "InternVL2 در وظایف مختلف زبان تصویری عملکرد برجسته‌ای از خود نشان داده است، از جمله درک اسناد و نمودارها، درک متن صحنه، OCR، حل مسائل علمی و ریاضی و غیره."
112
+ },
113
+ "Pro/Qwen/Qwen2-VL-7B-Instruct": {
114
+ "description": "Qwen2-VL جدیدترین نسخه از مدل Qwen-VL است که در آزمون‌های معیار درک بصری به پیشرفته‌ترین عملکرد دست یافته است."
115
+ },
116
+ "Qwen/Qwen1.5-110B-Chat": {
117
+ "description": "Qwen 1.5 Chat (110B) یک مدل گفتگوی با کارایی بالا است که از سناریوهای پیچیده مکالمه پشتیبانی می‌کند."
118
+ },
119
+ "Qwen/Qwen1.5-72B-Chat": {
120
+ "description": "Qwen 1.5 Chat (72B) پاسخگویی سریع و توانایی مکالمه طبیعی را ارائه می‌دهد و برای محیط‌های چندزبانه مناسب است."
121
+ },
122
+ "Qwen/Qwen2-72B-Instruct": {
123
+ "description": "Qwen 2 Instruct (72B) دستورالعمل‌های دقیق برای کاربردهای سازمانی ارائه می‌دهد و به درستی به آن‌ها پاسخ می‌دهد."
124
+ },
125
+ "Qwen/Qwen2-VL-72B-Instruct": {
126
+ "description": "Qwen2-VL جدیدترین نسخه از مدل Qwen-VL است که در آزمون‌های معیار درک بصری به پیشرفته‌ترین عملکرد دست یافته است."
127
+ },
128
+ "Qwen/Qwen2.5-14B-Instruct": {
129
+ "description": "Qwen2.5 یک سری جدید از مدل‌های زبانی بزرگ است که با هدف بهینه‌سازی پردازش وظایف دستوری طراحی شده است."
130
+ },
131
+ "Qwen/Qwen2.5-32B-Instruct": {
132
+ "description": "Qwen2.5 یک سری جدید از مدل‌های زبانی بزرگ است که با هدف بهینه‌سازی پردازش وظایف دستوری طراحی شده است."
133
+ },
134
+ "Qwen/Qwen2.5-72B-Instruct": {
135
+ "description": "مدل زبانی بزرگ توسعه یافته توسط تیم علی‌بابا، تونگ‌yi چن‌وِن."
136
+ },
137
+ "Qwen/Qwen2.5-72B-Instruct-128K": {
138
+ "description": "Qwen2.5 یک سری جدید از مدل‌های زبان بزرگ است که دارای توانایی‌های قوی‌تر در درک و تولید می‌باشد."
139
+ },
140
+ "Qwen/Qwen2.5-72B-Instruct-Turbo": {
141
+ "description": "Qwen2.5 یک سری جدید از مدل‌های زبانی بزرگ است که با هدف بهینه‌سازی پردازش وظایف دستوری طراحی شده است."
142
+ },
143
+ "Qwen/Qwen2.5-7B-Instruct": {
144
+ "description": "Qwen2.5 یک سری جدید از مدل‌های زبان بزرگ است که با هدف بهینه‌سازی پردازش وظایف دستوری طراحی شده است."
145
+ },
146
+ "Qwen/Qwen2.5-7B-Instruct-Turbo": {
147
+ "description": "Qwen2.5 یک سری جدید از مدل‌های زبانی بزرگ است که با هدف بهینه‌سازی پردازش وظایف دستوری طراحی شده است."
148
+ },
149
+ "Qwen/Qwen2.5-Coder-7B-Instruct": {
150
+ "description": "Qwen2.5-Coder بر روی نوشتن کد تمرکز دارد."
151
+ },
152
+ "Qwen/Qwen2.5-Math-72B-Instruct": {
153
+ "description": "Qwen2.5-Math بر حل مسائل در حوزه ریاضیات تمرکز دارد و پاسخ‌های حرفه‌ای برای مسائل پیچیده ارائه می‌دهد."
154
+ },
155
+ "SenseChat": {
156
+ "description": "نسخه پایه مدل (V4)، طول متن ۴K، با توانایی‌های عمومی قوی"
157
+ },
158
+ "SenseChat-128K": {
159
+ "description": "نسخه پایه مدل (V4)، با طول زمینه ۱۲۸K، در وظایف درک و تولید متون طولانی عملکرد برجسته‌ای دارد"
160
+ },
161
+ "SenseChat-32K": {
162
+ "description": "مدل نسخه پایه (V4)، طول زمینه 32K، قابل استفاده در انواع سناریوها"
163
+ },
164
+ "SenseChat-5": {
165
+ "description": "جدیدترین نسخه مدل (V5.5)، با طول زمینه 128K، بهبود قابل توجه در زمینه‌های استدلال ریاضی، مکالمه انگلیسی، پیروی از دستورات و درک متون طولانی، قابل مقایسه با GPT-4o"
166
+ },
167
+ "SenseChat-5-Cantonese": {
168
+ "description": "طول متن 32K، در درک مکالمات به زبان کانتونی از GPT-4 پیشی می‌گیرد و در زمینه‌های مختلفی مانند دانش، استدلال، ریاضیات و برنامه‌نویسی با GPT-4 Turbo قابل مقایسه است."
169
+ },
170
+ "SenseChat-Character": {
171
+ "description": "نسخه استاندارد مدل، طول متن ۸۰۰۰ کاراکتر، سرعت پاسخ‌دهی بالا"
172
+ },
173
+ "SenseChat-Character-Pro": {
174
+ "description": "مدل پیشرفته، طول متن 32K، بهبود کامل قابلیت‌ها، پشتیبانی از مکالمه به زبان‌های چینی/انگلیسی"
175
+ },
176
+ "SenseChat-Turbo": {
177
+ "description": "مناسب برای پرسش و پاسخ سریع و تنظیم دقیق مدل"
178
+ },
179
+ "THUDM/glm-4-9b-chat": {
180
+ "description": "نسخه منبع باز GLM-4 9B، تجربه گفتگوی بهینه‌شده برای برنامه‌های مکالمه را ارائه می‌دهد."
181
+ },
182
+ "abab5.5-chat": {
183
+ "description": "برای سناریوهای بهره‌وری طراحی شده است، از پردازش وظایف پیچیده و تولید متن کارآمد پشتیبانی می‌کند و برای کاربردهای حرفه‌ای مناسب است."
184
+ },
185
+ "abab5.5s-chat": {
186
+ "description": "طراحی شده برای سناریوهای مکالمه با شخصیت‌های چینی، ارائه توانایی تولید مکالمات با کیفیت بالا به زبان چینی، مناسب برای انواع کاربردها."
187
+ },
188
+ "abab6.5g-chat": {
189
+ "description": "طراحی شده برای مکالمات چندزبانه با شخصیت‌های مختلف، پشتیبانی از تولید مکالمات با کیفیت بالا به زبان انگلیسی و سایر زبان‌ها."
190
+ },
191
+ "abab6.5s-chat": {
192
+ "description": "مناسب برای طیف گسترده‌ای از وظایف پردازش زبان طبیعی، از جمله تولید متن، سیستم‌های گفتگو و غیره."
193
+ },
194
+ "abab6.5t-chat": {
195
+ "description": "بهینه‌سازی شده برای سناریوهای مکالمه با شخصیت‌های چینی، ارائه توانایی تولید مکالمات روان و مطابق با عادات بیانی چینی."
196
+ },
197
+ "accounts/fireworks/models/firefunction-v1": {
198
+ "description": "مدل فراخوانی تابع Fireworks منبع‌باز، ارائه‌دهنده قابلیت اجرای دستورالعمل‌های برجسته و ویژگی‌های باز و قابل سفارشی‌سازی."
199
+ },
200
+ "accounts/fireworks/models/firefunction-v2": {
201
+ "description": "مدل Firefunction-v2 که به تازگی توسط شرکت Fireworks معرفی شده است، یک مدل فراخوانی تابع با عملکرد عالی است که بر اساس Llama-3 توسعه یافته و با بهینه‌سازی‌های گسترده، به‌ویژه برای فراخوانی توابع، مکالمات و پیروی از دستورات مناسب است."
202
+ },
203
+ "accounts/fireworks/models/firellava-13b": {
204
+ "description": "fireworks-ai/FireLLaVA-13b یک مدل زبان بصری است که می‌تواند به‌طور همزمان ورودی‌های تصویر و متن را دریافت کند. این مدل با داده‌های باکیفیت آموزش دیده و برای وظایف چندوجهی مناسب است."
205
+ },
206
+ "accounts/fireworks/models/llama-v3-70b-instruct": {
207
+ "description": "مدل Llama 3 70B دستورالعمل، به‌طور ویژه برای مکالمات چندزبانه و درک زبان طبیعی بهینه‌سازی شده است و عملکردی بهتر از اکثر مدل‌های رقیب دارد."
208
+ },
209
+ "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
210
+ "description": "مدل Llama 3 70B دستورالعمل (نسخه HF)، با نتایج پیاده‌سازی رسمی سازگار است و برای وظایف پیروی از دستورالعمل با کیفیت بالا مناسب است."
211
+ },
212
+ "accounts/fireworks/models/llama-v3-8b-instruct": {
213
+ "description": "مدل Llama 3 8B دستورالعمل، بهینه‌سازی شده برای مکالمه و وظایف چندزبانه، با عملکرد برجسته و کارآمد."
214
+ },
215
+ "accounts/fireworks/models/llama-v3-8b-instruct-hf": {
216
+ "description": "مدل Llama 3 8B دستورالعمل (نسخه HF)، با نتایج پیاده‌سازی رسمی سازگار است و از سازگاری بالا و قابلیت همکاری بین پلتفرمی برخوردار است."
217
+ },
218
+ "accounts/fireworks/models/llama-v3p1-405b-instruct": {
219
+ "description": "مدل Llama 3.1 405B دستورالعمل، با پارامترهای بسیار بزرگ، مناسب برای وظایف پیچیده و سناریوهای با بار سنگین در پیروی از دستورالعمل‌ها."
220
+ },
221
+ "accounts/fireworks/models/llama-v3p1-70b-instruct": {
222
+ "description": "مدل Llama 3.1 70B دستورالعمل، با توانایی برجسته در درک و تولید زبان طبیعی، انتخابی ایده‌آل برای وظایف مکالمه و تحلیل است."
223
+ },
224
+ "accounts/fireworks/models/llama-v3p1-8b-instruct": {
225
+ "description": "مدل Llama 3.1 8B دستورالعمل، بهینه‌سازی شده برای مکالمات چندزبانه، قادر به پیشی گرفتن از اکثر مدل‌های متن‌باز و بسته در معیارهای صنعتی رایج."
226
+ },
227
+ "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
228
+ "description": "مدل استنتاج تصویر با ۱۱ میلیارد پارامتر از Meta که برای دستورالعمل‌ها تنظیم شده است. این مدل برای تشخیص بصری، استنتاج تصویر، توصیف تصویر و پاسخ به سوالات عمومی درباره تصاویر بهینه‌سازی شده است. این مدل قادر به درک داده‌های بصری مانند نمودارها و گراف‌ها است و با تولید توضیحات متنی از جزئیات تصاویر، فاصله بین دیداری و زبانی را پر می‌کند."
229
+ },
230
+ "accounts/fireworks/models/llama-v3p2-1b-instruct": {
231
+ "description": "مدل Llama 3.2 1B دستورالعمل یک مدل چندزبانه سبک است که توسط Meta ارائه شده است. این مدل با هدف بهبود کارایی طراحی شده و در مقایسه با مدل‌های بزرگتر، بهبودهای قابل توجهی در تأخیر و هزینه ارائه می‌دهد. موارد استفاده نمونه از این مدل شامل بازیابی و خلاصه‌سازی است."
232
+ },
233
+ "accounts/fireworks/models/llama-v3p2-3b-instruct": {
234
+ "description": "مدل Llama 3.2 3B دستورالعمل یک مدل چندزبانه سبک است که توسط Meta ارائه شده است. این مدل با هدف بهبود کارایی طراحی شده و در مقایسه با مدل‌های بزرگ‌تر، بهبودهای قابل توجهی در تأخیر و هزینه ارائه می‌دهد. نمونه‌های کاربردی این مدل شامل بازنویسی پرسش‌ها و دستورات و همچنین کمک به نوشتن است."
235
+ },
236
+ "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
237
+ "description": "مدل استنتاج تصویر با 90 میلیارد پارامتر از Meta که برای دستورالعمل‌ها تنظیم شده است. این مدل برای تشخیص بصری، استنتاج تصویر، توصیف تصویر و پاسخ به سوالات عمومی در مورد تصاویر بهینه‌سازی شده است. این مدل قادر است داده‌های بصری مانند نمودارها و گراف‌ها را درک کند و با تولید توضیحات متنی از جزئیات تصویر، فاصله بین دیداری و زبانی را پر کند."
238
+ },
239
+ "accounts/fireworks/models/mixtral-8x22b-instruct": {
240
+ "description": "مدل Mixtral MoE 8x22B دستوری، با پارامترهای بزرگ و معماری چندین متخصص، پشتیبانی کامل از پردازش کارآمد وظایف پیچیده."
241
+ },
242
+ "accounts/fireworks/models/mixtral-8x7b-instruct": {
243
+ "description": "مدل Mixtral MoE 8x7B، معماری چندین متخصص برای پیروی و اجرای دستورات به‌صورت کارآمد ارائه می‌دهد."
244
+ },
245
+ "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
246
+ "description": "مدل Mixtral MoE 8x7B دستورالعمل (نسخه HF)، با عملکردی مشابه با پیاده‌سازی رسمی، مناسب برای انواع سناریوهای وظایف کارآمد."
247
+ },
248
+ "accounts/fireworks/models/mythomax-l2-13b": {
249
+ "description": "مدل MythoMax L2 13B، با استفاده از تکنیک‌های ترکیبی نوآورانه، در روایت داستان و نقش‌آفرینی مهارت دارد."
250
+ },
251
+ "accounts/fireworks/models/phi-3-vision-128k-instruct": {
252
+ "description": "Phi-3-Vision-128K-Instruct یک مدل چندوجهی پیشرفته و سبک است که بر اساس مجموعه داده‌هایی شامل داده‌های مصنوعی و وب‌سایت‌های عمومی فیلتر شده ساخته شده است. این مدل بر داده‌های بسیار باکیفیت و متمرکز بر استدلال، که شامل متن و تصویر هستند، تمرکز دارد. این مدل بخشی از سری مدل‌های Phi-3 است و نسخه چندوجهی آن از طول زمینه 128K (بر حسب توکن) پشتیبانی می‌کند. این مدل از یک فرآیند تقویت دقیق عبور کرده است که ترکیبی از تنظیم دقیق تحت نظارت و بهینه‌سازی مستقیم ترجیحات را شامل می‌شود تا از پیروی دقیق از دستورات و اقدامات امنیتی قوی اطمینان حاصل شود."
253
+ },
254
+ "accounts/fireworks/models/qwen2p5-72b-instruct": {
255
+ "description": "Qwen2.5 مجموعه‌ای از مدل‌های زبانی است که تنها شامل رمزگشاها می‌باشد و توسط تیم Qwen علی‌بابا کلود توسعه یافته است. این مدل‌ها در اندازه‌های مختلف از جمله 0.5B، 1.5B، 3B، 7B، 14B، 32B و 72B ارائه می‌شوند و دارای دو نوع پایه (base) و دستوری (instruct) هستند."
256
+ },
257
+ "accounts/fireworks/models/starcoder-16b": {
258
+ "description": "مدل StarCoder 15.5B، پشتیبانی از وظایف پیشرفته برنامه‌نویسی، با قابلیت‌های چندزبانه تقویت شده، مناسب برای تولید و درک کدهای پیچیده."
259
+ },
260
+ "accounts/fireworks/models/starcoder-7b": {
261
+ "description": "مدل StarCoder 7B، آموزش‌دیده بر روی بیش از ۸۰ زبان برنامه‌نویسی مختلف، با توانایی برجسته در تکمیل کد و درک زمینه."
262
+ },
263
+ "accounts/yi-01-ai/models/yi-large": {
264
+ "description": "مدل Yi-Large، با توانایی برجسته در پردازش چندزبانه، مناسب برای انواع وظایف تولید و درک زبان."
265
+ },
266
+ "ai21-jamba-1.5-large": {
267
+ "description": "یک مدل چندزبانه با 398 میلیارد پارامتر (94 میلیارد فعال) که پنجره متنی طولانی 256 هزار توکن، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه می‌دهد."
268
+ },
269
+ "ai21-jamba-1.5-mini": {
270
+ "description": "یک مدل چندزبانه با 52 میلیارد پارامتر (12 میلیارد فعال) که پنجره متنی طولانی 256K، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه می‌دهد."
271
+ },
272
+ "anthropic.claude-3-5-sonnet-20240620-v1:0": {
273
+ "description": "Claude 3.5 Sonnet استانداردهای صنعت را ارتقا داده است، عملکردی بهتر از مدل‌های رقیب و Claude 3 Opus دارد، در ارزیابی‌های گسترده به خوبی عمل کرده و در عین حال سرعت و هزینه مدل‌های سطح متوسط ما را حفظ می‌کند."
274
+ },
275
+ "anthropic.claude-3-5-sonnet-20241022-v2:0": {
276
+ "description": "Claude 3.5 Sonnet استانداردهای صنعت را ارتقا داده است، عملکردی بهتر از مدل‌های رقیب و Claude 3 Opus دارد، در ارزیابی‌های گسترده به خوبی عمل کرده و در عین حال سرعت و هزینه مدل‌های سطح متوسط ما را حفظ می‌کند."
277
+ },
278
+ "anthropic.claude-3-haiku-20240307-v1:0": {
279
+ "description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که پاسخ‌های تقریباً فوری ارائه می‌دهد. این مدل می‌تواند به سرعت به پرسش‌ها و درخواست‌های ساده پاسخ دهد. مشتریان قادر خواهند بود تجربه‌های هوش مصنوعی یکپارچه‌ای را که تعاملات انسانی را تقلید می‌کند، ایجاد کنند. Claude 3 Haiku می‌تواند تصاویر را پردازش کرده و خروجی متنی ارائه دهد و دارای پنجره متنی 200K است."
280
+ },
281
+ "anthropic.claude-3-opus-20240229-v1:0": {
282
+ "description": "Claude 3 Opus قدرتمندترین مدل هوش مصنوعی Anthropic است که عملکرد پیشرفته‌ای در وظایف بسیار پیچیده دارد. این مدل می‌تواند با درخواست‌های باز و سناریوهای ناآشنا کار کند و دارای روانی و درک شبه‌انسانی برجسته‌ای است. Claude 3 Opus مرزهای جدیدی از امکانات هوش مصنوعی مولد را به نمایش می‌گذارد. Claude 3 Opus می‌تواند تصاویر را پردازش کرده و خروجی متنی ارائه دهد و دارای پنجره متنی 200K است."
283
+ },
284
+ "anthropic.claude-3-sonnet-20240229-v1:0": {
285
+ "description": "Claude 3 Sonnet از Anthropic به تعادلی ایده‌آل بین هوش و سرعت دست یافته است—به‌ویژه برای بارهای کاری سازمانی مناسب است. این مدل با قیمتی کمتر از رقبا، بیشترین بهره‌وری را ارائه می‌دهد و به‌عنوان یک ماشین اصلی قابل اعتماد و با دوام بالا طراحی شده است که برای استقرارهای مقیاس‌پذیر AI مناسب است. Claude 3 Sonnet می‌تواند تصاویر را پردازش کرده و خروجی متنی ارائه دهد و دارای پنجره متنی 200K است."
286
+ },
287
+ "anthropic.claude-instant-v1": {
288
+ "description": "مدلی سریع، اقتصادی و همچنان بسیار توانمند که می‌تواند طیف وسیعی از وظایف از جمله مکالمات روزمره، تحلیل متن، خلاصه‌سازی و پاسخ به سوالات اسناد را انجام دهد."
289
+ },
290
+ "anthropic.claude-v2": {
291
+ "description": "Anthropic مدلی است که در انجام وظایف گسترده‌ای از مکالمات پیچیده و تولید محتوای خلاقانه تا پیروی دقیق از دستورات، توانایی بالایی از خود نشان می‌دهد."
292
+ },
293
+ "anthropic.claude-v2:1": {
294
+ "description": "نسخه به‌روزرسانی شده Claude 2، با دو برابر پنجره متنی و بهبود در قابلیت اطمینان، کاهش توهمات و دقت مبتنی بر شواهد در اسناد طولانی و زمینه‌های RAG."
295
+ },
296
+ "anthropic/claude-3-haiku": {
297
+ "description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای ارائه پاسخ‌های تقریباً فوری طراحی شده است. این مدل دارای عملکرد سریع و دقیق جهت‌دار است."
298
+ },
299
+ "anthropic/claude-3-opus": {
300
+ "description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است. این مدل در عملکرد، هوش، روانی و درک عالی عمل می‌کند."
301
+ },
302
+ "anthropic/claude-3.5-sonnet": {
303
+ "description": "Claude 3.5 Sonnet توانایی‌هایی فراتر از Opus ارائه می‌دهد و سرعتی سریع‌تر از Sonnet دارد، در حالی که قیمت آن با Sonnet یکسان است. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، پردازش بصری و وظایف نمایندگی مهارت دارد."
304
+ },
305
+ "aya": {
306
+ "description": "Aya 23 یک مدل چندزبانه است که توسط Cohere ارائه شده و از 23 زبان پشتیبانی می‌کند و برای برنامه‌های چندزبانه تسهیلات فراهم می‌آورد."
307
+ },
308
+ "aya:35b": {
309
+ "description": "Aya 23 یک مدل چندزبانه است که توسط Cohere ارائه شده و از 23 زبان پشتیبانی می‌کند و استفاده از برنامه‌های چندزبانه را تسهیل می‌نماید."
310
+ },
311
+ "charglm-3": {
312
+ "description": "CharGLM-3 به‌طور ویژه برای نقش‌آفرینی و همراهی عاطفی طراحی شده است، از حافظه طولانی‌مدت و مکالمات شخصی‌سازی‌شده پشتیبانی می‌کند و کاربردهای گسترده‌ای دارد."
313
+ },
314
+ "chatgpt-4o-latest": {
315
+ "description": "ChatGPT-4o یک مدل پویا است که به‌صورت زنده به‌روزرسانی می‌شود تا همیشه نسخه‌ی جدید و به‌روز باشد. این مدل ترکیبی از توانایی‌های قوی در درک و تولید زبان است و برای کاربردهای گسترده مانند خدمات مشتری، آموزش و پشتیبانی فنی مناسب است."
316
+ },
317
+ "claude-2.0": {
318
+ "description": "Claude 2 پیشرفت‌های کلیدی را برای کسب‌وکارها ارائه می‌دهد، از جمله زمینه 200K توکن پیشرو در صنعت، کاهش قابل توجه نرخ خطاهای مدل، اعلان‌های سیستمی و یک ویژگی جدید آزمایشی: فراخوانی ابزار."
319
+ },
320
+ "claude-2.1": {
321
+ "description": "Claude 2 پیشرفت‌های کلیدی را برای کسب‌وکارها فراهم می‌کند، از جمله زمینه 200K توکن پیشرو در صنعت، کاهش قابل توجه در نرخ توهم مدل، اعلان‌های سیستمی و یک ویژگی آزمایشی جدید: فراخوانی ابزار."
322
+ },
323
+ "claude-3-5-sonnet-20240620": {
324
+ "description": "Claude 3.5 Sonnet توانایی‌هایی فراتر از Opus ارائه می‌دهد و سرعتی سریع‌تر از Sonnet دارد، در حالی که قیمت آن با Sonnet یکسان است. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، پردازش بصری و وظایف نمایندگی مهارت دارد."
325
+ },
326
+ "claude-3-5-sonnet-20241022": {
327
+ "description": "Claude 3.5 Sonnet توانایی‌هایی فراتر از Opus ارائه می‌دهد و سرعتی سریع‌تر از Sonnet دارد، در حالی که قیمت آن با Sonnet یکسان است. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، پردازش بصری و وظایف نمایندگی مهارت دارد."
328
+ },
329
+ "claude-3-haiku-20240307": {
330
+ "description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای ارائه پاسخ‌های تقریباً فوری طراحی شده است. این مدل دارای عملکرد سریع و دقیق جهت‌گیری است."
331
+ },
332
+ "claude-3-opus-20240229": {
333
+ "description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است. این مدل در عملکرد، هوش، روانی و درک عالی عمل می‌کند."
334
+ },
335
+ "claude-3-sonnet-20240229": {
336
+ "description": "Claude 3 Sonnet تعادلی ایده‌آل بین هوش و سرعت برای بارهای کاری سازمانی فراهم می‌کند. این محصول با قیمتی پایین‌تر حداکثر بهره‌وری را ارائه می‌دهد، قابل اعتماد است و برای استقرار در مقیاس بزرگ مناسب می‌باشد."
337
+ },
338
+ "codegeex-4": {
339
+ "description": "CodeGeeX-4 یک دستیار برنامه‌نویسی قدرتمند مبتنی بر هوش مصنوعی است که از پرسش و پاسخ هوشمند و تکمیل کد در زبان‌های برنامه‌نویسی مختلف پشتیبانی می‌کند و بهره‌وری توسعه را افزایش می‌دهد."
340
+ },
341
+ "codegemma": {
342
+ "description": "CodeGemma یک مدل زبانی سبک برای وظایف مختلف برنامه‌نویسی است که از تکرار سریع و یکپارچه‌سازی پشتیبانی می‌کند."
343
+ },
344
+ "codegemma:2b": {
345
+ "description": "CodeGemma یک مدل زبان سبک برای وظایف مختلف برنامه‌نویسی است که از تکرار سریع و یکپارچه‌سازی پشتیبانی می‌کند."
346
+ },
347
+ "codellama": {
348
+ "description": "Code Llama یک مدل زبانی بزرگ (LLM) است که بر تولید و بحث در مورد کد تمرکز دارد و از زبان‌های برنامه‌نویسی گسترده‌ای پشتیبانی می‌کند و برای محیط‌های توسعه‌دهندگان مناسب است."
349
+ },
350
+ "codellama:13b": {
351
+ "description": "Code Llama یک مدل زبانی بزرگ (LLM) است که بر تولید و بحث در مورد کد تمرکز دارد و از زبان‌های برنامه‌نویسی گسترده‌ای پشتیبانی می‌کند و برای محیط‌های توسعه‌دهندگان مناسب است."
352
+ },
353
+ "codellama:34b": {
354
+ "description": "Code Llama یک مدل زبانی بزرگ (LLM) است که بر تولید و بحث در مورد کد تمرکز دارد و از زبان‌های برنامه‌نویسی گسترده‌ای پشتیبانی می‌کند و برای محیط‌های توسعه‌دهندگان مناسب است."
355
+ },
356
+ "codellama:70b": {
357
+ "description": "Code Llama یک مدل زبانی بزرگ (LLM) است که بر تولید و بحث در مورد کد تمرکز دارد و با پشتیبانی گسترده از زبان‌های برنامه‌نویسی، برای محیط‌های توسعه‌دهندگان مناسب است."
358
+ },
359
+ "codeqwen": {
360
+ "description": "CodeQwen1.5 یک مدل زبان بزرگ است که بر اساس حجم زیادی از داده‌های کد آموزش دیده و به‌طور خاص برای حل وظایف پیچیده برنامه‌نویسی طراحی شده است."
361
+ },
362
+ "codestral": {
363
+ "description": "Codestral اولین مدل کد از Mistral AI است که پشتیبانی عالی برای وظایف تولید کد ارائه می‌دهد."
364
+ },
365
+ "codestral-latest": {
366
+ "description": "Codestral یک مدل پیشرفته تولید کد است که بر تولید کد تمرکز دارد و برای وظایف تکمیل کد و پر کردن میان‌متن بهینه‌سازی شده است."
367
+ },
368
+ "cognitivecomputations/dolphin-mixtral-8x22b": {
369
+ "description": "Dolphin Mixtral 8x22B یک مدل طراحی شده برای پیروی از دستورات، مکالمه و برنامه‌نویسی است."
370
+ },
371
+ "cohere-command-r": {
372
+ "description": "Command R یک مدل تولیدی قابل گسترش است که برای RAG و استفاده از ابزارها طراحی شده است و به شرکت‌ها امکان می‌دهد تا به هوش مصنوعی در سطح تولید دست یابند."
373
+ },
374
+ "cohere-command-r-plus": {
375
+ "description": "Command R+ یک مدل پیشرفته بهینه‌سازی RAG است که برای مدیریت بارهای کاری در سطح سازمانی طراحی شده است."
376
+ },
377
+ "command-r": {
378
+ "description": "Command R یک LLM بهینه‌سازی شده برای مکالمات و وظایف با متن طولانی است که به‌ویژه برای تعاملات پویا و مدیریت دانش مناسب است."
379
+ },
380
+ "command-r-plus": {
381
+ "description": "Command R+ یک مدل زبان بزرگ با عملکرد بالا است که برای سناریوهای واقعی کسب‌وکار و کاربردهای پیچیده طراحی شده است."
382
+ },
383
+ "databricks/dbrx-instruct": {
384
+ "description": "DBRX Instruct قابلیت پردازش دستورات با قابلیت اطمینان بالا را فراهم می‌کند و از کاربردهای چندین صنعت پشتیبانی می‌کند."
385
+ },
386
+ "deepseek-ai/DeepSeek-V2.5": {
387
+ "description": "DeepSeek V2.5 ویژگی‌های برجسته نسخه‌های قبلی را گرد هم آورده و توانایی‌های عمومی و کدنویسی را تقویت کرده است."
388
+ },
389
+ "deepseek-ai/deepseek-llm-67b-chat": {
390
+ "description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه هوش مصنوعی است که توانایی درک عمیق زبان و تعامل را فراهم می‌کند."
391
+ },
392
+ "deepseek-chat": {
393
+ "description": "مدل متن‌باز جدیدی که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل نه تنها توانایی گفتگوی عمومی مدل Chat و توانایی قدرتمند پردازش کد مدل Coder را حفظ کرده است، بلکه به ترجیحات انسانی نیز بهتر همسو شده است. علاوه بر این، DeepSeek-V2.5 در وظایف نوشتاری، پیروی از دستورات و سایر جنبه‌ها نیز بهبودهای قابل توجهی داشته است."
394
+ },
395
+ "deepseek-coder-v2": {
396
+ "description": "DeepSeek Coder V2 یک مدل کد نویسی ترکیبی و متن‌باز است که در وظایف کدنویسی عملکرد عالی دارد و با GPT4-Turbo قابل مقایسه است."
397
+ },
398
+ "deepseek-coder-v2:236b": {
399
+ "description": "DeepSeek Coder V2 یک مدل کد نویسی ترکیبی و متن‌باز است که در وظایف کدنویسی عملکرد بسیار خوبی دارد و با GPT4-Turbo قابل مقایسه است."
400
+ },
401
+ "deepseek-v2": {
402
+ "description": "DeepSeek V2 یک مدل زبانی Mixture-of-Experts کارآمد است که برای پردازش نیازهای اقتصادی و کارآمد مناسب می‌باشد."
403
+ },
404
+ "deepseek-v2:236b": {
405
+ "description": "DeepSeek V2 236B مدل طراحی کد DeepSeek است که توانایی‌های قدرتمندی در تولید کد ارائه می‌دهد."
406
+ },
407
+ "deepseek/deepseek-chat": {
408
+ "description": "مدل متن‌باز جدیدی که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل نه تنها توانایی گفتگوی عمومی مدل Chat و قدرت پردازش کد مدل Coder را حفظ کرده است، بلکه به ترجیحات انسانی نیز بهتر همسو شده است. علاوه بر این، DeepSeek-V2.5 در وظایف نوشتاری، پیروی از دستورات و سایر جنبه‌ها نیز بهبودهای قابل توجهی داشته است."
409
+ },
410
+ "emohaa": {
411
+ "description": "Emohaa یک مدل روان‌شناختی است که دارای توانایی مشاوره حرفه‌ای بوده و به کاربران در درک مسائل احساسی کمک می‌کند."
412
+ },
413
+ "gemini-1.0-pro-001": {
414
+ "description": "Gemini 1.0 Pro 001 (تنظیم) عملکردی پایدار و قابل تنظیم ارائه می‌دهد و انتخابی ایده‌آل برای راه‌حل‌های وظایف پیچیده است."
415
+ },
416
+ "gemini-1.0-pro-002": {
417
+ "description": "جمینی 1.0 پرو 002 (تنظیم) پشتیبانی چندوجهی عالی ارائه می‌دهد و بر حل مؤثر وظایف پیچیده تمرکز دارد."
418
+ },
419
+ "gemini-1.0-pro-latest": {
420
+ "description": "Gemini 1.0 Pro مدل هوش مصنوعی با عملکرد بالای Google است که برای گسترش وظایف گسترده طراحی شده است."
421
+ },
422
+ "gemini-1.5-flash-001": {
423
+ "description": "جمینی 1.5 فلش 001 یک مدل چندوجهی کارآمد است که از گسترش کاربردهای گسترده پشتیبانی می‌کند."
424
+ },
425
+ "gemini-1.5-flash-002": {
426
+ "description": "جمینی 1.5 فلش 002 یک مدل چندوجهی کارآمد است که از گسترش کاربردهای گسترده پشتیبانی می‌کند."
427
+ },
428
+ "gemini-1.5-flash-8b": {
429
+ "description": "Gemini 1.5 Flash 8B یک مدل چندرسانه‌ای کارآمد است که از گسترش کاربردهای وسیع پشتیبانی می‌کند."
430
+ },
431
+ "gemini-1.5-flash-8b-exp-0924": {
432
+ "description": "Gemini 1.5 Flash 8B 0924 جدیدترین مدل آزمایشی است که در موارد استفاده متنی و چندوجهی بهبود عملکرد قابل توجهی دارد."
433
+ },
434
+ "gemini-1.5-flash-exp-0827": {
435
+ "description": "جمینی 1.5 فلش 0827 قابلیت‌های چندحالته بهینه‌شده‌ای را ارائه می‌دهد که برای انواع سناریوهای پیچیده مناسب است."
436
+ },
437
+ "gemini-1.5-flash-latest": {
438
+ "description": "Gemini 1.5 Flash جدیدترین مدل چندوجهی AI گوگل است که دارای قابلیت پردازش سریع بوده و از ورودی‌های متن، تصویر و ویدئو پشتیبانی می‌کند و برای گسترش کارآمد در وظایف مختلف مناسب است."
439
+ },
440
+ "gemini-1.5-pro-001": {
441
+ "description": "Gemini 1.5 Pro 001 یک راه‌حل هوش مصنوعی چندوجهی قابل گسترش است که از طیف گسترده‌ای از وظایف پیچیده پشتیبانی می‌کند."
442
+ },
443
+ "gemini-1.5-pro-002": {
444
+ "description": "Gemini 1.5 Pro 002 جدیدترین مدل آماده تولید است که خروجی با کیفیت بالاتری ارائه می‌دهد و به ویژه در زمینه‌های ریاضی، متن‌های طولانی و وظایف بصری بهبود قابل توجهی دارد."
445
+ },
446
+ "gemini-1.5-pro-exp-0801": {
447
+ "description": "Gemini 1.5 Pro 0801 قابلیت‌های پردازش چندوجهی برجسته‌ای را ارائه می‌دهد و انعطاف‌پذیری بیشتری برای توسعه برنامه‌ها به ارمغان می‌آورد."
448
+ },
449
+ "gemini-1.5-pro-exp-0827": {
450
+ "description": "جمینی 1.5 پرو 0827 با ترکیب جدیدترین تکنیک‌های بهینه‌سازی، توانایی پردازش داده‌های چندوجهی را به‌صورت کارآمدتر ارائه می‌دهد."
451
+ },
452
+ "gemini-1.5-pro-latest": {
453
+ "description": "Gemini 1.5 Pro از حداکثر ۲ میلیون توکن پشتیبانی می‌کند و انتخابی ایده‌آل برای مدل‌های چندوجهی متوسط است که برای پشتیبانی از وظایف پیچیده مناسب می‌باشد."
454
+ },
455
+ "gemma-7b-it": {
456
+ "description": "Gemma 7B برای پردازش وظایف کوچک و متوسط مناسب است و از نظر هزینه مؤثر است."
457
+ },
458
+ "gemma2": {
459
+ "description": "Gemma 2 یک مدل کارآمد است که توسط Google ارائه شده و شامل طیف گسترده‌ای از کاربردها از برنامه‌های کوچک تا پردازش داده‌های پیچیده می‌باشد."
460
+ },
461
+ "gemma2-9b-it": {
462
+ "description": "Gemma 2 9B یک مدل بهینه‌سازی شده برای وظایف خاص و ادغام ابزارها است."
463
+ },
464
+ "gemma2:27b": {
465
+ "description": "Gemma 2 یک مدل کارآمد از Google است که طیف گسترده‌ای از کاربردها را از برنامه‌های کوچک تا پردازش داده‌های پیچیده پوشش می‌دهد."
466
+ },
467
+ "gemma2:2b": {
468
+ "description": "Gemma 2 یک مدل کارآمد است که توسط Google ارائه شده و شامل طیف گسترده‌ای از کاربردها از برنامه‌های کوچک تا پردازش داده‌های پیچیده می‌باشد."
469
+ },
470
+ "generalv3": {
471
+ "description": "Spark Pro یک مدل زبان بزرگ با عملکرد بالا است که برای حوزه‌های حرفه‌ای بهینه‌سازی شده است و بر ریاضیات، برنامه‌نویسی، پزشکی، آموزش و سایر حوزه‌ها تمرکز دارد. این مدل از جستجوی آنلاین و افزونه‌های داخلی مانند وضعیت آب‌وهوا و تاریخ پشتیبانی می‌کند. مدل بهینه‌شده آن در پرسش و پاسخ‌های پیچیده، درک زبان و تولید متون سطح بالا عملکرد برجسته و کارآمدی از خود نشان می‌دهد و انتخابی ایده‌آل برای کاربردهای حرفه‌ای است."
472
+ },
473
+ "generalv3.5": {
474
+ "description": "Spark Max جامع‌ترین نسخه است که از جستجوی آنلاین و تعداد زیادی افزونه داخلی پشتیبانی می‌کند. قابلیت‌های هسته‌ای بهینه‌سازی‌شده و تنظیمات نقش‌های سیستمی و عملکرد فراخوانی توابع، آن را در انواع سناریوهای پیچیده بسیار برجسته و کارآمد می‌سازد."
475
+ },
476
+ "glm-4": {
477
+ "description": "GLM-4 نسخه قدیمی پرچمدار است که در ژانویه 2024 منتشر شد و اکنون با نسخه قوی‌تر GLM-4-0520 جایگزین شده است."
478
+ },
479
+ "glm-4-0520": {
480
+ "description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع طراحی شده و عملکردی عالی دارد."
481
+ },
482
+ "glm-4-air": {
483
+ "description": "GLM-4-Air نسخه‌ای با صرفه اقتصادی است که عملکردی نزدیک به GLM-4 دارد و سرعت بالا و قیمت مناسبی را ارائه می‌دهد."
484
+ },
485
+ "glm-4-airx": {
486
+ "description": "GLM-4-AirX نسخه‌ای کارآمد از GLM-4-Air ارائه می‌دهد که سرعت استنتاج آن تا ۲.۶ برابر بیشتر است."
487
+ },
488
+ "glm-4-alltools": {
489
+ "description": "GLM-4-AllTools یک مدل چندمنظوره هوشمند است که برای پشتیبانی از برنامه‌ریزی دستورات پیچیده و فراخوانی ابزارها بهینه‌سازی شده است، مانند مرور وب، تفسیر کد و تولید متن، و برای اجرای چندوظیفه‌ای مناسب است."
490
+ },
491
+ "glm-4-flash": {
492
+ "description": "GLM-4-Flash انتخابی ایده‌آل برای انجام وظایف ساده است، سریع‌ترین و رایگان."
493
+ },
494
+ "glm-4-flashx": {
495
+ "description": "GLM-4-FlashX نسخه بهبود یافته Flash است که سرعت استنتاج فوق‌العاده سریعی دارد."
496
+ },
497
+ "glm-4-long": {
498
+ "description": "GLM-4-Long از ورودی‌های متنی بسیار طولانی پشتیبانی می‌کند و برای وظایف حافظه‌ای و پردازش اسناد بزرگ مناسب است."
499
+ },
500
+ "glm-4-plus": {
501
+ "description": "GLM-4-Plus به عنوان پرچمدار هوشمند پیشرفته، دارای توانایی پردازش متون طولانی و وظایف پیچیده است و عملکرد آن به طور کامل بهبود یافته است."
502
+ },
503
+ "glm-4v": {
504
+ "description": "GLM-4V قابلیت‌های قدرتمندی در درک و استدلال تصویری ارائه می‌دهد و از وظایف مختلف بصری پشتیبانی می‌کند."
505
+ },
506
+ "glm-4v-plus": {
507
+ "description": "GLM-4V-Plus توانایی درک محتوای ویدئویی و تصاویر متعدد را دارد و برای وظایف چندرسانه‌ای مناسب است."
508
+ },
509
+ "google/gemini-flash-1.5": {
510
+ "description": "Gemini 1.5 Flash قابلیت پردازش چندوجهی بهینه‌شده را ارائه می‌دهد و برای انواع سناریوهای پیچیده مناسب است."
511
+ },
512
+ "google/gemini-pro-1.5": {
513
+ "description": "Gemini 1.5 Pro با ترکیب آخرین فناوری‌های بهینه‌سازی، توانایی پردازش داده‌های چندحالته را با کارایی بالاتر ارائه می‌دهد."
514
+ },
515
+ "google/gemma-2-27b-it": {
516
+ "description": "جمما ۲ ادامه‌دهنده‌ی ایده طراحی سبک و کارآمد است."
517
+ },
518
+ "google/gemma-2-2b-it": {
519
+ "description": "مدل بهینه‌سازی دستورات سبک گوگل"
520
+ },
521
+ "google/gemma-2-9b-it": {
522
+ "description": "Gemma 2 یک سری مدل‌های متنی سبک و متن‌باز از Google است."
523
+ },
524
+ "google/gemma-2-9b-it:free": {
525
+ "description": "Gemma 2 یک سری مدل‌های متن سبک و متن‌باز از Google است."
526
+ },
527
+ "google/gemma-2b-it": {
528
+ "description": "Gemma Instruct (2B) توانایی پردازش دستورات پایه را فراهم می‌کند و برای برنامه‌های سبک مناسب است."
529
+ },
530
+ "gpt-3.5-turbo": {
531
+ "description": "GPT 3.5 توربو، مناسب برای انواع وظایف تولید و درک متن، در حال حاضر به gpt-3.5-turbo-0125 اشاره می‌کند"
532
+ },
533
+ "gpt-3.5-turbo-0125": {
534
+ "description": "GPT 3.5 توربو، مناسب برای انواع وظایف تولید و درک متن، در حال حاضر به gpt-3.5-turbo-0125 اشاره می‌کند"
535
+ },
536
+ "gpt-3.5-turbo-1106": {
537
+ "description": "GPT 3.5 توربو، مناسب برای انواع وظایف تولید و درک متن، در حال حاضر به gpt-3.5-turbo-0125 اشاره می‌کند"
538
+ },
539
+ "gpt-3.5-turbo-instruct": {
540
+ "description": "GPT 3.5 توربو، مناسب برای انواع وظایف تولید و درک متن، در حال حاضر به gpt-3.5-turbo-0125 اشاره می‌کند"
541
+ },
542
+ "gpt-4": {
543
+ "description": "GPT-4 یک پنجره متنی بزرگتر ارائه می‌دهد که قادر به پردازش ورودی‌های متنی طولانی‌تر است و برای سناریوهایی که نیاز به ادغام گسترده اطلاعات و تحلیل داده‌ها دارند، مناسب است."
544
+ },
545
+ "gpt-4-0125-preview": {
546
+ "description": "جدیدترین مدل GPT-4 Turbo دارای قابلیت‌های بصری است. اکنون درخواست‌های بصری می‌توانند از حالت JSON و فراخوانی توابع استفاده کنند. GPT-4 Turbo یک نسخه بهبود یافته است که پشتیبانی مقرون‌به‌صرفه‌ای برای وظایف چندوجهی ارائه می‌دهد. این مدل بین دقت و کارایی تعادل برقرار می‌کند و برای سناریوهای کاربردی که نیاز به تعاملات بلادرنگ دارند، مناسب است."
547
+ },
548
+ "gpt-4-0613": {
549
+ "description": "GPT-4 یک پنجره متنی بزرگتر ارائه می‌دهد که قادر به پردازش ورودی‌های متنی طولانی‌تر است و برای سناریوهایی که نیاز به ادغام گسترده اطلاعات و تحلیل داده‌ها دارند، مناسب است."
550
+ },
551
+ "gpt-4-1106-preview": {
552
+ "description": "جدیدترین مدل GPT-4 Turbo دارای قابلیت‌های بصری است. اکنون درخواست‌های بصری می‌توانند از حالت JSON و فراخوانی توابع استفاده کنند. GPT-4 Turbo یک نسخه بهبود یافته است که پشتیبانی مقرون‌به‌صرفه‌ای برای وظایف چندوجهی ارائه می‌دهد. این مدل بین دقت و کارایی تعادل برقرار می‌کند و برای سناریوهای کاربردی که نیاز به تعاملات بلادرنگ دارند، مناسب است."
553
+ },
554
+ "gpt-4-1106-vision-preview": {
555
+ "description": "جدیدترین مدل GPT-4 Turbo دارای قابلیت‌های بصری است. اکنون درخواست‌های بصری می‌توانند از حالت JSON و فراخوانی توابع استفاده کنند. GPT-4 Turbo یک نسخه بهبود یافته است که پشتیبانی مقرون‌به‌صرفه‌ای برای وظایف چندوجهی ارائه می‌دهد. این مدل بین دقت و کارایی تعادل برقرار می‌کند و برای سناریوهای کاربردی که نیاز به تعاملات بلادرنگ دارند، مناسب است."
556
+ },
557
+ "gpt-4-32k": {
558
+ "description": "GPT-4 یک پنجره متنی بزرگتر ارائه می‌دهد که قادر به پردازش ورودی‌های متنی طولانی‌تر است و برای سناریوهایی که نیاز به ادغام گسترده اطلاعات و تحلیل داده‌ها دارند، مناسب است."
559
+ },
560
+ "gpt-4-32k-0613": {
561
+ "description": "GPT-4 یک پنجره متنی بزرگتر ارائه می‌دهد که قادر به پردازش ورودی‌های متنی طولانی‌تر است و برای سناریوهایی که نیاز به ادغام گسترده اطلاعات و تحلیل داده‌ها دارند، مناسب است."
562
+ },
563
+ "gpt-4-turbo": {
564
+ "description": "جدیدترین مدل GPT-4 Turbo دارای قابلیت‌های بصری است. اکنون درخواست‌های بصری می‌توانند از حالت JSON و فراخوانی توابع استفاده کنند. GPT-4 Turbo نسخه‌ای بهبود یافته است که پشتیبانی مقرون‌به‌صرفه‌ای برای وظایف چندوجهی ارائه می‌دهد. این مدل بین دقت و کارایی تعادل برقرار می‌کند و برای سناریوهای کاربردی که نیاز به تعاملات بلادرنگ دارند، مناسب است."
565
+ },
566
+ "gpt-4-turbo-2024-04-09": {
567
+ "description": "جدیدترین مدل GPT-4 Turbo دارای قابلیت‌های بصری است. اکنون درخواست‌های بصری می‌توانند از حالت JSON و فراخوانی توابع استفاده کنند. GPT-4 Turbo نسخه‌ای بهبود یافته است که پشتیبانی مقرون‌به‌صرفه‌ای برای وظایف چندوجهی ارائه می‌دهد. این مدل تعادلی بین دقت و کارایی برقرار می‌کند و برای سناریوهای کاربردی که نیاز به تعاملات بلادرنگ دارند، مناسب است."
568
+ },
569
+ "gpt-4-turbo-preview": {
570
+ "description": "جدیدترین مدل GPT-4 Turbo دارای قابلیت‌های بصری است. اکنون درخواست‌های بصری می‌توانند از حالت JSON و فراخوانی توابع استفاده کنند. GPT-4 Turbo یک نسخه بهبود یافته است که پشتیبانی مقرون‌به‌صرفه‌ای برای وظایف چندرسانه‌ای ارائه می‌دهد. این مدل بین دقت و کارایی تعادل برقرار می‌کند و برای سناریوهای کاربردی که نیاز به تعاملات بلادرنگ دارند، مناسب است."
571
+ },
572
+ "gpt-4-vision-preview": {
573
+ "description": "جدیدترین مدل GPT-4 Turbo دارای قابلیت‌های بصری است. اکنون درخواست‌های بصری می‌توانند از حالت JSON و فراخوانی توابع استفاده کنند. GPT-4 Turbo نسخه‌ای پیشرفته است که پشتیبانی مقرون‌به‌صرفه‌ای برای وظایف چندوجهی ارائه می‌دهد. این مدل بین دقت و کارایی تعادل برقرار می‌کند و برای سناریوهای کاربردی که نیاز به تعاملات بلادرنگ دارند، مناسب است."
574
+ },
575
+ "gpt-4o": {
576
+ "description": "پیشرفته‌ترین مدل چندوجهی در سری GPT-4 OpenAI که می‌تواند ورودی‌های متنی و تصویری را پردازش کند."
577
+ },
578
+ "gpt-4o-2024-05-13": {
579
+ "description": "ChatGPT-4o یک مدل پویا است که به‌صورت زنده به‌روزرسانی می‌شود تا همیشه نسخه‌ی جدید و به‌روز باشد. این مدل ترکیبی از توانایی‌های قوی در درک و تولید زبان است و برای کاربردهای گسترده مانند خدمات مشتری، آموزش و پشتیبانی فنی مناسب است."
580
+ },
581
+ "gpt-4o-2024-08-06": {
582
+ "description": "ChatGPT-4o یک مدل پویا است که به‌صورت لحظه‌ای به‌روزرسانی می‌شود تا همیشه نسخه‌ی جدید و به‌روز باشد. این مدل ترکیبی از توانایی‌های قوی در درک و تولید زبان است و برای کاربردهای گسترده مانند خدمات مشتری، آموزش و پشتیبانی فنی مناسب است."
583
+ },
584
+ "gpt-4o-mini": {
585
+ "description": "یک راه‌حل هوش مصنوعی مقرون‌به‌صرفه که برای انواع وظایف متنی و تصویری مناسب است."
586
+ },
587
+ "gryphe/mythomax-l2-13b": {
588
+ "description": "MythoMax l2 13B یک مدل زبانی است که خلاقیت و هوش را با ترکیب چندین مدل برتر به هم پیوند می‌دهد."
589
+ },
590
+ "hunyuan-code": {
591
+ "description": "مدل تولید کد جدید Hunyuan، که با استفاده از 200 میلیارد داده کد با کیفیت بالا آموزش داده شده است. این مدل پایه پس از شش ماه آموزش با داده‌های SFT با کیفیت بالا به‌روزرسانی شده است. طول پنجره متن به ۸ هزار کاراکتر افزایش یافته و در شاخص‌های ارزیابی خودکار تولید کد در پنج زبان اصلی در رتبه‌های برتر قرار دارد. در ارزیابی‌های دستی با کیفیت بالا برای ۱۰ معیار مختلف در پنج زبان اصلی، عملکرد این مدل در رده اول قرار دارد."
592
+ },
593
+ "hunyuan-functioncall": {
594
+ "description": "مدل FunctionCall با معماری MOE جدید Hunyuan، آموزش‌دیده با داده‌های باکیفیت FunctionCall، با پنجره متنی تا 32K و پیشرو در چندین شاخص ارزیابی."
595
+ },
596
+ "hunyuan-lite": {
597
+ "description": "به ساختار MOE ارتقا یافته است، پنجره متنی 256k دارد و در چندین مجموعه ارزیابی در زمینه‌های NLP، کد، ریاضیات و صنایع از بسیاری از مدل‌های متن‌باز پیشی گرفته است."
598
+ },
599
+ "hunyuan-pro": {
600
+ "description": "مدل MOE-32K با مقیاس پارامتر تریلیون‌ها. در انواع بنچمارک‌ها به سطح پیشرو مطلق دست یافته است، توانایی پردازش دستورالعمل‌ها و استدلال‌های پیچیده، دارای قابلیت‌های ریاضی پیچیده، پشتیبانی از functioncall، و به‌طور ویژه در حوزه‌های ترجمه چندزبانه، مالی، حقوقی و پزشکی بهینه‌سازی شده است."
601
+ },
602
+ "hunyuan-role": {
603
+ "description": "جدیدترین مدل نقش‌آفرینی HunYuan، مدل نقش‌آفرینی به‌دقت تنظیم‌شده توسط تیم رسمی HunYuan، که بر اساس مدل HunYuan و با استفاده از مجموعه داده‌های صحنه‌های نقش‌آفرینی آموزش بیشتری دیده است و در صحنه‌های نقش‌آفرینی عملکرد بهتری دارد."
604
+ },
605
+ "hunyuan-standard": {
606
+ "description": "استفاده از استراتژی مسیریابی بهینه‌تر، در حالی که مشکلات توازن بار و همگرایی متخصصان را کاهش می‌دهد. در زمینه متون طولانی، شاخص «یافتن سوزن در انبار کاه» به ۹۹.۹٪ می‌رسد. MOE-32K از نظر هزینه و عملکرد نسبتاً بهینه‌تر است و در عین حال که تعادل بین اثر و قیمت را حفظ می‌کند، می‌تواند پردازش ورودی‌های متون طولانی را نیز انجام دهد."
607
+ },
608
+ "hunyuan-standard-256K": {
609
+ "description": "با استفاده از استراتژی مسیریابی بهینه‌تر، در عین حال مشکلات توازن بار و همگرایی کارشناسان را کاهش داده است. در زمینه متون طولانی، شاخص «یافتن سوزن در انبار کاه» به ۹۹.۹٪ رسیده است. MOE-256K در طول و عملکرد پیشرفت بیشتری داشته و به طور قابل توجهی طول ورودی قابل قبول را گسترش داده است."
610
+ },
611
+ "hunyuan-turbo": {
612
+ "description": "نسخه پیش‌نمایش مدل زبان بزرگ نسل جدید HunYuan که از ساختار مدل متخصص ترکیبی (MoE) جدید استفاده می‌کند. در مقایسه با hunyuan-pro، کارایی استنتاج سریع‌تر و عملکرد بهتری دارد."
613
+ },
614
+ "hunyuan-vision": {
615
+ "description": "جدیدترین مدل چندوجهی هون‌یوان، پشتیبانی از ورودی تصویر + متن برای تولید محتوای متنی."
616
+ },
617
+ "internlm/internlm2_5-20b-chat": {
618
+ "description": "مدل نوآورانه و متن‌باز InternLM2.5، با استفاده از پارامترهای بزرگ مقیاس، هوش مکالمه را بهبود بخشیده است."
619
+ },
620
+ "internlm/internlm2_5-7b-chat": {
621
+ "description": "InternLM2.5 راه‌حل‌های گفتگوی هوشمند در چندین سناریو ارائه می‌دهد."
622
+ },
623
+ "jamba-1.5-large": {},
624
+ "jamba-1.5-mini": {},
625
+ "lite": {
626
+ "description": "Spark Lite یک مدل زبان بزرگ سبک است که دارای تأخیر بسیار کم و توانایی پردازش کارآمد می‌باشد. به‌طور کامل رایگان و باز است و از قابلیت جستجوی آنلاین در زمان واقعی پشتیبانی می‌کند. ویژگی پاسخ‌دهی سریع آن باعث می‌شود که در کاربردهای استنتاجی و تنظیم مدل در دستگاه‌های با توان محاسباتی پایین عملکرد برجسته‌ای داشته باشد و تجربه‌ای هوشمند و مقرون‌به‌صرفه برای کاربران فراهم کند. به‌ویژه در زمینه‌های پرسش و پاسخ دانش، تولید محتوا و جستجو عملکرد خوبی دارد."
627
+ },
628
+ "llama-3.1-70b-instruct": {
629
+ "description": "مدل Llama 3.1 70B Instruct با 70 میلیارد پارامتر، قادر به ارائه عملکرد برجسته در تولید متن‌های بزرگ و انجام وظایف دستوری است."
630
+ },
631
+ "llama-3.1-70b-versatile": {
632
+ "description": "لاما 3.1 70B توانایی استدلال هوش مصنوعی قوی‌تری را ارائه می‌دهد، مناسب برای برنامه‌های پیچیده، پشتیبانی از پردازش‌های محاسباتی فراوان و تضمین کارایی و دقت بالا."
633
+ },
634
+ "llama-3.1-8b-instant": {
635
+ "description": "Llama 3.1 8B یک مدل با کارایی بالا است که توانایی تولید سریع متن را فراهم می‌کند و برای کاربردهایی که به بهره‌وری و صرفه‌جویی در هزینه در مقیاس بزرگ نیاز دارند، بسیار مناسب است."
636
+ },
637
+ "llama-3.1-8b-instruct": {
638
+ "description": "مدل Llama 3.1 8B Instruct با 8 میلیارد پارامتر، قابلیت اجرای کارهای مبتنی بر دستورات تصویری را به‌طور مؤثر دارد و توانایی تولید متن با کیفیت بالا را ارائه می‌دهد."
639
+ },
640
+ "llama-3.1-sonar-huge-128k-online": {
641
+ "description": "مدل Llama 3.1 Sonar Huge Online با 405 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، طراحی شده برای برنامه‌های چت آنلاین پیچیده."
642
+ },
643
+ "llama-3.1-sonar-large-128k-chat": {
644
+ "description": "مدل Llama 3.1 Sonar Large Chat با 70 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، مناسب برای وظایف پیچیده چت آفلاین."
645
+ },
646
+ "llama-3.1-sonar-large-128k-online": {
647
+ "description": "مدل Llama 3.1 Sonar Large Online با 70 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، مناسب برای وظایف چت با حجم بالا و متنوع."
648
+ },
649
+ "llama-3.1-sonar-small-128k-chat": {
650
+ "description": "مدل Llama 3.1 Sonar Small Chat با 8 میلیارد پارامتر، به‌طور خاص برای چت آفلاین طراحی شده و از طول زمینه‌ای حدود 127,000 نشانه پشتیبانی می‌کند."
651
+ },
652
+ "llama-3.1-sonar-small-128k-online": {
653
+ "description": "مدل Llama 3.1 Sonar Small Online با 8 میلیارد پارامتر، پشتیبانی از طول زمینه‌ای حدود 127,000 نشانه، به‌طور ویژه برای چت آنلاین طراحی شده و می‌تواند به‌طور کارآمد انواع تعاملات متنی را پردازش کند."
654
+ },
655
+ "llama-3.2-11b-vision-instruct": {
656
+ "description": "توانایی استدلال تصویری عالی در تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری."
657
+ },
658
+ "llama-3.2-11b-vision-preview": {
659
+ "description": "لاما 3.2 برای انجام وظایفی که شامل داده‌های بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر می‌کند."
660
+ },
661
+ "llama-3.2-90b-vision-instruct": {
662
+ "description": "قابلیت‌های پیشرفته استدلال تصویری برای برنامه‌های نماینده درک بصری."
663
+ },
664
+ "llama-3.2-90b-vision-preview": {
665
+ "description": "لاما 3.2 برای انجام وظایفی که ترکیبی از داده‌های بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصاویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر می‌کند."
666
+ },
667
+ "llama3-70b-8192": {
668
+ "description": "متا لاما ۳ ۷۰B توانایی پردازش پیچیدگی بی‌نظیری را ارائه می‌دهد و برای پروژه‌های با نیازهای بالا طراحی شده است."
669
+ },
670
+ "llama3-8b-8192": {
671
+ "description": "متا لاما ۳ ۸B عملکرد استدلالی با کیفیت بالا را ارائه می‌دهد و برای نیازهای کاربردی در چندین سناریو مناسب است."
672
+ },
673
+ "llama3-groq-70b-8192-tool-use-preview": {
674
+ "description": "Llama 3 Groq 70B Tool Use قابلیت فراخوانی ابزارهای قدرتمند را فراهم می‌کند و از پردازش کارهای پیچیده به‌صورت کارآمد پشتیبانی می‌کند."
675
+ },
676
+ "llama3-groq-8b-8192-tool-use-preview": {
677
+ "description": "لاما 3 Groq 8B Tool Use مدلی است که برای استفاده بهینه از ابزارها طراحی شده و از محاسبات سریع و موازی پشتیبانی می‌کند."
678
+ },
679
+ "llama3.1": {
680
+ "description": "Llama 3.1 مدل پیشرو ارائه شده توسط Meta است که از حداکثر 405 میلیارد پارامتر پشتیبانی می‌کند و می‌تواند در زمینه‌های مکالمات پیچیده، ترجمه چندزبانه و تحلیل داده‌ها به کار گرفته شود."
681
+ },
682
+ "llama3.1:405b": {
683
+ "description": "Llama 3.1 مدل پیشرو ارائه شده توسط Meta است که از 405 میلیارد پارامتر پشتیبانی می‌کند و می‌تواند در زمینه‌های مکالمات پیچیده، ترجمه چندزبانه و تحلیل داده‌ها به کار گرفته شود."
684
+ },
685
+ "llama3.1:70b": {
686
+ "description": "لاما 3.1 مدل پیشرو ارائه شده توسط متا است که از حداکثر 405 میلیارد پارامتر پشتیبانی می‌کند و می‌تواند در زمینه‌های مکالمات پیچیده، ترجمه چندزبانه و تحلیل داده‌ها به کار گرفته شود."
687
+ },
688
+ "llava": {
689
+ "description": "LLaVA یک مدل چندوجهی است که رمزگذار بصری و Vicuna را برای درک قدرتمند زبان و تصویر ترکیب می‌کند."
690
+ },
691
+ "llava-v1.5-7b-4096-preview": {
692
+ "description": "LLaVA 1.5 7B قابلیت پردازش بصری را با هم ترکیب می‌کند و از طریق ورودی اطلاعات بصری خروجی‌های پیچیده تولید می‌کند."
693
+ },
694
+ "llava:13b": {
695
+ "description": "LLaVA یک مدل چندوجهی است که رمزگذار بصری و Vicuna را برای درک قدرتمند زبان و تصویر ترکیب می‌کند."
696
+ },
697
+ "llava:34b": {
698
+ "description": "LLaVA یک مدل چندوجهی است که رمزگذار بصری و Vicuna را برای درک قدرتمند زبان و تصویر ترکیب می‌کند."
699
+ },
700
+ "mathstral": {
701
+ "description": "MathΣtral به‌طور ویژه برای تحقیقات علمی و استدلال‌های ریاضی طراحی شده است و توانایی محاسباتی مؤثر و تفسیر نتایج را ارائه می‌دهد."
702
+ },
703
+ "max-32k": {
704
+ "description": "Spark Max 32K با قابلیت پردازش متن با زمینه بزرگ‌تر، توانایی درک و استدلال منطقی قوی‌تری دارد و از ورودی متنی تا 32K توکن پشتیبانی می‌کند. مناسب برای خواندن اسناد طولانی، پرسش و پاسخ با دانش خصوصی و موارد مشابه."
705
+ },
706
+ "meta-llama-3-70b-instruct": {
707
+ "description": "یک مدل قدرتمند با ۷۰ میلیارد پارامتر که در استدلال، کدنویسی و کاربردهای گسترده زبانی عملکرد برجسته‌ای دارد."
708
+ },
709
+ "meta-llama-3-8b-instruct": {
710
+ "description": "یک مدل چندمنظوره با ۸ میلیارد پارامتر که برای وظایف مکالمه و تولید متن بهینه‌سازی شده است."
711
+ },
712
+ "meta-llama-3.1-405b-instruct": {
713
+ "description": "مدل متنی Llama 3.1 که برای تنظیم دستورات بهینه‌سازی شده و برای موارد استفاده مکالمه چندزبانه بهینه شده است. در بسیاری از مدل‌های چت منبع باز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجسته‌ای دارد."
714
+ },
715
+ "meta-llama-3.1-70b-instruct": {
716
+ "description": "مدل متنی Llama 3.1 با تنظیمات دستوری، بهینه‌سازی شده برای موارد استفاده در مکالمات چندزبانه، که در بسیاری از مدل‌های چت منبع باز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجسته‌ای دارد."
717
+ },
718
+ "meta-llama-3.1-8b-instruct": {
719
+ "description": "مدل متنی Llama 3.1 که برای تنظیم دستورالعمل‌ها بهینه‌سازی شده و برای موارد استفاده مکالمه چندزبانه بهینه شده است. در بسیاری از مدل‌های چت منبع باز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجسته‌ای دارد."
720
+ },
721
+ "meta-llama/Llama-2-13b-chat-hf": {
722
+ "description": "LLaMA-2 Chat (13B) توانایی‌های پردازش زبان عالی و تجربه تعاملی بی‌نظیری را ارائه می‌دهد."
723
+ },
724
+ "meta-llama/Llama-2-70b-hf": {
725
+ "description": "LLaMA-2 توانایی‌های پردازش زبان عالی و تجربه تعاملی بی‌نظیری را ارائه می‌دهد."
726
+ },
727
+ "meta-llama/Llama-3-70b-chat-hf": {
728
+ "description": "Llama 3 70B Instruct Reference یک مدل چت قدرتمند است که از نیازهای پیچیده مکالمه پشتیبانی می‌کند."
729
+ },
730
+ "meta-llama/Llama-3-8b-chat-hf": {
731
+ "description": "Llama 3 8B Instruct Reference پشتیبانی چندزبانه ارائه می‌دهد و شامل دانش گسترده‌ای در زمینه‌های مختلف است."
732
+ },
733
+ "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
734
+ "description": "LLaMA 3.2 برای انجام وظایفی که ترکیبی از داده‌های بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر می‌کند."
735
+ },
736
+ "meta-llama/Llama-3.2-3B-Instruct-Turbo": {
737
+ "description": "LLaMA 3.2 برای انجام وظایفی که ترکیبی از داده‌های بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر می‌کند."
738
+ },
739
+ "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
740
+ "description": "LLaMA 3.2 برای انجام وظایفی که ترکیبی از داده‌های بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر می‌کند."
741
+ },
742
+ "meta-llama/Llama-Vision-Free": {
743
+ "description": "LLaMA 3.2 برای انجام وظایفی که ترکیبی از داده‌های بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر می‌کند."
744
+ },
745
+ "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
746
+ "description": "Llama 3 70B Instruct Lite مناسب برای محیط‌هایی که به عملکرد بالا و تأخیر کم نیاز دارند."
747
+ },
748
+ "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": {
749
+ "description": "Llama 3 70B Instruct Turbo توانایی‌های برجسته‌ای در درک و تولید زبان ارائه می‌دهد و برای سخت‌ترین وظایف محاسباتی مناسب است."
750
+ },
751
+ "meta-llama/Meta-Llama-3-8B-Instruct-Lite": {
752
+ "description": "Llama 3 8B Instruct Lite برای محیط‌های با منابع محدود مناسب است و عملکرد متعادلی را ارائه می‌دهد."
753
+ },
754
+ "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": {
755
+ "description": "Llama 3 8B Instruct Turbo یک مدل زبان بزرگ با کارایی بالا است که از طیف گسترده‌ای از کاربردها پشتیبانی می‌کند."
756
+ },
757
+ "meta-llama/Meta-Llama-3.1-405B-Instruct": {
758
+ "description": "مدل LLaMA 3.1 405B که برای تنظیمات دستوری بهینه‌سازی شده است، برای سناریوهای مکالمه چندزبانه بهینه شده است."
759
+ },
760
+ "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
761
+ "description": "مدل Llama 3.1 Turbo با ظرفیت 405B، پشتیبانی از زمینه‌های بسیار بزرگ برای پردازش داده‌های عظیم را فراهم می‌کند و در کاربردهای هوش مصنوعی در مقیاس بسیار بزرگ عملکرد برجسته‌ای دارد."
762
+ },
763
+ "meta-llama/Meta-Llama-3.1-70B-Instruct": {
764
+ "description": "LLaMA 3.1 70B پشتیبانی کارآمد از مکالمات چندزبانه را ارائه می‌دهد."
765
+ },
766
+ "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": {
767
+ "description": "مدل Llama 3.1 70B به‌طور دقیق تنظیم شده است و برای برنامه‌های با بار سنگین مناسب است. با کمیت‌سازی به FP8، توان محاسباتی و دقت بیشتری ارائه می‌دهد و عملکرد برتری را در سناریوهای پیچیده تضمین می‌کند."
768
+ },
769
+ "meta-llama/Meta-Llama-3.1-8B-Instruct": {
770
+ "description": "LLaMA 3.1 پشتیبانی چندزبانه ارائه می‌دهد و یکی از مدل‌های پیشرو در صنعت تولید محتوا است."
771
+ },
772
+ "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": {
773
+ "description": "مدل Llama 3.1 8B از کوانتیزاسیون FP8 استفاده می‌کند و از حداکثر 131,072 توکن متنی پشتیبانی می‌کند. این مدل یکی از بهترین‌ها در میان مدل‌های متن‌باز است و برای وظایف پیچیده مناسب بوده و در بسیاری از معیارهای صنعتی عملکرد برتری دارد."
774
+ },
775
+ "meta-llama/llama-3-70b-instruct": {
776
+ "description": "Llama 3 70B Instruct برای بهینه‌سازی در سناریوهای مکالمه با کیفیت بالا طراحی شده و در ارزیابی‌های مختلف انسانی عملکرد برجسته‌ای دارد."
777
+ },
778
+ "meta-llama/llama-3-8b-instruct": {
779
+ "description": "Llama 3 8B Instruct برای بهینه‌سازی سناریوهای مکالمه با کیفیت بالا طراحی شده و عملکردی بهتر از بسیاری از مدل‌های بسته دارد."
780
+ },
781
+ "meta-llama/llama-3.1-405b-instruct": {
782
+ "description": "Llama 3.1 405B Instruct نسخه جدیدی است که توسط Meta ارائه شده و برای تولید مکالمات با کیفیت بالا بهینه‌سازی شده است و از بسیاری از مدل‌های بسته پیشرو پیشی گرفته است."
783
+ },
784
+ "meta-llama/llama-3.1-70b-instruct": {
785
+ "description": "Llama 3.1 70B Instruct به‌طور ویژه برای مکالمات با کیفیت بالا طراحی شده است و در ارزیابی‌های انسانی عملکرد برجسته‌ای دارد. این مدل به‌ویژه برای سناریوهای تعامل بالا مناسب است."
786
+ },
787
+ "meta-llama/llama-3.1-8b-instruct": {
788
+ "description": "Llama 3.1 8B Instruct جدیدترین نسخه ارائه شده توسط Meta است که برای بهینه‌سازی سناریوهای مکالمه با کیفیت بالا طراحی شده و عملکرد بهتری نسبت به بسیاری از مدل‌های بسته پیشرو دارد."
789
+ },
790
+ "meta-llama/llama-3.1-8b-instruct:free": {
791
+ "description": "LLaMA 3.1 پشتیبانی چندزبانه ارائه می‌دهد و یکی از مدل‌های پیشرو در صنعت تولید محتوا است."
792
+ },
793
+ "meta-llama/llama-3.2-11b-vision-instruct": {
794
+ "description": "LLaMA 3.2 برای انجام وظایفی که ترکیبی از داده‌های بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر می‌کند."
795
+ },
796
+ "meta-llama/llama-3.2-90b-vision-instruct": {
797
+ "description": "LLaMA 3.2 برای انجام وظایفی طراحی شده است که داده‌های بصری و متنی را با هم ترکیب می‌کند. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر می‌کند."
798
+ },
799
+ "meta.llama3-1-405b-instruct-v1:0": {
800
+ "description": "Meta Llama 3.1 405B Instruct بزرگترین و قدرتمندترین مدل در میان مدل‌های Llama 3.1 Instruct است. این یک مدل بسیار پیشرفته برای استدلال مکالمه‌ای و تولید داده‌های مصنوعی است و همچنین می‌تواند به عنوان پایه‌ای برای پیش‌تمرین یا تنظیم دقیق مداوم در حوزه‌های خاص استفاده شود. Llama 3.1 مجموعه‌ای از مدل‌های زبان بزرگ چندزبانه (LLMs) است که از پیش آموزش دیده و برای دستورالعمل‌ها تنظیم شده‌اند و شامل اندازه‌های 8B، 70B و 405B (ورودی/خروجی متنی) می‌باشد. مدل‌های متنی تنظیم‌شده بر اساس دستورالعمل‌های Llama 3.1 (8B، 70B، 405B) به‌طور خاص برای موارد استفاده مکالمه چندزبانه بهینه‌سازی شده‌اند و در بسیاری از معیارهای استاندارد صنعتی از مدل‌های چت منبع باز موجود پیشی گرفته‌اند. Llama 3.1 برای استفاده‌های تجاری و تحقیقاتی در زبان‌های مختلف طراحی شده است. مدل‌های متنی تنظیم‌شده بر اساس دستورالعمل‌ها برای چت‌های مشابه دستیار مناسب هستند، در حالی که مدل‌های پیش‌آموزش‌دیده می‌توانند برای انواع وظایف تولید زبان طبیعی سازگار شوند. مدل‌های Llama 3.1 همچنین از خروجی‌های خود برای بهبود سایر مدل‌ها، از جمله تولید داده‌های مصنوعی و پالایش، پشتیبانی می‌کنند. Llama 3.1 یک مدل زبان خودبازگشتی است که از معماری بهینه‌شده ترانسفورمر استفاده می‌کند. نسخه‌های تنظیم‌شده از تنظیم دقیق نظارت‌شده (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) برای تطابق با ترجیحات انسانی در مورد کمک‌رسانی و ایمنی استفاده می‌کنند."
801
+ },
802
+ "meta.llama3-1-70b-instruct-v1:0": {
803
+ "description": "نسخه به‌روزرسانی‌شده Meta Llama 3.1 70B Instruct، شامل طول زمینه 128K توسعه‌یافته، چندزبانه بودن و بهبود توانایی استدلال. مدل‌های زبان بزرگ چندزبانه (LLMs) ارائه‌شده توسط Llama 3.1 مجموعه‌ای از مدل‌های تولیدی پیش‌تمرین‌شده و تنظیم‌شده با دستورالعمل هستند که شامل اندازه‌های 8B، 70B و 405B (ورودی/خروجی متنی) می‌باشند. مدل‌های متنی تنظیم‌شده با دستورالعمل Llama 3.1 (8B، 70B، 405B) به‌طور خاص برای موارد استفاده مکالمه چندزبانه بهینه‌سازی شده‌اند و در بسیاری از معیارهای استاندارد صنعتی از مدل‌های چت منبع‌باز موجود پیشی گرفته‌اند. Llama 3.1 برای استفاده‌های تجاری و تحقیقاتی در زبان‌های مختلف طراحی شده است. مدل‌های متنی تنظیم‌شده با دستورالعمل برای چت‌های مشابه دستیار مناسب هستند، در حالی که مدل‌های پیش‌تمرین‌شده می‌توانند برای انواع وظایف تولید زبان طبیعی سازگار شوند. مدل‌های Llama 3.1 همچنین از خروجی‌های خود برای بهبود سایر مدل‌ها، از جمله تولید داده‌های مصنوعی و پالایش، پشتیبانی می‌کنند. Llama 3.1 یک مدل زبان خودبازگشتی است که از معماری بهینه‌شده ترانسفورمر استفاده می‌کند. نسخه تنظیم‌شده از تنظیم دقیق نظارت‌شده (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) برای هم‌راستایی با ترجیحات انسانی در مورد کمک‌رسانی و ایمنی استفاده می‌کند."
804
+ },
805
+ "meta.llama3-1-8b-instruct-v1:0": {
806
+ "description": "نسخه به‌روزرسانی شده Meta Llama 3.1 8B Instruct، شامل طول زمینه 128K توسعه‌یافته، چندزبانه بودن و بهبود توانایی استدلال. Llama 3.1 مدل‌های زبانی بزرگ چندزبانه (LLMs) را ارائه می‌دهد که مجموعه‌ای از مدل‌های تولیدی پیش‌تمرین‌شده و تنظیم‌شده با دستورالعمل هستند و شامل اندازه‌های 8B، 70B و 405B (ورودی/خروجی متنی) می‌باشند. مدل‌های متنی تنظیم‌شده با دستورالعمل Llama 3.1 (8B، 70B، 405B) به‌طور خاص برای موارد استفاده مکالمه چندزبانه بهینه‌سازی شده‌اند و در معیارهای صنعتی رایج از بسیاری از مدل‌های چت متن‌باز موجود پیشی گرفته‌اند. Llama 3.1 برای استفاده‌های تجاری و تحقیقاتی در زبان‌های مختلف طراحی شده است. مدل‌های متنی تنظیم‌شده با دستورالعمل برای چت‌های مشابه دستیار مناسب هستند، در حالی که مدل‌های پیش‌تمرین‌شده می‌توانند برای انواع وظایف تولید زبان طبیعی سازگار شوند. مدل‌های Llama 3.1 همچنین از خروجی‌های خود برای بهبود سایر مدل‌ها، از جمله تولید داده‌های مصنوعی و پالایش، پشتیبانی می‌کنند. Llama 3.1 یک مدل زبانی خودبازگشتی است که از معماری بهینه‌شده ترانسفورمر استفاده می‌کند. نسخه تنظیم‌شده از تنظیم دقیق نظارت‌شده (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) برای هم‌راستا شدن با ترجیحات انسانی در مورد کمک‌رسانی و ایمنی استفاده می‌کند."
807
+ },
808
+ "meta.llama3-70b-instruct-v1:0": {
809
+ "description": "Meta Llama 3 یک مدل زبان بزرگ (LLM) باز برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها است که به آن‌ها کمک می‌کند تا ایده‌های هوش مصنوعی تولیدی خود را بسازند، آزمایش کنند و به‌طور مسئولانه گسترش دهند. به‌عنوان بخشی از سیستم پایه نوآوری جامعه جهانی، این مدل برای تولید محتوا، هوش مصنوعی مکالمه‌ای، درک زبان، تحقیق و توسعه و کاربردهای شرکتی بسیار مناسب است."
810
+ },
811
+ "meta.llama3-8b-instruct-v1:0": {
812
+ "description": "Meta Llama 3 یک مدل زبان بزرگ باز (LLM) است که برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها طراحی شده است تا به آن‌ها در ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد کمک کند. به عنوان بخشی از سیستم پایه نوآوری جامعه جهانی، این مدل برای دستگاه‌های با توان محاسباتی و منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع‌تر بسیار مناسب است."
813
+ },
814
+ "microsoft/wizardlm 2-7b": {
815
+ "description": "WizardLM 2 7B مدل جدید و سبک وزن AI مایکروسافت است که عملکرد آن نزدیک به 10 برابر مدل‌های پیشرو متن‌باز موجود است."
816
+ },
817
+ "microsoft/wizardlm-2-8x22b": {
818
+ "description": "WizardLM-2 8x22B پیشرفته‌ترین مدل Wizard از مایکروسافت AI است که عملکردی بسیار رقابتی از خود نشان می‌دهد."
819
+ },
820
+ "minicpm-v": {
821
+ "description": "MiniCPM-V نسل جدید مدل چندوجهی است که توسط OpenBMB ارائه شده و دارای توانایی‌های برجسته در تشخیص OCR و درک چندوجهی است و از طیف گسترده‌ای از کاربردها پشتیبانی می‌کند."
822
+ },
823
+ "ministral-3b-latest": {
824
+ "description": "Ministral 3B مدل پیشرفته و برتر Mistral در سطح جهانی است."
825
+ },
826
+ "ministral-8b-latest": {
827
+ "description": "Ministral 8B یک مدل لبه‌ای با صرفه اقتصادی بالا از Mistral است."
828
+ },
829
+ "mistral": {
830
+ "description": "Mistral یک مدل 7B است که توسط Mistral AI منتشر شده و برای نیازهای متنوع پردازش زبان مناسب است."
831
+ },
832
+ "mistral-large": {
833
+ "description": "Mixtral Large مدل پرچمدار Mistral است که توانایی تولید کد، ریاضیات و استدلال را ترکیب می‌کند و از پنجره متنی ۱۲۸k پشتیبانی می‌کند."
834
+ },
835
+ "mistral-large-latest": {
836
+ "description": "Mistral Large یک مدل بزرگ پرچمدار است که در انجام وظایف چندزبانه، استدلال پیچیده و تولید کد مهارت دارد و انتخابی ایده‌آل برای کاربردهای سطح بالا است."
837
+ },
838
+ "mistral-nemo": {
839
+ "description": "Mistral Nemo توسط Mistral AI و NVIDIA به‌طور مشترک عرضه شده است و یک مدل ۱۲ میلیاردی با کارایی بالا می‌باشد."
840
+ },
841
+ "mistral-small": {
842
+ "description": "Mistral Small می‌تواند برای هر وظیفه‌ای که نیاز به کارایی بالا و تأخیر کم دارد، مبتنی بر زبان استفاده شود."
843
+ },
844
+ "mistral-small-latest": {
845
+ "description": "Mistral Small یک گزینه مقرون‌به‌صرفه، سریع و قابل‌اعتماد است که برای موارد استفاده‌ای مانند ترجمه، خلاصه‌سازی و تحلیل احساسات مناسب است."
846
+ },
847
+ "mistralai/Mistral-7B-Instruct-v0.1": {
848
+ "description": "Mistral (7B) Instruct به دلیل عملکرد بالا شناخته شده است و برای وظایف مختلف زبانی مناسب است."
849
+ },
850
+ "mistralai/Mistral-7B-Instruct-v0.2": {
851
+ "description": "مدل تنظیم دستور Mistral AI"
852
+ },
853
+ "mistralai/Mistral-7B-Instruct-v0.3": {
854
+ "description": "Mistral (7B) Instruct v0.3 توانایی محاسباتی بالا و درک زبان طبیعی را ارائه می‌دهد و برای کاربردهای گسترده مناسب است."
855
+ },
856
+ "mistralai/Mistral-7B-v0.1": {
857
+ "description": "Mistral 7B یک مدل فشرده اما با عملکرد بالا است که در پردازش دسته‌ای و وظایف ساده مانند طبقه‌بندی و تولید متن مهارت دارد و دارای توانایی استدلال خوبی است."
858
+ },
859
+ "mistralai/Mixtral-8x22B-Instruct-v0.1": {
860
+ "description": "Mixtral-8x22B Instruct (141B) یک مدل زبان بسیار بزرگ است که از نیازهای پردازشی بسیار بالا پشتیبانی می‌کند."
861
+ },
862
+ "mistralai/Mixtral-8x7B-Instruct-v0.1": {
863
+ "description": "Mixtral-8x7B Instruct (46.7B) یک چارچوب محاسباتی با ظرفیت بالا ارائه می‌دهد که برای پردازش داده‌های بزرگ مقیاس مناسب است."
864
+ },
865
+ "mistralai/Mixtral-8x7B-v0.1": {
866
+ "description": "Mixtral 8x7B یک مدل متخصص پراکنده است که با استفاده از پارامترهای متعدد سرعت استنتاج را افزایش می‌دهد و برای انجام وظایف چندزبانه و تولید کد مناسب است."
867
+ },
868
+ "mistralai/mistral-7b-instruct": {
869
+ "description": "Mistral 7B Instruct یک مدل استاندارد صنعتی با عملکرد بالا است که بهینه‌سازی سرعت و پشتیبانی از متن طولانی را ترکیب می‌کند."
870
+ },
871
+ "mistralai/mistral-nemo": {
872
+ "description": "Mistral Nemo یک مدل با 7.3 میلیارد پارامتر است که از برنامه‌نویسی با عملکرد بالا و پشتیبانی چندزبانه برخوردار است."
873
+ },
874
+ "mixtral": {
875
+ "description": "Mixtral مدل تخصصی Mistral AI است که دارای وزن‌های متن‌باز بوده و در زمینه تولید کد و درک زبان پشتیبانی ارائه می‌دهد."
876
+ },
877
+ "mixtral-8x7b-32768": {
878
+ "description": "Mixtral 8x7B قابلیت محاسبات موازی با تحمل خطای بالا را ارائه می‌دهد و برای وظایف پیچیده مناسب است."
879
+ },
880
+ "mixtral:8x22b": {
881
+ "description": "Mixtral مدل تخصصی Mistral AI است که دارای وزن‌های متن‌باز بوده و در تولید کد و درک زبان پشتیبانی ارائه می‌دهد."
882
+ },
883
+ "moonshot-v1-128k": {
884
+ "description": "Moonshot V1 128K یک مدل با قابلیت پردازش متن طولانی است که برای تولید متون بسیار طولانی مناسب است. این مدل می‌تواند تا 128,000 توکن را پردازش کند و برای کاربردهایی مانند پژوهش، علمی و تولید اسناد بزرگ بسیار مناسب است."
885
+ },
886
+ "moonshot-v1-32k": {
887
+ "description": "Moonshot V1 32K توانایی پردازش متن با طول متوسط را فراهم می‌کند و قادر به پردازش 32,768 توکن است. این مدل به‌ویژه برای تولید اسناد طولانی و مکالمات پیچیده مناسب است و در زمینه‌هایی مانند تولید محتوا، ایجاد گزارش و سیستم‌های مکالمه کاربرد دارد."
888
+ },
889
+ "moonshot-v1-8k": {
890
+ "description": "Moonshot V1 8K به‌طور ویژه برای تولید متن‌های کوتاه طراحی شده است و دارای عملکرد پردازشی کارآمدی است که می‌تواند ۸,۱۹۲ توکن را پردازش کند. این مدل برای مکالمات کوتاه، یادداشت‌برداری سریع و تولید محتوای سریع بسیار مناسب است."
891
+ },
892
+ "nousresearch/hermes-2-pro-llama-3-8b": {
893
+ "description": "هرمس ۲ پرو لاما ۳ ۸B نسخه ارتقاء یافته Nous Hermes 2 است که شامل جدیدترین مجموعه داده‌های توسعه‌یافته داخلی می‌باشد."
894
+ },
895
+ "nvidia/Llama-3.1-Nemotron-70B-Instruct": {
896
+ "description": "Llama 3.1 Nemotron 70B یک مدل زبان بزرگ است که توسط NVIDIA سفارشی‌سازی شده و هدف آن افزایش مفید بودن پاسخ‌های تولید شده توسط LLM به پرسش‌های کاربران است."
897
+ },
898
+ "o1-mini": {
899
+ "description": "کوچکتر و سریعتر از o1-preview، با ۸۰٪ هزینه کمتر، و عملکرد خوب در تولید کد و عملیات با زمینه‌های کوچک."
900
+ },
901
+ "o1-preview": {
902
+ "description": "تمرکز بر استدلال پیشرفته و حل مسائل پیچیده، از جمله وظایف ریاضی و علمی. بسیار مناسب برای برنامه‌هایی که نیاز به درک عمیق از زمینه و جریان کاری خودمختار دارند."
903
+ },
904
+ "open-codestral-mamba": {
905
+ "description": "Codestral Mamba یک مدل زبان Mamba 2 است که بر تولید کد تمرکز دارد و پشتیبانی قدرتمندی برای وظایف پیشرفته کدنویسی و استدلال ارائه می‌دهد."
906
+ },
907
+ "open-mistral-7b": {
908
+ "description": "Mistral 7B یک مدل فشرده اما با عملکرد بالا است که در پردازش دسته‌ای و وظایف ساده مانند طبقه‌بندی و تولید متن مهارت دارد و دارای توانایی استدلال خوبی است."
909
+ },
910
+ "open-mistral-nemo": {
911
+ "description": "Mistral Nemo یک مدل 12 میلیاردی است که با همکاری Nvidia توسعه یافته و عملکرد عالی در استدلال و کدنویسی ارائه می‌دهد و به راحتی قابل ادغام و جایگزینی است."
912
+ },
913
+ "open-mixtral-8x22b": {
914
+ "description": "Mixtral 8x22B یک مدل تخصصی بزرگتر است که بر روی وظایف پیچیده تمرکز دارد و توانایی استدلال عالی و توان عملیاتی بالاتری را ارائه می‌دهد."
915
+ },
916
+ "open-mixtral-8x7b": {
917
+ "description": "Mixtral 8x7B یک مدل متخصص پراکنده است که با استفاده از پارامترهای متعدد سرعت استنتاج را افزایش می‌دهد و برای پردازش وظایف چندزبانه و تولید کد مناسب است."
918
+ },
919
+ "openai/gpt-4o": {
920
+ "description": "ChatGPT-4o یک مدل پویا است که به‌صورت زنده به‌روزرسانی می‌شود تا همیشه نسخه‌ی جدید و به‌روز باشد. این مدل ترکیبی از توانایی‌های قدرتمند درک و تولید زبان را ارائه می‌دهد و برای کاربردهای گسترده مانند خدمات مشتری، آموزش و پشتیبانی فنی مناسب است."
921
+ },
922
+ "openai/gpt-4o-mini": {
923
+ "description": "GPT-4o mini جدیدترین مدل OpenAI است که پس از GPT-4 Omni عرضه شده و از ورودی‌های تصویری و متنی پشتیبانی می‌کند و خروجی متنی ارائه می‌دهد. به عنوان پیشرفته‌ترین مدل کوچک آن‌ها، این مدل بسیار ارزان‌تر از سایر مدل‌های پیشرفته اخیر است و بیش از ۶۰٪ ارزان‌تر از GPT-3.5 Turbo می‌باشد. این مدل هوشمندی پیشرفته را حفظ کرده و در عین حال از نظر اقتصادی بسیار مقرون به صرفه است. GPT-4o mini در آزمون MMLU امتیاز ۸۲٪ را کسب کرده و در حال حاضر در ترجیحات چت بالاتر از GPT-4 رتبه‌بندی شده است."
924
+ },
925
+ "openai/o1-mini": {
926
+ "description": "o1-mini یک مدل استنتاج سریع و مقرون‌به‌صرفه است که برای برنامه‌نویسی، ریاضیات و کاربردهای علمی طراحی شده است. این مدل دارای ۱۲۸ هزار بایت زمینه و تاریخ قطع دانش تا اکتبر ۲۰۲۳ می‌باشد."
927
+ },
928
+ "openai/o1-preview": {
929
+ "description": "o1 مدل جدید استنتاج OpenAI است که برای وظایف پیچیده‌ای که به دانش عمومی گسترده نیاز دارند، مناسب است. این مدل دارای 128K زمینه و تاریخ قطع دانش تا اکتبر 2023 است."
930
+ },
931
+ "openchat/openchat-7b": {
932
+ "description": "OpenChat 7B یک کتابخانه مدل زبان متن‌باز است که با استفاده از استراتژی «C-RLFT (تنظیم دقیق یادگیری تقویتی شرطی)» به‌طور خاص تنظیم شده است."
933
+ },
934
+ "openrouter/auto": {
935
+ "description": "با توجه به طول متن، موضوع و پیچیدگی، درخواست شما به Llama 3 70B Instruct، Claude 3.5 Sonnet (تنظیم خودکار) یا GPT-4o ارسال خواهد شد."
936
+ },
937
+ "phi3": {
938
+ "description": "Phi-3 یک مدل سبک و باز از مایکروسافت است که برای یکپارچه‌سازی کارآمد و استدلال دانش در مقیاس بزرگ مناسب است."
939
+ },
940
+ "phi3:14b": {
941
+ "description": "Phi-3 یک مدل سبک و باز از مایکروسافت است که برای یکپارچه‌سازی کارآمد و استدلال دانش در مقیاس بزرگ طراحی شده است."
942
+ },
943
+ "pixtral-12b-2409": {
944
+ "description": "مدل Pixtral در وظایفی مانند نمودار و درک تصویر، پرسش و پاسخ اسناد، استدلال چندوجهی و پیروی از دستورات، توانایی‌های قدرتمندی از خود نشان می‌دهد. این مدل قادر است تصاویر را با وضوح طبیعی و نسبت ابعاد دریافت کند و همچنین می‌تواند هر تعداد تصویری را در یک پنجره متنی طولانی تا ۱۲۸ هزار توکن پردازش کند."
945
+ },
946
+ "pro-128k": {
947
+ "description": "Spark Pro 128K با قابلیت پردازش متن بسیار بزرگ، قادر به پردازش تا 128K اطلاعات متنی است. این ویژگی به‌ویژه برای تحلیل کامل و پردازش ارتباطات منطقی طولانی‌مدت در محتوای متنی طولانی مناسب است و می‌تواند در ارتباطات متنی پیچیده، پشتیبانی از منطق روان و یکپارچه و ارجاعات متنوع را فراهم کند."
948
+ },
949
+ "qwen-coder-turbo-latest": {
950
+ "description": "مدل کدنویسی تونگی چیان‌ون."
951
+ },
952
+ "qwen-long": {
953
+ "description": "مدل زبانی بسیار بزرگ Tongyi Qianwen که از متن‌های طولانی و همچنین قابلیت مکالمه در چندین سناریو مانند اسناد طولانی و چندین سند پشتیبانی می‌کند."
954
+ },
955
+ "qwen-math-plus-latest": {
956
+ "description": "مدل ریاضی Qwen یک مدل زبانی است که به طور خاص برای حل مسائل ریاضی طراحی شده است."
957
+ },
958
+ "qwen-math-turbo-latest": {
959
+ "description": "مدل ریاضی Qwen Math Turbo یک مدل زبانی است که به طور خاص برای حل مسائل ریاضی طراحی شده است."
960
+ },
961
+ "qwen-max-latest": {
962
+ "description": "مدل زبانی بسیار بزرگ با مقیاس میلیاردی تونگی چیان‌ون، که از ورودی‌های زبان‌های مختلف مانند چینی، انگلیسی و غیره پشتیبانی می‌کند. مدل API پشت نسخه محصول تونگی چیان‌ون 2.5 فعلی."
963
+ },
964
+ "qwen-plus-latest": {
965
+ "description": "نسخه تقویت‌شده مدل زبانی بسیار بزرگ Tongyi Qianwen، پشتیبانی از ورودی به زبان‌های چینی، انگلیسی و سایر زبان‌ها."
966
+ },
967
+ "qwen-turbo-latest": {
968
+ "description": "مدل زبانی بسیار بزرگ Tongyi Qianwen که از ورودی‌های زبان‌های مختلف مانند چینی، انگلیسی و غیره پشتیبانی می‌کند."
969
+ },
970
+ "qwen-vl-chat-v1": {
971
+ "description": "مدل Qwen-VL از روش‌های تعاملی انعطاف‌پذیر پشتیبانی می‌کند، از جمله قابلیت‌های چندتصویری، پرسش و پاسخ چندمرحله‌ای و خلاقیت."
972
+ },
973
+ "qwen-vl-max-latest": {
974
+ "description": "مدل زبان بصری فوق‌العاده بزرگ Qwen-VL. در مقایسه با نسخه تقویت‌شده، توانایی استدلال بصری و پیروی از دستورات را دوباره بهبود می‌بخشد و سطح بالاتری از ادراک و شناخت بصری را ارائه می‌دهد."
975
+ },
976
+ "qwen-vl-plus-latest": {
977
+ "description": "نسخه تقویت‌شده مدل زبان تصویری بزرگ تونگی چیان‌ون. بهبود قابل توجه در توانایی تشخیص جزئیات و شناسایی متن، پشتیبانی از وضوح بیش از یک میلیون پیکسل و تصاویر با هر نسبت طول به عرض."
978
+ },
979
+ "qwen-vl-v1": {
980
+ "description": "مدل زبان Qwen-7B با اضافه کردن مدل تصویر و وضوح ورودی تصویر 448، به عنوان یک مدل پیش‌آموزش‌شده، اولیه‌سازی شده است."
981
+ },
982
+ "qwen/qwen-2-7b-instruct:free": {
983
+ "description": "Qwen2 یک سری جدید از مدل‌های زبان بزرگ است که دارای توانایی‌های درک و تولید قوی‌تری می‌باشد."
984
+ },
985
+ "qwen2": {
986
+ "description": "Qwen2 مدل زبان بزرگ نسل جدید علی‌بابا است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی می‌کند."
987
+ },
988
+ "qwen2.5-14b-instruct": {
989
+ "description": "مدل 14B مقیاس Qwen 2.5 که به صورت منبع باز ارائه شده است."
990
+ },
991
+ "qwen2.5-32b-instruct": {
992
+ "description": "مدل 32B مقیاس Qwen 2.5 که به صورت منبع باز ارائه شده است."
993
+ },
994
+ "qwen2.5-72b-instruct": {
995
+ "description": "مدل 72B مقیاس بازمتن Qwen 2.5 برای استفاده عمومی."
996
+ },
997
+ "qwen2.5-7b-instruct": {
998
+ "description": "مدل 7B متن‌باز Qwen 2.5 برای استفاده عمومی."
999
+ },
1000
+ "qwen2.5-coder-1.5b-instruct": {
1001
+ "description": "نسخه متن‌باز مدل کدنویسی Tongyi Qianwen."
1002
+ },
1003
+ "qwen2.5-coder-7b-instruct": {
1004
+ "description": "نسخه متن‌باز مدل کدنویسی تونگی چیان‌ون."
1005
+ },
1006
+ "qwen2.5-math-1.5b-instruct": {
1007
+ "description": "مدل Qwen-Math دارای توانایی قوی در حل مسائل ریاضی است."
1008
+ },
1009
+ "qwen2.5-math-72b-instruct": {
1010
+ "description": "مدل Qwen-Math دارای توانایی قوی در حل مسائل ریاضی است."
1011
+ },
1012
+ "qwen2.5-math-7b-instruct": {
1013
+ "description": "مدل Qwen-Math دارای توانایی قوی در حل مسائل ریاضی است."
1014
+ },
1015
+ "qwen2:0.5b": {
1016
+ "description": "Qwen2 مدل زبان بزرگ نسل جدید علی‌بابا است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی می‌کند."
1017
+ },
1018
+ "qwen2:1.5b": {
1019
+ "description": "Qwen2 مدل زبان بزرگ نسل جدید علی‌بابا است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی می‌کند."
1020
+ },
1021
+ "qwen2:72b": {
1022
+ "description": "Qwen2 مدل زبان بزرگ نسل جدید علی‌بابا است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی می‌کند."
1023
+ },
1024
+ "solar-1-mini-chat": {
1025
+ "description": "Solar Mini یک مدل فشرده LLM است که عملکردی بهتر از GPT-3.5 دارد، دارای توانایی‌های چندزبانه قوی است، از زبان‌های انگلیسی و کره‌ای پشتیبانی می‌کند و یک راه‌حل کارآمد و کوچک ارائه می‌دهد."
1026
+ },
1027
+ "solar-1-mini-chat-ja": {
1028
+ "description": "Solar Mini (Ja) قابلیت‌های Solar Mini را گسترش می‌دهد و بر زبان ژاپنی تمرکز دارد، در حالی که همچنان در استفاده از زبان‌های انگلیسی و کره‌ای کارایی و عملکرد عالی خود را حفظ می‌کند."
1029
+ },
1030
+ "solar-pro": {
1031
+ "description": "Solar Pro یک مدل هوش مصنوعی پیشرفته از Upstage است که بر توانایی پیروی از دستورات با استفاده از یک GPU تمرکز دارد و امتیاز IFEval بالای 80 را کسب کرده است. در حال حاضر از زبان انگلیسی پشتیبانی می‌کند و نسخه رسمی آن برای نوامبر 2024 برنامه‌ریزی شده است که پشتیبانی از زبان‌های بیشتر و طول زمینه را گسترش خواهد داد."
1032
+ },
1033
+ "step-1-128k": {
1034
+ "description": "تعادل بین عملکرد و هزینه، مناسب برای سناریوهای عمومی."
1035
+ },
1036
+ "step-1-256k": {
1037
+ "description": "دارای توانایی پردازش متن طولانی، به‌ویژه مناسب برای تحلیل اسناد بلند."
1038
+ },
1039
+ "step-1-32k": {
1040
+ "description": "پشتیبانی از مکالمات با طول متوسط، مناسب برای انواع مختلف کاربردها."
1041
+ },
1042
+ "step-1-8k": {
1043
+ "description": "مدل کوچک، مناسب برای وظایف سبک."
1044
+ },
1045
+ "step-1-flash": {
1046
+ "description": "مدل پرسرعت، مناسب برای مکالمات در لحظه."
1047
+ },
1048
+ "step-1.5v-mini": {
1049
+ "description": "این مدل دارای توانایی‌های قوی در درک ویدیو است."
1050
+ },
1051
+ "step-1v-32k": {
1052
+ "description": "پشتیبانی از ورودی بصری، تقویت تجربه تعامل چندحالته."
1053
+ },
1054
+ "step-1v-8k": {
1055
+ "description": "مدل بصری کوچک، مناسب برای وظایف پایه‌ای تصویر و متن."
1056
+ },
1057
+ "step-2-16k": {
1058
+ "description": "پشتیبانی از تعاملات متنی گسترده، مناسب برای سناریوهای مکالمه پیچیده."
1059
+ },
1060
+ "taichu_llm": {
1061
+ "description": "Taichu 2.0 بر اساس حجم زیادی از داده‌های با کیفیت بالا آموزش دیده است و دارای توانایی‌های قوی‌تری در درک متن، تولید محتوا، پرسش و پاسخ در مکالمه و غیره می‌باشد."
1062
+ },
1063
+ "togethercomputer/StripedHyena-Nous-7B": {
1064
+ "description": "StripedHyena Nous (7B) با استفاده از استراتژی‌ها و معماری مدل کارآمد، توان محاسباتی بهبودیافته‌ای را ارائه می‌دهد."
1065
+ },
1066
+ "upstage/SOLAR-10.7B-Instruct-v1.0": {
1067
+ "description": "Upstage SOLAR Instruct v1 (11B) مناسب برای وظایف دقیق دستوری، ارائه‌دهنده توانایی‌های برجسته در پردازش زبان."
1068
+ },
1069
+ "wizardlm2": {
1070
+ "description": "WizardLM 2 یک مدل زبانی ارائه شده توسط هوش مصنوعی مایکروسافت است که در مکالمات پیچیده، چندزبانه، استدلال و دستیارهای هوشمند عملکرد برجسته‌ای دارد."
1071
+ },
1072
+ "wizardlm2:8x22b": {
1073
+ "description": "WizardLM 2 یک مدل زبانی ارائه شده توسط مایکروسافت AI است که در زمینه‌های مکالمات پیچیده، چندزبانه، استدلال و دستیارهای هوشمند عملکرد برجسته‌ای دارد."
1074
+ },
1075
+ "yi-large": {
1076
+ "description": "مدل جدید با میلیاردها پارامتر، ارائه‌دهنده توانایی‌های فوق‌العاده در پاسخ‌گویی و تولید متن."
1077
+ },
1078
+ "yi-large-fc": {
1079
+ "description": "بر اساس مدل yi-large، قابلیت استفاده از ابزارها را پشتیبانی و تقویت کرده است و برای انواع سناریوهای کسب‌وکاری که نیاز به ساخت agent یا workflow دارند، مناسب است."
1080
+ },
1081
+ "yi-large-preview": {
1082
+ "description": "نسخه اولیه، توصیه می‌شود از yi-large (نسخه جدید) استفاده کنید."
1083
+ },
1084
+ "yi-large-rag": {
1085
+ "description": "خدمات پیشرفته مبتنی بر مدل فوق‌العاده yi-large، که با ترکیب فناوری‌های جستجو و تولید، پاسخ‌های دقیقی ارائه می‌دهد و خدمات جستجوی اطلاعات در سراسر وب به صورت لحظه‌ای فراهم می‌کند."
1086
+ },
1087
+ "yi-large-turbo": {
1088
+ "description": "عملکرد عالی با صرفه‌جویی بالا. بهینه‌سازی دقت بالا با توجه به تعادل بین عملکرد، سرعت استنتاج و هزینه."
1089
+ },
1090
+ "yi-lightning": {
1091
+ "description": "جدیدترین مدل با عملکرد بالا که ضمن تضمین خروجی با کیفیت بالا، سرعت استنتاج را به طور قابل توجهی افزایش می‌دهد."
1092
+ },
1093
+ "yi-lightning-lite": {
1094
+ "description": "نسخه سبک، استفاده از yi-lightning توصیه می‌شود."
1095
+ },
1096
+ "yi-medium": {
1097
+ "description": "ارتقاء مدل با اندازه متوسط، با توانایی‌های متعادل و مقرون‌به‌صرفه. بهینه‌سازی عمیق در توانایی پیروی از دستورات."
1098
+ },
1099
+ "yi-medium-200k": {
1100
+ "description": "پنجره متنی بسیار طولانی ۲۰۰ هزار کلمه‌ای، با قابلیت درک و تولید متون طولانی و پیچیده."
1101
+ },
1102
+ "yi-spark": {
1103
+ "description": "کوچک و قدرتمند، مدلی سبک و فوق‌العاده سریع. قابلیت‌های تقویت‌شده برای محاسبات ریاضی و نوشتن کد ارائه می‌دهد."
1104
+ },
1105
+ "yi-vision": {
1106
+ "description": "مدل وظایف پیچیده بینایی، ارائه دهنده قابلیت‌های درک و تحلیل تصویر با عملکرد بالا."
1107
+ }
1108
+ }