@lobehub/chat 1.26.13 → 1.26.14
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.i18nrc.js +1 -0
- package/CHANGELOG.md +25 -0
- package/locales/ar/common.json +1 -0
- package/locales/ar/models.json +3 -0
- package/locales/bg-BG/common.json +1 -0
- package/locales/bg-BG/models.json +3 -0
- package/locales/de-DE/common.json +1 -0
- package/locales/de-DE/models.json +3 -0
- package/locales/en-US/common.json +1 -0
- package/locales/en-US/models.json +3 -0
- package/locales/es-ES/common.json +1 -0
- package/locales/es-ES/models.json +3 -0
- package/locales/fa-IR/auth.json +8 -0
- package/locales/fa-IR/chat.json +189 -0
- package/locales/fa-IR/clerk.json +769 -0
- package/locales/fa-IR/common.json +238 -0
- package/locales/fa-IR/components.json +84 -0
- package/locales/fa-IR/discover.json +204 -0
- package/locales/fa-IR/error.json +138 -0
- package/locales/fa-IR/file.json +94 -0
- package/locales/fa-IR/knowledgeBase.json +32 -0
- package/locales/fa-IR/market.json +32 -0
- package/locales/fa-IR/metadata.json +35 -0
- package/locales/fa-IR/migration.json +45 -0
- package/locales/fa-IR/modelProvider.json +164 -0
- package/locales/fa-IR/models.json +1108 -0
- package/locales/fa-IR/plugin.json +166 -0
- package/locales/fa-IR/portal.json +35 -0
- package/locales/fa-IR/providers.json +94 -0
- package/locales/fa-IR/ragEval.json +91 -0
- package/locales/fa-IR/setting.json +421 -0
- package/locales/fa-IR/tool.json +10 -0
- package/locales/fa-IR/welcome.json +50 -0
- package/locales/fr-FR/common.json +1 -0
- package/locales/fr-FR/models.json +3 -0
- package/locales/it-IT/common.json +1 -0
- package/locales/it-IT/models.json +3 -0
- package/locales/ja-JP/common.json +1 -0
- package/locales/ja-JP/models.json +3 -0
- package/locales/ko-KR/common.json +1 -0
- package/locales/ko-KR/models.json +3 -0
- package/locales/nl-NL/common.json +1 -0
- package/locales/nl-NL/models.json +3 -0
- package/locales/pl-PL/common.json +1 -0
- package/locales/pl-PL/models.json +3 -0
- package/locales/pt-BR/common.json +1 -0
- package/locales/pt-BR/models.json +3 -0
- package/locales/ru-RU/common.json +1 -0
- package/locales/ru-RU/models.json +3 -0
- package/locales/tr-TR/common.json +1 -0
- package/locales/tr-TR/models.json +3 -0
- package/locales/vi-VN/common.json +1 -0
- package/locales/vi-VN/models.json +3 -0
- package/locales/zh-CN/common.json +1 -0
- package/locales/zh-CN/models.json +3 -0
- package/locales/zh-TW/common.json +1 -0
- package/locales/zh-TW/models.json +3 -0
- package/package.json +2 -2
- package/src/config/app.ts +4 -1
- package/src/layout/GlobalProvider/AppTheme.tsx +49 -29
- package/src/layout/GlobalProvider/index.tsx +2 -0
- package/src/locales/default/common.ts +1 -0
- package/src/locales/resources.ts +5 -0
- package/src/server/sitemap.test.ts +4 -4
@@ -0,0 +1,1108 @@
|
|
1
|
+
{
|
2
|
+
"01-ai/Yi-1.5-34B-Chat-16K": {
|
3
|
+
"description": "Yi-1.5 34B، با استفاده از نمونههای آموزشی غنی، عملکرد برتری در کاربردهای صنعتی ارائه میدهد."
|
4
|
+
},
|
5
|
+
"01-ai/Yi-1.5-9B-Chat-16K": {
|
6
|
+
"description": "Yi-1.5 9B از 16K توکن پشتیبانی میکند و توانایی تولید زبان بهصورت کارآمد و روان را ارائه میدهد."
|
7
|
+
},
|
8
|
+
"360gpt-pro": {
|
9
|
+
"description": "360GPT Pro به عنوان یکی از اعضای مهم سری مدلهای 360 AI، با توانایی پردازش متون بهصورت کارآمد، نیازهای متنوع در زمینههای مختلف کاربردهای زبان طبیعی را برآورده میکند و از قابلیتهایی مانند درک متون طولانی و مکالمات چندمرحلهای پشتیبانی میکند."
|
10
|
+
},
|
11
|
+
"360gpt-turbo": {
|
12
|
+
"description": "360GPT Turbo تواناییهای محاسباتی و مکالمهای قدرتمندی ارائه میدهد و دارای کارایی بالایی در درک و تولید معنا است. این یک راهحل ایدهآل برای دستیار هوشمند برای شرکتها و توسعهدهندگان است."
|
13
|
+
},
|
14
|
+
"360gpt-turbo-responsibility-8k": {
|
15
|
+
"description": "360GPT Turbo Responsibility 8K بر امنیت معنایی و مسئولیتپذیری تأکید دارد و بهطور ویژه برای سناریوهایی طراحی شده است که نیاز بالایی به امنیت محتوا دارند، تا دقت و پایداری تجربه کاربری را تضمین کند."
|
16
|
+
},
|
17
|
+
"360gpt2-pro": {
|
18
|
+
"description": "360GPT2 Pro مدل پیشرفته پردازش زبان طبیعی است که توسط شرکت 360 ارائه شده است. این مدل دارای تواناییهای برجستهای در تولید و درک متن است و به ویژه در زمینه تولید و خلاقیت عملکرد فوقالعادهای دارد. همچنین قادر به انجام وظایف پیچیده تبدیل زبان و ایفای نقش میباشد."
|
19
|
+
},
|
20
|
+
"4.0Ultra": {
|
21
|
+
"description": "Spark Ultra قدرتمندترین نسخه از سری مدلهای بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصهسازی محتوای متنی را بهبود میبخشد. این یک راهحل جامع برای افزایش بهرهوری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته میشود."
|
22
|
+
},
|
23
|
+
"Baichuan2-Turbo": {
|
24
|
+
"description": "با استفاده از فناوری تقویت جستجو، مدل بزرگ را به دانش حوزهای و دانش کل وب متصل میکند. از آپلود انواع اسناد مانند PDF، Word و همچنین وارد کردن آدرسهای وب پشتیبانی میکند. اطلاعات بهموقع و جامع دریافت میشود و نتایج خروجی دقیق و حرفهای هستند."
|
25
|
+
},
|
26
|
+
"Baichuan3-Turbo": {
|
27
|
+
"description": "بهینهسازی شده برای سناریوهای پرتکرار سازمانی، با بهبود قابل توجه و نسبت عملکرد به هزینه بالا. در مقایسه با مدل Baichuan2، تولید محتوا ۲۰٪ بهبود یافته، پاسخ به سوالات ۱۷٪ بهتر شده و توانایی نقشآفرینی ۴۰٪ افزایش یافته است. عملکرد کلی بهتر از GPT3.5 است."
|
28
|
+
},
|
29
|
+
"Baichuan3-Turbo-128k": {
|
30
|
+
"description": "دارای پنجره متنی فوقالعاده طولانی ۱۲۸K، بهینهسازی شده برای سناریوهای پرتکرار سازمانی، با بهبود قابل توجه در عملکرد و مقرون به صرفه بودن. در مقایسه با مدل Baichuan2، ۲۰٪ بهبود در تولید محتوا، ۱۷٪ بهبود در پرسش و پاسخ دانش، و ۴۰٪ بهبود در توانایی نقشآفرینی. عملکرد کلی بهتر از GPT3.5 است."
|
31
|
+
},
|
32
|
+
"Baichuan4": {
|
33
|
+
"description": "این مدل از نظر توانایی در داخل کشور رتبه اول را دارد و در وظایف چینی مانند دانشنامه، متون طولانی و تولید محتوا از مدلهای اصلی خارجی پیشی میگیرد. همچنین دارای توانایی چندوجهی پیشرو در صنعت است و در چندین معیار ارزیابی معتبر عملکرد برجستهای دارد."
|
34
|
+
},
|
35
|
+
"ERNIE-3.5-128K": {
|
36
|
+
"description": "مدل زبان بزرگ پرچمدار توسعهیافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش میدهد و دارای تواناییهای عمومی قدرتمندی است. این مدل میتواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونهها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا بهروز بودن اطلاعات پرسش و پاسخ را تضمین کند."
|
37
|
+
},
|
38
|
+
"ERNIE-3.5-8K": {
|
39
|
+
"description": "مدل زبان بزرگ پرچمدار توسعهیافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش میدهد و دارای تواناییهای عمومی قدرتمندی است. این مدل میتواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونهها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا بهروز بودن اطلاعات پرسش و پاسخ را تضمین نماید."
|
40
|
+
},
|
41
|
+
"ERNIE-3.5-8K-Preview": {
|
42
|
+
"description": "مدل زبان بزرگ پرچمدار توسعهیافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش میدهد و دارای تواناییهای عمومی قدرتمندی است. این مدل میتواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونهها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا بهروز بودن اطلاعات پرسش و پاسخ را تضمین کند."
|
43
|
+
},
|
44
|
+
"ERNIE-4.0-8K-Latest": {
|
45
|
+
"description": "مدل زبان بزرگ مقیاس پرچمدار توسعهیافته توسط بایدو، که نسبت به ERNIE 3.5 ارتقاء کامل در تواناییهای مدل را به ارمغان آورده است و برای وظایف پیچیده در حوزههای مختلف مناسب است؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند و بهروزرسانی اطلاعات پرسش و پاسخ را تضمین مینماید."
|
46
|
+
},
|
47
|
+
"ERNIE-4.0-8K-Preview": {
|
48
|
+
"description": "مدل زبان بزرگ مقیاس پرچمدار توسعهیافته توسط بایدو، در مقایسه با ERNIE 3.5 ارتقاء کامل تواناییهای مدل را به ارمغان آورده و برای وظایف پیچیده در حوزههای مختلف مناسب است؛ از افزونه جستجوی بایدو پشتیبانی میکند تا اطلاعات پرسش و پاسخ بهروز بماند."
|
49
|
+
},
|
50
|
+
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
|
+
"description": "مدل زبان بزرگ و پیشرفتهای که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینههای مختلف و مناسب برای وظایف پیچیده؛ از افزونه جستجوی بایدو بهطور خودکار پشتیبانی میکند تا اطلاعات بهروز را در پاسخها تضمین کند. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد."
|
52
|
+
},
|
53
|
+
"ERNIE-4.0-Turbo-8K-Preview": {
|
54
|
+
"description": "مدل زبان بزرگ و پرچمدار با مقیاس فوقالعاده که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینههای مختلف و مناسب برای وظایف پیچیده؛ پشتیبانی از اتصال خودکار به افزونه جستجوی بایدو برای اطمینان از بهروز بودن اطلاعات پرسش و پاسخ. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد."
|
55
|
+
},
|
56
|
+
"ERNIE-Character-8K": {
|
57
|
+
"description": "مدل زبان بزرگ عمودی توسعهیافته توسط بایدو، مناسب برای صحنههای کاربردی مانند NPCهای بازی، مکالمات پشتیبانی مشتری، و نقشآفرینی در مکالمات. سبک شخصیتها برجستهتر و یکپارچهتر است، توانایی پیروی از دستورات قویتر و عملکرد استدلالی بهینهتر است."
|
58
|
+
},
|
59
|
+
"ERNIE-Lite-Pro-128K": {
|
60
|
+
"description": "مدل زبان بزرگ سبکوزن توسعهیافته توسط بایدو، که تعادل بین عملکرد مدل عالی و کارایی استنتاج را حفظ میکند. عملکرد آن بهتر از ERNIE Lite است و برای استفاده در کارتهای شتابدهنده AI با قدرت محاسباتی پایین مناسب است."
|
61
|
+
},
|
62
|
+
"ERNIE-Speed-128K": {
|
63
|
+
"description": "مدل زبان بزرگ با عملکرد بالا که در سال 2024 توسط بایدو توسعه یافته است. این مدل دارای تواناییهای عمومی برجستهای است و به عنوان یک مدل پایه برای تنظیم دقیق در سناریوهای خاص مناسب است و همچنین از عملکرد استنتاجی بسیار خوبی برخوردار است."
|
64
|
+
},
|
65
|
+
"ERNIE-Speed-Pro-128K": {
|
66
|
+
"description": "مدل زبان بزرگ با عملکرد بالا که در سال 2024 توسط بایدو بهطور مستقل توسعه یافته است. این مدل دارای تواناییهای عمومی برجستهای است و عملکرد بهتری نسبت به ERNIE Speed دارد. مناسب برای استفاده به عنوان مدل پایه برای تنظیم دقیق و حل بهتر مسائل در سناریوهای خاص، همچنین دارای عملکرد استنتاجی بسیار عالی است."
|
67
|
+
},
|
68
|
+
"Gryphe/MythoMax-L2-13b": {
|
69
|
+
"description": "MythoMax-L2 (13B) یک مدل نوآورانه است که برای کاربردهای چندرشتهای و وظایف پیچیده مناسب است."
|
70
|
+
},
|
71
|
+
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
72
|
+
"description": "Hermes 2 Mixtral 8x7B DPO یک ترکیب چندمدلی بسیار انعطافپذیر است که برای ارائه تجربهای خلاقانه و برجسته طراحی شده است."
|
73
|
+
},
|
74
|
+
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75
|
+
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) یک مدل دستورالعمل با دقت بالا است که برای محاسبات پیچیده مناسب است."
|
76
|
+
},
|
77
|
+
"NousResearch/Nous-Hermes-2-Yi-34B": {
|
78
|
+
"description": "Nous Hermes-2 Yi (34B) خروجی بهینه زبان و امکانات متنوع کاربردی را ارائه میدهد."
|
79
|
+
},
|
80
|
+
"OpenGVLab/InternVL2-26B": {
|
81
|
+
"description": "InternVL2 در وظایف مختلف زبان تصویری عملکرد برجستهای از خود نشان داده است، از جمله درک اسناد و نمودارها، درک متن صحنه، OCR، حل مسائل علمی و ریاضی و غیره."
|
82
|
+
},
|
83
|
+
"OpenGVLab/InternVL2-Llama3-76B": {
|
84
|
+
"description": "InternVL2 در وظایف مختلف زبان تصویری عملکرد برجستهای از خود نشان داده است، از جمله درک اسناد و نمودارها، درک متن صحنه، OCR، حل مسائل علمی و ریاضی و غیره."
|
85
|
+
},
|
86
|
+
"Phi-3-medium-128k-instruct": {
|
87
|
+
"description": "همان مدل Phi-3-medium، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
|
88
|
+
},
|
89
|
+
"Phi-3-medium-4k-instruct": {
|
90
|
+
"description": "یک مدل با ۱۴ میلیارد پارامتر که کیفیت آن بهتر از Phi-3-mini است و تمرکز آن بر دادههای با کیفیت بالا و فشردهسازی استدلالی است."
|
91
|
+
},
|
92
|
+
"Phi-3-mini-128k-instruct": {
|
93
|
+
"description": "مدل مشابه Phi-3-mini، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
|
94
|
+
},
|
95
|
+
"Phi-3-mini-4k-instruct": {
|
96
|
+
"description": "کوچکترین عضو خانواده Phi-3، بهینهسازی شده برای کیفیت و تأخیر کم."
|
97
|
+
},
|
98
|
+
"Phi-3-small-128k-instruct": {
|
99
|
+
"description": "همان مدل Phi-3-small، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
|
100
|
+
},
|
101
|
+
"Phi-3-small-8k-instruct": {
|
102
|
+
"description": "یک مدل با ۷ میلیارد پارامتر که کیفیت آن بهتر از Phi-3-mini است و تمرکز آن بر دادههای با کیفیت بالا و فشردهسازی استدلالی است."
|
103
|
+
},
|
104
|
+
"Phi-3.5-mini-instruct": {
|
105
|
+
"description": "نسخه بهروزرسانیشده مدل Phi-3-mini."
|
106
|
+
},
|
107
|
+
"Phi-3.5-vision-instrust": {
|
108
|
+
"description": "نسخه بهروزرسانیشده مدل Phi-3-vision."
|
109
|
+
},
|
110
|
+
"Pro/OpenGVLab/InternVL2-8B": {
|
111
|
+
"description": "InternVL2 در وظایف مختلف زبان تصویری عملکرد برجستهای از خود نشان داده است، از جمله درک اسناد و نمودارها، درک متن صحنه، OCR، حل مسائل علمی و ریاضی و غیره."
|
112
|
+
},
|
113
|
+
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
114
|
+
"description": "Qwen2-VL جدیدترین نسخه از مدل Qwen-VL است که در آزمونهای معیار درک بصری به پیشرفتهترین عملکرد دست یافته است."
|
115
|
+
},
|
116
|
+
"Qwen/Qwen1.5-110B-Chat": {
|
117
|
+
"description": "Qwen 1.5 Chat (110B) یک مدل گفتگوی با کارایی بالا است که از سناریوهای پیچیده مکالمه پشتیبانی میکند."
|
118
|
+
},
|
119
|
+
"Qwen/Qwen1.5-72B-Chat": {
|
120
|
+
"description": "Qwen 1.5 Chat (72B) پاسخگویی سریع و توانایی مکالمه طبیعی را ارائه میدهد و برای محیطهای چندزبانه مناسب است."
|
121
|
+
},
|
122
|
+
"Qwen/Qwen2-72B-Instruct": {
|
123
|
+
"description": "Qwen 2 Instruct (72B) دستورالعملهای دقیق برای کاربردهای سازمانی ارائه میدهد و به درستی به آنها پاسخ میدهد."
|
124
|
+
},
|
125
|
+
"Qwen/Qwen2-VL-72B-Instruct": {
|
126
|
+
"description": "Qwen2-VL جدیدترین نسخه از مدل Qwen-VL است که در آزمونهای معیار درک بصری به پیشرفتهترین عملکرد دست یافته است."
|
127
|
+
},
|
128
|
+
"Qwen/Qwen2.5-14B-Instruct": {
|
129
|
+
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
|
130
|
+
},
|
131
|
+
"Qwen/Qwen2.5-32B-Instruct": {
|
132
|
+
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
|
133
|
+
},
|
134
|
+
"Qwen/Qwen2.5-72B-Instruct": {
|
135
|
+
"description": "مدل زبانی بزرگ توسعه یافته توسط تیم علیبابا، تونگyi چنوِن."
|
136
|
+
},
|
137
|
+
"Qwen/Qwen2.5-72B-Instruct-128K": {
|
138
|
+
"description": "Qwen2.5 یک سری جدید از مدلهای زبان بزرگ است که دارای تواناییهای قویتر در درک و تولید میباشد."
|
139
|
+
},
|
140
|
+
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
|
141
|
+
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
|
142
|
+
},
|
143
|
+
"Qwen/Qwen2.5-7B-Instruct": {
|
144
|
+
"description": "Qwen2.5 یک سری جدید از مدلهای زبان بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
|
145
|
+
},
|
146
|
+
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
|
+
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
|
148
|
+
},
|
149
|
+
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
150
|
+
"description": "Qwen2.5-Coder بر روی نوشتن کد تمرکز دارد."
|
151
|
+
},
|
152
|
+
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
153
|
+
"description": "Qwen2.5-Math بر حل مسائل در حوزه ریاضیات تمرکز دارد و پاسخهای حرفهای برای مسائل پیچیده ارائه میدهد."
|
154
|
+
},
|
155
|
+
"SenseChat": {
|
156
|
+
"description": "نسخه پایه مدل (V4)، طول متن ۴K، با تواناییهای عمومی قوی"
|
157
|
+
},
|
158
|
+
"SenseChat-128K": {
|
159
|
+
"description": "نسخه پایه مدل (V4)، با طول زمینه ۱۲۸K، در وظایف درک و تولید متون طولانی عملکرد برجستهای دارد"
|
160
|
+
},
|
161
|
+
"SenseChat-32K": {
|
162
|
+
"description": "مدل نسخه پایه (V4)، طول زمینه 32K، قابل استفاده در انواع سناریوها"
|
163
|
+
},
|
164
|
+
"SenseChat-5": {
|
165
|
+
"description": "جدیدترین نسخه مدل (V5.5)، با طول زمینه 128K، بهبود قابل توجه در زمینههای استدلال ریاضی، مکالمه انگلیسی، پیروی از دستورات و درک متون طولانی، قابل مقایسه با GPT-4o"
|
166
|
+
},
|
167
|
+
"SenseChat-5-Cantonese": {
|
168
|
+
"description": "طول متن 32K، در درک مکالمات به زبان کانتونی از GPT-4 پیشی میگیرد و در زمینههای مختلفی مانند دانش، استدلال، ریاضیات و برنامهنویسی با GPT-4 Turbo قابل مقایسه است."
|
169
|
+
},
|
170
|
+
"SenseChat-Character": {
|
171
|
+
"description": "نسخه استاندارد مدل، طول متن ۸۰۰۰ کاراکتر، سرعت پاسخدهی بالا"
|
172
|
+
},
|
173
|
+
"SenseChat-Character-Pro": {
|
174
|
+
"description": "مدل پیشرفته، طول متن 32K، بهبود کامل قابلیتها، پشتیبانی از مکالمه به زبانهای چینی/انگلیسی"
|
175
|
+
},
|
176
|
+
"SenseChat-Turbo": {
|
177
|
+
"description": "مناسب برای پرسش و پاسخ سریع و تنظیم دقیق مدل"
|
178
|
+
},
|
179
|
+
"THUDM/glm-4-9b-chat": {
|
180
|
+
"description": "نسخه منبع باز GLM-4 9B، تجربه گفتگوی بهینهشده برای برنامههای مکالمه را ارائه میدهد."
|
181
|
+
},
|
182
|
+
"abab5.5-chat": {
|
183
|
+
"description": "برای سناریوهای بهرهوری طراحی شده است، از پردازش وظایف پیچیده و تولید متن کارآمد پشتیبانی میکند و برای کاربردهای حرفهای مناسب است."
|
184
|
+
},
|
185
|
+
"abab5.5s-chat": {
|
186
|
+
"description": "طراحی شده برای سناریوهای مکالمه با شخصیتهای چینی، ارائه توانایی تولید مکالمات با کیفیت بالا به زبان چینی، مناسب برای انواع کاربردها."
|
187
|
+
},
|
188
|
+
"abab6.5g-chat": {
|
189
|
+
"description": "طراحی شده برای مکالمات چندزبانه با شخصیتهای مختلف، پشتیبانی از تولید مکالمات با کیفیت بالا به زبان انگلیسی و سایر زبانها."
|
190
|
+
},
|
191
|
+
"abab6.5s-chat": {
|
192
|
+
"description": "مناسب برای طیف گستردهای از وظایف پردازش زبان طبیعی، از جمله تولید متن، سیستمهای گفتگو و غیره."
|
193
|
+
},
|
194
|
+
"abab6.5t-chat": {
|
195
|
+
"description": "بهینهسازی شده برای سناریوهای مکالمه با شخصیتهای چینی، ارائه توانایی تولید مکالمات روان و مطابق با عادات بیانی چینی."
|
196
|
+
},
|
197
|
+
"accounts/fireworks/models/firefunction-v1": {
|
198
|
+
"description": "مدل فراخوانی تابع Fireworks منبعباز، ارائهدهنده قابلیت اجرای دستورالعملهای برجسته و ویژگیهای باز و قابل سفارشیسازی."
|
199
|
+
},
|
200
|
+
"accounts/fireworks/models/firefunction-v2": {
|
201
|
+
"description": "مدل Firefunction-v2 که به تازگی توسط شرکت Fireworks معرفی شده است، یک مدل فراخوانی تابع با عملکرد عالی است که بر اساس Llama-3 توسعه یافته و با بهینهسازیهای گسترده، بهویژه برای فراخوانی توابع، مکالمات و پیروی از دستورات مناسب است."
|
202
|
+
},
|
203
|
+
"accounts/fireworks/models/firellava-13b": {
|
204
|
+
"description": "fireworks-ai/FireLLaVA-13b یک مدل زبان بصری است که میتواند بهطور همزمان ورودیهای تصویر و متن را دریافت کند. این مدل با دادههای باکیفیت آموزش دیده و برای وظایف چندوجهی مناسب است."
|
205
|
+
},
|
206
|
+
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
207
|
+
"description": "مدل Llama 3 70B دستورالعمل، بهطور ویژه برای مکالمات چندزبانه و درک زبان طبیعی بهینهسازی شده است و عملکردی بهتر از اکثر مدلهای رقیب دارد."
|
208
|
+
},
|
209
|
+
"accounts/fireworks/models/llama-v3-70b-instruct-hf": {
|
210
|
+
"description": "مدل Llama 3 70B دستورالعمل (نسخه HF)، با نتایج پیادهسازی رسمی سازگار است و برای وظایف پیروی از دستورالعمل با کیفیت بالا مناسب است."
|
211
|
+
},
|
212
|
+
"accounts/fireworks/models/llama-v3-8b-instruct": {
|
213
|
+
"description": "مدل Llama 3 8B دستورالعمل، بهینهسازی شده برای مکالمه و وظایف چندزبانه، با عملکرد برجسته و کارآمد."
|
214
|
+
},
|
215
|
+
"accounts/fireworks/models/llama-v3-8b-instruct-hf": {
|
216
|
+
"description": "مدل Llama 3 8B دستورالعمل (نسخه HF)، با نتایج پیادهسازی رسمی سازگار است و از سازگاری بالا و قابلیت همکاری بین پلتفرمی برخوردار است."
|
217
|
+
},
|
218
|
+
"accounts/fireworks/models/llama-v3p1-405b-instruct": {
|
219
|
+
"description": "مدل Llama 3.1 405B دستورالعمل، با پارامترهای بسیار بزرگ، مناسب برای وظایف پیچیده و سناریوهای با بار سنگین در پیروی از دستورالعملها."
|
220
|
+
},
|
221
|
+
"accounts/fireworks/models/llama-v3p1-70b-instruct": {
|
222
|
+
"description": "مدل Llama 3.1 70B دستورالعمل، با توانایی برجسته در درک و تولید زبان طبیعی، انتخابی ایدهآل برای وظایف مکالمه و تحلیل است."
|
223
|
+
},
|
224
|
+
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
|
225
|
+
"description": "مدل Llama 3.1 8B دستورالعمل، بهینهسازی شده برای مکالمات چندزبانه، قادر به پیشی گرفتن از اکثر مدلهای متنباز و بسته در معیارهای صنعتی رایج."
|
226
|
+
},
|
227
|
+
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
228
|
+
"description": "مدل استنتاج تصویر با ۱۱ میلیارد پارامتر از Meta که برای دستورالعملها تنظیم شده است. این مدل برای تشخیص بصری، استنتاج تصویر، توصیف تصویر و پاسخ به سوالات عمومی درباره تصاویر بهینهسازی شده است. این مدل قادر به درک دادههای بصری مانند نمودارها و گرافها است و با تولید توضیحات متنی از جزئیات تصاویر، فاصله بین دیداری و زبانی را پر میکند."
|
229
|
+
},
|
230
|
+
"accounts/fireworks/models/llama-v3p2-1b-instruct": {
|
231
|
+
"description": "مدل Llama 3.2 1B دستورالعمل یک مدل چندزبانه سبک است که توسط Meta ارائه شده است. این مدل با هدف بهبود کارایی طراحی شده و در مقایسه با مدلهای بزرگتر، بهبودهای قابل توجهی در تأخیر و هزینه ارائه میدهد. موارد استفاده نمونه از این مدل شامل بازیابی و خلاصهسازی است."
|
232
|
+
},
|
233
|
+
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
234
|
+
"description": "مدل Llama 3.2 3B دستورالعمل یک مدل چندزبانه سبک است که توسط Meta ارائه شده است. این مدل با هدف بهبود کارایی طراحی شده و در مقایسه با مدلهای بزرگتر، بهبودهای قابل توجهی در تأخیر و هزینه ارائه میدهد. نمونههای کاربردی این مدل شامل بازنویسی پرسشها و دستورات و همچنین کمک به نوشتن است."
|
235
|
+
},
|
236
|
+
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
237
|
+
"description": "مدل استنتاج تصویر با 90 میلیارد پارامتر از Meta که برای دستورالعملها تنظیم شده است. این مدل برای تشخیص بصری، استنتاج تصویر، توصیف تصویر و پاسخ به سوالات عمومی در مورد تصاویر بهینهسازی شده است. این مدل قادر است دادههای بصری مانند نمودارها و گرافها را درک کند و با تولید توضیحات متنی از جزئیات تصویر، فاصله بین دیداری و زبانی را پر کند."
|
238
|
+
},
|
239
|
+
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
240
|
+
"description": "مدل Mixtral MoE 8x22B دستوری، با پارامترهای بزرگ و معماری چندین متخصص، پشتیبانی کامل از پردازش کارآمد وظایف پیچیده."
|
241
|
+
},
|
242
|
+
"accounts/fireworks/models/mixtral-8x7b-instruct": {
|
243
|
+
"description": "مدل Mixtral MoE 8x7B، معماری چندین متخصص برای پیروی و اجرای دستورات بهصورت کارآمد ارائه میدهد."
|
244
|
+
},
|
245
|
+
"accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
|
246
|
+
"description": "مدل Mixtral MoE 8x7B دستورالعمل (نسخه HF)، با عملکردی مشابه با پیادهسازی رسمی، مناسب برای انواع سناریوهای وظایف کارآمد."
|
247
|
+
},
|
248
|
+
"accounts/fireworks/models/mythomax-l2-13b": {
|
249
|
+
"description": "مدل MythoMax L2 13B، با استفاده از تکنیکهای ترکیبی نوآورانه، در روایت داستان و نقشآفرینی مهارت دارد."
|
250
|
+
},
|
251
|
+
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
|
252
|
+
"description": "Phi-3-Vision-128K-Instruct یک مدل چندوجهی پیشرفته و سبک است که بر اساس مجموعه دادههایی شامل دادههای مصنوعی و وبسایتهای عمومی فیلتر شده ساخته شده است. این مدل بر دادههای بسیار باکیفیت و متمرکز بر استدلال، که شامل متن و تصویر هستند، تمرکز دارد. این مدل بخشی از سری مدلهای Phi-3 است و نسخه چندوجهی آن از طول زمینه 128K (بر حسب توکن) پشتیبانی میکند. این مدل از یک فرآیند تقویت دقیق عبور کرده است که ترکیبی از تنظیم دقیق تحت نظارت و بهینهسازی مستقیم ترجیحات را شامل میشود تا از پیروی دقیق از دستورات و اقدامات امنیتی قوی اطمینان حاصل شود."
|
253
|
+
},
|
254
|
+
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
255
|
+
"description": "Qwen2.5 مجموعهای از مدلهای زبانی است که تنها شامل رمزگشاها میباشد و توسط تیم Qwen علیبابا کلود توسعه یافته است. این مدلها در اندازههای مختلف از جمله 0.5B، 1.5B، 3B، 7B، 14B، 32B و 72B ارائه میشوند و دارای دو نوع پایه (base) و دستوری (instruct) هستند."
|
256
|
+
},
|
257
|
+
"accounts/fireworks/models/starcoder-16b": {
|
258
|
+
"description": "مدل StarCoder 15.5B، پشتیبانی از وظایف پیشرفته برنامهنویسی، با قابلیتهای چندزبانه تقویت شده، مناسب برای تولید و درک کدهای پیچیده."
|
259
|
+
},
|
260
|
+
"accounts/fireworks/models/starcoder-7b": {
|
261
|
+
"description": "مدل StarCoder 7B، آموزشدیده بر روی بیش از ۸۰ زبان برنامهنویسی مختلف، با توانایی برجسته در تکمیل کد و درک زمینه."
|
262
|
+
},
|
263
|
+
"accounts/yi-01-ai/models/yi-large": {
|
264
|
+
"description": "مدل Yi-Large، با توانایی برجسته در پردازش چندزبانه، مناسب برای انواع وظایف تولید و درک زبان."
|
265
|
+
},
|
266
|
+
"ai21-jamba-1.5-large": {
|
267
|
+
"description": "یک مدل چندزبانه با 398 میلیارد پارامتر (94 میلیارد فعال) که پنجره متنی طولانی 256 هزار توکن، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه میدهد."
|
268
|
+
},
|
269
|
+
"ai21-jamba-1.5-mini": {
|
270
|
+
"description": "یک مدل چندزبانه با 52 میلیارد پارامتر (12 میلیارد فعال) که پنجره متنی طولانی 256K، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه میدهد."
|
271
|
+
},
|
272
|
+
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
273
|
+
"description": "Claude 3.5 Sonnet استانداردهای صنعت را ارتقا داده است، عملکردی بهتر از مدلهای رقیب و Claude 3 Opus دارد، در ارزیابیهای گسترده به خوبی عمل کرده و در عین حال سرعت و هزینه مدلهای سطح متوسط ما را حفظ میکند."
|
274
|
+
},
|
275
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
276
|
+
"description": "Claude 3.5 Sonnet استانداردهای صنعت را ارتقا داده است، عملکردی بهتر از مدلهای رقیب و Claude 3 Opus دارد، در ارزیابیهای گسترده به خوبی عمل کرده و در عین حال سرعت و هزینه مدلهای سطح متوسط ما را حفظ میکند."
|
277
|
+
},
|
278
|
+
"anthropic.claude-3-haiku-20240307-v1:0": {
|
279
|
+
"description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که پاسخهای تقریباً فوری ارائه میدهد. این مدل میتواند به سرعت به پرسشها و درخواستهای ساده پاسخ دهد. مشتریان قادر خواهند بود تجربههای هوش مصنوعی یکپارچهای را که تعاملات انسانی را تقلید میکند، ایجاد کنند. Claude 3 Haiku میتواند تصاویر را پردازش کرده و خروجی متنی ارائه دهد و دارای پنجره متنی 200K است."
|
280
|
+
},
|
281
|
+
"anthropic.claude-3-opus-20240229-v1:0": {
|
282
|
+
"description": "Claude 3 Opus قدرتمندترین مدل هوش مصنوعی Anthropic است که عملکرد پیشرفتهای در وظایف بسیار پیچیده دارد. این مدل میتواند با درخواستهای باز و سناریوهای ناآشنا کار کند و دارای روانی و درک شبهانسانی برجستهای است. Claude 3 Opus مرزهای جدیدی از امکانات هوش مصنوعی مولد را به نمایش میگذارد. Claude 3 Opus میتواند تصاویر را پردازش کرده و خروجی متنی ارائه دهد و دارای پنجره متنی 200K است."
|
283
|
+
},
|
284
|
+
"anthropic.claude-3-sonnet-20240229-v1:0": {
|
285
|
+
"description": "Claude 3 Sonnet از Anthropic به تعادلی ایدهآل بین هوش و سرعت دست یافته است—بهویژه برای بارهای کاری سازمانی مناسب است. این مدل با قیمتی کمتر از رقبا، بیشترین بهرهوری را ارائه میدهد و بهعنوان یک ماشین اصلی قابل اعتماد و با دوام بالا طراحی شده است که برای استقرارهای مقیاسپذیر AI مناسب است. Claude 3 Sonnet میتواند تصاویر را پردازش کرده و خروجی متنی ارائه دهد و دارای پنجره متنی 200K است."
|
286
|
+
},
|
287
|
+
"anthropic.claude-instant-v1": {
|
288
|
+
"description": "مدلی سریع، اقتصادی و همچنان بسیار توانمند که میتواند طیف وسیعی از وظایف از جمله مکالمات روزمره، تحلیل متن، خلاصهسازی و پاسخ به سوالات اسناد را انجام دهد."
|
289
|
+
},
|
290
|
+
"anthropic.claude-v2": {
|
291
|
+
"description": "Anthropic مدلی است که در انجام وظایف گستردهای از مکالمات پیچیده و تولید محتوای خلاقانه تا پیروی دقیق از دستورات، توانایی بالایی از خود نشان میدهد."
|
292
|
+
},
|
293
|
+
"anthropic.claude-v2:1": {
|
294
|
+
"description": "نسخه بهروزرسانی شده Claude 2، با دو برابر پنجره متنی و بهبود در قابلیت اطمینان، کاهش توهمات و دقت مبتنی بر شواهد در اسناد طولانی و زمینههای RAG."
|
295
|
+
},
|
296
|
+
"anthropic/claude-3-haiku": {
|
297
|
+
"description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که برای ارائه پاسخهای تقریباً فوری طراحی شده است. این مدل دارای عملکرد سریع و دقیق جهتدار است."
|
298
|
+
},
|
299
|
+
"anthropic/claude-3-opus": {
|
300
|
+
"description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است. این مدل در عملکرد، هوش، روانی و درک عالی عمل میکند."
|
301
|
+
},
|
302
|
+
"anthropic/claude-3.5-sonnet": {
|
303
|
+
"description": "Claude 3.5 Sonnet تواناییهایی فراتر از Opus ارائه میدهد و سرعتی سریعتر از Sonnet دارد، در حالی که قیمت آن با Sonnet یکسان است. Sonnet بهویژه در برنامهنویسی، علم داده، پردازش بصری و وظایف نمایندگی مهارت دارد."
|
304
|
+
},
|
305
|
+
"aya": {
|
306
|
+
"description": "Aya 23 یک مدل چندزبانه است که توسط Cohere ارائه شده و از 23 زبان پشتیبانی میکند و برای برنامههای چندزبانه تسهیلات فراهم میآورد."
|
307
|
+
},
|
308
|
+
"aya:35b": {
|
309
|
+
"description": "Aya 23 یک مدل چندزبانه است که توسط Cohere ارائه شده و از 23 زبان پشتیبانی میکند و استفاده از برنامههای چندزبانه را تسهیل مینماید."
|
310
|
+
},
|
311
|
+
"charglm-3": {
|
312
|
+
"description": "CharGLM-3 بهطور ویژه برای نقشآفرینی و همراهی عاطفی طراحی شده است، از حافظه طولانیمدت و مکالمات شخصیسازیشده پشتیبانی میکند و کاربردهای گستردهای دارد."
|
313
|
+
},
|
314
|
+
"chatgpt-4o-latest": {
|
315
|
+
"description": "ChatGPT-4o یک مدل پویا است که بهصورت زنده بهروزرسانی میشود تا همیشه نسخهی جدید و بهروز باشد. این مدل ترکیبی از تواناییهای قوی در درک و تولید زبان است و برای کاربردهای گسترده مانند خدمات مشتری، آموزش و پشتیبانی فنی مناسب است."
|
316
|
+
},
|
317
|
+
"claude-2.0": {
|
318
|
+
"description": "Claude 2 پیشرفتهای کلیدی را برای کسبوکارها ارائه میدهد، از جمله زمینه 200K توکن پیشرو در صنعت، کاهش قابل توجه نرخ خطاهای مدل، اعلانهای سیستمی و یک ویژگی جدید آزمایشی: فراخوانی ابزار."
|
319
|
+
},
|
320
|
+
"claude-2.1": {
|
321
|
+
"description": "Claude 2 پیشرفتهای کلیدی را برای کسبوکارها فراهم میکند، از جمله زمینه 200K توکن پیشرو در صنعت، کاهش قابل توجه در نرخ توهم مدل، اعلانهای سیستمی و یک ویژگی آزمایشی جدید: فراخوانی ابزار."
|
322
|
+
},
|
323
|
+
"claude-3-5-sonnet-20240620": {
|
324
|
+
"description": "Claude 3.5 Sonnet تواناییهایی فراتر از Opus ارائه میدهد و سرعتی سریعتر از Sonnet دارد، در حالی که قیمت آن با Sonnet یکسان است. Sonnet بهویژه در برنامهنویسی، علم داده، پردازش بصری و وظایف نمایندگی مهارت دارد."
|
325
|
+
},
|
326
|
+
"claude-3-5-sonnet-20241022": {
|
327
|
+
"description": "Claude 3.5 Sonnet تواناییهایی فراتر از Opus ارائه میدهد و سرعتی سریعتر از Sonnet دارد، در حالی که قیمت آن با Sonnet یکسان است. Sonnet بهویژه در برنامهنویسی، علم داده، پردازش بصری و وظایف نمایندگی مهارت دارد."
|
328
|
+
},
|
329
|
+
"claude-3-haiku-20240307": {
|
330
|
+
"description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که برای ارائه پاسخهای تقریباً فوری طراحی شده است. این مدل دارای عملکرد سریع و دقیق جهتگیری است."
|
331
|
+
},
|
332
|
+
"claude-3-opus-20240229": {
|
333
|
+
"description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است. این مدل در عملکرد، هوش، روانی و درک عالی عمل میکند."
|
334
|
+
},
|
335
|
+
"claude-3-sonnet-20240229": {
|
336
|
+
"description": "Claude 3 Sonnet تعادلی ایدهآل بین هوش و سرعت برای بارهای کاری سازمانی فراهم میکند. این محصول با قیمتی پایینتر حداکثر بهرهوری را ارائه میدهد، قابل اعتماد است و برای استقرار در مقیاس بزرگ مناسب میباشد."
|
337
|
+
},
|
338
|
+
"codegeex-4": {
|
339
|
+
"description": "CodeGeeX-4 یک دستیار برنامهنویسی قدرتمند مبتنی بر هوش مصنوعی است که از پرسش و پاسخ هوشمند و تکمیل کد در زبانهای برنامهنویسی مختلف پشتیبانی میکند و بهرهوری توسعه را افزایش میدهد."
|
340
|
+
},
|
341
|
+
"codegemma": {
|
342
|
+
"description": "CodeGemma یک مدل زبانی سبک برای وظایف مختلف برنامهنویسی است که از تکرار سریع و یکپارچهسازی پشتیبانی میکند."
|
343
|
+
},
|
344
|
+
"codegemma:2b": {
|
345
|
+
"description": "CodeGemma یک مدل زبان سبک برای وظایف مختلف برنامهنویسی است که از تکرار سریع و یکپارچهسازی پشتیبانی میکند."
|
346
|
+
},
|
347
|
+
"codellama": {
|
348
|
+
"description": "Code Llama یک مدل زبانی بزرگ (LLM) است که بر تولید و بحث در مورد کد تمرکز دارد و از زبانهای برنامهنویسی گستردهای پشتیبانی میکند و برای محیطهای توسعهدهندگان مناسب است."
|
349
|
+
},
|
350
|
+
"codellama:13b": {
|
351
|
+
"description": "Code Llama یک مدل زبانی بزرگ (LLM) است که بر تولید و بحث در مورد کد تمرکز دارد و از زبانهای برنامهنویسی گستردهای پشتیبانی میکند و برای محیطهای توسعهدهندگان مناسب است."
|
352
|
+
},
|
353
|
+
"codellama:34b": {
|
354
|
+
"description": "Code Llama یک مدل زبانی بزرگ (LLM) است که بر تولید و بحث در مورد کد تمرکز دارد و از زبانهای برنامهنویسی گستردهای پشتیبانی میکند و برای محیطهای توسعهدهندگان مناسب است."
|
355
|
+
},
|
356
|
+
"codellama:70b": {
|
357
|
+
"description": "Code Llama یک مدل زبانی بزرگ (LLM) است که بر تولید و بحث در مورد کد تمرکز دارد و با پشتیبانی گسترده از زبانهای برنامهنویسی، برای محیطهای توسعهدهندگان مناسب است."
|
358
|
+
},
|
359
|
+
"codeqwen": {
|
360
|
+
"description": "CodeQwen1.5 یک مدل زبان بزرگ است که بر اساس حجم زیادی از دادههای کد آموزش دیده و بهطور خاص برای حل وظایف پیچیده برنامهنویسی طراحی شده است."
|
361
|
+
},
|
362
|
+
"codestral": {
|
363
|
+
"description": "Codestral اولین مدل کد از Mistral AI است که پشتیبانی عالی برای وظایف تولید کد ارائه میدهد."
|
364
|
+
},
|
365
|
+
"codestral-latest": {
|
366
|
+
"description": "Codestral یک مدل پیشرفته تولید کد است که بر تولید کد تمرکز دارد و برای وظایف تکمیل کد و پر کردن میانمتن بهینهسازی شده است."
|
367
|
+
},
|
368
|
+
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
369
|
+
"description": "Dolphin Mixtral 8x22B یک مدل طراحی شده برای پیروی از دستورات، مکالمه و برنامهنویسی است."
|
370
|
+
},
|
371
|
+
"cohere-command-r": {
|
372
|
+
"description": "Command R یک مدل تولیدی قابل گسترش است که برای RAG و استفاده از ابزارها طراحی شده است و به شرکتها امکان میدهد تا به هوش مصنوعی در سطح تولید دست یابند."
|
373
|
+
},
|
374
|
+
"cohere-command-r-plus": {
|
375
|
+
"description": "Command R+ یک مدل پیشرفته بهینهسازی RAG است که برای مدیریت بارهای کاری در سطح سازمانی طراحی شده است."
|
376
|
+
},
|
377
|
+
"command-r": {
|
378
|
+
"description": "Command R یک LLM بهینهسازی شده برای مکالمات و وظایف با متن طولانی است که بهویژه برای تعاملات پویا و مدیریت دانش مناسب است."
|
379
|
+
},
|
380
|
+
"command-r-plus": {
|
381
|
+
"description": "Command R+ یک مدل زبان بزرگ با عملکرد بالا است که برای سناریوهای واقعی کسبوکار و کاربردهای پیچیده طراحی شده است."
|
382
|
+
},
|
383
|
+
"databricks/dbrx-instruct": {
|
384
|
+
"description": "DBRX Instruct قابلیت پردازش دستورات با قابلیت اطمینان بالا را فراهم میکند و از کاربردهای چندین صنعت پشتیبانی میکند."
|
385
|
+
},
|
386
|
+
"deepseek-ai/DeepSeek-V2.5": {
|
387
|
+
"description": "DeepSeek V2.5 ویژگیهای برجسته نسخههای قبلی را گرد هم آورده و تواناییهای عمومی و کدنویسی را تقویت کرده است."
|
388
|
+
},
|
389
|
+
"deepseek-ai/deepseek-llm-67b-chat": {
|
390
|
+
"description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه هوش مصنوعی است که توانایی درک عمیق زبان و تعامل را فراهم میکند."
|
391
|
+
},
|
392
|
+
"deepseek-chat": {
|
393
|
+
"description": "مدل متنباز جدیدی که تواناییهای عمومی و کدنویسی را ترکیب میکند. این مدل نه تنها توانایی گفتگوی عمومی مدل Chat و توانایی قدرتمند پردازش کد مدل Coder را حفظ کرده است، بلکه به ترجیحات انسانی نیز بهتر همسو شده است. علاوه بر این، DeepSeek-V2.5 در وظایف نوشتاری، پیروی از دستورات و سایر جنبهها نیز بهبودهای قابل توجهی داشته است."
|
394
|
+
},
|
395
|
+
"deepseek-coder-v2": {
|
396
|
+
"description": "DeepSeek Coder V2 یک مدل کد نویسی ترکیبی و متنباز است که در وظایف کدنویسی عملکرد عالی دارد و با GPT4-Turbo قابل مقایسه است."
|
397
|
+
},
|
398
|
+
"deepseek-coder-v2:236b": {
|
399
|
+
"description": "DeepSeek Coder V2 یک مدل کد نویسی ترکیبی و متنباز است که در وظایف کدنویسی عملکرد بسیار خوبی دارد و با GPT4-Turbo قابل مقایسه است."
|
400
|
+
},
|
401
|
+
"deepseek-v2": {
|
402
|
+
"description": "DeepSeek V2 یک مدل زبانی Mixture-of-Experts کارآمد است که برای پردازش نیازهای اقتصادی و کارآمد مناسب میباشد."
|
403
|
+
},
|
404
|
+
"deepseek-v2:236b": {
|
405
|
+
"description": "DeepSeek V2 236B مدل طراحی کد DeepSeek است که تواناییهای قدرتمندی در تولید کد ارائه میدهد."
|
406
|
+
},
|
407
|
+
"deepseek/deepseek-chat": {
|
408
|
+
"description": "مدل متنباز جدیدی که تواناییهای عمومی و کدنویسی را ترکیب میکند. این مدل نه تنها توانایی گفتگوی عمومی مدل Chat و قدرت پردازش کد مدل Coder را حفظ کرده است، بلکه به ترجیحات انسانی نیز بهتر همسو شده است. علاوه بر این، DeepSeek-V2.5 در وظایف نوشتاری، پیروی از دستورات و سایر جنبهها نیز بهبودهای قابل توجهی داشته است."
|
409
|
+
},
|
410
|
+
"emohaa": {
|
411
|
+
"description": "Emohaa یک مدل روانشناختی است که دارای توانایی مشاوره حرفهای بوده و به کاربران در درک مسائل احساسی کمک میکند."
|
412
|
+
},
|
413
|
+
"gemini-1.0-pro-001": {
|
414
|
+
"description": "Gemini 1.0 Pro 001 (تنظیم) عملکردی پایدار و قابل تنظیم ارائه میدهد و انتخابی ایدهآل برای راهحلهای وظایف پیچیده است."
|
415
|
+
},
|
416
|
+
"gemini-1.0-pro-002": {
|
417
|
+
"description": "جمینی 1.0 پرو 002 (تنظیم) پشتیبانی چندوجهی عالی ارائه میدهد و بر حل مؤثر وظایف پیچیده تمرکز دارد."
|
418
|
+
},
|
419
|
+
"gemini-1.0-pro-latest": {
|
420
|
+
"description": "Gemini 1.0 Pro مدل هوش مصنوعی با عملکرد بالای Google است که برای گسترش وظایف گسترده طراحی شده است."
|
421
|
+
},
|
422
|
+
"gemini-1.5-flash-001": {
|
423
|
+
"description": "جمینی 1.5 فلش 001 یک مدل چندوجهی کارآمد است که از گسترش کاربردهای گسترده پشتیبانی میکند."
|
424
|
+
},
|
425
|
+
"gemini-1.5-flash-002": {
|
426
|
+
"description": "جمینی 1.5 فلش 002 یک مدل چندوجهی کارآمد است که از گسترش کاربردهای گسترده پشتیبانی میکند."
|
427
|
+
},
|
428
|
+
"gemini-1.5-flash-8b": {
|
429
|
+
"description": "Gemini 1.5 Flash 8B یک مدل چندرسانهای کارآمد است که از گسترش کاربردهای وسیع پشتیبانی میکند."
|
430
|
+
},
|
431
|
+
"gemini-1.5-flash-8b-exp-0924": {
|
432
|
+
"description": "Gemini 1.5 Flash 8B 0924 جدیدترین مدل آزمایشی است که در موارد استفاده متنی و چندوجهی بهبود عملکرد قابل توجهی دارد."
|
433
|
+
},
|
434
|
+
"gemini-1.5-flash-exp-0827": {
|
435
|
+
"description": "جمینی 1.5 فلش 0827 قابلیتهای چندحالته بهینهشدهای را ارائه میدهد که برای انواع سناریوهای پیچیده مناسب است."
|
436
|
+
},
|
437
|
+
"gemini-1.5-flash-latest": {
|
438
|
+
"description": "Gemini 1.5 Flash جدیدترین مدل چندوجهی AI گوگل است که دارای قابلیت پردازش سریع بوده و از ورودیهای متن، تصویر و ویدئو پشتیبانی میکند و برای گسترش کارآمد در وظایف مختلف مناسب است."
|
439
|
+
},
|
440
|
+
"gemini-1.5-pro-001": {
|
441
|
+
"description": "Gemini 1.5 Pro 001 یک راهحل هوش مصنوعی چندوجهی قابل گسترش است که از طیف گستردهای از وظایف پیچیده پشتیبانی میکند."
|
442
|
+
},
|
443
|
+
"gemini-1.5-pro-002": {
|
444
|
+
"description": "Gemini 1.5 Pro 002 جدیدترین مدل آماده تولید است که خروجی با کیفیت بالاتری ارائه میدهد و به ویژه در زمینههای ریاضی، متنهای طولانی و وظایف بصری بهبود قابل توجهی دارد."
|
445
|
+
},
|
446
|
+
"gemini-1.5-pro-exp-0801": {
|
447
|
+
"description": "Gemini 1.5 Pro 0801 قابلیتهای پردازش چندوجهی برجستهای را ارائه میدهد و انعطافپذیری بیشتری برای توسعه برنامهها به ارمغان میآورد."
|
448
|
+
},
|
449
|
+
"gemini-1.5-pro-exp-0827": {
|
450
|
+
"description": "جمینی 1.5 پرو 0827 با ترکیب جدیدترین تکنیکهای بهینهسازی، توانایی پردازش دادههای چندوجهی را بهصورت کارآمدتر ارائه میدهد."
|
451
|
+
},
|
452
|
+
"gemini-1.5-pro-latest": {
|
453
|
+
"description": "Gemini 1.5 Pro از حداکثر ۲ میلیون توکن پشتیبانی میکند و انتخابی ایدهآل برای مدلهای چندوجهی متوسط است که برای پشتیبانی از وظایف پیچیده مناسب میباشد."
|
454
|
+
},
|
455
|
+
"gemma-7b-it": {
|
456
|
+
"description": "Gemma 7B برای پردازش وظایف کوچک و متوسط مناسب است و از نظر هزینه مؤثر است."
|
457
|
+
},
|
458
|
+
"gemma2": {
|
459
|
+
"description": "Gemma 2 یک مدل کارآمد است که توسط Google ارائه شده و شامل طیف گستردهای از کاربردها از برنامههای کوچک تا پردازش دادههای پیچیده میباشد."
|
460
|
+
},
|
461
|
+
"gemma2-9b-it": {
|
462
|
+
"description": "Gemma 2 9B یک مدل بهینهسازی شده برای وظایف خاص و ادغام ابزارها است."
|
463
|
+
},
|
464
|
+
"gemma2:27b": {
|
465
|
+
"description": "Gemma 2 یک مدل کارآمد از Google است که طیف گستردهای از کاربردها را از برنامههای کوچک تا پردازش دادههای پیچیده پوشش میدهد."
|
466
|
+
},
|
467
|
+
"gemma2:2b": {
|
468
|
+
"description": "Gemma 2 یک مدل کارآمد است که توسط Google ارائه شده و شامل طیف گستردهای از کاربردها از برنامههای کوچک تا پردازش دادههای پیچیده میباشد."
|
469
|
+
},
|
470
|
+
"generalv3": {
|
471
|
+
"description": "Spark Pro یک مدل زبان بزرگ با عملکرد بالا است که برای حوزههای حرفهای بهینهسازی شده است و بر ریاضیات، برنامهنویسی، پزشکی، آموزش و سایر حوزهها تمرکز دارد. این مدل از جستجوی آنلاین و افزونههای داخلی مانند وضعیت آبوهوا و تاریخ پشتیبانی میکند. مدل بهینهشده آن در پرسش و پاسخهای پیچیده، درک زبان و تولید متون سطح بالا عملکرد برجسته و کارآمدی از خود نشان میدهد و انتخابی ایدهآل برای کاربردهای حرفهای است."
|
472
|
+
},
|
473
|
+
"generalv3.5": {
|
474
|
+
"description": "Spark Max جامعترین نسخه است که از جستجوی آنلاین و تعداد زیادی افزونه داخلی پشتیبانی میکند. قابلیتهای هستهای بهینهسازیشده و تنظیمات نقشهای سیستمی و عملکرد فراخوانی توابع، آن را در انواع سناریوهای پیچیده بسیار برجسته و کارآمد میسازد."
|
475
|
+
},
|
476
|
+
"glm-4": {
|
477
|
+
"description": "GLM-4 نسخه قدیمی پرچمدار است که در ژانویه 2024 منتشر شد و اکنون با نسخه قویتر GLM-4-0520 جایگزین شده است."
|
478
|
+
},
|
479
|
+
"glm-4-0520": {
|
480
|
+
"description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع طراحی شده و عملکردی عالی دارد."
|
481
|
+
},
|
482
|
+
"glm-4-air": {
|
483
|
+
"description": "GLM-4-Air نسخهای با صرفه اقتصادی است که عملکردی نزدیک به GLM-4 دارد و سرعت بالا و قیمت مناسبی را ارائه میدهد."
|
484
|
+
},
|
485
|
+
"glm-4-airx": {
|
486
|
+
"description": "GLM-4-AirX نسخهای کارآمد از GLM-4-Air ارائه میدهد که سرعت استنتاج آن تا ۲.۶ برابر بیشتر است."
|
487
|
+
},
|
488
|
+
"glm-4-alltools": {
|
489
|
+
"description": "GLM-4-AllTools یک مدل چندمنظوره هوشمند است که برای پشتیبانی از برنامهریزی دستورات پیچیده و فراخوانی ابزارها بهینهسازی شده است، مانند مرور وب، تفسیر کد و تولید متن، و برای اجرای چندوظیفهای مناسب است."
|
490
|
+
},
|
491
|
+
"glm-4-flash": {
|
492
|
+
"description": "GLM-4-Flash انتخابی ایدهآل برای انجام وظایف ساده است، سریعترین و رایگان."
|
493
|
+
},
|
494
|
+
"glm-4-flashx": {
|
495
|
+
"description": "GLM-4-FlashX نسخه بهبود یافته Flash است که سرعت استنتاج فوقالعاده سریعی دارد."
|
496
|
+
},
|
497
|
+
"glm-4-long": {
|
498
|
+
"description": "GLM-4-Long از ورودیهای متنی بسیار طولانی پشتیبانی میکند و برای وظایف حافظهای و پردازش اسناد بزرگ مناسب است."
|
499
|
+
},
|
500
|
+
"glm-4-plus": {
|
501
|
+
"description": "GLM-4-Plus به عنوان پرچمدار هوشمند پیشرفته، دارای توانایی پردازش متون طولانی و وظایف پیچیده است و عملکرد آن به طور کامل بهبود یافته است."
|
502
|
+
},
|
503
|
+
"glm-4v": {
|
504
|
+
"description": "GLM-4V قابلیتهای قدرتمندی در درک و استدلال تصویری ارائه میدهد و از وظایف مختلف بصری پشتیبانی میکند."
|
505
|
+
},
|
506
|
+
"glm-4v-plus": {
|
507
|
+
"description": "GLM-4V-Plus توانایی درک محتوای ویدئویی و تصاویر متعدد را دارد و برای وظایف چندرسانهای مناسب است."
|
508
|
+
},
|
509
|
+
"google/gemini-flash-1.5": {
|
510
|
+
"description": "Gemini 1.5 Flash قابلیت پردازش چندوجهی بهینهشده را ارائه میدهد و برای انواع سناریوهای پیچیده مناسب است."
|
511
|
+
},
|
512
|
+
"google/gemini-pro-1.5": {
|
513
|
+
"description": "Gemini 1.5 Pro با ترکیب آخرین فناوریهای بهینهسازی، توانایی پردازش دادههای چندحالته را با کارایی بالاتر ارائه میدهد."
|
514
|
+
},
|
515
|
+
"google/gemma-2-27b-it": {
|
516
|
+
"description": "جمما ۲ ادامهدهندهی ایده طراحی سبک و کارآمد است."
|
517
|
+
},
|
518
|
+
"google/gemma-2-2b-it": {
|
519
|
+
"description": "مدل بهینهسازی دستورات سبک گوگل"
|
520
|
+
},
|
521
|
+
"google/gemma-2-9b-it": {
|
522
|
+
"description": "Gemma 2 یک سری مدلهای متنی سبک و متنباز از Google است."
|
523
|
+
},
|
524
|
+
"google/gemma-2-9b-it:free": {
|
525
|
+
"description": "Gemma 2 یک سری مدلهای متن سبک و متنباز از Google است."
|
526
|
+
},
|
527
|
+
"google/gemma-2b-it": {
|
528
|
+
"description": "Gemma Instruct (2B) توانایی پردازش دستورات پایه را فراهم میکند و برای برنامههای سبک مناسب است."
|
529
|
+
},
|
530
|
+
"gpt-3.5-turbo": {
|
531
|
+
"description": "GPT 3.5 توربو، مناسب برای انواع وظایف تولید و درک متن، در حال حاضر به gpt-3.5-turbo-0125 اشاره میکند"
|
532
|
+
},
|
533
|
+
"gpt-3.5-turbo-0125": {
|
534
|
+
"description": "GPT 3.5 توربو، مناسب برای انواع وظایف تولید و درک متن، در حال حاضر به gpt-3.5-turbo-0125 اشاره میکند"
|
535
|
+
},
|
536
|
+
"gpt-3.5-turbo-1106": {
|
537
|
+
"description": "GPT 3.5 توربو، مناسب برای انواع وظایف تولید و درک متن، در حال حاضر به gpt-3.5-turbo-0125 اشاره میکند"
|
538
|
+
},
|
539
|
+
"gpt-3.5-turbo-instruct": {
|
540
|
+
"description": "GPT 3.5 توربو، مناسب برای انواع وظایف تولید و درک متن، در حال حاضر به gpt-3.5-turbo-0125 اشاره میکند"
|
541
|
+
},
|
542
|
+
"gpt-4": {
|
543
|
+
"description": "GPT-4 یک پنجره متنی بزرگتر ارائه میدهد که قادر به پردازش ورودیهای متنی طولانیتر است و برای سناریوهایی که نیاز به ادغام گسترده اطلاعات و تحلیل دادهها دارند، مناسب است."
|
544
|
+
},
|
545
|
+
"gpt-4-0125-preview": {
|
546
|
+
"description": "جدیدترین مدل GPT-4 Turbo دارای قابلیتهای بصری است. اکنون درخواستهای بصری میتوانند از حالت JSON و فراخوانی توابع استفاده کنند. GPT-4 Turbo یک نسخه بهبود یافته است که پشتیبانی مقرونبهصرفهای برای وظایف چندوجهی ارائه میدهد. این مدل بین دقت و کارایی تعادل برقرار میکند و برای سناریوهای کاربردی که نیاز به تعاملات بلادرنگ دارند، مناسب است."
|
547
|
+
},
|
548
|
+
"gpt-4-0613": {
|
549
|
+
"description": "GPT-4 یک پنجره متنی بزرگتر ارائه میدهد که قادر به پردازش ورودیهای متنی طولانیتر است و برای سناریوهایی که نیاز به ادغام گسترده اطلاعات و تحلیل دادهها دارند، مناسب است."
|
550
|
+
},
|
551
|
+
"gpt-4-1106-preview": {
|
552
|
+
"description": "جدیدترین مدل GPT-4 Turbo دارای قابلیتهای بصری است. اکنون درخواستهای بصری میتوانند از حالت JSON و فراخوانی توابع استفاده کنند. GPT-4 Turbo یک نسخه بهبود یافته است که پشتیبانی مقرونبهصرفهای برای وظایف چندوجهی ارائه میدهد. این مدل بین دقت و کارایی تعادل برقرار میکند و برای سناریوهای کاربردی که نیاز به تعاملات بلادرنگ دارند، مناسب است."
|
553
|
+
},
|
554
|
+
"gpt-4-1106-vision-preview": {
|
555
|
+
"description": "جدیدترین مدل GPT-4 Turbo دارای قابلیتهای بصری است. اکنون درخواستهای بصری میتوانند از حالت JSON و فراخوانی توابع استفاده کنند. GPT-4 Turbo یک نسخه بهبود یافته است که پشتیبانی مقرونبهصرفهای برای وظایف چندوجهی ارائه میدهد. این مدل بین دقت و کارایی تعادل برقرار میکند و برای سناریوهای کاربردی که نیاز به تعاملات بلادرنگ دارند، مناسب است."
|
556
|
+
},
|
557
|
+
"gpt-4-32k": {
|
558
|
+
"description": "GPT-4 یک پنجره متنی بزرگتر ارائه میدهد که قادر به پردازش ورودیهای متنی طولانیتر است و برای سناریوهایی که نیاز به ادغام گسترده اطلاعات و تحلیل دادهها دارند، مناسب است."
|
559
|
+
},
|
560
|
+
"gpt-4-32k-0613": {
|
561
|
+
"description": "GPT-4 یک پنجره متنی بزرگتر ارائه میدهد که قادر به پردازش ورودیهای متنی طولانیتر است و برای سناریوهایی که نیاز به ادغام گسترده اطلاعات و تحلیل دادهها دارند، مناسب است."
|
562
|
+
},
|
563
|
+
"gpt-4-turbo": {
|
564
|
+
"description": "جدیدترین مدل GPT-4 Turbo دارای قابلیتهای بصری است. اکنون درخواستهای بصری میتوانند از حالت JSON و فراخوانی توابع استفاده کنند. GPT-4 Turbo نسخهای بهبود یافته است که پشتیبانی مقرونبهصرفهای برای وظایف چندوجهی ارائه میدهد. این مدل بین دقت و کارایی تعادل برقرار میکند و برای سناریوهای کاربردی که نیاز به تعاملات بلادرنگ دارند، مناسب است."
|
565
|
+
},
|
566
|
+
"gpt-4-turbo-2024-04-09": {
|
567
|
+
"description": "جدیدترین مدل GPT-4 Turbo دارای قابلیتهای بصری است. اکنون درخواستهای بصری میتوانند از حالت JSON و فراخوانی توابع استفاده کنند. GPT-4 Turbo نسخهای بهبود یافته است که پشتیبانی مقرونبهصرفهای برای وظایف چندوجهی ارائه میدهد. این مدل تعادلی بین دقت و کارایی برقرار میکند و برای سناریوهای کاربردی که نیاز به تعاملات بلادرنگ دارند، مناسب است."
|
568
|
+
},
|
569
|
+
"gpt-4-turbo-preview": {
|
570
|
+
"description": "جدیدترین مدل GPT-4 Turbo دارای قابلیتهای بصری است. اکنون درخواستهای بصری میتوانند از حالت JSON و فراخوانی توابع استفاده کنند. GPT-4 Turbo یک نسخه بهبود یافته است که پشتیبانی مقرونبهصرفهای برای وظایف چندرسانهای ارائه میدهد. این مدل بین دقت و کارایی تعادل برقرار میکند و برای سناریوهای کاربردی که نیاز به تعاملات بلادرنگ دارند، مناسب است."
|
571
|
+
},
|
572
|
+
"gpt-4-vision-preview": {
|
573
|
+
"description": "جدیدترین مدل GPT-4 Turbo دارای قابلیتهای بصری است. اکنون درخواستهای بصری میتوانند از حالت JSON و فراخوانی توابع استفاده کنند. GPT-4 Turbo نسخهای پیشرفته است که پشتیبانی مقرونبهصرفهای برای وظایف چندوجهی ارائه میدهد. این مدل بین دقت و کارایی تعادل برقرار میکند و برای سناریوهای کاربردی که نیاز به تعاملات بلادرنگ دارند، مناسب است."
|
574
|
+
},
|
575
|
+
"gpt-4o": {
|
576
|
+
"description": "پیشرفتهترین مدل چندوجهی در سری GPT-4 OpenAI که میتواند ورودیهای متنی و تصویری را پردازش کند."
|
577
|
+
},
|
578
|
+
"gpt-4o-2024-05-13": {
|
579
|
+
"description": "ChatGPT-4o یک مدل پویا است که بهصورت زنده بهروزرسانی میشود تا همیشه نسخهی جدید و بهروز باشد. این مدل ترکیبی از تواناییهای قوی در درک و تولید زبان است و برای کاربردهای گسترده مانند خدمات مشتری، آموزش و پشتیبانی فنی مناسب است."
|
580
|
+
},
|
581
|
+
"gpt-4o-2024-08-06": {
|
582
|
+
"description": "ChatGPT-4o یک مدل پویا است که بهصورت لحظهای بهروزرسانی میشود تا همیشه نسخهی جدید و بهروز باشد. این مدل ترکیبی از تواناییهای قوی در درک و تولید زبان است و برای کاربردهای گسترده مانند خدمات مشتری، آموزش و پشتیبانی فنی مناسب است."
|
583
|
+
},
|
584
|
+
"gpt-4o-mini": {
|
585
|
+
"description": "یک راهحل هوش مصنوعی مقرونبهصرفه که برای انواع وظایف متنی و تصویری مناسب است."
|
586
|
+
},
|
587
|
+
"gryphe/mythomax-l2-13b": {
|
588
|
+
"description": "MythoMax l2 13B یک مدل زبانی است که خلاقیت و هوش را با ترکیب چندین مدل برتر به هم پیوند میدهد."
|
589
|
+
},
|
590
|
+
"hunyuan-code": {
|
591
|
+
"description": "مدل تولید کد جدید Hunyuan، که با استفاده از 200 میلیارد داده کد با کیفیت بالا آموزش داده شده است. این مدل پایه پس از شش ماه آموزش با دادههای SFT با کیفیت بالا بهروزرسانی شده است. طول پنجره متن به ۸ هزار کاراکتر افزایش یافته و در شاخصهای ارزیابی خودکار تولید کد در پنج زبان اصلی در رتبههای برتر قرار دارد. در ارزیابیهای دستی با کیفیت بالا برای ۱۰ معیار مختلف در پنج زبان اصلی، عملکرد این مدل در رده اول قرار دارد."
|
592
|
+
},
|
593
|
+
"hunyuan-functioncall": {
|
594
|
+
"description": "مدل FunctionCall با معماری MOE جدید Hunyuan، آموزشدیده با دادههای باکیفیت FunctionCall، با پنجره متنی تا 32K و پیشرو در چندین شاخص ارزیابی."
|
595
|
+
},
|
596
|
+
"hunyuan-lite": {
|
597
|
+
"description": "به ساختار MOE ارتقا یافته است، پنجره متنی 256k دارد و در چندین مجموعه ارزیابی در زمینههای NLP، کد، ریاضیات و صنایع از بسیاری از مدلهای متنباز پیشی گرفته است."
|
598
|
+
},
|
599
|
+
"hunyuan-pro": {
|
600
|
+
"description": "مدل MOE-32K با مقیاس پارامتر تریلیونها. در انواع بنچمارکها به سطح پیشرو مطلق دست یافته است، توانایی پردازش دستورالعملها و استدلالهای پیچیده، دارای قابلیتهای ریاضی پیچیده، پشتیبانی از functioncall، و بهطور ویژه در حوزههای ترجمه چندزبانه، مالی، حقوقی و پزشکی بهینهسازی شده است."
|
601
|
+
},
|
602
|
+
"hunyuan-role": {
|
603
|
+
"description": "جدیدترین مدل نقشآفرینی HunYuan، مدل نقشآفرینی بهدقت تنظیمشده توسط تیم رسمی HunYuan، که بر اساس مدل HunYuan و با استفاده از مجموعه دادههای صحنههای نقشآفرینی آموزش بیشتری دیده است و در صحنههای نقشآفرینی عملکرد بهتری دارد."
|
604
|
+
},
|
605
|
+
"hunyuan-standard": {
|
606
|
+
"description": "استفاده از استراتژی مسیریابی بهینهتر، در حالی که مشکلات توازن بار و همگرایی متخصصان را کاهش میدهد. در زمینه متون طولانی، شاخص «یافتن سوزن در انبار کاه» به ۹۹.۹٪ میرسد. MOE-32K از نظر هزینه و عملکرد نسبتاً بهینهتر است و در عین حال که تعادل بین اثر و قیمت را حفظ میکند، میتواند پردازش ورودیهای متون طولانی را نیز انجام دهد."
|
607
|
+
},
|
608
|
+
"hunyuan-standard-256K": {
|
609
|
+
"description": "با استفاده از استراتژی مسیریابی بهینهتر، در عین حال مشکلات توازن بار و همگرایی کارشناسان را کاهش داده است. در زمینه متون طولانی، شاخص «یافتن سوزن در انبار کاه» به ۹۹.۹٪ رسیده است. MOE-256K در طول و عملکرد پیشرفت بیشتری داشته و به طور قابل توجهی طول ورودی قابل قبول را گسترش داده است."
|
610
|
+
},
|
611
|
+
"hunyuan-turbo": {
|
612
|
+
"description": "نسخه پیشنمایش مدل زبان بزرگ نسل جدید HunYuan که از ساختار مدل متخصص ترکیبی (MoE) جدید استفاده میکند. در مقایسه با hunyuan-pro، کارایی استنتاج سریعتر و عملکرد بهتری دارد."
|
613
|
+
},
|
614
|
+
"hunyuan-vision": {
|
615
|
+
"description": "جدیدترین مدل چندوجهی هونیوان، پشتیبانی از ورودی تصویر + متن برای تولید محتوای متنی."
|
616
|
+
},
|
617
|
+
"internlm/internlm2_5-20b-chat": {
|
618
|
+
"description": "مدل نوآورانه و متنباز InternLM2.5، با استفاده از پارامترهای بزرگ مقیاس، هوش مکالمه را بهبود بخشیده است."
|
619
|
+
},
|
620
|
+
"internlm/internlm2_5-7b-chat": {
|
621
|
+
"description": "InternLM2.5 راهحلهای گفتگوی هوشمند در چندین سناریو ارائه میدهد."
|
622
|
+
},
|
623
|
+
"jamba-1.5-large": {},
|
624
|
+
"jamba-1.5-mini": {},
|
625
|
+
"lite": {
|
626
|
+
"description": "Spark Lite یک مدل زبان بزرگ سبک است که دارای تأخیر بسیار کم و توانایی پردازش کارآمد میباشد. بهطور کامل رایگان و باز است و از قابلیت جستجوی آنلاین در زمان واقعی پشتیبانی میکند. ویژگی پاسخدهی سریع آن باعث میشود که در کاربردهای استنتاجی و تنظیم مدل در دستگاههای با توان محاسباتی پایین عملکرد برجستهای داشته باشد و تجربهای هوشمند و مقرونبهصرفه برای کاربران فراهم کند. بهویژه در زمینههای پرسش و پاسخ دانش، تولید محتوا و جستجو عملکرد خوبی دارد."
|
627
|
+
},
|
628
|
+
"llama-3.1-70b-instruct": {
|
629
|
+
"description": "مدل Llama 3.1 70B Instruct با 70 میلیارد پارامتر، قادر به ارائه عملکرد برجسته در تولید متنهای بزرگ و انجام وظایف دستوری است."
|
630
|
+
},
|
631
|
+
"llama-3.1-70b-versatile": {
|
632
|
+
"description": "لاما 3.1 70B توانایی استدلال هوش مصنوعی قویتری را ارائه میدهد، مناسب برای برنامههای پیچیده، پشتیبانی از پردازشهای محاسباتی فراوان و تضمین کارایی و دقت بالا."
|
633
|
+
},
|
634
|
+
"llama-3.1-8b-instant": {
|
635
|
+
"description": "Llama 3.1 8B یک مدل با کارایی بالا است که توانایی تولید سریع متن را فراهم میکند و برای کاربردهایی که به بهرهوری و صرفهجویی در هزینه در مقیاس بزرگ نیاز دارند، بسیار مناسب است."
|
636
|
+
},
|
637
|
+
"llama-3.1-8b-instruct": {
|
638
|
+
"description": "مدل Llama 3.1 8B Instruct با 8 میلیارد پارامتر، قابلیت اجرای کارهای مبتنی بر دستورات تصویری را بهطور مؤثر دارد و توانایی تولید متن با کیفیت بالا را ارائه میدهد."
|
639
|
+
},
|
640
|
+
"llama-3.1-sonar-huge-128k-online": {
|
641
|
+
"description": "مدل Llama 3.1 Sonar Huge Online با 405 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، طراحی شده برای برنامههای چت آنلاین پیچیده."
|
642
|
+
},
|
643
|
+
"llama-3.1-sonar-large-128k-chat": {
|
644
|
+
"description": "مدل Llama 3.1 Sonar Large Chat با 70 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، مناسب برای وظایف پیچیده چت آفلاین."
|
645
|
+
},
|
646
|
+
"llama-3.1-sonar-large-128k-online": {
|
647
|
+
"description": "مدل Llama 3.1 Sonar Large Online با 70 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، مناسب برای وظایف چت با حجم بالا و متنوع."
|
648
|
+
},
|
649
|
+
"llama-3.1-sonar-small-128k-chat": {
|
650
|
+
"description": "مدل Llama 3.1 Sonar Small Chat با 8 میلیارد پارامتر، بهطور خاص برای چت آفلاین طراحی شده و از طول زمینهای حدود 127,000 نشانه پشتیبانی میکند."
|
651
|
+
},
|
652
|
+
"llama-3.1-sonar-small-128k-online": {
|
653
|
+
"description": "مدل Llama 3.1 Sonar Small Online با 8 میلیارد پارامتر، پشتیبانی از طول زمینهای حدود 127,000 نشانه، بهطور ویژه برای چت آنلاین طراحی شده و میتواند بهطور کارآمد انواع تعاملات متنی را پردازش کند."
|
654
|
+
},
|
655
|
+
"llama-3.2-11b-vision-instruct": {
|
656
|
+
"description": "توانایی استدلال تصویری عالی در تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری."
|
657
|
+
},
|
658
|
+
"llama-3.2-11b-vision-preview": {
|
659
|
+
"description": "لاما 3.2 برای انجام وظایفی که شامل دادههای بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر میکند."
|
660
|
+
},
|
661
|
+
"llama-3.2-90b-vision-instruct": {
|
662
|
+
"description": "قابلیتهای پیشرفته استدلال تصویری برای برنامههای نماینده درک بصری."
|
663
|
+
},
|
664
|
+
"llama-3.2-90b-vision-preview": {
|
665
|
+
"description": "لاما 3.2 برای انجام وظایفی که ترکیبی از دادههای بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصاویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر میکند."
|
666
|
+
},
|
667
|
+
"llama3-70b-8192": {
|
668
|
+
"description": "متا لاما ۳ ۷۰B توانایی پردازش پیچیدگی بینظیری را ارائه میدهد و برای پروژههای با نیازهای بالا طراحی شده است."
|
669
|
+
},
|
670
|
+
"llama3-8b-8192": {
|
671
|
+
"description": "متا لاما ۳ ۸B عملکرد استدلالی با کیفیت بالا را ارائه میدهد و برای نیازهای کاربردی در چندین سناریو مناسب است."
|
672
|
+
},
|
673
|
+
"llama3-groq-70b-8192-tool-use-preview": {
|
674
|
+
"description": "Llama 3 Groq 70B Tool Use قابلیت فراخوانی ابزارهای قدرتمند را فراهم میکند و از پردازش کارهای پیچیده بهصورت کارآمد پشتیبانی میکند."
|
675
|
+
},
|
676
|
+
"llama3-groq-8b-8192-tool-use-preview": {
|
677
|
+
"description": "لاما 3 Groq 8B Tool Use مدلی است که برای استفاده بهینه از ابزارها طراحی شده و از محاسبات سریع و موازی پشتیبانی میکند."
|
678
|
+
},
|
679
|
+
"llama3.1": {
|
680
|
+
"description": "Llama 3.1 مدل پیشرو ارائه شده توسط Meta است که از حداکثر 405 میلیارد پارامتر پشتیبانی میکند و میتواند در زمینههای مکالمات پیچیده، ترجمه چندزبانه و تحلیل دادهها به کار گرفته شود."
|
681
|
+
},
|
682
|
+
"llama3.1:405b": {
|
683
|
+
"description": "Llama 3.1 مدل پیشرو ارائه شده توسط Meta است که از 405 میلیارد پارامتر پشتیبانی میکند و میتواند در زمینههای مکالمات پیچیده، ترجمه چندزبانه و تحلیل دادهها به کار گرفته شود."
|
684
|
+
},
|
685
|
+
"llama3.1:70b": {
|
686
|
+
"description": "لاما 3.1 مدل پیشرو ارائه شده توسط متا است که از حداکثر 405 میلیارد پارامتر پشتیبانی میکند و میتواند در زمینههای مکالمات پیچیده، ترجمه چندزبانه و تحلیل دادهها به کار گرفته شود."
|
687
|
+
},
|
688
|
+
"llava": {
|
689
|
+
"description": "LLaVA یک مدل چندوجهی است که رمزگذار بصری و Vicuna را برای درک قدرتمند زبان و تصویر ترکیب میکند."
|
690
|
+
},
|
691
|
+
"llava-v1.5-7b-4096-preview": {
|
692
|
+
"description": "LLaVA 1.5 7B قابلیت پردازش بصری را با هم ترکیب میکند و از طریق ورودی اطلاعات بصری خروجیهای پیچیده تولید میکند."
|
693
|
+
},
|
694
|
+
"llava:13b": {
|
695
|
+
"description": "LLaVA یک مدل چندوجهی است که رمزگذار بصری و Vicuna را برای درک قدرتمند زبان و تصویر ترکیب میکند."
|
696
|
+
},
|
697
|
+
"llava:34b": {
|
698
|
+
"description": "LLaVA یک مدل چندوجهی است که رمزگذار بصری و Vicuna را برای درک قدرتمند زبان و تصویر ترکیب میکند."
|
699
|
+
},
|
700
|
+
"mathstral": {
|
701
|
+
"description": "MathΣtral بهطور ویژه برای تحقیقات علمی و استدلالهای ریاضی طراحی شده است و توانایی محاسباتی مؤثر و تفسیر نتایج را ارائه میدهد."
|
702
|
+
},
|
703
|
+
"max-32k": {
|
704
|
+
"description": "Spark Max 32K با قابلیت پردازش متن با زمینه بزرگتر، توانایی درک و استدلال منطقی قویتری دارد و از ورودی متنی تا 32K توکن پشتیبانی میکند. مناسب برای خواندن اسناد طولانی، پرسش و پاسخ با دانش خصوصی و موارد مشابه."
|
705
|
+
},
|
706
|
+
"meta-llama-3-70b-instruct": {
|
707
|
+
"description": "یک مدل قدرتمند با ۷۰ میلیارد پارامتر که در استدلال، کدنویسی و کاربردهای گسترده زبانی عملکرد برجستهای دارد."
|
708
|
+
},
|
709
|
+
"meta-llama-3-8b-instruct": {
|
710
|
+
"description": "یک مدل چندمنظوره با ۸ میلیارد پارامتر که برای وظایف مکالمه و تولید متن بهینهسازی شده است."
|
711
|
+
},
|
712
|
+
"meta-llama-3.1-405b-instruct": {
|
713
|
+
"description": "مدل متنی Llama 3.1 که برای تنظیم دستورات بهینهسازی شده و برای موارد استفاده مکالمه چندزبانه بهینه شده است. در بسیاری از مدلهای چت منبع باز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجستهای دارد."
|
714
|
+
},
|
715
|
+
"meta-llama-3.1-70b-instruct": {
|
716
|
+
"description": "مدل متنی Llama 3.1 با تنظیمات دستوری، بهینهسازی شده برای موارد استفاده در مکالمات چندزبانه، که در بسیاری از مدلهای چت منبع باز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجستهای دارد."
|
717
|
+
},
|
718
|
+
"meta-llama-3.1-8b-instruct": {
|
719
|
+
"description": "مدل متنی Llama 3.1 که برای تنظیم دستورالعملها بهینهسازی شده و برای موارد استفاده مکالمه چندزبانه بهینه شده است. در بسیاری از مدلهای چت منبع باز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجستهای دارد."
|
720
|
+
},
|
721
|
+
"meta-llama/Llama-2-13b-chat-hf": {
|
722
|
+
"description": "LLaMA-2 Chat (13B) تواناییهای پردازش زبان عالی و تجربه تعاملی بینظیری را ارائه میدهد."
|
723
|
+
},
|
724
|
+
"meta-llama/Llama-2-70b-hf": {
|
725
|
+
"description": "LLaMA-2 تواناییهای پردازش زبان عالی و تجربه تعاملی بینظیری را ارائه میدهد."
|
726
|
+
},
|
727
|
+
"meta-llama/Llama-3-70b-chat-hf": {
|
728
|
+
"description": "Llama 3 70B Instruct Reference یک مدل چت قدرتمند است که از نیازهای پیچیده مکالمه پشتیبانی میکند."
|
729
|
+
},
|
730
|
+
"meta-llama/Llama-3-8b-chat-hf": {
|
731
|
+
"description": "Llama 3 8B Instruct Reference پشتیبانی چندزبانه ارائه میدهد و شامل دانش گستردهای در زمینههای مختلف است."
|
732
|
+
},
|
733
|
+
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
|
734
|
+
"description": "LLaMA 3.2 برای انجام وظایفی که ترکیبی از دادههای بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر میکند."
|
735
|
+
},
|
736
|
+
"meta-llama/Llama-3.2-3B-Instruct-Turbo": {
|
737
|
+
"description": "LLaMA 3.2 برای انجام وظایفی که ترکیبی از دادههای بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر میکند."
|
738
|
+
},
|
739
|
+
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
|
740
|
+
"description": "LLaMA 3.2 برای انجام وظایفی که ترکیبی از دادههای بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر میکند."
|
741
|
+
},
|
742
|
+
"meta-llama/Llama-Vision-Free": {
|
743
|
+
"description": "LLaMA 3.2 برای انجام وظایفی که ترکیبی از دادههای بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر میکند."
|
744
|
+
},
|
745
|
+
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
746
|
+
"description": "Llama 3 70B Instruct Lite مناسب برای محیطهایی که به عملکرد بالا و تأخیر کم نیاز دارند."
|
747
|
+
},
|
748
|
+
"meta-llama/Meta-Llama-3-70B-Instruct-Turbo": {
|
749
|
+
"description": "Llama 3 70B Instruct Turbo تواناییهای برجستهای در درک و تولید زبان ارائه میدهد و برای سختترین وظایف محاسباتی مناسب است."
|
750
|
+
},
|
751
|
+
"meta-llama/Meta-Llama-3-8B-Instruct-Lite": {
|
752
|
+
"description": "Llama 3 8B Instruct Lite برای محیطهای با منابع محدود مناسب است و عملکرد متعادلی را ارائه میدهد."
|
753
|
+
},
|
754
|
+
"meta-llama/Meta-Llama-3-8B-Instruct-Turbo": {
|
755
|
+
"description": "Llama 3 8B Instruct Turbo یک مدل زبان بزرگ با کارایی بالا است که از طیف گستردهای از کاربردها پشتیبانی میکند."
|
756
|
+
},
|
757
|
+
"meta-llama/Meta-Llama-3.1-405B-Instruct": {
|
758
|
+
"description": "مدل LLaMA 3.1 405B که برای تنظیمات دستوری بهینهسازی شده است، برای سناریوهای مکالمه چندزبانه بهینه شده است."
|
759
|
+
},
|
760
|
+
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
|
761
|
+
"description": "مدل Llama 3.1 Turbo با ظرفیت 405B، پشتیبانی از زمینههای بسیار بزرگ برای پردازش دادههای عظیم را فراهم میکند و در کاربردهای هوش مصنوعی در مقیاس بسیار بزرگ عملکرد برجستهای دارد."
|
762
|
+
},
|
763
|
+
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
|
764
|
+
"description": "LLaMA 3.1 70B پشتیبانی کارآمد از مکالمات چندزبانه را ارائه میدهد."
|
765
|
+
},
|
766
|
+
"meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": {
|
767
|
+
"description": "مدل Llama 3.1 70B بهطور دقیق تنظیم شده است و برای برنامههای با بار سنگین مناسب است. با کمیتسازی به FP8، توان محاسباتی و دقت بیشتری ارائه میدهد و عملکرد برتری را در سناریوهای پیچیده تضمین میکند."
|
768
|
+
},
|
769
|
+
"meta-llama/Meta-Llama-3.1-8B-Instruct": {
|
770
|
+
"description": "LLaMA 3.1 پشتیبانی چندزبانه ارائه میدهد و یکی از مدلهای پیشرو در صنعت تولید محتوا است."
|
771
|
+
},
|
772
|
+
"meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": {
|
773
|
+
"description": "مدل Llama 3.1 8B از کوانتیزاسیون FP8 استفاده میکند و از حداکثر 131,072 توکن متنی پشتیبانی میکند. این مدل یکی از بهترینها در میان مدلهای متنباز است و برای وظایف پیچیده مناسب بوده و در بسیاری از معیارهای صنعتی عملکرد برتری دارد."
|
774
|
+
},
|
775
|
+
"meta-llama/llama-3-70b-instruct": {
|
776
|
+
"description": "Llama 3 70B Instruct برای بهینهسازی در سناریوهای مکالمه با کیفیت بالا طراحی شده و در ارزیابیهای مختلف انسانی عملکرد برجستهای دارد."
|
777
|
+
},
|
778
|
+
"meta-llama/llama-3-8b-instruct": {
|
779
|
+
"description": "Llama 3 8B Instruct برای بهینهسازی سناریوهای مکالمه با کیفیت بالا طراحی شده و عملکردی بهتر از بسیاری از مدلهای بسته دارد."
|
780
|
+
},
|
781
|
+
"meta-llama/llama-3.1-405b-instruct": {
|
782
|
+
"description": "Llama 3.1 405B Instruct نسخه جدیدی است که توسط Meta ارائه شده و برای تولید مکالمات با کیفیت بالا بهینهسازی شده است و از بسیاری از مدلهای بسته پیشرو پیشی گرفته است."
|
783
|
+
},
|
784
|
+
"meta-llama/llama-3.1-70b-instruct": {
|
785
|
+
"description": "Llama 3.1 70B Instruct بهطور ویژه برای مکالمات با کیفیت بالا طراحی شده است و در ارزیابیهای انسانی عملکرد برجستهای دارد. این مدل بهویژه برای سناریوهای تعامل بالا مناسب است."
|
786
|
+
},
|
787
|
+
"meta-llama/llama-3.1-8b-instruct": {
|
788
|
+
"description": "Llama 3.1 8B Instruct جدیدترین نسخه ارائه شده توسط Meta است که برای بهینهسازی سناریوهای مکالمه با کیفیت بالا طراحی شده و عملکرد بهتری نسبت به بسیاری از مدلهای بسته پیشرو دارد."
|
789
|
+
},
|
790
|
+
"meta-llama/llama-3.1-8b-instruct:free": {
|
791
|
+
"description": "LLaMA 3.1 پشتیبانی چندزبانه ارائه میدهد و یکی از مدلهای پیشرو در صنعت تولید محتوا است."
|
792
|
+
},
|
793
|
+
"meta-llama/llama-3.2-11b-vision-instruct": {
|
794
|
+
"description": "LLaMA 3.2 برای انجام وظایفی که ترکیبی از دادههای بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر میکند."
|
795
|
+
},
|
796
|
+
"meta-llama/llama-3.2-90b-vision-instruct": {
|
797
|
+
"description": "LLaMA 3.2 برای انجام وظایفی طراحی شده است که دادههای بصری و متنی را با هم ترکیب میکند. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر میکند."
|
798
|
+
},
|
799
|
+
"meta.llama3-1-405b-instruct-v1:0": {
|
800
|
+
"description": "Meta Llama 3.1 405B Instruct بزرگترین و قدرتمندترین مدل در میان مدلهای Llama 3.1 Instruct است. این یک مدل بسیار پیشرفته برای استدلال مکالمهای و تولید دادههای مصنوعی است و همچنین میتواند به عنوان پایهای برای پیشتمرین یا تنظیم دقیق مداوم در حوزههای خاص استفاده شود. Llama 3.1 مجموعهای از مدلهای زبان بزرگ چندزبانه (LLMs) است که از پیش آموزش دیده و برای دستورالعملها تنظیم شدهاند و شامل اندازههای 8B، 70B و 405B (ورودی/خروجی متنی) میباشد. مدلهای متنی تنظیمشده بر اساس دستورالعملهای Llama 3.1 (8B، 70B، 405B) بهطور خاص برای موارد استفاده مکالمه چندزبانه بهینهسازی شدهاند و در بسیاری از معیارهای استاندارد صنعتی از مدلهای چت منبع باز موجود پیشی گرفتهاند. Llama 3.1 برای استفادههای تجاری و تحقیقاتی در زبانهای مختلف طراحی شده است. مدلهای متنی تنظیمشده بر اساس دستورالعملها برای چتهای مشابه دستیار مناسب هستند، در حالی که مدلهای پیشآموزشدیده میتوانند برای انواع وظایف تولید زبان طبیعی سازگار شوند. مدلهای Llama 3.1 همچنین از خروجیهای خود برای بهبود سایر مدلها، از جمله تولید دادههای مصنوعی و پالایش، پشتیبانی میکنند. Llama 3.1 یک مدل زبان خودبازگشتی است که از معماری بهینهشده ترانسفورمر استفاده میکند. نسخههای تنظیمشده از تنظیم دقیق نظارتشده (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) برای تطابق با ترجیحات انسانی در مورد کمکرسانی و ایمنی استفاده میکنند."
|
801
|
+
},
|
802
|
+
"meta.llama3-1-70b-instruct-v1:0": {
|
803
|
+
"description": "نسخه بهروزرسانیشده Meta Llama 3.1 70B Instruct، شامل طول زمینه 128K توسعهیافته، چندزبانه بودن و بهبود توانایی استدلال. مدلهای زبان بزرگ چندزبانه (LLMs) ارائهشده توسط Llama 3.1 مجموعهای از مدلهای تولیدی پیشتمرینشده و تنظیمشده با دستورالعمل هستند که شامل اندازههای 8B، 70B و 405B (ورودی/خروجی متنی) میباشند. مدلهای متنی تنظیمشده با دستورالعمل Llama 3.1 (8B، 70B، 405B) بهطور خاص برای موارد استفاده مکالمه چندزبانه بهینهسازی شدهاند و در بسیاری از معیارهای استاندارد صنعتی از مدلهای چت منبعباز موجود پیشی گرفتهاند. Llama 3.1 برای استفادههای تجاری و تحقیقاتی در زبانهای مختلف طراحی شده است. مدلهای متنی تنظیمشده با دستورالعمل برای چتهای مشابه دستیار مناسب هستند، در حالی که مدلهای پیشتمرینشده میتوانند برای انواع وظایف تولید زبان طبیعی سازگار شوند. مدلهای Llama 3.1 همچنین از خروجیهای خود برای بهبود سایر مدلها، از جمله تولید دادههای مصنوعی و پالایش، پشتیبانی میکنند. Llama 3.1 یک مدل زبان خودبازگشتی است که از معماری بهینهشده ترانسفورمر استفاده میکند. نسخه تنظیمشده از تنظیم دقیق نظارتشده (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) برای همراستایی با ترجیحات انسانی در مورد کمکرسانی و ایمنی استفاده میکند."
|
804
|
+
},
|
805
|
+
"meta.llama3-1-8b-instruct-v1:0": {
|
806
|
+
"description": "نسخه بهروزرسانی شده Meta Llama 3.1 8B Instruct، شامل طول زمینه 128K توسعهیافته، چندزبانه بودن و بهبود توانایی استدلال. Llama 3.1 مدلهای زبانی بزرگ چندزبانه (LLMs) را ارائه میدهد که مجموعهای از مدلهای تولیدی پیشتمرینشده و تنظیمشده با دستورالعمل هستند و شامل اندازههای 8B، 70B و 405B (ورودی/خروجی متنی) میباشند. مدلهای متنی تنظیمشده با دستورالعمل Llama 3.1 (8B، 70B، 405B) بهطور خاص برای موارد استفاده مکالمه چندزبانه بهینهسازی شدهاند و در معیارهای صنعتی رایج از بسیاری از مدلهای چت متنباز موجود پیشی گرفتهاند. Llama 3.1 برای استفادههای تجاری و تحقیقاتی در زبانهای مختلف طراحی شده است. مدلهای متنی تنظیمشده با دستورالعمل برای چتهای مشابه دستیار مناسب هستند، در حالی که مدلهای پیشتمرینشده میتوانند برای انواع وظایف تولید زبان طبیعی سازگار شوند. مدلهای Llama 3.1 همچنین از خروجیهای خود برای بهبود سایر مدلها، از جمله تولید دادههای مصنوعی و پالایش، پشتیبانی میکنند. Llama 3.1 یک مدل زبانی خودبازگشتی است که از معماری بهینهشده ترانسفورمر استفاده میکند. نسخه تنظیمشده از تنظیم دقیق نظارتشده (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) برای همراستا شدن با ترجیحات انسانی در مورد کمکرسانی و ایمنی استفاده میکند."
|
807
|
+
},
|
808
|
+
"meta.llama3-70b-instruct-v1:0": {
|
809
|
+
"description": "Meta Llama 3 یک مدل زبان بزرگ (LLM) باز برای توسعهدهندگان، پژوهشگران و شرکتها است که به آنها کمک میکند تا ایدههای هوش مصنوعی تولیدی خود را بسازند، آزمایش کنند و بهطور مسئولانه گسترش دهند. بهعنوان بخشی از سیستم پایه نوآوری جامعه جهانی، این مدل برای تولید محتوا، هوش مصنوعی مکالمهای، درک زبان، تحقیق و توسعه و کاربردهای شرکتی بسیار مناسب است."
|
810
|
+
},
|
811
|
+
"meta.llama3-8b-instruct-v1:0": {
|
812
|
+
"description": "Meta Llama 3 یک مدل زبان بزرگ باز (LLM) است که برای توسعهدهندگان، پژوهشگران و شرکتها طراحی شده است تا به آنها در ساخت، آزمایش و گسترش مسئولانه ایدههای هوش مصنوعی مولد کمک کند. به عنوان بخشی از سیستم پایه نوآوری جامعه جهانی، این مدل برای دستگاههای با توان محاسباتی و منابع محدود، دستگاههای لبه و زمانهای آموزش سریعتر بسیار مناسب است."
|
813
|
+
},
|
814
|
+
"microsoft/wizardlm 2-7b": {
|
815
|
+
"description": "WizardLM 2 7B مدل جدید و سبک وزن AI مایکروسافت است که عملکرد آن نزدیک به 10 برابر مدلهای پیشرو متنباز موجود است."
|
816
|
+
},
|
817
|
+
"microsoft/wizardlm-2-8x22b": {
|
818
|
+
"description": "WizardLM-2 8x22B پیشرفتهترین مدل Wizard از مایکروسافت AI است که عملکردی بسیار رقابتی از خود نشان میدهد."
|
819
|
+
},
|
820
|
+
"minicpm-v": {
|
821
|
+
"description": "MiniCPM-V نسل جدید مدل چندوجهی است که توسط OpenBMB ارائه شده و دارای تواناییهای برجسته در تشخیص OCR و درک چندوجهی است و از طیف گستردهای از کاربردها پشتیبانی میکند."
|
822
|
+
},
|
823
|
+
"ministral-3b-latest": {
|
824
|
+
"description": "Ministral 3B مدل پیشرفته و برتر Mistral در سطح جهانی است."
|
825
|
+
},
|
826
|
+
"ministral-8b-latest": {
|
827
|
+
"description": "Ministral 8B یک مدل لبهای با صرفه اقتصادی بالا از Mistral است."
|
828
|
+
},
|
829
|
+
"mistral": {
|
830
|
+
"description": "Mistral یک مدل 7B است که توسط Mistral AI منتشر شده و برای نیازهای متنوع پردازش زبان مناسب است."
|
831
|
+
},
|
832
|
+
"mistral-large": {
|
833
|
+
"description": "Mixtral Large مدل پرچمدار Mistral است که توانایی تولید کد، ریاضیات و استدلال را ترکیب میکند و از پنجره متنی ۱۲۸k پشتیبانی میکند."
|
834
|
+
},
|
835
|
+
"mistral-large-latest": {
|
836
|
+
"description": "Mistral Large یک مدل بزرگ پرچمدار است که در انجام وظایف چندزبانه، استدلال پیچیده و تولید کد مهارت دارد و انتخابی ایدهآل برای کاربردهای سطح بالا است."
|
837
|
+
},
|
838
|
+
"mistral-nemo": {
|
839
|
+
"description": "Mistral Nemo توسط Mistral AI و NVIDIA بهطور مشترک عرضه شده است و یک مدل ۱۲ میلیاردی با کارایی بالا میباشد."
|
840
|
+
},
|
841
|
+
"mistral-small": {
|
842
|
+
"description": "Mistral Small میتواند برای هر وظیفهای که نیاز به کارایی بالا و تأخیر کم دارد، مبتنی بر زبان استفاده شود."
|
843
|
+
},
|
844
|
+
"mistral-small-latest": {
|
845
|
+
"description": "Mistral Small یک گزینه مقرونبهصرفه، سریع و قابلاعتماد است که برای موارد استفادهای مانند ترجمه، خلاصهسازی و تحلیل احساسات مناسب است."
|
846
|
+
},
|
847
|
+
"mistralai/Mistral-7B-Instruct-v0.1": {
|
848
|
+
"description": "Mistral (7B) Instruct به دلیل عملکرد بالا شناخته شده است و برای وظایف مختلف زبانی مناسب است."
|
849
|
+
},
|
850
|
+
"mistralai/Mistral-7B-Instruct-v0.2": {
|
851
|
+
"description": "مدل تنظیم دستور Mistral AI"
|
852
|
+
},
|
853
|
+
"mistralai/Mistral-7B-Instruct-v0.3": {
|
854
|
+
"description": "Mistral (7B) Instruct v0.3 توانایی محاسباتی بالا و درک زبان طبیعی را ارائه میدهد و برای کاربردهای گسترده مناسب است."
|
855
|
+
},
|
856
|
+
"mistralai/Mistral-7B-v0.1": {
|
857
|
+
"description": "Mistral 7B یک مدل فشرده اما با عملکرد بالا است که در پردازش دستهای و وظایف ساده مانند طبقهبندی و تولید متن مهارت دارد و دارای توانایی استدلال خوبی است."
|
858
|
+
},
|
859
|
+
"mistralai/Mixtral-8x22B-Instruct-v0.1": {
|
860
|
+
"description": "Mixtral-8x22B Instruct (141B) یک مدل زبان بسیار بزرگ است که از نیازهای پردازشی بسیار بالا پشتیبانی میکند."
|
861
|
+
},
|
862
|
+
"mistralai/Mixtral-8x7B-Instruct-v0.1": {
|
863
|
+
"description": "Mixtral-8x7B Instruct (46.7B) یک چارچوب محاسباتی با ظرفیت بالا ارائه میدهد که برای پردازش دادههای بزرگ مقیاس مناسب است."
|
864
|
+
},
|
865
|
+
"mistralai/Mixtral-8x7B-v0.1": {
|
866
|
+
"description": "Mixtral 8x7B یک مدل متخصص پراکنده است که با استفاده از پارامترهای متعدد سرعت استنتاج را افزایش میدهد و برای انجام وظایف چندزبانه و تولید کد مناسب است."
|
867
|
+
},
|
868
|
+
"mistralai/mistral-7b-instruct": {
|
869
|
+
"description": "Mistral 7B Instruct یک مدل استاندارد صنعتی با عملکرد بالا است که بهینهسازی سرعت و پشتیبانی از متن طولانی را ترکیب میکند."
|
870
|
+
},
|
871
|
+
"mistralai/mistral-nemo": {
|
872
|
+
"description": "Mistral Nemo یک مدل با 7.3 میلیارد پارامتر است که از برنامهنویسی با عملکرد بالا و پشتیبانی چندزبانه برخوردار است."
|
873
|
+
},
|
874
|
+
"mixtral": {
|
875
|
+
"description": "Mixtral مدل تخصصی Mistral AI است که دارای وزنهای متنباز بوده و در زمینه تولید کد و درک زبان پشتیبانی ارائه میدهد."
|
876
|
+
},
|
877
|
+
"mixtral-8x7b-32768": {
|
878
|
+
"description": "Mixtral 8x7B قابلیت محاسبات موازی با تحمل خطای بالا را ارائه میدهد و برای وظایف پیچیده مناسب است."
|
879
|
+
},
|
880
|
+
"mixtral:8x22b": {
|
881
|
+
"description": "Mixtral مدل تخصصی Mistral AI است که دارای وزنهای متنباز بوده و در تولید کد و درک زبان پشتیبانی ارائه میدهد."
|
882
|
+
},
|
883
|
+
"moonshot-v1-128k": {
|
884
|
+
"description": "Moonshot V1 128K یک مدل با قابلیت پردازش متن طولانی است که برای تولید متون بسیار طولانی مناسب است. این مدل میتواند تا 128,000 توکن را پردازش کند و برای کاربردهایی مانند پژوهش، علمی و تولید اسناد بزرگ بسیار مناسب است."
|
885
|
+
},
|
886
|
+
"moonshot-v1-32k": {
|
887
|
+
"description": "Moonshot V1 32K توانایی پردازش متن با طول متوسط را فراهم میکند و قادر به پردازش 32,768 توکن است. این مدل بهویژه برای تولید اسناد طولانی و مکالمات پیچیده مناسب است و در زمینههایی مانند تولید محتوا، ایجاد گزارش و سیستمهای مکالمه کاربرد دارد."
|
888
|
+
},
|
889
|
+
"moonshot-v1-8k": {
|
890
|
+
"description": "Moonshot V1 8K بهطور ویژه برای تولید متنهای کوتاه طراحی شده است و دارای عملکرد پردازشی کارآمدی است که میتواند ۸,۱۹۲ توکن را پردازش کند. این مدل برای مکالمات کوتاه، یادداشتبرداری سریع و تولید محتوای سریع بسیار مناسب است."
|
891
|
+
},
|
892
|
+
"nousresearch/hermes-2-pro-llama-3-8b": {
|
893
|
+
"description": "هرمس ۲ پرو لاما ۳ ۸B نسخه ارتقاء یافته Nous Hermes 2 است که شامل جدیدترین مجموعه دادههای توسعهیافته داخلی میباشد."
|
894
|
+
},
|
895
|
+
"nvidia/Llama-3.1-Nemotron-70B-Instruct": {
|
896
|
+
"description": "Llama 3.1 Nemotron 70B یک مدل زبان بزرگ است که توسط NVIDIA سفارشیسازی شده و هدف آن افزایش مفید بودن پاسخهای تولید شده توسط LLM به پرسشهای کاربران است."
|
897
|
+
},
|
898
|
+
"o1-mini": {
|
899
|
+
"description": "کوچکتر و سریعتر از o1-preview، با ۸۰٪ هزینه کمتر، و عملکرد خوب در تولید کد و عملیات با زمینههای کوچک."
|
900
|
+
},
|
901
|
+
"o1-preview": {
|
902
|
+
"description": "تمرکز بر استدلال پیشرفته و حل مسائل پیچیده، از جمله وظایف ریاضی و علمی. بسیار مناسب برای برنامههایی که نیاز به درک عمیق از زمینه و جریان کاری خودمختار دارند."
|
903
|
+
},
|
904
|
+
"open-codestral-mamba": {
|
905
|
+
"description": "Codestral Mamba یک مدل زبان Mamba 2 است که بر تولید کد تمرکز دارد و پشتیبانی قدرتمندی برای وظایف پیشرفته کدنویسی و استدلال ارائه میدهد."
|
906
|
+
},
|
907
|
+
"open-mistral-7b": {
|
908
|
+
"description": "Mistral 7B یک مدل فشرده اما با عملکرد بالا است که در پردازش دستهای و وظایف ساده مانند طبقهبندی و تولید متن مهارت دارد و دارای توانایی استدلال خوبی است."
|
909
|
+
},
|
910
|
+
"open-mistral-nemo": {
|
911
|
+
"description": "Mistral Nemo یک مدل 12 میلیاردی است که با همکاری Nvidia توسعه یافته و عملکرد عالی در استدلال و کدنویسی ارائه میدهد و به راحتی قابل ادغام و جایگزینی است."
|
912
|
+
},
|
913
|
+
"open-mixtral-8x22b": {
|
914
|
+
"description": "Mixtral 8x22B یک مدل تخصصی بزرگتر است که بر روی وظایف پیچیده تمرکز دارد و توانایی استدلال عالی و توان عملیاتی بالاتری را ارائه میدهد."
|
915
|
+
},
|
916
|
+
"open-mixtral-8x7b": {
|
917
|
+
"description": "Mixtral 8x7B یک مدل متخصص پراکنده است که با استفاده از پارامترهای متعدد سرعت استنتاج را افزایش میدهد و برای پردازش وظایف چندزبانه و تولید کد مناسب است."
|
918
|
+
},
|
919
|
+
"openai/gpt-4o": {
|
920
|
+
"description": "ChatGPT-4o یک مدل پویا است که بهصورت زنده بهروزرسانی میشود تا همیشه نسخهی جدید و بهروز باشد. این مدل ترکیبی از تواناییهای قدرتمند درک و تولید زبان را ارائه میدهد و برای کاربردهای گسترده مانند خدمات مشتری، آموزش و پشتیبانی فنی مناسب است."
|
921
|
+
},
|
922
|
+
"openai/gpt-4o-mini": {
|
923
|
+
"description": "GPT-4o mini جدیدترین مدل OpenAI است که پس از GPT-4 Omni عرضه شده و از ورودیهای تصویری و متنی پشتیبانی میکند و خروجی متنی ارائه میدهد. به عنوان پیشرفتهترین مدل کوچک آنها، این مدل بسیار ارزانتر از سایر مدلهای پیشرفته اخیر است و بیش از ۶۰٪ ارزانتر از GPT-3.5 Turbo میباشد. این مدل هوشمندی پیشرفته را حفظ کرده و در عین حال از نظر اقتصادی بسیار مقرون به صرفه است. GPT-4o mini در آزمون MMLU امتیاز ۸۲٪ را کسب کرده و در حال حاضر در ترجیحات چت بالاتر از GPT-4 رتبهبندی شده است."
|
924
|
+
},
|
925
|
+
"openai/o1-mini": {
|
926
|
+
"description": "o1-mini یک مدل استنتاج سریع و مقرونبهصرفه است که برای برنامهنویسی، ریاضیات و کاربردهای علمی طراحی شده است. این مدل دارای ۱۲۸ هزار بایت زمینه و تاریخ قطع دانش تا اکتبر ۲۰۲۳ میباشد."
|
927
|
+
},
|
928
|
+
"openai/o1-preview": {
|
929
|
+
"description": "o1 مدل جدید استنتاج OpenAI است که برای وظایف پیچیدهای که به دانش عمومی گسترده نیاز دارند، مناسب است. این مدل دارای 128K زمینه و تاریخ قطع دانش تا اکتبر 2023 است."
|
930
|
+
},
|
931
|
+
"openchat/openchat-7b": {
|
932
|
+
"description": "OpenChat 7B یک کتابخانه مدل زبان متنباز است که با استفاده از استراتژی «C-RLFT (تنظیم دقیق یادگیری تقویتی شرطی)» بهطور خاص تنظیم شده است."
|
933
|
+
},
|
934
|
+
"openrouter/auto": {
|
935
|
+
"description": "با توجه به طول متن، موضوع و پیچیدگی، درخواست شما به Llama 3 70B Instruct، Claude 3.5 Sonnet (تنظیم خودکار) یا GPT-4o ارسال خواهد شد."
|
936
|
+
},
|
937
|
+
"phi3": {
|
938
|
+
"description": "Phi-3 یک مدل سبک و باز از مایکروسافت است که برای یکپارچهسازی کارآمد و استدلال دانش در مقیاس بزرگ مناسب است."
|
939
|
+
},
|
940
|
+
"phi3:14b": {
|
941
|
+
"description": "Phi-3 یک مدل سبک و باز از مایکروسافت است که برای یکپارچهسازی کارآمد و استدلال دانش در مقیاس بزرگ طراحی شده است."
|
942
|
+
},
|
943
|
+
"pixtral-12b-2409": {
|
944
|
+
"description": "مدل Pixtral در وظایفی مانند نمودار و درک تصویر، پرسش و پاسخ اسناد، استدلال چندوجهی و پیروی از دستورات، تواناییهای قدرتمندی از خود نشان میدهد. این مدل قادر است تصاویر را با وضوح طبیعی و نسبت ابعاد دریافت کند و همچنین میتواند هر تعداد تصویری را در یک پنجره متنی طولانی تا ۱۲۸ هزار توکن پردازش کند."
|
945
|
+
},
|
946
|
+
"pro-128k": {
|
947
|
+
"description": "Spark Pro 128K با قابلیت پردازش متن بسیار بزرگ، قادر به پردازش تا 128K اطلاعات متنی است. این ویژگی بهویژه برای تحلیل کامل و پردازش ارتباطات منطقی طولانیمدت در محتوای متنی طولانی مناسب است و میتواند در ارتباطات متنی پیچیده، پشتیبانی از منطق روان و یکپارچه و ارجاعات متنوع را فراهم کند."
|
948
|
+
},
|
949
|
+
"qwen-coder-turbo-latest": {
|
950
|
+
"description": "مدل کدنویسی تونگی چیانون."
|
951
|
+
},
|
952
|
+
"qwen-long": {
|
953
|
+
"description": "مدل زبانی بسیار بزرگ Tongyi Qianwen که از متنهای طولانی و همچنین قابلیت مکالمه در چندین سناریو مانند اسناد طولانی و چندین سند پشتیبانی میکند."
|
954
|
+
},
|
955
|
+
"qwen-math-plus-latest": {
|
956
|
+
"description": "مدل ریاضی Qwen یک مدل زبانی است که به طور خاص برای حل مسائل ریاضی طراحی شده است."
|
957
|
+
},
|
958
|
+
"qwen-math-turbo-latest": {
|
959
|
+
"description": "مدل ریاضی Qwen Math Turbo یک مدل زبانی است که به طور خاص برای حل مسائل ریاضی طراحی شده است."
|
960
|
+
},
|
961
|
+
"qwen-max-latest": {
|
962
|
+
"description": "مدل زبانی بسیار بزرگ با مقیاس میلیاردی تونگی چیانون، که از ورودیهای زبانهای مختلف مانند چینی، انگلیسی و غیره پشتیبانی میکند. مدل API پشت نسخه محصول تونگی چیانون 2.5 فعلی."
|
963
|
+
},
|
964
|
+
"qwen-plus-latest": {
|
965
|
+
"description": "نسخه تقویتشده مدل زبانی بسیار بزرگ Tongyi Qianwen، پشتیبانی از ورودی به زبانهای چینی، انگلیسی و سایر زبانها."
|
966
|
+
},
|
967
|
+
"qwen-turbo-latest": {
|
968
|
+
"description": "مدل زبانی بسیار بزرگ Tongyi Qianwen که از ورودیهای زبانهای مختلف مانند چینی، انگلیسی و غیره پشتیبانی میکند."
|
969
|
+
},
|
970
|
+
"qwen-vl-chat-v1": {
|
971
|
+
"description": "مدل Qwen-VL از روشهای تعاملی انعطافپذیر پشتیبانی میکند، از جمله قابلیتهای چندتصویری، پرسش و پاسخ چندمرحلهای و خلاقیت."
|
972
|
+
},
|
973
|
+
"qwen-vl-max-latest": {
|
974
|
+
"description": "مدل زبان بصری فوقالعاده بزرگ Qwen-VL. در مقایسه با نسخه تقویتشده، توانایی استدلال بصری و پیروی از دستورات را دوباره بهبود میبخشد و سطح بالاتری از ادراک و شناخت بصری را ارائه میدهد."
|
975
|
+
},
|
976
|
+
"qwen-vl-plus-latest": {
|
977
|
+
"description": "نسخه تقویتشده مدل زبان تصویری بزرگ تونگی چیانون. بهبود قابل توجه در توانایی تشخیص جزئیات و شناسایی متن، پشتیبانی از وضوح بیش از یک میلیون پیکسل و تصاویر با هر نسبت طول به عرض."
|
978
|
+
},
|
979
|
+
"qwen-vl-v1": {
|
980
|
+
"description": "مدل زبان Qwen-7B با اضافه کردن مدل تصویر و وضوح ورودی تصویر 448، به عنوان یک مدل پیشآموزششده، اولیهسازی شده است."
|
981
|
+
},
|
982
|
+
"qwen/qwen-2-7b-instruct:free": {
|
983
|
+
"description": "Qwen2 یک سری جدید از مدلهای زبان بزرگ است که دارای تواناییهای درک و تولید قویتری میباشد."
|
984
|
+
},
|
985
|
+
"qwen2": {
|
986
|
+
"description": "Qwen2 مدل زبان بزرگ نسل جدید علیبابا است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی میکند."
|
987
|
+
},
|
988
|
+
"qwen2.5-14b-instruct": {
|
989
|
+
"description": "مدل 14B مقیاس Qwen 2.5 که به صورت منبع باز ارائه شده است."
|
990
|
+
},
|
991
|
+
"qwen2.5-32b-instruct": {
|
992
|
+
"description": "مدل 32B مقیاس Qwen 2.5 که به صورت منبع باز ارائه شده است."
|
993
|
+
},
|
994
|
+
"qwen2.5-72b-instruct": {
|
995
|
+
"description": "مدل 72B مقیاس بازمتن Qwen 2.5 برای استفاده عمومی."
|
996
|
+
},
|
997
|
+
"qwen2.5-7b-instruct": {
|
998
|
+
"description": "مدل 7B متنباز Qwen 2.5 برای استفاده عمومی."
|
999
|
+
},
|
1000
|
+
"qwen2.5-coder-1.5b-instruct": {
|
1001
|
+
"description": "نسخه متنباز مدل کدنویسی Tongyi Qianwen."
|
1002
|
+
},
|
1003
|
+
"qwen2.5-coder-7b-instruct": {
|
1004
|
+
"description": "نسخه متنباز مدل کدنویسی تونگی چیانون."
|
1005
|
+
},
|
1006
|
+
"qwen2.5-math-1.5b-instruct": {
|
1007
|
+
"description": "مدل Qwen-Math دارای توانایی قوی در حل مسائل ریاضی است."
|
1008
|
+
},
|
1009
|
+
"qwen2.5-math-72b-instruct": {
|
1010
|
+
"description": "مدل Qwen-Math دارای توانایی قوی در حل مسائل ریاضی است."
|
1011
|
+
},
|
1012
|
+
"qwen2.5-math-7b-instruct": {
|
1013
|
+
"description": "مدل Qwen-Math دارای توانایی قوی در حل مسائل ریاضی است."
|
1014
|
+
},
|
1015
|
+
"qwen2:0.5b": {
|
1016
|
+
"description": "Qwen2 مدل زبان بزرگ نسل جدید علیبابا است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی میکند."
|
1017
|
+
},
|
1018
|
+
"qwen2:1.5b": {
|
1019
|
+
"description": "Qwen2 مدل زبان بزرگ نسل جدید علیبابا است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی میکند."
|
1020
|
+
},
|
1021
|
+
"qwen2:72b": {
|
1022
|
+
"description": "Qwen2 مدل زبان بزرگ نسل جدید علیبابا است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی میکند."
|
1023
|
+
},
|
1024
|
+
"solar-1-mini-chat": {
|
1025
|
+
"description": "Solar Mini یک مدل فشرده LLM است که عملکردی بهتر از GPT-3.5 دارد، دارای تواناییهای چندزبانه قوی است، از زبانهای انگلیسی و کرهای پشتیبانی میکند و یک راهحل کارآمد و کوچک ارائه میدهد."
|
1026
|
+
},
|
1027
|
+
"solar-1-mini-chat-ja": {
|
1028
|
+
"description": "Solar Mini (Ja) قابلیتهای Solar Mini را گسترش میدهد و بر زبان ژاپنی تمرکز دارد، در حالی که همچنان در استفاده از زبانهای انگلیسی و کرهای کارایی و عملکرد عالی خود را حفظ میکند."
|
1029
|
+
},
|
1030
|
+
"solar-pro": {
|
1031
|
+
"description": "Solar Pro یک مدل هوش مصنوعی پیشرفته از Upstage است که بر توانایی پیروی از دستورات با استفاده از یک GPU تمرکز دارد و امتیاز IFEval بالای 80 را کسب کرده است. در حال حاضر از زبان انگلیسی پشتیبانی میکند و نسخه رسمی آن برای نوامبر 2024 برنامهریزی شده است که پشتیبانی از زبانهای بیشتر و طول زمینه را گسترش خواهد داد."
|
1032
|
+
},
|
1033
|
+
"step-1-128k": {
|
1034
|
+
"description": "تعادل بین عملکرد و هزینه، مناسب برای سناریوهای عمومی."
|
1035
|
+
},
|
1036
|
+
"step-1-256k": {
|
1037
|
+
"description": "دارای توانایی پردازش متن طولانی، بهویژه مناسب برای تحلیل اسناد بلند."
|
1038
|
+
},
|
1039
|
+
"step-1-32k": {
|
1040
|
+
"description": "پشتیبانی از مکالمات با طول متوسط، مناسب برای انواع مختلف کاربردها."
|
1041
|
+
},
|
1042
|
+
"step-1-8k": {
|
1043
|
+
"description": "مدل کوچک، مناسب برای وظایف سبک."
|
1044
|
+
},
|
1045
|
+
"step-1-flash": {
|
1046
|
+
"description": "مدل پرسرعت، مناسب برای مکالمات در لحظه."
|
1047
|
+
},
|
1048
|
+
"step-1.5v-mini": {
|
1049
|
+
"description": "این مدل دارای تواناییهای قوی در درک ویدیو است."
|
1050
|
+
},
|
1051
|
+
"step-1v-32k": {
|
1052
|
+
"description": "پشتیبانی از ورودی بصری، تقویت تجربه تعامل چندحالته."
|
1053
|
+
},
|
1054
|
+
"step-1v-8k": {
|
1055
|
+
"description": "مدل بصری کوچک، مناسب برای وظایف پایهای تصویر و متن."
|
1056
|
+
},
|
1057
|
+
"step-2-16k": {
|
1058
|
+
"description": "پشتیبانی از تعاملات متنی گسترده، مناسب برای سناریوهای مکالمه پیچیده."
|
1059
|
+
},
|
1060
|
+
"taichu_llm": {
|
1061
|
+
"description": "Taichu 2.0 بر اساس حجم زیادی از دادههای با کیفیت بالا آموزش دیده است و دارای تواناییهای قویتری در درک متن، تولید محتوا، پرسش و پاسخ در مکالمه و غیره میباشد."
|
1062
|
+
},
|
1063
|
+
"togethercomputer/StripedHyena-Nous-7B": {
|
1064
|
+
"description": "StripedHyena Nous (7B) با استفاده از استراتژیها و معماری مدل کارآمد، توان محاسباتی بهبودیافتهای را ارائه میدهد."
|
1065
|
+
},
|
1066
|
+
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1067
|
+
"description": "Upstage SOLAR Instruct v1 (11B) مناسب برای وظایف دقیق دستوری، ارائهدهنده تواناییهای برجسته در پردازش زبان."
|
1068
|
+
},
|
1069
|
+
"wizardlm2": {
|
1070
|
+
"description": "WizardLM 2 یک مدل زبانی ارائه شده توسط هوش مصنوعی مایکروسافت است که در مکالمات پیچیده، چندزبانه، استدلال و دستیارهای هوشمند عملکرد برجستهای دارد."
|
1071
|
+
},
|
1072
|
+
"wizardlm2:8x22b": {
|
1073
|
+
"description": "WizardLM 2 یک مدل زبانی ارائه شده توسط مایکروسافت AI است که در زمینههای مکالمات پیچیده، چندزبانه، استدلال و دستیارهای هوشمند عملکرد برجستهای دارد."
|
1074
|
+
},
|
1075
|
+
"yi-large": {
|
1076
|
+
"description": "مدل جدید با میلیاردها پارامتر، ارائهدهنده تواناییهای فوقالعاده در پاسخگویی و تولید متن."
|
1077
|
+
},
|
1078
|
+
"yi-large-fc": {
|
1079
|
+
"description": "بر اساس مدل yi-large، قابلیت استفاده از ابزارها را پشتیبانی و تقویت کرده است و برای انواع سناریوهای کسبوکاری که نیاز به ساخت agent یا workflow دارند، مناسب است."
|
1080
|
+
},
|
1081
|
+
"yi-large-preview": {
|
1082
|
+
"description": "نسخه اولیه، توصیه میشود از yi-large (نسخه جدید) استفاده کنید."
|
1083
|
+
},
|
1084
|
+
"yi-large-rag": {
|
1085
|
+
"description": "خدمات پیشرفته مبتنی بر مدل فوقالعاده yi-large، که با ترکیب فناوریهای جستجو و تولید، پاسخهای دقیقی ارائه میدهد و خدمات جستجوی اطلاعات در سراسر وب به صورت لحظهای فراهم میکند."
|
1086
|
+
},
|
1087
|
+
"yi-large-turbo": {
|
1088
|
+
"description": "عملکرد عالی با صرفهجویی بالا. بهینهسازی دقت بالا با توجه به تعادل بین عملکرد، سرعت استنتاج و هزینه."
|
1089
|
+
},
|
1090
|
+
"yi-lightning": {
|
1091
|
+
"description": "جدیدترین مدل با عملکرد بالا که ضمن تضمین خروجی با کیفیت بالا، سرعت استنتاج را به طور قابل توجهی افزایش میدهد."
|
1092
|
+
},
|
1093
|
+
"yi-lightning-lite": {
|
1094
|
+
"description": "نسخه سبک، استفاده از yi-lightning توصیه میشود."
|
1095
|
+
},
|
1096
|
+
"yi-medium": {
|
1097
|
+
"description": "ارتقاء مدل با اندازه متوسط، با تواناییهای متعادل و مقرونبهصرفه. بهینهسازی عمیق در توانایی پیروی از دستورات."
|
1098
|
+
},
|
1099
|
+
"yi-medium-200k": {
|
1100
|
+
"description": "پنجره متنی بسیار طولانی ۲۰۰ هزار کلمهای، با قابلیت درک و تولید متون طولانی و پیچیده."
|
1101
|
+
},
|
1102
|
+
"yi-spark": {
|
1103
|
+
"description": "کوچک و قدرتمند، مدلی سبک و فوقالعاده سریع. قابلیتهای تقویتشده برای محاسبات ریاضی و نوشتن کد ارائه میدهد."
|
1104
|
+
},
|
1105
|
+
"yi-vision": {
|
1106
|
+
"description": "مدل وظایف پیچیده بینایی، ارائه دهنده قابلیتهای درک و تحلیل تصویر با عملکرد بالا."
|
1107
|
+
}
|
1108
|
+
}
|