@lobehub/chat 1.136.12 → 1.136.13
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/workflows/claude-translator.yml +13 -1
- package/CHANGELOG.md +34 -0
- package/changelog/v1.json +12 -0
- package/locales/ar/modelProvider.json +12 -0
- package/locales/ar/models.json +39 -24
- package/locales/bg-BG/modelProvider.json +12 -0
- package/locales/bg-BG/models.json +39 -24
- package/locales/de-DE/modelProvider.json +12 -0
- package/locales/de-DE/models.json +39 -24
- package/locales/en-US/modelProvider.json +12 -0
- package/locales/en-US/models.json +39 -24
- package/locales/es-ES/modelProvider.json +12 -0
- package/locales/es-ES/models.json +39 -24
- package/locales/fa-IR/modelProvider.json +12 -0
- package/locales/fa-IR/models.json +39 -24
- package/locales/fr-FR/modelProvider.json +12 -0
- package/locales/fr-FR/models.json +39 -24
- package/locales/it-IT/modelProvider.json +12 -0
- package/locales/it-IT/models.json +39 -24
- package/locales/ja-JP/modelProvider.json +12 -0
- package/locales/ja-JP/models.json +39 -24
- package/locales/ko-KR/modelProvider.json +12 -0
- package/locales/ko-KR/models.json +39 -24
- package/locales/nl-NL/modelProvider.json +12 -0
- package/locales/nl-NL/models.json +39 -24
- package/locales/pl-PL/modelProvider.json +12 -0
- package/locales/pl-PL/models.json +39 -24
- package/locales/pt-BR/modelProvider.json +12 -0
- package/locales/pt-BR/models.json +39 -24
- package/locales/ru-RU/modelProvider.json +12 -0
- package/locales/ru-RU/models.json +39 -24
- package/locales/tr-TR/modelProvider.json +12 -0
- package/locales/tr-TR/models.json +39 -24
- package/locales/vi-VN/modelProvider.json +12 -0
- package/locales/vi-VN/models.json +39 -24
- package/locales/zh-CN/modelProvider.json +12 -0
- package/locales/zh-CN/models.json +39 -24
- package/locales/zh-TW/modelProvider.json +12 -0
- package/locales/zh-TW/models.json +39 -24
- package/package.json +3 -3
- package/packages/const/src/settings/index.ts +1 -0
- package/packages/database/package.json +7 -5
- package/packages/electron-client-ipc/src/events/index.ts +2 -2
- package/packages/electron-client-ipc/src/events/{localFile.ts → localSystem.ts} +25 -6
- package/packages/electron-client-ipc/src/types/index.ts +1 -1
- package/packages/electron-client-ipc/src/types/{localFile.ts → localSystem.ts} +89 -4
- package/packages/file-loaders/package.json +1 -2
- package/packages/file-loaders/src/loadFile.ts +4 -1
- package/packages/file-loaders/src/loaders/doc/__snapshots__/index.test.ts.snap +46 -0
- package/packages/file-loaders/src/loaders/doc/index.test.ts +38 -0
- package/packages/file-loaders/src/loaders/doc/index.ts +57 -0
- package/packages/file-loaders/src/loaders/docx/index.ts +36 -45
- package/packages/file-loaders/src/loaders/index.ts +2 -0
- package/packages/file-loaders/src/types/word-extractor.d.ts +9 -0
- package/packages/file-loaders/src/types.ts +1 -1
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.test.ts +267 -38
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +45 -0
- package/packages/model-runtime/src/providerTestUtils.ts +0 -5
- package/packages/model-runtime/src/providers/anthropic/generateObject.test.ts +57 -44
- package/packages/model-runtime/src/providers/anthropic/generateObject.ts +28 -20
- package/packages/model-runtime/src/providers/deepseek/index.ts +5 -0
- package/packages/model-runtime/src/providers/openai/index.test.ts +0 -5
- package/packages/model-runtime/src/providers/openrouter/index.test.ts +3 -3
- package/packages/model-runtime/src/providers/openrouter/index.ts +32 -20
- package/packages/model-runtime/src/providers/openrouter/type.ts +25 -24
- package/packages/model-runtime/src/providers/zhipu/index.test.ts +0 -1
- package/packages/model-runtime/src/types/structureOutput.ts +13 -1
- package/packages/model-runtime/src/utils/handleOpenAIError.test.ts +0 -5
- package/packages/model-runtime/src/utils/handleOpenAIError.ts +2 -2
- package/packages/types/src/aiChat.ts +13 -1
- package/packages/types/src/index.ts +1 -0
- package/src/features/ChatInput/InputEditor/index.tsx +39 -26
- package/src/features/Conversation/Messages/Assistant/Tool/Render/LoadingPlaceholder/index.tsx +1 -1
- package/src/server/routers/lambda/agent.ts +2 -3
- package/src/server/routers/lambda/aiChat.ts +33 -1
- package/src/server/routers/lambda/chunk.ts +2 -2
- package/src/services/electron/file.ts +1 -2
- package/src/services/electron/localFileService.ts +40 -0
- package/src/tools/local-system/Placeholder/ListFiles.tsx +23 -0
- package/src/tools/local-system/Placeholder/ReadLocalFile.tsx +9 -0
- package/src/tools/local-system/Placeholder/SearchFiles.tsx +55 -0
- package/src/tools/local-system/Placeholder/index.tsx +25 -0
- package/src/tools/placeholders.ts +3 -0
|
@@ -284,11 +284,19 @@
|
|
|
284
284
|
"placeholder": "لطفاً شناسه مدل را وارد کنید، مانند gpt-4o یا claude-3.5-sonnet",
|
|
285
285
|
"title": "شناسه مدل"
|
|
286
286
|
},
|
|
287
|
+
"imageOutput": {
|
|
288
|
+
"extra": "این پیکربندی تنها قابلیت تولید تصویر توسط مدل را فعال میکند. نتیجه نهایی کاملاً به تواناییهای خود مدل بستگی دارد. لطفاً خودتان بررسی کنید که آیا این مدل توانایی تولید تصویر را دارد یا خیر.",
|
|
289
|
+
"title": "پشتیبانی از تولید تصویر"
|
|
290
|
+
},
|
|
287
291
|
"modalTitle": "پیکربندی مدل سفارشی",
|
|
288
292
|
"reasoning": {
|
|
289
293
|
"extra": "این تنظیم فقط قابلیت تفکر عمیق مدل را فعال میکند و تأثیر دقیق آن کاملاً به خود مدل بستگی دارد، لطفاً خودتان آزمایش کنید که آیا این مدل قابلیت تفکر عمیق قابل استفاده را دارد یا خیر",
|
|
290
294
|
"title": "پشتیبانی از تفکر عمیق"
|
|
291
295
|
},
|
|
296
|
+
"search": {
|
|
297
|
+
"extra": "این پیکربندی تنها قابلیت جستجوی آنلاین از طریق موتور جستجوی داخلی مدل را فعال میکند. پشتیبانی از موتور جستجوی داخلی به تواناییهای خود مدل بستگی دارد. لطفاً خودتان بررسی کنید که آیا این مدل از موتور جستجوی داخلی پشتیبانی میکند یا خیر.",
|
|
298
|
+
"title": "پشتیبانی از جستجوی آنلاین"
|
|
299
|
+
},
|
|
292
300
|
"tokens": {
|
|
293
301
|
"extra": "حداکثر تعداد توکنهای پشتیبانی شده توسط مدل را تنظیم کنید",
|
|
294
302
|
"title": "حداکثر پنجره زمینه",
|
|
@@ -309,6 +317,10 @@
|
|
|
309
317
|
"placeholder": "لطفاً نوع مدل را انتخاب کنید",
|
|
310
318
|
"title": "نوع مدل"
|
|
311
319
|
},
|
|
320
|
+
"video": {
|
|
321
|
+
"extra": "این پیکربندی تنها قابلیت شناسایی ویدیو در برنامه را فعال میکند. پشتیبانی از شناسایی ویدیو کاملاً به تواناییهای خود مدل بستگی دارد. لطفاً خودتان بررسی کنید که آیا این مدل توانایی شناسایی ویدیو را دارد یا خیر.",
|
|
322
|
+
"title": "پشتیبانی از شناسایی ویدیو"
|
|
323
|
+
},
|
|
312
324
|
"vision": {
|
|
313
325
|
"extra": "این پیکربندی تنها قابلیت بارگذاری تصویر در برنامه را فعال میکند، اینکه آیا شناسایی پشتیبانی میشود به خود مدل بستگی دارد، لطفاً قابلیت استفاده از شناسایی بصری این مدل را آزمایش کنید",
|
|
314
326
|
"title": "پشتیبانی از شناسایی بصری"
|
|
@@ -704,6 +704,9 @@
|
|
|
704
704
|
"azure-DeepSeek-R1-0528": {
|
|
705
705
|
"description": "ارائه شده توسط مایکروسافت؛ مدل DeepSeek R1 بهروزرسانیهای جزئی دریافت کرده است و نسخه فعلی آن DeepSeek-R1-0528 میباشد. در آخرین بهروزرسانی، DeepSeek R1 با افزایش منابع محاسباتی و معرفی مکانیزم بهینهسازی الگوریتم در مرحله پسآموزش، عمق استنتاج و توانایی پیشبینی را به طور قابل توجهی بهبود بخشیده است. این مدل در آزمونهای معیار مختلفی مانند ریاضیات، برنامهنویسی و منطق عمومی عملکرد برجستهای دارد و عملکرد کلی آن به مدلهای پیشرو مانند O3 و Gemini 2.5 Pro نزدیک شده است."
|
|
706
706
|
},
|
|
707
|
+
"baichuan-m2-32b": {
|
|
708
|
+
"description": "Baichuan M2 32B یک مدل متخصص ترکیبی است که توسط Baichuan Intelligence ارائه شده و دارای توانایی استدلالی قدرتمندی میباشد."
|
|
709
|
+
},
|
|
707
710
|
"baichuan/baichuan2-13b-chat": {
|
|
708
711
|
"description": "Baichuan-13B یک مدل زبان بزرگ متن باز و قابل تجاری با 130 میلیارد پارامتر است که در آزمونهای معتبر چینی و انگلیسی بهترین عملکرد را در اندازه مشابه به دست آورده است."
|
|
709
712
|
},
|
|
@@ -728,12 +731,6 @@
|
|
|
728
731
|
"charglm-4": {
|
|
729
732
|
"description": "CharGLM-4 بهطور خاص برای نقشآفرینی و همراهی عاطفی طراحی شده است و از حافظه چند دور طولانی و گفتگوی شخصیسازی شده پشتیبانی میکند و کاربردهای گستردهای دارد."
|
|
730
733
|
},
|
|
731
|
-
"chatglm3": {
|
|
732
|
-
"description": "ChatGLM3 یک مدل بستهشده است که توسط هوش مصنوعی Zhima و آزمایشگاه KEG دانشگاه Tsinghua منتشر شده است. این مدل با پیشآموزش بر روی مجموعهای وسیع از نمادهای چینی و انگلیسی و همچنین آموزش مطابق با ترجیحات انسانی، نسبت به نسل اول مدل، بهبودهای 16٪، 36٪ و 280٪ در MMLU، C-Eval و GSM8K به دست آورده است و در رتبهبندی وظایف چینی C-Eval رتبه اول را کسب کرده است. این مدل برای صحنههایی که نیاز به مقدار زیادی دانش، توانایی استدلال و خلاقیت دارند، مانند نوشتن متن تبلیغاتی، نویسندگی داستان، نوشتن محتوای دانشگاهی و تولید کد مناسب است."
|
|
733
|
-
},
|
|
734
|
-
"chatglm3-6b-base": {
|
|
735
|
-
"description": "ChatGLM3-6b-base یک مدل پایه منبع باز با مقیاس ۶ میلیارد پارامتر از نسل جدید سری ChatGLM است که توسط شرکت Zhizhu (智谱) توسعه یافته است."
|
|
736
|
-
},
|
|
737
734
|
"chatgpt-4o-latest": {
|
|
738
735
|
"description": "ChatGPT-4o یک مدل پویا است که بهصورت زنده بهروزرسانی میشود تا همیشه نسخهی جدید و بهروز باشد. این مدل ترکیبی از تواناییهای قوی در درک و تولید زبان است و برای کاربردهای گسترده مانند خدمات مشتری، آموزش و پشتیبانی فنی مناسب است."
|
|
739
736
|
},
|
|
@@ -938,6 +935,9 @@
|
|
|
938
935
|
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
936
|
"description": "DeepSeek-V3.1-Terminus نسخه بهروزرسانی شده مدل V3.1 منتشر شده توسط DeepSeek است که به عنوان یک مدل زبان بزرگ با عامل ترکیبی شناخته میشود. این بهروزرسانی ضمن حفظ قابلیتهای اصلی مدل، بر رفع مشکلات گزارش شده توسط کاربران و افزایش پایداری تمرکز دارد. این نسخه به طور قابل توجهی انسجام زبانی را بهبود بخشیده و از بروز ترکیب زبان چینی و انگلیسی و کاراکترهای نامتعارف کاسته است. مدل شامل حالت «تفکر» (Thinking Mode) و «غیرتفکر» (Non-thinking Mode) است که کاربران میتوانند از طریق قالبهای گفتگو به صورت انعطافپذیر بین آنها جابجا شوند تا با وظایف مختلف سازگار شوند. به عنوان یک بهینهسازی مهم، V3.1-Terminus عملکرد عامل کد (Code Agent) و عامل جستجو (Search Agent) را تقویت کرده است تا در فراخوانی ابزارها و اجرای وظایف پیچیده چندمرحلهای قابل اعتمادتر باشد."
|
|
940
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.2-Exp": {
|
|
939
|
+
"description": "مدل DeepSeek V3.2 Exp یک معماری ترکیبی برای استدلال است که از هر دو حالت تفکر و غیرتفکر پشتیبانی میکند."
|
|
940
|
+
},
|
|
941
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
942
942
|
"description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه هوش مصنوعی است که توانایی درک عمیق زبان و تعامل را فراهم میکند."
|
|
943
943
|
},
|
|
@@ -1031,6 +1031,9 @@
|
|
|
1031
1031
|
"deepseek-v3.1": {
|
|
1032
1032
|
"description": "DeepSeek-V3.1 یک مدل استدلال ترکیبی جدید از DeepSeek است که از دو حالت استدلال تفکری و غیرتفکری پشتیبانی میکند و نسبت به DeepSeek-R1-0528 در حالت تفکری کارایی بالاتری دارد. پس از آموزش تکمیلی، استفاده از ابزارهای Agent و عملکرد وظایف هوشمند به طور قابل توجهی بهبود یافته است. پشتیبانی از پنجره متنی 128k و طول خروجی تا 64k توکن."
|
|
1033
1033
|
},
|
|
1034
|
+
"deepseek-v3.1-terminus": {
|
|
1035
|
+
"description": "DeepSeek-V3.1-Terminus نسخهای بهینهسازیشده از مدل زبان بزرگ DeepSeek است که بهطور خاص برای دستگاههای نهایی طراحی شده است."
|
|
1036
|
+
},
|
|
1034
1037
|
"deepseek-v3.1:671b": {
|
|
1035
1038
|
"description": "DeepSeek V3.1: مدل استنتاج نسل بعدی که تواناییهای استنتاج پیچیده و تفکر زنجیرهای را بهبود بخشیده و برای وظایفی که نیاز به تحلیل عمیق دارند مناسب است."
|
|
1036
1039
|
},
|
|
@@ -1193,6 +1196,12 @@
|
|
|
1193
1196
|
"ernie-4.0-turbo-8k-preview": {
|
|
1194
1197
|
"description": "مدل زبان بزرگ فوقالعاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گستردهای در زمینههای مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
|
|
1195
1198
|
},
|
|
1199
|
+
"ernie-4.5-21b-a3b": {
|
|
1200
|
+
"description": "ERNIE 4.5 21B A3B یک مدل متخصص ترکیبی است که توسط Wenxin Baidu توسعه یافته و دارای تواناییهای قوی در استدلال و پشتیبانی از چند زبان میباشد."
|
|
1201
|
+
},
|
|
1202
|
+
"ernie-4.5-300b-a47b": {
|
|
1203
|
+
"description": "ERNIE 4.5 300B A47B یک مدل بسیار بزرگ متخصص ترکیبی است که توسط Wenxin Baidu ارائه شده و از توانایی استدلالی برجستهای برخوردار است."
|
|
1204
|
+
},
|
|
1196
1205
|
"ernie-4.5-8k-preview": {
|
|
1197
1206
|
"description": "مدل بزرگ 4.5 Ernie یک مدل پایه چندرسانهای نسل جدید است که توسط بایدو بهطور مستقل توسعه یافته و از طریق مدلسازی مشترک چندین حالت به بهینهسازی همزمان دست مییابد و توانایی درک چندرسانهای فوقالعادهای دارد؛ دارای تواناییهای زبانی پیشرفتهتر، درک، تولید، منطق و حافظه بهطور کلی بهبود یافته و تواناییهای حذف توهم، استدلال منطقی و کد بهطور قابل توجهی افزایش یافته است."
|
|
1198
1207
|
},
|
|
@@ -1449,7 +1458,7 @@
|
|
|
1449
1458
|
"description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع طراحی شده و عملکردی عالی دارد."
|
|
1450
1459
|
},
|
|
1451
1460
|
"glm-4-9b-chat": {
|
|
1452
|
-
"description": "GLM-4-9B-Chat در زمینههای
|
|
1461
|
+
"description": "GLM-4-9B-Chat عملکرد بالایی در زمینههای معناشناسی، ریاضیات، استدلال، کدنویسی و دانش دارد. همچنین از مرور وب، اجرای کد، فراخوانی ابزارهای سفارشی و استدلال متون بلند پشتیبانی میکند. این مدل از ۲۶ زبان از جمله ژاپنی، کرهای و آلمانی پشتیبانی مینماید."
|
|
1453
1462
|
},
|
|
1454
1463
|
"glm-4-air": {
|
|
1455
1464
|
"description": "GLM-4-Air نسخهای با صرفه اقتصادی است که عملکردی نزدیک به GLM-4 دارد و سرعت بالا و قیمت مناسبی را ارائه میدهد."
|
|
@@ -1749,7 +1758,10 @@
|
|
|
1749
1758
|
"description": "نسخهای مقرونبهصرفهتر از GPT Image 1 که بهصورت بومی از ورودیهای متنی و تصویری پشتیبانی میکند و خروجی تصویری تولید مینماید."
|
|
1750
1759
|
},
|
|
1751
1760
|
"gpt-oss-120b": {
|
|
1752
|
-
"description": "GPT-OSS-120B
|
|
1761
|
+
"description": "برای استفاده از این مدل نیاز به درخواست دسترسی میباشد. GPT-OSS-120B یک مدل زبان بزرگ متنباز از OpenAI است که توانایی بالایی در تولید متن دارد."
|
|
1762
|
+
},
|
|
1763
|
+
"gpt-oss-20b": {
|
|
1764
|
+
"description": "برای استفاده از این مدل نیاز به درخواست دسترسی میباشد. GPT-OSS-20B یک مدل زبان میانرده متنباز از OpenAI است که توانایی تولید متن بهصورت کارآمد را دارد."
|
|
1753
1765
|
},
|
|
1754
1766
|
"gpt-oss:120b": {
|
|
1755
1767
|
"description": "GPT-OSS 120B یک مدل زبان بزرگ متنباز منتشر شده توسط OpenAI است که از فناوری کوانتیزاسیون MXFP4 بهره میبرد و به عنوان مدل پرچمدار شناخته میشود. این مدل نیازمند محیطی با چند GPU یا ایستگاه کاری با عملکرد بالا برای اجرا است و در استدلال پیچیده، تولید کد و پردازش چندزبانه عملکردی برجسته دارد و از فراخوانی توابع پیشرفته و یکپارچهسازی ابزارها پشتیبانی میکند."
|
|
@@ -1967,6 +1979,9 @@
|
|
|
1967
1979
|
"kimi-k2-0905-preview": {
|
|
1968
1980
|
"description": "مدل پیشنمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و تواناییهای قویتری در برنامهنویسی عاملمحور، زیبایی و کاربردی بودن کدهای فرانتاند و درک بهتر متن دارد."
|
|
1969
1981
|
},
|
|
1982
|
+
"kimi-k2-instruct": {
|
|
1983
|
+
"description": "Kimi K2 Instruct یک مدل زبان بزرگ است که توسط Moonshot AI توسعه یافته و دارای توانایی پردازش زمینههای بسیار طولانی میباشد."
|
|
1984
|
+
},
|
|
1970
1985
|
"kimi-k2-turbo-preview": {
|
|
1971
1986
|
"description": "kimi-k2 یک مدل پایه با معماری MoE است که دارای توانمندیهای بسیار قوی در حوزهٔ برنامهنویسی و عاملها (Agent) میباشد. مجموع پارامترها 1T و پارامترهای فعالشده 32B است. در آزمونهای بنچمارک در دستههای اصلی مانند استدلال دانش عمومی، برنامهنویسی، ریاضیات و Agent، عملکرد مدل K2 از سایر مدلهای متنباز مرسوم پیشی گرفته است."
|
|
1972
1987
|
},
|
|
@@ -1988,9 +2003,6 @@
|
|
|
1988
2003
|
"lite": {
|
|
1989
2004
|
"description": "Spark Lite یک مدل زبان بزرگ سبک است که دارای تأخیر بسیار کم و توانایی پردازش کارآمد میباشد. بهطور کامل رایگان و باز است و از قابلیت جستجوی آنلاین در زمان واقعی پشتیبانی میکند. ویژگی پاسخدهی سریع آن باعث میشود که در کاربردهای استنتاجی و تنظیم مدل در دستگاههای با توان محاسباتی پایین عملکرد برجستهای داشته باشد و تجربهای هوشمند و مقرونبهصرفه برای کاربران فراهم کند. بهویژه در زمینههای پرسش و پاسخ دانش، تولید محتوا و جستجو عملکرد خوبی دارد."
|
|
1990
2005
|
},
|
|
1991
|
-
"llama-2-7b-chat": {
|
|
1992
|
-
"description": "سری مدلهای زبانی بزرگ (LLM) Llama2 توسط Meta توسعه یافته و به صورت متنباز منتشر شده است. این مجموعه شامل مدلهای متنی تولیدی با مقیاسهای مختلف از 7 میلیارد تا 70 میلیارد پارامتر است که پیشآموزش و ریآموزش داده شدهاند. از نظر معماری، Llama2 یک مدل زبانی خودرگرسیو با استفاده از معماری تبدیلکننده بهینهشده است. نسخههای تنظیمشده از این مدل با استفاده از ریآموزش نظارتشده (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) برای همگرایی با ترجیحات انسانی در مورد مفیدیت و ایمنی تنظیم شدهاند. Llama2 نسبت به سری Llama در مجموعههای داده علمی مختلف عملکرد بهتری دارد و الهام بخش طراحی و توسعه مدلهای دیگر بسیاری بوده است."
|
|
1993
|
-
},
|
|
1994
2006
|
"llama-3.1-70b-versatile": {
|
|
1995
2007
|
"description": "لاما 3.1 70B توانایی استدلال هوش مصنوعی قویتری را ارائه میدهد، مناسب برای برنامههای پیچیده، پشتیبانی از پردازشهای محاسباتی فراوان و تضمین کارایی و دقت بالا."
|
|
1996
2008
|
},
|
|
@@ -2018,9 +2030,6 @@
|
|
|
2018
2030
|
"llama-3.3-70b": {
|
|
2019
2031
|
"description": "Llama 3.3 70B: مدلی با اندازه متوسط تا بزرگ از سری Llama که تعادلی میان توانایی استدلال و بازدهی فراهم میکند."
|
|
2020
2032
|
},
|
|
2021
|
-
"llama-3.3-70b-instruct": {
|
|
2022
|
-
"description": "Llama 3.3 پیشرفتهترین مدل زبان چندزبانه و متنباز در سری Llama است که تجربهای با هزینه بسیار پایین مشابه عملکرد مدل 405B را ارائه میدهد. این مدل بر اساس ساختار Transformer طراحی شده و از طریق تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) بهبود کارایی و ایمنی یافته است. نسخه بهینهسازی شده آن برای مکالمات چندزبانه طراحی شده و در چندین معیار صنعتی از بسیاری از مدلهای چت متنباز و بسته بهتر عمل میکند. تاریخ قطع دانش آن دسامبر 2023 است."
|
|
2023
|
-
},
|
|
2024
2033
|
"llama-3.3-70b-versatile": {
|
|
2025
2034
|
"description": "مدل زبان بزرگ چند زبانه Meta Llama 3.3 (LLM) یک مدل تولیدی پیشآموزش دیده و تنظیمشده در 70B (ورودی متن/خروجی متن) است. مدل متن خالص Llama 3.3 برای کاربردهای گفتگوی چند زبانه بهینهسازی شده و در معیارهای صنعتی معمول در مقایسه با بسیاری از مدلهای چت متنباز و بسته عملکرد بهتری دارد."
|
|
2026
2035
|
},
|
|
@@ -2082,7 +2091,7 @@
|
|
|
2082
2091
|
"description": "Spark Max 32K با قابلیت پردازش متن با زمینه بزرگتر، توانایی درک و استدلال منطقی قویتری دارد و از ورودی متنی تا 32K توکن پشتیبانی میکند. مناسب برای خواندن اسناد طولانی، پرسش و پاسخ با دانش خصوصی و موارد مشابه."
|
|
2083
2092
|
},
|
|
2084
2093
|
"megrez-3b-instruct": {
|
|
2085
|
-
"description": "Megrez
|
|
2094
|
+
"description": "Megrez 3B Instruct یک مدل کمپارامتر و کارآمد است که توسط Wuwen Xinqiong ارائه شده است."
|
|
2086
2095
|
},
|
|
2087
2096
|
"meta-llama-3-70b-instruct": {
|
|
2088
2097
|
"description": "یک مدل قدرتمند با ۷۰ میلیارد پارامتر که در استدلال، کدنویسی و کاربردهای گسترده زبانی عملکرد برجستهای دارد."
|
|
@@ -2639,6 +2648,12 @@
|
|
|
2639
2648
|
"pro-128k": {
|
|
2640
2649
|
"description": "Spark Pro 128K با قابلیت پردازش متن بسیار بزرگ، قادر به پردازش تا 128K اطلاعات متنی است. این ویژگی بهویژه برای تحلیل کامل و پردازش ارتباطات منطقی طولانیمدت در محتوای متنی طولانی مناسب است و میتواند در ارتباطات متنی پیچیده، پشتیبانی از منطق روان و یکپارچه و ارجاعات متنوع را فراهم کند."
|
|
2641
2650
|
},
|
|
2651
|
+
"pro-deepseek-r1": {
|
|
2652
|
+
"description": "مدل اختصاصی برای خدمات سازمانی، شامل پشتیبانی از سرویسهای همزمان."
|
|
2653
|
+
},
|
|
2654
|
+
"pro-deepseek-v3": {
|
|
2655
|
+
"description": "مدل اختصاصی برای خدمات سازمانی، شامل پشتیبانی از سرویسهای همزمان."
|
|
2656
|
+
},
|
|
2642
2657
|
"qvq-72b-preview": {
|
|
2643
2658
|
"description": "مدل QVQ یک مدل تحقیقاتی تجربی است که توسط تیم Qwen توسعه یافته و بر بهبود توانایی استدلال بصری، بهویژه در زمینه استدلال ریاضی تمرکز دارد."
|
|
2644
2659
|
},
|
|
@@ -2774,12 +2789,6 @@
|
|
|
2774
2789
|
"qwen2": {
|
|
2775
2790
|
"description": "Qwen2 مدل زبان بزرگ نسل جدید علیبابا است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی میکند."
|
|
2776
2791
|
},
|
|
2777
|
-
"qwen2-72b-instruct": {
|
|
2778
|
-
"description": "Qwen2، سری جدیدی از مدلهای زبانی بزرگ توسط تیم Qwen ارائه شده است. این مدل بر اساس معماری Transformer ساخته شده و از توابع فعالسازی SwiGLU، بایاس QKV توجه (attention QKV bias)، توجه سؤال گروهی (group query attention)، ترکیب توجه پنجرهای لغزشی و توجه کامل (mixture of sliding window attention and full attention) استفاده میکند. علاوه بر این، تیم Qwen بهبودی در تجزیهکنندههایی که برای تجزیه متنهای طبیعی و کد مناسب هستند ایجاد کردهاند."
|
|
2779
|
-
},
|
|
2780
|
-
"qwen2-7b-instruct": {
|
|
2781
|
-
"description": "Qwen2، سری جدیدی از مدلهای زبانی بزرگ توسط تیم Qwen ارائه شده است. این مدل بر اساس معماری Transformer ساخته شده و از توابع فعالسازی SwiGLU، بایاس QKV توجه (attention QKV bias)، توجه سرویسگروهی (group query attention)، ترکیب توجه پنجرهای لغزشی و توجه کامل (mixture of sliding window attention and full attention) استفاده میکند. علاوه بر این، تیم Qwen بهبودی در تجزیهکنندههایی ارائه کردهاند که برای تجزیه متنهای طبیعی و کد مناسب هستند."
|
|
2782
|
-
},
|
|
2783
2792
|
"qwen2.5": {
|
|
2784
2793
|
"description": "Qwen2.5 نسل جدید مدل زبانی مقیاس بزرگ Alibaba است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی میکند."
|
|
2785
2794
|
},
|
|
@@ -2918,6 +2927,12 @@
|
|
|
2918
2927
|
"qwen3-next-80b-a3b-thinking": {
|
|
2919
2928
|
"description": "مدل متنباز نسل جدید با حالت تفکر مبتنی بر Qwen3، که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B-Thinking-2507) در پیروی از دستورات پیشرفت داشته و پاسخهای مدل خلاصهتر شدهاند."
|
|
2920
2929
|
},
|
|
2930
|
+
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
+
"description": "Qwen3 VL 235B A22B Instruct یک مدل چندرسانهای است که توسط Tongyi Qianwen توسعه یافته و از درک و استدلال بصری پشتیبانی میکند."
|
|
2932
|
+
},
|
|
2933
|
+
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
+
"description": "Qwen3 VL 235B A22B Thinking یک مدل چندرسانهای استدلالی است که توسط Tongyi Qianwen توسعه یافته و از درک و استدلال بصری پشتیبانی میکند."
|
|
2935
|
+
},
|
|
2921
2936
|
"qwen3-vl-plus": {
|
|
2922
2937
|
"description": "Tongyi Qianwen VL مدلی برای تولید متن با قابلیت درک بصری (تصویر) است که نه تنها میتواند OCR (تشخیص متن در تصویر) انجام دهد، بلکه قادر به خلاصهسازی و استنتاج بیشتر نیز هست، مانند استخراج ویژگیها از عکس محصولات یا حل مسائل بر اساس تصاویر تمرین."
|
|
2923
2938
|
},
|
|
@@ -3035,6 +3050,9 @@
|
|
|
3035
3050
|
"step-r1-v-mini": {
|
|
3036
3051
|
"description": "این مدل یک مدل استدلال بزرگ با تواناییهای قوی در درک تصویر است که میتواند اطلاعات تصویری و متنی را پردازش کند و پس از تفکر عمیق، متن تولید کند. این مدل در زمینه استدلال بصری عملکرد برجستهای دارد و همچنین دارای تواناییهای ریاضی، کدنویسی و استدلال متنی در سطح اول است. طول متن زمینهای 100k است."
|
|
3037
3052
|
},
|
|
3053
|
+
"step3": {
|
|
3054
|
+
"description": "Step3 یک مدل چندرسانهای است که توسط StepStar توسعه یافته و دارای توانایی قوی در درک بصری میباشد."
|
|
3055
|
+
},
|
|
3038
3056
|
"stepfun-ai/step3": {
|
|
3039
3057
|
"description": "Step3 یک مدل استنتاج چندمودالی پیشرفته است که توسط شرکت StepFun منتشر شده است. این مدل بر پایهٔ معماری مخلوط متخصصان (MoE) با مجموع 321 میلیارد پارامتر و 38 میلیارد پارامتر فعال ساخته شده است. طراحی آن انتهابهانتها است و هدفش کمینهسازی هزینهٔ رمزگشایی در حالیست که در استدلال بینایی-زبانی عملکردی در سطح برتر ارائه میدهد. از طریق طراحی همافزا مبتنی بر توجه چند-ماتریسی تجزیهشده (MFA) و جداسازی توجه و FFN (AFD)، Step3 قادر است کارایی برجستهای را هم روی شتابدهندههای ردهپرچمدار و هم روی شتابدهندههای سطح پایین حفظ کند. در مرحلهٔ پیشآموزش، Step3 بیش از 20T توکن متنی و 4T توکن ترکیبی تصویر-متن را پردازش کرده و بیش از ده زبان را پوشش داده است. این مدل در بنچمارکهای متعددی از جمله ریاضیات، کدنویسی و چندمودال در میان مدلهای متنباز در جایگاه پیشرو قرار گرفته است."
|
|
3040
3058
|
},
|
|
@@ -3158,9 +3176,6 @@
|
|
|
3158
3176
|
"xai/grok-4": {
|
|
3159
3177
|
"description": "جدیدترین و بزرگترین مدل پرچمدار xAI که عملکرد بینظیری در زبان طبیعی، ریاضیات و استدلال ارائه میدهد — انتخابی کامل و همهکاره."
|
|
3160
3178
|
},
|
|
3161
|
-
"yi-1.5-34b-chat": {
|
|
3162
|
-
"description": "Yi-1.5 نسخهی بهروزرسانی شدهی Yi است. این مدل با استفاده از یک مجموعه داده با کیفیت بالا شامل 500 میلیارد توکن برای پیشآموزی و 3 میلیون نمونه متنوع برای آموزش ریزی مجدداً آموزش داده شده است."
|
|
3163
|
-
},
|
|
3164
3179
|
"yi-large": {
|
|
3165
3180
|
"description": "مدل جدید با میلیاردها پارامتر، ارائهدهنده تواناییهای فوقالعاده در پاسخگویی و تولید متن."
|
|
3166
3181
|
},
|
|
@@ -284,11 +284,19 @@
|
|
|
284
284
|
"placeholder": "Veuillez entrer l'identifiant du modèle, par exemple gpt-4o ou claude-3.5-sonnet",
|
|
285
285
|
"title": "ID du modèle"
|
|
286
286
|
},
|
|
287
|
+
"imageOutput": {
|
|
288
|
+
"extra": "Cette configuration activera uniquement la capacité du modèle à générer des images. L'efficacité dépend entièrement du modèle lui-même. Veuillez tester vous-même si le modèle est capable de générer des images utilisables.",
|
|
289
|
+
"title": "Prise en charge de la génération d'images"
|
|
290
|
+
},
|
|
287
291
|
"modalTitle": "Configuration du modèle personnalisé",
|
|
288
292
|
"reasoning": {
|
|
289
293
|
"extra": "Cette configuration activera uniquement la capacité de réflexion approfondie du modèle. Les résultats dépendent entièrement du modèle lui-même, veuillez tester si ce modèle possède une capacité de réflexion approfondie utilisable.",
|
|
290
294
|
"title": "Support de la réflexion approfondie"
|
|
291
295
|
},
|
|
296
|
+
"search": {
|
|
297
|
+
"extra": "Cette configuration activera uniquement la capacité de recherche en ligne via le moteur de recherche intégré du modèle. La prise en charge dépend du modèle lui-même. Veuillez tester vous-même si le moteur de recherche intégré est fonctionnel.",
|
|
298
|
+
"title": "Prise en charge de la recherche en ligne"
|
|
299
|
+
},
|
|
292
300
|
"tokens": {
|
|
293
301
|
"extra": "Définir le nombre maximal de tokens pris en charge par le modèle",
|
|
294
302
|
"title": "Fenêtre de contexte maximale",
|
|
@@ -309,6 +317,10 @@
|
|
|
309
317
|
"placeholder": "Veuillez sélectionner un type de modèle",
|
|
310
318
|
"title": "Type de modèle"
|
|
311
319
|
},
|
|
320
|
+
"video": {
|
|
321
|
+
"extra": "Cette configuration activera uniquement la reconnaissance vidéo dans l'application. La capacité de reconnaissance dépend entièrement du modèle lui-même. Veuillez tester vous-même si le modèle est capable de reconnaître les vidéos.",
|
|
322
|
+
"title": "Prise en charge de la reconnaissance vidéo"
|
|
323
|
+
},
|
|
312
324
|
"vision": {
|
|
313
325
|
"extra": "Cette configuration n'activera que la configuration de téléchargement d'images dans l'application, la prise en charge de la reconnaissance dépend entièrement du modèle lui-même, veuillez tester la disponibilité des capacités de reconnaissance visuelle de ce modèle.",
|
|
314
326
|
"title": "Reconnaissance visuelle prise en charge"
|
|
@@ -704,6 +704,9 @@
|
|
|
704
704
|
"azure-DeepSeek-R1-0528": {
|
|
705
705
|
"description": "Déployé et fourni par Microsoft ; le modèle DeepSeek R1 a bénéficié d'une mise à jour mineure, la version actuelle étant DeepSeek-R1-0528. Dans la dernière mise à jour, DeepSeek R1 a considérablement amélioré sa profondeur d'inférence et ses capacités de raisonnement grâce à l'augmentation des ressources de calcul et à l'introduction d'un mécanisme d'optimisation algorithmique en phase post-entraînement. Ce modèle excelle dans plusieurs benchmarks, notamment en mathématiques, programmation et logique générale, avec des performances globales proches des modèles de pointe tels que O3 et Gemini 2.5 Pro."
|
|
706
706
|
},
|
|
707
|
+
"baichuan-m2-32b": {
|
|
708
|
+
"description": "Baichuan M2 32B est un modèle à experts mixtes développé par Baichuan Intelligence, doté de puissantes capacités de raisonnement."
|
|
709
|
+
},
|
|
707
710
|
"baichuan/baichuan2-13b-chat": {
|
|
708
711
|
"description": "Baichuan-13B est un modèle de langage open source et commercialisable développé par Baichuan Intelligence, contenant 13 milliards de paramètres, qui a obtenu les meilleurs résultats dans des benchmarks chinois et anglais de référence."
|
|
709
712
|
},
|
|
@@ -728,12 +731,6 @@
|
|
|
728
731
|
"charglm-4": {
|
|
729
732
|
"description": "CharGLM-4 est conçu pour le jeu de rôle et l'accompagnement émotionnel, prenant en charge une mémoire multi-tours ultra-longue et des dialogues personnalisés, avec une large gamme d'applications."
|
|
730
733
|
},
|
|
731
|
-
"chatglm3": {
|
|
732
|
-
"description": "ChatGLM3 est un modèle fermé développé par l'IA Zhipu et le laboratoire KEG de Tsinghua. Il a été pré-entraîné sur une grande quantité d'identifiants chinois et anglais et a été aligné sur les préférences humaines. Par rapport au modèle de première génération, il a amélioré ses performances de 16%, 36% et 280% sur MMLU, C-Eval et GSM8K respectivement, et est devenu le meilleur modèle sur le classement C-Eval pour les tâches en chinois. Il est adapté aux scénarios nécessitant une grande quantité de connaissances, des capacités de raisonnement et de créativité, tels que la rédaction de publicités, l'écriture de romans, la rédaction de contenu informatif et la génération de code."
|
|
733
|
-
},
|
|
734
|
-
"chatglm3-6b-base": {
|
|
735
|
-
"description": "ChatGLM3-6b-base est le modèle de base open source de la dernière génération de la série ChatGLM, développé par Zhipu, avec une taille de 6 milliards de paramètres."
|
|
736
|
-
},
|
|
737
734
|
"chatgpt-4o-latest": {
|
|
738
735
|
"description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
|
|
739
736
|
},
|
|
@@ -938,6 +935,9 @@
|
|
|
938
935
|
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
936
|
"description": "DeepSeek-V3.1-Terminus est une version mise à jour du modèle V3.1 publiée par DeepSeek, positionnée comme un grand modèle de langage hybride pour agents intelligents. Cette mise à jour conserve les capacités originales du modèle tout en se concentrant sur la correction des problèmes signalés par les utilisateurs et l'amélioration de la stabilité. Elle améliore significativement la cohérence linguistique, réduisant le mélange de chinois et d'anglais ainsi que l'apparition de caractères anormaux. Le modèle intègre un « mode réflexion » (Thinking Mode) et un « mode non-réflexion » (Non-thinking Mode), permettant aux utilisateurs de basculer facilement entre ces modes via des modèles de conversation adaptés à différentes tâches. En tant qu'optimisation majeure, V3.1-Terminus renforce les performances des agents de code (Code Agent) et de recherche (Search Agent), rendant leur appel d'outils et l'exécution de tâches complexes en plusieurs étapes plus fiables."
|
|
940
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.2-Exp": {
|
|
939
|
+
"description": "Le modèle DeepSeek V3.2 Exp adopte une architecture de raisonnement hybride, prenant en charge à la fois les modes de réflexion et non réflexifs."
|
|
940
|
+
},
|
|
941
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
942
942
|
"description": "DeepSeek 67B est un modèle avancé formé pour des dialogues de haute complexité."
|
|
943
943
|
},
|
|
@@ -1031,6 +1031,9 @@
|
|
|
1031
1031
|
"deepseek-v3.1": {
|
|
1032
1032
|
"description": "DeepSeek-V3.1 est un nouveau modèle d'inférence hybride lancé par DeepSeek, prenant en charge deux modes d'inférence : réfléchi et non réfléchi, avec une efficacité de réflexion supérieure à celle de DeepSeek-R1-0528. Optimisé par post-entraînement, l'utilisation des outils Agent et les performances des tâches des agents ont été grandement améliorées. Supporte une fenêtre contextuelle de 128k et une longueur de sortie maximale de 64k tokens."
|
|
1033
1033
|
},
|
|
1034
|
+
"deepseek-v3.1-terminus": {
|
|
1035
|
+
"description": "DeepSeek-V3.1-Terminus est une version optimisée pour terminaux du grand modèle linguistique lancé par DeepSeek, spécialement conçu pour les appareils terminaux."
|
|
1036
|
+
},
|
|
1034
1037
|
"deepseek-v3.1:671b": {
|
|
1035
1038
|
"description": "DeepSeek V3.1 : modèle de raisonnement de nouvelle génération, améliorant les capacités de raisonnement complexe et de réflexion en chaîne, adapté aux tâches nécessitant une analyse approfondie."
|
|
1036
1039
|
},
|
|
@@ -1193,6 +1196,12 @@
|
|
|
1193
1196
|
"ernie-4.0-turbo-8k-preview": {
|
|
1194
1197
|
"description": "Le modèle de langage de très grande taille phare développé par Baidu, avec d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; supporte l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
|
|
1195
1198
|
},
|
|
1199
|
+
"ernie-4.5-21b-a3b": {
|
|
1200
|
+
"description": "ERNIE 4.5 21B A3B est un modèle à experts mixtes développé par Wenxin de Baidu, offrant de puissantes capacités de raisonnement et de traitement multilingue."
|
|
1201
|
+
},
|
|
1202
|
+
"ernie-4.5-300b-a47b": {
|
|
1203
|
+
"description": "ERNIE 4.5 300B A47B est un modèle à très grande échelle à experts mixtes lancé par Wenxin de Baidu, doté d'excellentes capacités de raisonnement."
|
|
1204
|
+
},
|
|
1196
1205
|
"ernie-4.5-8k-preview": {
|
|
1197
1206
|
"description": "Le modèle ERNIE 4.5 est un nouveau modèle de base multimodal natif développé par Baidu, réalisant une optimisation collaborative grâce à la modélisation conjointe de plusieurs modalités, avec d'excellentes capacités de compréhension multimodale ; il possède des capacités linguistiques améliorées, avec des améliorations significatives dans la compréhension, la génération, la logique et la mémoire, ainsi qu'une réduction des hallucinations et une amélioration des capacités de raisonnement logique et de codage."
|
|
1198
1207
|
},
|
|
@@ -1449,7 +1458,7 @@
|
|
|
1449
1458
|
"description": "GLM-4-0520 est la dernière version du modèle, conçue pour des tâches hautement complexes et diversifiées, avec des performances exceptionnelles."
|
|
1450
1459
|
},
|
|
1451
1460
|
"glm-4-9b-chat": {
|
|
1452
|
-
"description": "GLM-4-9B-Chat
|
|
1461
|
+
"description": "GLM-4-9B-Chat offre des performances élevées dans les domaines de la sémantique, des mathématiques, du raisonnement, du code et des connaissances. Il prend également en charge la navigation web, l'exécution de code, l'appel d'outils personnalisés et le raisonnement sur de longs textes. Prise en charge de 26 langues, dont le japonais, le coréen et l’allemand."
|
|
1453
1462
|
},
|
|
1454
1463
|
"glm-4-air": {
|
|
1455
1464
|
"description": "GLM-4-Air est une version économique, offrant des performances proches de GLM-4, avec une rapidité et un prix abordable."
|
|
@@ -1749,7 +1758,10 @@
|
|
|
1749
1758
|
"description": "Une version plus économique de GPT Image 1, prenant en charge nativement les entrées texte et image, et générant des sorties visuelles."
|
|
1750
1759
|
},
|
|
1751
1760
|
"gpt-oss-120b": {
|
|
1752
|
-
"description": "GPT-OSS-120B
|
|
1761
|
+
"description": "Ce modèle nécessite une demande d'accès. GPT-OSS-120B est un modèle de langage open source à grande échelle lancé par OpenAI, doté de puissantes capacités de génération de texte."
|
|
1762
|
+
},
|
|
1763
|
+
"gpt-oss-20b": {
|
|
1764
|
+
"description": "Ce modèle nécessite une demande d'accès. GPT-OSS-20B est un modèle de langage open source de taille moyenne lancé par OpenAI, offrant une génération de texte efficace."
|
|
1753
1765
|
},
|
|
1754
1766
|
"gpt-oss:120b": {
|
|
1755
1767
|
"description": "GPT-OSS 120B est un grand modèle de langage open source publié par OpenAI, utilisant la technologie de quantification MXFP4, conçu comme un modèle phare. Il nécessite un environnement multi-GPU ou une station de travail haute performance, offrant des performances exceptionnelles en raisonnement complexe, génération de code et traitement multilingue, avec prise en charge avancée des appels de fonctions et de l'intégration d'outils."
|
|
@@ -1967,6 +1979,9 @@
|
|
|
1967
1979
|
"kimi-k2-0905-preview": {
|
|
1968
1980
|
"description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
|
|
1969
1981
|
},
|
|
1982
|
+
"kimi-k2-instruct": {
|
|
1983
|
+
"description": "Kimi K2 Instruct est un grand modèle linguistique développé par Moonshot AI, capable de traiter des contextes ultra-longs."
|
|
1984
|
+
},
|
|
1970
1985
|
"kimi-k2-turbo-preview": {
|
|
1971
1986
|
"description": "kimi-k2 est un modèle de base à architecture MoE doté de capacités remarquables en programmation et en agents autonomes, avec 1T de paramètres au total et 32B de paramètres activés. Dans les principaux tests de référence couvrant le raisonnement général, la programmation, les mathématiques et les agents, le modèle K2 surpasse les autres modèles open source majeurs."
|
|
1972
1987
|
},
|
|
@@ -1988,9 +2003,6 @@
|
|
|
1988
2003
|
"lite": {
|
|
1989
2004
|
"description": "Spark Lite est un modèle de langage léger, offrant une latence extrêmement faible et une capacité de traitement efficace, entièrement gratuit et ouvert, prenant en charge la recherche en temps réel. Sa capacité de réponse rapide le rend exceptionnel pour les applications d'inférence sur des appareils à faible puissance de calcul et pour le réglage des modèles, offrant aux utilisateurs un excellent rapport coût-efficacité et une expérience intelligente, en particulier dans les scénarios de questions-réponses, de génération de contenu et de recherche."
|
|
1990
2005
|
},
|
|
1991
|
-
"llama-2-7b-chat": {
|
|
1992
|
-
"description": "Llama2 est une série de grands modèles de langage (LLM) développés et open-source par Meta. Elle comprend des modèles de génération de texte pré-entraînés et affinés, dont la taille varie de 7 milliards à 70 milliards de paramètres. Sur le plan architectural, Llama2 est un modèle de langage auto-régressif utilisant une architecture de transformateur optimisée. Les versions ajustées utilisent un affinage supervisé (SFT) et un apprentissage par renforcement avec feedback humain (RLHF) pour aligner les préférences d'utilité et de sécurité humaines. Llama2 offre de meilleures performances que la série Llama sur de nombreux jeux de données académiques, fournissant des idées pour la conception et le développement de nombreux autres modèles."
|
|
1993
|
-
},
|
|
1994
2006
|
"llama-3.1-70b-versatile": {
|
|
1995
2007
|
"description": "Llama 3.1 70B offre une capacité de raisonnement AI plus puissante, adaptée aux applications complexes, prenant en charge un traitement de calcul intensif tout en garantissant efficacité et précision."
|
|
1996
2008
|
},
|
|
@@ -2018,9 +2030,6 @@
|
|
|
2018
2030
|
"llama-3.3-70b": {
|
|
2019
2031
|
"description": "Llama 3.3 70B : un modèle Llama de taille moyenne à grande, équilibrant capacités de raisonnement et débit élevé."
|
|
2020
2032
|
},
|
|
2021
|
-
"llama-3.3-70b-instruct": {
|
|
2022
|
-
"description": "Llama 3.3 est le modèle de langage open source multilingue le plus avancé de la série Llama, offrant des performances comparables à celles du modèle 405B à un coût très bas. Basé sur une architecture Transformer, il améliore son utilité et sa sécurité grâce à un ajustement supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF). Sa version optimisée pour les instructions est spécialement conçue pour les dialogues multilingues et surpasse de nombreux modèles de chat open source et fermés sur plusieurs benchmarks industriels. La date limite des connaissances est décembre 2023."
|
|
2023
|
-
},
|
|
2024
2033
|
"llama-3.3-70b-versatile": {
|
|
2025
2034
|
"description": "Le modèle de langage multilingue Llama 3.3 de Meta (LLM) est un modèle génératif pré-entraîné et affiné par instructions avec 70B (entrée/sortie de texte). Le modèle Llama 3.3 affiné par instructions est optimisé pour les cas d'utilisation de dialogue multilingue et surpasse de nombreux modèles de chat open-source et fermés disponibles sur des benchmarks industriels courants."
|
|
2026
2035
|
},
|
|
@@ -2082,7 +2091,7 @@
|
|
|
2082
2091
|
"description": "Spark Max 32K est équipé d'une grande capacité de traitement de contexte, avec une compréhension contextuelle et des capacités de raisonnement logique renforcées, prenant en charge des entrées textuelles de 32K tokens, adapté à la lecture de documents longs, aux questions-réponses privées et à d'autres scénarios."
|
|
2083
2092
|
},
|
|
2084
2093
|
"megrez-3b-instruct": {
|
|
2085
|
-
"description": "Megrez
|
|
2094
|
+
"description": "Megrez 3B Instruct est un modèle efficace à faible nombre de paramètres lancé par Wuwen Xinqiong."
|
|
2086
2095
|
},
|
|
2087
2096
|
"meta-llama-3-70b-instruct": {
|
|
2088
2097
|
"description": "Un puissant modèle de 70 milliards de paramètres excelling dans le raisonnement, le codage et les applications linguistiques larges."
|
|
@@ -2639,6 +2648,12 @@
|
|
|
2639
2648
|
"pro-128k": {
|
|
2640
2649
|
"description": "Spark Pro 128K est doté d'une capacité de traitement de contexte très étendue, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un soutien varié pour les références dans des communications textuelles complexes."
|
|
2641
2650
|
},
|
|
2651
|
+
"pro-deepseek-r1": {
|
|
2652
|
+
"description": "Modèle dédié aux services d'entreprise, incluant les services en parallèle."
|
|
2653
|
+
},
|
|
2654
|
+
"pro-deepseek-v3": {
|
|
2655
|
+
"description": "Modèle dédié aux services d'entreprise, incluant les services en parallèle."
|
|
2656
|
+
},
|
|
2642
2657
|
"qvq-72b-preview": {
|
|
2643
2658
|
"description": "Le modèle QVQ est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement visuel, en particulier dans le domaine du raisonnement mathématique."
|
|
2644
2659
|
},
|
|
@@ -2774,12 +2789,6 @@
|
|
|
2774
2789
|
"qwen2": {
|
|
2775
2790
|
"description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
|
|
2776
2791
|
},
|
|
2777
|
-
"qwen2-72b-instruct": {
|
|
2778
|
-
"description": "Qwen2 est la nouvelle série de modèles de langage grand format développée par l'équipe Qwen. Elle repose sur l'architecture Transformer et intègre des fonctions d'activation SwiGLU, un biais d'attention QKV (attention QKV bias), une attention de requête de groupe (group query attention), un mélange d'attention à fenêtre glissante (mixture of sliding window attention) et une attention complète. De plus, l'équipe Qwen a amélioré le segmenteur pour mieux s'adapter à diverses langues naturelles et au code."
|
|
2779
|
-
},
|
|
2780
|
-
"qwen2-7b-instruct": {
|
|
2781
|
-
"description": "Qwen2 est la nouvelle génération de modèles de langage grand format développée par l'équipe Qwen. Il repose sur l'architecture Transformer et utilise des fonctions d'activation SwiGLU, des biais QKV d'attention, de l'attention de requête de groupe, un mélange d'attention à fenêtre glissante et d'attention complète. De plus, l'équipe Qwen a amélioré le segmenteur pour s'adapter à de nombreuses langues naturelles et à des codes."
|
|
2782
|
-
},
|
|
2783
2792
|
"qwen2.5": {
|
|
2784
2793
|
"description": "Qwen2.5 est le nouveau modèle de langage à grande échelle de Alibaba, offrant d'excellentes performances pour répondre à des besoins d'application diversifiés."
|
|
2785
2794
|
},
|
|
@@ -2918,6 +2927,12 @@
|
|
|
2918
2927
|
"qwen3-next-80b-a3b-thinking": {
|
|
2919
2928
|
"description": "Modèle open source de nouvelle génération en mode réflexif basé sur Qwen3, avec une meilleure conformité aux instructions et des réponses plus concises dans les résumés par rapport à la version précédente (Tongyi Qianwen 3-235B-A22B-Thinking-2507)."
|
|
2920
2929
|
},
|
|
2930
|
+
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
+
"description": "Qwen3 VL 235B A22B Instruct est un modèle multimodal lancé par Tongyi Qianwen, prenant en charge la compréhension et le raisonnement visuels."
|
|
2932
|
+
},
|
|
2933
|
+
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
+
"description": "Qwen3 VL 235B A22B Thinking est un modèle de raisonnement multimodal lancé par Tongyi Qianwen, prenant en charge la compréhension et le raisonnement visuels."
|
|
2935
|
+
},
|
|
2921
2936
|
"qwen3-vl-plus": {
|
|
2922
2937
|
"description": "Tongyi Qianwen VL est un modèle de génération de texte doté de capacités de compréhension visuelle (images). Il peut non seulement effectuer de l'OCR (reconnaissance de texte sur images), mais aussi résumer et raisonner davantage, par exemple extraire des attributs à partir de photos de produits ou résoudre des exercices à partir d'images."
|
|
2923
2938
|
},
|
|
@@ -3035,6 +3050,9 @@
|
|
|
3035
3050
|
"step-r1-v-mini": {
|
|
3036
3051
|
"description": "Ce modèle est un grand modèle de raisonnement avec de puissantes capacités de compréhension d'image, capable de traiter des informations visuelles et textuelles, produisant du texte après une réflexion approfondie. Ce modèle se distingue dans le domaine du raisonnement visuel, tout en possédant des capacités de raisonnement mathématique, de code et de texte de premier plan. La longueur du contexte est de 100k."
|
|
3037
3052
|
},
|
|
3053
|
+
"step3": {
|
|
3054
|
+
"description": "Step3 est un modèle multimodal développé par StepStar, doté de puissantes capacités de compréhension visuelle."
|
|
3055
|
+
},
|
|
3038
3056
|
"stepfun-ai/step3": {
|
|
3039
3057
|
"description": "Step3 est un modèle de raisonnement multimodal de pointe publié par StepFun (阶跃星辰). Il est construit sur une architecture Mixture-of-Experts (MoE) comportant 321 milliards de paramètres au total et 38 milliards de paramètres d'activation. Le modèle adopte une conception bout en bout visant à minimiser le coût de décodage tout en offrant des performances de premier plan en raisonnement visuel et linguistique. Grâce à la conception synergique de l'attention par décomposition multi-matrice (MFA) et du découplage attention‑FFN (AFD), Step3 conserve une grande efficacité aussi bien sur des accélérateurs haut de gamme que sur des accélérateurs d'entrée de gamme. Lors de la pré‑entraînement, Step3 a traité plus de 20 000 milliards de tokens textuels et 4 000 milliards de tokens mixtes image‑texte, couvrant une dizaine de langues. Le modèle atteint des niveaux de référence parmi les meilleurs des modèles open source sur plusieurs benchmarks, notamment en mathématiques, en code et en multimodalité."
|
|
3040
3058
|
},
|
|
@@ -3158,9 +3176,6 @@
|
|
|
3158
3176
|
"xai/grok-4": {
|
|
3159
3177
|
"description": "Le dernier et meilleur modèle phare de xAI, offrant des performances inégalées en langage naturel, mathématiques et raisonnement — un véritable modèle polyvalent."
|
|
3160
3178
|
},
|
|
3161
|
-
"yi-1.5-34b-chat": {
|
|
3162
|
-
"description": "Yi-1.5 est une version améliorée de Yi. Il utilise un corpus de haute qualité de 500 milliards de tokens pour poursuivre l'entraînement préalable de Yi, et est affiné sur 3 millions d'exemples de fine-tuning variés."
|
|
3163
|
-
},
|
|
3164
3179
|
"yi-large": {
|
|
3165
3180
|
"description": "Un modèle de nouvelle génération avec des milliards de paramètres, offrant des capacités de question-réponse et de génération de texte exceptionnelles."
|
|
3166
3181
|
},
|
|
@@ -284,11 +284,19 @@
|
|
|
284
284
|
"placeholder": "Inserisci l'ID del modello, ad esempio gpt-4o o claude-3.5-sonnet",
|
|
285
285
|
"title": "ID del modello"
|
|
286
286
|
},
|
|
287
|
+
"imageOutput": {
|
|
288
|
+
"extra": "Questa configurazione abilita solo la capacità del modello di generare immagini. L'efficacia dipende interamente dal modello stesso. Si consiglia di testare autonomamente se il modello supporta la generazione di immagini.",
|
|
289
|
+
"title": "Supporta la generazione di immagini"
|
|
290
|
+
},
|
|
287
291
|
"modalTitle": "Configurazione modello personalizzato",
|
|
288
292
|
"reasoning": {
|
|
289
293
|
"extra": "Questa configurazione attiverà solo la capacità di pensiero profondo del modello; l'effetto specifico dipende interamente dal modello stesso. Si prega di testare autonomamente se il modello possiede una capacità di pensiero profondo utilizzabile.",
|
|
290
294
|
"title": "Supporto per il pensiero profondo"
|
|
291
295
|
},
|
|
296
|
+
"search": {
|
|
297
|
+
"extra": "Questa configurazione abilita solo la capacità del motore di ricerca integrato del modello di connettersi a Internet. La disponibilità di questa funzione dipende dal modello stesso. Si consiglia di testare autonomamente se il motore di ricerca integrato è utilizzabile.",
|
|
298
|
+
"title": "Supporta la ricerca online"
|
|
299
|
+
},
|
|
292
300
|
"tokens": {
|
|
293
301
|
"extra": "Imposta il numero massimo di token supportati dal modello",
|
|
294
302
|
"title": "Finestra di contesto massima",
|
|
@@ -309,6 +317,10 @@
|
|
|
309
317
|
"placeholder": "Seleziona il tipo di modello",
|
|
310
318
|
"title": "Tipo di modello"
|
|
311
319
|
},
|
|
320
|
+
"video": {
|
|
321
|
+
"extra": "Questa configurazione abilita solo la funzione di riconoscimento video nell'applicazione. La disponibilità del riconoscimento dipende interamente dal modello stesso. Si consiglia di testare autonomamente se il modello supporta il riconoscimento video.",
|
|
322
|
+
"title": "Supporta il riconoscimento video"
|
|
323
|
+
},
|
|
312
324
|
"vision": {
|
|
313
325
|
"extra": "Questa configurazione abiliterà solo la configurazione di caricamento immagini nell'app, la disponibilità di riconoscimento dipende interamente dal modello stesso, testare autonomamente la disponibilità di riconoscimento visivo di questo modello.",
|
|
314
326
|
"title": "Supporto per riconoscimento visivo"
|