@lobehub/chat 1.136.12 → 1.136.13

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (83) hide show
  1. package/.github/workflows/claude-translator.yml +13 -1
  2. package/CHANGELOG.md +34 -0
  3. package/changelog/v1.json +12 -0
  4. package/locales/ar/modelProvider.json +12 -0
  5. package/locales/ar/models.json +39 -24
  6. package/locales/bg-BG/modelProvider.json +12 -0
  7. package/locales/bg-BG/models.json +39 -24
  8. package/locales/de-DE/modelProvider.json +12 -0
  9. package/locales/de-DE/models.json +39 -24
  10. package/locales/en-US/modelProvider.json +12 -0
  11. package/locales/en-US/models.json +39 -24
  12. package/locales/es-ES/modelProvider.json +12 -0
  13. package/locales/es-ES/models.json +39 -24
  14. package/locales/fa-IR/modelProvider.json +12 -0
  15. package/locales/fa-IR/models.json +39 -24
  16. package/locales/fr-FR/modelProvider.json +12 -0
  17. package/locales/fr-FR/models.json +39 -24
  18. package/locales/it-IT/modelProvider.json +12 -0
  19. package/locales/it-IT/models.json +39 -24
  20. package/locales/ja-JP/modelProvider.json +12 -0
  21. package/locales/ja-JP/models.json +39 -24
  22. package/locales/ko-KR/modelProvider.json +12 -0
  23. package/locales/ko-KR/models.json +39 -24
  24. package/locales/nl-NL/modelProvider.json +12 -0
  25. package/locales/nl-NL/models.json +39 -24
  26. package/locales/pl-PL/modelProvider.json +12 -0
  27. package/locales/pl-PL/models.json +39 -24
  28. package/locales/pt-BR/modelProvider.json +12 -0
  29. package/locales/pt-BR/models.json +39 -24
  30. package/locales/ru-RU/modelProvider.json +12 -0
  31. package/locales/ru-RU/models.json +39 -24
  32. package/locales/tr-TR/modelProvider.json +12 -0
  33. package/locales/tr-TR/models.json +39 -24
  34. package/locales/vi-VN/modelProvider.json +12 -0
  35. package/locales/vi-VN/models.json +39 -24
  36. package/locales/zh-CN/modelProvider.json +12 -0
  37. package/locales/zh-CN/models.json +39 -24
  38. package/locales/zh-TW/modelProvider.json +12 -0
  39. package/locales/zh-TW/models.json +39 -24
  40. package/package.json +3 -3
  41. package/packages/const/src/settings/index.ts +1 -0
  42. package/packages/database/package.json +7 -5
  43. package/packages/electron-client-ipc/src/events/index.ts +2 -2
  44. package/packages/electron-client-ipc/src/events/{localFile.ts → localSystem.ts} +25 -6
  45. package/packages/electron-client-ipc/src/types/index.ts +1 -1
  46. package/packages/electron-client-ipc/src/types/{localFile.ts → localSystem.ts} +89 -4
  47. package/packages/file-loaders/package.json +1 -2
  48. package/packages/file-loaders/src/loadFile.ts +4 -1
  49. package/packages/file-loaders/src/loaders/doc/__snapshots__/index.test.ts.snap +46 -0
  50. package/packages/file-loaders/src/loaders/doc/index.test.ts +38 -0
  51. package/packages/file-loaders/src/loaders/doc/index.ts +57 -0
  52. package/packages/file-loaders/src/loaders/docx/index.ts +36 -45
  53. package/packages/file-loaders/src/loaders/index.ts +2 -0
  54. package/packages/file-loaders/src/types/word-extractor.d.ts +9 -0
  55. package/packages/file-loaders/src/types.ts +1 -1
  56. package/packages/model-runtime/src/core/openaiCompatibleFactory/index.test.ts +267 -38
  57. package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +45 -0
  58. package/packages/model-runtime/src/providerTestUtils.ts +0 -5
  59. package/packages/model-runtime/src/providers/anthropic/generateObject.test.ts +57 -44
  60. package/packages/model-runtime/src/providers/anthropic/generateObject.ts +28 -20
  61. package/packages/model-runtime/src/providers/deepseek/index.ts +5 -0
  62. package/packages/model-runtime/src/providers/openai/index.test.ts +0 -5
  63. package/packages/model-runtime/src/providers/openrouter/index.test.ts +3 -3
  64. package/packages/model-runtime/src/providers/openrouter/index.ts +32 -20
  65. package/packages/model-runtime/src/providers/openrouter/type.ts +25 -24
  66. package/packages/model-runtime/src/providers/zhipu/index.test.ts +0 -1
  67. package/packages/model-runtime/src/types/structureOutput.ts +13 -1
  68. package/packages/model-runtime/src/utils/handleOpenAIError.test.ts +0 -5
  69. package/packages/model-runtime/src/utils/handleOpenAIError.ts +2 -2
  70. package/packages/types/src/aiChat.ts +13 -1
  71. package/packages/types/src/index.ts +1 -0
  72. package/src/features/ChatInput/InputEditor/index.tsx +39 -26
  73. package/src/features/Conversation/Messages/Assistant/Tool/Render/LoadingPlaceholder/index.tsx +1 -1
  74. package/src/server/routers/lambda/agent.ts +2 -3
  75. package/src/server/routers/lambda/aiChat.ts +33 -1
  76. package/src/server/routers/lambda/chunk.ts +2 -2
  77. package/src/services/electron/file.ts +1 -2
  78. package/src/services/electron/localFileService.ts +40 -0
  79. package/src/tools/local-system/Placeholder/ListFiles.tsx +23 -0
  80. package/src/tools/local-system/Placeholder/ReadLocalFile.tsx +9 -0
  81. package/src/tools/local-system/Placeholder/SearchFiles.tsx +55 -0
  82. package/src/tools/local-system/Placeholder/index.tsx +25 -0
  83. package/src/tools/placeholders.ts +3 -0
@@ -284,11 +284,19 @@
284
284
  "placeholder": "لطفاً شناسه مدل را وارد کنید، مانند gpt-4o یا claude-3.5-sonnet",
285
285
  "title": "شناسه مدل"
286
286
  },
287
+ "imageOutput": {
288
+ "extra": "این پیکربندی تنها قابلیت تولید تصویر توسط مدل را فعال می‌کند. نتیجه نهایی کاملاً به توانایی‌های خود مدل بستگی دارد. لطفاً خودتان بررسی کنید که آیا این مدل توانایی تولید تصویر را دارد یا خیر.",
289
+ "title": "پشتیبانی از تولید تصویر"
290
+ },
287
291
  "modalTitle": "پیکربندی مدل سفارشی",
288
292
  "reasoning": {
289
293
  "extra": "این تنظیم فقط قابلیت تفکر عمیق مدل را فعال می‌کند و تأثیر دقیق آن کاملاً به خود مدل بستگی دارد، لطفاً خودتان آزمایش کنید که آیا این مدل قابلیت تفکر عمیق قابل استفاده را دارد یا خیر",
290
294
  "title": "پشتیبانی از تفکر عمیق"
291
295
  },
296
+ "search": {
297
+ "extra": "این پیکربندی تنها قابلیت جستجوی آنلاین از طریق موتور جستجوی داخلی مدل را فعال می‌کند. پشتیبانی از موتور جستجوی داخلی به توانایی‌های خود مدل بستگی دارد. لطفاً خودتان بررسی کنید که آیا این مدل از موتور جستجوی داخلی پشتیبانی می‌کند یا خیر.",
298
+ "title": "پشتیبانی از جستجوی آنلاین"
299
+ },
292
300
  "tokens": {
293
301
  "extra": "حداکثر تعداد توکن‌های پشتیبانی شده توسط مدل را تنظیم کنید",
294
302
  "title": "حداکثر پنجره زمینه",
@@ -309,6 +317,10 @@
309
317
  "placeholder": "لطفاً نوع مدل را انتخاب کنید",
310
318
  "title": "نوع مدل"
311
319
  },
320
+ "video": {
321
+ "extra": "این پیکربندی تنها قابلیت شناسایی ویدیو در برنامه را فعال می‌کند. پشتیبانی از شناسایی ویدیو کاملاً به توانایی‌های خود مدل بستگی دارد. لطفاً خودتان بررسی کنید که آیا این مدل توانایی شناسایی ویدیو را دارد یا خیر.",
322
+ "title": "پشتیبانی از شناسایی ویدیو"
323
+ },
312
324
  "vision": {
313
325
  "extra": "این پیکربندی تنها قابلیت بارگذاری تصویر در برنامه را فعال می‌کند، اینکه آیا شناسایی پشتیبانی می‌شود به خود مدل بستگی دارد، لطفاً قابلیت استفاده از شناسایی بصری این مدل را آزمایش کنید",
314
326
  "title": "پشتیبانی از شناسایی بصری"
@@ -704,6 +704,9 @@
704
704
  "azure-DeepSeek-R1-0528": {
705
705
  "description": "ارائه شده توسط مایکروسافت؛ مدل DeepSeek R1 به‌روزرسانی‌های جزئی دریافت کرده است و نسخه فعلی آن DeepSeek-R1-0528 می‌باشد. در آخرین به‌روزرسانی، DeepSeek R1 با افزایش منابع محاسباتی و معرفی مکانیزم بهینه‌سازی الگوریتم در مرحله پس‌آموزش، عمق استنتاج و توانایی پیش‌بینی را به طور قابل توجهی بهبود بخشیده است. این مدل در آزمون‌های معیار مختلفی مانند ریاضیات، برنامه‌نویسی و منطق عمومی عملکرد برجسته‌ای دارد و عملکرد کلی آن به مدل‌های پیشرو مانند O3 و Gemini 2.5 Pro نزدیک شده است."
706
706
  },
707
+ "baichuan-m2-32b": {
708
+ "description": "Baichuan M2 32B یک مدل متخصص ترکیبی است که توسط Baichuan Intelligence ارائه شده و دارای توانایی استدلالی قدرتمندی می‌باشد."
709
+ },
707
710
  "baichuan/baichuan2-13b-chat": {
708
711
  "description": "Baichuan-13B یک مدل زبان بزرگ متن باز و قابل تجاری با 130 میلیارد پارامتر است که در آزمون‌های معتبر چینی و انگلیسی بهترین عملکرد را در اندازه مشابه به دست آورده است."
709
712
  },
@@ -728,12 +731,6 @@
728
731
  "charglm-4": {
729
732
  "description": "CharGLM-4 به‌طور خاص برای نقش‌آفرینی و همراهی عاطفی طراحی شده است و از حافظه چند دور طولانی و گفتگوی شخصی‌سازی شده پشتیبانی می‌کند و کاربردهای گسترده‌ای دارد."
730
733
  },
731
- "chatglm3": {
732
- "description": "ChatGLM3 یک مدل بسته‌شده است که توسط هوش مصنوعی Zhima و آزمایشگاه KEG دانشگاه Tsinghua منتشر شده است. این مدل با پیش‌آموزش بر روی مجموعه‌ای وسیع از نمادهای چینی و انگلیسی و همچنین آموزش مطابق با ترجیحات انسانی، نسبت به نسل اول مدل، بهبود‌های 16٪، 36٪ و 280٪ در MMLU، C-Eval و GSM8K به دست آورده است و در رتبه‌بندی وظایف چینی C-Eval رتبه اول را کسب کرده است. این مدل برای صحنه‌هایی که نیاز به مقدار زیادی دانش، توانایی استدلال و خلاقیت دارند، مانند نوشتن متن تبلیغاتی، نویسندگی داستان، نوشتن محتوای دانشگاهی و تولید کد مناسب است."
733
- },
734
- "chatglm3-6b-base": {
735
- "description": "ChatGLM3-6b-base یک مدل پایه منبع باز با مقیاس ۶ میلیارد پارامتر از نسل جدید سری ChatGLM است که توسط شرکت Zhizhu (智谱) توسعه یافته است."
736
- },
737
734
  "chatgpt-4o-latest": {
738
735
  "description": "ChatGPT-4o یک مدل پویا است که به‌صورت زنده به‌روزرسانی می‌شود تا همیشه نسخه‌ی جدید و به‌روز باشد. این مدل ترکیبی از توانایی‌های قوی در درک و تولید زبان است و برای کاربردهای گسترده مانند خدمات مشتری، آموزش و پشتیبانی فنی مناسب است."
739
736
  },
@@ -938,6 +935,9 @@
938
935
  "deepseek-ai/DeepSeek-V3.1-Terminus": {
939
936
  "description": "DeepSeek-V3.1-Terminus نسخه به‌روزرسانی شده مدل V3.1 منتشر شده توسط DeepSeek است که به عنوان یک مدل زبان بزرگ با عامل ترکیبی شناخته می‌شود. این به‌روزرسانی ضمن حفظ قابلیت‌های اصلی مدل، بر رفع مشکلات گزارش شده توسط کاربران و افزایش پایداری تمرکز دارد. این نسخه به طور قابل توجهی انسجام زبانی را بهبود بخشیده و از بروز ترکیب زبان چینی و انگلیسی و کاراکترهای نامتعارف کاسته است. مدل شامل حالت «تفکر» (Thinking Mode) و «غیرتفکر» (Non-thinking Mode) است که کاربران می‌توانند از طریق قالب‌های گفتگو به صورت انعطاف‌پذیر بین آن‌ها جابجا شوند تا با وظایف مختلف سازگار شوند. به عنوان یک بهینه‌سازی مهم، V3.1-Terminus عملکرد عامل کد (Code Agent) و عامل جستجو (Search Agent) را تقویت کرده است تا در فراخوانی ابزارها و اجرای وظایف پیچیده چندمرحله‌ای قابل اعتمادتر باشد."
940
937
  },
938
+ "deepseek-ai/DeepSeek-V3.2-Exp": {
939
+ "description": "مدل DeepSeek V3.2 Exp یک معماری ترکیبی برای استدلال است که از هر دو حالت تفکر و غیرتفکر پشتیبانی می‌کند."
940
+ },
941
941
  "deepseek-ai/deepseek-llm-67b-chat": {
942
942
  "description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه هوش مصنوعی است که توانایی درک عمیق زبان و تعامل را فراهم می‌کند."
943
943
  },
@@ -1031,6 +1031,9 @@
1031
1031
  "deepseek-v3.1": {
1032
1032
  "description": "DeepSeek-V3.1 یک مدل استدلال ترکیبی جدید از DeepSeek است که از دو حالت استدلال تفکری و غیرتفکری پشتیبانی می‌کند و نسبت به DeepSeek-R1-0528 در حالت تفکری کارایی بالاتری دارد. پس از آموزش تکمیلی، استفاده از ابزارهای Agent و عملکرد وظایف هوشمند به طور قابل توجهی بهبود یافته است. پشتیبانی از پنجره متنی 128k و طول خروجی تا 64k توکن."
1033
1033
  },
1034
+ "deepseek-v3.1-terminus": {
1035
+ "description": "DeepSeek-V3.1-Terminus نسخه‌ای بهینه‌سازی‌شده از مدل زبان بزرگ DeepSeek است که به‌طور خاص برای دستگاه‌های نهایی طراحی شده است."
1036
+ },
1034
1037
  "deepseek-v3.1:671b": {
1035
1038
  "description": "DeepSeek V3.1: مدل استنتاج نسل بعدی که توانایی‌های استنتاج پیچیده و تفکر زنجیره‌ای را بهبود بخشیده و برای وظایفی که نیاز به تحلیل عمیق دارند مناسب است."
1036
1039
  },
@@ -1193,6 +1196,12 @@
1193
1196
  "ernie-4.0-turbo-8k-preview": {
1194
1197
  "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
1195
1198
  },
1199
+ "ernie-4.5-21b-a3b": {
1200
+ "description": "ERNIE 4.5 21B A3B یک مدل متخصص ترکیبی است که توسط Wenxin Baidu توسعه یافته و دارای توانایی‌های قوی در استدلال و پشتیبانی از چند زبان می‌باشد."
1201
+ },
1202
+ "ernie-4.5-300b-a47b": {
1203
+ "description": "ERNIE 4.5 300B A47B یک مدل بسیار بزرگ متخصص ترکیبی است که توسط Wenxin Baidu ارائه شده و از توانایی استدلالی برجسته‌ای برخوردار است."
1204
+ },
1196
1205
  "ernie-4.5-8k-preview": {
1197
1206
  "description": "مدل بزرگ 4.5 Ernie یک مدل پایه چندرسانه‌ای نسل جدید است که توسط بایدو به‌طور مستقل توسعه یافته و از طریق مدل‌سازی مشترک چندین حالت به بهینه‌سازی هم‌زمان دست می‌یابد و توانایی درک چندرسانه‌ای فوق‌العاده‌ای دارد؛ دارای توانایی‌های زبانی پیشرفته‌تر، درک، تولید، منطق و حافظه به‌طور کلی بهبود یافته و توانایی‌های حذف توهم، استدلال منطقی و کد به‌طور قابل توجهی افزایش یافته است."
1198
1207
  },
@@ -1449,7 +1458,7 @@
1449
1458
  "description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع طراحی شده و عملکردی عالی دارد."
1450
1459
  },
1451
1460
  "glm-4-9b-chat": {
1452
- "description": "GLM-4-9B-Chat در زمینه‌های معنایی، ریاضی، استدلال، کد و دانش عملکرد بالایی از خود نشان می‌دهد. همچنین دارای قابلیت مرور وب، اجرای کد، تماس با ابزارهای سفارشی و استدلال متن‌های طولانی است. از 26 زبان از جمله ژاپنی، کره‌ای و آلمانی پشتیبانی می‌کند."
1461
+ "description": "GLM-4-9B-Chat عملکرد بالایی در زمینه‌های معناشناسی، ریاضیات، استدلال، کدنویسی و دانش دارد. همچنین از مرور وب، اجرای کد، فراخوانی ابزارهای سفارشی و استدلال متون بلند پشتیبانی می‌کند. این مدل از ۲۶ زبان از جمله ژاپنی، کره‌ای و آلمانی پشتیبانی می‌نماید."
1453
1462
  },
1454
1463
  "glm-4-air": {
1455
1464
  "description": "GLM-4-Air نسخه‌ای با صرفه اقتصادی است که عملکردی نزدیک به GLM-4 دارد و سرعت بالا و قیمت مناسبی را ارائه می‌دهد."
@@ -1749,7 +1758,10 @@
1749
1758
  "description": "نسخه‌ای مقرون‌به‌صرفه‌تر از GPT Image 1 که به‌صورت بومی از ورودی‌های متنی و تصویری پشتیبانی می‌کند و خروجی تصویری تولید می‌نماید."
1750
1759
  },
1751
1760
  "gpt-oss-120b": {
1752
- "description": "GPT-OSS-120B MXFP4: ساختار ترنسفورمر کوانتیزه شده که حتی در منابع محدود عملکرد قوی خود را حفظ می‌کند."
1761
+ "description": "برای استفاده از این مدل نیاز به درخواست دسترسی می‌باشد. GPT-OSS-120B یک مدل زبان بزرگ متن‌باز از OpenAI است که توانایی بالایی در تولید متن دارد."
1762
+ },
1763
+ "gpt-oss-20b": {
1764
+ "description": "برای استفاده از این مدل نیاز به درخواست دسترسی می‌باشد. GPT-OSS-20B یک مدل زبان میان‌رده متن‌باز از OpenAI است که توانایی تولید متن به‌صورت کارآمد را دارد."
1753
1765
  },
1754
1766
  "gpt-oss:120b": {
1755
1767
  "description": "GPT-OSS 120B یک مدل زبان بزرگ متن‌باز منتشر شده توسط OpenAI است که از فناوری کوانتیزاسیون MXFP4 بهره می‌برد و به عنوان مدل پرچمدار شناخته می‌شود. این مدل نیازمند محیطی با چند GPU یا ایستگاه کاری با عملکرد بالا برای اجرا است و در استدلال پیچیده، تولید کد و پردازش چندزبانه عملکردی برجسته دارد و از فراخوانی توابع پیشرفته و یکپارچه‌سازی ابزارها پشتیبانی می‌کند."
@@ -1967,6 +1979,9 @@
1967
1979
  "kimi-k2-0905-preview": {
1968
1980
  "description": "مدل پیش‌نمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و توانایی‌های قوی‌تری در برنامه‌نویسی عامل‌محور، زیبایی و کاربردی بودن کدهای فرانت‌اند و درک بهتر متن دارد."
1969
1981
  },
1982
+ "kimi-k2-instruct": {
1983
+ "description": "Kimi K2 Instruct یک مدل زبان بزرگ است که توسط Moonshot AI توسعه یافته و دارای توانایی پردازش زمینه‌های بسیار طولانی می‌باشد."
1984
+ },
1970
1985
  "kimi-k2-turbo-preview": {
1971
1986
  "description": "kimi-k2 یک مدل پایه با معماری MoE است که دارای توانمندی‌های بسیار قوی در حوزهٔ برنامه‌نویسی و عامل‌ها (Agent) می‌باشد. مجموع پارامترها 1T و پارامترهای فعال‌شده 32B است. در آزمون‌های بنچمارک در دسته‌های اصلی مانند استدلال دانش عمومی، برنامه‌نویسی، ریاضیات و Agent، عملکرد مدل K2 از سایر مدل‌های متن‌باز مرسوم پیشی گرفته است."
1972
1987
  },
@@ -1988,9 +2003,6 @@
1988
2003
  "lite": {
1989
2004
  "description": "Spark Lite یک مدل زبان بزرگ سبک است که دارای تأخیر بسیار کم و توانایی پردازش کارآمد می‌باشد. به‌طور کامل رایگان و باز است و از قابلیت جستجوی آنلاین در زمان واقعی پشتیبانی می‌کند. ویژگی پاسخ‌دهی سریع آن باعث می‌شود که در کاربردهای استنتاجی و تنظیم مدل در دستگاه‌های با توان محاسباتی پایین عملکرد برجسته‌ای داشته باشد و تجربه‌ای هوشمند و مقرون‌به‌صرفه برای کاربران فراهم کند. به‌ویژه در زمینه‌های پرسش و پاسخ دانش، تولید محتوا و جستجو عملکرد خوبی دارد."
1990
2005
  },
1991
- "llama-2-7b-chat": {
1992
- "description": "سری مدل‌های زبانی بزرگ (LLM) Llama2 توسط Meta توسعه یافته و به صورت متن‌باز منتشر شده است. این مجموعه شامل مدل‌های متنی تولیدی با مقیاس‌های مختلف از 7 میلیارد تا 70 میلیارد پارامتر است که پیش‌آموزش و ری‌آموزش داده شده‌اند. از نظر معماری، Llama2 یک مدل زبانی خودرگرسیو با استفاده از معماری تبدیل‌کننده بهینه‌شده است. نسخه‌های تنظیم‌شده از این مدل با استفاده از ری‌آموزش نظارت‌شده (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) برای همگرایی با ترجیحات انسانی در مورد مفیدیت و ایمنی تنظیم شده‌اند. Llama2 نسبت به سری Llama در مجموعه‌های داده علمی مختلف عملکرد بهتری دارد و الهام بخش طراحی و توسعه مدل‌های دیگر بسیاری بوده است."
1993
- },
1994
2006
  "llama-3.1-70b-versatile": {
1995
2007
  "description": "لاما 3.1 70B توانایی استدلال هوش مصنوعی قوی‌تری را ارائه می‌دهد، مناسب برای برنامه‌های پیچیده، پشتیبانی از پردازش‌های محاسباتی فراوان و تضمین کارایی و دقت بالا."
1996
2008
  },
@@ -2018,9 +2030,6 @@
2018
2030
  "llama-3.3-70b": {
2019
2031
  "description": "Llama 3.3 70B: مدلی با اندازه متوسط تا بزرگ از سری Llama که تعادلی میان توانایی استدلال و بازدهی فراهم می‌کند."
2020
2032
  },
2021
- "llama-3.3-70b-instruct": {
2022
- "description": "Llama 3.3 پیشرفته‌ترین مدل زبان چندزبانه و متن‌باز در سری Llama است که تجربه‌ای با هزینه بسیار پایین مشابه عملکرد مدل 405B را ارائه می‌دهد. این مدل بر اساس ساختار Transformer طراحی شده و از طریق تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) بهبود کارایی و ایمنی یافته است. نسخه بهینه‌سازی شده آن برای مکالمات چندزبانه طراحی شده و در چندین معیار صنعتی از بسیاری از مدل‌های چت متن‌باز و بسته بهتر عمل می‌کند. تاریخ قطع دانش آن دسامبر 2023 است."
2023
- },
2024
2033
  "llama-3.3-70b-versatile": {
2025
2034
  "description": "مدل زبان بزرگ چند زبانه Meta Llama 3.3 (LLM) یک مدل تولیدی پیش‌آموزش دیده و تنظیم‌شده در 70B (ورودی متن/خروجی متن) است. مدل متن خالص Llama 3.3 برای کاربردهای گفتگوی چند زبانه بهینه‌سازی شده و در معیارهای صنعتی معمول در مقایسه با بسیاری از مدل‌های چت متن‌باز و بسته عملکرد بهتری دارد."
2026
2035
  },
@@ -2082,7 +2091,7 @@
2082
2091
  "description": "Spark Max 32K با قابلیت پردازش متن با زمینه بزرگ‌تر، توانایی درک و استدلال منطقی قوی‌تری دارد و از ورودی متنی تا 32K توکن پشتیبانی می‌کند. مناسب برای خواندن اسناد طولانی، پرسش و پاسخ با دانش خصوصی و موارد مشابه."
2083
2092
  },
2084
2093
  "megrez-3b-instruct": {
2085
- "description": "Megrez-3B-Instruct یک مدل زبانی بزرگ است که به طور کامل توسط شرکت ووونگ شیونگ آموزش داده شده است. هدف از Megrez-3B-Instruct ایجاد یک راه‌حل هوشمند از طریق هماهنگی سخت‌افزار و نرم‌افزار است که دارای استنتاج سریع، حجم کوچک و آسانی در استفاده باشد."
2094
+ "description": "Megrez 3B Instruct یک مدل کم‌پارامتر و کارآمد است که توسط Wuwen Xinqiong ارائه شده است."
2086
2095
  },
2087
2096
  "meta-llama-3-70b-instruct": {
2088
2097
  "description": "یک مدل قدرتمند با ۷۰ میلیارد پارامتر که در استدلال، کدنویسی و کاربردهای گسترده زبانی عملکرد برجسته‌ای دارد."
@@ -2639,6 +2648,12 @@
2639
2648
  "pro-128k": {
2640
2649
  "description": "Spark Pro 128K با قابلیت پردازش متن بسیار بزرگ، قادر به پردازش تا 128K اطلاعات متنی است. این ویژگی به‌ویژه برای تحلیل کامل و پردازش ارتباطات منطقی طولانی‌مدت در محتوای متنی طولانی مناسب است و می‌تواند در ارتباطات متنی پیچیده، پشتیبانی از منطق روان و یکپارچه و ارجاعات متنوع را فراهم کند."
2641
2650
  },
2651
+ "pro-deepseek-r1": {
2652
+ "description": "مدل اختصاصی برای خدمات سازمانی، شامل پشتیبانی از سرویس‌های هم‌زمان."
2653
+ },
2654
+ "pro-deepseek-v3": {
2655
+ "description": "مدل اختصاصی برای خدمات سازمانی، شامل پشتیبانی از سرویس‌های هم‌زمان."
2656
+ },
2642
2657
  "qvq-72b-preview": {
2643
2658
  "description": "مدل QVQ یک مدل تحقیقاتی تجربی است که توسط تیم Qwen توسعه یافته و بر بهبود توانایی استدلال بصری، به‌ویژه در زمینه استدلال ریاضی تمرکز دارد."
2644
2659
  },
@@ -2774,12 +2789,6 @@
2774
2789
  "qwen2": {
2775
2790
  "description": "Qwen2 مدل زبان بزرگ نسل جدید علی‌بابا است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی می‌کند."
2776
2791
  },
2777
- "qwen2-72b-instruct": {
2778
- "description": "Qwen2، سری جدیدی از مدل‌های زبانی بزرگ توسط تیم Qwen ارائه شده است. این مدل بر اساس معماری Transformer ساخته شده و از توابع فعال‌سازی SwiGLU، بایاس QKV توجه (attention QKV bias)، توجه سؤال گروهی (group query attention)، ترکیب توجه پنجره‌ای لغزشی و توجه کامل (mixture of sliding window attention and full attention) استفاده می‌کند. علاوه بر این، تیم Qwen بهبودی در تجزیه‌کننده‌هایی که برای تجزیه متن‌های طبیعی و کد مناسب هستند ایجاد کرده‌اند."
2779
- },
2780
- "qwen2-7b-instruct": {
2781
- "description": "Qwen2، سری جدیدی از مدل‌های زبانی بزرگ توسط تیم Qwen ارائه شده است. این مدل بر اساس معماری Transformer ساخته شده و از توابع فعال‌سازی SwiGLU، بایاس QKV توجه (attention QKV bias)، توجه سرویس‌گروهی (group query attention)، ترکیب توجه پنجره‌ای لغزشی و توجه کامل (mixture of sliding window attention and full attention) استفاده می‌کند. علاوه بر این، تیم Qwen بهبودی در تجزیه‌کننده‌هایی ارائه کرده‌اند که برای تجزیه متن‌های طبیعی و کد مناسب هستند."
2782
- },
2783
2792
  "qwen2.5": {
2784
2793
  "description": "Qwen2.5 نسل جدید مدل زبانی مقیاس بزرگ Alibaba است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی می‌کند."
2785
2794
  },
@@ -2918,6 +2927,12 @@
2918
2927
  "qwen3-next-80b-a3b-thinking": {
2919
2928
  "description": "مدل متن‌باز نسل جدید با حالت تفکر مبتنی بر Qwen3، که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B-Thinking-2507) در پیروی از دستورات پیشرفت داشته و پاسخ‌های مدل خلاصه‌تر شده‌اند."
2920
2929
  },
2930
+ "qwen3-vl-235b-a22b-instruct": {
2931
+ "description": "Qwen3 VL 235B A22B Instruct یک مدل چندرسانه‌ای است که توسط Tongyi Qianwen توسعه یافته و از درک و استدلال بصری پشتیبانی می‌کند."
2932
+ },
2933
+ "qwen3-vl-235b-a22b-thinking": {
2934
+ "description": "Qwen3 VL 235B A22B Thinking یک مدل چندرسانه‌ای استدلالی است که توسط Tongyi Qianwen توسعه یافته و از درک و استدلال بصری پشتیبانی می‌کند."
2935
+ },
2921
2936
  "qwen3-vl-plus": {
2922
2937
  "description": "Tongyi Qianwen VL مدلی برای تولید متن با قابلیت درک بصری (تصویر) است که نه تنها می‌تواند OCR (تشخیص متن در تصویر) انجام دهد، بلکه قادر به خلاصه‌سازی و استنتاج بیشتر نیز هست، مانند استخراج ویژگی‌ها از عکس محصولات یا حل مسائل بر اساس تصاویر تمرین."
2923
2938
  },
@@ -3035,6 +3050,9 @@
3035
3050
  "step-r1-v-mini": {
3036
3051
  "description": "این مدل یک مدل استدلال بزرگ با توانایی‌های قوی در درک تصویر است که می‌تواند اطلاعات تصویری و متنی را پردازش کند و پس از تفکر عمیق، متن تولید کند. این مدل در زمینه استدلال بصری عملکرد برجسته‌ای دارد و همچنین دارای توانایی‌های ریاضی، کدنویسی و استدلال متنی در سطح اول است. طول متن زمینه‌ای 100k است."
3037
3052
  },
3053
+ "step3": {
3054
+ "description": "Step3 یک مدل چندرسانه‌ای است که توسط StepStar توسعه یافته و دارای توانایی قوی در درک بصری می‌باشد."
3055
+ },
3038
3056
  "stepfun-ai/step3": {
3039
3057
  "description": "Step3 یک مدل استنتاج چندمودالی پیشرفته است که توسط شرکت StepFun منتشر شده است. این مدل بر پایهٔ معماری مخلوط متخصصان (MoE) با مجموع 321 میلیارد پارامتر و 38 میلیارد پارامتر فعال ساخته شده است. طراحی آن انتها‌به‌انتها است و هدفش کمینه‌سازی هزینهٔ رمزگشایی در حالی‌ست که در استدلال بینایی-زبانی عملکردی در سطح برتر ارائه می‌دهد. از طریق طراحی هم‌افزا مبتنی بر توجه چند-ماتریسی تجزیه‌شده (MFA) و جداسازی توجه و FFN (AFD)، Step3 قادر است کارایی برجسته‌ای را هم روی شتاب‌دهنده‌های رده‌پرچم‌دار و هم روی شتاب‌دهنده‌های سطح پایین حفظ کند. در مرحلهٔ پیش‌آموزش، Step3 بیش از 20T توکن متنی و 4T توکن ترکیبی تصویر-متن را پردازش کرده و بیش از ده زبان را پوشش داده است. این مدل در بنچ‌مارک‌های متعددی از جمله ریاضیات، کدنویسی و چندمودال در میان مدل‌های متن‌باز در جایگاه پیشرو قرار گرفته است."
3040
3058
  },
@@ -3158,9 +3176,6 @@
3158
3176
  "xai/grok-4": {
3159
3177
  "description": "جدیدترین و بزرگ‌ترین مدل پرچمدار xAI که عملکرد بی‌نظیری در زبان طبیعی، ریاضیات و استدلال ارائه می‌دهد — انتخابی کامل و همه‌کاره."
3160
3178
  },
3161
- "yi-1.5-34b-chat": {
3162
- "description": "Yi-1.5 نسخه‌ی به‌روزرسانی شده‌ی Yi است. این مدل با استفاده از یک مجموعه داده با کیفیت بالا شامل 500 میلیارد توکن برای پیش‌آموزی و 3 میلیون نمونه متنوع برای آموزش ریزی مجدداً آموزش داده شده است."
3163
- },
3164
3179
  "yi-large": {
3165
3180
  "description": "مدل جدید با میلیاردها پارامتر، ارائه‌دهنده توانایی‌های فوق‌العاده در پاسخ‌گویی و تولید متن."
3166
3181
  },
@@ -284,11 +284,19 @@
284
284
  "placeholder": "Veuillez entrer l'identifiant du modèle, par exemple gpt-4o ou claude-3.5-sonnet",
285
285
  "title": "ID du modèle"
286
286
  },
287
+ "imageOutput": {
288
+ "extra": "Cette configuration activera uniquement la capacité du modèle à générer des images. L'efficacité dépend entièrement du modèle lui-même. Veuillez tester vous-même si le modèle est capable de générer des images utilisables.",
289
+ "title": "Prise en charge de la génération d'images"
290
+ },
287
291
  "modalTitle": "Configuration du modèle personnalisé",
288
292
  "reasoning": {
289
293
  "extra": "Cette configuration activera uniquement la capacité de réflexion approfondie du modèle. Les résultats dépendent entièrement du modèle lui-même, veuillez tester si ce modèle possède une capacité de réflexion approfondie utilisable.",
290
294
  "title": "Support de la réflexion approfondie"
291
295
  },
296
+ "search": {
297
+ "extra": "Cette configuration activera uniquement la capacité de recherche en ligne via le moteur de recherche intégré du modèle. La prise en charge dépend du modèle lui-même. Veuillez tester vous-même si le moteur de recherche intégré est fonctionnel.",
298
+ "title": "Prise en charge de la recherche en ligne"
299
+ },
292
300
  "tokens": {
293
301
  "extra": "Définir le nombre maximal de tokens pris en charge par le modèle",
294
302
  "title": "Fenêtre de contexte maximale",
@@ -309,6 +317,10 @@
309
317
  "placeholder": "Veuillez sélectionner un type de modèle",
310
318
  "title": "Type de modèle"
311
319
  },
320
+ "video": {
321
+ "extra": "Cette configuration activera uniquement la reconnaissance vidéo dans l'application. La capacité de reconnaissance dépend entièrement du modèle lui-même. Veuillez tester vous-même si le modèle est capable de reconnaître les vidéos.",
322
+ "title": "Prise en charge de la reconnaissance vidéo"
323
+ },
312
324
  "vision": {
313
325
  "extra": "Cette configuration n'activera que la configuration de téléchargement d'images dans l'application, la prise en charge de la reconnaissance dépend entièrement du modèle lui-même, veuillez tester la disponibilité des capacités de reconnaissance visuelle de ce modèle.",
314
326
  "title": "Reconnaissance visuelle prise en charge"
@@ -704,6 +704,9 @@
704
704
  "azure-DeepSeek-R1-0528": {
705
705
  "description": "Déployé et fourni par Microsoft ; le modèle DeepSeek R1 a bénéficié d'une mise à jour mineure, la version actuelle étant DeepSeek-R1-0528. Dans la dernière mise à jour, DeepSeek R1 a considérablement amélioré sa profondeur d'inférence et ses capacités de raisonnement grâce à l'augmentation des ressources de calcul et à l'introduction d'un mécanisme d'optimisation algorithmique en phase post-entraînement. Ce modèle excelle dans plusieurs benchmarks, notamment en mathématiques, programmation et logique générale, avec des performances globales proches des modèles de pointe tels que O3 et Gemini 2.5 Pro."
706
706
  },
707
+ "baichuan-m2-32b": {
708
+ "description": "Baichuan M2 32B est un modèle à experts mixtes développé par Baichuan Intelligence, doté de puissantes capacités de raisonnement."
709
+ },
707
710
  "baichuan/baichuan2-13b-chat": {
708
711
  "description": "Baichuan-13B est un modèle de langage open source et commercialisable développé par Baichuan Intelligence, contenant 13 milliards de paramètres, qui a obtenu les meilleurs résultats dans des benchmarks chinois et anglais de référence."
709
712
  },
@@ -728,12 +731,6 @@
728
731
  "charglm-4": {
729
732
  "description": "CharGLM-4 est conçu pour le jeu de rôle et l'accompagnement émotionnel, prenant en charge une mémoire multi-tours ultra-longue et des dialogues personnalisés, avec une large gamme d'applications."
730
733
  },
731
- "chatglm3": {
732
- "description": "ChatGLM3 est un modèle fermé développé par l'IA Zhipu et le laboratoire KEG de Tsinghua. Il a été pré-entraîné sur une grande quantité d'identifiants chinois et anglais et a été aligné sur les préférences humaines. Par rapport au modèle de première génération, il a amélioré ses performances de 16%, 36% et 280% sur MMLU, C-Eval et GSM8K respectivement, et est devenu le meilleur modèle sur le classement C-Eval pour les tâches en chinois. Il est adapté aux scénarios nécessitant une grande quantité de connaissances, des capacités de raisonnement et de créativité, tels que la rédaction de publicités, l'écriture de romans, la rédaction de contenu informatif et la génération de code."
733
- },
734
- "chatglm3-6b-base": {
735
- "description": "ChatGLM3-6b-base est le modèle de base open source de la dernière génération de la série ChatGLM, développé par Zhipu, avec une taille de 6 milliards de paramètres."
736
- },
737
734
  "chatgpt-4o-latest": {
738
735
  "description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
739
736
  },
@@ -938,6 +935,9 @@
938
935
  "deepseek-ai/DeepSeek-V3.1-Terminus": {
939
936
  "description": "DeepSeek-V3.1-Terminus est une version mise à jour du modèle V3.1 publiée par DeepSeek, positionnée comme un grand modèle de langage hybride pour agents intelligents. Cette mise à jour conserve les capacités originales du modèle tout en se concentrant sur la correction des problèmes signalés par les utilisateurs et l'amélioration de la stabilité. Elle améliore significativement la cohérence linguistique, réduisant le mélange de chinois et d'anglais ainsi que l'apparition de caractères anormaux. Le modèle intègre un « mode réflexion » (Thinking Mode) et un « mode non-réflexion » (Non-thinking Mode), permettant aux utilisateurs de basculer facilement entre ces modes via des modèles de conversation adaptés à différentes tâches. En tant qu'optimisation majeure, V3.1-Terminus renforce les performances des agents de code (Code Agent) et de recherche (Search Agent), rendant leur appel d'outils et l'exécution de tâches complexes en plusieurs étapes plus fiables."
940
937
  },
938
+ "deepseek-ai/DeepSeek-V3.2-Exp": {
939
+ "description": "Le modèle DeepSeek V3.2 Exp adopte une architecture de raisonnement hybride, prenant en charge à la fois les modes de réflexion et non réflexifs."
940
+ },
941
941
  "deepseek-ai/deepseek-llm-67b-chat": {
942
942
  "description": "DeepSeek 67B est un modèle avancé formé pour des dialogues de haute complexité."
943
943
  },
@@ -1031,6 +1031,9 @@
1031
1031
  "deepseek-v3.1": {
1032
1032
  "description": "DeepSeek-V3.1 est un nouveau modèle d'inférence hybride lancé par DeepSeek, prenant en charge deux modes d'inférence : réfléchi et non réfléchi, avec une efficacité de réflexion supérieure à celle de DeepSeek-R1-0528. Optimisé par post-entraînement, l'utilisation des outils Agent et les performances des tâches des agents ont été grandement améliorées. Supporte une fenêtre contextuelle de 128k et une longueur de sortie maximale de 64k tokens."
1033
1033
  },
1034
+ "deepseek-v3.1-terminus": {
1035
+ "description": "DeepSeek-V3.1-Terminus est une version optimisée pour terminaux du grand modèle linguistique lancé par DeepSeek, spécialement conçu pour les appareils terminaux."
1036
+ },
1034
1037
  "deepseek-v3.1:671b": {
1035
1038
  "description": "DeepSeek V3.1 : modèle de raisonnement de nouvelle génération, améliorant les capacités de raisonnement complexe et de réflexion en chaîne, adapté aux tâches nécessitant une analyse approfondie."
1036
1039
  },
@@ -1193,6 +1196,12 @@
1193
1196
  "ernie-4.0-turbo-8k-preview": {
1194
1197
  "description": "Le modèle de langage de très grande taille phare développé par Baidu, avec d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; supporte l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
1195
1198
  },
1199
+ "ernie-4.5-21b-a3b": {
1200
+ "description": "ERNIE 4.5 21B A3B est un modèle à experts mixtes développé par Wenxin de Baidu, offrant de puissantes capacités de raisonnement et de traitement multilingue."
1201
+ },
1202
+ "ernie-4.5-300b-a47b": {
1203
+ "description": "ERNIE 4.5 300B A47B est un modèle à très grande échelle à experts mixtes lancé par Wenxin de Baidu, doté d'excellentes capacités de raisonnement."
1204
+ },
1196
1205
  "ernie-4.5-8k-preview": {
1197
1206
  "description": "Le modèle ERNIE 4.5 est un nouveau modèle de base multimodal natif développé par Baidu, réalisant une optimisation collaborative grâce à la modélisation conjointe de plusieurs modalités, avec d'excellentes capacités de compréhension multimodale ; il possède des capacités linguistiques améliorées, avec des améliorations significatives dans la compréhension, la génération, la logique et la mémoire, ainsi qu'une réduction des hallucinations et une amélioration des capacités de raisonnement logique et de codage."
1198
1207
  },
@@ -1449,7 +1458,7 @@
1449
1458
  "description": "GLM-4-0520 est la dernière version du modèle, conçue pour des tâches hautement complexes et diversifiées, avec des performances exceptionnelles."
1450
1459
  },
1451
1460
  "glm-4-9b-chat": {
1452
- "description": "GLM-4-9B-Chat affiche de bonnes performances dans divers domaines tels que la sémantique, les mathématiques, le raisonnement, le code et les connaissances. Il dispose également de fonctionnalités de navigation sur le web, d'exécution de code, d'appels d'outils personnalisés et de raisonnement sur de longs textes. Il prend en charge 26 langues, y compris le japonais, le coréen et l'allemand."
1461
+ "description": "GLM-4-9B-Chat offre des performances élevées dans les domaines de la sémantique, des mathématiques, du raisonnement, du code et des connaissances. Il prend également en charge la navigation web, l'exécution de code, l'appel d'outils personnalisés et le raisonnement sur de longs textes. Prise en charge de 26 langues, dont le japonais, le coréen et lallemand."
1453
1462
  },
1454
1463
  "glm-4-air": {
1455
1464
  "description": "GLM-4-Air est une version économique, offrant des performances proches de GLM-4, avec une rapidité et un prix abordable."
@@ -1749,7 +1758,10 @@
1749
1758
  "description": "Une version plus économique de GPT Image 1, prenant en charge nativement les entrées texte et image, et générant des sorties visuelles."
1750
1759
  },
1751
1760
  "gpt-oss-120b": {
1752
- "description": "GPT-OSS-120B MXFP4 : architecture Transformer quantifiée, offrant des performances solides même en ressources limitées."
1761
+ "description": "Ce modèle nécessite une demande d'accès. GPT-OSS-120B est un modèle de langage open source à grande échelle lancé par OpenAI, doté de puissantes capacités de génération de texte."
1762
+ },
1763
+ "gpt-oss-20b": {
1764
+ "description": "Ce modèle nécessite une demande d'accès. GPT-OSS-20B est un modèle de langage open source de taille moyenne lancé par OpenAI, offrant une génération de texte efficace."
1753
1765
  },
1754
1766
  "gpt-oss:120b": {
1755
1767
  "description": "GPT-OSS 120B est un grand modèle de langage open source publié par OpenAI, utilisant la technologie de quantification MXFP4, conçu comme un modèle phare. Il nécessite un environnement multi-GPU ou une station de travail haute performance, offrant des performances exceptionnelles en raisonnement complexe, génération de code et traitement multilingue, avec prise en charge avancée des appels de fonctions et de l'intégration d'outils."
@@ -1967,6 +1979,9 @@
1967
1979
  "kimi-k2-0905-preview": {
1968
1980
  "description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
1969
1981
  },
1982
+ "kimi-k2-instruct": {
1983
+ "description": "Kimi K2 Instruct est un grand modèle linguistique développé par Moonshot AI, capable de traiter des contextes ultra-longs."
1984
+ },
1970
1985
  "kimi-k2-turbo-preview": {
1971
1986
  "description": "kimi-k2 est un modèle de base à architecture MoE doté de capacités remarquables en programmation et en agents autonomes, avec 1T de paramètres au total et 32B de paramètres activés. Dans les principaux tests de référence couvrant le raisonnement général, la programmation, les mathématiques et les agents, le modèle K2 surpasse les autres modèles open source majeurs."
1972
1987
  },
@@ -1988,9 +2003,6 @@
1988
2003
  "lite": {
1989
2004
  "description": "Spark Lite est un modèle de langage léger, offrant une latence extrêmement faible et une capacité de traitement efficace, entièrement gratuit et ouvert, prenant en charge la recherche en temps réel. Sa capacité de réponse rapide le rend exceptionnel pour les applications d'inférence sur des appareils à faible puissance de calcul et pour le réglage des modèles, offrant aux utilisateurs un excellent rapport coût-efficacité et une expérience intelligente, en particulier dans les scénarios de questions-réponses, de génération de contenu et de recherche."
1990
2005
  },
1991
- "llama-2-7b-chat": {
1992
- "description": "Llama2 est une série de grands modèles de langage (LLM) développés et open-source par Meta. Elle comprend des modèles de génération de texte pré-entraînés et affinés, dont la taille varie de 7 milliards à 70 milliards de paramètres. Sur le plan architectural, Llama2 est un modèle de langage auto-régressif utilisant une architecture de transformateur optimisée. Les versions ajustées utilisent un affinage supervisé (SFT) et un apprentissage par renforcement avec feedback humain (RLHF) pour aligner les préférences d'utilité et de sécurité humaines. Llama2 offre de meilleures performances que la série Llama sur de nombreux jeux de données académiques, fournissant des idées pour la conception et le développement de nombreux autres modèles."
1993
- },
1994
2006
  "llama-3.1-70b-versatile": {
1995
2007
  "description": "Llama 3.1 70B offre une capacité de raisonnement AI plus puissante, adaptée aux applications complexes, prenant en charge un traitement de calcul intensif tout en garantissant efficacité et précision."
1996
2008
  },
@@ -2018,9 +2030,6 @@
2018
2030
  "llama-3.3-70b": {
2019
2031
  "description": "Llama 3.3 70B : un modèle Llama de taille moyenne à grande, équilibrant capacités de raisonnement et débit élevé."
2020
2032
  },
2021
- "llama-3.3-70b-instruct": {
2022
- "description": "Llama 3.3 est le modèle de langage open source multilingue le plus avancé de la série Llama, offrant des performances comparables à celles du modèle 405B à un coût très bas. Basé sur une architecture Transformer, il améliore son utilité et sa sécurité grâce à un ajustement supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF). Sa version optimisée pour les instructions est spécialement conçue pour les dialogues multilingues et surpasse de nombreux modèles de chat open source et fermés sur plusieurs benchmarks industriels. La date limite des connaissances est décembre 2023."
2023
- },
2024
2033
  "llama-3.3-70b-versatile": {
2025
2034
  "description": "Le modèle de langage multilingue Llama 3.3 de Meta (LLM) est un modèle génératif pré-entraîné et affiné par instructions avec 70B (entrée/sortie de texte). Le modèle Llama 3.3 affiné par instructions est optimisé pour les cas d'utilisation de dialogue multilingue et surpasse de nombreux modèles de chat open-source et fermés disponibles sur des benchmarks industriels courants."
2026
2035
  },
@@ -2082,7 +2091,7 @@
2082
2091
  "description": "Spark Max 32K est équipé d'une grande capacité de traitement de contexte, avec une compréhension contextuelle et des capacités de raisonnement logique renforcées, prenant en charge des entrées textuelles de 32K tokens, adapté à la lecture de documents longs, aux questions-réponses privées et à d'autres scénarios."
2083
2092
  },
2084
2093
  "megrez-3b-instruct": {
2085
- "description": "Megrez-3B-Instruct est un grand modèle de langage entièrement formé par Wúwèn Xīnqióng. Megrez-3B-Instruct vise à créer une solution d'intelligence embarquée rapide, compacte et facile à utiliser, en adoptant une approche intégrée logiciel-hardware."
2094
+ "description": "Megrez 3B Instruct est un modèle efficace à faible nombre de paramètres lancé par Wuwen Xinqiong."
2086
2095
  },
2087
2096
  "meta-llama-3-70b-instruct": {
2088
2097
  "description": "Un puissant modèle de 70 milliards de paramètres excelling dans le raisonnement, le codage et les applications linguistiques larges."
@@ -2639,6 +2648,12 @@
2639
2648
  "pro-128k": {
2640
2649
  "description": "Spark Pro 128K est doté d'une capacité de traitement de contexte très étendue, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un soutien varié pour les références dans des communications textuelles complexes."
2641
2650
  },
2651
+ "pro-deepseek-r1": {
2652
+ "description": "Modèle dédié aux services d'entreprise, incluant les services en parallèle."
2653
+ },
2654
+ "pro-deepseek-v3": {
2655
+ "description": "Modèle dédié aux services d'entreprise, incluant les services en parallèle."
2656
+ },
2642
2657
  "qvq-72b-preview": {
2643
2658
  "description": "Le modèle QVQ est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement visuel, en particulier dans le domaine du raisonnement mathématique."
2644
2659
  },
@@ -2774,12 +2789,6 @@
2774
2789
  "qwen2": {
2775
2790
  "description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
2776
2791
  },
2777
- "qwen2-72b-instruct": {
2778
- "description": "Qwen2 est la nouvelle série de modèles de langage grand format développée par l'équipe Qwen. Elle repose sur l'architecture Transformer et intègre des fonctions d'activation SwiGLU, un biais d'attention QKV (attention QKV bias), une attention de requête de groupe (group query attention), un mélange d'attention à fenêtre glissante (mixture of sliding window attention) et une attention complète. De plus, l'équipe Qwen a amélioré le segmenteur pour mieux s'adapter à diverses langues naturelles et au code."
2779
- },
2780
- "qwen2-7b-instruct": {
2781
- "description": "Qwen2 est la nouvelle génération de modèles de langage grand format développée par l'équipe Qwen. Il repose sur l'architecture Transformer et utilise des fonctions d'activation SwiGLU, des biais QKV d'attention, de l'attention de requête de groupe, un mélange d'attention à fenêtre glissante et d'attention complète. De plus, l'équipe Qwen a amélioré le segmenteur pour s'adapter à de nombreuses langues naturelles et à des codes."
2782
- },
2783
2792
  "qwen2.5": {
2784
2793
  "description": "Qwen2.5 est le nouveau modèle de langage à grande échelle de Alibaba, offrant d'excellentes performances pour répondre à des besoins d'application diversifiés."
2785
2794
  },
@@ -2918,6 +2927,12 @@
2918
2927
  "qwen3-next-80b-a3b-thinking": {
2919
2928
  "description": "Modèle open source de nouvelle génération en mode réflexif basé sur Qwen3, avec une meilleure conformité aux instructions et des réponses plus concises dans les résumés par rapport à la version précédente (Tongyi Qianwen 3-235B-A22B-Thinking-2507)."
2920
2929
  },
2930
+ "qwen3-vl-235b-a22b-instruct": {
2931
+ "description": "Qwen3 VL 235B A22B Instruct est un modèle multimodal lancé par Tongyi Qianwen, prenant en charge la compréhension et le raisonnement visuels."
2932
+ },
2933
+ "qwen3-vl-235b-a22b-thinking": {
2934
+ "description": "Qwen3 VL 235B A22B Thinking est un modèle de raisonnement multimodal lancé par Tongyi Qianwen, prenant en charge la compréhension et le raisonnement visuels."
2935
+ },
2921
2936
  "qwen3-vl-plus": {
2922
2937
  "description": "Tongyi Qianwen VL est un modèle de génération de texte doté de capacités de compréhension visuelle (images). Il peut non seulement effectuer de l'OCR (reconnaissance de texte sur images), mais aussi résumer et raisonner davantage, par exemple extraire des attributs à partir de photos de produits ou résoudre des exercices à partir d'images."
2923
2938
  },
@@ -3035,6 +3050,9 @@
3035
3050
  "step-r1-v-mini": {
3036
3051
  "description": "Ce modèle est un grand modèle de raisonnement avec de puissantes capacités de compréhension d'image, capable de traiter des informations visuelles et textuelles, produisant du texte après une réflexion approfondie. Ce modèle se distingue dans le domaine du raisonnement visuel, tout en possédant des capacités de raisonnement mathématique, de code et de texte de premier plan. La longueur du contexte est de 100k."
3037
3052
  },
3053
+ "step3": {
3054
+ "description": "Step3 est un modèle multimodal développé par StepStar, doté de puissantes capacités de compréhension visuelle."
3055
+ },
3038
3056
  "stepfun-ai/step3": {
3039
3057
  "description": "Step3 est un modèle de raisonnement multimodal de pointe publié par StepFun (阶跃星辰). Il est construit sur une architecture Mixture-of-Experts (MoE) comportant 321 milliards de paramètres au total et 38 milliards de paramètres d'activation. Le modèle adopte une conception bout en bout visant à minimiser le coût de décodage tout en offrant des performances de premier plan en raisonnement visuel et linguistique. Grâce à la conception synergique de l'attention par décomposition multi-matrice (MFA) et du découplage attention‑FFN (AFD), Step3 conserve une grande efficacité aussi bien sur des accélérateurs haut de gamme que sur des accélérateurs d'entrée de gamme. Lors de la pré‑entraînement, Step3 a traité plus de 20 000 milliards de tokens textuels et 4 000 milliards de tokens mixtes image‑texte, couvrant une dizaine de langues. Le modèle atteint des niveaux de référence parmi les meilleurs des modèles open source sur plusieurs benchmarks, notamment en mathématiques, en code et en multimodalité."
3040
3058
  },
@@ -3158,9 +3176,6 @@
3158
3176
  "xai/grok-4": {
3159
3177
  "description": "Le dernier et meilleur modèle phare de xAI, offrant des performances inégalées en langage naturel, mathématiques et raisonnement — un véritable modèle polyvalent."
3160
3178
  },
3161
- "yi-1.5-34b-chat": {
3162
- "description": "Yi-1.5 est une version améliorée de Yi. Il utilise un corpus de haute qualité de 500 milliards de tokens pour poursuivre l'entraînement préalable de Yi, et est affiné sur 3 millions d'exemples de fine-tuning variés."
3163
- },
3164
3179
  "yi-large": {
3165
3180
  "description": "Un modèle de nouvelle génération avec des milliards de paramètres, offrant des capacités de question-réponse et de génération de texte exceptionnelles."
3166
3181
  },
@@ -284,11 +284,19 @@
284
284
  "placeholder": "Inserisci l'ID del modello, ad esempio gpt-4o o claude-3.5-sonnet",
285
285
  "title": "ID del modello"
286
286
  },
287
+ "imageOutput": {
288
+ "extra": "Questa configurazione abilita solo la capacità del modello di generare immagini. L'efficacia dipende interamente dal modello stesso. Si consiglia di testare autonomamente se il modello supporta la generazione di immagini.",
289
+ "title": "Supporta la generazione di immagini"
290
+ },
287
291
  "modalTitle": "Configurazione modello personalizzato",
288
292
  "reasoning": {
289
293
  "extra": "Questa configurazione attiverà solo la capacità di pensiero profondo del modello; l'effetto specifico dipende interamente dal modello stesso. Si prega di testare autonomamente se il modello possiede una capacità di pensiero profondo utilizzabile.",
290
294
  "title": "Supporto per il pensiero profondo"
291
295
  },
296
+ "search": {
297
+ "extra": "Questa configurazione abilita solo la capacità del motore di ricerca integrato del modello di connettersi a Internet. La disponibilità di questa funzione dipende dal modello stesso. Si consiglia di testare autonomamente se il motore di ricerca integrato è utilizzabile.",
298
+ "title": "Supporta la ricerca online"
299
+ },
292
300
  "tokens": {
293
301
  "extra": "Imposta il numero massimo di token supportati dal modello",
294
302
  "title": "Finestra di contesto massima",
@@ -309,6 +317,10 @@
309
317
  "placeholder": "Seleziona il tipo di modello",
310
318
  "title": "Tipo di modello"
311
319
  },
320
+ "video": {
321
+ "extra": "Questa configurazione abilita solo la funzione di riconoscimento video nell'applicazione. La disponibilità del riconoscimento dipende interamente dal modello stesso. Si consiglia di testare autonomamente se il modello supporta il riconoscimento video.",
322
+ "title": "Supporta il riconoscimento video"
323
+ },
312
324
  "vision": {
313
325
  "extra": "Questa configurazione abiliterà solo la configurazione di caricamento immagini nell'app, la disponibilità di riconoscimento dipende interamente dal modello stesso, testare autonomamente la disponibilità di riconoscimento visivo di questo modello.",
314
326
  "title": "Supporto per riconoscimento visivo"