@lobehub/chat 1.51.8 → 1.51.10

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (63) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/common.json +1 -1
  4. package/locales/ar/modelProvider.json +0 -20
  5. package/locales/ar/models.json +108 -3
  6. package/locales/bg-BG/common.json +1 -1
  7. package/locales/bg-BG/modelProvider.json +0 -20
  8. package/locales/bg-BG/models.json +108 -3
  9. package/locales/de-DE/common.json +1 -1
  10. package/locales/de-DE/modelProvider.json +0 -20
  11. package/locales/de-DE/models.json +108 -3
  12. package/locales/en-US/common.json +1 -1
  13. package/locales/en-US/modelProvider.json +0 -20
  14. package/locales/en-US/models.json +108 -3
  15. package/locales/es-ES/common.json +1 -1
  16. package/locales/es-ES/modelProvider.json +0 -20
  17. package/locales/es-ES/models.json +108 -3
  18. package/locales/fa-IR/common.json +1 -1
  19. package/locales/fa-IR/modelProvider.json +0 -20
  20. package/locales/fa-IR/models.json +108 -3
  21. package/locales/fr-FR/common.json +1 -1
  22. package/locales/fr-FR/modelProvider.json +0 -20
  23. package/locales/fr-FR/models.json +108 -3
  24. package/locales/it-IT/common.json +1 -1
  25. package/locales/it-IT/modelProvider.json +0 -20
  26. package/locales/it-IT/models.json +108 -3
  27. package/locales/ja-JP/common.json +1 -1
  28. package/locales/ja-JP/modelProvider.json +0 -20
  29. package/locales/ja-JP/models.json +108 -3
  30. package/locales/ko-KR/common.json +1 -1
  31. package/locales/ko-KR/modelProvider.json +0 -20
  32. package/locales/ko-KR/models.json +108 -3
  33. package/locales/nl-NL/common.json +1 -1
  34. package/locales/nl-NL/modelProvider.json +0 -20
  35. package/locales/nl-NL/models.json +108 -3
  36. package/locales/pl-PL/common.json +1 -1
  37. package/locales/pl-PL/modelProvider.json +0 -20
  38. package/locales/pl-PL/models.json +108 -3
  39. package/locales/pt-BR/common.json +1 -1
  40. package/locales/pt-BR/modelProvider.json +0 -20
  41. package/locales/pt-BR/models.json +108 -3
  42. package/locales/ru-RU/common.json +1 -1
  43. package/locales/ru-RU/modelProvider.json +0 -20
  44. package/locales/ru-RU/models.json +108 -3
  45. package/locales/tr-TR/common.json +1 -1
  46. package/locales/tr-TR/modelProvider.json +0 -20
  47. package/locales/tr-TR/models.json +108 -3
  48. package/locales/vi-VN/common.json +1 -1
  49. package/locales/vi-VN/modelProvider.json +0 -20
  50. package/locales/vi-VN/models.json +108 -3
  51. package/locales/zh-CN/common.json +1 -1
  52. package/locales/zh-CN/modelProvider.json +0 -20
  53. package/locales/zh-CN/models.json +113 -8
  54. package/locales/zh-TW/common.json +1 -1
  55. package/locales/zh-TW/modelProvider.json +0 -20
  56. package/locales/zh-TW/models.json +108 -3
  57. package/package.json +1 -1
  58. package/src/app/[variants]/(main)/chat/_layout/Desktop/SessionPanel.tsx +2 -1
  59. package/src/app/[variants]/(main)/chat/_layout/Mobile.tsx +2 -1
  60. package/src/app/[variants]/(main)/chat/layout.ts +0 -2
  61. package/src/app/[variants]/(main)/settings/provider/(detail)/[id]/page.tsx +30 -28
  62. package/src/features/User/PlanTag.tsx +2 -2
  63. package/src/locales/default/common.ts +1 -1
@@ -23,6 +23,9 @@
23
23
  "360gpt2-pro": {
24
24
  "description": "360GPT2 Pro مدل پیشرفته پردازش زبان طبیعی است که توسط شرکت 360 ارائه شده است. این مدل دارای توانایی‌های برجسته‌ای در تولید و درک متن است و به ویژه در زمینه تولید و خلاقیت عملکرد فوق‌العاده‌ای دارد. همچنین قادر به انجام وظایف پیچیده تبدیل زبان و ایفای نقش می‌باشد."
25
25
  },
26
+ "360zhinao2-o1": {
27
+ "description": "مدل 360zhinao2-o1 با استفاده از جستجوی درختی زنجیره تفکر را ایجاد کرده و مکانیزم بازتاب را معرفی کرده است و با استفاده از یادگیری تقویتی آموزش دیده است، این مدل توانایی خودبازتابی و اصلاح خطا را دارد."
28
+ },
26
29
  "4.0Ultra": {
27
30
  "description": "Spark Ultra قدرتمندترین نسخه از سری مدل‌های بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصه‌سازی محتوای متنی را بهبود می‌بخشد. این یک راه‌حل جامع برای افزایش بهره‌وری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته می‌شود."
28
31
  },
@@ -44,6 +47,18 @@
44
47
  "Baichuan4-Turbo": {
45
48
  "description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متن‌های طولانی و تولید خلاقانه از مدل‌های اصلی خارجی پیشی می‌گیرد. همچنین دارای قابلیت‌های چندرسانه‌ای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد."
46
49
  },
50
+ "DeepSeek-R1-Distill-Qwen-1.5B": {
51
+ "description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-1.5B است که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است."
52
+ },
53
+ "DeepSeek-R1-Distill-Qwen-14B": {
54
+ "description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-14B است که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است."
55
+ },
56
+ "DeepSeek-R1-Distill-Qwen-32B": {
57
+ "description": "سری DeepSeek-R1 با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده و از سطح OpenAI-o1-mini فراتر رفته است."
58
+ },
59
+ "DeepSeek-R1-Distill-Qwen-7B": {
60
+ "description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-7B است که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است."
61
+ },
47
62
  "Doubao-lite-128k": {
48
63
  "description": "Doubao-lite دارای سرعت پاسخ‌دهی بسیار بالا و قیمت مناسب‌تر است و برای سناریوهای مختلف مشتریان گزینه‌های منعطف‌تری ارائه می‌دهد. این مدل از استنتاج و تنظیم 128k پنجره متنی پشتیبانی می‌کند."
49
64
  },
@@ -77,9 +92,6 @@
77
92
  "ERNIE-4.0-8K-Preview": {
78
93
  "description": "مدل زبان بزرگ مقیاس پرچمدار توسعه‌یافته توسط بایدو، در مقایسه با ERNIE 3.5 ارتقاء کامل توانایی‌های مدل را به ارمغان آورده و برای وظایف پیچیده در حوزه‌های مختلف مناسب است؛ از افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به‌روز بماند."
79
94
  },
80
- "ERNIE-4.0-Turbo-128K": {
81
- "description": "مدل زبان بزرگ و پرچمدار خودساخته بایدو که عملکردی عالی دارد و به طور گسترده‌ای در سناریوهای پیچیده در زمینه‌های مختلف کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند و به روز بودن اطلاعات پرسش و پاسخ را تضمین می‌کند. نسبت به ERNIE 4.0 در عملکرد برتر است."
82
- },
83
95
  "ERNIE-4.0-Turbo-8K-Latest": {
84
96
  "description": "مدل زبان بزرگ و پیشرفته‌ای که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینه‌های مختلف و مناسب برای وظایف پیچیده؛ از افزونه جستجوی بایدو به‌طور خودکار پشتیبانی می‌کند تا اطلاعات به‌روز را در پاسخ‌ها تضمین کند. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد."
85
97
  },
@@ -176,6 +188,9 @@
176
188
  "Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
177
189
  "description": "Meta Llama 3.1 یکی از خانواده‌های مدل‌های زبانی بزرگ چند زبانه است که توسط Meta توسعه یافته و شامل واریانت‌های پیش‌آموزش شده و تنظیم دقیق دستوری با اندازه‌های پارامتر 8B، 70B و 405B است. این مدل 8B به طور خاص برای سناریوهای گفتگوی چند زبانه بهینه‌سازی شده و در چندین آزمون معیار صنعتی عملکرد عالی دارد. آموزش مدل با استفاده از بیش از 15 تریلیون توکن داده‌های عمومی انجام شده و از تکنیک‌های تنظیم دقیق نظارتی و یادگیری تقویتی با بازخورد انسانی برای افزایش مفید بودن و ایمنی مدل استفاده شده است. Llama 3.1 از تولید متن و تولید کد پشتیبانی می‌کند و تاریخ قطع دانش آن دسامبر 2023 است."
178
190
  },
191
+ "QwQ-32B-Preview": {
192
+ "description": "QwQ-32B-Preview یک مدل پردازش زبان طبیعی نوآورانه است که قادر به پردازش کارآمد مکالمات پیچیده و درک زمینه است."
193
+ },
179
194
  "Qwen/QVQ-72B-Preview": {
180
195
  "description": "QVQ-72B-Preview یک مدل تحقیقاتی است که توسط تیم Qwen توسعه یافته و بر روی توانایی‌های استنتاج بصری تمرکز دارد و در درک صحنه‌های پیچیده و حل مسائل ریاضی مرتبط با بصری دارای مزیت‌های منحصر به فردی است."
181
196
  },
@@ -527,6 +542,24 @@
527
542
  "deepseek-ai/DeepSeek-R1": {
528
543
  "description": "DeepSeek-R1 یک مدل استنتاجی مبتنی بر یادگیری تقویتی (RL) است که به مشکلات تکرار و خوانایی در مدل پرداخته است. قبل از RL، DeepSeek-R1 داده‌های شروع سرد را معرفی کرد و عملکرد استنتاج را بهینه‌تر کرد. این مدل در وظایف ریاضی، کدنویسی و استنتاج با OpenAI-o1 عملکرد مشابهی دارد و با استفاده از روش‌های آموزشی به دقت طراحی شده، کیفیت کلی را بهبود بخشیده است."
529
544
  },
545
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
546
+ "description": "مدل تقطیر DeepSeek-R1 که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است."
547
+ },
548
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
549
+ "description": "DeepSeek-R1-Distill-Llama-8B مدلی است که بر اساس Llama-3.1-8B توسعه یافته است. این مدل با استفاده از نمونه‌های تولید شده توسط DeepSeek-R1 برای تنظیم دقیق، توانایی استدلال عالی را نشان می‌دهد. در چندین آزمون معیار عملکرد خوبی داشته است، به طوری که در MATH-500 به دقت 89.1% و در AIME 2024 به نرخ قبولی 50.4% دست یافته و در CodeForces امتیاز 1205 را کسب کرده است و به عنوان مدلی با مقیاس 8B توانایی‌های ریاضی و برنامه‌نویسی قوی را نشان می‌دهد."
550
+ },
551
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
552
+ "description": "مدل تقطیر DeepSeek-R1 که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است."
553
+ },
554
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
555
+ "description": "مدل تقطیر DeepSeek-R1 که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است."
556
+ },
557
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
558
+ "description": "DeepSeek-R1-Distill-Qwen-32B مدلی است که از تقطیر دانش بر اساس Qwen2.5-32B به دست آمده است. این مدل با استفاده از 800000 نمونه منتخب تولید شده توسط DeepSeek-R1 برای تنظیم دقیق، در زمینه‌های مختلفی از جمله ریاضیات، برنامه‌نویسی و استدلال عملکرد برجسته‌ای را نشان می‌دهد. در چندین آزمون معیار از جمله AIME 2024، MATH-500 و GPQA Diamond نتایج عالی کسب کرده است، به طوری که در MATH-500 به دقت 94.3% دست یافته و توانایی استدلال ریاضی قوی را نشان می‌دهد."
559
+ },
560
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
561
+ "description": "DeepSeek-R1-Distill-Qwen-7B مدلی است که از تقطیر دانش بر اساس Qwen2.5-Math-7B به دست آمده است. این مدل با استفاده از 800000 نمونه منتخب تولید شده توسط DeepSeek-R1 برای تنظیم دقیق، توانایی استدلال عالی را نشان می‌دهد. در چندین آزمون معیار عملکرد برجسته‌ای داشته است، به طوری که در MATH-500 به دقت 92.8% و در AIME 2024 به نرخ قبولی 55.5% دست یافته و در CodeForces امتیاز 1189 را کسب کرده است و به عنوان مدلی با مقیاس 7B توانایی‌های ریاضی و برنامه‌نویسی قوی را نشان می‌دهد."
562
+ },
530
563
  "deepseek-ai/DeepSeek-V2.5": {
531
564
  "description": "DeepSeek V2.5 ویژگی‌های برجسته نسخه‌های قبلی را گرد هم آورده و توانایی‌های عمومی و کدنویسی را تقویت کرده است."
532
565
  },
@@ -554,6 +587,9 @@
554
587
  "deepseek-r1": {
555
588
  "description": "DeepSeek-R1 یک مدل استنتاجی مبتنی بر یادگیری تقویتی (RL) است که به مشکلات تکرار و خوانایی در مدل پرداخته است. قبل از RL، DeepSeek-R1 داده‌های شروع سرد را معرفی کرد و عملکرد استنتاج را بهینه‌تر کرد. این مدل در وظایف ریاضی، کدنویسی و استنتاج با OpenAI-o1 عملکرد مشابهی دارد و با استفاده از روش‌های آموزشی به دقت طراحی شده، کیفیت کلی را بهبود بخشیده است."
556
589
  },
590
+ "deepseek-r1-distill-llama-70b": {
591
+ "description": "DeepSeek R1 - مدل بزرگتر و هوشمندتر در مجموعه DeepSeek - به معماری Llama 70B تقطیر شده است. بر اساس آزمون‌های معیار و ارزیابی‌های انسانی، این مدل از Llama 70B اصلی هوشمندتر است، به ویژه در وظایفی که نیاز به دقت ریاضی و واقعی دارند."
592
+ },
557
593
  "deepseek-reasoner": {
558
594
  "description": "مدل استدلالی ارائه شده توسط DeepSeek. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره تفکر را تولید می‌کند تا دقت پاسخ نهایی را افزایش دهد."
559
595
  },
@@ -563,12 +599,63 @@
563
599
  "deepseek-v2:236b": {
564
600
  "description": "DeepSeek V2 236B مدل طراحی کد DeepSeek است که توانایی‌های قدرتمندی در تولید کد ارائه می‌دهد."
565
601
  },
602
+ "deepseek-v3": {
603
+ "description": "DeepSeek-V3 مدل MoE توسعه یافته توسط شرکت تحقیقاتی فناوری هوش مصنوعی DeepSeek در هانگژو است که در چندین ارزیابی عملکرد برجسته‌ای دارد و در لیست‌های اصلی در صدر مدل‌های متن‌باز قرار دارد. V3 نسبت به مدل V2.5 سرعت تولید را 3 برابر افزایش داده و تجربه کاربری سریع‌تر و روان‌تری را برای کاربران فراهم می‌کند."
604
+ },
566
605
  "deepseek/deepseek-chat": {
567
606
  "description": "مدل متن‌باز جدیدی که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل نه تنها توانایی گفتگوی عمومی مدل Chat و قدرت پردازش کد مدل Coder را حفظ کرده است، بلکه به ترجیحات انسانی نیز بهتر همسو شده است. علاوه بر این، DeepSeek-V2.5 در وظایف نوشتاری، پیروی از دستورات و سایر جنبه‌ها نیز بهبودهای قابل توجهی داشته است."
568
607
  },
569
608
  "emohaa": {
570
609
  "description": "Emohaa یک مدل روان‌شناختی است که دارای توانایی مشاوره حرفه‌ای بوده و به کاربران در درک مسائل احساسی کمک می‌کند."
571
610
  },
611
+ "ernie-3.5-128k": {
612
+ "description": "مدل زبان بزرگ پرچمدار خود توسعه یافته توسط بایدو، که شامل حجم وسیعی از متون چینی و انگلیسی است و دارای توانایی‌های عمومی قوی است که می‌تواند نیازهای اکثر موارد پرسش و پاسخ، تولید خلاقانه و کاربردهای افزونه را برآورده کند؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
613
+ },
614
+ "ernie-3.5-8k": {
615
+ "description": "مدل زبان بزرگ پرچمدار خود توسعه یافته توسط بایدو، که شامل حجم وسیعی از متون چینی و انگلیسی است و دارای توانایی‌های عمومی قوی است که می‌تواند نیازهای اکثر موارد پرسش و پاسخ، تولید خلاقانه و کاربردهای افزونه را برآورده کند؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
616
+ },
617
+ "ernie-3.5-8k-preview": {
618
+ "description": "مدل زبان بزرگ پرچمدار خود توسعه یافته توسط بایدو، که شامل حجم وسیعی از متون چینی و انگلیسی است و دارای توانایی‌های عمومی قوی است که می‌تواند نیازهای اکثر موارد پرسش و پاسخ، تولید خلاقانه و کاربردهای افزونه را برآورده کند؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
619
+ },
620
+ "ernie-4.0-8k-latest": {
621
+ "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که نسبت به ERNIE 3.5 به‌روزرسانی‌های جامع‌تری در توانایی‌های مدل داشته و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
622
+ },
623
+ "ernie-4.0-8k-preview": {
624
+ "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که نسبت به ERNIE 3.5 به‌روزرسانی‌های جامع‌تری در توانایی‌های مدل داشته و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
625
+ },
626
+ "ernie-4.0-turbo-128k": {
627
+ "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
628
+ },
629
+ "ernie-4.0-turbo-8k-latest": {
630
+ "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
631
+ },
632
+ "ernie-4.0-turbo-8k-preview": {
633
+ "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
634
+ },
635
+ "ernie-char-8k": {
636
+ "description": "مدل زبان بزرگ با کاربرد خاص که توسط بایدو توسعه یافته است و برای کاربردهایی مانند NPCهای بازی، مکالمات خدمات مشتری، و نقش‌آفرینی در مکالمات مناسب است، سبک شخصیت آن واضح‌تر و یکدست‌تر است و توانایی پیروی از دستورات و عملکرد استدلال بهتری دارد."
637
+ },
638
+ "ernie-char-fiction-8k": {
639
+ "description": "مدل زبان بزرگ با کاربرد خاص که توسط بایدو توسعه یافته است و برای کاربردهایی مانند NPCهای بازی، مکالمات خدمات مشتری، و نقش‌آفرینی در مکالمات مناسب است، سبک شخصیت آن واضح‌تر و یکدست‌تر است و توانایی پیروی از دستورات و عملکرد استدلال بهتری دارد."
640
+ },
641
+ "ernie-lite-8k": {
642
+ "description": "ERNIE Lite مدل زبان بزرگ سبک خود توسعه یافته توسط بایدو است که تعادل خوبی بین عملکرد مدل و عملکرد استدلال دارد و برای استفاده در کارت‌های تسریع AI با توان محاسباتی پایین مناسب است."
643
+ },
644
+ "ernie-lite-pro-128k": {
645
+ "description": "مدل زبان بزرگ سبک خود توسعه یافته توسط بایدو که تعادل خوبی بین عملکرد مدل و عملکرد استدلال دارد و عملکرد بهتری نسبت به ERNIE Lite دارد و برای استفاده در کارت‌های تسریع AI با توان محاسباتی پایین مناسب است."
646
+ },
647
+ "ernie-novel-8k": {
648
+ "description": "مدل زبان بزرگ عمومی خود توسعه یافته توسط بایدو که در توانایی ادامه نوشتن رمان مزیت قابل توجهی دارد و همچنین می‌تواند در صحنه‌های کوتاه‌نمایش و فیلم‌ها استفاده شود."
649
+ },
650
+ "ernie-speed-128k": {
651
+ "description": "مدل زبان بزرگ با عملکرد بالا که به تازگی در سال 2024 توسط بایدو منتشر شده است، دارای توانایی‌های عمومی عالی است و برای تنظیم دقیق به عنوان مدل پایه مناسب است و می‌تواند به خوبی مسائل خاص را مدیریت کند و همچنین دارای عملکرد استدلال بسیار خوبی است."
652
+ },
653
+ "ernie-speed-pro-128k": {
654
+ "description": "مدل زبان بزرگ با عملکرد بالا که به تازگی در سال 2024 توسط بایدو منتشر شده است، دارای توانایی‌های عمومی عالی است و عملکرد بهتری نسبت به ERNIE Speed دارد و برای تنظیم دقیق به عنوان مدل پایه مناسب است و می‌تواند به خوبی مسائل خاص را مدیریت کند و همچنین دارای عملکرد استدلال بسیار خوبی است."
655
+ },
656
+ "ernie-tiny-8k": {
657
+ "description": "ERNIE Tiny مدل زبان بزرگ با عملکرد فوق‌العاده بالا است که هزینه‌های استقرار و تنظیم آن در بین مدل‌های سری Wenxin کمترین است."
658
+ },
572
659
  "gemini-1.0-pro-001": {
573
660
  "description": "Gemini 1.0 Pro 001 (تنظیم) عملکردی پایدار و قابل تنظیم ارائه می‌دهد و انتخابی ایده‌آل برای راه‌حل‌های وظایف پیچیده است."
574
661
  },
@@ -872,6 +959,9 @@
872
959
  "internlm2.5-latest": {
873
960
  "description": "جدیدترین سری مدل‌های ما با عملکرد استدلال عالی، از طول متن ۱M پشتیبانی می‌کند و توانایی‌های قوی‌تری در پیروی از دستورات و فراخوانی ابزارها دارد."
874
961
  },
962
+ "internlm3-latest": {
963
+ "description": "سری جدیدترین مدل‌های ما با عملکرد استدلال برجسته، پیشتاز مدل‌های متن‌باز در همان سطح هستند. به طور پیش‌فرض به جدیدترین مدل‌های سری InternLM3 ما اشاره دارد."
964
+ },
875
965
  "learnlm-1.5-pro-experimental": {
876
966
  "description": "LearnLM یک مدل زبانی تجربی و خاص برای وظایف است که برای مطابقت با اصول علم یادگیری آموزش دیده است و می‌تواند در سناریوهای آموزشی و یادگیری از دستورات سیستم پیروی کند و به عنوان مربی متخصص عمل کند."
877
967
  },
@@ -986,6 +1076,9 @@
986
1076
  "meta-llama/Llama-3.3-70B-Instruct": {
987
1077
  "description": "Llama 3.3 پیشرفته‌ترین مدل زبان بزرگ چند زبانه متن باز از سری Llama، با هزینه بسیار کم، تجربه‌ای مشابه با عملکرد مدل 405B. بر پایه ساختار Transformer و با بهبود کارایی و ایمنی از طریق تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF). نسخه بهینه‌سازی شده برای دستورالعمل‌ها به طور خاص برای مکالمات چند زبانه بهینه‌سازی شده و در چندین معیار صنعتی بهتر از بسیاری از مدل‌های چت متن باز و بسته عمل می‌کند. تاریخ قطع دانش تا دسامبر 2023."
988
1078
  },
1079
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo": {
1080
+ "description": "مدل بزرگ زبان چند زبانه Meta Llama 3.3 (LLM) یک مدل تولیدی پیش‌آموزش و تنظیم دستوری در 70B (ورودی متن/خروجی متن) است. مدل تنظیم دستوری Llama 3.3 به طور خاص برای موارد استفاده مکالمه چند زبانه بهینه‌سازی شده و در معیارهای صنعتی رایج از بسیاری از مدل‌های چت متن‌باز و بسته موجود بهتر عمل می‌کند."
1081
+ },
989
1082
  "meta-llama/Llama-Vision-Free": {
990
1083
  "description": "LLaMA 3.2 برای انجام وظایفی که ترکیبی از داده‌های بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر می‌کند."
991
1084
  },
@@ -1256,6 +1349,9 @@
1256
1349
  "qwen-vl-max-latest": {
1257
1350
  "description": "مدل زبان بصری فوق‌العاده بزرگ Qwen-VL. در مقایسه با نسخه تقویت‌شده، توانایی استدلال بصری و پیروی از دستورات را دوباره بهبود می‌بخشد و سطح بالاتری از ادراک و شناخت بصری را ارائه می‌دهد."
1258
1351
  },
1352
+ "qwen-vl-ocr-latest": {
1353
+ "description": "مدل OCR Qwen برای استخراج متن، بر روی توانایی استخراج متن از انواع تصاویر مانند اسناد، جداول، سوالات و متن‌های دست‌نویس تمرکز دارد. این مدل قادر به شناسایی انواع مختلف متون است و زبان‌های پشتیبانی شده شامل: چینی، انگلیسی، فرانسوی، ژاپنی، کره‌ای، آلمانی، روسی، ایتالیایی، ویتنامی و عربی می‌باشد."
1354
+ },
1259
1355
  "qwen-vl-plus-latest": {
1260
1356
  "description": "نسخه تقویت‌شده مدل زبان تصویری بزرگ تونگی چیان‌ون. بهبود قابل توجه در توانایی تشخیص جزئیات و شناسایی متن، پشتیبانی از وضوح بیش از یک میلیون پیکسل و تصاویر با هر نسبت طول به عرض."
1261
1357
  },
@@ -1274,6 +1370,9 @@
1274
1370
  "qwen2.5-14b-instruct": {
1275
1371
  "description": "مدل 14B مقیاس Qwen 2.5 که به صورت منبع باز ارائه شده است."
1276
1372
  },
1373
+ "qwen2.5-14b-instruct-1m": {
1374
+ "description": "مدل 72B مقیاس Qwen2.5 که به صورت متن‌باز ارائه شده است."
1375
+ },
1277
1376
  "qwen2.5-32b-instruct": {
1278
1377
  "description": "مدل 32B مقیاس Qwen 2.5 که به صورت منبع باز ارائه شده است."
1279
1378
  },
@@ -1301,6 +1400,12 @@
1301
1400
  "qwen2.5-math-7b-instruct": {
1302
1401
  "description": "مدل Qwen-Math دارای توانایی قوی در حل مسائل ریاضی است."
1303
1402
  },
1403
+ "qwen2.5-vl-72b-instruct": {
1404
+ "description": "پیروی از دستورات، ریاضیات، حل مسائل، بهبود کلی کد، بهبود توانایی شناسایی همه چیز، پشتیبانی از فرمت‌های مختلف برای شناسایی دقیق عناصر بصری، پشتیبانی از درک فایل‌های ویدیویی طولانی (حداکثر 10 دقیقه) و شناسایی لحظات رویداد در سطح ثانیه، توانایی درک زمان و سرعت، بر اساس توانایی تجزیه و تحلیل و شناسایی، پشتیبانی از کنترل عامل‌های OS یا Mobile، توانایی استخراج اطلاعات کلیدی و خروجی به فرمت Json قوی، این نسخه 72B است و قوی‌ترین نسخه در این سری است."
1405
+ },
1406
+ "qwen2.5-vl-7b-instruct": {
1407
+ "description": "پیروی از دستورات، ریاضیات، حل مسائل، بهبود کلی کد، بهبود توانایی شناسایی همه چیز، پشتیبانی از فرمت‌های مختلف برای شناسایی دقیق عناصر بصری، پشتیبانی از درک فایل‌های ویدیویی طولانی (حداکثر 10 دقیقه) و شناسایی لحظات رویداد در سطح ثانیه، توانایی درک زمان و سرعت، بر اساس توانایی تجزیه و تحلیل و شناسایی، پشتیبانی از کنترل عامل‌های OS یا Mobile، توانایی استخراج اطلاعات کلیدی و خروجی به فرمت Json قوی، این نسخه 72B است و قوی‌ترین نسخه در این سری است."
1408
+ },
1304
1409
  "qwen2.5:0.5b": {
1305
1410
  "description": "Qwen2.5 نسل جدید مدل زبانی مقیاس بزرگ Alibaba است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی می‌کند."
1306
1411
  },
@@ -286,6 +286,7 @@
286
286
  "anonymousNickName": "Utilisateur anonyme",
287
287
  "billing": "Gestion de la facturation",
288
288
  "cloud": "Découvrir {{name}}",
289
+ "community": "Version communautaire",
289
290
  "data": "Stockage des données",
290
291
  "defaultNickname": "Utilisateur de la version communautaire",
291
292
  "discord": "Support de la communauté",
@@ -295,7 +296,6 @@
295
296
  "help": "Centre d'aide",
296
297
  "moveGuide": "Le bouton de configuration a été déplacé ici",
297
298
  "plans": "Forfaits d'abonnement",
298
- "preview": "Aperçu",
299
299
  "profile": "Gestion du compte",
300
300
  "setting": "Paramètres de l'application",
301
301
  "usages": "Statistiques d'utilisation"
@@ -294,26 +294,6 @@
294
294
  "tooltip": "Mettre à jour la configuration de base du fournisseur",
295
295
  "updateSuccess": "Mise à jour réussie"
296
296
  },
297
- "wenxin": {
298
- "accessKey": {
299
- "desc": "Entrez la clé d'accès de la plateforme Qianfan de Baidu",
300
- "placeholder": "Clé d'accès Qianfan",
301
- "title": "Clé d'accès"
302
- },
303
- "checker": {
304
- "desc": "Vérifiez si la clé d'accès / SecretAccess est correctement remplie"
305
- },
306
- "secretKey": {
307
- "desc": "Entrez la clé secrète de la plateforme Qianfan de Baidu",
308
- "placeholder": "Clé secrète Qianfan",
309
- "title": "Clé secrète"
310
- },
311
- "unlock": {
312
- "customRegion": "Région de service personnalisée",
313
- "description": "Entrez votre AccessKey / SecretKey pour commencer la session. L'application ne conservera pas votre configuration d'authentification",
314
- "title": "Utiliser les informations d'authentification personnalisées de Wenxin Yiyan"
315
- }
316
- },
317
297
  "zeroone": {
318
298
  "title": "01.AI Zéro Un Tout"
319
299
  },
@@ -23,6 +23,9 @@
23
23
  "360gpt2-pro": {
24
24
  "description": "360GPT2 Pro est un modèle avancé de traitement du langage naturel lancé par la société 360, offrant d'excellentes capacités de génération et de compréhension de texte, en particulier dans le domaine de la création et de la génération."
25
25
  },
26
+ "360zhinao2-o1": {
27
+ "description": "Le modèle 360zhinao2-o1 utilise une recherche arborescente pour construire une chaîne de pensée et introduit un mécanisme de réflexion, formé par apprentissage par renforcement, permettant au modèle d'avoir la capacité de réflexion et de correction autonome."
28
+ },
26
29
  "4.0Ultra": {
27
30
  "description": "Spark4.0 Ultra est la version la plus puissante de la série de grands modèles Xinghuo, améliorant la compréhension et la capacité de résumé du contenu textuel tout en mettant à jour le lien de recherche en ligne. C'est une solution complète pour améliorer la productivité au bureau et répondre avec précision aux besoins, représentant un produit intelligent de premier plan dans l'industrie."
28
31
  },
@@ -44,6 +47,18 @@
44
47
  "Baichuan4-Turbo": {
45
48
  "description": "Le modèle le plus performant en Chine, surpassant les modèles dominants étrangers dans les tâches en chinois telles que les encyclopédies, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
46
49
  },
50
+ "DeepSeek-R1-Distill-Qwen-1.5B": {
51
+ "description": "Le modèle distillé DeepSeek-R1 basé sur Qwen2.5-Math-1.5B optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source."
52
+ },
53
+ "DeepSeek-R1-Distill-Qwen-14B": {
54
+ "description": "Le modèle distillé DeepSeek-R1 basé sur Qwen2.5-14B optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source."
55
+ },
56
+ "DeepSeek-R1-Distill-Qwen-32B": {
57
+ "description": "La série DeepSeek-R1 optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source, dépassant le niveau d'OpenAI-o1-mini."
58
+ },
59
+ "DeepSeek-R1-Distill-Qwen-7B": {
60
+ "description": "Le modèle distillé DeepSeek-R1 basé sur Qwen2.5-Math-7B optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source."
61
+ },
47
62
  "Doubao-lite-128k": {
48
63
  "description": "Doubao-lite présente une rapidité de réponse exceptionnelle et un excellent rapport qualité-prix, offrant des choix plus flexibles pour différents scénarios clients. Prend en charge le raisonnement et le réglage fin avec une fenêtre de contexte de 128k."
49
64
  },
@@ -77,9 +92,6 @@
77
92
  "ERNIE-4.0-8K-Preview": {
78
93
  "description": "Modèle de langage ultra-large de premier plan développé par Baidu, ayant réalisé une mise à niveau complète des capacités par rapport à ERNIE 3.5, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse."
79
94
  },
80
- "ERNIE-4.0-Turbo-128K": {
81
- "description": "Modèle de langage ultra-large de premier plan développé par Baidu, offrant d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
82
- },
83
95
  "ERNIE-4.0-Turbo-8K-Latest": {
84
96
  "description": "Modèle linguistique ultramoderne et de grande taille auto-développé par Baidu, avec d'excellentes performances générales, largement applicable à divers scénarios de tâches complexes ; prend en charge la connexion automatique aux plugins de recherche Baidu pour assurer la pertinence des informations de réponse. Par rapport à ERNIE 4.0, il affiche de meilleures performances."
85
97
  },
@@ -176,6 +188,9 @@
176
188
  "Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
177
189
  "description": "Meta Llama 3.1 est une famille de modèles de langage à grande échelle multilingues développée par Meta, comprenant des variantes pré-entraînées et d'ajustement d'instructions de tailles de paramètres de 8B, 70B et 405B. Ce modèle d'ajustement d'instructions 8B est optimisé pour des scénarios de dialogue multilingue, montrant d'excellentes performances dans plusieurs tests de référence de l'industrie. L'entraînement du modèle a utilisé plus de 150 trillions de tokens de données publiques, et des techniques telles que l'ajustement supervisé et l'apprentissage par renforcement basé sur les retours humains ont été appliquées pour améliorer l'utilité et la sécurité du modèle. Llama 3.1 prend en charge la génération de texte et de code, avec une date limite de connaissances fixée à décembre 2023."
178
190
  },
191
+ "QwQ-32B-Preview": {
192
+ "description": "QwQ-32B-Preview est un modèle de traitement du langage naturel innovant, capable de gérer efficacement des tâches complexes de génération de dialogues et de compréhension contextuelle."
193
+ },
179
194
  "Qwen/QVQ-72B-Preview": {
180
195
  "description": "QVQ-72B-Preview est un modèle de recherche développé par l'équipe Qwen, axé sur les capacités de raisonnement visuel, qui possède des avantages uniques dans la compréhension de scènes complexes et la résolution de problèmes mathématiques liés à la vision."
181
196
  },
@@ -527,6 +542,24 @@
527
542
  "deepseek-ai/DeepSeek-R1": {
528
543
  "description": "DeepSeek-R1 est un modèle d'inférence alimenté par l'apprentissage par renforcement (RL), qui résout les problèmes de répétitivité et de lisibilité dans le modèle. Avant le RL, DeepSeek-R1 a introduit des données de démarrage à froid, optimisant ainsi les performances d'inférence. Il se compare à OpenAI-o1 en matière de tâches mathématiques, de code et d'inférence, et améliore l'efficacité globale grâce à des méthodes d'entraînement soigneusement conçues."
529
544
  },
545
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
546
+ "description": "Le modèle distillé DeepSeek-R1 optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source."
547
+ },
548
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
549
+ "description": "DeepSeek-R1-Distill-Llama-8B est un modèle distillé basé sur Llama-3.1-8B. Ce modèle a été affiné avec des échantillons générés par DeepSeek-R1, montrant d'excellentes capacités d'inférence. Il a bien performé dans plusieurs tests de référence, atteignant 89,1 % de précision dans MATH-500, 50,4 % de taux de réussite dans AIME 2024, et un score de 1205 sur CodeForces, démontrant de fortes capacités en mathématiques et en programmation pour un modèle de 8B."
550
+ },
551
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
552
+ "description": "Le modèle distillé DeepSeek-R1 optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source."
553
+ },
554
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
555
+ "description": "Le modèle distillé DeepSeek-R1 optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source."
556
+ },
557
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
558
+ "description": "DeepSeek-R1-Distill-Qwen-32B est un modèle obtenu par distillation de Qwen2.5-32B. Ce modèle a été affiné avec 800 000 échantillons sélectionnés générés par DeepSeek-R1, montrant des performances exceptionnelles dans plusieurs domaines tels que les mathématiques, la programmation et le raisonnement. Il a obtenu d'excellents résultats dans plusieurs tests de référence, atteignant 94,3 % de précision dans MATH-500, démontrant une forte capacité de raisonnement mathématique."
559
+ },
560
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
561
+ "description": "DeepSeek-R1-Distill-Qwen-7B est un modèle obtenu par distillation de Qwen2.5-Math-7B. Ce modèle a été affiné avec 800 000 échantillons sélectionnés générés par DeepSeek-R1, montrant d'excellentes capacités d'inférence. Il a obtenu d'excellents résultats dans plusieurs tests de référence, atteignant 92,8 % de précision dans MATH-500, 55,5 % de taux de réussite dans AIME 2024, et un score de 1189 sur CodeForces, démontrant de fortes capacités en mathématiques et en programmation pour un modèle de 7B."
562
+ },
530
563
  "deepseek-ai/DeepSeek-V2.5": {
531
564
  "description": "DeepSeek V2.5 intègre les excellentes caractéristiques des versions précédentes, renforçant les capacités générales et de codage."
532
565
  },
@@ -554,6 +587,9 @@
554
587
  "deepseek-r1": {
555
588
  "description": "DeepSeek-R1 est un modèle d'inférence alimenté par l'apprentissage par renforcement (RL), qui résout les problèmes de répétitivité et de lisibilité dans le modèle. Avant le RL, DeepSeek-R1 a introduit des données de démarrage à froid, optimisant ainsi les performances d'inférence. Il se compare à OpenAI-o1 en matière de tâches mathématiques, de code et d'inférence, et améliore l'efficacité globale grâce à des méthodes d'entraînement soigneusement conçues."
556
589
  },
590
+ "deepseek-r1-distill-llama-70b": {
591
+ "description": "DeepSeek R1 — le modèle plus grand et plus intelligent de la suite DeepSeek — a été distillé dans l'architecture Llama 70B. Basé sur des tests de référence et des évaluations humaines, ce modèle est plus intelligent que le Llama 70B d'origine, en particulier dans les tâches nécessitant précision mathématique et factuelle."
592
+ },
557
593
  "deepseek-reasoner": {
558
594
  "description": "Modèle d'inférence proposé par DeepSeek. Avant de fournir la réponse finale, le modèle génère d'abord une chaîne de pensée pour améliorer l'exactitude de la réponse finale."
559
595
  },
@@ -563,12 +599,63 @@
563
599
  "deepseek-v2:236b": {
564
600
  "description": "DeepSeek V2 236B est le modèle de code de conception de DeepSeek, offrant de puissantes capacités de génération de code."
565
601
  },
602
+ "deepseek-v3": {
603
+ "description": "DeepSeek-V3 est un modèle MoE développé par la société Hangzhou DeepSeek AI Technology Research Co., Ltd., avec des performances exceptionnelles dans plusieurs évaluations, se classant au premier rang des modèles open source dans les classements principaux. Par rapport au modèle V2.5, la vitesse de génération a été multipliée par 3, offrant aux utilisateurs une expérience d'utilisation plus rapide et fluide."
604
+ },
566
605
  "deepseek/deepseek-chat": {
567
606
  "description": "Un nouveau modèle open source fusionnant des capacités générales et de codage, qui non seulement conserve les capacités de dialogue général du modèle Chat d'origine et la puissante capacité de traitement de code du modèle Coder, mais s'aligne également mieux sur les préférences humaines. De plus, DeepSeek-V2.5 a également réalisé des améliorations significatives dans plusieurs domaines tels que les tâches d'écriture et le suivi d'instructions."
568
607
  },
569
608
  "emohaa": {
570
609
  "description": "Emohaa est un modèle psychologique, doté de compétences de conseil professionnel, aidant les utilisateurs à comprendre les problèmes émotionnels."
571
610
  },
611
+ "ernie-3.5-128k": {
612
+ "description": "Le modèle de langage de grande taille phare développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de questions-réponses, de génération créative et d'applications de plugins ; supporte l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
613
+ },
614
+ "ernie-3.5-8k": {
615
+ "description": "Le modèle de langage de grande taille phare développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de questions-réponses, de génération créative et d'applications de plugins ; supporte l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
616
+ },
617
+ "ernie-3.5-8k-preview": {
618
+ "description": "Le modèle de langage de grande taille phare développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de questions-réponses, de génération créative et d'applications de plugins ; supporte l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
619
+ },
620
+ "ernie-4.0-8k-latest": {
621
+ "description": "Le modèle de langage de très grande taille phare développé par Baidu, par rapport à ERNIE 3.5, a réalisé une mise à niveau complète des capacités du modèle, largement applicable à des scénarios de tâches complexes dans divers domaines ; supporte l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
622
+ },
623
+ "ernie-4.0-8k-preview": {
624
+ "description": "Le modèle de langage de très grande taille phare développé par Baidu, par rapport à ERNIE 3.5, a réalisé une mise à niveau complète des capacités du modèle, largement applicable à des scénarios de tâches complexes dans divers domaines ; supporte l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
625
+ },
626
+ "ernie-4.0-turbo-128k": {
627
+ "description": "Le modèle de langage de très grande taille phare développé par Baidu, avec d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; supporte l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
628
+ },
629
+ "ernie-4.0-turbo-8k-latest": {
630
+ "description": "Le modèle de langage de très grande taille phare développé par Baidu, avec d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; supporte l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
631
+ },
632
+ "ernie-4.0-turbo-8k-preview": {
633
+ "description": "Le modèle de langage de très grande taille phare développé par Baidu, avec d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; supporte l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
634
+ },
635
+ "ernie-char-8k": {
636
+ "description": "Le modèle de langage pour des scénarios verticaux développé par Baidu, adapté aux dialogues de NPC de jeux, aux dialogues de service client, aux jeux de rôle, avec un style de personnage plus distinct et cohérent, une meilleure capacité de suivi des instructions et des performances d'inférence supérieures."
637
+ },
638
+ "ernie-char-fiction-8k": {
639
+ "description": "Le modèle de langage pour des scénarios verticaux développé par Baidu, adapté aux dialogues de NPC de jeux, aux dialogues de service client, aux jeux de rôle, avec un style de personnage plus distinct et cohérent, une meilleure capacité de suivi des instructions et des performances d'inférence supérieures."
640
+ },
641
+ "ernie-lite-8k": {
642
+ "description": "ERNIE Lite est un modèle de langage léger développé par Baidu, alliant d'excellentes performances du modèle et performances d'inférence, adapté à une utilisation sur des cartes d'accélération AI à faible puissance."
643
+ },
644
+ "ernie-lite-pro-128k": {
645
+ "description": "Un modèle de langage léger développé par Baidu, alliant d'excellentes performances du modèle et performances d'inférence, avec des résultats supérieurs à ceux d'ERNIE Lite, adapté à une utilisation sur des cartes d'accélération AI à faible puissance."
646
+ },
647
+ "ernie-novel-8k": {
648
+ "description": "Le modèle de langage général développé par Baidu, avec un avantage évident dans la capacité de continuation de romans, également applicable à des scénarios de courtes pièces, de films, etc."
649
+ },
650
+ "ernie-speed-128k": {
651
+ "description": "Le modèle de langage haute performance développé par Baidu, publié en 2024, avec d'excellentes capacités générales, adapté comme modèle de base pour un affinage, permettant de mieux traiter des problèmes spécifiques, tout en offrant d'excellentes performances d'inférence."
652
+ },
653
+ "ernie-speed-pro-128k": {
654
+ "description": "Le modèle de langage haute performance développé par Baidu, publié en 2024, avec d'excellentes capacités générales, offrant de meilleures performances que l'ERNIE Speed, adapté comme modèle de base pour un affinage, permettant de mieux traiter des problèmes spécifiques, tout en offrant d'excellentes performances d'inférence."
655
+ },
656
+ "ernie-tiny-8k": {
657
+ "description": "ERNIE Tiny est un modèle de langage à très haute performance développé par Baidu, avec les coûts de déploiement et d'affinage les plus bas parmi les modèles de la série Wenxin."
658
+ },
572
659
  "gemini-1.0-pro-001": {
573
660
  "description": "Gemini 1.0 Pro 001 (Ajustement) offre des performances stables et ajustables, ce qui en fait un choix idéal pour des solutions de tâches complexes."
574
661
  },
@@ -872,6 +959,9 @@
872
959
  "internlm2.5-latest": {
873
960
  "description": "Notre dernière série de modèles, offrant des performances d'inférence exceptionnelles, prenant en charge une longueur de contexte de 1M et des capacités améliorées de suivi des instructions et d'appel d'outils."
874
961
  },
962
+ "internlm3-latest": {
963
+ "description": "Notre dernière série de modèles, avec des performances d'inférence exceptionnelles, en tête des modèles open source de même niveau. Par défaut, elle pointe vers notre dernière version du modèle InternLM3."
964
+ },
875
965
  "learnlm-1.5-pro-experimental": {
876
966
  "description": "LearnLM est un modèle de langage expérimental, spécifique à des tâches, formé pour respecter les principes des sciences de l'apprentissage, capable de suivre des instructions systématiques dans des contextes d'enseignement et d'apprentissage, agissant comme un mentor expert, entre autres."
877
967
  },
@@ -986,6 +1076,9 @@
986
1076
  "meta-llama/Llama-3.3-70B-Instruct": {
987
1077
  "description": "Llama 3.3 est le modèle de langage open source multilingue le plus avancé de la série Llama, offrant une expérience comparable aux performances du modèle 405B à un coût très bas. Basé sur une architecture Transformer, il améliore l'utilité et la sécurité grâce à un ajustement supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF). Sa version optimisée pour les instructions est spécialement conçue pour les dialogues multilingues, surpassant de nombreux modèles de chat open source et fermés sur plusieurs benchmarks industriels. Date limite de connaissance : décembre 2023."
988
1078
  },
1079
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo": {
1080
+ "description": "Le modèle de langage multilingue Meta Llama 3.3 (LLM) est un modèle génératif pré-entraîné et ajusté par instruction de 70B (entrée/sortie de texte). Le modèle de texte pur ajusté par instruction Llama 3.3 est optimisé pour les cas d'utilisation de dialogue multilingue et surpasse de nombreux modèles de chat open source et fermés sur des benchmarks industriels courants."
1081
+ },
989
1082
  "meta-llama/Llama-Vision-Free": {
990
1083
  "description": "LLaMA 3.2 est conçu pour traiter des tâches qui combinent des données visuelles et textuelles. Il excelle dans des tâches comme la description d'image et le questionnement visuel, comblant le fossé entre génération de langage et raisonnement visuel."
991
1084
  },
@@ -1256,6 +1349,9 @@
1256
1349
  "qwen-vl-max-latest": {
1257
1350
  "description": "Modèle de langage visuel à très grande échelle Tongyi Qianwen. Par rapport à la version améliorée, il améliore encore les capacités de raisonnement visuel et de suivi des instructions, offrant un niveau de perception visuelle et de cognition plus élevé."
1258
1351
  },
1352
+ "qwen-vl-ocr-latest": {
1353
+ "description": "Le modèle OCR Qwen est un modèle spécialisé dans l'extraction de texte, se concentrant sur la capacité d'extraction de texte à partir d'images de documents, tableaux, questions d'examen, écriture manuscrite, etc. Il peut reconnaître plusieurs langues, actuellement supportées : chinois, anglais, français, japonais, coréen, allemand, russe, italien, vietnamien, arabe."
1354
+ },
1259
1355
  "qwen-vl-plus-latest": {
1260
1356
  "description": "Version améliorée du modèle de langage visuel à grande échelle Tongyi Qianwen. Amélioration significative des capacités de reconnaissance des détails et de reconnaissance de texte, prenant en charge des résolutions d'image de plus d'un million de pixels et des rapports d'aspect de n'importe quelle taille."
1261
1357
  },
@@ -1274,6 +1370,9 @@
1274
1370
  "qwen2.5-14b-instruct": {
1275
1371
  "description": "Le modèle de 14B de Tongyi Qwen 2.5, open source."
1276
1372
  },
1373
+ "qwen2.5-14b-instruct-1m": {
1374
+ "description": "Le modèle de 72B de Qwen2.5 est ouvert au public."
1375
+ },
1277
1376
  "qwen2.5-32b-instruct": {
1278
1377
  "description": "Le modèle de 32B de Tongyi Qwen 2.5, open source."
1279
1378
  },
@@ -1301,6 +1400,12 @@
1301
1400
  "qwen2.5-math-7b-instruct": {
1302
1401
  "description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
1303
1402
  },
1403
+ "qwen2.5-vl-72b-instruct": {
1404
+ "description": "Amélioration globale des capacités de suivi des instructions, mathématiques, résolution de problèmes et code, amélioration des capacités de reconnaissance, support de divers formats pour un positionnement précis des éléments visuels, compréhension de fichiers vidéo longs (jusqu'à 10 minutes) et localisation d'événements en temps réel, capable de comprendre l'ordre temporel et la vitesse, supportant le contrôle d'agents OS ou Mobile basé sur des capacités d'analyse et de localisation, avec une forte capacité d'extraction d'informations clés et de sortie au format Json. Cette version est la version 72B, la plus puissante de cette série."
1405
+ },
1406
+ "qwen2.5-vl-7b-instruct": {
1407
+ "description": "Amélioration globale des capacités de suivi des instructions, mathématiques, résolution de problèmes et code, amélioration des capacités de reconnaissance, support de divers formats pour un positionnement précis des éléments visuels, compréhension de fichiers vidéo longs (jusqu'à 10 minutes) et localisation d'événements en temps réel, capable de comprendre l'ordre temporel et la vitesse, supportant le contrôle d'agents OS ou Mobile basé sur des capacités d'analyse et de localisation, avec une forte capacité d'extraction d'informations clés et de sortie au format Json. Cette version est la version 72B, la plus puissante de cette série."
1408
+ },
1304
1409
  "qwen2.5:0.5b": {
1305
1410
  "description": "Qwen2.5 est le nouveau modèle de langage à grande échelle de Alibaba, offrant d'excellentes performances pour répondre à des besoins d'application diversifiés."
1306
1411
  },
@@ -286,6 +286,7 @@
286
286
  "anonymousNickName": "Utente Anonimo",
287
287
  "billing": "Gestione fatturazione",
288
288
  "cloud": "Prova {{name}}",
289
+ "community": "Versione comunitaria",
289
290
  "data": "Archiviazione dati",
290
291
  "defaultNickname": "Utente Community",
291
292
  "discord": "Supporto della community",
@@ -295,7 +296,6 @@
295
296
  "help": "Centro assistenza",
296
297
  "moveGuide": "Il pulsante delle impostazioni è stato spostato qui",
297
298
  "plans": "Piani di abbonamento",
298
- "preview": "Anteprima",
299
299
  "profile": "Gestione account",
300
300
  "setting": "Impostazioni app",
301
301
  "usages": "Statistiche di utilizzo"
@@ -294,26 +294,6 @@
294
294
  "tooltip": "Aggiorna la configurazione di base del fornitore",
295
295
  "updateSuccess": "Aggiornamento avvenuto con successo"
296
296
  },
297
- "wenxin": {
298
- "accessKey": {
299
- "desc": "Inserisci l'Access Key della piattaforma Qianfan di Baidu",
300
- "placeholder": "Access Key Qianfan",
301
- "title": "Access Key"
302
- },
303
- "checker": {
304
- "desc": "Verifica se l'AccessKey / SecretAccess è stato inserito correttamente"
305
- },
306
- "secretKey": {
307
- "desc": "Inserisci il Secret Key della piattaforma Qianfan di Baidu",
308
- "placeholder": "Secret Key Qianfan",
309
- "title": "Secret Key"
310
- },
311
- "unlock": {
312
- "customRegion": "Regione di servizio personalizzata",
313
- "description": "Inserisci il tuo AccessKey / SecretKey per iniziare la sessione. L'app non registrerà la tua configurazione di autenticazione",
314
- "title": "Utilizza le informazioni di autenticazione personalizzate di Wenxin Yiyan"
315
- }
316
- },
317
297
  "zeroone": {
318
298
  "title": "01.AI ZeroOne"
319
299
  },