@lobehub/chat 1.57.1 → 1.59.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (92) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/docker-compose/local/docker-compose.yml +1 -0
  4. package/locales/ar/modelProvider.json +24 -0
  5. package/locales/ar/models.json +60 -0
  6. package/locales/ar/providers.json +15 -0
  7. package/locales/bg-BG/modelProvider.json +24 -0
  8. package/locales/bg-BG/models.json +60 -0
  9. package/locales/bg-BG/providers.json +15 -0
  10. package/locales/de-DE/modelProvider.json +24 -0
  11. package/locales/de-DE/models.json +60 -0
  12. package/locales/de-DE/providers.json +15 -0
  13. package/locales/en-US/modelProvider.json +24 -0
  14. package/locales/en-US/models.json +60 -0
  15. package/locales/en-US/providers.json +15 -0
  16. package/locales/es-ES/modelProvider.json +24 -0
  17. package/locales/es-ES/models.json +60 -0
  18. package/locales/es-ES/providers.json +15 -0
  19. package/locales/fa-IR/modelProvider.json +24 -0
  20. package/locales/fa-IR/models.json +60 -0
  21. package/locales/fa-IR/providers.json +15 -0
  22. package/locales/fr-FR/modelProvider.json +24 -0
  23. package/locales/fr-FR/models.json +60 -0
  24. package/locales/fr-FR/providers.json +15 -0
  25. package/locales/it-IT/modelProvider.json +24 -0
  26. package/locales/it-IT/models.json +60 -0
  27. package/locales/it-IT/providers.json +15 -0
  28. package/locales/ja-JP/modelProvider.json +24 -0
  29. package/locales/ja-JP/models.json +60 -0
  30. package/locales/ja-JP/providers.json +15 -0
  31. package/locales/ko-KR/modelProvider.json +24 -0
  32. package/locales/ko-KR/models.json +60 -0
  33. package/locales/ko-KR/providers.json +15 -0
  34. package/locales/nl-NL/modelProvider.json +24 -0
  35. package/locales/nl-NL/models.json +60 -0
  36. package/locales/nl-NL/providers.json +15 -0
  37. package/locales/pl-PL/modelProvider.json +24 -0
  38. package/locales/pl-PL/models.json +60 -0
  39. package/locales/pl-PL/providers.json +15 -0
  40. package/locales/pt-BR/modelProvider.json +24 -0
  41. package/locales/pt-BR/models.json +60 -0
  42. package/locales/pt-BR/providers.json +15 -0
  43. package/locales/ru-RU/modelProvider.json +24 -0
  44. package/locales/ru-RU/models.json +60 -0
  45. package/locales/ru-RU/providers.json +15 -0
  46. package/locales/tr-TR/modelProvider.json +24 -0
  47. package/locales/tr-TR/models.json +60 -0
  48. package/locales/tr-TR/providers.json +15 -0
  49. package/locales/vi-VN/modelProvider.json +24 -0
  50. package/locales/vi-VN/models.json +60 -0
  51. package/locales/vi-VN/providers.json +15 -0
  52. package/locales/zh-CN/modelProvider.json +24 -0
  53. package/locales/zh-CN/models.json +1109 -1049
  54. package/locales/zh-CN/providers.json +82 -67
  55. package/locales/zh-TW/modelProvider.json +24 -0
  56. package/locales/zh-TW/models.json +60 -0
  57. package/locales/zh-TW/providers.json +15 -0
  58. package/next.config.ts +5 -0
  59. package/package.json +4 -2
  60. package/src/app/[variants]/(main)/settings/provider/(detail)/azureai/page.tsx +58 -0
  61. package/src/app/[variants]/(main)/settings/provider/(list)/ProviderGrid/index.tsx +6 -3
  62. package/src/app/[variants]/(main)/settings/provider/features/CreateNewProvider/index.tsx +13 -2
  63. package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/Form.tsx +6 -8
  64. package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/index.tsx +5 -6
  65. package/src/app/[variants]/(main)/settings/provider/features/ModelList/ModelConfigModal/index.tsx +4 -3
  66. package/src/app/[variants]/(main)/settings/provider/features/ModelList/ProviderSettingsContext.ts +2 -0
  67. package/src/app/[variants]/(main)/settings/provider/features/ModelList/index.tsx +6 -7
  68. package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +1 -1
  69. package/src/config/aiModels/azureai.ts +18 -0
  70. package/src/config/aiModels/index.ts +6 -0
  71. package/src/config/aiModels/volcengine.ts +83 -0
  72. package/src/config/llm.ts +6 -0
  73. package/src/config/modelProviders/azure.ts +2 -1
  74. package/src/config/modelProviders/azureai.ts +19 -0
  75. package/src/config/modelProviders/index.ts +6 -0
  76. package/src/config/modelProviders/volcengine.ts +23 -0
  77. package/src/database/server/models/aiProvider.ts +2 -0
  78. package/src/libs/agent-runtime/AgentRuntime.ts +17 -8
  79. package/src/libs/agent-runtime/azureai/index.ts +109 -0
  80. package/src/libs/agent-runtime/baichuan/index.test.ts +8 -250
  81. package/src/libs/agent-runtime/cloudflare/index.ts +22 -18
  82. package/src/libs/agent-runtime/index.ts +2 -1
  83. package/src/libs/agent-runtime/types/type.ts +5 -0
  84. package/src/libs/agent-runtime/utils/streams/__snapshots__/protocol.test.ts.snap +331 -0
  85. package/src/libs/agent-runtime/utils/streams/protocol.test.ts +137 -0
  86. package/src/libs/agent-runtime/utils/streams/protocol.ts +34 -0
  87. package/src/libs/agent-runtime/{doubao → volcengine}/index.ts +3 -3
  88. package/src/locales/default/modelProvider.ts +25 -0
  89. package/src/server/modules/AgentRuntime/index.ts +8 -1
  90. package/src/services/chat.ts +16 -4
  91. package/src/types/aiProvider.ts +5 -0
  92. package/src/types/user/settings/keyVaults.ts +2 -0
@@ -19,6 +19,24 @@
19
19
  "title": "کلید API"
20
20
  }
21
21
  },
22
+ "azureai": {
23
+ "azureApiVersion": {
24
+ "desc": "نسخه API آژور، با فرمت YYYY-MM-DD، برای مشاهده [آخرین نسخه](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
25
+ "fetch": "دریافت لیست",
26
+ "title": "نسخه API آژور"
27
+ },
28
+ "endpoint": {
29
+ "desc": "نقطه پایانی استنتاج مدل آژور AI را از نمای کلی پروژه آژور AI پیدا کنید",
30
+ "placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
31
+ "title": "نقطه پایانی آژور AI"
32
+ },
33
+ "title": "آژور OpenAI",
34
+ "token": {
35
+ "desc": "کلید API را از نمای کلی پروژه آژور AI پیدا کنید",
36
+ "placeholder": "کلید آژور",
37
+ "title": "کلید"
38
+ }
39
+ },
22
40
  "bedrock": {
23
41
  "accessKeyId": {
24
42
  "desc": "AWS Access Key Id را وارد کنید",
@@ -97,6 +115,7 @@
97
115
  "title": "آدرس پروکسی"
98
116
  },
99
117
  "sdkType": {
118
+ "placeholder": "openai/anthropic/azureai/ollama/...",
100
119
  "required": "لطفاً نوع SDK را انتخاب کنید",
101
120
  "title": "فرمت درخواست"
102
121
  },
@@ -210,6 +229,11 @@
210
229
  "placeholder": "لطفاً نام استقرار مدل در Azure را وارد کنید",
211
230
  "title": "نام استقرار مدل"
212
231
  },
232
+ "deployName": {
233
+ "extra": "این فیلد به عنوان شناسه مدل هنگام ارسال درخواست استفاده می‌شود",
234
+ "placeholder": "لطفاً نام یا شناسه واقعی مدل را وارد کنید",
235
+ "title": "نام مدل برای استقرار"
236
+ },
213
237
  "displayName": {
214
238
  "placeholder": "لطفاً نام نمایشی مدل را وارد کنید، مانند ChatGPT، GPT-4 و غیره",
215
239
  "title": "نام نمایشی مدل"
@@ -578,6 +578,9 @@
578
578
  "deepseek-ai/deepseek-llm-67b-chat": {
579
579
  "description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه هوش مصنوعی است که توانایی درک عمیق زبان و تعامل را فراهم می‌کند."
580
580
  },
581
+ "deepseek-ai/deepseek-r1": {
582
+ "description": "مدل LLM پیشرفته و کارآمد که در استدلال، ریاضیات و برنامه‌نویسی مهارت دارد."
583
+ },
581
584
  "deepseek-ai/deepseek-vl2": {
582
585
  "description": "DeepSeek-VL2 یک مدل زبانی بصری مبتنی بر DeepSeekMoE-27B است که از معماری MoE با فعال‌سازی پراکنده استفاده می‌کند و در حالی که تنها 4.5 میلیارد پارامتر فعال است، عملکرد فوق‌العاده‌ای را ارائه می‌دهد. این مدل در چندین وظیفه از جمله پرسش و پاسخ بصری، شناسایی کاراکتر نوری، درک اسناد/جدول‌ها/نمودارها و مکان‌یابی بصری عملکرد عالی دارد."
583
586
  },
@@ -629,6 +632,12 @@
629
632
  "deepseek/deepseek-chat": {
630
633
  "description": "مدل متن‌باز جدیدی که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل نه تنها توانایی گفتگوی عمومی مدل Chat و قدرت پردازش کد مدل Coder را حفظ کرده است، بلکه به ترجیحات انسانی نیز بهتر همسو شده است. علاوه بر این، DeepSeek-V2.5 در وظایف نوشتاری، پیروی از دستورات و سایر جنبه‌ها نیز بهبودهای قابل توجهی داشته است."
631
634
  },
635
+ "deepseek/deepseek-r1": {
636
+ "description": "DeepSeek-R1 با وجود داده‌های برچسب‌گذاری شده بسیار کم، توانایی استدلال مدل را به طرز چشمگیری افزایش می‌دهد. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره تفکر را تولید می‌کند تا دقت پاسخ نهایی را افزایش دهد."
637
+ },
638
+ "deepseek/deepseek-r1:free": {
639
+ "description": "DeepSeek-R1 با وجود داده‌های برچسب‌گذاری شده بسیار کم، توانایی استدلال مدل را به طرز چشمگیری افزایش می‌دهد. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره تفکر را تولید می‌کند تا دقت پاسخ نهایی را افزایش دهد."
640
+ },
632
641
  "emohaa": {
633
642
  "description": "Emohaa یک مدل روان‌شناختی است که دارای توانایی مشاوره حرفه‌ای بوده و به کاربران در درک مسائل احساسی کمک می‌کند."
634
643
  },
@@ -821,12 +830,18 @@
821
830
  "google/gemini-pro-1.5": {
822
831
  "description": "Gemini 1.5 Pro با ترکیب آخرین فناوری‌های بهینه‌سازی، توانایی پردازش داده‌های چندحالته را با کارایی بالاتر ارائه می‌دهد."
823
832
  },
833
+ "google/gemma-2-27b": {
834
+ "description": "Gemma 2 مدل کارآمدی است که توسط Google ارائه شده و شامل طیف وسیعی از کاربردها از برنامه‌های کوچک تا پردازش داده‌های پیچیده است."
835
+ },
824
836
  "google/gemma-2-27b-it": {
825
837
  "description": "جمما ۲ ادامه‌دهنده‌ی ایده طراحی سبک و کارآمد است."
826
838
  },
827
839
  "google/gemma-2-2b-it": {
828
840
  "description": "مدل بهینه‌سازی دستورات سبک گوگل"
829
841
  },
842
+ "google/gemma-2-9b": {
843
+ "description": "Gemma 2 مدل کارآمدی است که توسط Google ارائه شده و شامل طیف وسیعی از کاربردها از برنامه‌های کوچک تا پردازش داده‌های پیچیده است."
844
+ },
830
845
  "google/gemma-2-9b-it": {
831
846
  "description": "Gemma 2 یک سری مدل‌های متنی سبک و متن‌باز از Google است."
832
847
  },
@@ -998,6 +1013,9 @@
998
1013
  "internlm3-latest": {
999
1014
  "description": "سری جدیدترین مدل‌های ما با عملکرد استدلال برجسته، پیشتاز مدل‌های متن‌باز در همان سطح هستند. به طور پیش‌فرض به جدیدترین مدل‌های سری InternLM3 ما اشاره دارد."
1000
1015
  },
1016
+ "jina-deepsearch-v1": {
1017
+ "description": "جستجوی عمیق ترکیبی از جستجوی اینترنتی، خواندن و استدلال است که می‌تواند تحقیقات جامع را انجام دهد. می‌توانید آن را به عنوان یک نماینده در نظر بگیرید که وظایف تحقیق شما را می‌پذیرد - این نماینده جستجوی گسترده‌ای انجام می‌دهد و پس از چندین بار تکرار، پاسخ را ارائه می‌دهد. این فرآیند شامل تحقیق مداوم، استدلال و حل مسئله از زوایای مختلف است. این با مدل‌های بزرگ استاندارد که مستقیماً از داده‌های پیش‌آموزش شده پاسخ تولید می‌کنند و سیستم‌های RAG سنتی که به جستجوی سطحی یک‌باره وابسته‌اند، تفاوت اساسی دارد."
1018
+ },
1001
1019
  "learnlm-1.5-pro-experimental": {
1002
1020
  "description": "LearnLM یک مدل زبانی تجربی و خاص برای وظایف است که برای مطابقت با اصول علم یادگیری آموزش دیده است و می‌تواند در سناریوهای آموزشی و یادگیری از دستورات سیستم پیروی کند و به عنوان مربی متخصص عمل کند."
1003
1021
  },
@@ -1139,6 +1157,9 @@
1139
1157
  "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
1140
1158
  "description": "مدل Llama 3.1 Turbo با ظرفیت 405B، پشتیبانی از زمینه‌های بسیار بزرگ برای پردازش داده‌های عظیم را فراهم می‌کند و در کاربردهای هوش مصنوعی در مقیاس بسیار بزرگ عملکرد برجسته‌ای دارد."
1141
1159
  },
1160
+ "meta-llama/Meta-Llama-3.1-70B": {
1161
+ "description": "Llama 3.1 مدل پیشرو ارائه شده توسط Meta است که از حداکثر 405B پارامتر پشتیبانی می‌کند و می‌تواند در زمینه‌های گفتگوهای پیچیده، ترجمه چند زبانه و تحلیل داده‌ها استفاده شود."
1162
+ },
1142
1163
  "meta-llama/Meta-Llama-3.1-70B-Instruct": {
1143
1164
  "description": "LLaMA 3.1 70B پشتیبانی کارآمد از مکالمات چندزبانه را ارائه می‌دهد."
1144
1165
  },
@@ -1196,6 +1217,30 @@
1196
1217
  "meta.llama3-8b-instruct-v1:0": {
1197
1218
  "description": "Meta Llama 3 یک مدل زبان بزرگ باز (LLM) است که برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها طراحی شده است تا به آن‌ها در ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد کمک کند. به عنوان بخشی از سیستم پایه نوآوری جامعه جهانی، این مدل برای دستگاه‌های با توان محاسباتی و منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع‌تر بسیار مناسب است."
1198
1219
  },
1220
+ "meta/llama-3.1-405b-instruct": {
1221
+ "description": "مدل LLM پیشرفته که از تولید داده‌های ترکیبی، تقطیر دانش و استدلال پشتیبانی می‌کند و برای ربات‌های چت، برنامه‌نویسی و وظایف خاص مناسب است."
1222
+ },
1223
+ "meta/llama-3.1-70b-instruct": {
1224
+ "description": "توانمندسازی گفتگوهای پیچیده با درک زمینه‌ای عالی، توانایی استدلال و قابلیت تولید متن."
1225
+ },
1226
+ "meta/llama-3.1-8b-instruct": {
1227
+ "description": "مدل پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
1228
+ },
1229
+ "meta/llama-3.2-11b-vision-instruct": {
1230
+ "description": "مدل بینایی-زبان پیشرفته که در استدلال با کیفیت بالا از تصاویر مهارت دارد."
1231
+ },
1232
+ "meta/llama-3.2-1b-instruct": {
1233
+ "description": "مدل زبان کوچک پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
1234
+ },
1235
+ "meta/llama-3.2-3b-instruct": {
1236
+ "description": "مدل زبان کوچک پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
1237
+ },
1238
+ "meta/llama-3.2-90b-vision-instruct": {
1239
+ "description": "مدل بینایی-زبان پیشرفته که در استدلال با کیفیت بالا از تصاویر مهارت دارد."
1240
+ },
1241
+ "meta/llama-3.3-70b-instruct": {
1242
+ "description": "مدل LLM پیشرفته که در استدلال، ریاضیات، دانش عمومی و فراخوانی توابع مهارت دارد."
1243
+ },
1199
1244
  "microsoft/WizardLM-2-8x22B": {
1200
1245
  "description": "WizardLM 2 یک مدل زبانی است که توسط AI مایکروسافت ارائه شده و در زمینه‌های گفتگوی پیچیده، چند زبانه، استدلال و دستیار هوشمند به ویژه عملکرد خوبی دارد."
1201
1246
  },
@@ -1292,6 +1337,12 @@
1292
1337
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1293
1338
  "description": "Llama 3.1 Nemotron 70B یک مدل زبانی بزرگ سفارشی شده توسط NVIDIA است که به منظور افزایش کمک به پاسخ‌های تولید شده توسط LLM برای پرسش‌های کاربران طراحی شده است. این مدل در آزمون‌های معیار مانند Arena Hard، AlpacaEval 2 LC و GPT-4-Turbo MT-Bench عملکرد عالی داشته و تا تاریخ 1 اکتبر 2024 در تمامی سه آزمون خودکار هم‌راستایی در رتبه اول قرار دارد. این مدل با استفاده از RLHF (به ویژه REINFORCE)، Llama-3.1-Nemotron-70B-Reward و HelpSteer2-Preference در مدل Llama-3.1-70B-Instruct آموزش دیده است."
1294
1339
  },
1340
+ "nvidia/llama-3.1-nemotron-51b-instruct": {
1341
+ "description": "مدل زبان منحصر به فرد که دقت و کارایی بی‌نظیری را ارائه می‌دهد."
1342
+ },
1343
+ "nvidia/llama-3.1-nemotron-70b-instruct": {
1344
+ "description": "Llama-3.1-Nemotron-70B یک مدل زبان بزرگ سفارشی از NVIDIA است که به منظور افزایش کمک‌پذیری پاسخ‌های تولید شده توسط LLM طراحی شده است."
1345
+ },
1295
1346
  "o1": {
1296
1347
  "description": "متمرکز بر استدلال پیشرفته و حل مسائل پیچیده، از جمله وظایف ریاضی و علمی. بسیار مناسب برای برنامه‌هایی که به درک عمیق زمینه و مدیریت جریان‌های کاری نیاز دارند."
1297
1348
  },
@@ -1406,6 +1457,15 @@
1406
1457
  "qwen/qwen-2-7b-instruct:free": {
1407
1458
  "description": "Qwen2 یک سری جدید از مدل‌های زبان بزرگ است که دارای توانایی‌های درک و تولید قوی‌تری می‌باشد."
1408
1459
  },
1460
+ "qwen/qwen2.5-7b-instruct": {
1461
+ "description": "مدل LLM برای زبان‌های چینی و انگلیسی که در زمینه‌های زبان، برنامه‌نویسی، ریاضیات و استدلال تخصص دارد."
1462
+ },
1463
+ "qwen/qwen2.5-coder-32b-instruct": {
1464
+ "description": "مدل LLM پیشرفته که از تولید کد، استدلال و اصلاح پشتیبانی می‌کند و شامل زبان‌های برنامه‌نویسی اصلی است."
1465
+ },
1466
+ "qwen/qwen2.5-coder-7b-instruct": {
1467
+ "description": "مدل کد قدرتمند و متوسط که از طول زمینه 32K پشتیبانی می‌کند و در برنامه‌نویسی چند زبانه مهارت دارد."
1468
+ },
1409
1469
  "qwen2": {
1410
1470
  "description": "Qwen2 مدل زبان بزرگ نسل جدید علی‌بابا است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی می‌کند."
1411
1471
  },
@@ -11,6 +11,9 @@
11
11
  "azure": {
12
12
  "description": "Azure انواع مدل‌های پیشرفته AI را ارائه می‌دهد، از جمله GPT-3.5 و جدیدترین سری GPT-4، که از انواع داده‌ها و وظایف پیچیده پشتیبانی می‌کند و به ارائه راه‌حل‌های AI ایمن، قابل اعتماد و پایدار متعهد است."
13
13
  },
14
+ "azureai": {
15
+ "description": "Azure مجموعه‌ای از مدل‌های پیشرفته AI را ارائه می‌دهد، از جمله GPT-3.5 و جدیدترین سری GPT-4، که از انواع مختلف داده‌ها و وظایف پیچیده پشتیبانی می‌کند و به دنبال راه‌حل‌های AI ایمن، قابل اعتماد و پایدار است."
16
+ },
14
17
  "baichuan": {
15
18
  "description": "بایچوان هوش مصنوعی یک شرکت متمرکز بر توسعه مدل‌های بزرگ هوش مصنوعی است. مدل‌های این شرکت در وظایف چینی مانند دانشنامه، پردازش متون طولانی و تولید محتوا عملکرد برجسته‌ای دارند و از مدل‌های اصلی خارجی پیشی گرفته‌اند. بایچوان هوش مصنوعی همچنین دارای توانایی‌های چندوجهی پیشرو در صنعت است و در چندین ارزیابی معتبر عملکرد عالی داشته است. مدل‌های آن شامل Baichuan 4، Baichuan 3 Turbo و Baichuan 3 Turbo 128k هستند که برای سناریوهای مختلف بهینه‌سازی شده‌اند و راه‌حل‌های مقرون‌به‌صرفه‌ای ارائه می‌دهند."
16
19
  },
@@ -53,6 +56,9 @@
53
56
  "internlm": {
54
57
  "description": "سازمان متن باز متعهد به تحقیق و توسعه ابزارهای مدل‌های بزرگ. ارائه یک پلتفرم متن باز کارآمد و آسان برای تمام توسعه‌دهندگان هوش مصنوعی، تا جدیدترین مدل‌ها و تکنیک‌های الگوریتمی در دسترس باشد."
55
58
  },
59
+ "jina": {
60
+ "description": "Jina AI در سال 2020 تأسیس شد و یک شرکت پیشرو در زمینه AI جستجو است. پلتفرم پایه جستجوی ما شامل مدل‌های برداری، بازچینش‌گرها و مدل‌های زبانی کوچک است که به کسب‌وکارها کمک می‌کند تا برنامه‌های جستجوی تولیدی و چندرسانه‌ای قابل اعتماد و با کیفیت بالا بسازند."
61
+ },
56
62
  "lmstudio": {
57
63
  "description": "LM Studio یک برنامه دسکتاپ برای توسعه و آزمایش LLM ها بر روی رایانه شما است."
58
64
  },
@@ -68,6 +74,9 @@
68
74
  "novita": {
69
75
  "description": "Novita AI یک پلتفرم ارائه‌دهنده خدمات API برای مدل‌های بزرگ زبانی و تولید تصاویر هوش مصنوعی است که انعطاف‌پذیر، قابل‌اعتماد و مقرون‌به‌صرفه می‌باشد. این پلتفرم از جدیدترین مدل‌های متن‌باز مانند Llama3 و Mistral پشتیبانی می‌کند و راه‌حل‌های API جامع، کاربرپسند و خودکار برای توسعه برنامه‌های هوش مصنوعی مولد ارائه می‌دهد که مناسب رشد سریع استارتاپ‌های هوش مصنوعی است."
70
76
  },
77
+ "nvidia": {
78
+ "description": "NVIDIA NIM™ کانتینرهایی را ارائه می‌دهد که می‌توانند برای استنتاج میکروسرویس‌های GPU تسریع شده خود میزبان استفاده شوند و از استقرار مدل‌های AI پیش‌آموزش‌دیده و سفارشی در ابر، مراکز داده، رایانه‌های شخصی RTX™ AI و ایستگاه‌های کاری پشتیبانی می‌کند."
79
+ },
71
80
  "ollama": {
72
81
  "description": "مدل‌های ارائه‌شده توسط Ollama طیف گسترده‌ای از تولید کد، محاسبات ریاضی، پردازش چندزبانه و تعاملات گفتگویی را پوشش می‌دهند و از نیازهای متنوع استقرار در سطح سازمانی و محلی پشتیبانی می‌کنند."
73
82
  },
@@ -107,6 +116,12 @@
107
116
  "upstage": {
108
117
  "description": "Upstage بر توسعه مدل‌های هوش مصنوعی برای نیازهای مختلف تجاری تمرکز دارد، از جمله Solar LLM و هوش مصنوعی اسناد، که هدف آن دستیابی به هوش عمومی مصنوعی (AGI) برای کار است. با استفاده از Chat API، می‌توانید نمایندگان مکالمه ساده ایجاد کنید و از قابلیت‌های فراخوانی عملکرد، ترجمه، تعبیه و کاربردهای خاص حوزه پشتیبانی کنید."
109
118
  },
119
+ "vllm": {
120
+ "description": "vLLM یک کتابخانه سریع و آسان برای استفاده است که برای استنتاج و خدمات LLM طراحی شده است."
121
+ },
122
+ "volcengine": {
123
+ "description": "پلتفرم توسعه خدمات مدل‌های بزرگ که توسط بایت‌دANCE راه‌اندازی شده است، خدمات فراوان، ایمن و با قیمت رقابتی برای فراخوانی مدل‌ها را ارائه می‌دهد. همچنین امکاناتی از جمله داده‌های مدل، تنظیم دقیق، استنتاج و ارزیابی را به صورت end-to-end فراهم می‌کند و به طور جامع از توسعه و پیاده‌سازی برنامه‌های هوش مصنوعی شما حمایت می‌کند."
124
+ },
110
125
  "wenxin": {
111
126
  "description": "پلتفرم جامع توسعه و خدمات مدل‌های بزرگ و برنامه‌های بومی هوش مصنوعی در سطح سازمانی، ارائه‌دهنده کامل‌ترین و کاربرپسندترین زنجیره ابزارهای توسعه مدل‌های هوش مصنوعی مولد و توسعه برنامه‌ها"
112
127
  },
@@ -19,6 +19,24 @@
19
19
  "title": "Clé API"
20
20
  }
21
21
  },
22
+ "azureai": {
23
+ "azureApiVersion": {
24
+ "desc": "Version de l'API Azure, au format YYYY-MM-DD. Consultez la [dernière version](https://learn.microsoft.com/fr-fr/azure/ai-services/openai/reference#chat-completions)",
25
+ "fetch": "Obtenir la liste",
26
+ "title": "Version de l'API Azure"
27
+ },
28
+ "endpoint": {
29
+ "desc": "Trouvez le point de terminaison d'inférence du modèle Azure AI dans l'aperçu du projet Azure AI",
30
+ "placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
31
+ "title": "Point de terminaison Azure AI"
32
+ },
33
+ "title": "Azure OpenAI",
34
+ "token": {
35
+ "desc": "Trouvez la clé API dans l'aperçu du projet Azure AI",
36
+ "placeholder": "Clé Azure",
37
+ "title": "Clé"
38
+ }
39
+ },
22
40
  "bedrock": {
23
41
  "accessKeyId": {
24
42
  "desc": "Saisissez l'ID de clé d'accès AWS",
@@ -97,6 +115,7 @@
97
115
  "title": "Adresse du proxy"
98
116
  },
99
117
  "sdkType": {
118
+ "placeholder": "openai/anthropic/azureai/ollama/...",
100
119
  "required": "Veuillez sélectionner le type de SDK",
101
120
  "title": "Format de requête"
102
121
  },
@@ -210,6 +229,11 @@
210
229
  "placeholder": "Veuillez entrer le nom de déploiement du modèle dans Azure",
211
230
  "title": "Nom de déploiement du modèle"
212
231
  },
232
+ "deployName": {
233
+ "extra": "Ce champ sera utilisé comme ID de modèle lors de l'envoi de la demande",
234
+ "placeholder": "Veuillez entrer le nom ou l'ID de déploiement réel du modèle",
235
+ "title": "Nom de déploiement du modèle"
236
+ },
213
237
  "displayName": {
214
238
  "placeholder": "Veuillez entrer le nom d'affichage du modèle, par exemple ChatGPT, GPT-4, etc.",
215
239
  "title": "Nom d'affichage du modèle"
@@ -578,6 +578,9 @@
578
578
  "deepseek-ai/deepseek-llm-67b-chat": {
579
579
  "description": "DeepSeek 67B est un modèle avancé formé pour des dialogues de haute complexité."
580
580
  },
581
+ "deepseek-ai/deepseek-r1": {
582
+ "description": "LLM avancé et efficace, spécialisé dans le raisonnement, les mathématiques et la programmation."
583
+ },
581
584
  "deepseek-ai/deepseek-vl2": {
582
585
  "description": "DeepSeek-VL2 est un modèle de langage visuel à experts mixtes (MoE) développé sur la base de DeepSeekMoE-27B, utilisant une architecture MoE à activation sparse, réalisant des performances exceptionnelles tout en n'activant que 4,5 milliards de paramètres. Ce modèle excelle dans plusieurs tâches telles que la question-réponse visuelle, la reconnaissance optique de caractères, la compréhension de documents/tableaux/graphes et le positionnement visuel."
583
586
  },
@@ -629,6 +632,12 @@
629
632
  "deepseek/deepseek-chat": {
630
633
  "description": "Un nouveau modèle open source fusionnant des capacités générales et de codage, qui non seulement conserve les capacités de dialogue général du modèle Chat d'origine et la puissante capacité de traitement de code du modèle Coder, mais s'aligne également mieux sur les préférences humaines. De plus, DeepSeek-V2.5 a également réalisé des améliorations significatives dans plusieurs domaines tels que les tâches d'écriture et le suivi d'instructions."
631
634
  },
635
+ "deepseek/deepseek-r1": {
636
+ "description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère d'abord une chaîne de pensée pour améliorer l'exactitude de la réponse finale."
637
+ },
638
+ "deepseek/deepseek-r1:free": {
639
+ "description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère d'abord une chaîne de pensée pour améliorer l'exactitude de la réponse finale."
640
+ },
632
641
  "emohaa": {
633
642
  "description": "Emohaa est un modèle psychologique, doté de compétences de conseil professionnel, aidant les utilisateurs à comprendre les problèmes émotionnels."
634
643
  },
@@ -821,12 +830,18 @@
821
830
  "google/gemini-pro-1.5": {
822
831
  "description": "Gemini 1.5 Pro combine les dernières technologies d'optimisation pour offrir une capacité de traitement de données multimodales plus efficace."
823
832
  },
833
+ "google/gemma-2-27b": {
834
+ "description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes."
835
+ },
824
836
  "google/gemma-2-27b-it": {
825
837
  "description": "Gemma 2 poursuit le concept de conception légère et efficace."
826
838
  },
827
839
  "google/gemma-2-2b-it": {
828
840
  "description": "Modèle d'optimisation des instructions léger de Google."
829
841
  },
842
+ "google/gemma-2-9b": {
843
+ "description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes."
844
+ },
830
845
  "google/gemma-2-9b-it": {
831
846
  "description": "Gemma 2 est une série de modèles de texte open source allégés de Google."
832
847
  },
@@ -998,6 +1013,9 @@
998
1013
  "internlm3-latest": {
999
1014
  "description": "Notre dernière série de modèles, avec des performances d'inférence exceptionnelles, en tête des modèles open source de même niveau. Par défaut, elle pointe vers notre dernière version du modèle InternLM3."
1000
1015
  },
1016
+ "jina-deepsearch-v1": {
1017
+ "description": "La recherche approfondie combine la recherche sur le web, la lecture et le raisonnement pour mener des enquêtes complètes. Vous pouvez la considérer comme un agent qui prend en charge vos tâches de recherche - elle effectuera une recherche approfondie et itérative avant de fournir une réponse. Ce processus implique une recherche continue, un raisonnement et une résolution de problèmes sous différents angles. Cela diffère fondamentalement des grands modèles standard qui génèrent des réponses directement à partir de données pré-entraînées et des systèmes RAG traditionnels qui dépendent d'une recherche superficielle unique."
1018
+ },
1001
1019
  "learnlm-1.5-pro-experimental": {
1002
1020
  "description": "LearnLM est un modèle de langage expérimental, spécifique à des tâches, formé pour respecter les principes des sciences de l'apprentissage, capable de suivre des instructions systématiques dans des contextes d'enseignement et d'apprentissage, agissant comme un mentor expert, entre autres."
1003
1021
  },
@@ -1139,6 +1157,9 @@
1139
1157
  "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
1140
1158
  "description": "Le modèle Llama 3.1 Turbo 405B offre un support de contexte de très grande capacité pour le traitement de grandes données, se distinguant dans les applications d'intelligence artificielle à très grande échelle."
1141
1159
  },
1160
+ "meta-llama/Meta-Llama-3.1-70B": {
1161
+ "description": "Llama 3.1 est le modèle de pointe lancé par Meta, prenant en charge jusqu'à 405B de paramètres, applicable aux dialogues complexes, à la traduction multilingue et à l'analyse de données."
1162
+ },
1142
1163
  "meta-llama/Meta-Llama-3.1-70B-Instruct": {
1143
1164
  "description": "LLaMA 3.1 70B offre un support de dialogue efficace en plusieurs langues."
1144
1165
  },
@@ -1196,6 +1217,30 @@
1196
1217
  "meta.llama3-8b-instruct-v1:0": {
1197
1218
  "description": "Meta Llama 3 est un modèle de langage ouvert (LLM) destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à construire, expérimenter et étendre de manière responsable leurs idées d'IA générative. En tant que partie intégrante d'un système de base pour l'innovation de la communauté mondiale, il est particulièrement adapté aux appareils à capacité de calcul et de ressources limitées, ainsi qu'à des temps d'entraînement plus rapides."
1198
1219
  },
1220
+ "meta/llama-3.1-405b-instruct": {
1221
+ "description": "LLM avancé, prenant en charge la génération de données synthétiques, la distillation de connaissances et le raisonnement, adapté aux chatbots, à la programmation et aux tâches spécifiques."
1222
+ },
1223
+ "meta/llama-3.1-70b-instruct": {
1224
+ "description": "Permet des dialogues complexes, avec une excellente compréhension du contexte, des capacités de raisonnement et de génération de texte."
1225
+ },
1226
+ "meta/llama-3.1-8b-instruct": {
1227
+ "description": "Modèle de pointe avancé, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
1228
+ },
1229
+ "meta/llama-3.2-11b-vision-instruct": {
1230
+ "description": "Modèle visuel-linguistique de pointe, spécialisé dans le raisonnement de haute qualité à partir d'images."
1231
+ },
1232
+ "meta/llama-3.2-1b-instruct": {
1233
+ "description": "Modèle de langage de pointe de petite taille, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
1234
+ },
1235
+ "meta/llama-3.2-3b-instruct": {
1236
+ "description": "Modèle de langage de pointe de petite taille, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
1237
+ },
1238
+ "meta/llama-3.2-90b-vision-instruct": {
1239
+ "description": "Modèle visuel-linguistique de pointe, spécialisé dans le raisonnement de haute qualité à partir d'images."
1240
+ },
1241
+ "meta/llama-3.3-70b-instruct": {
1242
+ "description": "LLM avancé, spécialisé dans le raisonnement, les mathématiques, le bon sens et les appels de fonction."
1243
+ },
1199
1244
  "microsoft/WizardLM-2-8x22B": {
1200
1245
  "description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, qui excelle dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
1201
1246
  },
@@ -1292,6 +1337,12 @@
1292
1337
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1293
1338
  "description": "Llama 3.1 Nemotron 70B est un modèle de langage à grande échelle personnalisé par NVIDIA, conçu pour améliorer l'aide fournie par les réponses générées par LLM aux requêtes des utilisateurs. Ce modèle a excellé dans des tests de référence tels que Arena Hard, AlpacaEval 2 LC et GPT-4-Turbo MT-Bench, se classant premier dans les trois tests d'alignement automatique au 1er octobre 2024. Le modèle utilise RLHF (en particulier REINFORCE), Llama-3.1-Nemotron-70B-Reward et HelpSteer2-Preference pour l'entraînement sur la base du modèle Llama-3.1-70B-Instruct."
1294
1339
  },
1340
+ "nvidia/llama-3.1-nemotron-51b-instruct": {
1341
+ "description": "Modèle de langage unique, offrant une précision et une efficacité inégalées."
1342
+ },
1343
+ "nvidia/llama-3.1-nemotron-70b-instruct": {
1344
+ "description": "Llama-3.1-Nemotron-70B-Instruct est un modèle de langage de grande taille personnalisé par NVIDIA, conçu pour améliorer l'utilité des réponses générées par LLM."
1345
+ },
1295
1346
  "o1": {
1296
1347
  "description": "Axé sur le raisonnement avancé et la résolution de problèmes complexes, y compris les tâches mathématiques et scientifiques. Idéal pour les applications nécessitant une compréhension approfondie du contexte et des flux de travail d'agent."
1297
1348
  },
@@ -1406,6 +1457,15 @@
1406
1457
  "qwen/qwen-2-7b-instruct:free": {
1407
1458
  "description": "Qwen2 est une toute nouvelle série de modèles de langage de grande taille, offrant des capacités de compréhension et de génération plus puissantes."
1408
1459
  },
1460
+ "qwen/qwen2.5-7b-instruct": {
1461
+ "description": "LLM orienté vers le chinois et l'anglais, ciblant des domaines tels que la langue, la programmation, les mathématiques et le raisonnement."
1462
+ },
1463
+ "qwen/qwen2.5-coder-32b-instruct": {
1464
+ "description": "LLM avancé, prenant en charge la génération de code, le raisonnement et la correction, couvrant les langages de programmation courants."
1465
+ },
1466
+ "qwen/qwen2.5-coder-7b-instruct": {
1467
+ "description": "Modèle de code puissant de taille moyenne, prenant en charge une longueur de contexte de 32K, spécialisé dans la programmation multilingue."
1468
+ },
1409
1469
  "qwen2": {
1410
1470
  "description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
1411
1471
  },
@@ -11,6 +11,9 @@
11
11
  "azure": {
12
12
  "description": "Azure propose une variété de modèles IA avancés, y compris GPT-3.5 et la dernière série GPT-4, prenant en charge divers types de données et tâches complexes, tout en s'engageant à fournir des solutions IA sécurisées, fiables et durables."
13
13
  },
14
+ "azureai": {
15
+ "description": "Azure propose une variété de modèles d'IA avancés, y compris GPT-3.5 et la dernière série GPT-4, prenant en charge divers types de données et des tâches complexes, s'engageant à fournir des solutions d'IA sécurisées, fiables et durables."
16
+ },
14
17
  "baichuan": {
15
18
  "description": "Baichuan Intelligent est une entreprise spécialisée dans le développement de grands modèles d'intelligence artificielle, dont les modèles excellent dans les tâches en chinois telles que l'encyclopédie de connaissances, le traitement de longs textes et la création, surpassant les modèles dominants étrangers. Baichuan Intelligent possède également des capacités multimodales de premier plan, se distinguant dans plusieurs évaluations autorisées. Ses modèles incluent Baichuan 4, Baichuan 3 Turbo et Baichuan 3 Turbo 128k, chacun optimisé pour différents scénarios d'application, offrant des solutions à bon rapport qualité-prix."
16
19
  },
@@ -53,6 +56,9 @@
53
56
  "internlm": {
54
57
  "description": "Organisation open source dédiée à la recherche et au développement d'outils pour les grands modèles. Fournit à tous les développeurs d'IA une plateforme open source efficace et facile à utiliser, rendant les technologies de pointe en matière de grands modèles et d'algorithmes accessibles."
55
58
  },
59
+ "jina": {
60
+ "description": "Jina AI, fondée en 2020, est une entreprise leader dans le domaine de l'IA de recherche. Notre plateforme de recherche de base comprend des modèles vectoriels, des réarrangeurs et de petits modèles de langage, aidant les entreprises à construire des applications de recherche génératives et multimodales fiables et de haute qualité."
61
+ },
56
62
  "lmstudio": {
57
63
  "description": "LM Studio est une application de bureau pour développer et expérimenter des LLM sur votre ordinateur."
58
64
  },
@@ -68,6 +74,9 @@
68
74
  "novita": {
69
75
  "description": "Novita AI est une plateforme offrant des services API pour divers grands modèles de langage et la génération d'images IA, flexible, fiable et rentable. Elle prend en charge les derniers modèles open source tels que Llama3, Mistral, et fournit des solutions API complètes, conviviales et évolutives pour le développement d'applications IA, adaptées à la croissance rapide des startups IA."
70
76
  },
77
+ "nvidia": {
78
+ "description": "NVIDIA NIM™ fournit des conteneurs pour l'inférence de microservices accélérés par GPU auto-hébergés, prenant en charge le déploiement de modèles d'IA pré-entraînés et personnalisés dans le cloud, les centres de données, les PC personnels RTX™ AI et les stations de travail."
79
+ },
71
80
  "ollama": {
72
81
  "description": "Les modèles proposés par Ollama couvrent largement des domaines tels que la génération de code, les calculs mathématiques, le traitement multilingue et les interactions conversationnelles, répondant à des besoins diversifiés pour le déploiement en entreprise et la localisation."
73
82
  },
@@ -107,6 +116,12 @@
107
116
  "upstage": {
108
117
  "description": "Upstage se concentre sur le développement de modèles IA pour divers besoins commerciaux, y compris Solar LLM et Document AI, visant à réaliser une intelligence générale artificielle (AGI) pour le travail. Créez des agents de dialogue simples via l'API Chat, et prenez en charge les appels de fonction, la traduction, l'intégration et les applications spécifiques à un domaine."
109
118
  },
119
+ "vllm": {
120
+ "description": "vLLM est une bibliothèque rapide et facile à utiliser pour l'inférence et les services LLM."
121
+ },
122
+ "volcengine": {
123
+ "description": "La plateforme de développement des services de grands modèles lancée par ByteDance, offrant des services d'appel de modèles riches en fonctionnalités, sécurisés et compétitifs en termes de prix. Elle propose également des fonctionnalités de bout en bout telles que les données de modèle, le réglage fin, l'inférence et l'évaluation, garantissant ainsi le succès de votre développement d'applications AI."
124
+ },
110
125
  "wenxin": {
111
126
  "description": "Plateforme de développement et de services d'applications AI natives et de modèles de grande envergure, tout-en-un pour les entreprises, offrant la chaîne d'outils la plus complète et facile à utiliser pour le développement de modèles d'intelligence artificielle générative et le développement d'applications."
112
127
  },
@@ -19,6 +19,24 @@
19
19
  "title": "Chiave API"
20
20
  }
21
21
  },
22
+ "azureai": {
23
+ "azureApiVersion": {
24
+ "desc": "Versione API di Azure, seguendo il formato YYYY-MM-DD, consulta [l'ultima versione](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
25
+ "fetch": "Ottieni elenco",
26
+ "title": "Versione API di Azure"
27
+ },
28
+ "endpoint": {
29
+ "desc": "Trova l'endpoint di inferenza del modello Azure AI nella panoramica del progetto Azure AI",
30
+ "placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
31
+ "title": "Endpoint di Azure AI"
32
+ },
33
+ "title": "Azure OpenAI",
34
+ "token": {
35
+ "desc": "Trova la chiave API nella panoramica del progetto Azure AI",
36
+ "placeholder": "Chiave Azure",
37
+ "title": "Chiave"
38
+ }
39
+ },
22
40
  "bedrock": {
23
41
  "accessKeyId": {
24
42
  "desc": "Inserisci l'ID chiave di accesso AWS",
@@ -97,6 +115,7 @@
97
115
  "title": "Indirizzo proxy"
98
116
  },
99
117
  "sdkType": {
118
+ "placeholder": "openai/anthropic/azureai/ollama/...",
100
119
  "required": "Seleziona il tipo di SDK",
101
120
  "title": "Formato della richiesta"
102
121
  },
@@ -210,6 +229,11 @@
210
229
  "placeholder": "Inserisci il nome di distribuzione del modello in Azure",
211
230
  "title": "Nome di distribuzione del modello"
212
231
  },
232
+ "deployName": {
233
+ "extra": "Questo campo verrà utilizzato come ID del modello quando si invia la richiesta",
234
+ "placeholder": "Inserisci il nome o l'ID effettivo del modello distribuito",
235
+ "title": "Nome di distribuzione del modello"
236
+ },
213
237
  "displayName": {
214
238
  "placeholder": "Inserisci il nome visualizzato del modello, ad esempio ChatGPT, GPT-4, ecc.",
215
239
  "title": "Nome visualizzato del modello"
@@ -578,6 +578,9 @@
578
578
  "deepseek-ai/deepseek-llm-67b-chat": {
579
579
  "description": "DeepSeek 67B è un modello avanzato addestrato per dialoghi ad alta complessità."
580
580
  },
581
+ "deepseek-ai/deepseek-r1": {
582
+ "description": "LLM altamente efficiente, specializzato in ragionamento, matematica e programmazione."
583
+ },
581
584
  "deepseek-ai/deepseek-vl2": {
582
585
  "description": "DeepSeek-VL2 è un modello linguistico visivo a esperti misti (MoE) sviluppato sulla base di DeepSeekMoE-27B, che utilizza un'architettura MoE con attivazione sparsa, raggiungendo prestazioni eccezionali attivando solo 4,5 miliardi di parametri. Questo modello eccelle in vari compiti, tra cui domande visive, riconoscimento ottico dei caratteri, comprensione di documenti/tabelle/grafici e localizzazione visiva."
583
586
  },
@@ -629,6 +632,12 @@
629
632
  "deepseek/deepseek-chat": {
630
633
  "description": "Un nuovo modello open source che integra capacità generali e di codice, mantenendo non solo le capacità di dialogo generali del modello Chat originale e la potente capacità di elaborazione del codice del modello Coder, ma allineandosi anche meglio alle preferenze umane. Inoltre, DeepSeek-V2.5 ha ottenuto notevoli miglioramenti in vari aspetti, come compiti di scrittura e seguire istruzioni."
631
634
  },
635
+ "deepseek/deepseek-r1": {
636
+ "description": "DeepSeek-R1 ha notevolmente migliorato le capacità di ragionamento del modello con pochissimi dati etichettati. Prima di fornire la risposta finale, il modello genera una catena di pensiero per migliorare l'accuratezza della risposta finale."
637
+ },
638
+ "deepseek/deepseek-r1:free": {
639
+ "description": "DeepSeek-R1 ha notevolmente migliorato le capacità di ragionamento del modello con pochissimi dati etichettati. Prima di fornire la risposta finale, il modello genera una catena di pensiero per migliorare l'accuratezza della risposta finale."
640
+ },
632
641
  "emohaa": {
633
642
  "description": "Emohaa è un modello psicologico, con capacità di consulenza professionale, aiuta gli utenti a comprendere i problemi emotivi."
634
643
  },
@@ -821,12 +830,18 @@
821
830
  "google/gemini-pro-1.5": {
822
831
  "description": "Gemini 1.5 Pro combina le più recenti tecnologie di ottimizzazione, offrendo una capacità di elaborazione dei dati multimodali più efficiente."
823
832
  },
833
+ "google/gemma-2-27b": {
834
+ "description": "Gemma 2 è un modello efficiente lanciato da Google, coprendo una varietà di scenari applicativi, dalle piccole applicazioni all'elaborazione di dati complessi."
835
+ },
824
836
  "google/gemma-2-27b-it": {
825
837
  "description": "Gemma 2 continua il concetto di design leggero ed efficiente."
826
838
  },
827
839
  "google/gemma-2-2b-it": {
828
840
  "description": "Modello di ottimizzazione delle istruzioni leggero di Google"
829
841
  },
842
+ "google/gemma-2-9b": {
843
+ "description": "Gemma 2 è un modello efficiente lanciato da Google, coprendo una varietà di scenari applicativi, dalle piccole applicazioni all'elaborazione di dati complessi."
844
+ },
830
845
  "google/gemma-2-9b-it": {
831
846
  "description": "Gemma 2 è una serie di modelli di testo open source leggeri di Google."
832
847
  },
@@ -998,6 +1013,9 @@
998
1013
  "internlm3-latest": {
999
1014
  "description": "La nostra ultima serie di modelli, con prestazioni di inferenza eccezionali, è leader tra i modelli open source della stessa classe. Punta di default ai modelli della serie InternLM3 appena rilasciati."
1000
1015
  },
1016
+ "jina-deepsearch-v1": {
1017
+ "description": "La ricerca approfondita combina la ricerca online, la lettura e il ragionamento, consentendo indagini complete. Puoi considerarlo come un agente che accetta il tuo compito di ricerca - eseguirà una ricerca approfondita e iterativa prima di fornire una risposta. Questo processo implica una continua ricerca, ragionamento e risoluzione dei problemi da diverse angolazioni. Questo è fondamentalmente diverso dai modelli di grandi dimensioni standard che generano risposte direttamente dai dati pre-addestrati e dai tradizionali sistemi RAG che si basano su ricerche superficiali una tantum."
1018
+ },
1001
1019
  "learnlm-1.5-pro-experimental": {
1002
1020
  "description": "LearnLM è un modello linguistico sperimentale, specifico per compiti, addestrato per rispettare i principi della scienza dell'apprendimento, in grado di seguire istruzioni sistematiche in contesti di insegnamento e apprendimento, fungendo da tutor esperto."
1003
1021
  },
@@ -1139,6 +1157,9 @@
1139
1157
  "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
1140
1158
  "description": "Il modello Llama 3.1 Turbo 405B offre un supporto di contesto di capacità estremamente grande per l'elaborazione di big data, eccellendo nelle applicazioni di intelligenza artificiale su larga scala."
1141
1159
  },
1160
+ "meta-llama/Meta-Llama-3.1-70B": {
1161
+ "description": "Llama 3.1 è il modello leader lanciato da Meta, supporta fino a 405B parametri, applicabile a conversazioni complesse, traduzione multilingue e analisi dei dati."
1162
+ },
1142
1163
  "meta-llama/Meta-Llama-3.1-70B-Instruct": {
1143
1164
  "description": "LLaMA 3.1 70B offre supporto per dialoghi multilingue ad alta efficienza."
1144
1165
  },
@@ -1196,6 +1217,30 @@
1196
1217
  "meta.llama3-8b-instruct-v1:0": {
1197
1218
  "description": "Meta Llama 3 è un modello di linguaggio di grandi dimensioni (LLM) open source progettato per sviluppatori, ricercatori e aziende, per aiutarli a costruire, sperimentare e scalare responsabilmente le loro idee di AI generativa. Come parte di un sistema di base per l'innovazione della comunità globale, è particolarmente adatto per dispositivi a bassa potenza e risorse limitate, oltre a garantire tempi di addestramento più rapidi."
1198
1219
  },
1220
+ "meta/llama-3.1-405b-instruct": {
1221
+ "description": "LLM avanzato, supporta la generazione di dati sintetici, la distillazione della conoscenza e il ragionamento, adatto per chatbot, programmazione e compiti specifici."
1222
+ },
1223
+ "meta/llama-3.1-70b-instruct": {
1224
+ "description": "Abilita conversazioni complesse, con eccellenti capacità di comprensione del contesto, ragionamento e generazione di testo."
1225
+ },
1226
+ "meta/llama-3.1-8b-instruct": {
1227
+ "description": "Modello all'avanguardia, dotato di comprensione del linguaggio, eccellenti capacità di ragionamento e generazione di testo."
1228
+ },
1229
+ "meta/llama-3.2-11b-vision-instruct": {
1230
+ "description": "Modello visivo-linguistico all'avanguardia, specializzato nel ragionamento di alta qualità a partire dalle immagini."
1231
+ },
1232
+ "meta/llama-3.2-1b-instruct": {
1233
+ "description": "Modello linguistico all'avanguardia di piccole dimensioni, dotato di comprensione del linguaggio, eccellenti capacità di ragionamento e generazione di testo."
1234
+ },
1235
+ "meta/llama-3.2-3b-instruct": {
1236
+ "description": "Modello linguistico all'avanguardia di piccole dimensioni, dotato di comprensione del linguaggio, eccellenti capacità di ragionamento e generazione di testo."
1237
+ },
1238
+ "meta/llama-3.2-90b-vision-instruct": {
1239
+ "description": "Modello visivo-linguistico all'avanguardia, specializzato nel ragionamento di alta qualità a partire dalle immagini."
1240
+ },
1241
+ "meta/llama-3.3-70b-instruct": {
1242
+ "description": "LLM avanzato, specializzato in ragionamento, matematica, conoscenze generali e chiamate di funzione."
1243
+ },
1199
1244
  "microsoft/WizardLM-2-8x22B": {
1200
1245
  "description": "WizardLM 2 è un modello linguistico fornito da Microsoft AI, particolarmente efficace in conversazioni complesse, multilingue, ragionamento e assistenti intelligenti."
1201
1246
  },
@@ -1292,6 +1337,12 @@
1292
1337
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1293
1338
  "description": "Llama 3.1 Nemotron 70B è un modello linguistico di grandi dimensioni personalizzato da NVIDIA, progettato per migliorare l'utilità delle risposte generate dai LLM alle domande degli utenti. Questo modello ha ottenuto risultati eccellenti nei benchmark come Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, classificandosi al primo posto in tutti e tre i benchmark di allineamento automatico fino al 1 ottobre 2024. Il modello è stato addestrato utilizzando RLHF (in particolare REINFORCE), Llama-3.1-Nemotron-70B-Reward e HelpSteer2-Preference come suggerimenti, basandosi sul modello Llama-3.1-70B-Instruct."
1294
1339
  },
1340
+ "nvidia/llama-3.1-nemotron-51b-instruct": {
1341
+ "description": "Modello linguistico unico, offre prestazioni di accuratezza ed efficienza senza pari."
1342
+ },
1343
+ "nvidia/llama-3.1-nemotron-70b-instruct": {
1344
+ "description": "Llama-3.1-Nemotron-70B-Instruct è un modello linguistico di grandi dimensioni personalizzato da NVIDIA, progettato per migliorare l'utilità delle risposte generate da LLM."
1345
+ },
1295
1346
  "o1": {
1296
1347
  "description": "Focalizzato su inferenze avanzate e risoluzione di problemi complessi, inclusi compiti matematici e scientifici. È particolarmente adatto per applicazioni che richiedono una comprensione profonda del contesto e flussi di lavoro agenti."
1297
1348
  },
@@ -1406,6 +1457,15 @@
1406
1457
  "qwen/qwen-2-7b-instruct:free": {
1407
1458
  "description": "Qwen2 è una nuova serie di modelli di linguaggio di grandi dimensioni, con capacità di comprensione e generazione più forti."
1408
1459
  },
1460
+ "qwen/qwen2.5-7b-instruct": {
1461
+ "description": "LLM orientato al cinese e all'inglese, focalizzato su linguaggio, programmazione, matematica, ragionamento e altro."
1462
+ },
1463
+ "qwen/qwen2.5-coder-32b-instruct": {
1464
+ "description": "LLM avanzato, supporta la generazione di codice, il ragionamento e la correzione, coprendo i linguaggi di programmazione più diffusi."
1465
+ },
1466
+ "qwen/qwen2.5-coder-7b-instruct": {
1467
+ "description": "Potente modello di codice di medie dimensioni, supporta una lunghezza di contesto di 32K, specializzato in programmazione multilingue."
1468
+ },
1409
1469
  "qwen2": {
1410
1470
  "description": "Qwen2 è la nuova generazione di modelli di linguaggio su larga scala di Alibaba, supporta prestazioni eccellenti per esigenze applicative diversificate."
1411
1471
  },