@lobehub/chat 1.81.3 → 1.81.4

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (151) hide show
  1. package/CHANGELOG.md +33 -0
  2. package/changelog/v1.json +12 -0
  3. package/locales/ar/common.json +2 -0
  4. package/locales/ar/electron.json +32 -0
  5. package/locales/ar/models.json +126 -3
  6. package/locales/ar/plugin.json +1 -0
  7. package/locales/ar/tool.json +25 -0
  8. package/locales/bg-BG/common.json +2 -0
  9. package/locales/bg-BG/electron.json +32 -0
  10. package/locales/bg-BG/models.json +126 -3
  11. package/locales/bg-BG/plugin.json +1 -0
  12. package/locales/bg-BG/tool.json +25 -0
  13. package/locales/de-DE/common.json +2 -0
  14. package/locales/de-DE/electron.json +32 -0
  15. package/locales/de-DE/models.json +126 -3
  16. package/locales/de-DE/plugin.json +1 -0
  17. package/locales/de-DE/tool.json +25 -0
  18. package/locales/en-US/common.json +2 -0
  19. package/locales/en-US/electron.json +32 -0
  20. package/locales/en-US/models.json +126 -3
  21. package/locales/en-US/plugin.json +1 -0
  22. package/locales/en-US/tool.json +25 -0
  23. package/locales/es-ES/common.json +2 -0
  24. package/locales/es-ES/electron.json +32 -0
  25. package/locales/es-ES/models.json +126 -3
  26. package/locales/es-ES/plugin.json +1 -0
  27. package/locales/es-ES/tool.json +25 -0
  28. package/locales/fa-IR/common.json +2 -0
  29. package/locales/fa-IR/electron.json +32 -0
  30. package/locales/fa-IR/models.json +126 -3
  31. package/locales/fa-IR/plugin.json +1 -0
  32. package/locales/fa-IR/tool.json +25 -0
  33. package/locales/fr-FR/common.json +2 -0
  34. package/locales/fr-FR/electron.json +32 -0
  35. package/locales/fr-FR/models.json +126 -3
  36. package/locales/fr-FR/plugin.json +1 -0
  37. package/locales/fr-FR/tool.json +25 -0
  38. package/locales/it-IT/common.json +2 -0
  39. package/locales/it-IT/electron.json +32 -0
  40. package/locales/it-IT/models.json +126 -3
  41. package/locales/it-IT/plugin.json +1 -0
  42. package/locales/it-IT/tool.json +25 -0
  43. package/locales/ja-JP/common.json +2 -0
  44. package/locales/ja-JP/electron.json +32 -0
  45. package/locales/ja-JP/models.json +126 -3
  46. package/locales/ja-JP/plugin.json +1 -0
  47. package/locales/ja-JP/tool.json +25 -0
  48. package/locales/ko-KR/common.json +2 -0
  49. package/locales/ko-KR/electron.json +32 -0
  50. package/locales/ko-KR/models.json +126 -3
  51. package/locales/ko-KR/plugin.json +1 -0
  52. package/locales/ko-KR/tool.json +25 -0
  53. package/locales/nl-NL/common.json +2 -0
  54. package/locales/nl-NL/electron.json +32 -0
  55. package/locales/nl-NL/models.json +126 -3
  56. package/locales/nl-NL/plugin.json +1 -0
  57. package/locales/nl-NL/tool.json +25 -0
  58. package/locales/pl-PL/common.json +2 -0
  59. package/locales/pl-PL/electron.json +32 -0
  60. package/locales/pl-PL/models.json +126 -3
  61. package/locales/pl-PL/plugin.json +1 -0
  62. package/locales/pl-PL/tool.json +25 -0
  63. package/locales/pt-BR/common.json +2 -0
  64. package/locales/pt-BR/electron.json +32 -0
  65. package/locales/pt-BR/models.json +126 -3
  66. package/locales/pt-BR/plugin.json +1 -0
  67. package/locales/pt-BR/tool.json +25 -0
  68. package/locales/ru-RU/common.json +2 -0
  69. package/locales/ru-RU/electron.json +32 -0
  70. package/locales/ru-RU/models.json +126 -3
  71. package/locales/ru-RU/plugin.json +1 -0
  72. package/locales/ru-RU/tool.json +25 -0
  73. package/locales/tr-TR/common.json +2 -0
  74. package/locales/tr-TR/electron.json +32 -0
  75. package/locales/tr-TR/models.json +126 -3
  76. package/locales/tr-TR/plugin.json +1 -0
  77. package/locales/tr-TR/tool.json +25 -0
  78. package/locales/vi-VN/common.json +2 -0
  79. package/locales/vi-VN/electron.json +32 -0
  80. package/locales/vi-VN/models.json +126 -3
  81. package/locales/vi-VN/plugin.json +1 -0
  82. package/locales/vi-VN/tool.json +25 -0
  83. package/locales/zh-CN/common.json +2 -0
  84. package/locales/zh-CN/electron.json +32 -0
  85. package/locales/zh-CN/models.json +131 -8
  86. package/locales/zh-CN/plugin.json +1 -0
  87. package/locales/zh-CN/tool.json +25 -0
  88. package/locales/zh-TW/common.json +2 -0
  89. package/locales/zh-TW/electron.json +32 -0
  90. package/locales/zh-TW/models.json +126 -3
  91. package/locales/zh-TW/plugin.json +1 -0
  92. package/locales/zh-TW/tool.json +25 -0
  93. package/package.json +3 -2
  94. package/packages/electron-client-ipc/src/events/index.ts +5 -5
  95. package/packages/electron-client-ipc/src/events/localFile.ts +22 -0
  96. package/packages/electron-client-ipc/src/events/{file.ts → upload.ts} +1 -1
  97. package/packages/electron-client-ipc/src/types/index.ts +2 -1
  98. package/packages/electron-client-ipc/src/types/localFile.ts +52 -0
  99. package/scripts/prebuild.mts +5 -1
  100. package/src/app/(backend)/trpc/desktop/[trpc]/route.ts +26 -0
  101. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ObjectEntity.tsx +81 -0
  102. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ValueCell.tsx +43 -0
  103. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/index.tsx +120 -0
  104. package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +75 -2
  105. package/src/features/Conversation/Messages/Assistant/Tool/Render/KeyValueEditor.tsx +214 -0
  106. package/src/features/User/UserPanel/useMenu.tsx +8 -1
  107. package/src/libs/agent-runtime/google/index.ts +3 -0
  108. package/src/libs/trpc/client/desktop.ts +14 -0
  109. package/src/locales/default/common.ts +2 -0
  110. package/src/locales/default/electron.ts +34 -0
  111. package/src/locales/default/index.ts +2 -0
  112. package/src/locales/default/tool.ts +25 -0
  113. package/src/server/routers/desktop/index.ts +9 -0
  114. package/src/server/routers/desktop/pgTable.ts +43 -0
  115. package/src/services/electron/autoUpdate.ts +17 -0
  116. package/src/services/electron/file.ts +31 -0
  117. package/src/services/electron/localFileService.ts +39 -0
  118. package/src/services/electron/remoteServer.ts +40 -0
  119. package/src/store/chat/index.ts +1 -1
  120. package/src/store/chat/slices/builtinTool/actions/index.ts +3 -1
  121. package/src/store/chat/slices/builtinTool/actions/localFile.ts +129 -0
  122. package/src/store/chat/slices/builtinTool/initialState.ts +2 -0
  123. package/src/store/chat/slices/builtinTool/selectors.ts +2 -0
  124. package/src/store/chat/slices/plugin/action.ts +3 -3
  125. package/src/store/chat/store.ts +2 -0
  126. package/src/store/electron/actions/sync.ts +117 -0
  127. package/src/store/electron/index.ts +1 -0
  128. package/src/store/electron/initialState.ts +18 -0
  129. package/src/store/electron/selectors/index.ts +1 -0
  130. package/src/store/electron/selectors/sync.ts +9 -0
  131. package/src/store/electron/store.ts +29 -0
  132. package/src/tools/index.ts +8 -0
  133. package/src/tools/local-files/Render/ListFiles/Result.tsx +42 -0
  134. package/src/tools/local-files/Render/ListFiles/index.tsx +68 -0
  135. package/src/tools/local-files/Render/ReadLocalFile/ReadFileSkeleton.tsx +50 -0
  136. package/src/tools/local-files/Render/ReadLocalFile/ReadFileView.tsx +197 -0
  137. package/src/tools/local-files/Render/ReadLocalFile/index.tsx +31 -0
  138. package/src/tools/local-files/Render/ReadLocalFile/style.ts +37 -0
  139. package/src/tools/local-files/Render/SearchFiles/Result.tsx +42 -0
  140. package/src/tools/local-files/Render/SearchFiles/SearchQuery/SearchView.tsx +77 -0
  141. package/src/tools/local-files/Render/SearchFiles/SearchQuery/index.tsx +72 -0
  142. package/src/tools/local-files/Render/SearchFiles/index.tsx +32 -0
  143. package/src/tools/local-files/Render/index.tsx +36 -0
  144. package/src/tools/local-files/components/FileItem.tsx +117 -0
  145. package/src/tools/local-files/index.ts +149 -0
  146. package/src/tools/local-files/systemRole.ts +46 -0
  147. package/src/tools/local-files/type.ts +33 -0
  148. package/src/tools/renders.ts +3 -0
  149. package/packages/electron-client-ipc/src/events/search.ts +0 -4
  150. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments.tsx +0 -165
  151. /package/packages/electron-client-ipc/src/types/{file.ts → upload.ts} +0 -0
@@ -5,9 +5,15 @@
5
5
  "01-ai/yi-1.5-9b-chat": {
6
6
  "description": "Zero One Everything، جدیدترین مدل متن باز تنظیم شده با 9 میلیارد پارامتر، که تنظیمات آن از چندین سناریوی گفتگویی پشتیبانی می‌کند و داده‌های آموزشی با کیفیت بالا را برای هم‌راستایی با ترجیحات انسانی فراهم می‌کند."
7
7
  },
8
+ "360/deepseek-r1": {
9
+ "description": "مدل DeepSeek-R1 نسخه 360، که در مرحله پس از آموزش به‌طور گسترده‌ای از تکنیک‌های یادگیری تقویتی استفاده کرده و توانایی استدلال مدل را به‌طور قابل توجهی افزایش داده است. در وظایف ریاضی، کدنویسی و استدلال زبان طبیعی، عملکردی مشابه نسخه رسمی OpenAI o1 دارد."
10
+ },
8
11
  "360gpt-pro": {
9
12
  "description": "360GPT Pro به عنوان یکی از اعضای مهم سری مدل‌های 360 AI، با توانایی پردازش متون به‌صورت کارآمد، نیازهای متنوع در زمینه‌های مختلف کاربردهای زبان طبیعی را برآورده می‌کند و از قابلیت‌هایی مانند درک متون طولانی و مکالمات چندمرحله‌ای پشتیبانی می‌کند."
10
13
  },
14
+ "360gpt-pro-trans": {
15
+ "description": "مدل مخصوص ترجمه، به‌طور عمیق بهینه‌سازی شده و دارای عملکرد پیشرفته در ترجمه است."
16
+ },
11
17
  "360gpt-turbo": {
12
18
  "description": "360GPT Turbo توانایی‌های محاسباتی و مکالمه‌ای قدرتمندی ارائه می‌دهد و دارای کارایی بالایی در درک و تولید معنا است. این یک راه‌حل ایده‌آل برای دستیار هوشمند برای شرکت‌ها و توسعه‌دهندگان است."
13
19
  },
@@ -62,6 +68,18 @@
62
68
  "DeepSeek-R1-Distill-Qwen-7B": {
63
69
  "description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-7B است که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است."
64
70
  },
71
+ "DeepSeek-V3": {
72
+ "description": "DeepSeek-V3 یک مدل MoE است که توسط شرکت DeepSeek توسعه یافته است. نتایج ارزیابی‌های متعدد DeepSeek-V3 از مدل‌های متن باز دیگر مانند Qwen2.5-72B و Llama-3.1-405B فراتر رفته و از نظر عملکرد با مدل‌های بسته جهانی برتر مانند GPT-4o و Claude-3.5-Sonnet برابری می‌کند."
73
+ },
74
+ "Doubao-1.5-thinking-pro": {
75
+ "description": "Doubao-1.5 مدل جدید تفکر عمیق است که در زمینه‌های تخصصی مانند ریاضی، برنامه‌نویسی، استدلال علمی و همچنین در وظایف عمومی نوشتن خلاقانه عملکرد برجسته‌ای دارد و در چندین معیار معتبر مانند AIME 2024، Codeforces و GPQA به سطح اول صنعت نزدیک شده است. از پنجره متن 128k و خروجی 16k پشتیبانی می‌کند."
76
+ },
77
+ "Doubao-1.5-thinking-pro-vision": {
78
+ "description": "Doubao-1.5 مدل جدید تفکر عمیق است که در زمینه‌های تخصصی مانند ریاضی، برنامه‌نویسی، استدلال علمی و همچنین در وظایف عمومی نوشتن خلاقانه عملکرد برجسته‌ای دارد و در چندین معیار معتبر مانند AIME 2024، Codeforces و GPQA به سطح اول صنعت نزدیک شده است. از پنجره متن 128k و خروجی 16k پشتیبانی می‌کند."
79
+ },
80
+ "Doubao-1.5-vision-pro": {
81
+ "description": "Doubao-1.5-vision-pro مدل بزرگ چندرسانه‌ای به‌روز شده است که از شناسایی تصاویر با هر وضوح و نسبت ابعاد بسیار طولانی پشتیبانی می‌کند و توانایی‌های استدلال بصری، شناسایی مستندات، درک اطلاعات جزئی و پیروی از دستورات را تقویت می‌کند."
82
+ },
65
83
  "Doubao-1.5-vision-pro-32k": {
66
84
  "description": "مدل بزرگ چندرسانه‌ای ارتقاء یافته Doubao-1.5-vision-pro، از شناسایی تصاویر با هر وضوح و نسبت ابعاد بسیار طولانی پشتیبانی می‌کند و توانایی‌های استدلال بصری، شناسایی اسناد، درک اطلاعات جزئی و پیروی از دستورات را تقویت می‌کند."
67
85
  },
@@ -341,6 +359,15 @@
341
359
  "SenseChat-Vision": {
342
360
  "description": "مدل جدیدترین نسخه (V5.5) است که از ورودی چند تصویر پشتیبانی می‌کند و به طور جامع به بهینه‌سازی توانایی‌های پایه مدل پرداخته و در شناسایی ویژگی‌های اشیاء، روابط فضایی، شناسایی رویدادهای حرکتی، درک صحنه، شناسایی احساسات، استدلال منطقی و درک و تولید متن بهبودهای قابل توجهی داشته است."
343
361
  },
362
+ "SenseNova-V6-Pro": {
363
+ "description": "تحقق یکپارچگی بومی قابلیت‌های تصویر، متن و ویدیو، عبور از محدودیت‌های سنتی چندمدلی، و کسب دو قهرمانی در ارزیابی‌های OpenCompass و SuperCLUE."
364
+ },
365
+ "SenseNova-V6-Reasoner": {
366
+ "description": "توجه به استدلال عمیق بصری و زبانی، تحقق تفکر کند و استدلال عمیق، ارائه فرآیند کامل زنجیره تفکر."
367
+ },
368
+ "SenseNova-V6-Turbo": {
369
+ "description": "تحقق یکپارچگی بومی قابلیت‌های تصویر، متن و ویدیو، عبور از محدودیت‌های سنتی چندمدلی، پیشی گرفتن در ابعاد اصلی مانند توانایی‌های چندمدلی و زبانی، و در چندین ارزیابی در سطح اول داخلی و خارجی قرار گرفتن."
370
+ },
344
371
  "Skylark2-lite-8k": {
345
372
  "description": "مدل نسل دوم Skylark، مدل Skylark2-lite دارای سرعت پاسخ‌دهی بالایی است و برای سناریوهایی که نیاز به زمان واقعی بالایی دارند و حساس به هزینه هستند و نیاز به دقت مدلی کمتری دارند مناسب است. طول پنجره متنی این مدل 8k است."
346
373
  },
@@ -356,6 +383,21 @@
356
383
  "Skylark2-pro-turbo-8k": {
357
384
  "description": "مدل نسل دوم Skylark، مدل Skylark2-pro-turbo-8k دارای استنتاج سریعتر و هزینه کمتر است و طول پنجره متنی آن 8k است."
358
385
  },
386
+ "THUDM/GLM-4-32B-0414": {
387
+ "description": "GLM-4-32B-0414 نسل جدید مدل‌های متن‌باز سری GLM است که دارای 320 میلیارد پارامتر است. عملکرد این مدل می‌تواند با سری GPT OpenAI و سری V3/R1 DeepSeek مقایسه شود."
388
+ },
389
+ "THUDM/GLM-4-9B-0414": {
390
+ "description": "GLM-4-9B-0414 یک مدل کوچک از سری GLM است که دارای 90 میلیارد پارامتر است. این مدل ویژگی‌های فنی سری GLM-4-32B را به ارث می‌برد، اما گزینه‌های استقرار سبک‌تری را ارائه می‌دهد. با وجود اندازه کوچک، GLM-4-9B-0414 در تولید کد، طراحی وب، تولید گرافیک SVG و نوشتن مبتنی بر جستجو عملکرد فوق‌العاده‌ای دارد."
391
+ },
392
+ "THUDM/GLM-Z1-32B-0414": {
393
+ "description": "GLM-Z1-32B-0414 یک مدل استدلال با توانایی تفکر عمیق است. این مدل بر اساس GLM-4-32B-0414 از طریق راه‌اندازی سرد و یادگیری تقویتی توسعه یافته و در وظایف ریاضی، کدنویسی و منطقی آموزش بیشتری دیده است. نسبت به مدل پایه، GLM-Z1-32B-0414 توانایی‌های ریاضی و حل مسائل پیچیده را به‌طور قابل توجهی افزایش داده است."
394
+ },
395
+ "THUDM/GLM-Z1-9B-0414": {
396
+ "description": "GLM-Z1-9B-0414 یک مدل کوچک از سری GLM است که تنها 90 میلیارد پارامتر دارد، اما در عین حال توانایی‌های شگفت‌انگیزی را در کنار حفظ سنت متن‌باز نشان می‌دهد. با وجود اندازه کوچک، این مدل در استدلال ریاضی و وظایف عمومی عملکرد عالی دارد و عملکرد کلی آن در میان مدل‌های متن‌باز با اندازه مشابه در سطح بالایی قرار دارد."
397
+ },
398
+ "THUDM/GLM-Z1-Rumination-32B-0414": {
399
+ "description": "GLM-Z1-Rumination-32B-0414 یک مدل استدلال عمیق با توانایی تفکر است (که با Deep Research OpenAI مقایسه می‌شود). برخلاف مدل‌های تفکر عمیق معمولی، این مدل از تفکر عمیق طولانی‌مدت برای حل مسائل باز و پیچیده استفاده می‌کند."
400
+ },
359
401
  "THUDM/chatglm3-6b": {
360
402
  "description": "ChatGLM3-6B مدل متن باز از سری ChatGLM است که توسط AI Zhizhu توسعه یافته است. این مدل ویژگی‌های عالی نسل قبلی خود را حفظ کرده است، مانند روان بودن گفتگو و آستانه پایین برای استقرار، در عین حال ویژگی‌های جدیدی را معرفی کرده است. این مدل از داده‌های آموزشی متنوع‌تر، تعداد مراحل آموزشی بیشتر و استراتژی‌های آموزشی منطقی‌تر استفاده کرده و در میان مدل‌های پیش‌آموزش شده زیر 10B عملکرد عالی دارد. ChatGLM3-6B از گفتگوی چند دور، فراخوانی ابزار، اجرای کد و وظایف عامل در سناریوهای پیچیده پشتیبانی می‌کند. علاوه بر مدل گفتگویی، مدل پایه ChatGLM-6B-Base و مدل گفتگوی طولانی ChatGLM3-6B-32K نیز به صورت متن باز ارائه شده است. این مدل به طور کامل برای تحقیقات علمی باز است و پس از ثبت‌نام، استفاده تجاری رایگان نیز مجاز است."
361
403
  },
@@ -521,6 +563,9 @@
521
563
  "charglm-3": {
522
564
  "description": "CharGLM-3 به‌طور ویژه برای نقش‌آفرینی و همراهی عاطفی طراحی شده است، از حافظه طولانی‌مدت و مکالمات شخصی‌سازی‌شده پشتیبانی می‌کند و کاربردهای گسترده‌ای دارد."
523
565
  },
566
+ "charglm-4": {
567
+ "description": "CharGLM-4 به‌طور خاص برای نقش‌آفرینی و همراهی عاطفی طراحی شده است و از حافظه چند دور طولانی و گفتگوی شخصی‌سازی شده پشتیبانی می‌کند و کاربردهای گسترده‌ای دارد."
568
+ },
524
569
  "chatglm3": {
525
570
  "description": "ChatGLM3 یک مدل بسته‌شده است که توسط هوش مصنوعی Zhima و آزمایشگاه KEG دانشگاه Tsinghua منتشر شده است. این مدل با پیش‌آموزش بر روی مجموعه‌ای وسیع از نمادهای چینی و انگلیسی و همچنین آموزش مطابق با ترجیحات انسانی، نسبت به نسل اول مدل، بهبود‌های 16٪، 36٪ و 280٪ در MMLU، C-Eval و GSM8K به دست آورده است و در رتبه‌بندی وظایف چینی C-Eval رتبه اول را کسب کرده است. این مدل برای صحنه‌هایی که نیاز به مقدار زیادی دانش، توانایی استدلال و خلاقیت دارند، مانند نوشتن متن تبلیغاتی، نویسندگی داستان، نوشتن محتوای دانشگاهی و تولید کد مناسب است."
526
571
  },
@@ -632,9 +677,18 @@
632
677
  "command-r-plus-04-2024": {
633
678
  "description": "Command R+ یک مدل گفتگوی پیروی از دستور است که در وظایف زبانی کیفیت بالاتری را ارائه می‌دهد و نسبت به مدل‌های قبلی دارای طول زمینه بیشتری است. این مدل برای جریان‌های کاری پیچیده RAG و استفاده از ابزارهای چند مرحله‌ای مناسب‌ترین است."
634
679
  },
680
+ "command-r-plus-08-2024": {
681
+ "description": "Command R+ یک مدل گفتگوی پیرو دستورات است که در وظایف زبانی کیفیت بالاتری را ارائه می‌دهد و نسبت به مدل‌های قبلی دارای طول متن زمینه‌ای بیشتری است. این مدل برای جریان‌های کاری پیچیده RAG و استفاده از ابزارهای چند مرحله‌ای مناسب‌ترین است."
682
+ },
635
683
  "command-r7b-12-2024": {
636
684
  "description": "command-r7b-12-2024 یک نسخه کوچک و کارآمد به‌روزرسانی شده است که در دسامبر 2024 منتشر شد. این مدل در RAG، استفاده از ابزارها، نمایندگی و سایر وظایفی که نیاز به استدلال پیچیده و پردازش چند مرحله‌ای دارند، عملکرد فوق‌العاده‌ای دارد."
637
685
  },
686
+ "compound-beta": {
687
+ "description": "Compound-beta یک سیستم هوش مصنوعی ترکیبی است که توسط چندین مدل قابل دسترس و پشتیبانی شده در GroqCloud پشتیبانی می‌شود و می‌تواند به‌طور هوشمند و انتخابی از ابزارها برای پاسخ به پرسش‌های کاربران استفاده کند."
688
+ },
689
+ "compound-beta-mini": {
690
+ "description": "Compound-beta-mini یک سیستم هوش مصنوعی ترکیبی است که توسط مدل‌های عمومی قابل دسترس در GroqCloud پشتیبانی می‌شود و می‌تواند به‌طور هوشمند و انتخابی از ابزارها برای پاسخ به پرسش‌های کاربران استفاده کند."
691
+ },
638
692
  "dall-e-2": {
639
693
  "description": "مدل نسل دوم DALL·E، پشتیبانی از تولید تصاویر واقعی‌تر و دقیق‌تر، با وضوح 4 برابر نسل اول."
640
694
  },
@@ -779,6 +833,18 @@
779
833
  "deepseek/deepseek-v3/community": {
780
834
  "description": "DeepSeek-V3 در سرعت استدلال به یک پیشرفت عمده نسبت به مدل‌های قبلی دست یافته است. این مدل در بین مدل‌های متن باز رتبه اول را دارد و می‌تواند با پیشرفته‌ترین مدل‌های بسته جهانی رقابت کند. DeepSeek-V3 از معماری توجه چندسر (MLA) و DeepSeekMoE استفاده می‌کند که این معماری‌ها در DeepSeek-V2 به طور کامل تأیید شده‌اند. علاوه بر این، DeepSeek-V3 یک استراتژی کمکی بدون ضرر برای تعادل بار معرفی کرده و اهداف آموزشی پیش‌بینی چند برچسبی را برای بهبود عملکرد تعیین کرده است."
781
835
  },
836
+ "deepseek_r1": {
837
+ "description": "DeepSeek-R1 یک مدل استدلالی است که توسط یادگیری تقویتی (RL) هدایت می‌شود و مشکلات تکراری و خوانایی را در مدل حل می‌کند. قبل از RL، DeepSeek-R1 داده‌های راه‌اندازی سرد را معرفی کرد و عملکرد استدلال را به‌طور بیشتری بهینه‌سازی کرد. این مدل در وظایف ریاضی، کدنویسی و استدلال با OpenAI-o1 عملکرد مشابهی دارد و از طریق روش‌های آموزشی طراحی‌شده به‌دقت، عملکرد کلی را بهبود بخشیده است."
838
+ },
839
+ "deepseek_r1_distill_llama_70b": {
840
+ "description": "DeepSeek-R1-Distill-Llama-70B مدلی است که بر اساس Llama-3.3-70B-Instruct از طریق آموزش تقطیر به‌دست آمده است. این مدل بخشی از سری DeepSeek-R1 است و با استفاده از نمونه‌های تولید شده توسط DeepSeek-R1 برای بهینه‌سازی، در چندین حوزه از جمله ریاضی، برنامه‌نویسی و استدلال عملکرد فوق‌العاده‌ای دارد."
841
+ },
842
+ "deepseek_r1_distill_qwen_14b": {
843
+ "description": "DeepSeek-R1-Distill-Qwen-14B مدلی است که بر اساس Qwen2.5-14B از طریق تقطیر دانش به‌دست آمده است. این مدل از 800000 نمونه منتخب تولید شده توسط DeepSeek-R1 برای بهینه‌سازی استفاده می‌کند و توانایی استدلال فوق‌العاده‌ای را نشان می‌دهد."
844
+ },
845
+ "deepseek_r1_distill_qwen_32b": {
846
+ "description": "DeepSeek-R1-Distill-Qwen-32B مدلی است که بر اساس Qwen2.5-32B از طریق تقطیر دانش به‌دست آمده است. این مدل از 800000 نمونه منتخب تولید شده توسط DeepSeek-R1 برای بهینه‌سازی استفاده می‌کند و در چندین حوزه از جمله ریاضی، برنامه‌نویسی و استدلال عملکرد فوق‌العاده‌ای دارد."
847
+ },
782
848
  "doubao-1.5-lite-32k": {
783
849
  "description": "مدل سبک نسل جدید Doubao-1.5-lite، با سرعت پاسخ‌دهی فوق‌العاده، عملکرد و تأخیر در سطح جهانی را ارائه می‌دهد."
784
850
  },
@@ -788,6 +854,9 @@
788
854
  "doubao-1.5-pro-32k": {
789
855
  "description": "مدل اصلی نسل جدید Doubao-1.5-pro، با ارتقاء کامل عملکرد، در زمینه‌های دانش، کد، استدلال و غیره عملکرد برجسته‌ای دارد."
790
856
  },
857
+ "doubao-1.5-vision-lite": {
858
+ "description": "Doubao-1.5-vision-lite مدل بزرگ چندرسانه‌ای به‌روز شده است که از شناسایی تصاویر با هر وضوح و نسبت ابعاد بسیار طولانی پشتیبانی می‌کند و توانایی‌های استدلال بصری، شناسایی مستندات، درک اطلاعات جزئی و پیروی از دستورات را تقویت می‌کند. از پنجره متن 128k و حداکثر طول خروجی 16k توکن پشتیبانی می‌کند."
859
+ },
791
860
  "emohaa": {
792
861
  "description": "Emohaa یک مدل روان‌شناختی است که دارای توانایی مشاوره حرفه‌ای بوده و به کاربران در درک مسائل احساسی کمک می‌کند."
793
862
  },
@@ -953,6 +1022,9 @@
953
1022
  "glm-4-air": {
954
1023
  "description": "GLM-4-Air نسخه‌ای با صرفه اقتصادی است که عملکردی نزدیک به GLM-4 دارد و سرعت بالا و قیمت مناسبی را ارائه می‌دهد."
955
1024
  },
1025
+ "glm-4-air-250414": {
1026
+ "description": "GLM-4-Air نسخه‌ای با قیمت مناسب است که عملکردی نزدیک به GLM-4 ارائه می‌دهد و سرعت بالا و قیمت مقرون به صرفه‌ای دارد."
1027
+ },
956
1028
  "glm-4-airx": {
957
1029
  "description": "GLM-4-AirX نسخه‌ای کارآمد از GLM-4-Air ارائه می‌دهد که سرعت استنتاج آن تا ۲.۶ برابر بیشتر است."
958
1030
  },
@@ -962,6 +1034,9 @@
962
1034
  "glm-4-flash": {
963
1035
  "description": "GLM-4-Flash انتخابی ایده‌آل برای انجام وظایف ساده است، سریع‌ترین و رایگان."
964
1036
  },
1037
+ "glm-4-flash-250414": {
1038
+ "description": "GLM-4-Flash انتخاب ایده‌آلی برای پردازش وظایف ساده است، سریع‌ترین و رایگان است."
1039
+ },
965
1040
  "glm-4-flashx": {
966
1041
  "description": "GLM-4-FlashX نسخه بهبود یافته Flash است که سرعت استنتاج فوق‌العاده سریعی دارد."
967
1042
  },
@@ -980,6 +1055,18 @@
980
1055
  "glm-4v-plus": {
981
1056
  "description": "GLM-4V-Plus توانایی درک محتوای ویدئویی و تصاویر متعدد را دارد و برای وظایف چندرسانه‌ای مناسب است."
982
1057
  },
1058
+ "glm-4v-plus-0111": {
1059
+ "description": "GLM-4V-Plus دارای توانایی درک محتوای ویدئویی و چندین تصویر است و برای وظایف چندرسانه‌ای مناسب است."
1060
+ },
1061
+ "glm-z1-air": {
1062
+ "description": "مدل استدلال: دارای توانایی استدلال قوی و مناسب برای وظایفی که نیاز به استدلال عمیق دارند."
1063
+ },
1064
+ "glm-z1-airx": {
1065
+ "description": "استدلال فوق‌العاده سریع: دارای سرعت استدلال بسیار بالا و عملکرد قوی است."
1066
+ },
1067
+ "glm-z1-flash": {
1068
+ "description": "سری GLM-Z1 دارای توانایی‌های پیچیده استدلال قوی است و در زمینه‌های استدلال منطقی، ریاضی و برنامه‌نویسی عملکرد فوق‌العاده‌ای دارد. حداکثر طول متن زمینه‌ای 32K است."
1069
+ },
983
1070
  "glm-zero-preview": {
984
1071
  "description": "GLM-Zero-Preview دارای توانایی‌های پیچیده استدلال است و در زمینه‌های استدلال منطقی، ریاضیات، برنامه‌نویسی و غیره عملکرد عالی دارد."
985
1072
  },
@@ -1199,12 +1286,15 @@
1199
1286
  "hunyuan-turbos-20250226": {
1200
1287
  "description": "hunyuan-TurboS pv2.1.2 نسخه ثابت پیش‌ساخته با ارتقاء تعداد توکن‌های آموزش؛ بهبود توانایی‌های تفکر در ریاضی/منطق/کد و بهبود تجربه عمومی در زبان‌های چینی و انگلیسی، شامل تولید متن، درک متن، پرسش و پاسخ دانش، گپ و گفت و غیره."
1201
1288
  },
1202
- "hunyuan-turbos-20250313": {
1203
- "description": "سبک یکسان‌سازی مراحل حل مسائل ریاضی، تقویت پرسش و پاسخ چند مرحله‌ای ریاضی. بهینه‌سازی سبک پاسخ‌گویی در تولید متن، حذف طعم AI و افزایش ادبیات."
1204
- },
1205
1289
  "hunyuan-turbos-latest": {
1206
1290
  "description": "hunyuan-TurboS آخرین نسخه مدل بزرگ پرچمدار مختلط است که دارای توانایی تفکر قوی‌تر و تجربه بهتری است."
1207
1291
  },
1292
+ "hunyuan-turbos-longtext-128k-20250325": {
1293
+ "description": "این مدل در پردازش وظایف متنی طولانی مانند خلاصه‌سازی و پرسش و پاسخ مستندات مهارت دارد و همچنین توانایی پردازش وظایف تولید متن عمومی را دارد. در تحلیل و تولید متن‌های طولانی عملکرد فوق‌العاده‌ای دارد و می‌تواند به‌طور مؤثر به نیازهای پیچیده و دقیق پردازش محتوای طولانی پاسخ دهد."
1294
+ },
1295
+ "hunyuan-turbos-vision": {
1296
+ "description": "این مدل برای سناریوهای درک تصویر و متن مناسب است و بر اساس جدیدترین مدل‌های بصری زبانی turbos طراحی شده است و بر روی وظایف مرتبط با درک تصویر و متن تمرکز دارد، از جمله شناسایی موجودیت‌های مبتنی بر تصویر، پرسش و پاسخ دانش، نوشتن متن و حل مسائل با عکس. نسبت به نسل قبلی مدل به‌طور کلی بهبود یافته است."
1297
+ },
1208
1298
  "hunyuan-vision": {
1209
1299
  "description": "جدیدترین مدل چندوجهی هون‌یوان، پشتیبانی از ورودی تصویر + متن برای تولید محتوای متنی."
1210
1300
  },
@@ -1223,6 +1313,12 @@
1223
1313
  "internlm3-latest": {
1224
1314
  "description": "سری جدیدترین مدل‌های ما با عملکرد استدلال برجسته، پیشتاز مدل‌های متن‌باز در همان سطح هستند. به طور پیش‌فرض به جدیدترین مدل‌های سری InternLM3 ما اشاره دارد."
1225
1315
  },
1316
+ "jamba-large": {
1317
+ "description": "قدرت‌مندترین و پیشرفته‌ترین مدل ما، که به‌طور خاص برای پردازش وظایف پیچیده در سطح سازمانی طراحی شده و دارای عملکرد فوق‌العاده‌ای است."
1318
+ },
1319
+ "jamba-mini": {
1320
+ "description": "مدل کارآمدترین در این سطح، که سرعت و کیفیت را با هم ترکیب می‌کند و دارای ابعاد کوچکتری است."
1321
+ },
1226
1322
  "jina-deepsearch-v1": {
1227
1323
  "description": "جستجوی عمیق ترکیبی از جستجوی اینترنتی، خواندن و استدلال است که می‌تواند تحقیقات جامع را انجام دهد. می‌توانید آن را به عنوان یک نماینده در نظر بگیرید که وظایف تحقیق شما را می‌پذیرد - این نماینده جستجوی گسترده‌ای انجام می‌دهد و پس از چندین بار تکرار، پاسخ را ارائه می‌دهد. این فرآیند شامل تحقیق مداوم، استدلال و حل مسئله از زوایای مختلف است. این با مدل‌های بزرگ استاندارد که مستقیماً از داده‌های پیش‌آموزش شده پاسخ تولید می‌کنند و سیستم‌های RAG سنتی که به جستجوی سطحی یک‌باره وابسته‌اند، تفاوت اساسی دارد."
1228
1324
  },
@@ -1568,9 +1664,18 @@
1568
1664
  "o1-preview": {
1569
1665
  "description": "تمرکز بر استدلال پیشرفته و حل مسائل پیچیده، از جمله وظایف ریاضی و علمی. بسیار مناسب برای برنامه‌هایی که نیاز به درک عمیق از زمینه و جریان کاری خودمختار دارند."
1570
1666
  },
1667
+ "o3": {
1668
+ "description": "o3 یک مدل همه‌کاره و قدرتمند است که در چندین حوزه عملکرد عالی دارد. این مدل استاندارد جدیدی برای وظایف ریاضی، علمی، برنامه‌نویسی و استدلال بصری تعیین کرده است. همچنین در نوشتن فنی و پیروی از دستورات نیز مهارت دارد. کاربران می‌توانند از آن برای تحلیل متن، کد و تصاویر و حل مسائل پیچیده چند مرحله‌ای استفاده کنند."
1669
+ },
1571
1670
  "o3-mini": {
1572
1671
  "description": "o3-mini جدیدترین مدل استنتاج کوچک ماست که هوش بالایی را با هزینه و هدف تأخیر مشابه o1-mini ارائه می‌دهد."
1573
1672
  },
1673
+ "o3-mini-high": {
1674
+ "description": "نسخه با سطح استدلال بالا o3-mini، که در مقایسه با اهداف هزینه و تأخیر مشابه o1-mini، هوش بالاتری را ارائه می‌دهد."
1675
+ },
1676
+ "o4-mini": {
1677
+ "description": "o4-mini جدیدترین مدل کوچک از سری o ما است. این مدل به‌طور خاص برای استدلال سریع و مؤثر بهینه‌سازی شده و در وظایف کدنویسی و بصری عملکرد بسیار بالایی دارد."
1678
+ },
1574
1679
  "open-codestral-mamba": {
1575
1680
  "description": "Codestral Mamba یک مدل زبان Mamba 2 است که بر تولید کد تمرکز دارد و پشتیبانی قدرتمندی برای وظایف پیشرفته کدنویسی و استدلال ارائه می‌دهد."
1576
1681
  },
@@ -1598,6 +1703,12 @@
1598
1703
  "openai/o1-preview": {
1599
1704
  "description": "o1 مدل جدید استنتاج OpenAI است که برای وظایف پیچیده‌ای که به دانش عمومی گسترده نیاز دارند، مناسب است. این مدل دارای 128K زمینه و تاریخ قطع دانش تا اکتبر 2023 است."
1600
1705
  },
1706
+ "openai/o4-mini": {
1707
+ "description": "o4-mini به‌طور خاص برای استدلال سریع و مؤثر بهینه‌سازی شده و در وظایف کدنویسی و بصری عملکرد بسیار بالایی دارد."
1708
+ },
1709
+ "openai/o4-mini-high": {
1710
+ "description": "نسخه با سطح استدلال بالا o4-mini، که به‌طور خاص برای استدلال سریع و مؤثر بهینه‌سازی شده و در وظایف کدنویسی و بصری عملکرد بسیار بالایی دارد."
1711
+ },
1601
1712
  "openrouter/auto": {
1602
1713
  "description": "با توجه به طول متن، موضوع و پیچیدگی، درخواست شما به Llama 3 70B Instruct، Claude 3.5 Sonnet (تنظیم خودکار) یا GPT-4o ارسال خواهد شد."
1603
1714
  },
@@ -1793,6 +1904,9 @@
1793
1904
  "qwq-plus-latest": {
1794
1905
  "description": "مدل استنتاج QwQ مبتنی بر مدل Qwen2.5 است که از طریق یادگیری تقویتی به طور قابل توجهی توانایی استنتاج مدل را افزایش داده است. شاخص‌های اصلی مدل مانند کد ریاضی (AIME 24/25، LiveCodeBench) و برخی از شاخص‌های عمومی (IFEval، LiveBench و غیره) به سطح DeepSeek-R1 نسخه کامل رسیده‌اند."
1795
1906
  },
1907
+ "qwq_32b": {
1908
+ "description": "مدل استدلالی با اندازه متوسط از سری Qwen. نسبت به مدل‌های معمولی تنظیم‌شده بر اساس دستورات، QwQ که دارای توانایی‌های تفکر و استدلال است، در وظایف پایین‌دستی، به‌ویژه در حل مسائل دشوار، می‌تواند عملکرد را به‌طور قابل توجهی افزایش دهد."
1909
+ },
1796
1910
  "r1-1776": {
1797
1911
  "description": "R1-1776 نسخه‌ای از مدل DeepSeek R1 است که پس از آموزش مجدد، اطلاعات واقعی بدون سانسور و بدون تعصب را ارائه می‌دهد."
1798
1912
  },
@@ -1853,12 +1967,21 @@
1853
1967
  "step-2-16k": {
1854
1968
  "description": "پشتیبانی از تعاملات متنی گسترده، مناسب برای سناریوهای مکالمه پیچیده."
1855
1969
  },
1970
+ "step-2-16k-exp": {
1971
+ "description": "نسخه آزمایشی مدل step-2 که شامل جدیدترین ویژگی‌ها است و به‌طور مداوم به‌روزرسانی می‌شود. استفاده در محیط‌های تولیدی رسمی توصیه نمی‌شود."
1972
+ },
1856
1973
  "step-2-mini": {
1857
1974
  "description": "مدل بزرگ فوق‌العاده سریع مبتنی بر معماری توجه MFA که به‌طور خودجوش توسعه یافته است، با هزینه بسیار کم به نتایجی مشابه با مرحله ۱ دست می‌یابد و در عین حال توانایی پردازش بالاتر و زمان پاسخ سریع‌تری را حفظ می‌کند. این مدل قادر به انجام وظایف عمومی است و در توانایی‌های کدنویسی تخصص دارد."
1858
1975
  },
1976
+ "step-r1-v-mini": {
1977
+ "description": "این مدل یک مدل استدلال بزرگ با توانایی‌های قوی در درک تصویر است که می‌تواند اطلاعات تصویری و متنی را پردازش کند و پس از تفکر عمیق، متن تولید کند. این مدل در زمینه استدلال بصری عملکرد برجسته‌ای دارد و همچنین دارای توانایی‌های ریاضی، کدنویسی و استدلال متنی در سطح اول است. طول متن زمینه‌ای 100k است."
1978
+ },
1859
1979
  "taichu_llm": {
1860
1980
  "description": "Taichu 2.0 بر اساس حجم زیادی از داده‌های با کیفیت بالا آموزش دیده است و دارای توانایی‌های قوی‌تری در درک متن، تولید محتوا، پرسش و پاسخ در مکالمه و غیره می‌باشد."
1861
1981
  },
1982
+ "taichu_o1": {
1983
+ "description": "taichu_o1 نسل جدید مدل‌های استدلال بزرگ است که از طریق تعامل چندرسانه‌ای و یادگیری تقویتی زنجیره‌های تفکر شبیه به انسان را ایجاد می‌کند و از تصمیم‌گیری‌های پیچیده پشتیبانی می‌کند و در عین حفظ خروجی با دقت بالا، مسیرهای تفکر قابل مدلسازی را نشان می‌دهد و برای تحلیل استراتژی و تفکر عمیق مناسب است."
1984
+ },
1862
1985
  "taichu_vl": {
1863
1986
  "description": "توانایی‌های درک تصویر، انتقال دانش، و استدلال منطقی را ترکیب کرده و در زمینه پرسش و پاسخ تصویری و متنی عملکرد برجسته‌ای دارد."
1864
1987
  },
@@ -5,6 +5,7 @@
5
5
  "off": "غیرفعال کردن اشکال‌زدایی",
6
6
  "on": "مشاهده اطلاعات فراخوانی افزونه",
7
7
  "payload": "بار افزونه",
8
+ "pluginState": "وضعیت افزونه",
8
9
  "response": "نتیجه بازگشتی",
9
10
  "tool_call": "درخواست فراخوانی ابزار"
10
11
  },
@@ -7,6 +7,20 @@
7
7
  "images": "تصاویر:",
8
8
  "prompt": "کلمات کلیدی"
9
9
  },
10
+ "localFiles": {
11
+ "file": "فایل",
12
+ "folder": "پوشه",
13
+ "open": "باز کردن",
14
+ "openFile": "باز کردن فایل",
15
+ "openFolder": "باز کردن پوشه",
16
+ "read": {
17
+ "more": "بیشتر ببینید"
18
+ },
19
+ "readFile": "خواندن فایل",
20
+ "readFileError": "خطا در خواندن فایل، لطفاً مسیر فایل را بررسی کنید",
21
+ "readFiles": "خواندن فایل‌ها",
22
+ "readFilesError": "خطا در خواندن فایل‌ها، لطفاً مسیر فایل‌ها را بررسی کنید"
23
+ },
10
24
  "search": {
11
25
  "createNewSearch": "ایجاد جستجوی جدید",
12
26
  "emptyResult": "نتیجه‌ای یافت نشد، لطفاً کلمات کلیدی را تغییر داده و دوباره تلاش کنید",
@@ -44,5 +58,16 @@
44
58
  "summary": "خلاصه",
45
59
  "summaryTooltip": "خلاصه محتوای فعلی",
46
60
  "viewMoreResults": "مشاهده {{results}} نتیجه بیشتر"
61
+ },
62
+ "updateArgs": {
63
+ "duplicateKeyError": "کلید فیلد باید منحصر به فرد باشد",
64
+ "form": {
65
+ "add": "یک مورد اضافه کنید",
66
+ "key": "کلید فیلد",
67
+ "value": "مقدار فیلد"
68
+ },
69
+ "formValidationFailed": "اعتبارسنجی فرم ناموفق بود، لطفاً فرمت پارامترها را بررسی کنید",
70
+ "keyRequired": "کلید فیلد نمی‌تواند خالی باشد",
71
+ "stringifyError": "نمی‌توان پارامتر را سریالیزه کرد، لطفاً فرمت پارامترها را بررسی کنید"
47
72
  }
48
73
  }
@@ -284,6 +284,8 @@
284
284
  "rename": "Renommer",
285
285
  "reset": "Réinitialiser",
286
286
  "retry": "Réessayer",
287
+ "run": "Exécuter",
288
+ "save": "Enregistrer",
287
289
  "send": "Envoyer",
288
290
  "setting": "Paramètre",
289
291
  "share": "Partager",
@@ -0,0 +1,32 @@
1
+ {
2
+ "remoteServer": {
3
+ "authError": "Échec de l'autorisation : {{error}}",
4
+ "authPending": "Veuillez terminer l'autorisation dans le navigateur",
5
+ "configDesc": "Connectez-vous au serveur LobeChat distant pour activer la synchronisation des données",
6
+ "configError": "Erreur de configuration",
7
+ "configTitle": "Configurer la synchronisation dans le cloud",
8
+ "connect": "Se connecter et autoriser",
9
+ "connected": "Connecté",
10
+ "disconnect": "Déconnexion",
11
+ "disconnectError": "Échec de la déconnexion",
12
+ "disconnected": "Déconnecté",
13
+ "fetchError": "Échec de la récupération de la configuration",
14
+ "invalidUrl": "Veuillez entrer une URL valide",
15
+ "serverUrl": "Adresse du serveur",
16
+ "statusConnected": "Connecté",
17
+ "statusDisconnected": "Déconnecté",
18
+ "urlRequired": "Veuillez entrer l'adresse du serveur"
19
+ },
20
+ "updater": {
21
+ "downloadingUpdate": "Téléchargement de la mise à jour",
22
+ "downloadingUpdateDesc": "La mise à jour est en cours de téléchargement, veuillez patienter...",
23
+ "later": "Mettre à jour plus tard",
24
+ "newVersionAvailable": "Nouvelle version disponible",
25
+ "newVersionAvailableDesc": "Une nouvelle version {{version}} a été trouvée, souhaitez-vous la télécharger maintenant ?",
26
+ "restartAndInstall": "Redémarrer et installer",
27
+ "updateError": "Erreur de mise à jour",
28
+ "updateReady": "Mise à jour prête",
29
+ "updateReadyDesc": "Lobe Chat {{version}} a été téléchargé, redémarrez l'application pour terminer l'installation.",
30
+ "upgradeNow": "Mettre à jour maintenant"
31
+ }
32
+ }