@lobehub/chat 1.81.2 → 1.81.4
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +59 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/common.json +2 -0
- package/locales/ar/electron.json +32 -0
- package/locales/ar/models.json +126 -3
- package/locales/ar/plugin.json +1 -0
- package/locales/ar/tool.json +25 -0
- package/locales/bg-BG/common.json +2 -0
- package/locales/bg-BG/electron.json +32 -0
- package/locales/bg-BG/models.json +126 -3
- package/locales/bg-BG/plugin.json +1 -0
- package/locales/bg-BG/tool.json +25 -0
- package/locales/de-DE/common.json +2 -0
- package/locales/de-DE/electron.json +32 -0
- package/locales/de-DE/models.json +126 -3
- package/locales/de-DE/plugin.json +1 -0
- package/locales/de-DE/tool.json +25 -0
- package/locales/en-US/common.json +2 -0
- package/locales/en-US/electron.json +32 -0
- package/locales/en-US/models.json +126 -3
- package/locales/en-US/plugin.json +1 -0
- package/locales/en-US/tool.json +25 -0
- package/locales/es-ES/common.json +2 -0
- package/locales/es-ES/electron.json +32 -0
- package/locales/es-ES/models.json +126 -3
- package/locales/es-ES/plugin.json +1 -0
- package/locales/es-ES/tool.json +25 -0
- package/locales/fa-IR/common.json +2 -0
- package/locales/fa-IR/electron.json +32 -0
- package/locales/fa-IR/models.json +126 -3
- package/locales/fa-IR/plugin.json +1 -0
- package/locales/fa-IR/tool.json +25 -0
- package/locales/fr-FR/common.json +2 -0
- package/locales/fr-FR/electron.json +32 -0
- package/locales/fr-FR/models.json +126 -3
- package/locales/fr-FR/plugin.json +1 -0
- package/locales/fr-FR/tool.json +25 -0
- package/locales/it-IT/common.json +2 -0
- package/locales/it-IT/electron.json +32 -0
- package/locales/it-IT/models.json +126 -3
- package/locales/it-IT/plugin.json +1 -0
- package/locales/it-IT/tool.json +25 -0
- package/locales/ja-JP/common.json +2 -0
- package/locales/ja-JP/electron.json +32 -0
- package/locales/ja-JP/models.json +126 -3
- package/locales/ja-JP/plugin.json +1 -0
- package/locales/ja-JP/tool.json +25 -0
- package/locales/ko-KR/common.json +2 -0
- package/locales/ko-KR/electron.json +32 -0
- package/locales/ko-KR/models.json +126 -3
- package/locales/ko-KR/plugin.json +1 -0
- package/locales/ko-KR/tool.json +25 -0
- package/locales/nl-NL/common.json +2 -0
- package/locales/nl-NL/electron.json +32 -0
- package/locales/nl-NL/models.json +126 -3
- package/locales/nl-NL/plugin.json +1 -0
- package/locales/nl-NL/tool.json +25 -0
- package/locales/pl-PL/common.json +2 -0
- package/locales/pl-PL/electron.json +32 -0
- package/locales/pl-PL/models.json +126 -3
- package/locales/pl-PL/plugin.json +1 -0
- package/locales/pl-PL/tool.json +25 -0
- package/locales/pt-BR/common.json +2 -0
- package/locales/pt-BR/electron.json +32 -0
- package/locales/pt-BR/models.json +126 -3
- package/locales/pt-BR/plugin.json +1 -0
- package/locales/pt-BR/tool.json +25 -0
- package/locales/ru-RU/common.json +2 -0
- package/locales/ru-RU/electron.json +32 -0
- package/locales/ru-RU/models.json +126 -3
- package/locales/ru-RU/plugin.json +1 -0
- package/locales/ru-RU/tool.json +25 -0
- package/locales/tr-TR/common.json +2 -0
- package/locales/tr-TR/electron.json +32 -0
- package/locales/tr-TR/models.json +126 -3
- package/locales/tr-TR/plugin.json +1 -0
- package/locales/tr-TR/tool.json +25 -0
- package/locales/vi-VN/common.json +2 -0
- package/locales/vi-VN/electron.json +32 -0
- package/locales/vi-VN/models.json +126 -3
- package/locales/vi-VN/plugin.json +1 -0
- package/locales/vi-VN/tool.json +25 -0
- package/locales/zh-CN/common.json +2 -0
- package/locales/zh-CN/electron.json +32 -0
- package/locales/zh-CN/models.json +131 -8
- package/locales/zh-CN/plugin.json +1 -0
- package/locales/zh-CN/tool.json +25 -0
- package/locales/zh-TW/common.json +2 -0
- package/locales/zh-TW/electron.json +32 -0
- package/locales/zh-TW/models.json +126 -3
- package/locales/zh-TW/plugin.json +1 -0
- package/locales/zh-TW/tool.json +25 -0
- package/package.json +3 -2
- package/packages/electron-client-ipc/src/events/index.ts +5 -5
- package/packages/electron-client-ipc/src/events/localFile.ts +22 -0
- package/packages/electron-client-ipc/src/events/{file.ts → upload.ts} +1 -1
- package/packages/electron-client-ipc/src/types/index.ts +2 -1
- package/packages/electron-client-ipc/src/types/localFile.ts +52 -0
- package/scripts/prebuild.mts +5 -1
- package/src/app/(backend)/trpc/desktop/[trpc]/route.ts +26 -0
- package/src/config/aiModels/cloudflare.ts +41 -37
- package/src/config/aiModels/github.ts +90 -0
- package/src/config/aiModels/google.ts +25 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ObjectEntity.tsx +81 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ValueCell.tsx +43 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/index.tsx +120 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +75 -2
- package/src/features/Conversation/Messages/Assistant/Tool/Render/KeyValueEditor.tsx +214 -0
- package/src/features/User/UserPanel/useMenu.tsx +8 -1
- package/src/libs/agent-runtime/google/index.ts +3 -0
- package/src/libs/trpc/client/desktop.ts +14 -0
- package/src/locales/default/common.ts +2 -0
- package/src/locales/default/electron.ts +34 -0
- package/src/locales/default/index.ts +2 -0
- package/src/locales/default/tool.ts +25 -0
- package/src/server/routers/desktop/index.ts +9 -0
- package/src/server/routers/desktop/pgTable.ts +43 -0
- package/src/services/electron/autoUpdate.ts +17 -0
- package/src/services/electron/file.ts +31 -0
- package/src/services/electron/localFileService.ts +39 -0
- package/src/services/electron/remoteServer.ts +40 -0
- package/src/store/chat/index.ts +1 -1
- package/src/store/chat/slices/builtinTool/actions/index.ts +3 -1
- package/src/store/chat/slices/builtinTool/actions/localFile.ts +129 -0
- package/src/store/chat/slices/builtinTool/initialState.ts +2 -0
- package/src/store/chat/slices/builtinTool/selectors.ts +2 -0
- package/src/store/chat/slices/plugin/action.ts +3 -3
- package/src/store/chat/store.ts +2 -0
- package/src/store/electron/actions/sync.ts +117 -0
- package/src/store/electron/index.ts +1 -0
- package/src/store/electron/initialState.ts +18 -0
- package/src/store/electron/selectors/index.ts +1 -0
- package/src/store/electron/selectors/sync.ts +9 -0
- package/src/store/electron/store.ts +29 -0
- package/src/tools/index.ts +8 -0
- package/src/tools/local-files/Render/ListFiles/Result.tsx +42 -0
- package/src/tools/local-files/Render/ListFiles/index.tsx +68 -0
- package/src/tools/local-files/Render/ReadLocalFile/ReadFileSkeleton.tsx +50 -0
- package/src/tools/local-files/Render/ReadLocalFile/ReadFileView.tsx +197 -0
- package/src/tools/local-files/Render/ReadLocalFile/index.tsx +31 -0
- package/src/tools/local-files/Render/ReadLocalFile/style.ts +37 -0
- package/src/tools/local-files/Render/SearchFiles/Result.tsx +42 -0
- package/src/tools/local-files/Render/SearchFiles/SearchQuery/SearchView.tsx +77 -0
- package/src/tools/local-files/Render/SearchFiles/SearchQuery/index.tsx +72 -0
- package/src/tools/local-files/Render/SearchFiles/index.tsx +32 -0
- package/src/tools/local-files/Render/index.tsx +36 -0
- package/src/tools/local-files/components/FileItem.tsx +117 -0
- package/src/tools/local-files/index.ts +149 -0
- package/src/tools/local-files/systemRole.ts +46 -0
- package/src/tools/local-files/type.ts +33 -0
- package/src/tools/renders.ts +3 -0
- package/packages/electron-client-ipc/src/events/search.ts +0 -4
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments.tsx +0 -165
- /package/packages/electron-client-ipc/src/types/{file.ts → upload.ts} +0 -0
@@ -5,9 +5,15 @@
|
|
5
5
|
"01-ai/yi-1.5-9b-chat": {
|
6
6
|
"description": "Zero One Everything، جدیدترین مدل متن باز تنظیم شده با 9 میلیارد پارامتر، که تنظیمات آن از چندین سناریوی گفتگویی پشتیبانی میکند و دادههای آموزشی با کیفیت بالا را برای همراستایی با ترجیحات انسانی فراهم میکند."
|
7
7
|
},
|
8
|
+
"360/deepseek-r1": {
|
9
|
+
"description": "مدل DeepSeek-R1 نسخه 360، که در مرحله پس از آموزش بهطور گستردهای از تکنیکهای یادگیری تقویتی استفاده کرده و توانایی استدلال مدل را بهطور قابل توجهی افزایش داده است. در وظایف ریاضی، کدنویسی و استدلال زبان طبیعی، عملکردی مشابه نسخه رسمی OpenAI o1 دارد."
|
10
|
+
},
|
8
11
|
"360gpt-pro": {
|
9
12
|
"description": "360GPT Pro به عنوان یکی از اعضای مهم سری مدلهای 360 AI، با توانایی پردازش متون بهصورت کارآمد، نیازهای متنوع در زمینههای مختلف کاربردهای زبان طبیعی را برآورده میکند و از قابلیتهایی مانند درک متون طولانی و مکالمات چندمرحلهای پشتیبانی میکند."
|
10
13
|
},
|
14
|
+
"360gpt-pro-trans": {
|
15
|
+
"description": "مدل مخصوص ترجمه، بهطور عمیق بهینهسازی شده و دارای عملکرد پیشرفته در ترجمه است."
|
16
|
+
},
|
11
17
|
"360gpt-turbo": {
|
12
18
|
"description": "360GPT Turbo تواناییهای محاسباتی و مکالمهای قدرتمندی ارائه میدهد و دارای کارایی بالایی در درک و تولید معنا است. این یک راهحل ایدهآل برای دستیار هوشمند برای شرکتها و توسعهدهندگان است."
|
13
19
|
},
|
@@ -62,6 +68,18 @@
|
|
62
68
|
"DeepSeek-R1-Distill-Qwen-7B": {
|
63
69
|
"description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-7B است که با استفاده از یادگیری تقویتی و دادههای شروع سرد عملکرد استدلال را بهینهسازی کرده و مدلهای متنباز را به روز کرده است."
|
64
70
|
},
|
71
|
+
"DeepSeek-V3": {
|
72
|
+
"description": "DeepSeek-V3 یک مدل MoE است که توسط شرکت DeepSeek توسعه یافته است. نتایج ارزیابیهای متعدد DeepSeek-V3 از مدلهای متن باز دیگر مانند Qwen2.5-72B و Llama-3.1-405B فراتر رفته و از نظر عملکرد با مدلهای بسته جهانی برتر مانند GPT-4o و Claude-3.5-Sonnet برابری میکند."
|
73
|
+
},
|
74
|
+
"Doubao-1.5-thinking-pro": {
|
75
|
+
"description": "Doubao-1.5 مدل جدید تفکر عمیق است که در زمینههای تخصصی مانند ریاضی، برنامهنویسی، استدلال علمی و همچنین در وظایف عمومی نوشتن خلاقانه عملکرد برجستهای دارد و در چندین معیار معتبر مانند AIME 2024، Codeforces و GPQA به سطح اول صنعت نزدیک شده است. از پنجره متن 128k و خروجی 16k پشتیبانی میکند."
|
76
|
+
},
|
77
|
+
"Doubao-1.5-thinking-pro-vision": {
|
78
|
+
"description": "Doubao-1.5 مدل جدید تفکر عمیق است که در زمینههای تخصصی مانند ریاضی، برنامهنویسی، استدلال علمی و همچنین در وظایف عمومی نوشتن خلاقانه عملکرد برجستهای دارد و در چندین معیار معتبر مانند AIME 2024، Codeforces و GPQA به سطح اول صنعت نزدیک شده است. از پنجره متن 128k و خروجی 16k پشتیبانی میکند."
|
79
|
+
},
|
80
|
+
"Doubao-1.5-vision-pro": {
|
81
|
+
"description": "Doubao-1.5-vision-pro مدل بزرگ چندرسانهای بهروز شده است که از شناسایی تصاویر با هر وضوح و نسبت ابعاد بسیار طولانی پشتیبانی میکند و تواناییهای استدلال بصری، شناسایی مستندات، درک اطلاعات جزئی و پیروی از دستورات را تقویت میکند."
|
82
|
+
},
|
65
83
|
"Doubao-1.5-vision-pro-32k": {
|
66
84
|
"description": "مدل بزرگ چندرسانهای ارتقاء یافته Doubao-1.5-vision-pro، از شناسایی تصاویر با هر وضوح و نسبت ابعاد بسیار طولانی پشتیبانی میکند و تواناییهای استدلال بصری، شناسایی اسناد، درک اطلاعات جزئی و پیروی از دستورات را تقویت میکند."
|
67
85
|
},
|
@@ -341,6 +359,15 @@
|
|
341
359
|
"SenseChat-Vision": {
|
342
360
|
"description": "مدل جدیدترین نسخه (V5.5) است که از ورودی چند تصویر پشتیبانی میکند و به طور جامع به بهینهسازی تواناییهای پایه مدل پرداخته و در شناسایی ویژگیهای اشیاء، روابط فضایی، شناسایی رویدادهای حرکتی، درک صحنه، شناسایی احساسات، استدلال منطقی و درک و تولید متن بهبودهای قابل توجهی داشته است."
|
343
361
|
},
|
362
|
+
"SenseNova-V6-Pro": {
|
363
|
+
"description": "تحقق یکپارچگی بومی قابلیتهای تصویر، متن و ویدیو، عبور از محدودیتهای سنتی چندمدلی، و کسب دو قهرمانی در ارزیابیهای OpenCompass و SuperCLUE."
|
364
|
+
},
|
365
|
+
"SenseNova-V6-Reasoner": {
|
366
|
+
"description": "توجه به استدلال عمیق بصری و زبانی، تحقق تفکر کند و استدلال عمیق، ارائه فرآیند کامل زنجیره تفکر."
|
367
|
+
},
|
368
|
+
"SenseNova-V6-Turbo": {
|
369
|
+
"description": "تحقق یکپارچگی بومی قابلیتهای تصویر، متن و ویدیو، عبور از محدودیتهای سنتی چندمدلی، پیشی گرفتن در ابعاد اصلی مانند تواناییهای چندمدلی و زبانی، و در چندین ارزیابی در سطح اول داخلی و خارجی قرار گرفتن."
|
370
|
+
},
|
344
371
|
"Skylark2-lite-8k": {
|
345
372
|
"description": "مدل نسل دوم Skylark، مدل Skylark2-lite دارای سرعت پاسخدهی بالایی است و برای سناریوهایی که نیاز به زمان واقعی بالایی دارند و حساس به هزینه هستند و نیاز به دقت مدلی کمتری دارند مناسب است. طول پنجره متنی این مدل 8k است."
|
346
373
|
},
|
@@ -356,6 +383,21 @@
|
|
356
383
|
"Skylark2-pro-turbo-8k": {
|
357
384
|
"description": "مدل نسل دوم Skylark، مدل Skylark2-pro-turbo-8k دارای استنتاج سریعتر و هزینه کمتر است و طول پنجره متنی آن 8k است."
|
358
385
|
},
|
386
|
+
"THUDM/GLM-4-32B-0414": {
|
387
|
+
"description": "GLM-4-32B-0414 نسل جدید مدلهای متنباز سری GLM است که دارای 320 میلیارد پارامتر است. عملکرد این مدل میتواند با سری GPT OpenAI و سری V3/R1 DeepSeek مقایسه شود."
|
388
|
+
},
|
389
|
+
"THUDM/GLM-4-9B-0414": {
|
390
|
+
"description": "GLM-4-9B-0414 یک مدل کوچک از سری GLM است که دارای 90 میلیارد پارامتر است. این مدل ویژگیهای فنی سری GLM-4-32B را به ارث میبرد، اما گزینههای استقرار سبکتری را ارائه میدهد. با وجود اندازه کوچک، GLM-4-9B-0414 در تولید کد، طراحی وب، تولید گرافیک SVG و نوشتن مبتنی بر جستجو عملکرد فوقالعادهای دارد."
|
391
|
+
},
|
392
|
+
"THUDM/GLM-Z1-32B-0414": {
|
393
|
+
"description": "GLM-Z1-32B-0414 یک مدل استدلال با توانایی تفکر عمیق است. این مدل بر اساس GLM-4-32B-0414 از طریق راهاندازی سرد و یادگیری تقویتی توسعه یافته و در وظایف ریاضی، کدنویسی و منطقی آموزش بیشتری دیده است. نسبت به مدل پایه، GLM-Z1-32B-0414 تواناییهای ریاضی و حل مسائل پیچیده را بهطور قابل توجهی افزایش داده است."
|
394
|
+
},
|
395
|
+
"THUDM/GLM-Z1-9B-0414": {
|
396
|
+
"description": "GLM-Z1-9B-0414 یک مدل کوچک از سری GLM است که تنها 90 میلیارد پارامتر دارد، اما در عین حال تواناییهای شگفتانگیزی را در کنار حفظ سنت متنباز نشان میدهد. با وجود اندازه کوچک، این مدل در استدلال ریاضی و وظایف عمومی عملکرد عالی دارد و عملکرد کلی آن در میان مدلهای متنباز با اندازه مشابه در سطح بالایی قرار دارد."
|
397
|
+
},
|
398
|
+
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
399
|
+
"description": "GLM-Z1-Rumination-32B-0414 یک مدل استدلال عمیق با توانایی تفکر است (که با Deep Research OpenAI مقایسه میشود). برخلاف مدلهای تفکر عمیق معمولی، این مدل از تفکر عمیق طولانیمدت برای حل مسائل باز و پیچیده استفاده میکند."
|
400
|
+
},
|
359
401
|
"THUDM/chatglm3-6b": {
|
360
402
|
"description": "ChatGLM3-6B مدل متن باز از سری ChatGLM است که توسط AI Zhizhu توسعه یافته است. این مدل ویژگیهای عالی نسل قبلی خود را حفظ کرده است، مانند روان بودن گفتگو و آستانه پایین برای استقرار، در عین حال ویژگیهای جدیدی را معرفی کرده است. این مدل از دادههای آموزشی متنوعتر، تعداد مراحل آموزشی بیشتر و استراتژیهای آموزشی منطقیتر استفاده کرده و در میان مدلهای پیشآموزش شده زیر 10B عملکرد عالی دارد. ChatGLM3-6B از گفتگوی چند دور، فراخوانی ابزار، اجرای کد و وظایف عامل در سناریوهای پیچیده پشتیبانی میکند. علاوه بر مدل گفتگویی، مدل پایه ChatGLM-6B-Base و مدل گفتگوی طولانی ChatGLM3-6B-32K نیز به صورت متن باز ارائه شده است. این مدل به طور کامل برای تحقیقات علمی باز است و پس از ثبتنام، استفاده تجاری رایگان نیز مجاز است."
|
361
403
|
},
|
@@ -521,6 +563,9 @@
|
|
521
563
|
"charglm-3": {
|
522
564
|
"description": "CharGLM-3 بهطور ویژه برای نقشآفرینی و همراهی عاطفی طراحی شده است، از حافظه طولانیمدت و مکالمات شخصیسازیشده پشتیبانی میکند و کاربردهای گستردهای دارد."
|
523
565
|
},
|
566
|
+
"charglm-4": {
|
567
|
+
"description": "CharGLM-4 بهطور خاص برای نقشآفرینی و همراهی عاطفی طراحی شده است و از حافظه چند دور طولانی و گفتگوی شخصیسازی شده پشتیبانی میکند و کاربردهای گستردهای دارد."
|
568
|
+
},
|
524
569
|
"chatglm3": {
|
525
570
|
"description": "ChatGLM3 یک مدل بستهشده است که توسط هوش مصنوعی Zhima و آزمایشگاه KEG دانشگاه Tsinghua منتشر شده است. این مدل با پیشآموزش بر روی مجموعهای وسیع از نمادهای چینی و انگلیسی و همچنین آموزش مطابق با ترجیحات انسانی، نسبت به نسل اول مدل، بهبودهای 16٪، 36٪ و 280٪ در MMLU، C-Eval و GSM8K به دست آورده است و در رتبهبندی وظایف چینی C-Eval رتبه اول را کسب کرده است. این مدل برای صحنههایی که نیاز به مقدار زیادی دانش، توانایی استدلال و خلاقیت دارند، مانند نوشتن متن تبلیغاتی، نویسندگی داستان، نوشتن محتوای دانشگاهی و تولید کد مناسب است."
|
526
571
|
},
|
@@ -632,9 +677,18 @@
|
|
632
677
|
"command-r-plus-04-2024": {
|
633
678
|
"description": "Command R+ یک مدل گفتگوی پیروی از دستور است که در وظایف زبانی کیفیت بالاتری را ارائه میدهد و نسبت به مدلهای قبلی دارای طول زمینه بیشتری است. این مدل برای جریانهای کاری پیچیده RAG و استفاده از ابزارهای چند مرحلهای مناسبترین است."
|
634
679
|
},
|
680
|
+
"command-r-plus-08-2024": {
|
681
|
+
"description": "Command R+ یک مدل گفتگوی پیرو دستورات است که در وظایف زبانی کیفیت بالاتری را ارائه میدهد و نسبت به مدلهای قبلی دارای طول متن زمینهای بیشتری است. این مدل برای جریانهای کاری پیچیده RAG و استفاده از ابزارهای چند مرحلهای مناسبترین است."
|
682
|
+
},
|
635
683
|
"command-r7b-12-2024": {
|
636
684
|
"description": "command-r7b-12-2024 یک نسخه کوچک و کارآمد بهروزرسانی شده است که در دسامبر 2024 منتشر شد. این مدل در RAG، استفاده از ابزارها، نمایندگی و سایر وظایفی که نیاز به استدلال پیچیده و پردازش چند مرحلهای دارند، عملکرد فوقالعادهای دارد."
|
637
685
|
},
|
686
|
+
"compound-beta": {
|
687
|
+
"description": "Compound-beta یک سیستم هوش مصنوعی ترکیبی است که توسط چندین مدل قابل دسترس و پشتیبانی شده در GroqCloud پشتیبانی میشود و میتواند بهطور هوشمند و انتخابی از ابزارها برای پاسخ به پرسشهای کاربران استفاده کند."
|
688
|
+
},
|
689
|
+
"compound-beta-mini": {
|
690
|
+
"description": "Compound-beta-mini یک سیستم هوش مصنوعی ترکیبی است که توسط مدلهای عمومی قابل دسترس در GroqCloud پشتیبانی میشود و میتواند بهطور هوشمند و انتخابی از ابزارها برای پاسخ به پرسشهای کاربران استفاده کند."
|
691
|
+
},
|
638
692
|
"dall-e-2": {
|
639
693
|
"description": "مدل نسل دوم DALL·E، پشتیبانی از تولید تصاویر واقعیتر و دقیقتر، با وضوح 4 برابر نسل اول."
|
640
694
|
},
|
@@ -779,6 +833,18 @@
|
|
779
833
|
"deepseek/deepseek-v3/community": {
|
780
834
|
"description": "DeepSeek-V3 در سرعت استدلال به یک پیشرفت عمده نسبت به مدلهای قبلی دست یافته است. این مدل در بین مدلهای متن باز رتبه اول را دارد و میتواند با پیشرفتهترین مدلهای بسته جهانی رقابت کند. DeepSeek-V3 از معماری توجه چندسر (MLA) و DeepSeekMoE استفاده میکند که این معماریها در DeepSeek-V2 به طور کامل تأیید شدهاند. علاوه بر این، DeepSeek-V3 یک استراتژی کمکی بدون ضرر برای تعادل بار معرفی کرده و اهداف آموزشی پیشبینی چند برچسبی را برای بهبود عملکرد تعیین کرده است."
|
781
835
|
},
|
836
|
+
"deepseek_r1": {
|
837
|
+
"description": "DeepSeek-R1 یک مدل استدلالی است که توسط یادگیری تقویتی (RL) هدایت میشود و مشکلات تکراری و خوانایی را در مدل حل میکند. قبل از RL، DeepSeek-R1 دادههای راهاندازی سرد را معرفی کرد و عملکرد استدلال را بهطور بیشتری بهینهسازی کرد. این مدل در وظایف ریاضی، کدنویسی و استدلال با OpenAI-o1 عملکرد مشابهی دارد و از طریق روشهای آموزشی طراحیشده بهدقت، عملکرد کلی را بهبود بخشیده است."
|
838
|
+
},
|
839
|
+
"deepseek_r1_distill_llama_70b": {
|
840
|
+
"description": "DeepSeek-R1-Distill-Llama-70B مدلی است که بر اساس Llama-3.3-70B-Instruct از طریق آموزش تقطیر بهدست آمده است. این مدل بخشی از سری DeepSeek-R1 است و با استفاده از نمونههای تولید شده توسط DeepSeek-R1 برای بهینهسازی، در چندین حوزه از جمله ریاضی، برنامهنویسی و استدلال عملکرد فوقالعادهای دارد."
|
841
|
+
},
|
842
|
+
"deepseek_r1_distill_qwen_14b": {
|
843
|
+
"description": "DeepSeek-R1-Distill-Qwen-14B مدلی است که بر اساس Qwen2.5-14B از طریق تقطیر دانش بهدست آمده است. این مدل از 800000 نمونه منتخب تولید شده توسط DeepSeek-R1 برای بهینهسازی استفاده میکند و توانایی استدلال فوقالعادهای را نشان میدهد."
|
844
|
+
},
|
845
|
+
"deepseek_r1_distill_qwen_32b": {
|
846
|
+
"description": "DeepSeek-R1-Distill-Qwen-32B مدلی است که بر اساس Qwen2.5-32B از طریق تقطیر دانش بهدست آمده است. این مدل از 800000 نمونه منتخب تولید شده توسط DeepSeek-R1 برای بهینهسازی استفاده میکند و در چندین حوزه از جمله ریاضی، برنامهنویسی و استدلال عملکرد فوقالعادهای دارد."
|
847
|
+
},
|
782
848
|
"doubao-1.5-lite-32k": {
|
783
849
|
"description": "مدل سبک نسل جدید Doubao-1.5-lite، با سرعت پاسخدهی فوقالعاده، عملکرد و تأخیر در سطح جهانی را ارائه میدهد."
|
784
850
|
},
|
@@ -788,6 +854,9 @@
|
|
788
854
|
"doubao-1.5-pro-32k": {
|
789
855
|
"description": "مدل اصلی نسل جدید Doubao-1.5-pro، با ارتقاء کامل عملکرد، در زمینههای دانش، کد، استدلال و غیره عملکرد برجستهای دارد."
|
790
856
|
},
|
857
|
+
"doubao-1.5-vision-lite": {
|
858
|
+
"description": "Doubao-1.5-vision-lite مدل بزرگ چندرسانهای بهروز شده است که از شناسایی تصاویر با هر وضوح و نسبت ابعاد بسیار طولانی پشتیبانی میکند و تواناییهای استدلال بصری، شناسایی مستندات، درک اطلاعات جزئی و پیروی از دستورات را تقویت میکند. از پنجره متن 128k و حداکثر طول خروجی 16k توکن پشتیبانی میکند."
|
859
|
+
},
|
791
860
|
"emohaa": {
|
792
861
|
"description": "Emohaa یک مدل روانشناختی است که دارای توانایی مشاوره حرفهای بوده و به کاربران در درک مسائل احساسی کمک میکند."
|
793
862
|
},
|
@@ -953,6 +1022,9 @@
|
|
953
1022
|
"glm-4-air": {
|
954
1023
|
"description": "GLM-4-Air نسخهای با صرفه اقتصادی است که عملکردی نزدیک به GLM-4 دارد و سرعت بالا و قیمت مناسبی را ارائه میدهد."
|
955
1024
|
},
|
1025
|
+
"glm-4-air-250414": {
|
1026
|
+
"description": "GLM-4-Air نسخهای با قیمت مناسب است که عملکردی نزدیک به GLM-4 ارائه میدهد و سرعت بالا و قیمت مقرون به صرفهای دارد."
|
1027
|
+
},
|
956
1028
|
"glm-4-airx": {
|
957
1029
|
"description": "GLM-4-AirX نسخهای کارآمد از GLM-4-Air ارائه میدهد که سرعت استنتاج آن تا ۲.۶ برابر بیشتر است."
|
958
1030
|
},
|
@@ -962,6 +1034,9 @@
|
|
962
1034
|
"glm-4-flash": {
|
963
1035
|
"description": "GLM-4-Flash انتخابی ایدهآل برای انجام وظایف ساده است، سریعترین و رایگان."
|
964
1036
|
},
|
1037
|
+
"glm-4-flash-250414": {
|
1038
|
+
"description": "GLM-4-Flash انتخاب ایدهآلی برای پردازش وظایف ساده است، سریعترین و رایگان است."
|
1039
|
+
},
|
965
1040
|
"glm-4-flashx": {
|
966
1041
|
"description": "GLM-4-FlashX نسخه بهبود یافته Flash است که سرعت استنتاج فوقالعاده سریعی دارد."
|
967
1042
|
},
|
@@ -980,6 +1055,18 @@
|
|
980
1055
|
"glm-4v-plus": {
|
981
1056
|
"description": "GLM-4V-Plus توانایی درک محتوای ویدئویی و تصاویر متعدد را دارد و برای وظایف چندرسانهای مناسب است."
|
982
1057
|
},
|
1058
|
+
"glm-4v-plus-0111": {
|
1059
|
+
"description": "GLM-4V-Plus دارای توانایی درک محتوای ویدئویی و چندین تصویر است و برای وظایف چندرسانهای مناسب است."
|
1060
|
+
},
|
1061
|
+
"glm-z1-air": {
|
1062
|
+
"description": "مدل استدلال: دارای توانایی استدلال قوی و مناسب برای وظایفی که نیاز به استدلال عمیق دارند."
|
1063
|
+
},
|
1064
|
+
"glm-z1-airx": {
|
1065
|
+
"description": "استدلال فوقالعاده سریع: دارای سرعت استدلال بسیار بالا و عملکرد قوی است."
|
1066
|
+
},
|
1067
|
+
"glm-z1-flash": {
|
1068
|
+
"description": "سری GLM-Z1 دارای تواناییهای پیچیده استدلال قوی است و در زمینههای استدلال منطقی، ریاضی و برنامهنویسی عملکرد فوقالعادهای دارد. حداکثر طول متن زمینهای 32K است."
|
1069
|
+
},
|
983
1070
|
"glm-zero-preview": {
|
984
1071
|
"description": "GLM-Zero-Preview دارای تواناییهای پیچیده استدلال است و در زمینههای استدلال منطقی، ریاضیات، برنامهنویسی و غیره عملکرد عالی دارد."
|
985
1072
|
},
|
@@ -1199,12 +1286,15 @@
|
|
1199
1286
|
"hunyuan-turbos-20250226": {
|
1200
1287
|
"description": "hunyuan-TurboS pv2.1.2 نسخه ثابت پیشساخته با ارتقاء تعداد توکنهای آموزش؛ بهبود تواناییهای تفکر در ریاضی/منطق/کد و بهبود تجربه عمومی در زبانهای چینی و انگلیسی، شامل تولید متن، درک متن، پرسش و پاسخ دانش، گپ و گفت و غیره."
|
1201
1288
|
},
|
1202
|
-
"hunyuan-turbos-20250313": {
|
1203
|
-
"description": "سبک یکسانسازی مراحل حل مسائل ریاضی، تقویت پرسش و پاسخ چند مرحلهای ریاضی. بهینهسازی سبک پاسخگویی در تولید متن، حذف طعم AI و افزایش ادبیات."
|
1204
|
-
},
|
1205
1289
|
"hunyuan-turbos-latest": {
|
1206
1290
|
"description": "hunyuan-TurboS آخرین نسخه مدل بزرگ پرچمدار مختلط است که دارای توانایی تفکر قویتر و تجربه بهتری است."
|
1207
1291
|
},
|
1292
|
+
"hunyuan-turbos-longtext-128k-20250325": {
|
1293
|
+
"description": "این مدل در پردازش وظایف متنی طولانی مانند خلاصهسازی و پرسش و پاسخ مستندات مهارت دارد و همچنین توانایی پردازش وظایف تولید متن عمومی را دارد. در تحلیل و تولید متنهای طولانی عملکرد فوقالعادهای دارد و میتواند بهطور مؤثر به نیازهای پیچیده و دقیق پردازش محتوای طولانی پاسخ دهد."
|
1294
|
+
},
|
1295
|
+
"hunyuan-turbos-vision": {
|
1296
|
+
"description": "این مدل برای سناریوهای درک تصویر و متن مناسب است و بر اساس جدیدترین مدلهای بصری زبانی turbos طراحی شده است و بر روی وظایف مرتبط با درک تصویر و متن تمرکز دارد، از جمله شناسایی موجودیتهای مبتنی بر تصویر، پرسش و پاسخ دانش، نوشتن متن و حل مسائل با عکس. نسبت به نسل قبلی مدل بهطور کلی بهبود یافته است."
|
1297
|
+
},
|
1208
1298
|
"hunyuan-vision": {
|
1209
1299
|
"description": "جدیدترین مدل چندوجهی هونیوان، پشتیبانی از ورودی تصویر + متن برای تولید محتوای متنی."
|
1210
1300
|
},
|
@@ -1223,6 +1313,12 @@
|
|
1223
1313
|
"internlm3-latest": {
|
1224
1314
|
"description": "سری جدیدترین مدلهای ما با عملکرد استدلال برجسته، پیشتاز مدلهای متنباز در همان سطح هستند. به طور پیشفرض به جدیدترین مدلهای سری InternLM3 ما اشاره دارد."
|
1225
1315
|
},
|
1316
|
+
"jamba-large": {
|
1317
|
+
"description": "قدرتمندترین و پیشرفتهترین مدل ما، که بهطور خاص برای پردازش وظایف پیچیده در سطح سازمانی طراحی شده و دارای عملکرد فوقالعادهای است."
|
1318
|
+
},
|
1319
|
+
"jamba-mini": {
|
1320
|
+
"description": "مدل کارآمدترین در این سطح، که سرعت و کیفیت را با هم ترکیب میکند و دارای ابعاد کوچکتری است."
|
1321
|
+
},
|
1226
1322
|
"jina-deepsearch-v1": {
|
1227
1323
|
"description": "جستجوی عمیق ترکیبی از جستجوی اینترنتی، خواندن و استدلال است که میتواند تحقیقات جامع را انجام دهد. میتوانید آن را به عنوان یک نماینده در نظر بگیرید که وظایف تحقیق شما را میپذیرد - این نماینده جستجوی گستردهای انجام میدهد و پس از چندین بار تکرار، پاسخ را ارائه میدهد. این فرآیند شامل تحقیق مداوم، استدلال و حل مسئله از زوایای مختلف است. این با مدلهای بزرگ استاندارد که مستقیماً از دادههای پیشآموزش شده پاسخ تولید میکنند و سیستمهای RAG سنتی که به جستجوی سطحی یکباره وابستهاند، تفاوت اساسی دارد."
|
1228
1324
|
},
|
@@ -1568,9 +1664,18 @@
|
|
1568
1664
|
"o1-preview": {
|
1569
1665
|
"description": "تمرکز بر استدلال پیشرفته و حل مسائل پیچیده، از جمله وظایف ریاضی و علمی. بسیار مناسب برای برنامههایی که نیاز به درک عمیق از زمینه و جریان کاری خودمختار دارند."
|
1570
1666
|
},
|
1667
|
+
"o3": {
|
1668
|
+
"description": "o3 یک مدل همهکاره و قدرتمند است که در چندین حوزه عملکرد عالی دارد. این مدل استاندارد جدیدی برای وظایف ریاضی، علمی، برنامهنویسی و استدلال بصری تعیین کرده است. همچنین در نوشتن فنی و پیروی از دستورات نیز مهارت دارد. کاربران میتوانند از آن برای تحلیل متن، کد و تصاویر و حل مسائل پیچیده چند مرحلهای استفاده کنند."
|
1669
|
+
},
|
1571
1670
|
"o3-mini": {
|
1572
1671
|
"description": "o3-mini جدیدترین مدل استنتاج کوچک ماست که هوش بالایی را با هزینه و هدف تأخیر مشابه o1-mini ارائه میدهد."
|
1573
1672
|
},
|
1673
|
+
"o3-mini-high": {
|
1674
|
+
"description": "نسخه با سطح استدلال بالا o3-mini، که در مقایسه با اهداف هزینه و تأخیر مشابه o1-mini، هوش بالاتری را ارائه میدهد."
|
1675
|
+
},
|
1676
|
+
"o4-mini": {
|
1677
|
+
"description": "o4-mini جدیدترین مدل کوچک از سری o ما است. این مدل بهطور خاص برای استدلال سریع و مؤثر بهینهسازی شده و در وظایف کدنویسی و بصری عملکرد بسیار بالایی دارد."
|
1678
|
+
},
|
1574
1679
|
"open-codestral-mamba": {
|
1575
1680
|
"description": "Codestral Mamba یک مدل زبان Mamba 2 است که بر تولید کد تمرکز دارد و پشتیبانی قدرتمندی برای وظایف پیشرفته کدنویسی و استدلال ارائه میدهد."
|
1576
1681
|
},
|
@@ -1598,6 +1703,12 @@
|
|
1598
1703
|
"openai/o1-preview": {
|
1599
1704
|
"description": "o1 مدل جدید استنتاج OpenAI است که برای وظایف پیچیدهای که به دانش عمومی گسترده نیاز دارند، مناسب است. این مدل دارای 128K زمینه و تاریخ قطع دانش تا اکتبر 2023 است."
|
1600
1705
|
},
|
1706
|
+
"openai/o4-mini": {
|
1707
|
+
"description": "o4-mini بهطور خاص برای استدلال سریع و مؤثر بهینهسازی شده و در وظایف کدنویسی و بصری عملکرد بسیار بالایی دارد."
|
1708
|
+
},
|
1709
|
+
"openai/o4-mini-high": {
|
1710
|
+
"description": "نسخه با سطح استدلال بالا o4-mini، که بهطور خاص برای استدلال سریع و مؤثر بهینهسازی شده و در وظایف کدنویسی و بصری عملکرد بسیار بالایی دارد."
|
1711
|
+
},
|
1601
1712
|
"openrouter/auto": {
|
1602
1713
|
"description": "با توجه به طول متن، موضوع و پیچیدگی، درخواست شما به Llama 3 70B Instruct، Claude 3.5 Sonnet (تنظیم خودکار) یا GPT-4o ارسال خواهد شد."
|
1603
1714
|
},
|
@@ -1793,6 +1904,9 @@
|
|
1793
1904
|
"qwq-plus-latest": {
|
1794
1905
|
"description": "مدل استنتاج QwQ مبتنی بر مدل Qwen2.5 است که از طریق یادگیری تقویتی به طور قابل توجهی توانایی استنتاج مدل را افزایش داده است. شاخصهای اصلی مدل مانند کد ریاضی (AIME 24/25، LiveCodeBench) و برخی از شاخصهای عمومی (IFEval، LiveBench و غیره) به سطح DeepSeek-R1 نسخه کامل رسیدهاند."
|
1795
1906
|
},
|
1907
|
+
"qwq_32b": {
|
1908
|
+
"description": "مدل استدلالی با اندازه متوسط از سری Qwen. نسبت به مدلهای معمولی تنظیمشده بر اساس دستورات، QwQ که دارای تواناییهای تفکر و استدلال است، در وظایف پاییندستی، بهویژه در حل مسائل دشوار، میتواند عملکرد را بهطور قابل توجهی افزایش دهد."
|
1909
|
+
},
|
1796
1910
|
"r1-1776": {
|
1797
1911
|
"description": "R1-1776 نسخهای از مدل DeepSeek R1 است که پس از آموزش مجدد، اطلاعات واقعی بدون سانسور و بدون تعصب را ارائه میدهد."
|
1798
1912
|
},
|
@@ -1853,12 +1967,21 @@
|
|
1853
1967
|
"step-2-16k": {
|
1854
1968
|
"description": "پشتیبانی از تعاملات متنی گسترده، مناسب برای سناریوهای مکالمه پیچیده."
|
1855
1969
|
},
|
1970
|
+
"step-2-16k-exp": {
|
1971
|
+
"description": "نسخه آزمایشی مدل step-2 که شامل جدیدترین ویژگیها است و بهطور مداوم بهروزرسانی میشود. استفاده در محیطهای تولیدی رسمی توصیه نمیشود."
|
1972
|
+
},
|
1856
1973
|
"step-2-mini": {
|
1857
1974
|
"description": "مدل بزرگ فوقالعاده سریع مبتنی بر معماری توجه MFA که بهطور خودجوش توسعه یافته است، با هزینه بسیار کم به نتایجی مشابه با مرحله ۱ دست مییابد و در عین حال توانایی پردازش بالاتر و زمان پاسخ سریعتری را حفظ میکند. این مدل قادر به انجام وظایف عمومی است و در تواناییهای کدنویسی تخصص دارد."
|
1858
1975
|
},
|
1976
|
+
"step-r1-v-mini": {
|
1977
|
+
"description": "این مدل یک مدل استدلال بزرگ با تواناییهای قوی در درک تصویر است که میتواند اطلاعات تصویری و متنی را پردازش کند و پس از تفکر عمیق، متن تولید کند. این مدل در زمینه استدلال بصری عملکرد برجستهای دارد و همچنین دارای تواناییهای ریاضی، کدنویسی و استدلال متنی در سطح اول است. طول متن زمینهای 100k است."
|
1978
|
+
},
|
1859
1979
|
"taichu_llm": {
|
1860
1980
|
"description": "Taichu 2.0 بر اساس حجم زیادی از دادههای با کیفیت بالا آموزش دیده است و دارای تواناییهای قویتری در درک متن، تولید محتوا، پرسش و پاسخ در مکالمه و غیره میباشد."
|
1861
1981
|
},
|
1982
|
+
"taichu_o1": {
|
1983
|
+
"description": "taichu_o1 نسل جدید مدلهای استدلال بزرگ است که از طریق تعامل چندرسانهای و یادگیری تقویتی زنجیرههای تفکر شبیه به انسان را ایجاد میکند و از تصمیمگیریهای پیچیده پشتیبانی میکند و در عین حفظ خروجی با دقت بالا، مسیرهای تفکر قابل مدلسازی را نشان میدهد و برای تحلیل استراتژی و تفکر عمیق مناسب است."
|
1984
|
+
},
|
1862
1985
|
"taichu_vl": {
|
1863
1986
|
"description": "تواناییهای درک تصویر، انتقال دانش، و استدلال منطقی را ترکیب کرده و در زمینه پرسش و پاسخ تصویری و متنی عملکرد برجستهای دارد."
|
1864
1987
|
},
|
package/locales/fa-IR/tool.json
CHANGED
@@ -7,6 +7,20 @@
|
|
7
7
|
"images": "تصاویر:",
|
8
8
|
"prompt": "کلمات کلیدی"
|
9
9
|
},
|
10
|
+
"localFiles": {
|
11
|
+
"file": "فایل",
|
12
|
+
"folder": "پوشه",
|
13
|
+
"open": "باز کردن",
|
14
|
+
"openFile": "باز کردن فایل",
|
15
|
+
"openFolder": "باز کردن پوشه",
|
16
|
+
"read": {
|
17
|
+
"more": "بیشتر ببینید"
|
18
|
+
},
|
19
|
+
"readFile": "خواندن فایل",
|
20
|
+
"readFileError": "خطا در خواندن فایل، لطفاً مسیر فایل را بررسی کنید",
|
21
|
+
"readFiles": "خواندن فایلها",
|
22
|
+
"readFilesError": "خطا در خواندن فایلها، لطفاً مسیر فایلها را بررسی کنید"
|
23
|
+
},
|
10
24
|
"search": {
|
11
25
|
"createNewSearch": "ایجاد جستجوی جدید",
|
12
26
|
"emptyResult": "نتیجهای یافت نشد، لطفاً کلمات کلیدی را تغییر داده و دوباره تلاش کنید",
|
@@ -44,5 +58,16 @@
|
|
44
58
|
"summary": "خلاصه",
|
45
59
|
"summaryTooltip": "خلاصه محتوای فعلی",
|
46
60
|
"viewMoreResults": "مشاهده {{results}} نتیجه بیشتر"
|
61
|
+
},
|
62
|
+
"updateArgs": {
|
63
|
+
"duplicateKeyError": "کلید فیلد باید منحصر به فرد باشد",
|
64
|
+
"form": {
|
65
|
+
"add": "یک مورد اضافه کنید",
|
66
|
+
"key": "کلید فیلد",
|
67
|
+
"value": "مقدار فیلد"
|
68
|
+
},
|
69
|
+
"formValidationFailed": "اعتبارسنجی فرم ناموفق بود، لطفاً فرمت پارامترها را بررسی کنید",
|
70
|
+
"keyRequired": "کلید فیلد نمیتواند خالی باشد",
|
71
|
+
"stringifyError": "نمیتوان پارامتر را سریالیزه کرد، لطفاً فرمت پارامترها را بررسی کنید"
|
47
72
|
}
|
48
73
|
}
|
@@ -0,0 +1,32 @@
|
|
1
|
+
{
|
2
|
+
"remoteServer": {
|
3
|
+
"authError": "Échec de l'autorisation : {{error}}",
|
4
|
+
"authPending": "Veuillez terminer l'autorisation dans le navigateur",
|
5
|
+
"configDesc": "Connectez-vous au serveur LobeChat distant pour activer la synchronisation des données",
|
6
|
+
"configError": "Erreur de configuration",
|
7
|
+
"configTitle": "Configurer la synchronisation dans le cloud",
|
8
|
+
"connect": "Se connecter et autoriser",
|
9
|
+
"connected": "Connecté",
|
10
|
+
"disconnect": "Déconnexion",
|
11
|
+
"disconnectError": "Échec de la déconnexion",
|
12
|
+
"disconnected": "Déconnecté",
|
13
|
+
"fetchError": "Échec de la récupération de la configuration",
|
14
|
+
"invalidUrl": "Veuillez entrer une URL valide",
|
15
|
+
"serverUrl": "Adresse du serveur",
|
16
|
+
"statusConnected": "Connecté",
|
17
|
+
"statusDisconnected": "Déconnecté",
|
18
|
+
"urlRequired": "Veuillez entrer l'adresse du serveur"
|
19
|
+
},
|
20
|
+
"updater": {
|
21
|
+
"downloadingUpdate": "Téléchargement de la mise à jour",
|
22
|
+
"downloadingUpdateDesc": "La mise à jour est en cours de téléchargement, veuillez patienter...",
|
23
|
+
"later": "Mettre à jour plus tard",
|
24
|
+
"newVersionAvailable": "Nouvelle version disponible",
|
25
|
+
"newVersionAvailableDesc": "Une nouvelle version {{version}} a été trouvée, souhaitez-vous la télécharger maintenant ?",
|
26
|
+
"restartAndInstall": "Redémarrer et installer",
|
27
|
+
"updateError": "Erreur de mise à jour",
|
28
|
+
"updateReady": "Mise à jour prête",
|
29
|
+
"updateReadyDesc": "Lobe Chat {{version}} a été téléchargé, redémarrez l'application pour terminer l'installation.",
|
30
|
+
"upgradeNow": "Mettre à jour maintenant"
|
31
|
+
}
|
32
|
+
}
|