@lobehub/chat 1.77.16 → 1.77.18
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/contributing/Basic/Architecture.md +1 -1
- package/contributing/Basic/Architecture.zh-CN.md +1 -1
- package/contributing/Basic/Chat-API.md +326 -108
- package/contributing/Basic/Chat-API.zh-CN.md +313 -133
- package/contributing/Basic/Contributing-Guidelines.md +7 -4
- package/contributing/Basic/Contributing-Guidelines.zh-CN.md +7 -6
- package/contributing/Home.md +5 -5
- package/contributing/State-Management/State-Management-Intro.md +1 -1
- package/contributing/State-Management/State-Management-Intro.zh-CN.md +1 -1
- package/docker-compose/local/docker-compose.yml +2 -1
- package/locales/ar/components.json +4 -0
- package/locales/ar/modelProvider.json +1 -0
- package/locales/ar/models.json +8 -5
- package/locales/ar/tool.json +21 -1
- package/locales/bg-BG/components.json +4 -0
- package/locales/bg-BG/modelProvider.json +1 -0
- package/locales/bg-BG/models.json +8 -5
- package/locales/bg-BG/tool.json +21 -1
- package/locales/de-DE/components.json +4 -0
- package/locales/de-DE/modelProvider.json +1 -0
- package/locales/de-DE/models.json +8 -5
- package/locales/de-DE/tool.json +21 -1
- package/locales/en-US/components.json +4 -0
- package/locales/en-US/modelProvider.json +1 -0
- package/locales/en-US/models.json +8 -5
- package/locales/en-US/tool.json +21 -1
- package/locales/es-ES/components.json +4 -0
- package/locales/es-ES/modelProvider.json +1 -0
- package/locales/es-ES/models.json +7 -4
- package/locales/es-ES/tool.json +21 -1
- package/locales/fa-IR/components.json +4 -0
- package/locales/fa-IR/modelProvider.json +1 -0
- package/locales/fa-IR/models.json +7 -4
- package/locales/fa-IR/tool.json +21 -1
- package/locales/fr-FR/components.json +4 -0
- package/locales/fr-FR/modelProvider.json +1 -0
- package/locales/fr-FR/models.json +8 -5
- package/locales/fr-FR/tool.json +21 -1
- package/locales/it-IT/components.json +4 -0
- package/locales/it-IT/modelProvider.json +1 -0
- package/locales/it-IT/models.json +7 -4
- package/locales/it-IT/tool.json +21 -1
- package/locales/ja-JP/components.json +4 -0
- package/locales/ja-JP/modelProvider.json +1 -0
- package/locales/ja-JP/models.json +8 -5
- package/locales/ja-JP/tool.json +21 -1
- package/locales/ko-KR/components.json +4 -0
- package/locales/ko-KR/modelProvider.json +1 -0
- package/locales/ko-KR/models.json +8 -5
- package/locales/ko-KR/tool.json +21 -1
- package/locales/nl-NL/components.json +4 -0
- package/locales/nl-NL/modelProvider.json +1 -0
- package/locales/nl-NL/models.json +8 -5
- package/locales/nl-NL/tool.json +21 -1
- package/locales/pl-PL/components.json +4 -0
- package/locales/pl-PL/modelProvider.json +1 -0
- package/locales/pl-PL/models.json +8 -5
- package/locales/pl-PL/tool.json +21 -1
- package/locales/pt-BR/components.json +4 -0
- package/locales/pt-BR/modelProvider.json +1 -0
- package/locales/pt-BR/models.json +7 -4
- package/locales/pt-BR/tool.json +21 -1
- package/locales/ru-RU/components.json +4 -0
- package/locales/ru-RU/modelProvider.json +1 -0
- package/locales/ru-RU/models.json +7 -4
- package/locales/ru-RU/tool.json +21 -1
- package/locales/tr-TR/components.json +4 -0
- package/locales/tr-TR/modelProvider.json +1 -0
- package/locales/tr-TR/models.json +8 -5
- package/locales/tr-TR/tool.json +21 -1
- package/locales/vi-VN/components.json +4 -0
- package/locales/vi-VN/modelProvider.json +1 -0
- package/locales/vi-VN/models.json +8 -5
- package/locales/vi-VN/tool.json +21 -1
- package/locales/zh-CN/components.json +4 -0
- package/locales/zh-CN/modelProvider.json +1 -0
- package/locales/zh-CN/models.json +9 -6
- package/locales/zh-CN/tool.json +30 -1
- package/locales/zh-TW/components.json +4 -0
- package/locales/zh-TW/modelProvider.json +1 -0
- package/locales/zh-TW/models.json +7 -4
- package/locales/zh-TW/tool.json +21 -1
- package/package.json +1 -1
- package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +34 -0
- package/src/app/(backend)/webapi/{chat/models → models}/[provider]/route.ts +1 -2
- package/src/app/[variants]/(main)/settings/llm/ProviderList/Ollama/index.tsx +0 -7
- package/src/app/[variants]/(main)/settings/provider/(detail)/ollama/CheckError.tsx +1 -1
- package/src/components/FormAction/index.tsx +1 -1
- package/src/database/models/__tests__/aiProvider.test.ts +100 -0
- package/src/database/models/aiProvider.ts +11 -1
- package/src/features/Conversation/Error/OllamaBizError/InvalidOllamaModel.tsx +43 -0
- package/src/features/Conversation/Error/OllamaDesktopSetupGuide/index.tsx +61 -0
- package/src/features/Conversation/Error/index.tsx +7 -0
- package/src/features/DevPanel/SystemInspector/ServerConfig.tsx +18 -2
- package/src/features/DevPanel/SystemInspector/index.tsx +25 -6
- package/src/features/OllamaModelDownloader/index.tsx +149 -0
- package/src/libs/agent-runtime/AgentRuntime.ts +6 -0
- package/src/libs/agent-runtime/BaseAI.ts +7 -0
- package/src/libs/agent-runtime/ollama/index.ts +84 -2
- package/src/libs/agent-runtime/openrouter/__snapshots__/index.test.ts.snap +24 -3263
- package/src/libs/agent-runtime/openrouter/fixtures/frontendModels.json +25 -0
- package/src/libs/agent-runtime/openrouter/fixtures/models.json +0 -3353
- package/src/libs/agent-runtime/openrouter/index.test.ts +56 -1
- package/src/libs/agent-runtime/openrouter/index.ts +9 -4
- package/src/libs/agent-runtime/types/index.ts +1 -0
- package/src/libs/agent-runtime/types/model.ts +44 -0
- package/src/libs/agent-runtime/utils/streams/index.ts +1 -0
- package/src/libs/agent-runtime/utils/streams/model.ts +110 -0
- package/src/locales/default/components.ts +4 -0
- package/src/locales/default/modelProvider.ts +1 -0
- package/src/locales/default/tool.ts +30 -1
- package/src/server/modules/SearXNG.ts +10 -2
- package/src/server/routers/tools/__test__/search.test.ts +3 -1
- package/src/server/routers/tools/search.ts +10 -2
- package/src/services/__tests__/models.test.ts +21 -0
- package/src/services/_url.ts +4 -1
- package/src/services/chat.ts +1 -1
- package/src/services/models.ts +153 -7
- package/src/services/search.ts +2 -2
- package/src/store/aiInfra/slices/aiModel/action.ts +1 -1
- package/src/store/aiInfra/slices/aiProvider/action.ts +2 -1
- package/src/store/chat/slices/builtinTool/actions/searXNG.test.ts +28 -8
- package/src/store/chat/slices/builtinTool/actions/searXNG.ts +22 -5
- package/src/store/user/slices/modelList/action.test.ts +2 -2
- package/src/store/user/slices/modelList/action.ts +1 -1
- package/src/tools/web-browsing/Portal/Search/index.tsx +1 -1
- package/src/tools/web-browsing/Render/Search/SearchQuery/SearchView.tsx +1 -1
- package/src/tools/web-browsing/Render/Search/SearchQuery/index.tsx +1 -1
- package/src/tools/web-browsing/Render/Search/SearchResult/index.tsx +1 -1
- package/src/tools/web-browsing/components/CategoryAvatar.tsx +27 -0
- package/src/tools/web-browsing/components/SearchBar.tsx +84 -4
- package/src/tools/web-browsing/const.ts +26 -0
- package/src/tools/web-browsing/index.ts +58 -28
- package/src/tools/web-browsing/systemRole.ts +62 -1
- package/src/types/tool/search.ts +10 -1
- package/src/app/[variants]/(main)/settings/llm/ProviderList/Ollama/Checker.tsx +0 -73
- package/src/app/[variants]/(main)/settings/provider/(detail)/ollama/OllamaModelDownloader/index.tsx +0 -127
- package/src/features/Conversation/Error/OllamaBizError/InvalidOllamaModel/index.tsx +0 -154
- package/src/features/Conversation/Error/OllamaBizError/InvalidOllamaModel/useDownloadMonitor.ts +0 -29
- package/src/helpers/url.ts +0 -17
- package/src/services/__tests__/ollama.test.ts +0 -28
- package/src/services/ollama.ts +0 -83
- /package/src/{app/[variants]/(main)/settings/provider/(detail)/ollama → features}/OllamaModelDownloader/useDownloadMonitor.ts +0 -0
@@ -164,6 +164,7 @@
|
|
164
164
|
},
|
165
165
|
"download": {
|
166
166
|
"desc": "أولاما يقوم بتنزيل هذا النموذج، يرجى عدم إغلاق هذه الصفحة إذا أمكن. سيتم استئناف التنزيل من النقطة التي تم قطعها عند إعادة التحميل",
|
167
|
+
"failed": "فشل تحميل النموذج، يرجى التحقق من الشبكة أو إعدادات Ollama ثم إعادة المحاولة",
|
167
168
|
"remainingTime": "الوقت المتبقي",
|
168
169
|
"speed": "سرعة التنزيل",
|
169
170
|
"title": "جارٍ تنزيل النموذج {{model}} "
|
package/locales/ar/models.json
CHANGED
@@ -842,6 +842,9 @@
|
|
842
842
|
"ernie-tiny-8k": {
|
843
843
|
"description": "ERNIE Tiny هو نموذج اللغة الكبير عالي الأداء الذي طورته بايدو، وتكاليف النشر والتعديل هي الأدنى بين نماذج سلسلة Wenxin."
|
844
844
|
},
|
845
|
+
"ernie-x1-32k-preview": {
|
846
|
+
"description": "نموذج Ernie X1 الكبير يتمتع بقدرات أقوى في الفهم، التخطيط، التفكير النقدي، والتطور. كنموذج تفكير عميق أكثر شمولاً، يجمع Ernie X1 بين الدقة، الإبداع، والبلاغة، ويتميز بشكل خاص في أسئلة المعرفة باللغة الصينية، الإبداع الأدبي، كتابة النصوص، المحادثات اليومية، الاستدلال المنطقي، الحسابات المعقدة، واستدعاء الأدوات."
|
847
|
+
},
|
845
848
|
"gemini-1.0-pro-001": {
|
846
849
|
"description": "Gemini 1.0 Pro 001 (تعديل) يوفر أداءً مستقرًا وقابلًا للتعديل، وهو الخيار المثالي لحلول المهام المعقدة."
|
847
850
|
},
|
@@ -914,6 +917,9 @@
|
|
914
917
|
"gemini-2.5-pro-exp-03-25": {
|
915
918
|
"description": "نموذج Gemini 2.5 Pro التجريبي هو الأكثر تقدمًا من Google، قادر على استنتاج المشكلات المعقدة في البرمجة والرياضيات وعلوم STEM، بالإضافة إلى تحليل مجموعات البيانات الكبيرة ومكتبات الشيفرات والمستندات باستخدام سياقات طويلة."
|
916
919
|
},
|
920
|
+
"gemini-2.5-pro-preview-03-25": {
|
921
|
+
"description": "معاينة Gemini 2.5 Pro هي نموذج التفكير الأكثر تقدمًا من Google، قادر على الاستدلال حول الشيفرات، الرياضيات، والمشكلات المعقدة في مجالات STEM، بالإضافة إلى تحليل مجموعات البيانات الكبيرة، مكتبات الشيفرات، والمستندات باستخدام سياقات طويلة."
|
922
|
+
},
|
917
923
|
"gemma-7b-it": {
|
918
924
|
"description": "Gemma 7B مناسب لمعالجة المهام المتوسطة والصغيرة، ويجمع بين الكفاءة من حيث التكلفة."
|
919
925
|
},
|
@@ -1571,9 +1577,6 @@
|
|
1571
1577
|
"openai/o1-preview": {
|
1572
1578
|
"description": "o1 هو نموذج استدلال جديد من OpenAI، مناسب للمهام المعقدة التي تتطلب معرفة عامة واسعة. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023."
|
1573
1579
|
},
|
1574
|
-
"openchat/openchat-7b": {
|
1575
|
-
"description": "OpenChat 7B هو مكتبة نماذج لغوية مفتوحة المصدر تم تحسينها باستخدام استراتيجية \"C-RLFT (تعزيز التعلم الشرطي)\"."
|
1576
|
-
},
|
1577
1580
|
"openrouter/auto": {
|
1578
1581
|
"description": "استنادًا إلى طول السياق، والموضوع، والتعقيد، سيتم إرسال طلبك إلى Llama 3 70B Instruct، أو Claude 3.5 Sonnet (التعديل الذاتي) أو GPT-4o."
|
1579
1582
|
},
|
@@ -1595,8 +1598,8 @@
|
|
1595
1598
|
"qvq-72b-preview": {
|
1596
1599
|
"description": "نموذج QVQ هو نموذج بحث تجريبي تم تطويره بواسطة فريق Qwen، يركز على تعزيز قدرات الاستدلال البصري، خاصة في مجال الاستدلال الرياضي."
|
1597
1600
|
},
|
1598
|
-
"qvq-max
|
1599
|
-
"description": "نموذج الاستدلال البصري QVQ
|
1601
|
+
"qvq-max": {
|
1602
|
+
"description": "نموذج الاستدلال البصري QVQ من Tongyi Qianwen يدعم الإدخال البصري وإخراج سلسلة التفكير، وقد أظهر قدرات أقوى في الرياضيات، البرمجة، التحليل البصري، الإبداع، والمهام العامة."
|
1600
1603
|
},
|
1601
1604
|
"qwen-coder-plus-latest": {
|
1602
1605
|
"description": "نموذج كود Qwen الشامل."
|
package/locales/ar/tool.json
CHANGED
@@ -19,8 +19,28 @@
|
|
19
19
|
"placeholder": "الكلمات الرئيسية",
|
20
20
|
"tooltip": "سيتم إعادة الحصول على نتائج البحث، وإنشاء رسالة ملخص جديدة"
|
21
21
|
},
|
22
|
-
"
|
22
|
+
"searchCategory": {
|
23
|
+
"placeholder": "ابحث عن الفئة",
|
24
|
+
"title": "فئة البحث:",
|
25
|
+
"value": {
|
26
|
+
"files": "ملفات",
|
27
|
+
"general": "عام",
|
28
|
+
"images": "صور",
|
29
|
+
"it": "تكنولوجيا المعلومات",
|
30
|
+
"map": "خريطة",
|
31
|
+
"music": "موسيقى",
|
32
|
+
"news": "أخبار",
|
33
|
+
"science": "علوم",
|
34
|
+
"social_media": "وسائل التواصل الاجتماعي",
|
35
|
+
"videos": "فيديوهات"
|
36
|
+
}
|
37
|
+
},
|
38
|
+
"searchEngine": {
|
39
|
+
"placeholder": "محرك البحث",
|
40
|
+
"title": "محرك البحث:"
|
41
|
+
},
|
23
42
|
"searchResult": "عدد النتائج:",
|
43
|
+
"searchTimeRange": "نطاق الوقت:",
|
24
44
|
"summary": "ملخص",
|
25
45
|
"summaryTooltip": "تلخيص المحتوى الحالي",
|
26
46
|
"viewMoreResults": "عرض المزيد من {{results}} نتيجة"
|
@@ -91,6 +91,10 @@
|
|
91
91
|
"provider": "Доставчик"
|
92
92
|
},
|
93
93
|
"OllamaSetupGuide": {
|
94
|
+
"action": {
|
95
|
+
"close": "Затвори提示",
|
96
|
+
"start": "Инсталирано и работи, започни разговора"
|
97
|
+
},
|
94
98
|
"cors": {
|
95
99
|
"description": "Поради ограниченията на сигурността на браузъра, трябва да конфигурирате крос-домейн достъп за Ollama, за да можете да го използвате нормално.",
|
96
100
|
"linux": {
|
@@ -164,6 +164,7 @@
|
|
164
164
|
},
|
165
165
|
"download": {
|
166
166
|
"desc": "Ollama изтегля този модел, моля, не затваряйте тази страница. При повторно изтегляне ще продължи от мястото, на което е прекъснато",
|
167
|
+
"failed": "Изтеглянето на модела не успя, моля проверете мрежата или настройките на Ollama и опитайте отново",
|
167
168
|
"remainingTime": "Оставащо време",
|
168
169
|
"speed": "Скорост на изтегляне",
|
169
170
|
"title": "Изтегляне на модел {{model}} "
|
@@ -842,6 +842,9 @@
|
|
842
842
|
"ernie-tiny-8k": {
|
843
843
|
"description": "ERNIE Tiny е модел с изключителна производителност, разработен от Baidu, с най-ниски разходи за внедряване и фина настройка сред моделите от серията Wenxin."
|
844
844
|
},
|
845
|
+
"ernie-x1-32k-preview": {
|
846
|
+
"description": "Моделът Wenxin X1 притежава по-силни способности за разбиране, планиране, размисъл и еволюция. Като модел за дълбоко мислене с по-широки възможности, Wenxin X1 съчетава точност, креативност и изящество, особено в области като китайски знания и отговори, литературно творчество, писане на документи, ежедневни разговори, логическо разсъждение, сложни изчисления и извикване на инструменти."
|
847
|
+
},
|
845
848
|
"gemini-1.0-pro-001": {
|
846
849
|
"description": "Gemini 1.0 Pro 001 (Тунинг) предлага стабилна и настройваема производителност, идеален избор за решения на сложни задачи."
|
847
850
|
},
|
@@ -914,6 +917,9 @@
|
|
914
917
|
"gemini-2.5-pro-exp-03-25": {
|
915
918
|
"description": "Gemini 2.5 Pro Experimental е най-напредналият модел на мислене на Google, способен да разсъждава по сложни проблеми в код, математика и STEM области, както и да анализира големи набори от данни, кодови библиотеки и документи, използвайки дълъг контекст."
|
916
919
|
},
|
920
|
+
"gemini-2.5-pro-preview-03-25": {
|
921
|
+
"description": "Gemini 2.5 Pro Preview е най-напредналият модел на Google за мислене, способен да разсъждава по сложни проблеми в кодиране, математика и STEM области, както и да анализира големи набори от данни, кодови библиотеки и документи с дълъг контекст."
|
922
|
+
},
|
917
923
|
"gemma-7b-it": {
|
918
924
|
"description": "Gemma 7B е подходяща за обработка на средни и малки задачи, съчетаваща икономичност."
|
919
925
|
},
|
@@ -1571,9 +1577,6 @@
|
|
1571
1577
|
"openai/o1-preview": {
|
1572
1578
|
"description": "o1 е новият модел за изводи на OpenAI, подходящ за сложни задачи, изискващи обширни общи знания. Моделът разполага с контекст от 128K и дата на знание до октомври 2023."
|
1573
1579
|
},
|
1574
|
-
"openchat/openchat-7b": {
|
1575
|
-
"description": "OpenChat 7B е отворен езиков модел, прецизно настроен с помощта на стратегията „C-RLFT (условно подсилващо обучение)“."
|
1576
|
-
},
|
1577
1580
|
"openrouter/auto": {
|
1578
1581
|
"description": "В зависимост от дължината на контекста, темата и сложността, вашето запитване ще бъде изпратено до Llama 3 70B Instruct, Claude 3.5 Sonnet (саморегулиращ) или GPT-4o."
|
1579
1582
|
},
|
@@ -1595,8 +1598,8 @@
|
|
1595
1598
|
"qvq-72b-preview": {
|
1596
1599
|
"description": "QVQ моделът е експериментален изследователски модел, разработен от екипа на Qwen, фокусиран върху повишаване на визуалните способности за разсъждение, особено в областта на математическото разсъждение."
|
1597
1600
|
},
|
1598
|
-
"qvq-max
|
1599
|
-
"description": "Моделът за визуално разсъждение QVQ на Tongyi
|
1601
|
+
"qvq-max": {
|
1602
|
+
"description": "Моделът за визуално разсъждение QVQ на Tongyi поддържа визуален вход и изход на мисловни вериги, демонстрирайки по-силни способности в математика, програмиране, визуален анализ, творчество и общи задачи."
|
1600
1603
|
},
|
1601
1604
|
"qwen-coder-plus-latest": {
|
1602
1605
|
"description": "Модел за кодиране Qwen с общо предназначение."
|
package/locales/bg-BG/tool.json
CHANGED
@@ -19,8 +19,28 @@
|
|
19
19
|
"placeholder": "Ключови думи",
|
20
20
|
"tooltip": "Ще се извлекат отново резултатите от търсенето и ще се създаде ново резюме"
|
21
21
|
},
|
22
|
-
"
|
22
|
+
"searchCategory": {
|
23
|
+
"placeholder": "Търсене на категория",
|
24
|
+
"title": "Категория за търсене:",
|
25
|
+
"value": {
|
26
|
+
"files": "Файлове",
|
27
|
+
"general": "Общи",
|
28
|
+
"images": "Снимки",
|
29
|
+
"it": "Информационни технологии",
|
30
|
+
"map": "Карта",
|
31
|
+
"music": "Музика",
|
32
|
+
"news": "Новини",
|
33
|
+
"science": "Наука",
|
34
|
+
"social_media": "Социални медии",
|
35
|
+
"videos": "Видеа"
|
36
|
+
}
|
37
|
+
},
|
38
|
+
"searchEngine": {
|
39
|
+
"placeholder": "Търсачка",
|
40
|
+
"title": "Търсачка:"
|
41
|
+
},
|
23
42
|
"searchResult": "Брой резултати:",
|
43
|
+
"searchTimeRange": "Времеви диапазон:",
|
24
44
|
"summary": "Резюме",
|
25
45
|
"summaryTooltip": "Резюме на текущото съдържание",
|
26
46
|
"viewMoreResults": "Вижте още {{results}} резултата"
|
@@ -91,6 +91,10 @@
|
|
91
91
|
"provider": "Anbieter"
|
92
92
|
},
|
93
93
|
"OllamaSetupGuide": {
|
94
|
+
"action": {
|
95
|
+
"close": "Hinweis schließen",
|
96
|
+
"start": "Installiert und ausgeführt, beginnen Sie das Gespräch"
|
97
|
+
},
|
94
98
|
"cors": {
|
95
99
|
"description": "Aufgrund von Sicherheitsbeschränkungen im Browser müssen Sie CORS für Ollama konfigurieren, um es ordnungsgemäß nutzen zu können.",
|
96
100
|
"linux": {
|
@@ -164,6 +164,7 @@
|
|
164
164
|
},
|
165
165
|
"download": {
|
166
166
|
"desc": "Ollama lädt dieses Modell herunter. Bitte schließen Sie diese Seite nicht. Ein erneuter Download wird an der unterbrochenen Stelle fortgesetzt.",
|
167
|
+
"failed": "Der Download des Modells ist fehlgeschlagen. Bitte überprüfen Sie Ihre Netzwerkverbindung oder die Ollama-Einstellungen und versuchen Sie es erneut.",
|
167
168
|
"remainingTime": "Verbleibende Zeit",
|
168
169
|
"speed": "Downloadgeschwindigkeit",
|
169
170
|
"title": "Lade Modell {{model}} herunter"
|
@@ -842,6 +842,9 @@
|
|
842
842
|
"ernie-tiny-8k": {
|
843
843
|
"description": "ERNIE Tiny ist ein hochleistungsfähiges großes Sprachmodell, dessen Bereitstellungs- und Feinabstimmungskosten die niedrigsten unter den Wenshin-Modellen sind."
|
844
844
|
},
|
845
|
+
"ernie-x1-32k-preview": {
|
846
|
+
"description": "Das große Modell ERNIE X1 verfügt über verbesserte Fähigkeiten in Verständnis, Planung, Reflexion und Evolution. Als umfassenderes tiefes Denkmodell kombiniert ERNIE X1 Genauigkeit, Kreativität und Ausdruckskraft und zeigt herausragende Leistungen in den Bereichen chinesische Wissensabfragen, literarisches Schaffen, Textverfassung, alltägliche Gespräche, logisches Denken, komplexe Berechnungen und Werkzeugnutzung."
|
847
|
+
},
|
845
848
|
"gemini-1.0-pro-001": {
|
846
849
|
"description": "Gemini 1.0 Pro 001 (Tuning) bietet stabile und anpassbare Leistung und ist die ideale Wahl für Lösungen komplexer Aufgaben."
|
847
850
|
},
|
@@ -914,6 +917,9 @@
|
|
914
917
|
"gemini-2.5-pro-exp-03-25": {
|
915
918
|
"description": "Gemini 2.5 Pro Experimental ist Googles fortschrittlichstes Denkmodell, das in der Lage ist, komplexe Probleme in den Bereichen Code, Mathematik und STEM zu analysieren. Es kann auch lange Kontexte nutzen, um große Datensätze, Codebasen und Dokumente zu analysieren."
|
916
919
|
},
|
920
|
+
"gemini-2.5-pro-preview-03-25": {
|
921
|
+
"description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Denkmodell, das in der Lage ist, komplexe Probleme in den Bereichen Code, Mathematik und STEM zu analysieren sowie große Datensätze, Codebasen und Dokumente mithilfe von langen Kontextanalysen zu verarbeiten."
|
922
|
+
},
|
917
923
|
"gemma-7b-it": {
|
918
924
|
"description": "Gemma 7B eignet sich für die Verarbeitung von mittelgroßen Aufgaben und bietet ein gutes Kosten-Nutzen-Verhältnis."
|
919
925
|
},
|
@@ -1571,9 +1577,6 @@
|
|
1571
1577
|
"openai/o1-preview": {
|
1572
1578
|
"description": "o1 ist OpenAIs neues Inferenzmodell, das für komplexe Aufgaben geeignet ist, die umfangreiches Allgemeinwissen erfordern. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023."
|
1573
1579
|
},
|
1574
|
-
"openchat/openchat-7b": {
|
1575
|
-
"description": "OpenChat 7B ist eine Open-Source-Sprachmodellbibliothek, die mit der Strategie „C-RLFT (Conditional Reinforcement Learning Fine-Tuning)“ optimiert wurde."
|
1576
|
-
},
|
1577
1580
|
"openrouter/auto": {
|
1578
1581
|
"description": "Je nach Kontextlänge, Thema und Komplexität wird Ihre Anfrage an Llama 3 70B Instruct, Claude 3.5 Sonnet (selbstregulierend) oder GPT-4o gesendet."
|
1579
1582
|
},
|
@@ -1595,8 +1598,8 @@
|
|
1595
1598
|
"qvq-72b-preview": {
|
1596
1599
|
"description": "Das QVQ-Modell ist ein experimentelles Forschungsmodell, das vom Qwen-Team entwickelt wurde und sich auf die Verbesserung der visuellen Schlussfolgerungsfähigkeiten konzentriert, insbesondere im Bereich der mathematischen Schlussfolgerungen."
|
1597
1600
|
},
|
1598
|
-
"qvq-max
|
1599
|
-
"description": "Das QVQ-
|
1601
|
+
"qvq-max": {
|
1602
|
+
"description": "Das universelle QVQ-Visionsmodell unterstützt visuelle Eingaben und Denkkettenausgaben und zeigt in Mathematik, Programmierung, visueller Analyse, Kreativität und allgemeinen Aufgaben verbesserte Fähigkeiten."
|
1600
1603
|
},
|
1601
1604
|
"qwen-coder-plus-latest": {
|
1602
1605
|
"description": "Tongyi Qianwen Code-Modell."
|
package/locales/de-DE/tool.json
CHANGED
@@ -19,8 +19,28 @@
|
|
19
19
|
"placeholder": "Schlüsselwörter",
|
20
20
|
"tooltip": "Die Suchergebnisse werden erneut abgerufen und eine neue Zusammenfassungsnachricht wird erstellt"
|
21
21
|
},
|
22
|
-
"
|
22
|
+
"searchCategory": {
|
23
|
+
"placeholder": "Kategorie suchen",
|
24
|
+
"title": "Kategorie suchen:",
|
25
|
+
"value": {
|
26
|
+
"files": "Dateien",
|
27
|
+
"general": "Allgemein",
|
28
|
+
"images": "Bilder",
|
29
|
+
"it": "Informationstechnologie",
|
30
|
+
"map": "Karten",
|
31
|
+
"music": "Musik",
|
32
|
+
"news": "Nachrichten",
|
33
|
+
"science": "Wissenschaft",
|
34
|
+
"social_media": "Soziale Medien",
|
35
|
+
"videos": "Videos"
|
36
|
+
}
|
37
|
+
},
|
38
|
+
"searchEngine": {
|
39
|
+
"placeholder": "Suchmaschine",
|
40
|
+
"title": "Suchmaschine:"
|
41
|
+
},
|
23
42
|
"searchResult": "Anzahl der Suchergebnisse:",
|
43
|
+
"searchTimeRange": "Zeitspanne:",
|
24
44
|
"summary": "Zusammenfassung",
|
25
45
|
"summaryTooltip": "Aktuellen Inhalt zusammenfassen",
|
26
46
|
"viewMoreResults": "Weitere {{results}} Ergebnisse anzeigen"
|
@@ -91,6 +91,10 @@
|
|
91
91
|
"provider": "Provider"
|
92
92
|
},
|
93
93
|
"OllamaSetupGuide": {
|
94
|
+
"action": {
|
95
|
+
"close": "Close Prompt",
|
96
|
+
"start": "Installed and running, start the conversation"
|
97
|
+
},
|
94
98
|
"cors": {
|
95
99
|
"description": "Due to browser security restrictions, you need to configure cross-origin settings for Ollama to function properly.",
|
96
100
|
"linux": {
|
@@ -164,6 +164,7 @@
|
|
164
164
|
},
|
165
165
|
"download": {
|
166
166
|
"desc": "Ollama is downloading the model. Please try not to close this page. The download will resume from where it left off if interrupted.",
|
167
|
+
"failed": "Model download failed. Please check your network or Ollama settings and try again.",
|
167
168
|
"remainingTime": "Remaining Time",
|
168
169
|
"speed": "Speed",
|
169
170
|
"title": "Downloading model {{model}}"
|
@@ -842,6 +842,9 @@
|
|
842
842
|
"ernie-tiny-8k": {
|
843
843
|
"description": "ERNIE Tiny is Baidu's ultra-high-performance large language model, with the lowest deployment and fine-tuning costs among the Wenxin series models."
|
844
844
|
},
|
845
|
+
"ernie-x1-32k-preview": {
|
846
|
+
"description": "The ERNIE X1 model possesses stronger understanding, planning, reflection, and evolution capabilities. As a more comprehensive deep thinking model, ERNIE X1 excels in accuracy, creativity, and eloquence, particularly in Chinese knowledge Q&A, literary creation, document writing, daily conversation, logical reasoning, complex calculations, and tool invocation."
|
847
|
+
},
|
845
848
|
"gemini-1.0-pro-001": {
|
846
849
|
"description": "Gemini 1.0 Pro 001 (Tuning) offers stable and tunable performance, making it an ideal choice for complex task solutions."
|
847
850
|
},
|
@@ -914,6 +917,9 @@
|
|
914
917
|
"gemini-2.5-pro-exp-03-25": {
|
915
918
|
"description": "Gemini 2.5 Pro Experimental is Google's most advanced thinking model, capable of reasoning about complex problems in code, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using long context."
|
916
919
|
},
|
920
|
+
"gemini-2.5-pro-preview-03-25": {
|
921
|
+
"description": "Gemini 2.5 Pro Preview is Google's most advanced thinking model, capable of reasoning about complex problems in code, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using long-context analysis."
|
922
|
+
},
|
917
923
|
"gemma-7b-it": {
|
918
924
|
"description": "Gemma 7B is suitable for medium to small-scale task processing, offering cost-effectiveness."
|
919
925
|
},
|
@@ -1571,9 +1577,6 @@
|
|
1571
1577
|
"openai/o1-preview": {
|
1572
1578
|
"description": "o1 is OpenAI's new reasoning model, suitable for complex tasks that require extensive general knowledge. This model features a 128K context and has a knowledge cutoff date of October 2023."
|
1573
1579
|
},
|
1574
|
-
"openchat/openchat-7b": {
|
1575
|
-
"description": "OpenChat 7B is an open-source language model library fine-tuned using the 'C-RLFT (Conditional Reinforcement Learning Fine-Tuning)' strategy."
|
1576
|
-
},
|
1577
1580
|
"openrouter/auto": {
|
1578
1581
|
"description": "Based on context length, topic, and complexity, your request will be sent to Llama 3 70B Instruct, Claude 3.5 Sonnet (self-regulating), or GPT-4o."
|
1579
1582
|
},
|
@@ -1595,8 +1598,8 @@
|
|
1595
1598
|
"qvq-72b-preview": {
|
1596
1599
|
"description": "The QVQ model is an experimental research model developed by the Qwen team, focusing on enhancing visual reasoning capabilities, particularly in the field of mathematical reasoning."
|
1597
1600
|
},
|
1598
|
-
"qvq-max
|
1599
|
-
"description": "The
|
1601
|
+
"qvq-max": {
|
1602
|
+
"description": "The QVQ Visual Reasoning Model supports visual input and chain-of-thought output, demonstrating enhanced capabilities in mathematics, programming, visual analysis, creative tasks, and general tasks."
|
1600
1603
|
},
|
1601
1604
|
"qwen-coder-plus-latest": {
|
1602
1605
|
"description": "Tongyi Qianwen code model."
|
package/locales/en-US/tool.json
CHANGED
@@ -19,8 +19,28 @@
|
|
19
19
|
"placeholder": "Keywords",
|
20
20
|
"tooltip": "This will refresh the search results and create a new summary message"
|
21
21
|
},
|
22
|
-
"
|
22
|
+
"searchCategory": {
|
23
|
+
"placeholder": "Search Category",
|
24
|
+
"title": "Search Category:",
|
25
|
+
"value": {
|
26
|
+
"files": "Files",
|
27
|
+
"general": "General",
|
28
|
+
"images": "Images",
|
29
|
+
"it": "Information Technology",
|
30
|
+
"map": "Maps",
|
31
|
+
"music": "Music",
|
32
|
+
"news": "News",
|
33
|
+
"science": "Science",
|
34
|
+
"social_media": "Social Media",
|
35
|
+
"videos": "Videos"
|
36
|
+
}
|
37
|
+
},
|
38
|
+
"searchEngine": {
|
39
|
+
"placeholder": "Search Engine",
|
40
|
+
"title": "Search Engine:"
|
41
|
+
},
|
23
42
|
"searchResult": "Number of searches:",
|
43
|
+
"searchTimeRange": "Time Range:",
|
24
44
|
"summary": "Summary",
|
25
45
|
"summaryTooltip": "Summarize the current content",
|
26
46
|
"viewMoreResults": "View {{results}} more results"
|
@@ -91,6 +91,10 @@
|
|
91
91
|
"provider": "Proveedor"
|
92
92
|
},
|
93
93
|
"OllamaSetupGuide": {
|
94
|
+
"action": {
|
95
|
+
"close": "Cerrar aviso",
|
96
|
+
"start": "Instalado y en funcionamiento, comenzar conversación"
|
97
|
+
},
|
94
98
|
"cors": {
|
95
99
|
"description": "Debido a las restricciones de seguridad del navegador, necesitas configurar CORS para Ollama antes de poder usarlo correctamente.",
|
96
100
|
"linux": {
|
@@ -164,6 +164,7 @@
|
|
164
164
|
},
|
165
165
|
"download": {
|
166
166
|
"desc": "Ollama está descargando este modelo, por favor intenta no cerrar esta página. La descarga se reanudará desde donde se interrumpió",
|
167
|
+
"failed": "La descarga del modelo ha fallado, por favor verifica la red o la configuración de Ollama y vuelve a intentarlo",
|
167
168
|
"remainingTime": "Tiempo restante",
|
168
169
|
"speed": "Velocidad de descarga",
|
169
170
|
"title": "Descargando el modelo {{model}} "
|
@@ -842,6 +842,9 @@
|
|
842
842
|
"ernie-tiny-8k": {
|
843
843
|
"description": "ERNIE Tiny es un modelo de lenguaje grande de alto rendimiento desarrollado internamente por Baidu, con los costos de implementación y ajuste más bajos entre los modelos de la serie Wenxin."
|
844
844
|
},
|
845
|
+
"ernie-x1-32k-preview": {
|
846
|
+
"description": "El modelo grande Wenxin X1 posee una mayor capacidad de comprensión, planificación, reflexión y evolución. Como un modelo de pensamiento profundo más completo, Wenxin X1 combina precisión, creatividad y elocuencia, destacándose especialmente en preguntas y respuestas de conocimiento en chino, creación literaria, redacción de documentos, diálogos cotidianos, razonamiento lógico, cálculos complejos y llamadas a herramientas."
|
847
|
+
},
|
845
848
|
"gemini-1.0-pro-001": {
|
846
849
|
"description": "Gemini 1.0 Pro 001 (Ajuste) ofrece un rendimiento estable y ajustable, siendo una opción ideal para soluciones de tareas complejas."
|
847
850
|
},
|
@@ -914,6 +917,9 @@
|
|
914
917
|
"gemini-2.5-pro-exp-03-25": {
|
915
918
|
"description": "Gemini 2.5 Pro Experimental es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y campos STEM, además de utilizar contextos largos para analizar grandes conjuntos de datos, bibliotecas de código y documentos."
|
916
919
|
},
|
920
|
+
"gemini-2.5-pro-preview-03-25": {
|
921
|
+
"description": "Gemini 2.5 Pro Preview es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y campos STEM, así como de analizar grandes conjuntos de datos, bibliotecas de código y documentos utilizando un contexto largo."
|
922
|
+
},
|
917
923
|
"gemma-7b-it": {
|
918
924
|
"description": "Gemma 7B es adecuado para el procesamiento de tareas de pequeña y mediana escala, combinando rentabilidad."
|
919
925
|
},
|
@@ -1571,9 +1577,6 @@
|
|
1571
1577
|
"openai/o1-preview": {
|
1572
1578
|
"description": "o1 es el nuevo modelo de inferencia de OpenAI, adecuado para tareas complejas que requieren un amplio conocimiento general. Este modelo tiene un contexto de 128K y una fecha de corte de conocimiento en octubre de 2023."
|
1573
1579
|
},
|
1574
|
-
"openchat/openchat-7b": {
|
1575
|
-
"description": "OpenChat 7B es una biblioteca de modelos de lenguaje de código abierto ajustada mediante la estrategia de 'C-RLFT (ajuste fino de refuerzo condicional)'."
|
1576
|
-
},
|
1577
1580
|
"openrouter/auto": {
|
1578
1581
|
"description": "Según la longitud del contexto, el tema y la complejidad, tu solicitud se enviará a Llama 3 70B Instruct, Claude 3.5 Sonnet (autoajuste) o GPT-4o."
|
1579
1582
|
},
|
@@ -1595,7 +1598,7 @@
|
|
1595
1598
|
"qvq-72b-preview": {
|
1596
1599
|
"description": "El modelo QVQ es un modelo de investigación experimental desarrollado por el equipo de Qwen, enfocado en mejorar la capacidad de razonamiento visual, especialmente en el ámbito del razonamiento matemático."
|
1597
1600
|
},
|
1598
|
-
"qvq-max
|
1601
|
+
"qvq-max": {
|
1599
1602
|
"description": "El modelo de razonamiento visual QVQ de Tongyi Qianwen admite entradas visuales y salidas de cadena de pensamiento, mostrando una mayor capacidad en matemáticas, programación, análisis visual, creación y tareas generales."
|
1600
1603
|
},
|
1601
1604
|
"qwen-coder-plus-latest": {
|
package/locales/es-ES/tool.json
CHANGED
@@ -19,8 +19,28 @@
|
|
19
19
|
"placeholder": "Palabras clave",
|
20
20
|
"tooltip": "Se volverán a obtener los resultados de búsqueda y se creará un nuevo mensaje de resumen"
|
21
21
|
},
|
22
|
-
"
|
22
|
+
"searchCategory": {
|
23
|
+
"placeholder": "Buscar categoría",
|
24
|
+
"title": "Categoría de búsqueda:",
|
25
|
+
"value": {
|
26
|
+
"files": "Archivos",
|
27
|
+
"general": "General",
|
28
|
+
"images": "Imágenes",
|
29
|
+
"it": "Tecnologías de la información",
|
30
|
+
"map": "Mapas",
|
31
|
+
"music": "Música",
|
32
|
+
"news": "Noticias",
|
33
|
+
"science": "Ciencia",
|
34
|
+
"social_media": "Redes sociales",
|
35
|
+
"videos": "Videos"
|
36
|
+
}
|
37
|
+
},
|
38
|
+
"searchEngine": {
|
39
|
+
"placeholder": "Motor de búsqueda",
|
40
|
+
"title": "Motor de búsqueda:"
|
41
|
+
},
|
23
42
|
"searchResult": "Número de búsquedas:",
|
43
|
+
"searchTimeRange": "Rango de tiempo:",
|
24
44
|
"summary": "Resumen",
|
25
45
|
"summaryTooltip": "Resumir el contenido actual",
|
26
46
|
"viewMoreResults": "Ver más {{results}} resultados"
|
@@ -91,6 +91,10 @@
|
|
91
91
|
"provider": "ارائهدهنده"
|
92
92
|
},
|
93
93
|
"OllamaSetupGuide": {
|
94
|
+
"action": {
|
95
|
+
"close": "بستن پیام",
|
96
|
+
"start": "نصب و راهاندازی شده، شروع به گفتگو"
|
97
|
+
},
|
94
98
|
"cors": {
|
95
99
|
"description": "به دلیل محدودیتهای امنیتی مرورگر، شما باید تنظیمات跨域 برای Ollama را انجام دهید تا بتوانید به درستی از آن استفاده کنید.",
|
96
100
|
"linux": {
|
@@ -164,6 +164,7 @@
|
|
164
164
|
},
|
165
165
|
"download": {
|
166
166
|
"desc": "Ollama در حال دانلود این مدل است، لطفاً تا حد امکان این صفحه را نبندید. در صورت دانلود مجدد، از نقطه قطع شده ادامه خواهد یافت",
|
167
|
+
"failed": "دانلود مدل ناموفق بود، لطفاً شبکه یا تنظیمات Ollama را بررسی کرده و دوباره تلاش کنید",
|
167
168
|
"remainingTime": "زمان باقیمانده",
|
168
169
|
"speed": "سرعت دانلود",
|
169
170
|
"title": "در حال دانلود مدل {{model}} "
|
@@ -842,6 +842,9 @@
|
|
842
842
|
"ernie-tiny-8k": {
|
843
843
|
"description": "ERNIE Tiny مدل زبان بزرگ با عملکرد فوقالعاده بالا است که هزینههای استقرار و تنظیم آن در بین مدلهای سری Wenxin کمترین است."
|
844
844
|
},
|
845
|
+
"ernie-x1-32k-preview": {
|
846
|
+
"description": "مدل بزرگ ERNIE X1 دارای تواناییهای قویتری در درک، برنامهریزی، تفکر و تکامل است. به عنوان یک مدل تفکر عمیق با قابلیتهای جامعتر، ERNIE X1 دقت، خلاقیت و بلاغت را در زمینههای پرسش و پاسخ دانش چینی، خلق ادبیات، نوشتن متون، گفتگوهای روزمره، استدلال منطقی، محاسبات پیچیده و فراخوانی ابزارها به نمایش میگذارد."
|
847
|
+
},
|
845
848
|
"gemini-1.0-pro-001": {
|
846
849
|
"description": "Gemini 1.0 Pro 001 (تنظیم) عملکردی پایدار و قابل تنظیم ارائه میدهد و انتخابی ایدهآل برای راهحلهای وظایف پیچیده است."
|
847
850
|
},
|
@@ -914,6 +917,9 @@
|
|
914
917
|
"gemini-2.5-pro-exp-03-25": {
|
915
918
|
"description": "Gemini 2.5 Pro Experimental پیشرفتهترین مدل تفکر گوگل است که قادر به استدلال در مورد مسائل پیچیده در زمینههای کد، ریاضیات و STEM میباشد و همچنین میتواند با استفاده از زمینههای طولانی، مجموعههای داده بزرگ، کتابخانههای کد و مستندات را تحلیل کند."
|
916
919
|
},
|
920
|
+
"gemini-2.5-pro-preview-03-25": {
|
921
|
+
"description": "پیشنمایش Gemini 2.5 Pro مدل پیشرفته تفکر گوگل است که قادر به استدلال در مورد کد، ریاضیات و مسائل پیچیده در زمینه STEM میباشد و همچنین میتواند با استفاده از تحلیل زمینهای طولانی، مجموعههای داده بزرگ، کتابخانههای کد و مستندات را بررسی کند."
|
922
|
+
},
|
917
923
|
"gemma-7b-it": {
|
918
924
|
"description": "Gemma 7B برای پردازش وظایف کوچک و متوسط مناسب است و از نظر هزینه مؤثر است."
|
919
925
|
},
|
@@ -1571,9 +1577,6 @@
|
|
1571
1577
|
"openai/o1-preview": {
|
1572
1578
|
"description": "o1 مدل جدید استنتاج OpenAI است که برای وظایف پیچیدهای که به دانش عمومی گسترده نیاز دارند، مناسب است. این مدل دارای 128K زمینه و تاریخ قطع دانش تا اکتبر 2023 است."
|
1573
1579
|
},
|
1574
|
-
"openchat/openchat-7b": {
|
1575
|
-
"description": "OpenChat 7B یک کتابخانه مدل زبان متنباز است که با استفاده از استراتژی «C-RLFT (تنظیم دقیق یادگیری تقویتی شرطی)» بهطور خاص تنظیم شده است."
|
1576
|
-
},
|
1577
1580
|
"openrouter/auto": {
|
1578
1581
|
"description": "با توجه به طول متن، موضوع و پیچیدگی، درخواست شما به Llama 3 70B Instruct، Claude 3.5 Sonnet (تنظیم خودکار) یا GPT-4o ارسال خواهد شد."
|
1579
1582
|
},
|
@@ -1595,7 +1598,7 @@
|
|
1595
1598
|
"qvq-72b-preview": {
|
1596
1599
|
"description": "مدل QVQ یک مدل تحقیقاتی تجربی است که توسط تیم Qwen توسعه یافته و بر بهبود توانایی استدلال بصری، بهویژه در زمینه استدلال ریاضی تمرکز دارد."
|
1597
1600
|
},
|
1598
|
-
"qvq-max
|
1601
|
+
"qvq-max": {
|
1599
1602
|
"description": "مدل استدلال بصری QVQ با قابلیت ورودی بصری و خروجی زنجیره تفکر، در ریاضیات، برنامهنویسی، تحلیل بصری، خلاقیت و وظایف عمومی عملکرد بهتری از خود نشان داده است."
|
1600
1603
|
},
|
1601
1604
|
"qwen-coder-plus-latest": {
|
package/locales/fa-IR/tool.json
CHANGED
@@ -19,8 +19,28 @@
|
|
19
19
|
"placeholder": "کلمات کلیدی",
|
20
20
|
"tooltip": "نتایج جستجو دوباره دریافت خواهد شد و یک پیام خلاصه جدید ایجاد خواهد شد"
|
21
21
|
},
|
22
|
-
"
|
22
|
+
"searchCategory": {
|
23
|
+
"placeholder": "جستجوی دسته",
|
24
|
+
"title": "دسته جستجو:",
|
25
|
+
"value": {
|
26
|
+
"files": "فایلها",
|
27
|
+
"general": "عمومی",
|
28
|
+
"images": "تصاویر",
|
29
|
+
"it": "فناوری اطلاعات",
|
30
|
+
"map": "نقشه",
|
31
|
+
"music": "موسیقی",
|
32
|
+
"news": "اخبار",
|
33
|
+
"science": "علم",
|
34
|
+
"social_media": "رسانههای اجتماعی",
|
35
|
+
"videos": "ویدیوها"
|
36
|
+
}
|
37
|
+
},
|
38
|
+
"searchEngine": {
|
39
|
+
"placeholder": "موتور جستجو",
|
40
|
+
"title": "موتور جستجو:"
|
41
|
+
},
|
23
42
|
"searchResult": "تعداد جستجو:",
|
43
|
+
"searchTimeRange": "محدوده زمانی:",
|
24
44
|
"summary": "خلاصه",
|
25
45
|
"summaryTooltip": "خلاصه محتوای فعلی",
|
26
46
|
"viewMoreResults": "مشاهده {{results}} نتیجه بیشتر"
|
@@ -91,6 +91,10 @@
|
|
91
91
|
"provider": "Fournisseur"
|
92
92
|
},
|
93
93
|
"OllamaSetupGuide": {
|
94
|
+
"action": {
|
95
|
+
"close": "Fermer l'invite",
|
96
|
+
"start": "Installé et en cours d'exécution, commencer la conversation"
|
97
|
+
},
|
94
98
|
"cors": {
|
95
99
|
"description": "En raison des restrictions de sécurité des navigateurs, vous devez configurer les paramètres CORS pour utiliser Ollama correctement.",
|
96
100
|
"linux": {
|
@@ -164,6 +164,7 @@
|
|
164
164
|
},
|
165
165
|
"download": {
|
166
166
|
"desc": "Ollama est en train de télécharger ce modèle, veuillez essayer de ne pas fermer cette page. Le téléchargement reprendra à l'endroit où il a été interrompu.",
|
167
|
+
"failed": "Échec du téléchargement du modèle, veuillez vérifier votre connexion réseau ou les paramètres d'Ollama, puis réessayez",
|
167
168
|
"remainingTime": "Temps restant",
|
168
169
|
"speed": "Vitesse de téléchargement",
|
169
170
|
"title": "Téléchargement du modèle {{model}} en cours"
|
@@ -842,6 +842,9 @@
|
|
842
842
|
"ernie-tiny-8k": {
|
843
843
|
"description": "ERNIE Tiny est un modèle de langage à très haute performance développé par Baidu, avec les coûts de déploiement et d'affinage les plus bas parmi les modèles de la série Wenxin."
|
844
844
|
},
|
845
|
+
"ernie-x1-32k-preview": {
|
846
|
+
"description": "Le grand modèle Wenxin X1 possède des capacités de compréhension, de planification, de réflexion et d'évolution plus fortes. En tant que modèle de pensée profonde plus complet, Wenxin X1 allie précision, créativité et éloquence, se distinguant particulièrement dans les domaines des questions-réponses en chinois, de la création littéraire, de la rédaction de documents, des dialogues quotidiens, du raisonnement logique, des calculs complexes et de l'appel d'outils."
|
847
|
+
},
|
845
848
|
"gemini-1.0-pro-001": {
|
846
849
|
"description": "Gemini 1.0 Pro 001 (Ajustement) offre des performances stables et ajustables, ce qui en fait un choix idéal pour des solutions de tâches complexes."
|
847
850
|
},
|
@@ -914,6 +917,9 @@
|
|
914
917
|
"gemini-2.5-pro-exp-03-25": {
|
915
918
|
"description": "Gemini 2.5 Pro Experimental est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et dans les domaines STEM, tout en utilisant un long contexte pour analyser de grands ensembles de données, des bibliothèques de code et des documents."
|
916
919
|
},
|
920
|
+
"gemini-2.5-pro-preview-03-25": {
|
921
|
+
"description": "Gemini 2.5 Pro Preview est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d'analyser de grands ensembles de données, bibliothèques de code et documents en utilisant un long contexte."
|
922
|
+
},
|
917
923
|
"gemma-7b-it": {
|
918
924
|
"description": "Gemma 7B est adapté au traitement de tâches de taille moyenne, alliant coût et efficacité."
|
919
925
|
},
|
@@ -1571,9 +1577,6 @@
|
|
1571
1577
|
"openai/o1-preview": {
|
1572
1578
|
"description": "o1 est le nouveau modèle de raisonnement d'OpenAI, adapté aux tâches complexes nécessitant une vaste connaissance générale. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
|
1573
1579
|
},
|
1574
|
-
"openchat/openchat-7b": {
|
1575
|
-
"description": "OpenChat 7B est une bibliothèque de modèles linguistiques open source, affinée par la stratégie de 'C-RLFT (Conditionnal Reinforcement Learning Fine-Tuning)'."
|
1576
|
-
},
|
1577
1580
|
"openrouter/auto": {
|
1578
1581
|
"description": "En fonction de la longueur du contexte, du sujet et de la complexité, votre demande sera envoyée à Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-régulé) ou GPT-4o."
|
1579
1582
|
},
|
@@ -1595,8 +1598,8 @@
|
|
1595
1598
|
"qvq-72b-preview": {
|
1596
1599
|
"description": "Le modèle QVQ est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement visuel, en particulier dans le domaine du raisonnement mathématique."
|
1597
1600
|
},
|
1598
|
-
"qvq-max
|
1599
|
-
"description": "Le modèle de raisonnement visuel QVQ de Tongyi Qianwen prend en charge les entrées visuelles et les sorties de chaînes de pensée, montrant
|
1601
|
+
"qvq-max": {
|
1602
|
+
"description": "Le modèle de raisonnement visuel QVQ de Tongyi Qianwen prend en charge les entrées visuelles et les sorties de chaînes de pensée, montrant des capacités supérieures dans les domaines des mathématiques, de la programmation, de l'analyse visuelle, de la création et des tâches générales."
|
1600
1603
|
},
|
1601
1604
|
"qwen-coder-plus-latest": {
|
1602
1605
|
"description": "Modèle de code Qwen universel."
|