@lobehub/chat 1.77.16 → 1.77.17

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (100) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/docker-compose/local/docker-compose.yml +2 -1
  4. package/locales/ar/components.json +4 -0
  5. package/locales/ar/modelProvider.json +1 -0
  6. package/locales/ar/models.json +8 -5
  7. package/locales/bg-BG/components.json +4 -0
  8. package/locales/bg-BG/modelProvider.json +1 -0
  9. package/locales/bg-BG/models.json +8 -5
  10. package/locales/de-DE/components.json +4 -0
  11. package/locales/de-DE/modelProvider.json +1 -0
  12. package/locales/de-DE/models.json +8 -5
  13. package/locales/en-US/components.json +4 -0
  14. package/locales/en-US/modelProvider.json +1 -0
  15. package/locales/en-US/models.json +8 -5
  16. package/locales/es-ES/components.json +4 -0
  17. package/locales/es-ES/modelProvider.json +1 -0
  18. package/locales/es-ES/models.json +7 -4
  19. package/locales/fa-IR/components.json +4 -0
  20. package/locales/fa-IR/modelProvider.json +1 -0
  21. package/locales/fa-IR/models.json +7 -4
  22. package/locales/fr-FR/components.json +4 -0
  23. package/locales/fr-FR/modelProvider.json +1 -0
  24. package/locales/fr-FR/models.json +8 -5
  25. package/locales/it-IT/components.json +4 -0
  26. package/locales/it-IT/modelProvider.json +1 -0
  27. package/locales/it-IT/models.json +7 -4
  28. package/locales/ja-JP/components.json +4 -0
  29. package/locales/ja-JP/modelProvider.json +1 -0
  30. package/locales/ja-JP/models.json +8 -5
  31. package/locales/ko-KR/components.json +4 -0
  32. package/locales/ko-KR/modelProvider.json +1 -0
  33. package/locales/ko-KR/models.json +8 -5
  34. package/locales/nl-NL/components.json +4 -0
  35. package/locales/nl-NL/modelProvider.json +1 -0
  36. package/locales/nl-NL/models.json +8 -5
  37. package/locales/pl-PL/components.json +4 -0
  38. package/locales/pl-PL/modelProvider.json +1 -0
  39. package/locales/pl-PL/models.json +8 -5
  40. package/locales/pt-BR/components.json +4 -0
  41. package/locales/pt-BR/modelProvider.json +1 -0
  42. package/locales/pt-BR/models.json +7 -4
  43. package/locales/ru-RU/components.json +4 -0
  44. package/locales/ru-RU/modelProvider.json +1 -0
  45. package/locales/ru-RU/models.json +7 -4
  46. package/locales/tr-TR/components.json +4 -0
  47. package/locales/tr-TR/modelProvider.json +1 -0
  48. package/locales/tr-TR/models.json +8 -5
  49. package/locales/vi-VN/components.json +4 -0
  50. package/locales/vi-VN/modelProvider.json +1 -0
  51. package/locales/vi-VN/models.json +8 -5
  52. package/locales/zh-CN/components.json +4 -0
  53. package/locales/zh-CN/modelProvider.json +1 -0
  54. package/locales/zh-CN/models.json +9 -6
  55. package/locales/zh-TW/components.json +4 -0
  56. package/locales/zh-TW/modelProvider.json +1 -0
  57. package/locales/zh-TW/models.json +7 -4
  58. package/package.json +1 -1
  59. package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +34 -0
  60. package/src/app/(backend)/webapi/{chat/models → models}/[provider]/route.ts +1 -2
  61. package/src/app/[variants]/(main)/settings/llm/ProviderList/Ollama/index.tsx +0 -7
  62. package/src/app/[variants]/(main)/settings/provider/(detail)/ollama/CheckError.tsx +1 -1
  63. package/src/components/FormAction/index.tsx +1 -1
  64. package/src/database/models/__tests__/aiProvider.test.ts +100 -0
  65. package/src/database/models/aiProvider.ts +11 -1
  66. package/src/features/Conversation/Error/OllamaBizError/InvalidOllamaModel.tsx +43 -0
  67. package/src/features/Conversation/Error/OllamaDesktopSetupGuide/index.tsx +61 -0
  68. package/src/features/Conversation/Error/index.tsx +7 -0
  69. package/src/features/DevPanel/SystemInspector/ServerConfig.tsx +18 -2
  70. package/src/features/DevPanel/SystemInspector/index.tsx +25 -6
  71. package/src/features/OllamaModelDownloader/index.tsx +149 -0
  72. package/src/libs/agent-runtime/AgentRuntime.ts +6 -0
  73. package/src/libs/agent-runtime/BaseAI.ts +7 -0
  74. package/src/libs/agent-runtime/ollama/index.ts +84 -2
  75. package/src/libs/agent-runtime/openrouter/__snapshots__/index.test.ts.snap +24 -3263
  76. package/src/libs/agent-runtime/openrouter/fixtures/frontendModels.json +25 -0
  77. package/src/libs/agent-runtime/openrouter/fixtures/models.json +0 -3353
  78. package/src/libs/agent-runtime/openrouter/index.test.ts +56 -1
  79. package/src/libs/agent-runtime/openrouter/index.ts +9 -4
  80. package/src/libs/agent-runtime/types/index.ts +1 -0
  81. package/src/libs/agent-runtime/types/model.ts +44 -0
  82. package/src/libs/agent-runtime/utils/streams/index.ts +1 -0
  83. package/src/libs/agent-runtime/utils/streams/model.ts +110 -0
  84. package/src/locales/default/components.ts +4 -0
  85. package/src/locales/default/modelProvider.ts +1 -0
  86. package/src/services/__tests__/models.test.ts +21 -0
  87. package/src/services/_url.ts +4 -1
  88. package/src/services/chat.ts +1 -1
  89. package/src/services/models.ts +153 -7
  90. package/src/store/aiInfra/slices/aiModel/action.ts +1 -1
  91. package/src/store/aiInfra/slices/aiProvider/action.ts +2 -1
  92. package/src/store/user/slices/modelList/action.test.ts +2 -2
  93. package/src/store/user/slices/modelList/action.ts +1 -1
  94. package/src/app/[variants]/(main)/settings/llm/ProviderList/Ollama/Checker.tsx +0 -73
  95. package/src/app/[variants]/(main)/settings/provider/(detail)/ollama/OllamaModelDownloader/index.tsx +0 -127
  96. package/src/features/Conversation/Error/OllamaBizError/InvalidOllamaModel/index.tsx +0 -154
  97. package/src/features/Conversation/Error/OllamaBizError/InvalidOllamaModel/useDownloadMonitor.ts +0 -29
  98. package/src/services/__tests__/ollama.test.ts +0 -28
  99. package/src/services/ollama.ts +0 -83
  100. /package/src/{app/[variants]/(main)/settings/provider/(detail)/ollama → features}/OllamaModelDownloader/useDownloadMonitor.ts +0 -0
package/CHANGELOG.md CHANGED
@@ -2,6 +2,31 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.77.17](https://github.com/lobehub/lobe-chat/compare/v1.77.16...v1.77.17)
6
+
7
+ <sup>Released on **2025-04-08**</sup>
8
+
9
+ #### 🐛 Bug Fixes
10
+
11
+ - **misc**: Refactor ollama pull flow and model service.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### What's fixed
19
+
20
+ - **misc**: Refactor ollama pull flow and model service, closes [#7330](https://github.com/lobehub/lobe-chat/issues/7330) ([44d63b8](https://github.com/lobehub/lobe-chat/commit/44d63b8))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
5
30
  ### [Version 1.77.16](https://github.com/lobehub/lobe-chat/compare/v1.77.15...v1.77.16)
6
31
 
7
32
  <sup>Released on **2025-04-06**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,13 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "fixes": [
5
+ "Refactor ollama pull flow and model service."
6
+ ]
7
+ },
8
+ "date": "2025-04-08",
9
+ "version": "1.77.17"
10
+ },
2
11
  {
3
12
  "children": {
4
13
  "improvements": [
@@ -58,8 +58,9 @@ services:
58
58
  wait \$MINIO_PID
59
59
  "
60
60
 
61
+ # version lock ref: https://github.com/lobehub/lobe-chat/pull/7331
61
62
  casdoor:
62
- image: casbin/casdoor
63
+ image: casbin/casdoor:v1.843.0
63
64
  container_name: lobe-casdoor
64
65
  entrypoint: /bin/sh -c './server --createDatabase=true'
65
66
  network_mode: 'service:network-service'
@@ -91,6 +91,10 @@
91
91
  "provider": "مزود"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "إغلاق الإشعار",
96
+ "start": "تم التثبيت والتشغيل، ابدأ المحادثة"
97
+ },
94
98
  "cors": {
95
99
  "description": "بسبب قيود أمان المتصفح، تحتاج إلى تكوين CORS لـ Ollama لاستخدامه بشكل صحيح.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "أولاما يقوم بتنزيل هذا النموذج، يرجى عدم إغلاق هذه الصفحة إذا أمكن. سيتم استئناف التنزيل من النقطة التي تم قطعها عند إعادة التحميل",
167
+ "failed": "فشل تحميل النموذج، يرجى التحقق من الشبكة أو إعدادات Ollama ثم إعادة المحاولة",
167
168
  "remainingTime": "الوقت المتبقي",
168
169
  "speed": "سرعة التنزيل",
169
170
  "title": "جارٍ تنزيل النموذج {{model}} "
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny هو نموذج اللغة الكبير عالي الأداء الذي طورته بايدو، وتكاليف النشر والتعديل هي الأدنى بين نماذج سلسلة Wenxin."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "نموذج Ernie X1 الكبير يتمتع بقدرات أقوى في الفهم، التخطيط، التفكير النقدي، والتطور. كنموذج تفكير عميق أكثر شمولاً، يجمع Ernie X1 بين الدقة، الإبداع، والبلاغة، ويتميز بشكل خاص في أسئلة المعرفة باللغة الصينية، الإبداع الأدبي، كتابة النصوص، المحادثات اليومية، الاستدلال المنطقي، الحسابات المعقدة، واستدعاء الأدوات."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (تعديل) يوفر أداءً مستقرًا وقابلًا للتعديل، وهو الخيار المثالي لحلول المهام المعقدة."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "نموذج Gemini 2.5 Pro التجريبي هو الأكثر تقدمًا من Google، قادر على استنتاج المشكلات المعقدة في البرمجة والرياضيات وعلوم STEM، بالإضافة إلى تحليل مجموعات البيانات الكبيرة ومكتبات الشيفرات والمستندات باستخدام سياقات طويلة."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "معاينة Gemini 2.5 Pro هي نموذج التفكير الأكثر تقدمًا من Google، قادر على الاستدلال حول الشيفرات، الرياضيات، والمشكلات المعقدة في مجالات STEM، بالإضافة إلى تحليل مجموعات البيانات الكبيرة، مكتبات الشيفرات، والمستندات باستخدام سياقات طويلة."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B مناسب لمعالجة المهام المتوسطة والصغيرة، ويجمع بين الكفاءة من حيث التكلفة."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1 هو نموذج استدلال جديد من OpenAI، مناسب للمهام المعقدة التي تتطلب معرفة عامة واسعة. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B هو مكتبة نماذج لغوية مفتوحة المصدر تم تحسينها باستخدام استراتيجية \"C-RLFT (تعزيز التعلم الشرطي)\"."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "استنادًا إلى طول السياق، والموضوع، والتعقيد، سيتم إرسال طلبك إلى Llama 3 70B Instruct، أو Claude 3.5 Sonnet (التعديل الذاتي) أو GPT-4o."
1579
1582
  },
@@ -1595,8 +1598,8 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "نموذج QVQ هو نموذج بحث تجريبي تم تطويره بواسطة فريق Qwen، يركز على تعزيز قدرات الاستدلال البصري، خاصة في مجال الاستدلال الرياضي."
1597
1600
  },
1598
- "qvq-max-latest": {
1599
- "description": "نموذج الاستدلال البصري QVQ، يدعم الإدخال البصري وإخراج سلسلة التفكير، وقد أظهر قدرات أقوى في الرياضيات، البرمجة، التحليل البصري، الإبداع، والمهام العامة."
1601
+ "qvq-max": {
1602
+ "description": "نموذج الاستدلال البصري QVQ من Tongyi Qianwen يدعم الإدخال البصري وإخراج سلسلة التفكير، وقد أظهر قدرات أقوى في الرياضيات، البرمجة، التحليل البصري، الإبداع، والمهام العامة."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
1602
1605
  "description": "نموذج كود Qwen الشامل."
@@ -91,6 +91,10 @@
91
91
  "provider": "Доставчик"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "Затвори提示",
96
+ "start": "Инсталирано и работи, започни разговора"
97
+ },
94
98
  "cors": {
95
99
  "description": "Поради ограниченията на сигурността на браузъра, трябва да конфигурирате крос-домейн достъп за Ollama, за да можете да го използвате нормално.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama изтегля този модел, моля, не затваряйте тази страница. При повторно изтегляне ще продължи от мястото, на което е прекъснато",
167
+ "failed": "Изтеглянето на модела не успя, моля проверете мрежата или настройките на Ollama и опитайте отново",
167
168
  "remainingTime": "Оставащо време",
168
169
  "speed": "Скорост на изтегляне",
169
170
  "title": "Изтегляне на модел {{model}} "
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny е модел с изключителна производителност, разработен от Baidu, с най-ниски разходи за внедряване и фина настройка сред моделите от серията Wenxin."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "Моделът Wenxin X1 притежава по-силни способности за разбиране, планиране, размисъл и еволюция. Като модел за дълбоко мислене с по-широки възможности, Wenxin X1 съчетава точност, креативност и изящество, особено в области като китайски знания и отговори, литературно творчество, писане на документи, ежедневни разговори, логическо разсъждение, сложни изчисления и извикване на инструменти."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Тунинг) предлага стабилна и настройваема производителност, идеален избор за решения на сложни задачи."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro Experimental е най-напредналият модел на мислене на Google, способен да разсъждава по сложни проблеми в код, математика и STEM области, както и да анализира големи набори от данни, кодови библиотеки и документи, използвайки дълъг контекст."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Preview е най-напредналият модел на Google за мислене, способен да разсъждава по сложни проблеми в кодиране, математика и STEM области, както и да анализира големи набори от данни, кодови библиотеки и документи с дълъг контекст."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B е подходяща за обработка на средни и малки задачи, съчетаваща икономичност."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1 е новият модел за изводи на OpenAI, подходящ за сложни задачи, изискващи обширни общи знания. Моделът разполага с контекст от 128K и дата на знание до октомври 2023."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B е отворен езиков модел, прецизно настроен с помощта на стратегията „C-RLFT (условно подсилващо обучение)“."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "В зависимост от дължината на контекста, темата и сложността, вашето запитване ще бъде изпратено до Llama 3 70B Instruct, Claude 3.5 Sonnet (саморегулиращ) или GPT-4o."
1579
1582
  },
@@ -1595,8 +1598,8 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "QVQ моделът е експериментален изследователски модел, разработен от екипа на Qwen, фокусиран върху повишаване на визуалните способности за разсъждение, особено в областта на математическото разсъждение."
1597
1600
  },
1598
- "qvq-max-latest": {
1599
- "description": "Моделът за визуално разсъждение QVQ на Tongyi Qianwen поддържа визуален вход и изход на мисловни вериги, демонстрирайки по-силни способности в математика, програмиране, визуален анализ, творчество и общи задачи."
1601
+ "qvq-max": {
1602
+ "description": "Моделът за визуално разсъждение QVQ на Tongyi поддържа визуален вход и изход на мисловни вериги, демонстрирайки по-силни способности в математика, програмиране, визуален анализ, творчество и общи задачи."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
1602
1605
  "description": "Модел за кодиране Qwen с общо предназначение."
@@ -91,6 +91,10 @@
91
91
  "provider": "Anbieter"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "Hinweis schließen",
96
+ "start": "Installiert und ausgeführt, beginnen Sie das Gespräch"
97
+ },
94
98
  "cors": {
95
99
  "description": "Aufgrund von Sicherheitsbeschränkungen im Browser müssen Sie CORS für Ollama konfigurieren, um es ordnungsgemäß nutzen zu können.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama lädt dieses Modell herunter. Bitte schließen Sie diese Seite nicht. Ein erneuter Download wird an der unterbrochenen Stelle fortgesetzt.",
167
+ "failed": "Der Download des Modells ist fehlgeschlagen. Bitte überprüfen Sie Ihre Netzwerkverbindung oder die Ollama-Einstellungen und versuchen Sie es erneut.",
167
168
  "remainingTime": "Verbleibende Zeit",
168
169
  "speed": "Downloadgeschwindigkeit",
169
170
  "title": "Lade Modell {{model}} herunter"
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny ist ein hochleistungsfähiges großes Sprachmodell, dessen Bereitstellungs- und Feinabstimmungskosten die niedrigsten unter den Wenshin-Modellen sind."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "Das große Modell ERNIE X1 verfügt über verbesserte Fähigkeiten in Verständnis, Planung, Reflexion und Evolution. Als umfassenderes tiefes Denkmodell kombiniert ERNIE X1 Genauigkeit, Kreativität und Ausdruckskraft und zeigt herausragende Leistungen in den Bereichen chinesische Wissensabfragen, literarisches Schaffen, Textverfassung, alltägliche Gespräche, logisches Denken, komplexe Berechnungen und Werkzeugnutzung."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Tuning) bietet stabile und anpassbare Leistung und ist die ideale Wahl für Lösungen komplexer Aufgaben."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro Experimental ist Googles fortschrittlichstes Denkmodell, das in der Lage ist, komplexe Probleme in den Bereichen Code, Mathematik und STEM zu analysieren. Es kann auch lange Kontexte nutzen, um große Datensätze, Codebasen und Dokumente zu analysieren."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Denkmodell, das in der Lage ist, komplexe Probleme in den Bereichen Code, Mathematik und STEM zu analysieren sowie große Datensätze, Codebasen und Dokumente mithilfe von langen Kontextanalysen zu verarbeiten."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B eignet sich für die Verarbeitung von mittelgroßen Aufgaben und bietet ein gutes Kosten-Nutzen-Verhältnis."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1 ist OpenAIs neues Inferenzmodell, das für komplexe Aufgaben geeignet ist, die umfangreiches Allgemeinwissen erfordern. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B ist eine Open-Source-Sprachmodellbibliothek, die mit der Strategie „C-RLFT (Conditional Reinforcement Learning Fine-Tuning)“ optimiert wurde."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "Je nach Kontextlänge, Thema und Komplexität wird Ihre Anfrage an Llama 3 70B Instruct, Claude 3.5 Sonnet (selbstregulierend) oder GPT-4o gesendet."
1579
1582
  },
@@ -1595,8 +1598,8 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "Das QVQ-Modell ist ein experimentelles Forschungsmodell, das vom Qwen-Team entwickelt wurde und sich auf die Verbesserung der visuellen Schlussfolgerungsfähigkeiten konzentriert, insbesondere im Bereich der mathematischen Schlussfolgerungen."
1597
1600
  },
1598
- "qvq-max-latest": {
1599
- "description": "Das QVQ-Vision-Reasoning-Modell von Tongyi Qianwen unterstützt visuelle Eingaben und Denkketten-Ausgaben und zeigt in Mathematik, Programmierung, visueller Analyse, Kreativität und allgemeinen Aufgaben eine stärkere Leistungsfähigkeit."
1601
+ "qvq-max": {
1602
+ "description": "Das universelle QVQ-Visionsmodell unterstützt visuelle Eingaben und Denkkettenausgaben und zeigt in Mathematik, Programmierung, visueller Analyse, Kreativität und allgemeinen Aufgaben verbesserte Fähigkeiten."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
1602
1605
  "description": "Tongyi Qianwen Code-Modell."
@@ -91,6 +91,10 @@
91
91
  "provider": "Provider"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "Close Prompt",
96
+ "start": "Installed and running, start the conversation"
97
+ },
94
98
  "cors": {
95
99
  "description": "Due to browser security restrictions, you need to configure cross-origin settings for Ollama to function properly.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama is downloading the model. Please try not to close this page. The download will resume from where it left off if interrupted.",
167
+ "failed": "Model download failed. Please check your network or Ollama settings and try again.",
167
168
  "remainingTime": "Remaining Time",
168
169
  "speed": "Speed",
169
170
  "title": "Downloading model {{model}}"
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny is Baidu's ultra-high-performance large language model, with the lowest deployment and fine-tuning costs among the Wenxin series models."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "The ERNIE X1 model possesses stronger understanding, planning, reflection, and evolution capabilities. As a more comprehensive deep thinking model, ERNIE X1 excels in accuracy, creativity, and eloquence, particularly in Chinese knowledge Q&A, literary creation, document writing, daily conversation, logical reasoning, complex calculations, and tool invocation."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Tuning) offers stable and tunable performance, making it an ideal choice for complex task solutions."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro Experimental is Google's most advanced thinking model, capable of reasoning about complex problems in code, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using long context."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Preview is Google's most advanced thinking model, capable of reasoning about complex problems in code, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using long-context analysis."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B is suitable for medium to small-scale task processing, offering cost-effectiveness."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1 is OpenAI's new reasoning model, suitable for complex tasks that require extensive general knowledge. This model features a 128K context and has a knowledge cutoff date of October 2023."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B is an open-source language model library fine-tuned using the 'C-RLFT (Conditional Reinforcement Learning Fine-Tuning)' strategy."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "Based on context length, topic, and complexity, your request will be sent to Llama 3 70B Instruct, Claude 3.5 Sonnet (self-regulating), or GPT-4o."
1579
1582
  },
@@ -1595,8 +1598,8 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "The QVQ model is an experimental research model developed by the Qwen team, focusing on enhancing visual reasoning capabilities, particularly in the field of mathematical reasoning."
1597
1600
  },
1598
- "qvq-max-latest": {
1599
- "description": "The Tongyi Qianwen QVQ visual reasoning model supports visual input and chain-of-thought output, demonstrating enhanced capabilities in mathematics, programming, visual analysis, creative tasks, and general tasks."
1601
+ "qvq-max": {
1602
+ "description": "The QVQ Visual Reasoning Model supports visual input and chain-of-thought output, demonstrating enhanced capabilities in mathematics, programming, visual analysis, creative tasks, and general tasks."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
1602
1605
  "description": "Tongyi Qianwen code model."
@@ -91,6 +91,10 @@
91
91
  "provider": "Proveedor"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "Cerrar aviso",
96
+ "start": "Instalado y en funcionamiento, comenzar conversación"
97
+ },
94
98
  "cors": {
95
99
  "description": "Debido a las restricciones de seguridad del navegador, necesitas configurar CORS para Ollama antes de poder usarlo correctamente.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama está descargando este modelo, por favor intenta no cerrar esta página. La descarga se reanudará desde donde se interrumpió",
167
+ "failed": "La descarga del modelo ha fallado, por favor verifica la red o la configuración de Ollama y vuelve a intentarlo",
167
168
  "remainingTime": "Tiempo restante",
168
169
  "speed": "Velocidad de descarga",
169
170
  "title": "Descargando el modelo {{model}} "
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny es un modelo de lenguaje grande de alto rendimiento desarrollado internamente por Baidu, con los costos de implementación y ajuste más bajos entre los modelos de la serie Wenxin."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "El modelo grande Wenxin X1 posee una mayor capacidad de comprensión, planificación, reflexión y evolución. Como un modelo de pensamiento profundo más completo, Wenxin X1 combina precisión, creatividad y elocuencia, destacándose especialmente en preguntas y respuestas de conocimiento en chino, creación literaria, redacción de documentos, diálogos cotidianos, razonamiento lógico, cálculos complejos y llamadas a herramientas."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Ajuste) ofrece un rendimiento estable y ajustable, siendo una opción ideal para soluciones de tareas complejas."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro Experimental es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y campos STEM, además de utilizar contextos largos para analizar grandes conjuntos de datos, bibliotecas de código y documentos."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Preview es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y campos STEM, así como de analizar grandes conjuntos de datos, bibliotecas de código y documentos utilizando un contexto largo."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B es adecuado para el procesamiento de tareas de pequeña y mediana escala, combinando rentabilidad."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1 es el nuevo modelo de inferencia de OpenAI, adecuado para tareas complejas que requieren un amplio conocimiento general. Este modelo tiene un contexto de 128K y una fecha de corte de conocimiento en octubre de 2023."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B es una biblioteca de modelos de lenguaje de código abierto ajustada mediante la estrategia de 'C-RLFT (ajuste fino de refuerzo condicional)'."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "Según la longitud del contexto, el tema y la complejidad, tu solicitud se enviará a Llama 3 70B Instruct, Claude 3.5 Sonnet (autoajuste) o GPT-4o."
1579
1582
  },
@@ -1595,7 +1598,7 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "El modelo QVQ es un modelo de investigación experimental desarrollado por el equipo de Qwen, enfocado en mejorar la capacidad de razonamiento visual, especialmente en el ámbito del razonamiento matemático."
1597
1600
  },
1598
- "qvq-max-latest": {
1601
+ "qvq-max": {
1599
1602
  "description": "El modelo de razonamiento visual QVQ de Tongyi Qianwen admite entradas visuales y salidas de cadena de pensamiento, mostrando una mayor capacidad en matemáticas, programación, análisis visual, creación y tareas generales."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
@@ -91,6 +91,10 @@
91
91
  "provider": "ارائه‌دهنده"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "بستن پیام",
96
+ "start": "نصب و راه‌اندازی شده، شروع به گفتگو"
97
+ },
94
98
  "cors": {
95
99
  "description": "به دلیل محدودیت‌های امنیتی مرورگر، شما باید تنظیمات跨域 برای Ollama را انجام دهید تا بتوانید به درستی از آن استفاده کنید.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama در حال دانلود این مدل است، لطفاً تا حد امکان این صفحه را نبندید. در صورت دانلود مجدد، از نقطه قطع شده ادامه خواهد یافت",
167
+ "failed": "دانلود مدل ناموفق بود، لطفاً شبکه یا تنظیمات Ollama را بررسی کرده و دوباره تلاش کنید",
167
168
  "remainingTime": "زمان باقی‌مانده",
168
169
  "speed": "سرعت دانلود",
169
170
  "title": "در حال دانلود مدل {{model}} "
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny مدل زبان بزرگ با عملکرد فوق‌العاده بالا است که هزینه‌های استقرار و تنظیم آن در بین مدل‌های سری Wenxin کمترین است."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "مدل بزرگ ERNIE X1 دارای توانایی‌های قوی‌تری در درک، برنامه‌ریزی، تفکر و تکامل است. به عنوان یک مدل تفکر عمیق با قابلیت‌های جامع‌تر، ERNIE X1 دقت، خلاقیت و بلاغت را در زمینه‌های پرسش و پاسخ دانش چینی، خلق ادبیات، نوشتن متون، گفتگوهای روزمره، استدلال منطقی، محاسبات پیچیده و فراخوانی ابزارها به نمایش می‌گذارد."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (تنظیم) عملکردی پایدار و قابل تنظیم ارائه می‌دهد و انتخابی ایده‌آل برای راه‌حل‌های وظایف پیچیده است."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro Experimental پیشرفته‌ترین مدل تفکر گوگل است که قادر به استدلال در مورد مسائل پیچیده در زمینه‌های کد، ریاضیات و STEM می‌باشد و همچنین می‌تواند با استفاده از زمینه‌های طولانی، مجموعه‌های داده بزرگ، کتابخانه‌های کد و مستندات را تحلیل کند."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "پیش‌نمایش Gemini 2.5 Pro مدل پیشرفته تفکر گوگل است که قادر به استدلال در مورد کد، ریاضیات و مسائل پیچیده در زمینه STEM می‌باشد و همچنین می‌تواند با استفاده از تحلیل زمینه‌ای طولانی، مجموعه‌های داده بزرگ، کتابخانه‌های کد و مستندات را بررسی کند."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B برای پردازش وظایف کوچک و متوسط مناسب است و از نظر هزینه مؤثر است."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1 مدل جدید استنتاج OpenAI است که برای وظایف پیچیده‌ای که به دانش عمومی گسترده نیاز دارند، مناسب است. این مدل دارای 128K زمینه و تاریخ قطع دانش تا اکتبر 2023 است."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B یک کتابخانه مدل زبان متن‌باز است که با استفاده از استراتژی «C-RLFT (تنظیم دقیق یادگیری تقویتی شرطی)» به‌طور خاص تنظیم شده است."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "با توجه به طول متن، موضوع و پیچیدگی، درخواست شما به Llama 3 70B Instruct، Claude 3.5 Sonnet (تنظیم خودکار) یا GPT-4o ارسال خواهد شد."
1579
1582
  },
@@ -1595,7 +1598,7 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "مدل QVQ یک مدل تحقیقاتی تجربی است که توسط تیم Qwen توسعه یافته و بر بهبود توانایی استدلال بصری، به‌ویژه در زمینه استدلال ریاضی تمرکز دارد."
1597
1600
  },
1598
- "qvq-max-latest": {
1601
+ "qvq-max": {
1599
1602
  "description": "مدل استدلال بصری QVQ با قابلیت ورودی بصری و خروجی زنجیره تفکر، در ریاضیات، برنامه‌نویسی، تحلیل بصری، خلاقیت و وظایف عمومی عملکرد بهتری از خود نشان داده است."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
@@ -91,6 +91,10 @@
91
91
  "provider": "Fournisseur"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "Fermer l'invite",
96
+ "start": "Installé et en cours d'exécution, commencer la conversation"
97
+ },
94
98
  "cors": {
95
99
  "description": "En raison des restrictions de sécurité des navigateurs, vous devez configurer les paramètres CORS pour utiliser Ollama correctement.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama est en train de télécharger ce modèle, veuillez essayer de ne pas fermer cette page. Le téléchargement reprendra à l'endroit où il a été interrompu.",
167
+ "failed": "Échec du téléchargement du modèle, veuillez vérifier votre connexion réseau ou les paramètres d'Ollama, puis réessayez",
167
168
  "remainingTime": "Temps restant",
168
169
  "speed": "Vitesse de téléchargement",
169
170
  "title": "Téléchargement du modèle {{model}} en cours"
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny est un modèle de langage à très haute performance développé par Baidu, avec les coûts de déploiement et d'affinage les plus bas parmi les modèles de la série Wenxin."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "Le grand modèle Wenxin X1 possède des capacités de compréhension, de planification, de réflexion et d'évolution plus fortes. En tant que modèle de pensée profonde plus complet, Wenxin X1 allie précision, créativité et éloquence, se distinguant particulièrement dans les domaines des questions-réponses en chinois, de la création littéraire, de la rédaction de documents, des dialogues quotidiens, du raisonnement logique, des calculs complexes et de l'appel d'outils."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Ajustement) offre des performances stables et ajustables, ce qui en fait un choix idéal pour des solutions de tâches complexes."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro Experimental est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et dans les domaines STEM, tout en utilisant un long contexte pour analyser de grands ensembles de données, des bibliothèques de code et des documents."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Preview est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d'analyser de grands ensembles de données, bibliothèques de code et documents en utilisant un long contexte."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B est adapté au traitement de tâches de taille moyenne, alliant coût et efficacité."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1 est le nouveau modèle de raisonnement d'OpenAI, adapté aux tâches complexes nécessitant une vaste connaissance générale. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B est une bibliothèque de modèles linguistiques open source, affinée par la stratégie de 'C-RLFT (Conditionnal Reinforcement Learning Fine-Tuning)'."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "En fonction de la longueur du contexte, du sujet et de la complexité, votre demande sera envoyée à Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-régulé) ou GPT-4o."
1579
1582
  },
@@ -1595,8 +1598,8 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "Le modèle QVQ est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement visuel, en particulier dans le domaine du raisonnement mathématique."
1597
1600
  },
1598
- "qvq-max-latest": {
1599
- "description": "Le modèle de raisonnement visuel QVQ de Tongyi Qianwen prend en charge les entrées visuelles et les sorties de chaînes de pensée, montrant de meilleures capacités dans les domaines des mathématiques, de la programmation, de l'analyse visuelle, de la création et des tâches générales."
1601
+ "qvq-max": {
1602
+ "description": "Le modèle de raisonnement visuel QVQ de Tongyi Qianwen prend en charge les entrées visuelles et les sorties de chaînes de pensée, montrant des capacités supérieures dans les domaines des mathématiques, de la programmation, de l'analyse visuelle, de la création et des tâches générales."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
1602
1605
  "description": "Modèle de code Qwen universel."
@@ -91,6 +91,10 @@
91
91
  "provider": "Provider"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "Chiudi avviso",
96
+ "start": "Installato e in esecuzione, inizia la conversazione"
97
+ },
94
98
  "cors": {
95
99
  "description": "A causa delle restrizioni di sicurezza del browser, è necessario configurare il cross-origin per utilizzare Ollama correttamente.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama sta scaricando questo modello, per favore non chiudere questa pagina. Il download verrà interrotto e riprenderà dal punto in cui si è interrotto in caso di riavvio.",
167
+ "failed": "Download del modello fallito, controlla la rete o le impostazioni di Ollama e riprova",
167
168
  "remainingTime": "Tempo rimanente",
168
169
  "speed": "Velocità di download",
169
170
  "title": "Download del modello in corso {{model}}"
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny è un modello di linguaggio di grandi dimensioni ad alte prestazioni sviluppato internamente da Baidu, con i costi di distribuzione e messa a punto più bassi della serie Wencin."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "Il grande modello Wénxīn X1 possiede una comprensione, pianificazione, riflessione e capacità evolutive superiori. Come modello di pensiero profondo più completo, Wénxīn X1 combina precisione, creatività e stile, eccellendo in domande e risposte in cinese, creazione letteraria, scrittura di documenti, conversazioni quotidiane, ragionamento logico, calcoli complessi e invocazione di strumenti."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Tuning) offre prestazioni stabili e ottimizzabili, è la scelta ideale per soluzioni a compiti complessi."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro Experimental è il modello di pensiero più avanzato di Google, in grado di ragionare su problemi complessi in codice, matematica e nei campi STEM, e di analizzare grandi set di dati, codebase e documenti utilizzando contesti lunghi."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Preview è il modello di pensiero più avanzato di Google, in grado di ragionare su problemi complessi in codice, matematica e nei campi STEM, oltre a utilizzare analisi di lungo contesto per grandi set di dati, codici sorgente e documenti."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B è adatto per l'elaborazione di compiti di piccole e medie dimensioni, combinando efficienza dei costi."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1 è il nuovo modello di inferenza di OpenAI, adatto a compiti complessi che richiedono una vasta conoscenza generale. Questo modello ha un contesto di 128K e una data di cutoff della conoscenza di ottobre 2023."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B è una libreria di modelli linguistici open source, ottimizzata tramite la strategia di 'C-RLFT (fine-tuning di rinforzo condizionato)'."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "In base alla lunghezza del contesto, al tema e alla complessità, la tua richiesta verrà inviata a Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-regolato) o GPT-4o."
1579
1582
  },
@@ -1595,7 +1598,7 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "Il modello QVQ è un modello di ricerca sperimentale sviluppato dal team Qwen, focalizzato sul miglioramento delle capacità di ragionamento visivo, in particolare nel campo del ragionamento matematico."
1597
1600
  },
1598
- "qvq-max-latest": {
1601
+ "qvq-max": {
1599
1602
  "description": "Il modello di ragionamento visivo QVQ di Tongyi Qianwen supporta input visivi e output di catene di pensiero, dimostrando capacità superiori in matematica, programmazione, analisi visiva, creazione e compiti generali."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
@@ -91,6 +91,10 @@
91
91
  "provider": "プロバイダー"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "ヒントを閉じる",
96
+ "start": "インストールされ、実行中です。対話を開始します"
97
+ },
94
98
  "cors": {
95
99
  "description": "ブラウザのセキュリティ制限により、Ollamaを正常に使用するにはクロスオリジン設定が必要です。",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollamaはこのモデルをダウンロードしています。このページを閉じないでください。再ダウンロードすると中断したところから再開されます。",
167
+ "failed": "モデルのダウンロードに失敗しました。ネットワークまたはOllamaの設定を確認して再試行してください",
167
168
  "remainingTime": "残り時間",
168
169
  "speed": "ダウンロード速度",
169
170
  "title": "モデル{{model}}をダウンロード中"