@lobehub/chat 1.77.16 → 1.77.17

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (100) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/docker-compose/local/docker-compose.yml +2 -1
  4. package/locales/ar/components.json +4 -0
  5. package/locales/ar/modelProvider.json +1 -0
  6. package/locales/ar/models.json +8 -5
  7. package/locales/bg-BG/components.json +4 -0
  8. package/locales/bg-BG/modelProvider.json +1 -0
  9. package/locales/bg-BG/models.json +8 -5
  10. package/locales/de-DE/components.json +4 -0
  11. package/locales/de-DE/modelProvider.json +1 -0
  12. package/locales/de-DE/models.json +8 -5
  13. package/locales/en-US/components.json +4 -0
  14. package/locales/en-US/modelProvider.json +1 -0
  15. package/locales/en-US/models.json +8 -5
  16. package/locales/es-ES/components.json +4 -0
  17. package/locales/es-ES/modelProvider.json +1 -0
  18. package/locales/es-ES/models.json +7 -4
  19. package/locales/fa-IR/components.json +4 -0
  20. package/locales/fa-IR/modelProvider.json +1 -0
  21. package/locales/fa-IR/models.json +7 -4
  22. package/locales/fr-FR/components.json +4 -0
  23. package/locales/fr-FR/modelProvider.json +1 -0
  24. package/locales/fr-FR/models.json +8 -5
  25. package/locales/it-IT/components.json +4 -0
  26. package/locales/it-IT/modelProvider.json +1 -0
  27. package/locales/it-IT/models.json +7 -4
  28. package/locales/ja-JP/components.json +4 -0
  29. package/locales/ja-JP/modelProvider.json +1 -0
  30. package/locales/ja-JP/models.json +8 -5
  31. package/locales/ko-KR/components.json +4 -0
  32. package/locales/ko-KR/modelProvider.json +1 -0
  33. package/locales/ko-KR/models.json +8 -5
  34. package/locales/nl-NL/components.json +4 -0
  35. package/locales/nl-NL/modelProvider.json +1 -0
  36. package/locales/nl-NL/models.json +8 -5
  37. package/locales/pl-PL/components.json +4 -0
  38. package/locales/pl-PL/modelProvider.json +1 -0
  39. package/locales/pl-PL/models.json +8 -5
  40. package/locales/pt-BR/components.json +4 -0
  41. package/locales/pt-BR/modelProvider.json +1 -0
  42. package/locales/pt-BR/models.json +7 -4
  43. package/locales/ru-RU/components.json +4 -0
  44. package/locales/ru-RU/modelProvider.json +1 -0
  45. package/locales/ru-RU/models.json +7 -4
  46. package/locales/tr-TR/components.json +4 -0
  47. package/locales/tr-TR/modelProvider.json +1 -0
  48. package/locales/tr-TR/models.json +8 -5
  49. package/locales/vi-VN/components.json +4 -0
  50. package/locales/vi-VN/modelProvider.json +1 -0
  51. package/locales/vi-VN/models.json +8 -5
  52. package/locales/zh-CN/components.json +4 -0
  53. package/locales/zh-CN/modelProvider.json +1 -0
  54. package/locales/zh-CN/models.json +9 -6
  55. package/locales/zh-TW/components.json +4 -0
  56. package/locales/zh-TW/modelProvider.json +1 -0
  57. package/locales/zh-TW/models.json +7 -4
  58. package/package.json +1 -1
  59. package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +34 -0
  60. package/src/app/(backend)/webapi/{chat/models → models}/[provider]/route.ts +1 -2
  61. package/src/app/[variants]/(main)/settings/llm/ProviderList/Ollama/index.tsx +0 -7
  62. package/src/app/[variants]/(main)/settings/provider/(detail)/ollama/CheckError.tsx +1 -1
  63. package/src/components/FormAction/index.tsx +1 -1
  64. package/src/database/models/__tests__/aiProvider.test.ts +100 -0
  65. package/src/database/models/aiProvider.ts +11 -1
  66. package/src/features/Conversation/Error/OllamaBizError/InvalidOllamaModel.tsx +43 -0
  67. package/src/features/Conversation/Error/OllamaDesktopSetupGuide/index.tsx +61 -0
  68. package/src/features/Conversation/Error/index.tsx +7 -0
  69. package/src/features/DevPanel/SystemInspector/ServerConfig.tsx +18 -2
  70. package/src/features/DevPanel/SystemInspector/index.tsx +25 -6
  71. package/src/features/OllamaModelDownloader/index.tsx +149 -0
  72. package/src/libs/agent-runtime/AgentRuntime.ts +6 -0
  73. package/src/libs/agent-runtime/BaseAI.ts +7 -0
  74. package/src/libs/agent-runtime/ollama/index.ts +84 -2
  75. package/src/libs/agent-runtime/openrouter/__snapshots__/index.test.ts.snap +24 -3263
  76. package/src/libs/agent-runtime/openrouter/fixtures/frontendModels.json +25 -0
  77. package/src/libs/agent-runtime/openrouter/fixtures/models.json +0 -3353
  78. package/src/libs/agent-runtime/openrouter/index.test.ts +56 -1
  79. package/src/libs/agent-runtime/openrouter/index.ts +9 -4
  80. package/src/libs/agent-runtime/types/index.ts +1 -0
  81. package/src/libs/agent-runtime/types/model.ts +44 -0
  82. package/src/libs/agent-runtime/utils/streams/index.ts +1 -0
  83. package/src/libs/agent-runtime/utils/streams/model.ts +110 -0
  84. package/src/locales/default/components.ts +4 -0
  85. package/src/locales/default/modelProvider.ts +1 -0
  86. package/src/services/__tests__/models.test.ts +21 -0
  87. package/src/services/_url.ts +4 -1
  88. package/src/services/chat.ts +1 -1
  89. package/src/services/models.ts +153 -7
  90. package/src/store/aiInfra/slices/aiModel/action.ts +1 -1
  91. package/src/store/aiInfra/slices/aiProvider/action.ts +2 -1
  92. package/src/store/user/slices/modelList/action.test.ts +2 -2
  93. package/src/store/user/slices/modelList/action.ts +1 -1
  94. package/src/app/[variants]/(main)/settings/llm/ProviderList/Ollama/Checker.tsx +0 -73
  95. package/src/app/[variants]/(main)/settings/provider/(detail)/ollama/OllamaModelDownloader/index.tsx +0 -127
  96. package/src/features/Conversation/Error/OllamaBizError/InvalidOllamaModel/index.tsx +0 -154
  97. package/src/features/Conversation/Error/OllamaBizError/InvalidOllamaModel/useDownloadMonitor.ts +0 -29
  98. package/src/services/__tests__/ollama.test.ts +0 -28
  99. package/src/services/ollama.ts +0 -83
  100. /package/src/{app/[variants]/(main)/settings/provider/(detail)/ollama → features}/OllamaModelDownloader/useDownloadMonitor.ts +0 -0
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tinyは、百度が独自に開発した超高性能の大規模言語モデルで、文心シリーズモデルの中でデプロイと微調整コストが最も低いです。"
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "文心大モデルX1は、より強力な理解、計画、反省、進化の能力を備えています。より包括的な深い思考モデルとして、文心X1は正確さ、創造性、文才を兼ね備え、中国語の知識問答、文学創作、文書作成、日常会話、論理推論、複雑な計算、ツールの呼び出しなどの分野で特に優れたパフォーマンスを発揮します。"
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001(チューニング)は、安定した調整可能な性能を提供し、複雑なタスクのソリューションに理想的な選択肢です。"
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro Experimentalは、Googleの最先端の思考モデルであり、コード、数学、STEM分野の複雑な問題に対して推論を行うことができ、長いコンテキストを利用して大規模なデータセット、コードベース、文書を分析します。"
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Previewは、Googleの最先端の思考モデルであり、コード、数学、STEM分野の複雑な問題に対して推論を行い、長いコンテキストを使用して大規模なデータセット、コードベース、文書を分析することができます。"
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7Bは、中小規模のタスク処理に適しており、コスト効果を兼ね備えています。"
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1はOpenAIの新しい推論モデルで、広範な一般知識を必要とする複雑なタスクに適しています。このモデルは128Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。"
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7Bは「C-RLFT(条件強化学習微調整)」戦略で微調整されたオープンソース言語モデルライブラリです。"
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "コンテキストの長さ、テーマ、複雑さに応じて、あなたのリクエストはLlama 3 70B Instruct、Claude 3.5 Sonnet(自己調整)、またはGPT-4oに送信されます。"
1579
1582
  },
@@ -1595,8 +1598,8 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "QVQモデルはQwenチームによって開発された実験的研究モデルで、視覚推論能力の向上に特化しており、特に数学推論の分野で優れた性能を発揮。"
1597
1600
  },
1598
- "qvq-max-latest": {
1599
- "description": "通義千問QVQ視覚推論モデルは、視覚入力と思考連鎖出力をサポートし、数学、プログラミング、視覚分析、創作、一般的なタスクにおいてより強力な能力を発揮します。"
1601
+ "qvq-max": {
1602
+ "description": "通義千問QVQ視覚推論モデルは、視覚入力と思考の連鎖出力をサポートし、数学、プログラミング、視覚分析、創作、一般的なタスクにおいてより強力な能力を発揮します。"
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
1602
1605
  "description": "通義千問コードモデル。"
@@ -91,6 +91,10 @@
91
91
  "provider": "제공자"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "팝업 닫기",
96
+ "start": "설치 및 실행 완료, 대화 시작"
97
+ },
94
98
  "cors": {
95
99
  "description": "브라우저 보안 제한으로 인해 Ollama를 사용하기 위해서는 교차 출처 구성이 필요합니다.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama가 모델을 다운로드하고 있습니다. 이 페이지를 닫지 마세요. 다시 다운로드할 경우 중단된 지점에서 계속됩니다.",
167
+ "failed": "모델 다운로드에 실패했습니다. 네트워크 또는 Ollama 설정을 확인한 후 다시 시도해 주세요.",
167
168
  "remainingTime": "남은 시간",
168
169
  "speed": "다운로드 속도",
169
170
  "title": "모델 {{model}} 다운로드 중"
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny는 바이두가 자체 개발한 초고성능 대형 언어 모델로, 문신 시리즈 모델 중 배포 및 미세 조정 비용이 가장 낮습니다."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "문심 대모델 X1은 더 강력한 이해, 계획, 반성 및 진화 능력을 갖추고 있습니다. 보다 포괄적인 심층 사고 모델로서, 문심 X1은 정확성, 창의성 및 문체를 겸비하여 중국어 지식 질문 응답, 문학 창작, 문서 작성, 일상 대화, 논리 추론, 복잡한 계산 및 도구 호출 등에서 특히 뛰어난 성과를 보입니다."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Tuning)은 안정적이고 조정 가능한 성능을 제공하며, 복잡한 작업 솔루션의 이상적인 선택입니다."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro Experimental은 Google의 최첨단 사고 모델로, 코드, 수학 및 STEM 분야의 복잡한 문제를 추론할 수 있으며, 긴 문맥을 활용하여 대규모 데이터 세트, 코드베이스 및 문서를 분석할 수 있습니다."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Preview는 Google의 최첨단 사고 모델로, 코드, 수학 및 STEM 분야의 복잡한 문제를 추론하고 긴 맥락을 사용하여 대규모 데이터 세트, 코드베이스 및 문서를 분석할 수 있습니다."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B는 중소 규모 작업 처리에 적합하며, 비용 효과성을 갖추고 있습니다."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1은 OpenAI의 새로운 추론 모델로, 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B는 'C-RLFT(조건 강화 학습 미세 조정)' 전략으로 정교하게 조정된 오픈 소스 언어 모델 라이브러리입니다."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "요청은 컨텍스트 길이, 주제 및 복잡성에 따라 Llama 3 70B Instruct, Claude 3.5 Sonnet(자기 조정) 또는 GPT-4o로 전송됩니다."
1579
1582
  },
@@ -1595,8 +1598,8 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "QVQ 모델은 Qwen 팀이 개발한 실험적 연구 모델로, 시각적 추론 능력 향상에 중점을 두고 있으며, 특히 수학적 추론 분야에서 두드러진 성과를 보입니다."
1597
1600
  },
1598
- "qvq-max-latest": {
1599
- "description": "통의천문 QVQ 비주얼 추론 모델로, 비주얼 입력과 사고 체인 출력을 지원하며, 수학, 프로그래밍, 비주얼 분석, 창작 및 일반 작업에서 더 강력한 능력을 보여줍니다."
1601
+ "qvq-max": {
1602
+ "description": "통의천문 QVQ 비주얼 추론 모델은 비주얼 입력과 사고 체인 출력을 지원하며, 수학, 프로그래밍, 비주얼 분석, 창작 및 일반 작업에서 더 강력한 능력을 보여줍니다."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
1602
1605
  "description": "통의 천문 코드 모델입니다."
@@ -91,6 +91,10 @@
91
91
  "provider": "Provider"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "Sluit melding",
96
+ "start": "Geïnstalleerd en actief, begin gesprek"
97
+ },
94
98
  "cors": {
95
99
  "description": "Vanwege beveiligingsbeperkingen in de browser moet je cross-origin configuratie voor Ollama instellen om het correct te kunnen gebruiken.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama is het model aan het downloaden, sluit deze pagina alstublieft niet af. Bij een herstart zal het downloaden op de onderbroken plaats verdergaan.",
167
+ "failed": "Het downloaden van het model is mislukt. Controleer uw netwerk of de Ollama-instellingen en probeer het opnieuw.",
167
168
  "remainingTime": "Overgebleven tijd",
168
169
  "speed": "Downloadsnelheid",
169
170
  "title": "Model {{model}} wordt gedownload"
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny is een ultra-presterend groot taalmodel dat de laagste implementatie- en afstemmingskosten heeft binnen de Wenxin modelreeks."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "Het Wenxin grote model X1 heeft sterkere capaciteiten in begrip, planning, reflectie en evolutie. Als een dieper denkmodel met bredere mogelijkheden, combineert Wenxin X1 nauwkeurigheid, creativiteit en stijl, en excelleert in Chinese kennisvragen, literaire creatie, tekstschrijven, dagelijkse gesprekken, logische redenering, complexe berekeningen en het aanroepen van tools."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Tuning) biedt stabiele en afstelbare prestaties, ideaal voor oplossingen voor complexe taken."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro Experimental is Google's meest geavanceerde denkmodel, dat in staat is om te redeneren over complexe problemen in code, wiskunde en STEM-gebieden, en bovendien gebruik maakt van lange contexten om grote datasets, codebases en documenten te analyseren."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Preview is Google's meest geavanceerde denkmodel, dat in staat is om te redeneren over complexe problemen in code, wiskunde en STEM-gebieden, en grote datasets, codebases en documenten te analyseren met behulp van lange context."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B is geschikt voor het verwerken van middelgrote taken, met een goede kosteneffectiviteit."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1 is het nieuwe redeneermodel van OpenAI, geschikt voor complexe taken die uitgebreide algemene kennis vereisen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B is een open-source taalmodelbibliotheek die is geoptimaliseerd met de 'C-RLFT (Conditionele Versterkingsleer Fijnstelling)' strategie."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "Afhankelijk van de contextlengte, het onderwerp en de complexiteit, wordt uw verzoek verzonden naar Llama 3 70B Instruct, Claude 3.5 Sonnet (zelfregulerend) of GPT-4o."
1579
1582
  },
@@ -1595,8 +1598,8 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "Het QVQ-model is een experimenteel onderzoeksmodel ontwikkeld door het Qwen-team, gericht op het verbeteren van visuele redeneervaardigheden, vooral in het domein van wiskundige redenering."
1597
1600
  },
1598
- "qvq-max-latest": {
1599
- "description": "De QVQ visuele redeneermodel van Tongyi Qianwen ondersteunt visuele invoer en output van denkprocessen, en heeft betere prestaties getoond in wiskunde, programmeren, visuele analyse, creatie en algemene taken."
1601
+ "qvq-max": {
1602
+ "description": "De QVQ visuele redeneermodel ondersteunt visuele invoer en denktaken, en toont sterkere capaciteiten in wiskunde, programmeren, visuele analyse, creatie en algemene taken."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
1602
1605
  "description": "Tongyi Qianwen code model."
@@ -91,6 +91,10 @@
91
91
  "provider": "Dostawca"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "Zamknij powiadomienie",
96
+ "start": "Zainstalowano i uruchomiono, rozpocznij rozmowę"
97
+ },
94
98
  "cors": {
95
99
  "description": "Z powodu ograniczeń bezpieczeństwa przeglądarki, musisz skonfigurować CORS dla Ollama, aby móc go używać.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama pobiera ten model, proszę nie zamykać tej strony. Wznowienie pobierania nastąpi od miejsca przerwania",
167
+ "failed": "Pobieranie modelu nie powiodło się, sprawdź połączenie sieciowe lub ustawienia Ollama, a następnie spróbuj ponownie",
167
168
  "remainingTime": "Pozostały czas",
168
169
  "speed": "Prędkość pobierania",
169
170
  "title": "Pobieranie modelu {{model}}"
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny to model językowy o ultra wysokiej wydajności opracowany przez Baidu, charakteryzujący się najniższymi kosztami wdrożenia i dostosowania w serii modeli Wenxin."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "Model ERNIE X1 charakteryzuje się silniejszymi zdolnościami w zakresie rozumienia, planowania, refleksji i ewolucji. Jako model głębokiego myślenia o szerszych możliwościach, ERNIE X1 łączy w sobie precyzję, kreatywność i styl, osiągając szczególne wyniki w chińskich pytaniach i odpowiedziach, twórczości literackiej, pisaniu tekstów, codziennych rozmowach, wnioskowaniu logicznym, złożonych obliczeniach oraz wywoływaniu narzędzi."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Tuning) oferuje stabilną i dostosowywalną wydajność, co czyni go idealnym wyborem dla rozwiązań złożonych zadań."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro Experimental to najnowocześniejszy model myślenia Google, zdolny do wnioskowania w zakresie kodu, matematyki i złożonych problemów w dziedzinie STEM, a także do analizy dużych zbiorów danych, repozytoriów kodu i dokumentów, wykorzystując długi kontekst."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Preview to najnowocześniejszy model myślenia Google, zdolny do wnioskowania w zakresie kodu, matematyki i złożonych problemów w dziedzinie STEM, a także do analizy dużych zbiorów danych, repozytoriów kodu i dokumentów przy użyciu długiego kontekstu."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B nadaje się do przetwarzania zadań średniej i małej skali, łącząc efektywność kosztową."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1 to nowy model wnioskowania OpenAI, odpowiedni do złożonych zadań wymagających szerokiej wiedzy ogólnej. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B to otwarta biblioteka modeli językowych, dostrojona przy użyciu strategii „C-RLFT (warunkowe uczenie ze wzmocnieniem)”."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "W zależności od długości kontekstu, tematu i złożoności, Twoje zapytanie zostanie wysłane do Llama 3 70B Instruct, Claude 3.5 Sonnet (samoregulacja) lub GPT-4o."
1579
1582
  },
@@ -1595,8 +1598,8 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "Model QVQ jest eksperymentalnym modelem badawczym opracowanym przez zespół Qwen, skoncentrowanym na zwiększeniu zdolności w zakresie rozumowania wizualnego, szczególnie w dziedzinie rozumowania matematycznego."
1597
1600
  },
1598
- "qvq-max-latest": {
1599
- "description": "Model wnioskowania wizualnego QVQ, wspierający wejścia wizualne oraz wyjścia w postaci łańcucha myślowego, wykazuje silniejsze zdolności w matematyce, programowaniu, analizie wizualnej, twórczości oraz w zadaniach ogólnych."
1601
+ "qvq-max": {
1602
+ "description": "Model wizualnego wnioskowania QVQ, wspierający wejścia wizualne oraz wyjścia w postaci łańcucha myślowego, wykazuje silniejsze zdolności w matematyce, programowaniu, analizie wizualnej, twórczości oraz w zadaniach ogólnych."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
1602
1605
  "description": "Model kodowania Qwen, oparty na ogólnym zrozumieniu."
@@ -91,6 +91,10 @@
91
91
  "provider": "Fornecedor"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "Fechar aviso",
96
+ "start": "Instalado e em execução, iniciar conversa"
97
+ },
94
98
  "cors": {
95
99
  "description": "Devido a restrições de segurança do navegador, você precisa configurar o CORS para o Ollama antes de usá-lo normalmente.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama está baixando este modelo, por favor, evite fechar esta página. O download será retomado do ponto em que parou.",
167
+ "failed": "Falha ao baixar o modelo, por favor verifique a rede ou as configurações do Ollama e tente novamente",
167
168
  "remainingTime": "Tempo restante",
168
169
  "speed": "Velocidade de download",
169
170
  "title": "Baixando o modelo {{model}} "
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny é um modelo de linguagem de grande escala de alto desempenho desenvolvido pela Baidu, com os menores custos de implantação e ajuste entre os modelos da série Wenxin."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "O modelo grande Wenxin X1 possui habilidades aprimoradas de compreensão, planejamento, reflexão e evolução. Como um modelo de pensamento profundo mais abrangente, o Wenxin X1 combina precisão, criatividade e eloquência, destacando-se em perguntas e respostas de conhecimento em chinês, criação literária, redação de documentos, diálogos cotidianos, raciocínio lógico, cálculos complexos e chamadas de ferramentas."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Ajuste) oferece desempenho estável e ajustável, sendo a escolha ideal para soluções de tarefas complexas."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "O Gemini 2.5 Pro Experimental é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, repositórios de código e documentos utilizando contextos longos."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "O Gemini 2.5 Pro Preview é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, bibliotecas de código e documentos usando longos contextos."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B é adequado para o processamento de tarefas de pequeno a médio porte, combinando custo e eficiência."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1 é o novo modelo de raciocínio da OpenAI, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B é uma biblioteca de modelos de linguagem de código aberto ajustada com a estratégia de 'C-RLFT (refinamento de aprendizado por reforço condicional)'."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "Com base no comprimento do contexto, tema e complexidade, sua solicitação será enviada para Llama 3 70B Instruct, Claude 3.5 Sonnet (autoajustável) ou GPT-4o."
1579
1582
  },
@@ -1595,7 +1598,7 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "O modelo QVQ é um modelo de pesquisa experimental desenvolvido pela equipe Qwen, focado em melhorar a capacidade de raciocínio visual, especialmente na área de raciocínio matemático."
1597
1600
  },
1598
- "qvq-max-latest": {
1601
+ "qvq-max": {
1599
1602
  "description": "O modelo de raciocínio visual QVQ, da Tongyi Qianwen, suporta entrada visual e saída de cadeia de pensamento, demonstrando habilidades superiores em matemática, programação, análise visual, criação e tarefas gerais."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
@@ -91,6 +91,10 @@
91
91
  "provider": "Поставщик"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "Закрыть уведомление",
96
+ "start": "Установлено и запущено, начать разговор"
97
+ },
94
98
  "cors": {
95
99
  "description": "Из-за ограничений безопасности браузера вам необходимо настроить кросс-доменные запросы для корректного использования Ollama.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama загружает эту модель, пожалуйста, старайтесь не закрывать эту страницу. При повторной загрузке процесс будет продолжен с места остановки",
167
+ "failed": "Не удалось загрузить модель, пожалуйста, проверьте сеть или настройки Ollama и попробуйте снова",
167
168
  "remainingTime": "Оставшееся время",
168
169
  "speed": "Скорость загрузки",
169
170
  "title": "Загрузка модели {{model}} "
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny — это сверхвысокопроизводительная большая языковая модель, стоимость развертывания и тонкой настройки которой является самой низкой среди моделей серии Wenxin."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "Модель Ernie X1 обладает более сильными способностями к пониманию, планированию, рефлексии и эволюции. Как более универсальная модель глубокого мышления, Ernie X1 сочетает в себе точность, креативность и литературный стиль, особенно выделяясь в области вопросов и ответов на китайском языке, литературного творчества, написания текстов, повседневных диалогов, логического вывода, сложных вычислений и вызова инструментов."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Тюнинг) предлагает стабильную и настраиваемую производительность, что делает её идеальным выбором для решения сложных задач."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro Experimental — это самая современная модель мышления от Google, способная рассуждать о сложных задачах в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы, используя длинный контекст."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Preview — это самая современная модель мышления от Google, способная рассуждать о сложных задачах в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы с использованием длинного контекста."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B подходит для обработки задач среднего и малого масштаба, обеспечивая экономическую эффективность."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1 — это новая модель вывода от OpenAI, подходящая для сложных задач, требующих обширных общих знаний. Модель имеет контекст 128K и срок знания до октября 2023 года."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B — это открытая языковая модель, оптимизированная с помощью стратегии \"C-RLFT (условное обучение с подкреплением)\"."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "В зависимости от длины контекста, темы и сложности ваш запрос будет отправлен в Llama 3 70B Instruct, Claude 3.5 Sonnet (саморегулирующийся) или GPT-4o."
1579
1582
  },
@@ -1595,7 +1598,7 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "Модель QVQ, разработанная командой Qwen, является экспериментальной исследовательской моделью, сосредоточенной на повышении визуальных способностей рассуждения, особенно в области математического рассуждения."
1597
1600
  },
1598
- "qvq-max-latest": {
1601
+ "qvq-max": {
1599
1602
  "description": "Модель визуального вывода QVQ от Tongyi Qianwen поддерживает визуальный ввод и вывод цепочек мышления, демонстрируя более высокие способности в математике, программировании, визуальном анализе, творчестве и общих задачах."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
@@ -91,6 +91,10 @@
91
91
  "provider": "Sağlayıcı"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "Uyarıyı Kapat",
96
+ "start": "Yüklendi ve çalışıyor, sohbete başla"
97
+ },
94
98
  "cors": {
95
99
  "description": "Tarayıcı güvenlik kısıtlamaları nedeniyle, Ollama'yı düzgün bir şekilde kullanabilmek için çapraz alan yapılandırması yapmanız gerekmektedir.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama 正在下载该模型,请尽量不要关闭本页面。重新下载时将会中断处继续",
167
+ "failed": "Model indirme başarısız oldu, lütfen ağı veya Ollama ayarlarını kontrol edip tekrar deneyin",
167
168
  "remainingTime": "剩余时间",
168
169
  "speed": "下载速度",
169
170
  "title": "正在下载模型 {{model}} "
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny, Baidu tarafından geliştirilen ultra yüksek performanslı büyük dil modelidir, dağıtım ve ince ayar maliyetleri Wenxin serisi modelleri arasında en düşüktür."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "Wenxin Büyük Model X1, daha güçlü anlama, planlama, düşünme ve evrim yeteneklerine sahiptir. Daha kapsamlı bir derin düşünme modeli olarak, Wenxin X1, doğru, yaratıcı ve edebi bir üslup sunarak, Çince bilgi sorgulama, edebi yaratım, metin yazımı, günlük diyalog, mantıksal akıl yürütme, karmaşık hesaplamalar ve araç çağırma gibi alanlarda özellikle başarılıdır."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Tuning), kararlı ve ayarlanabilir bir performans sunar, karmaşık görev çözümleri için ideal bir seçimdir."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro Deneysel, Google'ın en gelişmiş düşünce modeli olup, kod, matematik ve STEM alanlarındaki karmaşık sorunları akıl yürütebilmektedir. Ayrıca, uzun bağlamları kullanarak büyük veri setlerini, kod havuzlarını ve belgeleri analiz edebilir."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Önizleme, Google'ın en gelişmiş düşünce modeli olup, kod, matematik ve STEM alanlarındaki karmaşık sorunları akıl yürütme yeteneğine sahiptir. Uzun bağlamları analiz ederek büyük veri setleri, kod havuzları ve belgeler üzerinde çalışabilir."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B, orta ölçekli görev işleme için uygundur ve maliyet etkinliği sunar."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1, OpenAI'nin geniş genel bilgiye ihtiyaç duyan karmaşık görevler için uygun yeni bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B, 'C-RLFT (koşullu pekiştirme öğrenimi ince ayarı)' stratejisi ile ince ayar yapılmış açık kaynak dil modeli kütüphanesidir."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "Bağlam uzunluğu, konu ve karmaşıklığa göre isteğiniz, Llama 3 70B Instruct, Claude 3.5 Sonnet (kendini ayarlama) veya GPT-4o'ya gönderilecektir."
1579
1582
  },
@@ -1595,8 +1598,8 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "QVQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir; görsel akıl yürütme yeteneğini artırmaya odaklanır, özellikle matematik akıl yürütme alanında."
1597
1600
  },
1598
- "qvq-max-latest": {
1599
- "description": "Tongyi Qianwen QVQ görsel akıl yürütme modeli, görsel girdi ve düşünce zinciri çıktısını destekler; matematik, programlama, görsel analiz, yaratıcılık ve genel görevlerde daha güçlü yetenekler sergilemektedir."
1601
+ "qvq-max": {
1602
+ "description": "Genel Amaçlı QVQ Görsel Akıl Yürütme Modeli, görsel girdi ve düşünce zinciri çıktısını destekler. Matematik, programlama, görsel analiz, yaratıcılık ve genel görevlerde daha güçlü yetenekler sergilemektedir."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
1602
1605
  "description": "Tongyi Qianwen kod modeli."
@@ -91,6 +91,10 @@
91
91
  "provider": "Nhà cung cấp"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "Đóng thông báo",
96
+ "start": "Đã cài đặt và chạy, bắt đầu cuộc trò chuyện"
97
+ },
94
98
  "cors": {
95
99
  "description": "Do hạn chế bảo mật của trình duyệt, bạn cần cấu hình CORS cho Ollama để có thể sử dụng bình thường.",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama đang tải xuống mô hình này, vui lòng không đóng trang này. Quá trình tải xuống sẽ tiếp tục từ nơi đã bị gián đoạn khi tải lại",
167
+ "failed": "Tải mô hình không thành công, vui lòng kiểm tra kết nối mạng hoặc cài đặt Ollama và thử lại",
167
168
  "remainingTime": "Thời gian còn lại",
168
169
  "speed": "Tốc độ tải xuống",
169
170
  "title": "Đang tải mô hình {{model}}"
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny là mô hình ngôn ngữ lớn hiệu suất siêu cao tự phát triển của Baidu, có chi phí triển khai và tinh chỉnh thấp nhất trong dòng sản phẩm văn tâm."
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "Mô hình lớn Wenxin X1 có khả năng hiểu, lập kế hoạch, phản ánh và tiến hóa mạnh mẽ hơn. Là một mô hình tư duy sâu sắc toàn diện hơn, Wenxin X1 kết hợp độ chính xác, sự sáng tạo và văn phong, đặc biệt xuất sắc trong các lĩnh vực như hỏi đáp kiến thức tiếng Trung, sáng tác văn học, viết tài liệu, đối thoại hàng ngày, suy luận logic, tính toán phức tạp và gọi công cụ."
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Tuning) cung cấp hiệu suất ổn định và có thể điều chỉnh, là lựa chọn lý tưởng cho các giải pháp nhiệm vụ phức tạp."
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro Experimental là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận về mã, toán học và các vấn đề phức tạp trong lĩnh vực STEM, đồng thời có thể phân tích các tập dữ liệu lớn, kho mã và tài liệu bằng cách sử dụng ngữ cảnh dài."
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Preview là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận về mã, toán học và các vấn đề phức tạp trong lĩnh vực STEM, cũng như phân tích các tập dữ liệu lớn, kho mã và tài liệu bằng cách sử dụng ngữ cảnh dài."
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B phù hợp cho việc xử lý các nhiệm vụ quy mô vừa và nhỏ, đồng thời mang lại hiệu quả chi phí."
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1 là mô hình suy diễn mới của OpenAI, phù hợp cho các nhiệm vụ phức tạp cần kiến thức tổng quát rộng rãi. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023."
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B là thư viện mô hình ngôn ngữ mã nguồn mở được tinh chỉnh bằng chiến lược 'C-RLFT (tinh chỉnh tăng cường có điều kiện)'."
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "Dựa trên độ dài ngữ cảnh, chủ đề và độ phức tạp, yêu cầu của bạn sẽ được gửi đến Llama 3 70B Instruct, Claude 3.5 Sonnet (tự điều chỉnh) hoặc GPT-4o."
1579
1582
  },
@@ -1595,8 +1598,8 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "Mô hình QVQ là mô hình nghiên cứu thử nghiệm do đội ngũ Qwen phát triển, tập trung vào việc nâng cao khả năng suy luận hình ảnh, đặc biệt trong lĩnh vực suy luận toán học."
1597
1600
  },
1598
- "qvq-max-latest": {
1599
- "description": "Mô hình suy luận thị giác QVQ của Tongyi Qianwen, hỗ trợ đầu vào thị giác và đầu ra chuỗi tư duy, thể hiện khả năng mạnh mẽ hơn trong toán học, lập trình, phân tích thị giác, sáng tạo và các nhiệm vụ chung."
1601
+ "qvq-max": {
1602
+ "description": "Mô hình suy luận thị giác QVQ của Tongyi Qianwen hỗ trợ đầu vào thị giác và đầu ra chuỗi tư duy, thể hiện khả năng mạnh mẽ hơn trong toán học, lập trình, phân tích thị giác, sáng tạo và các nhiệm vụ chung."
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
1602
1605
  "description": "Mô hình mã Qwen."
@@ -91,6 +91,10 @@
91
91
  "provider": "服务商"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "关闭提示",
96
+ "start": "已安装并运行,开始对话"
97
+ },
94
98
  "cors": {
95
99
  "description": "因浏览器安全限制,你需要为 Ollama 进行跨域配置后方可正常使用。",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama 正在下载该模型,请尽量不要关闭本页面。重新下载时将会中断处继续",
167
+ "failed": "模型下载失败,请检查网络或者 Ollama 设置后重试",
167
168
  "remainingTime": "剩余时间",
168
169
  "speed": "下载速度",
169
170
  "title": "正在下载模型 {{model}} "
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny是百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。"
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "文心大模型X1具备更强的理解、规划、反思、进化能力。作为能力更全面的深度思考模型,文心X1兼备准确、创意和文采,在中文知识问答、文学创作、文稿写作、日常对话、逻辑推理、复杂计算及工具调用等方面表现尤为出色。"
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Tuning) 提供稳定并可调优的性能,是复杂任务解决方案的理想选择。"
847
850
  },
@@ -912,7 +915,10 @@
912
915
  "description": "Gemini 2.0 Pro Experimental 是 Google 最新的实验性多模态AI模型,与历史版本相比有一定的质量提升,特别是对于世界知识、代码和长上下文。"
913
916
  },
914
917
  "gemini-2.5-pro-exp-03-25": {
915
- "description": "Gemini 2.5 Pro Experimental 是 Google 最先进的思维模型,能够对代码、数学和STEM领域的复杂问题进行推理,还能利用长上下文来分析大型数据集、代码库和文档。"
918
+ "description": "Gemini 2.5 Pro Experimental 是 Google 最先进的思维模型,能够对代码、数学和STEM领域的复杂问题进行推理,以及使用长上下文分析大型数据集、代码库和文档。"
919
+ },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Preview 是 Google 最先进的思维模型,能够对代码、数学和STEM领域的复杂问题进行推理,以及使用长上下文分析大型数据集、代码库和文档。"
916
922
  },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B 适合中小规模任务处理,兼具成本效益。"
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。"
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B 是经过“C-RLFT(条件强化学习微调)”策略精调的开源语言模型库。"
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "根据上下文长度、主题和复杂性,你的请求将发送到 Llama 3 70B Instruct、Claude 3.5 Sonnet(自我调节)或 GPT-4o。"
1579
1582
  },
@@ -1595,7 +1598,7 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "QVQ-72B-Preview 是由 Qwen 团队开发的实验性研究模型,专注于提升视觉推理能力。"
1597
1600
  },
1598
- "qvq-max-latest": {
1601
+ "qvq-max": {
1599
1602
  "description": "通义千问QVQ视觉推理模型,支持视觉输入及思维链输出,在数学、编程、视觉分析、创作以及通用任务上都表现了更强的能力。"
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {
@@ -1758,7 +1761,7 @@
1758
1761
  "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
1759
1762
  },
1760
1763
  "qwq": {
1761
- "description": "QwQ 是一个实验研究模型,专注于提高 AI 推理能力。"
1764
+ "description": "QwQ Qwen 系列的推理模型。与传统的指令调优模型相比,QwQ 具备思考和推理的能力,能够在下游任务中,尤其是困难问题上,显著提升性能。QwQ-32B 是中型推理模型,能够在与最先进的推理模型(如 DeepSeek-R1、o1-mini)竞争时取得可观的表现。"
1762
1765
  },
1763
1766
  "qwq-32b": {
1764
1767
  "description": "QwQ 是 Qwen 系列的推理模型。与传统的指令微调模型相比,QwQ 具备思考和推理能力,在下游任务中,尤其是复杂问题上,能够实现显著增强的性能。QwQ-32B 是一款中型推理模型,其性能可与最先进的推理模型(如 DeepSeek-R1、o1-mini)相媲美。"
@@ -91,6 +91,10 @@
91
91
  "provider": "提供商"
92
92
  },
93
93
  "OllamaSetupGuide": {
94
+ "action": {
95
+ "close": "關閉提示",
96
+ "start": "已安裝並運行,開始對話"
97
+ },
94
98
  "cors": {
95
99
  "description": "因瀏覽器安全限制,你需要為 Ollama 進行跨域配置後方可正常使用。",
96
100
  "linux": {
@@ -164,6 +164,7 @@
164
164
  },
165
165
  "download": {
166
166
  "desc": "Ollama 正在下載該模型,請儘量不要關閉本頁面。重新下載時將會中斷處繼續",
167
+ "failed": "模型下載失敗,請檢查網路或 Ollama 設定後重試",
167
168
  "remainingTime": "剩餘時間",
168
169
  "speed": "下載速度",
169
170
  "title": "正在下載模型 {{model}}"
@@ -842,6 +842,9 @@
842
842
  "ernie-tiny-8k": {
843
843
  "description": "ERNIE Tiny是百度自研的超高性能大語言模型,部署與精調成本在文心系列模型中最低。"
844
844
  },
845
+ "ernie-x1-32k-preview": {
846
+ "description": "文心大模型X1具備更強的理解、規劃、反思、進化能力。作為能力更全面的深度思考模型,文心X1兼具準確、創意和文采,在中文知識問答、文學創作、文稿寫作、日常對話、邏輯推理、複雜計算及工具調用等方面表現尤為出色。"
847
+ },
845
848
  "gemini-1.0-pro-001": {
846
849
  "description": "Gemini 1.0 Pro 001 (Tuning) 提供穩定並可調優的性能,是複雜任務解決方案的理想選擇。"
847
850
  },
@@ -914,6 +917,9 @@
914
917
  "gemini-2.5-pro-exp-03-25": {
915
918
  "description": "Gemini 2.5 Pro 實驗版是 Google 最先進的思維模型,能夠對代碼、數學和 STEM 領域的複雜問題進行推理,還能利用長上下文來分析大型數據集、代碼庫和文檔。"
916
919
  },
920
+ "gemini-2.5-pro-preview-03-25": {
921
+ "description": "Gemini 2.5 Pro Preview 是 Google 最先進的思維模型,能夠對程式碼、數學和STEM領域的複雜問題進行推理,以及使用長上下文分析大型數據集、程式庫和文檔。"
922
+ },
917
923
  "gemma-7b-it": {
918
924
  "description": "Gemma 7B 適合中小規模任務處理,兼具成本效益。"
919
925
  },
@@ -1571,9 +1577,6 @@
1571
1577
  "openai/o1-preview": {
1572
1578
  "description": "o1是OpenAI新的推理模型,適用於需要廣泛通用知識的複雜任務。該模型具有128K上下文和2023年10月的知識截止日期。"
1573
1579
  },
1574
- "openchat/openchat-7b": {
1575
- "description": "OpenChat 7B 是經過“C-RLFT(條件強化學習微調)”策略精調的開源語言模型庫。"
1576
- },
1577
1580
  "openrouter/auto": {
1578
1581
  "description": "根據上下文長度、主題和複雜性,你的請求將發送到 Llama 3 70B Instruct、Claude 3.5 Sonnet(自我調節)或 GPT-4o。"
1579
1582
  },
@@ -1595,7 +1598,7 @@
1595
1598
  "qvq-72b-preview": {
1596
1599
  "description": "QVQ模型是由 Qwen 團隊開發的實驗性研究模型,專注於提升視覺推理能力,尤其在數學推理領域。"
1597
1600
  },
1598
- "qvq-max-latest": {
1601
+ "qvq-max": {
1599
1602
  "description": "通義千問QVQ視覺推理模型,支持視覺輸入及思維鏈輸出,在數學、程式設計、視覺分析、創作以及通用任務上都表現了更強的能力。"
1600
1603
  },
1601
1604
  "qwen-coder-plus-latest": {