@lobehub/chat 1.77.16 → 1.77.18
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/contributing/Basic/Architecture.md +1 -1
- package/contributing/Basic/Architecture.zh-CN.md +1 -1
- package/contributing/Basic/Chat-API.md +326 -108
- package/contributing/Basic/Chat-API.zh-CN.md +313 -133
- package/contributing/Basic/Contributing-Guidelines.md +7 -4
- package/contributing/Basic/Contributing-Guidelines.zh-CN.md +7 -6
- package/contributing/Home.md +5 -5
- package/contributing/State-Management/State-Management-Intro.md +1 -1
- package/contributing/State-Management/State-Management-Intro.zh-CN.md +1 -1
- package/docker-compose/local/docker-compose.yml +2 -1
- package/locales/ar/components.json +4 -0
- package/locales/ar/modelProvider.json +1 -0
- package/locales/ar/models.json +8 -5
- package/locales/ar/tool.json +21 -1
- package/locales/bg-BG/components.json +4 -0
- package/locales/bg-BG/modelProvider.json +1 -0
- package/locales/bg-BG/models.json +8 -5
- package/locales/bg-BG/tool.json +21 -1
- package/locales/de-DE/components.json +4 -0
- package/locales/de-DE/modelProvider.json +1 -0
- package/locales/de-DE/models.json +8 -5
- package/locales/de-DE/tool.json +21 -1
- package/locales/en-US/components.json +4 -0
- package/locales/en-US/modelProvider.json +1 -0
- package/locales/en-US/models.json +8 -5
- package/locales/en-US/tool.json +21 -1
- package/locales/es-ES/components.json +4 -0
- package/locales/es-ES/modelProvider.json +1 -0
- package/locales/es-ES/models.json +7 -4
- package/locales/es-ES/tool.json +21 -1
- package/locales/fa-IR/components.json +4 -0
- package/locales/fa-IR/modelProvider.json +1 -0
- package/locales/fa-IR/models.json +7 -4
- package/locales/fa-IR/tool.json +21 -1
- package/locales/fr-FR/components.json +4 -0
- package/locales/fr-FR/modelProvider.json +1 -0
- package/locales/fr-FR/models.json +8 -5
- package/locales/fr-FR/tool.json +21 -1
- package/locales/it-IT/components.json +4 -0
- package/locales/it-IT/modelProvider.json +1 -0
- package/locales/it-IT/models.json +7 -4
- package/locales/it-IT/tool.json +21 -1
- package/locales/ja-JP/components.json +4 -0
- package/locales/ja-JP/modelProvider.json +1 -0
- package/locales/ja-JP/models.json +8 -5
- package/locales/ja-JP/tool.json +21 -1
- package/locales/ko-KR/components.json +4 -0
- package/locales/ko-KR/modelProvider.json +1 -0
- package/locales/ko-KR/models.json +8 -5
- package/locales/ko-KR/tool.json +21 -1
- package/locales/nl-NL/components.json +4 -0
- package/locales/nl-NL/modelProvider.json +1 -0
- package/locales/nl-NL/models.json +8 -5
- package/locales/nl-NL/tool.json +21 -1
- package/locales/pl-PL/components.json +4 -0
- package/locales/pl-PL/modelProvider.json +1 -0
- package/locales/pl-PL/models.json +8 -5
- package/locales/pl-PL/tool.json +21 -1
- package/locales/pt-BR/components.json +4 -0
- package/locales/pt-BR/modelProvider.json +1 -0
- package/locales/pt-BR/models.json +7 -4
- package/locales/pt-BR/tool.json +21 -1
- package/locales/ru-RU/components.json +4 -0
- package/locales/ru-RU/modelProvider.json +1 -0
- package/locales/ru-RU/models.json +7 -4
- package/locales/ru-RU/tool.json +21 -1
- package/locales/tr-TR/components.json +4 -0
- package/locales/tr-TR/modelProvider.json +1 -0
- package/locales/tr-TR/models.json +8 -5
- package/locales/tr-TR/tool.json +21 -1
- package/locales/vi-VN/components.json +4 -0
- package/locales/vi-VN/modelProvider.json +1 -0
- package/locales/vi-VN/models.json +8 -5
- package/locales/vi-VN/tool.json +21 -1
- package/locales/zh-CN/components.json +4 -0
- package/locales/zh-CN/modelProvider.json +1 -0
- package/locales/zh-CN/models.json +9 -6
- package/locales/zh-CN/tool.json +30 -1
- package/locales/zh-TW/components.json +4 -0
- package/locales/zh-TW/modelProvider.json +1 -0
- package/locales/zh-TW/models.json +7 -4
- package/locales/zh-TW/tool.json +21 -1
- package/package.json +1 -1
- package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +34 -0
- package/src/app/(backend)/webapi/{chat/models → models}/[provider]/route.ts +1 -2
- package/src/app/[variants]/(main)/settings/llm/ProviderList/Ollama/index.tsx +0 -7
- package/src/app/[variants]/(main)/settings/provider/(detail)/ollama/CheckError.tsx +1 -1
- package/src/components/FormAction/index.tsx +1 -1
- package/src/database/models/__tests__/aiProvider.test.ts +100 -0
- package/src/database/models/aiProvider.ts +11 -1
- package/src/features/Conversation/Error/OllamaBizError/InvalidOllamaModel.tsx +43 -0
- package/src/features/Conversation/Error/OllamaDesktopSetupGuide/index.tsx +61 -0
- package/src/features/Conversation/Error/index.tsx +7 -0
- package/src/features/DevPanel/SystemInspector/ServerConfig.tsx +18 -2
- package/src/features/DevPanel/SystemInspector/index.tsx +25 -6
- package/src/features/OllamaModelDownloader/index.tsx +149 -0
- package/src/libs/agent-runtime/AgentRuntime.ts +6 -0
- package/src/libs/agent-runtime/BaseAI.ts +7 -0
- package/src/libs/agent-runtime/ollama/index.ts +84 -2
- package/src/libs/agent-runtime/openrouter/__snapshots__/index.test.ts.snap +24 -3263
- package/src/libs/agent-runtime/openrouter/fixtures/frontendModels.json +25 -0
- package/src/libs/agent-runtime/openrouter/fixtures/models.json +0 -3353
- package/src/libs/agent-runtime/openrouter/index.test.ts +56 -1
- package/src/libs/agent-runtime/openrouter/index.ts +9 -4
- package/src/libs/agent-runtime/types/index.ts +1 -0
- package/src/libs/agent-runtime/types/model.ts +44 -0
- package/src/libs/agent-runtime/utils/streams/index.ts +1 -0
- package/src/libs/agent-runtime/utils/streams/model.ts +110 -0
- package/src/locales/default/components.ts +4 -0
- package/src/locales/default/modelProvider.ts +1 -0
- package/src/locales/default/tool.ts +30 -1
- package/src/server/modules/SearXNG.ts +10 -2
- package/src/server/routers/tools/__test__/search.test.ts +3 -1
- package/src/server/routers/tools/search.ts +10 -2
- package/src/services/__tests__/models.test.ts +21 -0
- package/src/services/_url.ts +4 -1
- package/src/services/chat.ts +1 -1
- package/src/services/models.ts +153 -7
- package/src/services/search.ts +2 -2
- package/src/store/aiInfra/slices/aiModel/action.ts +1 -1
- package/src/store/aiInfra/slices/aiProvider/action.ts +2 -1
- package/src/store/chat/slices/builtinTool/actions/searXNG.test.ts +28 -8
- package/src/store/chat/slices/builtinTool/actions/searXNG.ts +22 -5
- package/src/store/user/slices/modelList/action.test.ts +2 -2
- package/src/store/user/slices/modelList/action.ts +1 -1
- package/src/tools/web-browsing/Portal/Search/index.tsx +1 -1
- package/src/tools/web-browsing/Render/Search/SearchQuery/SearchView.tsx +1 -1
- package/src/tools/web-browsing/Render/Search/SearchQuery/index.tsx +1 -1
- package/src/tools/web-browsing/Render/Search/SearchResult/index.tsx +1 -1
- package/src/tools/web-browsing/components/CategoryAvatar.tsx +27 -0
- package/src/tools/web-browsing/components/SearchBar.tsx +84 -4
- package/src/tools/web-browsing/const.ts +26 -0
- package/src/tools/web-browsing/index.ts +58 -28
- package/src/tools/web-browsing/systemRole.ts +62 -1
- package/src/types/tool/search.ts +10 -1
- package/src/app/[variants]/(main)/settings/llm/ProviderList/Ollama/Checker.tsx +0 -73
- package/src/app/[variants]/(main)/settings/provider/(detail)/ollama/OllamaModelDownloader/index.tsx +0 -127
- package/src/features/Conversation/Error/OllamaBizError/InvalidOllamaModel/index.tsx +0 -154
- package/src/features/Conversation/Error/OllamaBizError/InvalidOllamaModel/useDownloadMonitor.ts +0 -29
- package/src/helpers/url.ts +0 -17
- package/src/services/__tests__/ollama.test.ts +0 -28
- package/src/services/ollama.ts +0 -83
- /package/src/{app/[variants]/(main)/settings/provider/(detail)/ollama → features}/OllamaModelDownloader/useDownloadMonitor.ts +0 -0
@@ -842,6 +842,9 @@
|
|
842
842
|
"ernie-tiny-8k": {
|
843
843
|
"description": "ERNIE Tiny — это сверхвысокопроизводительная большая языковая модель, стоимость развертывания и тонкой настройки которой является самой низкой среди моделей серии Wenxin."
|
844
844
|
},
|
845
|
+
"ernie-x1-32k-preview": {
|
846
|
+
"description": "Модель Ernie X1 обладает более сильными способностями к пониманию, планированию, рефлексии и эволюции. Как более универсальная модель глубокого мышления, Ernie X1 сочетает в себе точность, креативность и литературный стиль, особенно выделяясь в области вопросов и ответов на китайском языке, литературного творчества, написания текстов, повседневных диалогов, логического вывода, сложных вычислений и вызова инструментов."
|
847
|
+
},
|
845
848
|
"gemini-1.0-pro-001": {
|
846
849
|
"description": "Gemini 1.0 Pro 001 (Тюнинг) предлагает стабильную и настраиваемую производительность, что делает её идеальным выбором для решения сложных задач."
|
847
850
|
},
|
@@ -914,6 +917,9 @@
|
|
914
917
|
"gemini-2.5-pro-exp-03-25": {
|
915
918
|
"description": "Gemini 2.5 Pro Experimental — это самая современная модель мышления от Google, способная рассуждать о сложных задачах в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы, используя длинный контекст."
|
916
919
|
},
|
920
|
+
"gemini-2.5-pro-preview-03-25": {
|
921
|
+
"description": "Gemini 2.5 Pro Preview — это самая современная модель мышления от Google, способная рассуждать о сложных задачах в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы с использованием длинного контекста."
|
922
|
+
},
|
917
923
|
"gemma-7b-it": {
|
918
924
|
"description": "Gemma 7B подходит для обработки задач среднего и малого масштаба, обеспечивая экономическую эффективность."
|
919
925
|
},
|
@@ -1571,9 +1577,6 @@
|
|
1571
1577
|
"openai/o1-preview": {
|
1572
1578
|
"description": "o1 — это новая модель вывода от OpenAI, подходящая для сложных задач, требующих обширных общих знаний. Модель имеет контекст 128K и срок знания до октября 2023 года."
|
1573
1579
|
},
|
1574
|
-
"openchat/openchat-7b": {
|
1575
|
-
"description": "OpenChat 7B — это открытая языковая модель, оптимизированная с помощью стратегии \"C-RLFT (условное обучение с подкреплением)\"."
|
1576
|
-
},
|
1577
1580
|
"openrouter/auto": {
|
1578
1581
|
"description": "В зависимости от длины контекста, темы и сложности ваш запрос будет отправлен в Llama 3 70B Instruct, Claude 3.5 Sonnet (саморегулирующийся) или GPT-4o."
|
1579
1582
|
},
|
@@ -1595,7 +1598,7 @@
|
|
1595
1598
|
"qvq-72b-preview": {
|
1596
1599
|
"description": "Модель QVQ, разработанная командой Qwen, является экспериментальной исследовательской моделью, сосредоточенной на повышении визуальных способностей рассуждения, особенно в области математического рассуждения."
|
1597
1600
|
},
|
1598
|
-
"qvq-max
|
1601
|
+
"qvq-max": {
|
1599
1602
|
"description": "Модель визуального вывода QVQ от Tongyi Qianwen поддерживает визуальный ввод и вывод цепочек мышления, демонстрируя более высокие способности в математике, программировании, визуальном анализе, творчестве и общих задачах."
|
1600
1603
|
},
|
1601
1604
|
"qwen-coder-plus-latest": {
|
package/locales/ru-RU/tool.json
CHANGED
@@ -19,8 +19,28 @@
|
|
19
19
|
"placeholder": "Ключевые слова",
|
20
20
|
"tooltip": "Будет повторно получен результат поиска и создано новое резюме сообщения"
|
21
21
|
},
|
22
|
-
"
|
22
|
+
"searchCategory": {
|
23
|
+
"placeholder": "Поиск категории",
|
24
|
+
"title": "Категория поиска:",
|
25
|
+
"value": {
|
26
|
+
"files": "Файлы",
|
27
|
+
"general": "Общее",
|
28
|
+
"images": "Изображения",
|
29
|
+
"it": "Информационные технологии",
|
30
|
+
"map": "Карта",
|
31
|
+
"music": "Музыка",
|
32
|
+
"news": "Новости",
|
33
|
+
"science": "Наука",
|
34
|
+
"social_media": "Социальные медиа",
|
35
|
+
"videos": "Видео"
|
36
|
+
}
|
37
|
+
},
|
38
|
+
"searchEngine": {
|
39
|
+
"placeholder": "Поисковая система",
|
40
|
+
"title": "Поисковая система:"
|
41
|
+
},
|
23
42
|
"searchResult": "Количество результатов:",
|
43
|
+
"searchTimeRange": "Временной диапазон:",
|
24
44
|
"summary": "Резюме",
|
25
45
|
"summaryTooltip": "Суммировать текущее содержимое",
|
26
46
|
"viewMoreResults": "Посмотреть еще {{results}} результатов"
|
@@ -91,6 +91,10 @@
|
|
91
91
|
"provider": "Sağlayıcı"
|
92
92
|
},
|
93
93
|
"OllamaSetupGuide": {
|
94
|
+
"action": {
|
95
|
+
"close": "Uyarıyı Kapat",
|
96
|
+
"start": "Yüklendi ve çalışıyor, sohbete başla"
|
97
|
+
},
|
94
98
|
"cors": {
|
95
99
|
"description": "Tarayıcı güvenlik kısıtlamaları nedeniyle, Ollama'yı düzgün bir şekilde kullanabilmek için çapraz alan yapılandırması yapmanız gerekmektedir.",
|
96
100
|
"linux": {
|
@@ -164,6 +164,7 @@
|
|
164
164
|
},
|
165
165
|
"download": {
|
166
166
|
"desc": "Ollama 正在下载该模型,请尽量不要关闭本页面。重新下载时将会中断处继续",
|
167
|
+
"failed": "Model indirme başarısız oldu, lütfen ağı veya Ollama ayarlarını kontrol edip tekrar deneyin",
|
167
168
|
"remainingTime": "剩余时间",
|
168
169
|
"speed": "下载速度",
|
169
170
|
"title": "正在下载模型 {{model}} "
|
@@ -842,6 +842,9 @@
|
|
842
842
|
"ernie-tiny-8k": {
|
843
843
|
"description": "ERNIE Tiny, Baidu tarafından geliştirilen ultra yüksek performanslı büyük dil modelidir, dağıtım ve ince ayar maliyetleri Wenxin serisi modelleri arasında en düşüktür."
|
844
844
|
},
|
845
|
+
"ernie-x1-32k-preview": {
|
846
|
+
"description": "Wenxin Büyük Model X1, daha güçlü anlama, planlama, düşünme ve evrim yeteneklerine sahiptir. Daha kapsamlı bir derin düşünme modeli olarak, Wenxin X1, doğru, yaratıcı ve edebi bir üslup sunarak, Çince bilgi sorgulama, edebi yaratım, metin yazımı, günlük diyalog, mantıksal akıl yürütme, karmaşık hesaplamalar ve araç çağırma gibi alanlarda özellikle başarılıdır."
|
847
|
+
},
|
845
848
|
"gemini-1.0-pro-001": {
|
846
849
|
"description": "Gemini 1.0 Pro 001 (Tuning), kararlı ve ayarlanabilir bir performans sunar, karmaşık görev çözümleri için ideal bir seçimdir."
|
847
850
|
},
|
@@ -914,6 +917,9 @@
|
|
914
917
|
"gemini-2.5-pro-exp-03-25": {
|
915
918
|
"description": "Gemini 2.5 Pro Deneysel, Google'ın en gelişmiş düşünce modeli olup, kod, matematik ve STEM alanlarındaki karmaşık sorunları akıl yürütebilmektedir. Ayrıca, uzun bağlamları kullanarak büyük veri setlerini, kod havuzlarını ve belgeleri analiz edebilir."
|
916
919
|
},
|
920
|
+
"gemini-2.5-pro-preview-03-25": {
|
921
|
+
"description": "Gemini 2.5 Pro Önizleme, Google'ın en gelişmiş düşünce modeli olup, kod, matematik ve STEM alanlarındaki karmaşık sorunları akıl yürütme yeteneğine sahiptir. Uzun bağlamları analiz ederek büyük veri setleri, kod havuzları ve belgeler üzerinde çalışabilir."
|
922
|
+
},
|
917
923
|
"gemma-7b-it": {
|
918
924
|
"description": "Gemma 7B, orta ölçekli görev işleme için uygundur ve maliyet etkinliği sunar."
|
919
925
|
},
|
@@ -1571,9 +1577,6 @@
|
|
1571
1577
|
"openai/o1-preview": {
|
1572
1578
|
"description": "o1, OpenAI'nin geniş genel bilgiye ihtiyaç duyan karmaşık görevler için uygun yeni bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır."
|
1573
1579
|
},
|
1574
|
-
"openchat/openchat-7b": {
|
1575
|
-
"description": "OpenChat 7B, 'C-RLFT (koşullu pekiştirme öğrenimi ince ayarı)' stratejisi ile ince ayar yapılmış açık kaynak dil modeli kütüphanesidir."
|
1576
|
-
},
|
1577
1580
|
"openrouter/auto": {
|
1578
1581
|
"description": "Bağlam uzunluğu, konu ve karmaşıklığa göre isteğiniz, Llama 3 70B Instruct, Claude 3.5 Sonnet (kendini ayarlama) veya GPT-4o'ya gönderilecektir."
|
1579
1582
|
},
|
@@ -1595,8 +1598,8 @@
|
|
1595
1598
|
"qvq-72b-preview": {
|
1596
1599
|
"description": "QVQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir; görsel akıl yürütme yeteneğini artırmaya odaklanır, özellikle matematik akıl yürütme alanında."
|
1597
1600
|
},
|
1598
|
-
"qvq-max
|
1599
|
-
"description": "
|
1601
|
+
"qvq-max": {
|
1602
|
+
"description": "Genel Amaçlı QVQ Görsel Akıl Yürütme Modeli, görsel girdi ve düşünce zinciri çıktısını destekler. Matematik, programlama, görsel analiz, yaratıcılık ve genel görevlerde daha güçlü yetenekler sergilemektedir."
|
1600
1603
|
},
|
1601
1604
|
"qwen-coder-plus-latest": {
|
1602
1605
|
"description": "Tongyi Qianwen kod modeli."
|
package/locales/tr-TR/tool.json
CHANGED
@@ -19,8 +19,28 @@
|
|
19
19
|
"placeholder": "Anahtar kelime",
|
20
20
|
"tooltip": "Arama sonuçları yeniden alınacak ve yeni bir özet mesajı oluşturulacaktır"
|
21
21
|
},
|
22
|
-
"
|
22
|
+
"searchCategory": {
|
23
|
+
"placeholder": "Kategori Ara",
|
24
|
+
"title": "Kategori Ara:",
|
25
|
+
"value": {
|
26
|
+
"files": "Dosyalar",
|
27
|
+
"general": "Genel",
|
28
|
+
"images": "Görüntüler",
|
29
|
+
"it": "Bilgi Teknolojisi",
|
30
|
+
"map": "Harita",
|
31
|
+
"music": "Müzik",
|
32
|
+
"news": "Haberler",
|
33
|
+
"science": "Bilim",
|
34
|
+
"social_media": "Sosyal Medya",
|
35
|
+
"videos": "Videolar"
|
36
|
+
}
|
37
|
+
},
|
38
|
+
"searchEngine": {
|
39
|
+
"placeholder": "Arama Motoru",
|
40
|
+
"title": "Arama Motoru:"
|
41
|
+
},
|
23
42
|
"searchResult": "Arama sayısı:",
|
43
|
+
"searchTimeRange": "Zaman aralığı:",
|
24
44
|
"summary": "Özet",
|
25
45
|
"summaryTooltip": "Mevcut içeriği özetle",
|
26
46
|
"viewMoreResults": "Daha fazla {{results}} sonuç görüntüle"
|
@@ -91,6 +91,10 @@
|
|
91
91
|
"provider": "Nhà cung cấp"
|
92
92
|
},
|
93
93
|
"OllamaSetupGuide": {
|
94
|
+
"action": {
|
95
|
+
"close": "Đóng thông báo",
|
96
|
+
"start": "Đã cài đặt và chạy, bắt đầu cuộc trò chuyện"
|
97
|
+
},
|
94
98
|
"cors": {
|
95
99
|
"description": "Do hạn chế bảo mật của trình duyệt, bạn cần cấu hình CORS cho Ollama để có thể sử dụng bình thường.",
|
96
100
|
"linux": {
|
@@ -164,6 +164,7 @@
|
|
164
164
|
},
|
165
165
|
"download": {
|
166
166
|
"desc": "Ollama đang tải xuống mô hình này, vui lòng không đóng trang này. Quá trình tải xuống sẽ tiếp tục từ nơi đã bị gián đoạn khi tải lại",
|
167
|
+
"failed": "Tải mô hình không thành công, vui lòng kiểm tra kết nối mạng hoặc cài đặt Ollama và thử lại",
|
167
168
|
"remainingTime": "Thời gian còn lại",
|
168
169
|
"speed": "Tốc độ tải xuống",
|
169
170
|
"title": "Đang tải mô hình {{model}}"
|
@@ -842,6 +842,9 @@
|
|
842
842
|
"ernie-tiny-8k": {
|
843
843
|
"description": "ERNIE Tiny là mô hình ngôn ngữ lớn hiệu suất siêu cao tự phát triển của Baidu, có chi phí triển khai và tinh chỉnh thấp nhất trong dòng sản phẩm văn tâm."
|
844
844
|
},
|
845
|
+
"ernie-x1-32k-preview": {
|
846
|
+
"description": "Mô hình lớn Wenxin X1 có khả năng hiểu, lập kế hoạch, phản ánh và tiến hóa mạnh mẽ hơn. Là một mô hình tư duy sâu sắc toàn diện hơn, Wenxin X1 kết hợp độ chính xác, sự sáng tạo và văn phong, đặc biệt xuất sắc trong các lĩnh vực như hỏi đáp kiến thức tiếng Trung, sáng tác văn học, viết tài liệu, đối thoại hàng ngày, suy luận logic, tính toán phức tạp và gọi công cụ."
|
847
|
+
},
|
845
848
|
"gemini-1.0-pro-001": {
|
846
849
|
"description": "Gemini 1.0 Pro 001 (Tuning) cung cấp hiệu suất ổn định và có thể điều chỉnh, là lựa chọn lý tưởng cho các giải pháp nhiệm vụ phức tạp."
|
847
850
|
},
|
@@ -914,6 +917,9 @@
|
|
914
917
|
"gemini-2.5-pro-exp-03-25": {
|
915
918
|
"description": "Gemini 2.5 Pro Experimental là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận về mã, toán học và các vấn đề phức tạp trong lĩnh vực STEM, đồng thời có thể phân tích các tập dữ liệu lớn, kho mã và tài liệu bằng cách sử dụng ngữ cảnh dài."
|
916
919
|
},
|
920
|
+
"gemini-2.5-pro-preview-03-25": {
|
921
|
+
"description": "Gemini 2.5 Pro Preview là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận về mã, toán học và các vấn đề phức tạp trong lĩnh vực STEM, cũng như phân tích các tập dữ liệu lớn, kho mã và tài liệu bằng cách sử dụng ngữ cảnh dài."
|
922
|
+
},
|
917
923
|
"gemma-7b-it": {
|
918
924
|
"description": "Gemma 7B phù hợp cho việc xử lý các nhiệm vụ quy mô vừa và nhỏ, đồng thời mang lại hiệu quả chi phí."
|
919
925
|
},
|
@@ -1571,9 +1577,6 @@
|
|
1571
1577
|
"openai/o1-preview": {
|
1572
1578
|
"description": "o1 là mô hình suy diễn mới của OpenAI, phù hợp cho các nhiệm vụ phức tạp cần kiến thức tổng quát rộng rãi. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023."
|
1573
1579
|
},
|
1574
|
-
"openchat/openchat-7b": {
|
1575
|
-
"description": "OpenChat 7B là thư viện mô hình ngôn ngữ mã nguồn mở được tinh chỉnh bằng chiến lược 'C-RLFT (tinh chỉnh tăng cường có điều kiện)'."
|
1576
|
-
},
|
1577
1580
|
"openrouter/auto": {
|
1578
1581
|
"description": "Dựa trên độ dài ngữ cảnh, chủ đề và độ phức tạp, yêu cầu của bạn sẽ được gửi đến Llama 3 70B Instruct, Claude 3.5 Sonnet (tự điều chỉnh) hoặc GPT-4o."
|
1579
1582
|
},
|
@@ -1595,8 +1598,8 @@
|
|
1595
1598
|
"qvq-72b-preview": {
|
1596
1599
|
"description": "Mô hình QVQ là mô hình nghiên cứu thử nghiệm do đội ngũ Qwen phát triển, tập trung vào việc nâng cao khả năng suy luận hình ảnh, đặc biệt trong lĩnh vực suy luận toán học."
|
1597
1600
|
},
|
1598
|
-
"qvq-max
|
1599
|
-
"description": "Mô hình suy luận thị giác QVQ của Tongyi Qianwen
|
1601
|
+
"qvq-max": {
|
1602
|
+
"description": "Mô hình suy luận thị giác QVQ của Tongyi Qianwen hỗ trợ đầu vào thị giác và đầu ra chuỗi tư duy, thể hiện khả năng mạnh mẽ hơn trong toán học, lập trình, phân tích thị giác, sáng tạo và các nhiệm vụ chung."
|
1600
1603
|
},
|
1601
1604
|
"qwen-coder-plus-latest": {
|
1602
1605
|
"description": "Mô hình mã Qwen."
|
package/locales/vi-VN/tool.json
CHANGED
@@ -19,8 +19,28 @@
|
|
19
19
|
"placeholder": "Từ khóa",
|
20
20
|
"tooltip": "Sẽ lấy lại kết quả tìm kiếm và tạo một tin nhắn tóm tắt mới"
|
21
21
|
},
|
22
|
-
"
|
22
|
+
"searchCategory": {
|
23
|
+
"placeholder": "Tìm kiếm danh mục",
|
24
|
+
"title": "Danh mục tìm kiếm:",
|
25
|
+
"value": {
|
26
|
+
"files": "Tài liệu",
|
27
|
+
"general": "Chung",
|
28
|
+
"images": "Hình ảnh",
|
29
|
+
"it": "Công nghệ thông tin",
|
30
|
+
"map": "Bản đồ",
|
31
|
+
"music": "Âm nhạc",
|
32
|
+
"news": "Tin tức",
|
33
|
+
"science": "Khoa học",
|
34
|
+
"social_media": "Mạng xã hội",
|
35
|
+
"videos": "Video"
|
36
|
+
}
|
37
|
+
},
|
38
|
+
"searchEngine": {
|
39
|
+
"placeholder": "Công cụ tìm kiếm",
|
40
|
+
"title": "Công cụ tìm kiếm:"
|
41
|
+
},
|
23
42
|
"searchResult": "Số lượng tìm kiếm:",
|
43
|
+
"searchTimeRange": "Khoảng thời gian:",
|
24
44
|
"summary": "Tóm tắt",
|
25
45
|
"summaryTooltip": "Tóm tắt nội dung hiện tại",
|
26
46
|
"viewMoreResults": "Xem thêm {{results}} kết quả"
|
@@ -842,6 +842,9 @@
|
|
842
842
|
"ernie-tiny-8k": {
|
843
843
|
"description": "ERNIE Tiny是百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。"
|
844
844
|
},
|
845
|
+
"ernie-x1-32k-preview": {
|
846
|
+
"description": "文心大模型X1具备更强的理解、规划、反思、进化能力。作为能力更全面的深度思考模型,文心X1兼备准确、创意和文采,在中文知识问答、文学创作、文稿写作、日常对话、逻辑推理、复杂计算及工具调用等方面表现尤为出色。"
|
847
|
+
},
|
845
848
|
"gemini-1.0-pro-001": {
|
846
849
|
"description": "Gemini 1.0 Pro 001 (Tuning) 提供稳定并可调优的性能,是复杂任务解决方案的理想选择。"
|
847
850
|
},
|
@@ -912,7 +915,10 @@
|
|
912
915
|
"description": "Gemini 2.0 Pro Experimental 是 Google 最新的实验性多模态AI模型,与历史版本相比有一定的质量提升,特别是对于世界知识、代码和长上下文。"
|
913
916
|
},
|
914
917
|
"gemini-2.5-pro-exp-03-25": {
|
915
|
-
"description": "Gemini 2.5 Pro Experimental 是 Google 最先进的思维模型,能够对代码、数学和STEM
|
918
|
+
"description": "Gemini 2.5 Pro Experimental 是 Google 最先进的思维模型,能够对代码、数学和STEM领域的复杂问题进行推理,以及使用长上下文分析大型数据集、代码库和文档。"
|
919
|
+
},
|
920
|
+
"gemini-2.5-pro-preview-03-25": {
|
921
|
+
"description": "Gemini 2.5 Pro Preview 是 Google 最先进的思维模型,能够对代码、数学和STEM领域的复杂问题进行推理,以及使用长上下文分析大型数据集、代码库和文档。"
|
916
922
|
},
|
917
923
|
"gemma-7b-it": {
|
918
924
|
"description": "Gemma 7B 适合中小规模任务处理,兼具成本效益。"
|
@@ -1571,9 +1577,6 @@
|
|
1571
1577
|
"openai/o1-preview": {
|
1572
1578
|
"description": "o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。"
|
1573
1579
|
},
|
1574
|
-
"openchat/openchat-7b": {
|
1575
|
-
"description": "OpenChat 7B 是经过“C-RLFT(条件强化学习微调)”策略精调的开源语言模型库。"
|
1576
|
-
},
|
1577
1580
|
"openrouter/auto": {
|
1578
1581
|
"description": "根据上下文长度、主题和复杂性,你的请求将发送到 Llama 3 70B Instruct、Claude 3.5 Sonnet(自我调节)或 GPT-4o。"
|
1579
1582
|
},
|
@@ -1595,7 +1598,7 @@
|
|
1595
1598
|
"qvq-72b-preview": {
|
1596
1599
|
"description": "QVQ-72B-Preview 是由 Qwen 团队开发的实验性研究模型,专注于提升视觉推理能力。"
|
1597
1600
|
},
|
1598
|
-
"qvq-max
|
1601
|
+
"qvq-max": {
|
1599
1602
|
"description": "通义千问QVQ视觉推理模型,支持视觉输入及思维链输出,在数学、编程、视觉分析、创作以及通用任务上都表现了更强的能力。"
|
1600
1603
|
},
|
1601
1604
|
"qwen-coder-plus-latest": {
|
@@ -1758,7 +1761,7 @@
|
|
1758
1761
|
"description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
|
1759
1762
|
},
|
1760
1763
|
"qwq": {
|
1761
|
-
"description": "QwQ
|
1764
|
+
"description": "QwQ 是 Qwen 系列的推理模型。与传统的指令调优模型相比,QwQ 具备思考和推理的能力,能够在下游任务中,尤其是困难问题上,显著提升性能。QwQ-32B 是中型推理模型,能够在与最先进的推理模型(如 DeepSeek-R1、o1-mini)竞争时取得可观的表现。"
|
1762
1765
|
},
|
1763
1766
|
"qwq-32b": {
|
1764
1767
|
"description": "QwQ 是 Qwen 系列的推理模型。与传统的指令微调模型相比,QwQ 具备思考和推理能力,在下游任务中,尤其是复杂问题上,能够实现显著增强的性能。QwQ-32B 是一款中型推理模型,其性能可与最先进的推理模型(如 DeepSeek-R1、o1-mini)相媲美。"
|
package/locales/zh-CN/tool.json
CHANGED
@@ -19,8 +19,37 @@
|
|
19
19
|
"placeholder": "关键词",
|
20
20
|
"tooltip": "将会重新获取搜索结果,并创建一条新的总结消息"
|
21
21
|
},
|
22
|
-
"
|
22
|
+
"searchCategory": {
|
23
|
+
"placeholder": "搜索类别",
|
24
|
+
"title": "搜索类别:",
|
25
|
+
"value": {
|
26
|
+
"files": "文件",
|
27
|
+
"general": "通用",
|
28
|
+
"images": "图片",
|
29
|
+
"it": "信息技术",
|
30
|
+
"map": "地图",
|
31
|
+
"music": "音乐",
|
32
|
+
"news": "新闻",
|
33
|
+
"science": "科学",
|
34
|
+
"social_media": "社交媒体",
|
35
|
+
"videos": "视频"
|
36
|
+
}
|
37
|
+
},
|
38
|
+
"searchEngine": {
|
39
|
+
"placeholder": "搜索引擎",
|
40
|
+
"title": "搜索引擎:"
|
41
|
+
},
|
23
42
|
"searchResult": "搜索数量:",
|
43
|
+
"searchTimeRange": {
|
44
|
+
"title": "时间范围:",
|
45
|
+
"value": {
|
46
|
+
"anytime": "时间不限",
|
47
|
+
"day": "一天内",
|
48
|
+
"month": "一月内",
|
49
|
+
"week": "一周内",
|
50
|
+
"year": "一年内"
|
51
|
+
}
|
52
|
+
},
|
24
53
|
"summary": "总结",
|
25
54
|
"summaryTooltip": "总结当前内容",
|
26
55
|
"viewMoreResults": "查看更多 {{results}} 个结果"
|
@@ -842,6 +842,9 @@
|
|
842
842
|
"ernie-tiny-8k": {
|
843
843
|
"description": "ERNIE Tiny是百度自研的超高性能大語言模型,部署與精調成本在文心系列模型中最低。"
|
844
844
|
},
|
845
|
+
"ernie-x1-32k-preview": {
|
846
|
+
"description": "文心大模型X1具備更強的理解、規劃、反思、進化能力。作為能力更全面的深度思考模型,文心X1兼具準確、創意和文采,在中文知識問答、文學創作、文稿寫作、日常對話、邏輯推理、複雜計算及工具調用等方面表現尤為出色。"
|
847
|
+
},
|
845
848
|
"gemini-1.0-pro-001": {
|
846
849
|
"description": "Gemini 1.0 Pro 001 (Tuning) 提供穩定並可調優的性能,是複雜任務解決方案的理想選擇。"
|
847
850
|
},
|
@@ -914,6 +917,9 @@
|
|
914
917
|
"gemini-2.5-pro-exp-03-25": {
|
915
918
|
"description": "Gemini 2.5 Pro 實驗版是 Google 最先進的思維模型,能夠對代碼、數學和 STEM 領域的複雜問題進行推理,還能利用長上下文來分析大型數據集、代碼庫和文檔。"
|
916
919
|
},
|
920
|
+
"gemini-2.5-pro-preview-03-25": {
|
921
|
+
"description": "Gemini 2.5 Pro Preview 是 Google 最先進的思維模型,能夠對程式碼、數學和STEM領域的複雜問題進行推理,以及使用長上下文分析大型數據集、程式庫和文檔。"
|
922
|
+
},
|
917
923
|
"gemma-7b-it": {
|
918
924
|
"description": "Gemma 7B 適合中小規模任務處理,兼具成本效益。"
|
919
925
|
},
|
@@ -1571,9 +1577,6 @@
|
|
1571
1577
|
"openai/o1-preview": {
|
1572
1578
|
"description": "o1是OpenAI新的推理模型,適用於需要廣泛通用知識的複雜任務。該模型具有128K上下文和2023年10月的知識截止日期。"
|
1573
1579
|
},
|
1574
|
-
"openchat/openchat-7b": {
|
1575
|
-
"description": "OpenChat 7B 是經過“C-RLFT(條件強化學習微調)”策略精調的開源語言模型庫。"
|
1576
|
-
},
|
1577
1580
|
"openrouter/auto": {
|
1578
1581
|
"description": "根據上下文長度、主題和複雜性,你的請求將發送到 Llama 3 70B Instruct、Claude 3.5 Sonnet(自我調節)或 GPT-4o。"
|
1579
1582
|
},
|
@@ -1595,7 +1598,7 @@
|
|
1595
1598
|
"qvq-72b-preview": {
|
1596
1599
|
"description": "QVQ模型是由 Qwen 團隊開發的實驗性研究模型,專注於提升視覺推理能力,尤其在數學推理領域。"
|
1597
1600
|
},
|
1598
|
-
"qvq-max
|
1601
|
+
"qvq-max": {
|
1599
1602
|
"description": "通義千問QVQ視覺推理模型,支持視覺輸入及思維鏈輸出,在數學、程式設計、視覺分析、創作以及通用任務上都表現了更強的能力。"
|
1600
1603
|
},
|
1601
1604
|
"qwen-coder-plus-latest": {
|
package/locales/zh-TW/tool.json
CHANGED
@@ -19,8 +19,28 @@
|
|
19
19
|
"placeholder": "關鍵字",
|
20
20
|
"tooltip": "將會重新獲取搜尋結果,並建立一條新的總結消息"
|
21
21
|
},
|
22
|
-
"
|
22
|
+
"searchCategory": {
|
23
|
+
"placeholder": "搜尋類別",
|
24
|
+
"title": "搜尋類別:",
|
25
|
+
"value": {
|
26
|
+
"files": "文件",
|
27
|
+
"general": "通用",
|
28
|
+
"images": "圖片",
|
29
|
+
"it": "資訊科技",
|
30
|
+
"map": "地圖",
|
31
|
+
"music": "音樂",
|
32
|
+
"news": "新聞",
|
33
|
+
"science": "科學",
|
34
|
+
"social_media": "社交媒體",
|
35
|
+
"videos": "影片"
|
36
|
+
}
|
37
|
+
},
|
38
|
+
"searchEngine": {
|
39
|
+
"placeholder": "搜尋引擎",
|
40
|
+
"title": "搜尋引擎:"
|
41
|
+
},
|
23
42
|
"searchResult": "搜尋數量:",
|
43
|
+
"searchTimeRange": "時間範圍:",
|
24
44
|
"summary": "總結",
|
25
45
|
"summaryTooltip": "總結當前內容",
|
26
46
|
"viewMoreResults": "查看更多 {{results}} 個結果"
|
package/package.json
CHANGED
@@ -1,6 +1,6 @@
|
|
1
1
|
{
|
2
2
|
"name": "@lobehub/chat",
|
3
|
-
"version": "1.77.
|
3
|
+
"version": "1.77.18",
|
4
4
|
"description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
5
5
|
"keywords": [
|
6
6
|
"framework",
|
@@ -0,0 +1,34 @@
|
|
1
|
+
import { checkAuth } from '@/app/(backend)/middleware/auth';
|
2
|
+
import { ChatCompletionErrorPayload, PullModelParams } from '@/libs/agent-runtime';
|
3
|
+
import { initAgentRuntimeWithUserPayload } from '@/server/modules/AgentRuntime';
|
4
|
+
import { ChatErrorType } from '@/types/fetch';
|
5
|
+
import { createErrorResponse } from '@/utils/errorResponse';
|
6
|
+
|
7
|
+
export const runtime = 'edge';
|
8
|
+
|
9
|
+
export const POST = checkAuth(async (req, { params, jwtPayload }) => {
|
10
|
+
const { provider } = await params;
|
11
|
+
|
12
|
+
try {
|
13
|
+
const agentRuntime = await initAgentRuntimeWithUserPayload(provider, jwtPayload);
|
14
|
+
|
15
|
+
const data = (await req.json()) as PullModelParams;
|
16
|
+
|
17
|
+
const res = await agentRuntime.pullModel(data, { signal: req.signal });
|
18
|
+
if (res) return res;
|
19
|
+
|
20
|
+
throw new Error('No response');
|
21
|
+
} catch (e) {
|
22
|
+
const {
|
23
|
+
errorType = ChatErrorType.InternalServerError,
|
24
|
+
error: errorContent,
|
25
|
+
...res
|
26
|
+
} = e as ChatCompletionErrorPayload;
|
27
|
+
|
28
|
+
const error = errorContent || e;
|
29
|
+
// track the error at server side
|
30
|
+
console.error(`Route: [${provider}] ${errorType}:`, error);
|
31
|
+
|
32
|
+
return createErrorResponse(errorType, { error, ...res, provider });
|
33
|
+
}
|
34
|
+
});
|
@@ -8,8 +8,7 @@ import { createErrorResponse } from '@/utils/errorResponse';
|
|
8
8
|
|
9
9
|
export const runtime = 'edge';
|
10
10
|
|
11
|
-
const noNeedAPIKey = (provider: string) =>
|
12
|
-
[ModelProvider.OpenRouter].includes(provider as any);
|
11
|
+
const noNeedAPIKey = (provider: string) => [ModelProvider.OpenRouter].includes(provider as any);
|
13
12
|
|
14
13
|
export const GET = checkAuth(async (req, { params, jwtPayload }) => {
|
15
14
|
const { provider } = await params;
|
@@ -5,19 +5,12 @@ import { useTranslation } from 'react-i18next';
|
|
5
5
|
import { OllamaProviderCard } from '@/config/modelProviders';
|
6
6
|
|
7
7
|
import { ProviderItem } from '../../type';
|
8
|
-
import Checker from './Checker';
|
9
8
|
|
10
9
|
export const useOllamaProvider = (): ProviderItem => {
|
11
10
|
const { t } = useTranslation('modelProvider');
|
12
11
|
|
13
12
|
return {
|
14
13
|
...OllamaProviderCard,
|
15
|
-
checkerItem: {
|
16
|
-
children: <Checker />,
|
17
|
-
desc: t('ollama.checker.desc'),
|
18
|
-
label: t('ollama.checker.title'),
|
19
|
-
minWidth: undefined,
|
20
|
-
},
|
21
14
|
proxyUrl: {
|
22
15
|
desc: t('ollama.endpoint.desc'),
|
23
16
|
placeholder: 'http://127.0.0.1:11434',
|
@@ -13,7 +13,7 @@ const OllamaSetupGuide = dynamic(() => import('@/components/OllamaSetupGuide'),
|
|
13
13
|
ssr: false,
|
14
14
|
});
|
15
15
|
|
16
|
-
const InvalidModel = dynamic(() => import('
|
16
|
+
const InvalidModel = dynamic(() => import('@/features/OllamaModelDownloader'), {
|
17
17
|
loading,
|
18
18
|
ssr: false,
|
19
19
|
});
|