@lobehub/chat 1.96.15 → 1.96.17
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +42 -0
- package/apps/desktop/package.json +2 -1
- package/changelog/v1.json +14 -0
- package/locales/ar/models.json +6 -0
- package/locales/bg-BG/models.json +6 -0
- package/locales/de-DE/models.json +6 -0
- package/locales/en-US/models.json +6 -0
- package/locales/es-ES/models.json +6 -0
- package/locales/fa-IR/models.json +6 -0
- package/locales/fr-FR/models.json +6 -0
- package/locales/it-IT/models.json +6 -0
- package/locales/ja-JP/models.json +6 -0
- package/locales/ko-KR/models.json +6 -0
- package/locales/nl-NL/models.json +6 -0
- package/locales/pl-PL/models.json +6 -0
- package/locales/pt-BR/models.json +6 -0
- package/locales/ru-RU/models.json +6 -0
- package/locales/tr-TR/models.json +6 -0
- package/locales/vi-VN/models.json +6 -0
- package/locales/zh-CN/models.json +6 -0
- package/locales/zh-TW/models.json +6 -0
- package/package.json +3 -2
- package/scripts/migrateServerDB/index.ts +1 -0
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatInput/Mobile/index.tsx +1 -1
- package/src/server/modules/ContentChunk/index.ts +1 -1
- package/src/tools/local-system/Render/index.tsx +1 -1
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,48 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.96.17](https://github.com/lobehub/lobe-chat/compare/v1.96.16...v1.96.17)
|
6
|
+
|
7
|
+
<sup>Released on **2025-07-03**</sup>
|
8
|
+
|
9
|
+
<br/>
|
10
|
+
|
11
|
+
<details>
|
12
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
13
|
+
|
14
|
+
</details>
|
15
|
+
|
16
|
+
<div align="right">
|
17
|
+
|
18
|
+
[](#readme-top)
|
19
|
+
|
20
|
+
</div>
|
21
|
+
|
22
|
+
### [Version 1.96.16](https://github.com/lobehub/lobe-chat/compare/v1.96.15...v1.96.16)
|
23
|
+
|
24
|
+
<sup>Released on **2025-07-03**</sup>
|
25
|
+
|
26
|
+
#### 💄 Styles
|
27
|
+
|
28
|
+
- **misc**: Update i18n.
|
29
|
+
|
30
|
+
<br/>
|
31
|
+
|
32
|
+
<details>
|
33
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
34
|
+
|
35
|
+
#### Styles
|
36
|
+
|
37
|
+
- **misc**: Update i18n, closes [#8322](https://github.com/lobehub/lobe-chat/issues/8322) ([0c6b885](https://github.com/lobehub/lobe-chat/commit/0c6b885))
|
38
|
+
|
39
|
+
</details>
|
40
|
+
|
41
|
+
<div align="right">
|
42
|
+
|
43
|
+
[](#readme-top)
|
44
|
+
|
45
|
+
</div>
|
46
|
+
|
5
47
|
### [Version 1.96.15](https://github.com/lobehub/lobe-chat/compare/v1.96.14...v1.96.15)
|
6
48
|
|
7
49
|
<sup>Released on **2025-07-02**</sup>
|
@@ -24,7 +24,7 @@
|
|
24
24
|
"lint": "eslint --cache ",
|
25
25
|
"pg-server": "bun run scripts/pglite-server.ts",
|
26
26
|
"start": "electron-vite preview",
|
27
|
-
"typecheck": "
|
27
|
+
"typecheck": "tsgo --noEmit -p tsconfig.json"
|
28
28
|
},
|
29
29
|
"dependencies": {
|
30
30
|
"electron-updater": "^6.6.2",
|
@@ -45,6 +45,7 @@
|
|
45
45
|
"@types/resolve": "^1.20.6",
|
46
46
|
"@types/semver": "^7.7.0",
|
47
47
|
"@types/set-cookie-parser": "^2.4.10",
|
48
|
+
"@typescript/native-preview": "latest",
|
48
49
|
"consola": "^3.1.0",
|
49
50
|
"cookie": "^1.0.2",
|
50
51
|
"electron": "^36.2.0",
|
package/changelog/v1.json
CHANGED
package/locales/ar/models.json
CHANGED
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "يمكن لـ Moonshot V1 Auto اختيار النموذج المناسب بناءً على عدد الرموز المستخدمة في السياق الحالي."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B هو نموذج مفتوح المصدر للبرمجة، تم تحسينه عبر تعلم معزز واسع النطاق، قادر على إنتاج تصحيحات مستقرة وجاهزة للإنتاج مباشرة. حقق هذا النموذج نتيجة قياسية جديدة بنسبة 60.4% على SWE-bench Verified، محطماً الأرقام القياسية للنماذج المفتوحة المصدر في مهام هندسة البرمجيات الآلية مثل إصلاح العيوب ومراجعة الشيفرة."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B هو إصدار مطور من Nous Hermes 2، ويحتوي على أحدث مجموعات البيانات المطورة داخليًا."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "يجمع بين فهم الصور، ونقل المعرفة، والاستدلال المنطقي، ويظهر أداءً بارزًا في مجال الأسئلة والأجوبة النصية والصورية."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct يحتوي على 80 مليار معلمة، ويمكن تفعيل 13 مليار معلمة فقط لمنافسة النماذج الأكبر، ويدعم الاستدلال المختلط بين \"التفكير السريع/التفكير البطيء\"؛ فهم مستقر للنصوص الطويلة؛ تم التحقق من قدرات الوكيل عبر BFCL-v3 وτ-Bench، مع أداء متقدم؛ يجمع بين GQA وتنسيقات التكميم المتعددة لتحقيق استدلال فعال."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "أقوى نموذج لتضمين النصوص، مناسب للمهام الإنجليزية وغير الإنجليزية."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto може да избере подходящ модел в зависимост от количеството токени, заето от текущия контекст."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B е голям отворен модел за код, оптимизиран чрез мащабно подсилено обучение, способен да генерира стабилни и директно приложими пачове. Този модел постига нов рекорд от 60,4 % на SWE-bench Verified, подобрявайки резултатите на отворени модели в автоматизирани задачи за софтуерно инженерство като поправка на дефекти и преглед на код."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B е обновена версия на Nous Hermes 2, включваща най-новите вътрешно разработени набори от данни."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "Съчетава способности за разбиране на изображения, прехвърляне на знания и логическо обяснение, като показва отлични резултати в областта на въпросите и отговорите с текст и изображения."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct има 80 милиарда параметри, като активиране на 13 милиарда параметри е достатъчно за съпоставяне с по-големи модели, поддържа хибридно разсъждение „бързо мислене/бавно мислене“; стабилно разбиране на дълги текстове; потвърдено с BFCL-v3 и τ-Bench, с водещи възможности на агент; комбинира GQA и множество формати за квантоване за ефективно разсъждение."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "Най-мощният модел за векторизация, подходящ за английски и неанглийски задачи."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto kann basierend auf der Anzahl der im aktuellen Kontext verwendeten Tokens das geeignete Modell auswählen."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B ist ein Open-Source-Großmodell für Quellcode, das durch umfangreiche Verstärkungslernoptimierung robuste und direkt produktionsreife Patches erzeugen kann. Dieses Modell erreichte auf SWE-bench Verified eine neue Höchstpunktzahl von 60,4 % und stellte damit einen Rekord für Open-Source-Modelle bei automatisierten Software-Engineering-Aufgaben wie Fehlerbehebung und Code-Review auf."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B ist die aktualisierte Version von Nous Hermes 2 und enthält die neuesten intern entwickelten Datensätze."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "Integriert Fähigkeiten wie Bildverständnis, Wissensübertragung und logische Attribution und zeigt herausragende Leistungen im Bereich der Bild-Text-Fragen."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct verfügt über 80 Milliarden Parameter, von denen 13 Milliarden aktiviert werden können, um mit größeren Modellen zu konkurrieren. Es unterstützt eine hybride Denkweise aus „schnellem Denken/langsamem Denken“; die Verarbeitung langer Texte ist stabil; durch BFCL-v3 und τ-Bench validiert, übertrifft die Agentenfähigkeit andere Modelle; in Kombination mit GQA und mehreren Quantisierungsformaten ermöglicht es effiziente Inferenz."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "Das leistungsstärkste Vektormodell, geeignet für englische und nicht-englische Aufgaben."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto can select the appropriate model based on the number of tokens used in the current context."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B is an open-source large code model optimized through extensive reinforcement learning, capable of producing robust, production-ready patches. This model achieved a new high score of 60.4% on SWE-bench Verified, setting a record for open-source models in automated software engineering tasks such as defect repair and code review."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B is an upgraded version of Nous Hermes 2, featuring the latest internally developed datasets."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "Integrates capabilities in image understanding, knowledge transfer, and logical attribution, excelling in the field of image-text question answering."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct has 80 billion parameters, with 13 billion activated parameters matching the performance of larger models. It supports hybrid reasoning with 'fast thinking/slow thinking'; offers stable long-text comprehension; validated by BFCL-v3 and τ-Bench, demonstrating leading agent capabilities; integrates GQA and multiple quantization formats for efficient inference."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "The most powerful vectorization model, suitable for both English and non-English tasks."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto puede seleccionar el modelo adecuado según la cantidad de tokens ocupados en el contexto actual."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B es un modelo de código abierto de gran escala, optimizado mediante aprendizaje reforzado a gran escala, capaz de generar parches robustos y listos para producción. Este modelo alcanzó un nuevo récord del 60.4 % en SWE-bench Verified, estableciendo un nuevo estándar para modelos de código abierto en tareas automatizadas de ingeniería de software como la corrección de errores y la revisión de código."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B es una versión mejorada de Nous Hermes 2, que incluye los conjuntos de datos más recientes desarrollados internamente."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "Integra capacidades de comprensión de imágenes, transferencia de conocimiento y atribución lógica, destacándose en el campo de preguntas y respuestas basadas en texto e imagen."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct cuenta con 80 mil millones de parámetros, activando solo 13 mil millones para igualar modelos más grandes, soporta razonamiento híbrido de \"pensamiento rápido/pensamiento lento\"; comprensión estable de textos largos; validado por BFCL-v3 y τ-Bench, con capacidades avanzadas de agente; combina GQA y múltiples formatos de cuantificación para lograr inferencias eficientes."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "El modelo de vectorización más potente, adecuado para tareas en inglés y no inglés."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto میتواند بر اساس تعداد توکنهای اشغال شده در متن فعلی، مدل مناسب را انتخاب کند."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B یک مدل بزرگ کد منبع باز است که با یادگیری تقویتی گسترده بهینه شده است و قادر به تولید پچهای پایدار و قابل استفاده مستقیم در تولید میباشد. این مدل در SWE-bench Verified امتیاز جدید ۶۰.۴٪ را کسب کرده و رکورد مدلهای منبع باز را در وظایف مهندسی نرمافزار خودکار مانند رفع اشکال و بازبینی کد شکسته است."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "هرمس ۲ پرو لاما ۳ ۸B نسخه ارتقاء یافته Nous Hermes 2 است که شامل جدیدترین مجموعه دادههای توسعهیافته داخلی میباشد."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "تواناییهای درک تصویر، انتقال دانش، و استدلال منطقی را ترکیب کرده و در زمینه پرسش و پاسخ تصویری و متنی عملکرد برجستهای دارد."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct با ۸۰ میلیارد پارامتر، با فعالسازی ۱۳ میلیارد پارامتر قادر به رقابت با مدلهای بزرگتر است و از استدلال ترکیبی «تفکر سریع/تفکر کند» پشتیبانی میکند؛ درک متون بلند به صورت پایدار؛ توانایی عامل با تأیید BFCL-v3 و τ-Bench پیشرو است؛ با ترکیب GQA و چندین فرمت کوانتیزهسازی، استدلال کارآمد را محقق میسازد."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "قدرتمندترین مدل وکتور سازی، مناسب برای وظایف انگلیسی و غیرانگلیسی."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto peut choisir le modèle approprié en fonction du nombre de tokens utilisés dans le contexte actuel."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B est un grand modèle de code open source, optimisé par un apprentissage par renforcement à grande échelle, capable de générer des correctifs robustes et directement exploitables en production. Ce modèle a atteint un nouveau score record de 60,4 % sur SWE-bench Verified, établissant un nouveau standard pour les modèles open source dans les tâches d'ingénierie logicielle automatisée telles que la correction de bugs et la revue de code."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B est une version améliorée de Nous Hermes 2, intégrant les derniers ensembles de données développés en interne."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "Intègre des capacités de compréhension d'image, de transfert de connaissances et de raisonnement logique, se distinguant dans le domaine des questions-réponses textuelles et visuelles."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct compte 80 milliards de paramètres, avec seulement 13 milliards activés pour rivaliser avec des modèles plus grands, supportant un raisonnement hybride « pensée rapide/pensée lente » ; compréhension stable des textes longs ; validé par BFCL-v3 et τ-Bench, ses capacités d’agent sont en avance ; combinant GQA et plusieurs formats de quantification, il réalise un raisonnement efficace."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "Le modèle de vectorisation le plus puissant, adapté aux tâches en anglais et non-anglais."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto può selezionare il modello appropriato in base al numero di token utilizzati nel contesto attuale."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B è un modello open source di grandi dimensioni per il codice, ottimizzato tramite apprendimento rinforzato su larga scala, capace di generare patch robuste e pronte per la produzione. Questo modello ha raggiunto un nuovo record del 60,4% su SWE-bench Verified, superando tutti i modelli open source nelle attività di ingegneria del software automatizzata come la correzione di difetti e la revisione del codice."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B è una versione aggiornata di Nous Hermes 2, contenente i più recenti dataset sviluppati internamente."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "Integra capacità di comprensione delle immagini, trasferimento di conoscenze e attribuzione logica, mostrando prestazioni eccezionali nel campo delle domande e risposte basate su testo e immagini."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct ha 80 miliardi di parametri, ma attivando solo 13 miliardi di parametri può competere con modelli più grandi, supportando un ragionamento ibrido “pensiero veloce/pensiero lento”; garantisce una comprensione stabile di testi lunghi; validato da BFCL-v3 e τ-Bench, con capacità agent leader; integra GQA e formati multi-quantizzazione per un'inferenza efficiente."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "Il modello di vettorizzazione più potente, adatto per compiti in inglese e non inglese."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto は、現在のコンテキストで使用されているトークンの数に基づいて適切なモデルを選択できます。"
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B はオープンソースの大規模コードモデルであり、大規模な強化学習によって最適化されており、堅牢で直接本番投入可能なパッチを出力できます。このモデルは SWE-bench Verified で 60.4% の新記録を達成し、欠陥修正やコードレビューなどの自動化ソフトウェア工学タスクにおけるオープンソースモデルの記録を更新しました。"
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8BはNous Hermes 2のアップグレード版で、最新の内部開発データセットを含んでいます。"
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "画像理解、知識移転、論理帰納などの能力を融合し、画像とテキストの質問応答分野で優れたパフォーマンスを発揮します。"
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct はパラメータ数8000億で、130億のパラメータを活性化するだけでより大きなモデルに匹敵し、「速考え/遅考え」のハイブリッド推論をサポートします。長文理解が安定しており、BFCL-v3 と τ-Bench による検証でエージェント能力が先行しています。GQA と多量子化フォーマットを組み合わせ、高効率な推論を実現しています。"
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "最も強力なベクトル化モデル、英語および非英語のタスクに適しています"
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto는 현재 맥락에서 사용되는 토큰 수에 따라 적합한 모델을 선택할 수 있습니다."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B는 대규모 강화 학습 최적화를 거친 오픈소스 코드 대형 모델로, 안정적이고 바로 생산에 투입 가능한 패치를 출력할 수 있습니다. 이 모델은 SWE-bench Verified에서 60.4%의 신기록을 세우며, 결함 수정, 코드 리뷰 등 자동화 소프트웨어 엔지니어링 작업에서 오픈소스 모델의 기록을 경신했습니다."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B는 Nous Hermes 2의 업그레이드 버전으로, 최신 내부 개발 데이터 세트를 포함하고 있습니다."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "이미지 이해, 지식 이전, 논리 귀속 등의 능력을 통합하여, 이미지-텍스트 질문 응답 분야에서 뛰어난 성능을 보입니다."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct는 800억 개의 매개변수를 보유하며, 130억 개의 활성화 매개변수만으로 더 큰 모델과 견줄 수 있습니다. '빠른 사고/느린 사고' 혼합 추론을 지원하며, 긴 문서 이해가 안정적입니다. BFCL-v3와 τ-Bench 검증을 통해 에이전트 능력이 선도적임을 입증했으며, GQA와 다중 양자화 포맷을 결합해 효율적인 추론을 실현합니다."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "가장 강력한 벡터화 모델로, 영어 및 비영어 작업에 적합합니다."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto kan het geschikte model kiezen op basis van het aantal Tokens dat momenteel door de context wordt gebruikt."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B is een open source code groot model, geoptimaliseerd door grootschalige versterkte leerprocessen, dat robuuste en direct inzetbare patches kan genereren. Dit model behaalde een nieuwe recordscore van 60,4% op SWE-bench Verified en vestigde daarmee een nieuw hoogtepunt voor open source modellen bij geautomatiseerde software engineering taken zoals defectherstel en code review."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B is een upgrade van Nous Hermes 2, met de nieuwste intern ontwikkelde datasets."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "Integreert beeldbegrip, kennisoverdracht en logische toerekening, en presteert uitstekend in het domein van vraag-en-antwoord met tekst en afbeeldingen."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct heeft 80 miljard parameters, waarbij het activeren van 13 miljard parameters al vergelijkbare prestaties levert als grotere modellen. Het ondersteunt een hybride redeneermethode van 'snelle denkwijze/langzame denkwijze'; stabiele lange tekstbegrip; geverifieerd door BFCL-v3 en τ-Bench, met leidende agentcapaciteiten; gecombineerd met GQA en meerdere kwantisatieformaten voor efficiënte inferentie."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "Het krachtigste vectorisatie model, geschikt voor Engelse en niet-Engelse taken."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto może wybierać odpowiedni model w zależności od liczby tokenów zajmowanych przez bieżący kontekst."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B to otwarty model kodu źródłowego, zoptymalizowany za pomocą zaawansowanego uczenia ze wzmocnieniem, zdolny do generowania stabilnych, gotowych do produkcji poprawek. Model osiągnął nowy rekord 60,4% na SWE-bench Verified, ustanawiając nowy standard w zadaniach automatyzacji inżynierii oprogramowania, takich jak naprawa błędów i przegląd kodu."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B to ulepszona wersja Nous Hermes 2, zawierająca najnowsze wewnętrznie opracowane zbiory danych."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "Łączy zdolności rozumienia obrazów, transferu wiedzy i logicznego wnioskowania, wyróżniając się w dziedzinie pytań i odpowiedzi na podstawie tekstu i obrazów."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct ma 80 miliardów parametrów, a aktywacja 13 miliardów parametrów pozwala mu konkurować z większymi modelami. Wspiera hybrydowe wnioskowanie „szybkiego myślenia/powolnego myślenia”; stabilne rozumienie długich tekstów; potwierdzona przewaga zdolności agenta w testach BFCL-v3 i τ-Bench; dzięki połączeniu GQA i wielu formatów kwantyzacji zapewnia efektywne wnioskowanie."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "Najpotężniejszy model wektoryzacji, odpowiedni do zadań w języku angielskim i innych językach."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "O Moonshot V1 Auto pode escolher o modelo adequado com base na quantidade de Tokens ocupados pelo contexto atual."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B é um modelo de código aberto de grande porte, otimizado por meio de aprendizado reforçado em larga escala, capaz de gerar patches robustos e prontos para produção. Este modelo alcançou uma nova pontuação máxima de 60,4% no SWE-bench Verified, estabelecendo um recorde entre modelos de código aberto em tarefas automatizadas de engenharia de software, como correção de defeitos e revisão de código."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B é uma versão aprimorada do Nous Hermes 2, contendo os conjuntos de dados mais recentes desenvolvidos internamente."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "Integra capacidades de compreensão de imagens, transferência de conhecimento e atribuição lógica, destacando-se na área de perguntas e respostas baseadas em texto e imagem."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct possui 80 bilhões de parâmetros, ativando 13 bilhões para competir com modelos maiores, suportando raciocínio híbrido de “pensamento rápido/pensamento lento”; compreensão estável de textos longos; validado pelo BFCL-v3 e τ-Bench, com capacidades de agente líderes; combinando GQA e múltiplos formatos de quantização para inferência eficiente."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "O modelo de vetorização mais poderoso, adequado para tarefas em inglês e não inglês."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto может выбирать подходящую модель в зависимости от количества токенов, используемых в текущем контексте."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B — это крупная модель с открытым исходным кодом, оптимизированная с помощью масштабного обучения с подкреплением, способная выдавать надежные патчи, готовые к непосредственному внедрению. Эта модель достигла нового рекордного результата 60,4 % на SWE-bench Verified, обновив рекорды открытых моделей в автоматизированных задачах программной инженерии, таких как исправление ошибок и код-ревью."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B — это обновленная версия Nous Hermes 2, содержащая последние внутренние разработанные наборы данных."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "Объединяет способности к пониманию изображений, переносу знаний и логическому выводу, демонстрируя выдающиеся результаты в области вопросов и ответов на основе текста и изображений."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct имеет 80 миллиардов параметров, при активации 13 миллиардов параметров может конкурировать с более крупными моделями, поддерживает гибридное рассуждение «быстрое мышление/медленное мышление»; стабильное понимание длинных текстов; проверено BFCL-v3 и τ-Bench, способности агента на передовом уровне; сочетает GQA и множество форматов квантизации для эффективного вывода."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "Самая мощная модель векторизации, подходящая для английских и неанглийских задач."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto, mevcut bağlamın kullandığı Token sayısına göre uygun modeli seçebilir."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B, büyük ölçekli pekiştirmeli öğrenme ile optimize edilmiş açık kaynaklı bir kod modeli olup, sağlam ve doğrudan üretime uygun yamalar üretebilir. Bu model, SWE-bench Verified üzerinde %60,4 ile yeni bir rekor kırarak, açık kaynak modeller arasında hata düzeltme, kod incelemesi gibi otomatik yazılım mühendisliği görevlerinde en yüksek puanı elde etmiştir."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B, Nous Hermes 2'nin güncellenmiş versiyonudur ve en son iç geliştirme veri setlerini içermektedir."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "Görüntü anlama, bilgi transferi, mantıksal çıkarım gibi yetenekleri birleştirir ve görsel-işitsel soru-cevap alanında öne çıkar."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct, 80 milyar parametreye sahip olup, 13 milyar parametre etkinleştirilerek daha büyük modellerle rekabet edebilir; \"hızlı düşünme/yavaş düşünme\" karma akıl yürütmeyi destekler; uzun metin anlama kararlıdır; BFCL-v3 ve τ-Bench ile doğrulanmış, ajan yeteneklerinde liderdir; GQA ve çoklu kuantizasyon formatlarıyla birleşerek verimli akıl yürütme sağlar."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "En güçlü vektörleştirme modeli, İngilizce ve diğer dillerdeki görevler için uygundur."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto có thể chọn mô hình phù hợp dựa trên số lượng Tokens hiện tại đang chiếm dụng trong ngữ cảnh."
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B là một mô hình mã nguồn mở lớn, được tối ưu hóa qua học tăng cường quy mô lớn, có khả năng tạo ra các bản vá ổn định và có thể triển khai trực tiếp. Mô hình này đã đạt điểm cao kỷ lục 60,4% trên SWE-bench Verified, phá vỡ các kỷ lục của mô hình mã nguồn mở trong các nhiệm vụ kỹ thuật phần mềm tự động như sửa lỗi và đánh giá mã."
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B là phiên bản nâng cấp của Nous Hermes 2, bao gồm bộ dữ liệu phát triển nội bộ mới nhất."
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "Kết hợp khả năng hiểu hình ảnh, chuyển giao kiến thức, suy luận logic, thể hiện xuất sắc trong lĩnh vực hỏi đáp hình ảnh và văn bản."
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct có 80 tỷ tham số, kích hoạt 13 tỷ tham số để đạt hiệu năng tương đương các mô hình lớn hơn, hỗ trợ suy luận kết hợp “tư duy nhanh/tư duy chậm”; khả năng hiểu văn bản dài ổn định; được xác nhận qua BFCL-v3 và τ-Bench, năng lực Agent dẫn đầu; kết hợp GQA và nhiều định dạng lượng tử hóa, đạt hiệu quả suy luận cao."
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "Mô hình vector hóa mạnh mẽ nhất, phù hợp cho các nhiệm vụ tiếng Anh và không phải tiếng Anh."
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto 可以根据当前上下文占用的 Tokens 数量来选择合适的模型"
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B 是一款开源代码大模型,经过大规模强化学习优化,能输出稳健、可直接投产的补丁。该模型在 SWE-bench Verified 上取得 60.4 % 的新高分,刷新了开源模型在缺陷修复、代码评审等自动化软件工程任务上的纪录。"
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2的升级版本,包含最新的内部开发的数据集。"
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "融合了图像理解、知识迁移、逻辑归因等能力,在图文问答领域表现突出"
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct 参数量800 亿,激活 130 亿参数即可对标更大模型,支持“快思考/慢思考”混合推理;长文理解稳定;经 BFCL-v3 与 τ-Bench 验证,Agent 能力领先;结合 GQA 与多量化格式,实现高效推理。"
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "最强大的向量化模型,适用于英文和非英文任务"
|
2287
2293
|
},
|
@@ -1844,6 +1844,9 @@
|
|
1844
1844
|
"moonshot-v1-auto": {
|
1845
1845
|
"description": "Moonshot V1 Auto 可以根據當前上下文佔用的 Tokens 數量來選擇合適的模型"
|
1846
1846
|
},
|
1847
|
+
"moonshotai/Kimi-Dev-72B": {
|
1848
|
+
"description": "Kimi-Dev-72B 是一款開源程式碼大型模型,經過大規模強化學習優化,能輸出穩健、可直接投產的補丁。該模型在 SWE-bench Verified 上取得 60.4 % 的新高分,刷新了開源模型在缺陷修復、程式碼審查等自動化軟體工程任務上的紀錄。"
|
1849
|
+
},
|
1847
1850
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1848
1851
|
"description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2 的升級版本,包含最新的內部開發的數據集。"
|
1849
1852
|
},
|
@@ -2282,6 +2285,9 @@
|
|
2282
2285
|
"taichu_vl": {
|
2283
2286
|
"description": "融合了圖像理解、知識遷移、邏輯歸因等能力,在圖文問答領域表現突出。"
|
2284
2287
|
},
|
2288
|
+
"tencent/Hunyuan-A13B-Instruct": {
|
2289
|
+
"description": "Hunyuan-A13B-Instruct 參數量800 億,啟動 130 億參數即可對標更大模型,支援「快思考/慢思考」混合推理;長文理解穩定;經 BFCL-v3 與 τ-Bench 驗證,Agent 能力領先;結合 GQA 與多量化格式,實現高效推理。"
|
2290
|
+
},
|
2285
2291
|
"text-embedding-3-large": {
|
2286
2292
|
"description": "最強大的向量化模型,適用於英文和非英文任務"
|
2287
2293
|
},
|
package/package.json
CHANGED
@@ -1,6 +1,6 @@
|
|
1
1
|
{
|
2
2
|
"name": "@lobehub/chat",
|
3
|
-
"version": "1.96.
|
3
|
+
"version": "1.96.17",
|
4
4
|
"description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
5
5
|
"keywords": [
|
6
6
|
"framework",
|
@@ -76,7 +76,7 @@
|
|
76
76
|
"test-server": "TEST_SERVER_DB=1 vitest run --config vitest.server.config.ts",
|
77
77
|
"test-server:coverage": "TEST_SERVER_DB=1 vitest run --config vitest.server.config.ts --coverage",
|
78
78
|
"test:update": "vitest -u",
|
79
|
-
"type-check": "
|
79
|
+
"type-check": "tsgo --noEmit",
|
80
80
|
"webhook:ngrok": "ngrok http http://localhost:3011",
|
81
81
|
"workflow:cdn": "tsx ./scripts/cdnWorkflow/index.ts",
|
82
82
|
"workflow:changelog": "tsx ./scripts/changelogWorkflow/index.ts",
|
@@ -310,6 +310,7 @@
|
|
310
310
|
"@types/unist": "^3.0.3",
|
311
311
|
"@types/uuid": "^10.0.0",
|
312
312
|
"@types/ws": "^8.18.1",
|
313
|
+
"@typescript/native-preview": "latest",
|
313
314
|
"@vitest/coverage-v8": "^3.1.4",
|
314
315
|
"ajv-keywords": "^5.1.0",
|
315
316
|
"commitlint": "^19.8.1",
|
@@ -3,6 +3,7 @@ import { migrate as neonMigrate } from 'drizzle-orm/neon-serverless/migrator';
|
|
3
3
|
import { migrate as nodeMigrate } from 'drizzle-orm/node-postgres/migrator';
|
4
4
|
import { join } from 'node:path';
|
5
5
|
|
6
|
+
// @ts-ignore tsgo handle esm import cjs and compatibility issues
|
6
7
|
import { DB_FAIL_INIT_HINT, PGVECTOR_HINT } from './errorHint';
|
7
8
|
|
8
9
|
// Read the `.env` file if it exists, or a file specified by the
|
package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatInput/Mobile/index.tsx
CHANGED
@@ -5,9 +5,9 @@ import { useTheme } from 'antd-style';
|
|
5
5
|
import { TextAreaRef } from 'antd/es/input/TextArea';
|
6
6
|
import { memo, useRef, useState } from 'react';
|
7
7
|
import { Flexbox } from 'react-layout-kit';
|
8
|
-
import STT from 'src/features/ChatInput/ActionBar/STT';
|
9
8
|
|
10
9
|
import ActionBar from '@/features/ChatInput/ActionBar';
|
10
|
+
import STT from '@/features/ChatInput/ActionBar/STT';
|
11
11
|
import { ActionKeys } from '@/features/ChatInput/ActionBar/config';
|
12
12
|
import SaveTopic from '@/features/ChatInput/Topic';
|
13
13
|
import { useSendMessage } from '@/features/ChatInput/useSend';
|
@@ -1,8 +1,8 @@
|
|
1
|
-
import { ChunkingLoader } from 'src/libs/langchain';
|
2
1
|
import { Strategy } from 'unstructured-client/sdk/models/shared';
|
3
2
|
|
4
3
|
import { knowledgeEnv } from '@/config/knowledge';
|
5
4
|
import type { NewChunkItem, NewUnstructuredChunkItem } from '@/database/schemas';
|
5
|
+
import { ChunkingLoader } from '@/libs/langchain';
|
6
6
|
import { ChunkingStrategy, Unstructured } from '@/libs/unstructured';
|
7
7
|
|
8
8
|
import { ChunkingRuleParser } from './rules';
|
@@ -1,7 +1,7 @@
|
|
1
1
|
import { LocalFileItem } from '@lobechat/electron-client-ipc';
|
2
2
|
import { memo } from 'react';
|
3
|
-
import { LocalSystemApiName } from 'src/tools/local-system';
|
4
3
|
|
4
|
+
import { LocalSystemApiName } from '@/tools/local-system';
|
5
5
|
import { BuiltinRenderProps } from '@/types/tool';
|
6
6
|
|
7
7
|
import ListFiles from './ListFiles';
|