@lobehub/chat 1.47.22 → 1.48.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (98) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/chat.json +4 -0
  4. package/locales/ar/components.json +1 -0
  5. package/locales/ar/models.json +6 -0
  6. package/locales/bg-BG/chat.json +4 -0
  7. package/locales/bg-BG/components.json +1 -0
  8. package/locales/bg-BG/models.json +6 -0
  9. package/locales/de-DE/chat.json +4 -0
  10. package/locales/de-DE/components.json +1 -0
  11. package/locales/de-DE/models.json +6 -0
  12. package/locales/en-US/chat.json +4 -0
  13. package/locales/en-US/components.json +1 -0
  14. package/locales/en-US/models.json +6 -0
  15. package/locales/es-ES/chat.json +4 -0
  16. package/locales/es-ES/components.json +1 -0
  17. package/locales/es-ES/models.json +6 -0
  18. package/locales/fa-IR/chat.json +4 -0
  19. package/locales/fa-IR/components.json +1 -0
  20. package/locales/fa-IR/models.json +6 -0
  21. package/locales/fr-FR/chat.json +4 -0
  22. package/locales/fr-FR/components.json +1 -0
  23. package/locales/fr-FR/models.json +6 -0
  24. package/locales/it-IT/chat.json +4 -0
  25. package/locales/it-IT/components.json +1 -0
  26. package/locales/it-IT/models.json +6 -0
  27. package/locales/ja-JP/chat.json +4 -0
  28. package/locales/ja-JP/components.json +1 -0
  29. package/locales/ja-JP/models.json +6 -0
  30. package/locales/ko-KR/chat.json +4 -0
  31. package/locales/ko-KR/components.json +1 -0
  32. package/locales/ko-KR/models.json +6 -0
  33. package/locales/nl-NL/chat.json +4 -0
  34. package/locales/nl-NL/components.json +1 -0
  35. package/locales/nl-NL/models.json +6 -0
  36. package/locales/pl-PL/chat.json +4 -0
  37. package/locales/pl-PL/components.json +1 -0
  38. package/locales/pl-PL/models.json +6 -0
  39. package/locales/pt-BR/chat.json +4 -0
  40. package/locales/pt-BR/components.json +1 -0
  41. package/locales/pt-BR/models.json +6 -0
  42. package/locales/ru-RU/chat.json +4 -0
  43. package/locales/ru-RU/components.json +1 -0
  44. package/locales/ru-RU/models.json +6 -0
  45. package/locales/tr-TR/chat.json +4 -0
  46. package/locales/tr-TR/components.json +1 -0
  47. package/locales/tr-TR/models.json +6 -0
  48. package/locales/vi-VN/chat.json +4 -0
  49. package/locales/vi-VN/components.json +1 -0
  50. package/locales/vi-VN/models.json +6 -0
  51. package/locales/zh-CN/chat.json +4 -0
  52. package/locales/zh-CN/components.json +1 -0
  53. package/locales/zh-CN/modelProvider.json +2 -2
  54. package/locales/zh-CN/models.json +7 -1
  55. package/locales/zh-TW/chat.json +4 -0
  56. package/locales/zh-TW/components.json +1 -0
  57. package/locales/zh-TW/models.json +6 -0
  58. package/package.json +1 -1
  59. package/src/components/ModelSelect/index.tsx +16 -1
  60. package/src/config/aiModels/deepseek.ts +3 -0
  61. package/src/config/aiModels/hunyuan.ts +132 -12
  62. package/src/config/aiModels/qwen.ts +19 -2
  63. package/src/config/modelProviders/hunyuan.ts +2 -0
  64. package/src/database/client/migrations.json +13 -2
  65. package/src/database/migrations/0014_add_message_reasoning.sql +1 -0
  66. package/src/database/migrations/meta/0014_snapshot.json +3961 -0
  67. package/src/database/migrations/meta/_journal.json +7 -0
  68. package/src/database/schemas/message.ts +2 -3
  69. package/src/database/server/models/__tests__/message.test.ts +5 -4
  70. package/src/database/server/models/message.ts +35 -13
  71. package/src/database/server/models/topic.ts +3 -2
  72. package/src/features/Conversation/Messages/Assistant/Reasoning/index.tsx +123 -0
  73. package/src/features/Conversation/Messages/Assistant/index.tsx +8 -1
  74. package/src/features/Conversation/components/MarkdownElements/LobeThinking/index.ts +2 -2
  75. package/src/libs/agent-runtime/deepseek/index.ts +1 -1
  76. package/src/libs/agent-runtime/google/index.ts +7 -5
  77. package/src/libs/agent-runtime/hunyuan/index.ts +24 -0
  78. package/src/libs/agent-runtime/qwen/index.ts +8 -3
  79. package/src/libs/agent-runtime/stepfun/index.ts +7 -1
  80. package/src/libs/agent-runtime/utils/streams/openai.test.ts +203 -0
  81. package/src/libs/agent-runtime/utils/streams/openai.ts +8 -1
  82. package/src/libs/agent-runtime/utils/streams/protocol.ts +1 -1
  83. package/src/locales/default/chat.ts +4 -0
  84. package/src/locales/default/components.ts +1 -0
  85. package/src/server/routers/lambda/message.ts +4 -2
  86. package/src/services/message/client.test.ts +1 -1
  87. package/src/services/message/type.ts +1 -1
  88. package/src/store/chat/selectors.ts +1 -0
  89. package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +60 -14
  90. package/src/store/chat/slices/aiChat/initialState.ts +5 -0
  91. package/src/store/chat/slices/aiChat/selectors.ts +9 -0
  92. package/src/store/chat/slices/message/action.ts +4 -1
  93. package/src/types/aiModel.ts +5 -14
  94. package/src/types/message/base.ts +59 -0
  95. package/src/types/message/chat.ts +136 -0
  96. package/src/types/message/index.ts +2 -135
  97. package/src/utils/fetch/__tests__/fetchSSE.test.ts +34 -0
  98. package/src/utils/fetch/fetchSSE.ts +38 -3
package/CHANGELOG.md CHANGED
@@ -2,6 +2,56 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ## [Version 1.48.0](https://github.com/lobehub/lobe-chat/compare/v1.47.23...v1.48.0)
6
+
7
+ <sup>Released on **2025-01-24**</sup>
8
+
9
+ #### ✨ Features
10
+
11
+ - **misc**: Support display thinking for DeepSeek R1.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### What's improved
19
+
20
+ - **misc**: Support display thinking for DeepSeek R1, closes [#5558](https://github.com/lobehub/lobe-chat/issues/5558) ([f98bb5a](https://github.com/lobehub/lobe-chat/commit/f98bb5a))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
30
+ ### [Version 1.47.23](https://github.com/lobehub/lobe-chat/compare/v1.47.22...v1.47.23)
31
+
32
+ <sup>Released on **2025-01-24**</sup>
33
+
34
+ #### 💄 Styles
35
+
36
+ - **misc**: Fix model fetch match tag error & add Hunyuan model fetch support.
37
+
38
+ <br/>
39
+
40
+ <details>
41
+ <summary><kbd>Improvements and Fixes</kbd></summary>
42
+
43
+ #### Styles
44
+
45
+ - **misc**: Fix model fetch match tag error & add Hunyuan model fetch support, closes [#5566](https://github.com/lobehub/lobe-chat/issues/5566) ([7b075ef](https://github.com/lobehub/lobe-chat/commit/7b075ef))
46
+
47
+ </details>
48
+
49
+ <div align="right">
50
+
51
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
52
+
53
+ </div>
54
+
5
55
  ### [Version 1.47.22](https://github.com/lobehub/lobe-chat/compare/v1.47.21...v1.47.22)
6
56
 
7
57
  <sup>Released on **2025-01-24**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,22 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "features": [
5
+ "Support display thinking for DeepSeek R1."
6
+ ]
7
+ },
8
+ "date": "2025-01-24",
9
+ "version": "1.48.0"
10
+ },
11
+ {
12
+ "children": {
13
+ "improvements": [
14
+ "Fix model fetch match tag error & add Hunyuan model fetch support."
15
+ ]
16
+ },
17
+ "date": "2025-01-24",
18
+ "version": "1.47.23"
19
+ },
2
20
  {
3
21
  "children": {
4
22
  "fixes": [
@@ -82,6 +82,10 @@
82
82
  }
83
83
  }
84
84
  },
85
+ "reasoning": {
86
+ "thinking": "في عمق التفكير",
87
+ "thought": "تم التفكير بعمق (استغرق {{duration}} ثانية)"
88
+ },
85
89
  "regenerate": "إعادة الإنشاء",
86
90
  "roleAndArchive": "الدور والأرشيف",
87
91
  "searchAgentPlaceholder": "مساعد البحث...",
@@ -76,6 +76,7 @@
76
76
  "custom": "نموذج مخصص، الإعداد الافتراضي يدعم الاستدعاء الوظيفي والتعرف البصري، يرجى التحقق من قدرة النموذج على القيام بذلك بناءً على الحالة الفعلية",
77
77
  "file": "يدعم هذا النموذج قراءة وتعرف الملفات المرفوعة",
78
78
  "functionCall": "يدعم هذا النموذج استدعاء الوظائف",
79
+ "reasoning": "يدعم هذا النموذج التفكير العميق",
79
80
  "tokens": "يدعم هذا النموذج حتى {{tokens}} رمزًا في جلسة واحدة",
80
81
  "vision": "يدعم هذا النموذج التعرف البصري"
81
82
  },
@@ -1328,6 +1328,9 @@
1328
1328
  "step-1.5v-mini": {
1329
1329
  "description": "يمتلك هذا النموذج قدرة قوية على فهم الفيديو."
1330
1330
  },
1331
+ "step-1o-vision-32k": {
1332
+ "description": "يمتلك هذا النموذج قدرة قوية على فهم الصور. مقارنةً بسلسلة نماذج step-1v، فإنه يتمتع بأداء بصري أقوى."
1333
+ },
1331
1334
  "step-1v-32k": {
1332
1335
  "description": "يدعم المدخلات البصرية، يعزز تجربة التفاعل متعدد الوسائط."
1333
1336
  },
@@ -1337,6 +1340,9 @@
1337
1340
  "step-2-16k": {
1338
1341
  "description": "يدعم تفاعلات سياق كبيرة، مناسب لمشاهد الحوار المعقدة."
1339
1342
  },
1343
+ "step-2-mini": {
1344
+ "description": "نموذج كبير سريع يعتمد على بنية الانتباه الجديدة MFA، يحقق نتائج مشابهة لـ step1 بتكلفة منخفضة جداً، مع الحفاظ على قدرة أعلى على المعالجة وزمن استجابة أسرع. يمكنه التعامل مع المهام العامة، ويتميز بقدرات قوية في البرمجة."
1345
+ },
1340
1346
  "taichu2_mm": {
1341
1347
  "description": "يجمع بين فهم الصور، ونقل المعرفة، والاستدلال المنطقي، ويظهر أداءً بارزًا في مجال الأسئلة والأجوبة النصية والصورية."
1342
1348
  },
@@ -82,6 +82,10 @@
82
82
  }
83
83
  }
84
84
  },
85
+ "reasoning": {
86
+ "thinking": "В дълбочинно размисъл",
87
+ "thought": "Дълбоко помислих (отне ми {{duration}} секунди)"
88
+ },
85
89
  "regenerate": "Прегенерирай",
86
90
  "roleAndArchive": "Роля и архив",
87
91
  "searchAgentPlaceholder": "Търсач на помощ...",
@@ -76,6 +76,7 @@
76
76
  "custom": "Потребителски модел, по подразбиране поддържа функционалност за функционални обаждания и визуално разпознаване, моля, потвърдете наличието на тези възможности спрямо реалните условия",
77
77
  "file": "Този модел поддържа качване на файлове и разпознаване",
78
78
  "functionCall": "Този модел поддържа функционални обаждания (Function Call)",
79
+ "reasoning": "Този модел поддържа дълбочинно мислене",
79
80
  "tokens": "Този модел поддържа до {{tokens}} токена за една сесия",
80
81
  "vision": "Този модел поддържа визуално разпознаване"
81
82
  },
@@ -1328,6 +1328,9 @@
1328
1328
  "step-1.5v-mini": {
1329
1329
  "description": "Този модел разполага с мощни способности за разбиране на видео."
1330
1330
  },
1331
+ "step-1o-vision-32k": {
1332
+ "description": "Този модел разполага с мощни способности за разбиране на изображения. В сравнение с моделите от серията step-1v, предлага по-силна визуална производителност."
1333
+ },
1331
1334
  "step-1v-32k": {
1332
1335
  "description": "Поддържа визуални входове, подобряваща мултимодалното взаимодействие."
1333
1336
  },
@@ -1337,6 +1340,9 @@
1337
1340
  "step-2-16k": {
1338
1341
  "description": "Поддържа взаимодействия с голям мащаб на контекста, подходящи за сложни диалогови сценарии."
1339
1342
  },
1343
+ "step-2-mini": {
1344
+ "description": "Модел с бърза производителност, базиран на новото поколение собствена архитектура Attention MFA, който постига резултати, подобни на step1 с много ниски разходи, като същевременно поддържа по-висока производителност и по-бързо време за отговор. Може да обработва общи задачи и притежава специализирани умения в кодирането."
1345
+ },
1340
1346
  "taichu2_mm": {
1341
1347
  "description": "Сливайки способности за разбиране на изображения, прехвърляне на знания и логическо обяснение, моделът показва отлични резултати в областта на въпросите и отговорите на текст и изображения."
1342
1348
  },
@@ -82,6 +82,10 @@
82
82
  }
83
83
  }
84
84
  },
85
+ "reasoning": {
86
+ "thinking": "Tiefes Nachdenken",
87
+ "thought": "Tiefgründig nachgedacht (Dauer: {{duration}} Sekunden)"
88
+ },
85
89
  "regenerate": "Neu generieren",
86
90
  "roleAndArchive": "Rolle und Archiv",
87
91
  "searchAgentPlaceholder": "Suchassistent...",
@@ -76,6 +76,7 @@
76
76
  "custom": "Benutzerdefiniertes Modell, standardmäßig unterstützt es sowohl Funktionsaufrufe als auch visuelle Erkennung. Bitte überprüfen Sie die Verfügbarkeit dieser Fähigkeiten basierend auf den tatsächlichen Gegebenheiten.",
77
77
  "file": "Dieses Modell unterstützt das Hochladen von Dateien und deren Erkennung.",
78
78
  "functionCall": "Dieses Modell unterstützt Funktionsaufrufe.",
79
+ "reasoning": "Dieses Modell unterstützt tiefes Denken",
79
80
  "tokens": "Dieses Modell unterstützt maximal {{tokens}} Tokens pro Sitzung.",
80
81
  "vision": "Dieses Modell unterstützt die visuelle Erkennung."
81
82
  },
@@ -1328,6 +1328,9 @@
1328
1328
  "step-1.5v-mini": {
1329
1329
  "description": "Dieses Modell verfügt über starke Fähigkeiten zur Videoanalyse."
1330
1330
  },
1331
+ "step-1o-vision-32k": {
1332
+ "description": "Dieses Modell verfügt über starke Fähigkeiten zur Bildverständnis. Im Vergleich zu den Modellen der Schritt-1v-Serie bietet es eine verbesserte visuelle Leistung."
1333
+ },
1331
1334
  "step-1v-32k": {
1332
1335
  "description": "Unterstützt visuelle Eingaben und verbessert die multimodale Interaktionserfahrung."
1333
1336
  },
@@ -1337,6 +1340,9 @@
1337
1340
  "step-2-16k": {
1338
1341
  "description": "Unterstützt groß angelegte Kontextinteraktionen und eignet sich für komplexe Dialogszenarien."
1339
1342
  },
1343
+ "step-2-mini": {
1344
+ "description": "Ein ultraschnelles Großmodell, das auf der neuen, selbstentwickelten Attention-Architektur MFA basiert. Es erreicht mit extrem niedrigen Kosten ähnliche Ergebnisse wie Schritt 1 und bietet gleichzeitig eine höhere Durchsatzrate und schnellere Reaktionszeiten. Es kann allgemeine Aufgaben bearbeiten und hat besondere Fähigkeiten im Bereich der Codierung."
1345
+ },
1340
1346
  "taichu2_mm": {
1341
1347
  "description": "Integriert Fähigkeiten zur Bildverstehung, Wissensübertragung und logischen Attribution und zeigt herausragende Leistungen im Bereich der Bild-Text-Fragen."
1342
1348
  },
@@ -82,6 +82,10 @@
82
82
  }
83
83
  }
84
84
  },
85
+ "reasoning": {
86
+ "thinking": "Deep in thought",
87
+ "thought": "Deeply thought (took {{duration}} seconds)"
88
+ },
85
89
  "regenerate": "Regenerate",
86
90
  "roleAndArchive": "Role and Archive",
87
91
  "searchAgentPlaceholder": "Search assistants...",
@@ -76,6 +76,7 @@
76
76
  "custom": "Custom model, by default, supports both function call and visual recognition. Please verify the availability of the above capabilities based on actual situations.",
77
77
  "file": "This model supports file upload for reading and recognition.",
78
78
  "functionCall": "This model supports function call.",
79
+ "reasoning": "This model supports deep thinking",
79
80
  "tokens": "This model supports up to {{tokens}} tokens in a single session.",
80
81
  "vision": "This model supports visual recognition."
81
82
  },
@@ -1328,6 +1328,9 @@
1328
1328
  "step-1.5v-mini": {
1329
1329
  "description": "This model has powerful video understanding capabilities."
1330
1330
  },
1331
+ "step-1o-vision-32k": {
1332
+ "description": "This model possesses powerful image understanding capabilities. Compared to the step-1v series models, it offers enhanced visual performance."
1333
+ },
1331
1334
  "step-1v-32k": {
1332
1335
  "description": "Supports visual input, enhancing multimodal interaction experiences."
1333
1336
  },
@@ -1337,6 +1340,9 @@
1337
1340
  "step-2-16k": {
1338
1341
  "description": "Supports large-scale context interactions, suitable for complex dialogue scenarios."
1339
1342
  },
1343
+ "step-2-mini": {
1344
+ "description": "A high-speed large model based on the next-generation self-developed Attention architecture MFA, achieving results similar to step-1 at a very low cost, while maintaining higher throughput and faster response times. It is capable of handling general tasks and has specialized skills in coding."
1345
+ },
1340
1346
  "taichu2_mm": {
1341
1347
  "description": "Integrating capabilities in image understanding, knowledge transfer, and logical attribution, it excels in the field of image-text question answering."
1342
1348
  },
@@ -82,6 +82,10 @@
82
82
  }
83
83
  }
84
84
  },
85
+ "reasoning": {
86
+ "thinking": "Pensando profundamente",
87
+ "thought": "He reflexionado profundamente (durante {{duration}} segundos)"
88
+ },
85
89
  "regenerate": "Regenerar",
86
90
  "roleAndArchive": "Rol y archivo",
87
91
  "searchAgentPlaceholder": "Asistente de búsqueda...",
@@ -76,6 +76,7 @@
76
76
  "custom": "Modelo personalizado: admite llamadas de función y reconocimiento visual. Verifique la disponibilidad de estas capacidades según sea necesario.",
77
77
  "file": "Este modelo admite la carga y reconocimiento de archivos.",
78
78
  "functionCall": "Este modelo admite llamadas de función.",
79
+ "reasoning": "Este modelo admite un pensamiento profundo",
79
80
  "tokens": "Este modelo admite un máximo de {{tokens}} tokens por sesión.",
80
81
  "vision": "Este modelo admite el reconocimiento visual."
81
82
  },
@@ -1328,6 +1328,9 @@
1328
1328
  "step-1.5v-mini": {
1329
1329
  "description": "Este modelo tiene una potente capacidad de comprensión de video."
1330
1330
  },
1331
+ "step-1o-vision-32k": {
1332
+ "description": "Este modelo posee una poderosa capacidad de comprensión de imágenes. En comparación con la serie de modelos step-1v, ofrece un rendimiento visual superior."
1333
+ },
1331
1334
  "step-1v-32k": {
1332
1335
  "description": "Soporta entradas visuales, mejorando la experiencia de interacción multimodal."
1333
1336
  },
@@ -1337,6 +1340,9 @@
1337
1340
  "step-2-16k": {
1338
1341
  "description": "Soporta interacciones de contexto a gran escala, adecuado para escenarios de diálogo complejos."
1339
1342
  },
1343
+ "step-2-mini": {
1344
+ "description": "Un modelo de gran velocidad basado en la nueva arquitectura de atención autogestionada MFA, que logra efectos similares a los de step1 a un costo muy bajo, manteniendo al mismo tiempo un mayor rendimiento y tiempos de respuesta más rápidos. Capaz de manejar tareas generales, con habilidades destacadas en programación."
1345
+ },
1340
1346
  "taichu2_mm": {
1341
1347
  "description": "Integra capacidades de comprensión de imágenes, transferencia de conocimiento, atribución lógica, destacándose en el campo de preguntas y respuestas basadas en texto e imagen."
1342
1348
  },
@@ -82,6 +82,10 @@
82
82
  }
83
83
  }
84
84
  },
85
+ "reasoning": {
86
+ "thinking": "در حال تفکر عمیق",
87
+ "thought": "به طور عمیق فکر شده است (زمان صرف شده: {{duration}} ثانیه)"
88
+ },
85
89
  "regenerate": "بازتولید",
86
90
  "roleAndArchive": "نقش‌ها و بایگانی",
87
91
  "searchAgentPlaceholder": "جستجوی دستیار...",
@@ -76,6 +76,7 @@
76
76
  "custom": "مدل سفارشی، تنظیمات پیش‌فرض از فراخوانی توابع و تشخیص بصری پشتیبانی می‌کند، لطفاً قابلیت‌های فوق را بر اساس شرایط واقعی بررسی کنید",
77
77
  "file": "این مدل از بارگذاری و شناسایی فایل‌ها پشتیبانی می‌کند",
78
78
  "functionCall": "این مدل از فراخوانی توابع (Function Call) پشتیبانی می‌کند",
79
+ "reasoning": "این مدل از تفکر عمیق پشتیبانی می‌کند",
79
80
  "tokens": "این مدل در هر جلسه حداکثر از {{tokens}} توکن پشتیبانی می‌کند",
80
81
  "vision": "این مدل از تشخیص بصری پشتیبانی می‌کند"
81
82
  },
@@ -1328,6 +1328,9 @@
1328
1328
  "step-1.5v-mini": {
1329
1329
  "description": "این مدل دارای توانایی‌های قوی در درک ویدیو است."
1330
1330
  },
1331
+ "step-1o-vision-32k": {
1332
+ "description": "این مدل دارای توانایی‌های قوی در درک تصویر است. در مقایسه با مدل‌های سری step-1v، عملکرد بصری بهتری دارد."
1333
+ },
1331
1334
  "step-1v-32k": {
1332
1335
  "description": "پشتیبانی از ورودی بصری، تقویت تجربه تعامل چندحالته."
1333
1336
  },
@@ -1337,6 +1340,9 @@
1337
1340
  "step-2-16k": {
1338
1341
  "description": "پشتیبانی از تعاملات متنی گسترده، مناسب برای سناریوهای مکالمه پیچیده."
1339
1342
  },
1343
+ "step-2-mini": {
1344
+ "description": "مدل بزرگ فوق‌العاده سریع مبتنی بر معماری توجه MFA که به‌طور خودجوش توسعه یافته است، با هزینه بسیار کم به نتایجی مشابه با مرحله ۱ دست می‌یابد و در عین حال توانایی پردازش بالاتر و زمان پاسخ سریع‌تری را حفظ می‌کند. این مدل قادر به انجام وظایف عمومی است و در توانایی‌های کدنویسی تخصص دارد."
1345
+ },
1340
1346
  "taichu2_mm": {
1341
1347
  "description": "ترکیبی از درک تصویر، انتقال دانش، استدلال منطقی و غیره، در زمینه پرسش و پاسخ تصویری و متنی عملکرد برجسته‌ای دارد."
1342
1348
  },
@@ -82,6 +82,10 @@
82
82
  }
83
83
  }
84
84
  },
85
+ "reasoning": {
86
+ "thinking": "En pleine réflexion profonde",
87
+ "thought": "J'ai réfléchi en profondeur (durée : {{duration}} secondes)"
88
+ },
85
89
  "regenerate": "Regénérer",
86
90
  "roleAndArchive": "Rôle et archivage",
87
91
  "searchAgentPlaceholder": "Assistant de recherche...",
@@ -76,6 +76,7 @@
76
76
  "custom": "Modèle personnalisé par défaut prenant en charge à la fois les appels de fonction et la reconnaissance visuelle. Veuillez vérifier la disponibilité de ces capacités en fonction de vos besoins réels.",
77
77
  "file": "Ce modèle prend en charge la lecture et la reconnaissance de fichiers téléchargés.",
78
78
  "functionCall": "Ce modèle prend en charge les appels de fonction.",
79
+ "reasoning": "Ce modèle prend en charge une réflexion approfondie",
79
80
  "tokens": "Ce modèle prend en charge jusqu'à {{tokens}} jetons par session.",
80
81
  "vision": "Ce modèle prend en charge la reconnaissance visuelle."
81
82
  },
@@ -1328,6 +1328,9 @@
1328
1328
  "step-1.5v-mini": {
1329
1329
  "description": "Ce modèle possède de puissantes capacités de compréhension vidéo."
1330
1330
  },
1331
+ "step-1o-vision-32k": {
1332
+ "description": "Ce modèle possède de puissantes capacités de compréhension d'image. Par rapport à la série de modèles step-1v, il offre des performances visuelles supérieures."
1333
+ },
1331
1334
  "step-1v-32k": {
1332
1335
  "description": "Prend en charge les entrées visuelles, améliorant l'expérience d'interaction multimodale."
1333
1336
  },
@@ -1337,6 +1340,9 @@
1337
1340
  "step-2-16k": {
1338
1341
  "description": "Prend en charge des interactions contextuelles à grande échelle, adapté aux scénarios de dialogue complexes."
1339
1342
  },
1343
+ "step-2-mini": {
1344
+ "description": "Un modèle de grande taille ultra-rapide basé sur la nouvelle architecture d'attention auto-développée MFA, atteignant des résultats similaires à ceux de step1 à un coût très bas, tout en maintenant un débit plus élevé et un temps de réponse plus rapide. Capable de traiter des tâches générales, avec des compétences particulières en matière de codage."
1345
+ },
1340
1346
  "taichu2_mm": {
1341
1347
  "description": "Intègre des capacités de compréhension d'images, de transfert de connaissances et d'attribution logique, se distinguant dans le domaine des questions-réponses textuelles et visuelles."
1342
1348
  },
@@ -82,6 +82,10 @@
82
82
  }
83
83
  }
84
84
  },
85
+ "reasoning": {
86
+ "thinking": "In profonda riflessione",
87
+ "thought": "Pensato in profondità (tempo impiegato {{duration}} secondi)"
88
+ },
85
89
  "regenerate": "Rigenera",
86
90
  "roleAndArchive": "Ruolo e archivio",
87
91
  "searchAgentPlaceholder": "Assistente di ricerca...",
@@ -76,6 +76,7 @@
76
76
  "custom": "Modello personalizzato: di default supporta sia la chiamata di funzioni che il riconoscimento visivo. Verifica l'effettiva disponibilità di tali funzionalità.",
77
77
  "file": "Questo modello supporta il caricamento e il riconoscimento di file.",
78
78
  "functionCall": "Questo modello supporta la chiamata di funzioni.",
79
+ "reasoning": "Questo modello supporta un pensiero profondo",
79
80
  "tokens": "Questo modello supporta un massimo di {{tokens}} token per sessione.",
80
81
  "vision": "Questo modello supporta il riconoscimento visivo."
81
82
  },
@@ -1328,6 +1328,9 @@
1328
1328
  "step-1.5v-mini": {
1329
1329
  "description": "Questo modello possiede potenti capacità di comprensione video."
1330
1330
  },
1331
+ "step-1o-vision-32k": {
1332
+ "description": "Questo modello possiede una potente capacità di comprensione delle immagini. Rispetto ai modelli della serie step-1v, offre prestazioni visive superiori."
1333
+ },
1331
1334
  "step-1v-32k": {
1332
1335
  "description": "Supporta input visivi, migliorando l'esperienza di interazione multimodale."
1333
1336
  },
@@ -1337,6 +1340,9 @@
1337
1340
  "step-2-16k": {
1338
1341
  "description": "Supporta interazioni di contesto su larga scala, adatto per scenari di dialogo complessi."
1339
1342
  },
1343
+ "step-2-mini": {
1344
+ "description": "Un modello di grandi dimensioni ad alta velocità basato sulla nuova architettura di attenzione auto-sviluppata MFA, in grado di raggiungere risultati simili a quelli di step1 a un costo molto basso, mantenendo al contempo una maggiore capacità di elaborazione e tempi di risposta più rapidi. È in grado di gestire compiti generali, con competenze particolari nella programmazione."
1345
+ },
1340
1346
  "taichu2_mm": {
1341
1347
  "description": "Integra capacità di comprensione delle immagini, trasferimento di conoscenze, attribuzione logica, ecc., e si distingue nel campo delle domande e risposte basate su testo e immagini."
1342
1348
  },
@@ -82,6 +82,10 @@
82
82
  }
83
83
  }
84
84
  },
85
+ "reasoning": {
86
+ "thinking": "深く考えています",
87
+ "thought": "深く考えました(所要時間 {{duration}} 秒)"
88
+ },
85
89
  "regenerate": "再生成",
86
90
  "roleAndArchive": "役割とアーカイブ",
87
91
  "searchAgentPlaceholder": "検索アシスタント...",
@@ -76,6 +76,7 @@
76
76
  "custom": "カスタムモデル、デフォルトでは関数呼び出しとビジョン認識の両方をサポートしています。上記機能の有効性を確認してください。",
77
77
  "file": "このモデルはファイルのアップロードと認識をサポートしています。",
78
78
  "functionCall": "このモデルは関数呼び出し(Function Call)をサポートしています。",
79
+ "reasoning": "このモデルは深い思考をサポートしています",
79
80
  "tokens": "このモデルは1つのセッションあたり最大{{tokens}}トークンをサポートしています。",
80
81
  "vision": "このモデルはビジョン認識をサポートしています。"
81
82
  },
@@ -1328,6 +1328,9 @@
1328
1328
  "step-1.5v-mini": {
1329
1329
  "description": "このモデルは、強力なビデオ理解能力を備えています。"
1330
1330
  },
1331
+ "step-1o-vision-32k": {
1332
+ "description": "このモデルは強力な画像理解能力を持っています。step-1vシリーズモデルと比較して、より優れた視覚性能を発揮します。"
1333
+ },
1331
1334
  "step-1v-32k": {
1332
1335
  "description": "視覚入力をサポートし、多モーダルインタラクション体験を強化します。"
1333
1336
  },
@@ -1337,6 +1340,9 @@
1337
1340
  "step-2-16k": {
1338
1341
  "description": "大規模なコンテキストインタラクションをサポートし、複雑な対話シナリオに適しています。"
1339
1342
  },
1343
+ "step-2-mini": {
1344
+ "description": "新世代の自社開発のAttentionアーキテクチャMFAに基づく超高速大モデルで、非常に低コストでstep1と同様の効果を達成しつつ、より高いスループットと迅速な応答遅延を維持しています。一般的なタスクを処理でき、コード能力において特長を持っています。"
1345
+ },
1340
1346
  "taichu2_mm": {
1341
1347
  "description": "画像理解、知識移転、論理帰納などの能力を融合し、画像とテキストの質問応答分野で優れたパフォーマンスを発揮します。"
1342
1348
  },
@@ -82,6 +82,10 @@
82
82
  }
83
83
  }
84
84
  },
85
+ "reasoning": {
86
+ "thinking": "심층 사고 중",
87
+ "thought": "심층적으로 생각했습니다 (소요 시간: {{duration}} 초)"
88
+ },
85
89
  "regenerate": "재생성",
86
90
  "roleAndArchive": "역할 및 아카이브",
87
91
  "searchAgentPlaceholder": "검색 도우미...",
@@ -76,6 +76,7 @@
76
76
  "custom": "사용자 정의 모델, 기본적으로 함수 호출 및 시각 인식을 모두 지원하며, 실제 기능을 확인하세요",
77
77
  "file": "이 모델은 파일 업로드 및 인식을 지원합니다",
78
78
  "functionCall": "이 모델은 함수 호출을 지원합니다",
79
+ "reasoning": "이 모델은 깊이 있는 사고를 지원합니다.",
79
80
  "tokens": "이 모델은 단일 세션당 최대 {{tokens}} 토큰을 지원합니다",
80
81
  "vision": "이 모델은 시각 인식을 지원합니다"
81
82
  },
@@ -1328,6 +1328,9 @@
1328
1328
  "step-1.5v-mini": {
1329
1329
  "description": "이 모델은 강력한 비디오 이해 능력을 가지고 있습니다."
1330
1330
  },
1331
+ "step-1o-vision-32k": {
1332
+ "description": "이 모델은 강력한 이미지 이해 능력을 가지고 있습니다. step-1v 시리즈 모델에 비해 더 강력한 시각 성능을 자랑합니다."
1333
+ },
1331
1334
  "step-1v-32k": {
1332
1335
  "description": "시각 입력을 지원하여 다중 모달 상호작용 경험을 강화합니다."
1333
1336
  },
@@ -1337,6 +1340,9 @@
1337
1340
  "step-2-16k": {
1338
1341
  "description": "대규모 컨텍스트 상호작용을 지원하며, 복잡한 대화 시나리오에 적합합니다."
1339
1342
  },
1343
+ "step-2-mini": {
1344
+ "description": "신세대 자체 개발 Attention 아키텍처인 MFA를 기반으로 한 초고속 대형 모델로, 매우 낮은 비용으로 step1과 유사한 효과를 달성하면서도 더 높은 처리량과 더 빠른 응답 지연을 유지합니다. 일반적인 작업을 처리할 수 있으며, 코드 능력에 있어 특장점을 가지고 있습니다."
1345
+ },
1340
1346
  "taichu2_mm": {
1341
1347
  "description": "이미지 이해, 지식 이전, 논리 귀속 등의 능력을 통합하여, 이미지-텍스트 질문 응답 분야에서 뛰어난 성능을 보입니다."
1342
1348
  },
@@ -82,6 +82,10 @@
82
82
  }
83
83
  }
84
84
  },
85
+ "reasoning": {
86
+ "thinking": "Diep aan het denken",
87
+ "thought": "Diep nagedacht (tijd: {{duration}} seconden)"
88
+ },
85
89
  "regenerate": "Opnieuw genereren",
86
90
  "roleAndArchive": "Rol en archief",
87
91
  "searchAgentPlaceholder": "Zoekassistent...",
@@ -76,6 +76,7 @@
76
76
  "custom": "Custom model, by default, supports both function call and visual recognition. Please verify the availability of the above capabilities based on actual needs.",
77
77
  "file": "This model supports file upload for reading and recognition.",
78
78
  "functionCall": "This model supports function call.",
79
+ "reasoning": "Dit model ondersteunt diepgaand denken",
79
80
  "tokens": "This model supports up to {{tokens}} tokens in a single session.",
80
81
  "vision": "This model supports visual recognition."
81
82
  },
@@ -1328,6 +1328,9 @@
1328
1328
  "step-1.5v-mini": {
1329
1329
  "description": "Dit model heeft krachtige video begrip capaciteiten."
1330
1330
  },
1331
+ "step-1o-vision-32k": {
1332
+ "description": "Dit model heeft krachtige beeldbegripcapaciteiten. In vergelijking met de step-1v serie modellen heeft het een sterkere visuele prestatie."
1333
+ },
1331
1334
  "step-1v-32k": {
1332
1335
  "description": "Ondersteunt visuele invoer, verbetert de multimodale interactie-ervaring."
1333
1336
  },
@@ -1337,6 +1340,9 @@
1337
1340
  "step-2-16k": {
1338
1341
  "description": "Ondersteunt grootschalige contextinteracties, geschikt voor complexe gespreksscenario's."
1339
1342
  },
1343
+ "step-2-mini": {
1344
+ "description": "Een razendsnel groot model gebaseerd op de nieuwe generatie zelfontwikkelde Attention-architectuur MFA, dat met zeer lage kosten vergelijkbare resultaten als step1 behaalt, terwijl het een hogere doorvoer en snellere responstijd behoudt. Het kan algemene taken verwerken en heeft speciale vaardigheden op het gebied van codering."
1345
+ },
1340
1346
  "taichu2_mm": {
1341
1347
  "description": "Gecombineerd met beeldbegrip, kennisoverdracht en logische toerekening, excelleert het in het domein van vraag-en-antwoord met tekst en afbeeldingen."
1342
1348
  },
@@ -82,6 +82,10 @@
82
82
  }
83
83
  }
84
84
  },
85
+ "reasoning": {
86
+ "thinking": "Głęboko myślę",
87
+ "thought": "Głęboko myślałem (czas: {{duration}} sekund)"
88
+ },
85
89
  "regenerate": "Wygeneruj ponownie",
86
90
  "roleAndArchive": "Rola i archiwum",
87
91
  "searchAgentPlaceholder": "Wyszukaj pomocnika...",
@@ -76,6 +76,7 @@
76
76
  "custom": "Niestandardowy model, domyślnie obsługujący zarówno wywołania funkcji, jak i rozpoznawanie wizualne. Proszę zweryfikować możliwość użycia tych funkcji w praktyce.",
77
77
  "file": "Ten model obsługuje wczytywanie plików i rozpoznawanie",
78
78
  "functionCall": "Ten model obsługuje wywołania funkcji (Function Call).",
79
+ "reasoning": "Ten model wspiera głębokie myślenie",
79
80
  "tokens": "Ten model obsługuje maksymalnie {{tokens}} tokenów w pojedynczej sesji.",
80
81
  "vision": "Ten model obsługuje rozpoznawanie wizualne."
81
82
  },
@@ -1328,6 +1328,9 @@
1328
1328
  "step-1.5v-mini": {
1329
1329
  "description": "Ten model ma potężne zdolności rozumienia wideo."
1330
1330
  },
1331
+ "step-1o-vision-32k": {
1332
+ "description": "Ten model ma potężne zdolności rozumienia obrazów. W porównaniu do modeli z serii step-1v, oferuje lepsze osiągi wizualne."
1333
+ },
1331
1334
  "step-1v-32k": {
1332
1335
  "description": "Obsługuje wejścia wizualne, wzmacniając doświadczenie interakcji multimodalnych."
1333
1336
  },
@@ -1337,6 +1340,9 @@
1337
1340
  "step-2-16k": {
1338
1341
  "description": "Obsługuje interakcje z dużą ilością kontekstu, idealny do złożonych scenariuszy dialogowych."
1339
1342
  },
1343
+ "step-2-mini": {
1344
+ "description": "Model oparty na nowej generacji własnej architektury Attention MFA, osiągający podobne wyniki jak step1 przy bardzo niskich kosztach, jednocześnie zapewniając wyższą przepustowość i szybszy czas reakcji. Potrafi obsługiwać ogólne zadania, a w zakresie umiejętności kodowania ma szczególne zdolności."
1345
+ },
1340
1346
  "taichu2_mm": {
1341
1347
  "description": "Łączy zdolności rozumienia obrazów, transferu wiedzy, logicznego wnioskowania i wyróżnia się w dziedzinie pytań i odpowiedzi związanych z obrazem i tekstem."
1342
1348
  },
@@ -82,6 +82,10 @@
82
82
  }
83
83
  }
84
84
  },
85
+ "reasoning": {
86
+ "thinking": "Pensando profundamente",
87
+ "thought": "Pensou profundamente (tempo gasto: {{duration}} segundos)"
88
+ },
85
89
  "regenerate": "Regenerar",
86
90
  "roleAndArchive": "Função e Arquivo",
87
91
  "searchAgentPlaceholder": "Assistente de busca...",
@@ -76,6 +76,7 @@
76
76
  "custom": "Modelo personalizado, por padrão, suporta chamadas de função e reconhecimento visual. Por favor, verifique a disponibilidade dessas capacidades de acordo com a situação real.",
77
77
  "file": "Este modelo suporta leitura e reconhecimento de arquivos enviados.",
78
78
  "functionCall": "Este modelo suporta chamadas de função.",
79
+ "reasoning": "Este modelo suporta pensamento profundo",
79
80
  "tokens": "Este modelo suporta no máximo {{tokens}} tokens por sessão.",
80
81
  "vision": "Este modelo suporta reconhecimento visual."
81
82
  },